JP5749668B2 - Content display method - Google Patents
Content display method Download PDFInfo
- Publication number
- JP5749668B2 JP5749668B2 JP2012016111A JP2012016111A JP5749668B2 JP 5749668 B2 JP5749668 B2 JP 5749668B2 JP 2012016111 A JP2012016111 A JP 2012016111A JP 2012016111 A JP2012016111 A JP 2012016111A JP 5749668 B2 JP5749668 B2 JP 5749668B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- content
- scene
- file
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 35
- 239000002131 composite material Substances 0.000 claims description 9
- 238000009877 rendering Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 70
- 238000010586 diagram Methods 0.000 description 18
- 230000010365 information processing Effects 0.000 description 5
- 241000257303 Hymenoptera Species 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 241000220225 Malus Species 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 241000283086 Equidae Species 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000191291 Abies alba Species 0.000 description 1
- 241000272525 Anas platyrhynchos Species 0.000 description 1
- 235000021016 apples Nutrition 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 239000003651 drinking water Substances 0.000 description 1
- 235000020188 drinking water Nutrition 0.000 description 1
- 235000015220 hamburgers Nutrition 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Projection Apparatus (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、コンテンツ表示システム及び方法に係り、特に、映像や画像のコンテンツを、プロジェクタ装置からスクリーンに投影して表示するコンテンツ表示システム及び方法に関するものである。 The present invention relates to a content display system and method, and more particularly, to a content display system and method for projecting and displaying video and image content on a screen from a projector device.
建造物の壁面や造形物等をスクリーンにして、プロジェクタ装置から映像等のコンテンツを投影して表示する技術として、プロジェクションマッピングが知られている。これは、目の錯覚などを利用して様々なビジュアル効果を実現するものとして最近注目されている。
プロジェクションマッピングに関して、本発明者は特許文献1に記載の映像表示方法を提案している。この技術は、表示部の色彩又は模様を表示部の周囲の色彩又は模様と略同一とし、表示部に所定の映像を表示させると共に映像領域の端部を目立たせない映像を表示する映像表示方法である。
Projection mapping is known as a technique for projecting and displaying content such as video from a projector device using a wall surface of a building or a modeled object as a screen. This has recently attracted attention as a means of realizing various visual effects using optical illusions and the like.
Regarding the projection mapping, the present inventor has proposed a video display method described in
また、特許文献2には、プロジェクタ装置を用いたコンテンツの編集表示システムに関して、第1メモリに保存された催事に関連した定形のコンテンツデータと、第2メモリに保存された催事の当事者側から提供されたオリジナルのコンテンツデータと、第3メモリに保存された催事の最中に撮影した画像を含む新規のコンテンツデータの中から任意に選択された少なくとも2つのコンテンツを合成して編集コンテンツを生成し、この編集コンテンツを、プロジェクタ装置からスクリーンに投影して表示する表示システムが開示されている。
Also,
特許文献1に記載の技術は、物体や絵等の表示対象物に映像の背景及び映像の映像領域の端部を表示させずに表示画像のみを表示させることにより表示対象物と映像との一体感を高める、プロジェクタ装置を用いた表示方法である。然るに、特許文献1には、プロジェクタ装置により投影する画像等のコンテンツをどのように作成するかについては詳細に記載されていない。
The technique described in
また、特許文献2には、複数のコンテンツを合成して編集コンテンツを投影する表示システムが開示されているが、画像等のコンテンツを合成して立体的に見せるための工夫については記載されていない。
最近では、複数の画像コンテンツを合成して投影する表示システムにおいて、特定の画像コンテンツを、定期的に他の画像コンテンツと入れ替えたいというニーズがある。然るに、特許文献1及び2には、合成する複数の画像コンテンツの一部を他のコンテンツに変更して表示する旨についても記載されていない。
In addition,
Recently, there is a need to periodically replace a specific image content with another image content in a display system that synthesizes and projects a plurality of image contents. However,
本発明の目的は、スクリーンを形成する画像等の背景表示コンテンツと、背景表示コンテンツ上に投影する画像等の表示コンテンツを両者の関係性を持たせて作成して、作成した表示コンテンツを背景表示コンテンツ上に投影して表示するコンテンツ表示方法を実現することにある。
本発明はまた、複数レイヤーの画像を選択的に合成して投影用の画像ファイルを作成することにより、背景画像に対して投影される画像等の表示コンテンツを立体的に見せることにある。
An object of the present invention is to create a background display content such as an image forming a screen and a display content such as an image projected on the background display content with a relationship therebetween, and display the created display content as a background display. A content display method for projecting and displaying on content is to be realized.
Another object of the present invention is to display a display content such as an image projected on a background image in a three-dimensional manner by selectively synthesizing images of a plurality of layers and creating an image file for projection.
本発明に係るコンテンツ表示方法は、好ましくは、画像又は映像の表示コンテンツを、プロジェクタ装置を用いてスクリーンに投影して表示するコンテンツ表示方法であって、
該スクリーンが有する第1の表示コンテンツを含む第3の表示コンテンツを作成するステップと、
該スクリーンに対する該プロジェクタ装置の位置合わせを行うために、該第3の表示コンテンツを、該プロジェクタ装置を用いて該スクリーンに投影するステップと、
その後、予め用意された第2の表示コンテンツを、該プロジェクタ装置を用いて該スクリーンに投影するステップと、を有することを特徴とするコンテンツ表示方法、として構成される。
The content display method according to the present invention is preferably a content display method for projecting and displaying an image or video display content on a screen using a projector device,
Creating a third display content including the first display content of the screen;
Projecting the third display content onto the screen using the projector device to align the projector device with respect to the screen;
Then, a second display content prepared in advance is projected onto the screen using the projector device, and the content display method is configured.
本発明によれば、スクリーンを形成する画像等の背景表示コンテンツと、背景表示コンテンツ上に投影する画像等の表示コンテンツを両者の関係性を持たせて作成して、作成した表示コンテンツを背景表示コンテンツ上に投影して表示することが可能である。
また、複数レイヤーの画像を選択的に合成して投影用の画像ファイルを作成することにより、背景画像に対して投影される画像等の表示コンテンツを立体的に見せることができる。
According to the present invention, a background display content such as an image forming a screen and a display content such as an image projected on the background display content are created with a relationship therebetween, and the created display content is displayed in the background. It is possible to project and display on content.
In addition, by selectively synthesizing images of a plurality of layers and creating an image file for projection, display content such as an image projected on a background image can be displayed in a three-dimensional manner.
以下、図面を参照して、本発明の好ましい実施例について説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
図1は、画像コンテンツ表示システムの全体構成例を示す。
画像コンテンツ表示システムは主に、画像(静止画や動画を含む)や映像等のコンテンツ(以下単に画像という)から画像ファイルを作成して、その画像を印刷し表示する処理を行う画像処理装置1と、作成された画像ファイルの画像をスクリーン8に投影して表示するプロジェクタ装置181を備えて構成される。
画像処理装置1は、例えばPC(パーソナルコンピュータ)やサーバのような情報処理装置であり、情報処理部(CPU)11、メモリ12、ハードディスクのような記憶部13、プリンタ14、入力器15、表示器16、及びプロジェクタ装置8への画像コンテンツを出力するプロジェクタ出力制御部171を有する。
FIG. 1 shows an example of the overall configuration of an image content display system.
The image content display system mainly creates an image file from content (hereinafter simply referred to as an image) such as an image (including a still image and a moving image) and a video, and prints and displays the image. And a
The
情報処理部11は本実施例に特徴的な処理を行う。即ち、アプリケーションプログラムを実行して、原画像を基にスクリーンを形成する背景画像のファイルを作成すると共に、投影すべき画像のファイル(単に画像ファイルという)を作成する。更に、背景画像をプリンタ14で印刷すると共に、作成された画像ファイルの画像をプロジェクタ装置18へ転送して、そこでスクリーン8に投影して表示する。このためにアプリケーションプログラムの実行によって実現される機能を、画像ファイル作成処理部1102、画像ファイル印刷処理部1103、画像ファイル表示処理部1104と言うことにする。
The information processing unit 11 performs processing characteristic of this embodiment. That is, the application program is executed to create a background image file for forming a screen based on the original image, and to create an image file to be projected (simply called an image file). Further, the background image is printed by the
画像ファイル作成処理部1102は主に、原画像から壁紙となる背景画像(処理過程ではステージ画像という)のファイルを作成する処理と、背景画像に対する投影画像の位置合わせのためのポジション画像のファイルを作成する処理と、プロジェクタ装置181からスクリーンに投影する画像ファイルの画像を作成する処理等の処理を行う。本実施例では、原画像そのものが背景画像を構成するものとする。(なお、これらの画像ファイルの作成処理の詳細については図6のフローチャートを参照して後述する。)
画像ファイル印刷処理部1103は、図2に示すような、背景画像(ステージ画像という)をプリンタ14で印刷するための処理を行う。その印刷物は壁紙として建物の壁に貼付され、スクリーン8を形成する。画像ファイル表示処理部1104は、指定された画像ファイルの画像を投影用の画像(単に投影画像という)としてプロジェクタ出力制御部171へ転送する。この特徴的な処理によって、壁紙で形成されたスクリーン8の背景画像上に、プロジェクタ装置181によって投影される投影画像が重畳して表示される。(なお、この表示処理の詳細についてはフローチャートを参照して後述する。)
メモリ12は、アプリケーションプログラム等のプログラムや実行処理中の種々のデータを一時的に格納する。記憶部13は例えばHDD(ハードディスクドライブ)であり、アプリケーションプログラム等のプログラムや、作成された画像ファイルや本実施例に特徴的な管理テーブル(後述する)を記憶する。
プリンタ14は、例えばインクジェット式のカラープリンタであり、作成された画像ファイルの一部、即ちスクリーンを形成する壁紙となる背景画像を印刷する。このプリンタは、インクジェットによって数メートル四方の用紙に印刷が可能である。
An image file
The image file
The
The
入力器15は、キーボードやマウス、スキャナ等であり、画像処理装置1の起動や、画像コンテンツの作成、印刷及び表示の処理に際して作業者によって操作される。表示器16は、画像ファイルの作成及び表示の処理、更にステージ画像ファイルの画像をプリンタ14に出力する時に必要な画像ファイルの画像を表示し、またそのための操作の案内等を表示する。
The
プロジェクタ出力制御部117は、画像ファイル表示処理部1103で処理された投影画像をプロジェクタ装置181へ転送する制御を行う。
プロジェクタ装置181は、通常使用されている光学的投影装置であり、数メートル四方のスクリーン8に投影画像を投影して表示する。スクリーン8は例えば建物や店の壁面に形成される投影用のスクリーンである。特徴的なこととして、プリンタ14で印刷された数メートル四方の壁紙が建物の壁に貼付されて形成されたスクリーン8に、プロジェクタ装置181から投影画像を投影する。これにより、スクリーン8としての壁紙の背景画像上に投影された投影画像が合成(重畳)して表示される。投影画像は画像ファイル表示処理部1104の制御によって変更することが可能であり、観賞者(通行人や店の来店者等)は、常時同じ状態の背景画像の壁紙と、その上に投影画像が合成された画像を楽しむことができる。
The projector output control unit 117 performs control to transfer the projection image processed by the image file
The
図2は、背景画像と投影画像との合成の概要と示す。
図2において、(X)のステージ画像は、スクリーン8を形成する背景画像であり、ステージ画像ファイルの画像(単にステージ画像という)である。このステージ画像は、プリンタ14で印刷されて数メートル四方の画像の印刷物となり、建物等の壁に貼付されてスクリーン8を形成する。他の例として、プリンタ14から壁等のスクリーン8に直接インクジェット出力したもの、或いはプリンタ14で印刷された画像をスクリーン8に転写したものでもよい。更に他の例として、プリンタ14で印刷された画像と全く同一のものを、画家等によってスクリーンとなる壁面等に模写して施工したものでもよい。
FIG. 2 shows an outline of the synthesis of the background image and the projected image.
In FIG. 2, a stage image (X) is a background image that forms the screen 8, and is an image of a stage image file (simply referred to as a stage image). This stage image is printed by the
(Y)の投影画像は、プロジェクタ装置181からスクリーン8に対して投影される画像であり、この投影画像をシーン画像ということがある。シーン画像のファイルをシーンファイルということがある。投影画像は黒抜きとなっている背景画像以外の部分である。投影画像の作成は特徴的な処理ステップを有している。投影画像は複数レイヤーの画像の合成である。馬は3本ある中央の木の後ろ、リンゴは中央と右側の木の枝の中、家の手前には蜜蜂、標識には「GOOD」の文字等々、複数の画像の前後関係及び背景画像との前後関係を考慮してシーンファイルを作成することで、最終的に背景画像上に投影される投影画像は、背景画像又は他の投影画像に対して三次元的に見えるようになる。なお、これについては図3以降を参照して詳述する。
The projected image (Y) is an image projected from the
(Z)は、スクリーン8に形成される合成画像である。建物の壁等に施工された背景画像上に、プロジェクタ装置181から投影された投影画像が重畳して表示される。図示の例のように、表示された合成画像は、中央の木の後ろを馬が歩き、中央及び右側の木にはリンゴが生り、家の手前には蜜蜂が飛び、標識には「GOOD」と表示された合成画像となる。これらの画像はお互いに前後関係を保っているので、観賞者に立体的に見える。
(Z) is a composite image formed on the screen 8. The projected image projected from the
図3は、背景画像に対する投影画像の切り出し部分の関係を示す。
本実施例において、背景画像300に対して、投影画像はその一部分301が切り出される。即ち、表示器16の画面に背景画像を表示し、入力器15を操作して切り出し部分301を指定してその部分の画像を切り出す。切り出された一部分の画像はメモリ12に格納され、シーンファイルの作成の基となる。
プリンタ14で印刷される背景画像は画像全体であるが、背景画像から切り出された一部分(四角部分)301の画像に対して立体的に観賞できるように、それを基にシーンファイルが作成される。シーンファイルの画像(投影画像)は、プロジェクタ装置181により背景画像300上に投影される。
このように、背景画像全体ではなく、観賞者に立体的に見せる部分の画像を切り出して、その切り出された画像を基にシーンファイルを作成することは、その作成過程に使用されるメモリの容量を減らし、また画像ファイル作成処理部1102における画像処理時間を短縮する等の、負荷を軽減することができる。
FIG. 3 shows the relationship of the cutout portion of the projection image with respect to the background image.
In this embodiment, a
Although the background image printed by the
In this way, it is not possible to cut out a part of the image that is shown to the viewer in a stereoscopic manner instead of the entire background image, and to create a scene file based on the cut out image, the capacity of the memory used for the creation process And the load such as shortening the image processing time in the image file
図4及び図5は、ステージ画像及びシーン画像を構成する複数のレイヤーの画像を示す。
図4は各レイヤーの画像の重畳した状態を示し、図5は複数のレイヤーのぞれぞれの画像を示す。
本実施例では、シーンファイルを作成するために、(イ)〜(ホ)の5つのレイヤーの画像を作成する。シーンファイルの作成過程で最背面には黒色のレイヤーを配置するので、最背面を入れると6つのレイヤーとなる。最背面の画像は、全ての背面に表示されるシーン画像のレイヤーである。
4 and 5 show images of a plurality of layers constituting the stage image and the scene image.
FIG. 4 shows a state in which images of the respective layers are superimposed, and FIG. 5 shows images of each of the plurality of layers.
In this embodiment, in order to create a scene file, images of five layers (a) to (e) are created. Since the black layer is placed on the back side in the process of creating the scene file, there are 6 layers when the back side is inserted. The backmost image is a layer of scene images displayed on all backsides.
図5を参照して、最背面以外の5つレイヤーの画像について説明する。
図示の例では、(イ)(ハ)(ホ)がシーンレイヤーを構成し、(ロ)と(ニ)がステージレイヤーを構成する。シーンレイヤー(イ)(ハ)(ホ)の画像(シーンレイヤー画像)は、雲や馬、蜜蜂等のように移動してその画像が変化するものであり、これらの画像を合成することでシーンファイルが作成される。
ステージレイヤー(ロ)(ニ)の画像(ステージレイヤー画像)は、一般的には家や木等の静止物であり、ステージ画像と同じ画像が含まれる。即ちステージレイヤー画像(ロ)(ニ)はステージ画像の一部を構成し、後述するように、背景画像と投影画像との位置合わせのために使用される。
With reference to FIG. 5, an image of five layers other than the backmost surface will be described.
In the illustrated example, (A), (C), and (E) constitute a scene layer, and (B) and (D) constitute a stage layer. Scene layers (I), (C), and (E) images (scene layer images) move like clouds, horses, bees, etc., and change their images. A file is created.
The image of the stage layer (b) (d) (stage layer image) is generally a stationary object such as a house or a tree, and includes the same image as the stage image. That is, the stage layer image (b) (d) constitutes a part of the stage image and is used for alignment of the background image and the projected image, as will be described later.
ここで、ステージレイヤーとして、(ロ)と(ニ)の2つのレイヤーに分けた理由は、これらのレイヤーの間に、(ハ)のシーンレイヤーの画像(馬の画像)を表示することで遠近感を持たせるためである。因みに、ステージレイヤー(ニ)の画像を作成しないで、この画像(ニ)をステージレイヤー(ロ)の画像に含めて1つのステージレイヤーの画像とすることも可能であるが、もしこのようにすると、シーンレイヤー(ハ)の馬の画像は、単に1つのステージレイヤー(ロ)の画像の上に表示されることになるので、遠近感は出せなくなる。 Here, the reason for dividing the stage layer into two layers (B) and (D) is that the scene layer image (horse image) of (C) is displayed between these layers. This is to give a feeling. Incidentally, it is possible to include this image (d) in the image of the stage layer (b) without creating the image of the stage layer (d), but if this is done, Since the horse image of the scene layer (c) is simply displayed on the image of one stage layer (b), the perspective cannot be obtained.
一方、図示の例では、ステージレイヤーは、(ロ)と(ニ)の2つであるが、これに限らず、3つ以上とすることが可能である。例えば、ステージレイヤー(ロ)を更に分割して、家のみが表示されたレイヤー(ロ−1)、2本の木をそれぞれ別々に表示したレイヤー(ロ−2)(ロ−3)、更に後ろの山と大地を表示したレイヤー(ロ−4)の如く、構成することができる。この場合、それぞれのステージレイヤー(ロ−1)〜(ロ−4)の間に、シーンレイヤーを配置することが可能となる。例えば、シーンレイヤー(ホ)の画像を、蜜蜂の画像のレイヤーとリンゴの画像のレイヤーに分割して複数のシーンレイヤーを構成し、それら分割されたシーンレイヤーを各ステージレイヤー(ロ−1)〜(ロ−4)の間に挿入することが可能である。このようにすれば、最終的に背景画像と投影画像が合成された合成画像は一層立体的に見える。 On the other hand, in the example shown in the figure, there are two stage layers (B) and (D). For example, the stage layer (b) is further divided into a layer where only the house is displayed (b-1), a layer where two trees are displayed separately (b-2) (b-3), and further back It can be configured like a layer (B-4) displaying the mountain and ground. In this case, a scene layer can be arranged between the respective stage layers (B-1) to (B-4). For example, the scene layer (e) image is divided into a bee image layer and an apple image layer to form a plurality of scene layers, and these divided scene layers are divided into stage layers (b-1) to (B-4) can be inserted. In this way, the synthesized image in which the background image and the projected image are finally synthesized looks more three-dimensional.
次に、図7〜図8を参照して、本実施例で使用される管理テーブルの構成について説明する。
図7は、レイヤー管理テーブルの構成を示す。
レイヤー管理テーブルは、画像ファイルを作成する過程で、ステージレイヤーやシーンレイヤー等の各レイヤーを管理するためのテーブルである。この管理テーブルは、画像コンテンツ識別名称と、レイヤー名、ステージレイヤー指定フラグ、シーンレイヤー指定フラグから構成される。なお、対応するレイヤーの画像は、記憶部13に記憶されている。
レイヤー名は、投影画像として切り出された画像について、分割されたレイヤーの数に応じて付与される。図4の例の場合、レイヤー数は(イ)〜(ホ)の5つであり、レイヤー名(ロ)と(ニ)が、ステージレイヤーを構成するので、これらのステージレイヤーフラグは、「1」となっている。また、レイヤー名(イ)(ハ)(ホ)は、シーンレイヤーを構成するので、これらのフラグは、「1」となっている。
なお、レイヤーの数が増えた場合には、その数に応じて行数を増やして、レイヤー名やフラグ等を付与すればよい。
Next, the configuration of the management table used in this embodiment will be described with reference to FIGS.
FIG. 7 shows the configuration of the layer management table.
The layer management table is a table for managing each layer such as a stage layer and a scene layer in the process of creating an image file. This management table includes an image content identification name, a layer name, a stage layer designation flag, and a scene layer designation flag. The corresponding layer image is stored in the
The layer name is given according to the number of divided layers for the image cut out as the projection image. In the case of the example of FIG. 4, the number of layers is five (A) to (E), and the layer names (B) and (D) constitute the stage layer. Therefore, these stage layer flags are “1”. " Also, since the layer names (A), (C), and (E) constitute a scene layer, these flags are “1”.
When the number of layers increases, the number of rows may be increased according to the number of layers, and layer names, flags, etc. may be given.
図8は、コンテンツ管理テーブルの構成を示す。
コンテンツ管理テーブルは、ステージファイル、及び作成されたポジションファイル、シーンファイルを管理するためのテーブルである。コンテンツ管理テーブルは、画像コンテンツごとに、背景画像となるステージファイルを指定するステージファイル名、背景画像に対する投影画像の位置決めのためのポジションファイルを指定するポジションファイル名、及び投影画像となるシーンファイルを指定するシーンファイル名を登録する。
なお、対応するファイルの画像は、記憶部13に記憶されている。
FIG. 8 shows the configuration of the content management table.
The content management table is a table for managing the stage file and the created position file and scene file. The content management table includes, for each image content, a stage file name that designates a stage file that becomes a background image, a position file name that designates a position file for positioning the projection image with respect to the background image, and a scene file that becomes the projection image. Register the specified scene file name.
The image of the corresponding file is stored in the
次に、図6を参照して、ステージ画像ファイル及びシーン画像ファイルの作成処理動作について説明する。なお、図9A〜図9Cに示す、各レイヤーの画像の例も参照する。
この処理動作は、画像ファイル作成処理部1102の処理により実行される。
まず、作業者が入力器15を操作することにより、記憶部13に予め記憶された原画像が読み出され(S601)、その原画像は表示器16の画面に表示される。そして、作業者は入力器15を操作して、原画像からステージ画像(図2(X))に対応する部分を切り出してステージ画像ファイルを作成する。なお、原画像全体をステージ画像としてもよい。作成されたステージ画像ファイルは、ステージ画像ファイル名「Pステージ」が付与されて、記憶部13に記憶される。また、ステージ画像ファイル名「Pステージ」はコンテンツ管理テーブルに登録される。
Next, the stage image file and scene image file creation processing operations will be described with reference to FIG. In addition, the example of the image of each layer shown to FIG. 9A-FIG. 9C is also referred.
This processing operation is executed by processing of the image file
First, when the operator operates the
次に、作業者は入力器15を操作して、ステージ画像のうち投影エリアとなる部分301を指定して、その部分の画像を切り出す。切り出された画像は一旦、記憶部13に記憶される(S602)。次に、作業者は入力器15を操作して、切り出された画像を基に複数のレイヤー(本例の場合5つのレイヤー)の画像を作成して、各レイヤーにレイヤー名(イ)〜(ホ)を付与する。各レイヤー名は、レイヤー管理テーブルのレイヤー名に登録される(S621)。また、5つの各レイヤーの画像は記憶部13に一旦記憶される(S602)。ここで、幾つのレイヤーを切り出すかは、ステージ画像中の静止している部分(静止部)と、動く部分(動部)、及び静止部を同じ画像面で表すか或いは異なる画像面で表すか、動部を同じ画像面で表すか或いは異なる画像面で表すか、を考慮して決める。本例の場合、蜜蜂や馬、雲などは動部として捉え(3つのレイヤー(イ)(ハ)(ホ))、一方、静止部を2つのレイヤーに分けて((ロ)と(ニ))、馬を(ロ)と(ニ)の間に表示して、立体的に見せることを狙っている。
Next, the operator operates the
次に、作業者は入力器15を操作して、5つのレイヤーのうちからレイヤー(ロ)と(ニ)をステージレイヤーに指定して、レイヤー管理テーブルのステージレイヤーフラグに「1」書き込む(S605,S622)。更に、図9Aに示すように、ステージレイヤー(ロ)と(ニ)の画像をレンダリング処理(画素の集合の作成)して、ポジションファイルを作成する(S606)。作成されたポジションファイルは記憶部13に記憶され(S607)、またポジションファイルに付与されたポジションファイル名「Pポジション」はコンテンツ管理テーブルに登録される(S608)。このポジションファイルの画像は、プロジェクタ装置181によって投影エリアに投影され、背景画像に対する投影画像の位置合わせのために使用される(図11(P)参照して後述する)。
Next, the operator operates the
次に、シーンファイルの作成に移る。
レイヤー管理テーブルのレイヤー(イ)(ハ)(ホ)をシーンレイヤーに指定し、それらのレイヤーに対応するシーンレイヤーフラグに「1」を書き込む(S608)。
図9Bに示すように、全てのレイヤーの画像を記憶部13から読み出して表示器16に表示し、最背面と同様にステージレイヤー(ロ)(ニ)の画像を黒く着色する(S609)。即ち、各ステージレイヤー(ロ)(ニ)の画像をその下のシーンレイヤーの画像のマスクとする。そして、図9Cに示すように、黒に着色されたステージレイヤー(ロ)(ニ)とシーンレイヤー(イ)(ハ)(ホ)を、それらの上下関係の順番を保って重ね合わせてレンダリング処理して、シーンファイルを作成する(S610)。シーンファイルの画像は、ステージレイヤーの画像部分が黒抜きされ、シーンレイヤーの画像のみがカラーに着色された画像である。作成されたシーンファイルの画像は記憶部13に記憶される(S611)。また、このシーンファイルに付与されたシーンファイル名「Pシーン」をコンテンツ管理テーブルに登録する(S612)。
Next, the process moves to creating a scene file.
Layers (A), (C), and (E) in the layer management table are designated as scene layers, and “1” is written in the scene layer flags corresponding to these layers (S608).
As shown in FIG. 9B, the images of all the layers are read from the
このようにして、記憶部13には、作成されたステージファイル、ポジションファイル及びシーンファイルが記憶され、またコンテンツ管理テーブルには、これらファイルの名称が登録される。これにより、背景画像や投影画像、位置決めのためのポジション画像が用意された。
Thus, the created stage file, position file, and scene file are stored in the
次に、図10を参照して、背景画像の印刷及び投影画像の投影動作について説明する。即ち、ステージファイルから背景画像を作成する処理(背景画像作成モード)、及びその後シーンファイルから投影画像を生成する処理(投影画像生成モード)の動作について説明する。
まず、背景画像作成モードにおいて、作業者は入力器15を操作して、コンテンツ管理テーブルのコンテンツ名及びステージ画像ファイル名を指定する(S101)。すると、記憶部13に記憶されたステージ画像が読み出されて、表示器16に表示される(S102)。
更に、入力器15を操作して印刷を指示すると、画像ファイル印刷処理部1103の処理に従い、ステージ画像ファイルの画像はプリンタ14へ転送して、そこでカラー印刷される(S103)。印刷された画像は壁紙となり、作業者によって建物の壁等に貼付されて、スクリーン8を形成する(図11(X)参照)。
Next, background image printing and projection image projection operations will be described with reference to FIG. That is, operations of a process for creating a background image from a stage file (background image creation mode) and a process for generating a projection image from a scene file (projection image generation mode) are described.
First, in the background image creation mode, the operator operates the
Further, when printing is instructed by operating the
次に、画像ファイル表示処理部1104による投影画像の生成モードの動作に移る。
まず、入力器15の操作により、コンテンツ管理テーブルのコンテンツ名及びポジションファイル名「Pポジション」が指定されると、記憶部13に記憶されたポジションファイルが読み出されて、その画像が表示器16に表示される(S121)。このポジションファイルの画像(ポジション画像という)は、プロジェクタ出力制御部171の制御の下、プロジェクタ装置181へ転送されて、スクリーン8に投影される(S122)。ポジション画像の投影エリアは、スクリーン8を形成する背景画像の内の、当初切り出されたステージ画像の部分301である。しかし、プロジェクタ装置8の傾きや投影方向等によって、ステージ画像の部分からずれている場合がある(図11(Z´))。そこで、背景画像に対するポジション画像の投影位置、大きさ、傾き等を調整する(S123)。これは、作業者の操作によって、プロジェクタ装置8の投影位置や投影方向を動かして調整したり、ズーム調整によって投影するポジション画像の大きさを変えたり、更にはピント調整する等の操作により行われる。
Next, the operation proceeds to a projection image generation mode operation by the image file
First, when the content name and the position file name “P position” in the content management table are designated by the operation of the
投影されるポジション画像とステージ画像との位置ずれ等が調整できたと、作業者が判断した場合、作業者が入力器15を操作して、コンテンツ管理テーブルのシーンファイル名「Pシーン」を指定すると、画像ファイル表示処理部1104は記憶部13からシーンファイルを読み出す(S124)。読みだされたシーンファイルはポジションファイルと入れ替えられて、シーン画像が表示器16に表示される(S125)。このシーン画像はプロジェクタ出力制御部171を介してプロジェクタ装置181へ転送される(S126)。プロジェクタ装置181は、背景画像に対して位置合わせが完了したステージ画像の部分に、シーン画像を投影する。
これにより、壁紙の背景画像にはステージ画像が、位置ずれなく重畳して投影され、両者の合成した画像(図2(Z))が形成される。
When the operator determines that the positional deviation between the projected position image and the stage image has been adjusted, the operator operates the
Thereby, the stage image is superimposed on the background image of the wallpaper and projected without being displaced, and an image (FIG. 2 (Z)) obtained by combining both is formed.
この実施例は、実施例1を前提として、同じ場所に投影する投影画像となるシーンファイルを複数用意して、複数のシーンファイルを順次変更して(入れ替えて)、投影画像を変更する例である。図12に示すように、時間帯が夜になった場合(例えばPM6時〜AM6時)、図2の投影画像に対して、夜用の投影画像(Y)に切り替えて投影する例である。 This embodiment is an example in which a plurality of scene files serving as projection images to be projected on the same place are prepared on the premise of the first embodiment, and the plurality of scene files are sequentially changed (replaced) to change the projection image. is there. As shown in FIG. 12, when the time zone is night (for example, from PM6 to AM6), the projection image of FIG. 2 is switched to the night projection image (Y) and projected.
これを実現するために、情報処理部11はタイマ(ソフトウェアタイマ等)を備え、タイマが一定時刻を計時することにより又は一定時間間隔でシーンファイルを入れ替える。また実施例1に比べて、夜用のシーンファイルが追加され、さらに夜用のシーンファイルの作成のためにシーンレイヤーが増える。 In order to realize this, the information processing unit 11 includes a timer (software timer or the like), and replaces the scene file when the timer measures a certain time or at certain time intervals. Also, compared to the first embodiment, a night scene file is added, and the number of scene layers is increased to create a night scene file.
即ち、図14のレイヤー管理テーブルに示すように、実施例1において、昼間のシーンファイルを作成した、シーンレイヤー(イ−1)(ハ−1)(ホ−1)に対して、夜用のシーンレイヤー(イ−2)(ハ−2)(ホ−2)が新たに用意され、コメント欄には変更条件を示す時間帯が記録される。夜用のシーンレイヤー(イ−2)は昼間の雲が星空に変わった画像、(ハ−2)は馬が居なくなった画像、(ホ−2)は蜜蜂が居なくなった画像、である。 That is, as shown in the layer management table of FIG. 14, in the first embodiment, the scene layers (A-1), (C-1), and (E-1) for which the daytime scene file was created are used for the night. Scene layers (A-2), (C-2), and (E-2) are newly prepared, and a time zone indicating a change condition is recorded in the comment column. The night scene layer (I-2) is an image in which a daytime cloud is changed to a starry sky, (C-2) is an image in which a horse is no longer present, and (E-2) is an image in which a bee is absent.
画像ファイル作成処理部1102は、これらのシーンレイヤー(イ−2)(ハ−2)(ホ−2)の画像をレンダリング処理して、図12(Y)のようなシーンファイルの画像(投影画像)を作成する。作成されたシーンファイルは、記憶部13に記憶されると共に、図15の画像コンテンツ管理テーブルに示すように、昼用のシーンファイル名「P1昼」に対して、夜用のシーンファイル名「P1夜」が付与されて登録される。
The image file
次に、図13を参照して、シーンファイルから投影画像を生成する処理動作について説明する。なお、背景画像の作成モード及びシーン画像の表示モードのうちの位置合わせのステップ(S123)までは、実施例1の図10と同様であるので、説明を省略する。
投影画像の位置合わせが終了した後、画像ファイル表示処理部1104の処理の下、入力器15の操作により、コンテンツ管理テーブルのシーンファイル名「P1昼」が指定されると、画像ファイル表示処理部1104は記憶部13からシーンファイルを読み出す(S1301)。読みだされたシーンファイルはポジションファイルと入れ替えられる(S1302)。そして、タイマが昼(AM6〜PM6)か判定される(S1303)。判定の結果、昼の場合にはシーンファイル「P1昼」の画像が、プロジェクタ出力制御部171を介して、プロジェクタ装置181へ転送され(S1304)、プロジェクタ装置181は、背景画像に対して位置合わせが完了したステージ画像の部分に、シーン画像を投影する(S1305)。
Next, a processing operation for generating a projection image from a scene file will be described with reference to FIG. The steps up to the alignment step (S123) in the background image creation mode and the scene image display mode are the same as those in FIG.
After the alignment of the projected image is completed, when the scene file name “P1 daytime” in the content management table is designated by the operation of the
一方、タイマによる判定(S1303)の結果、夜の場合、シーンファイル「P1夜」の画像が記憶部13から読み出され、同様にして、プロジェクタ出力制御部171を介して、プロジェクタ装置181へ転送され(S1307)、背景画像に対して位置合わせが完了したステージ画像の部分に、シーン画像が投影される(S1305)。
以後、タイマの時間の経過と共に、シーンファイル「P1昼」とシーンファイル「P1夜」とが、記憶部13から交互に読み出されて、プロジェクタ装置181へ転送され、同様にして、背景画像上に投影される。
On the other hand, as a result of the determination by the timer (S1303), in the case of night, the image of the scene file “P1 night” is read from the
Thereafter, with the lapse of the timer time, the scene file “P1 daytime” and the scene file “P1 night” are alternately read from the
実施例2はまた種々変形して実施し得る。
例えば、変更すべきシーンファイルを3つ以上(例えば4つのシーンファイル)用意しておき、午前8時から午後8時までの12時間に、一定時間間隔で(例えば4時間毎に)これらのシーンファイルを自動的に順次変更することが可能である。これにより例えば、午前8時に馬は餌を食べており、正午には木陰に寝そべり、午後4時には水を飲んでいるシーン、等々の画像を変更して表示することができる。
The second embodiment can also be implemented with various modifications.
For example, three or more scene files to be changed (for example, four scene files) are prepared, and these scenes are set at regular intervals (for example, every four hours) at 12 hours from 8 am to 8 pm. Files can be automatically and sequentially changed. Thereby, for example, a horse is eating at 8 am, lying in the shade at noon, and drinking water at 4 pm, and so on.
また適用例として、例えば、スーパーやハンバーグチェーン店等のタイムサービスに適用することができる。即ち、店の壁には内装用又は広告宣伝用の壁紙(図2のステージ画像に相当のもの)を貼付しておき、投影画像を構成する特定のシーンファイル(例えば特定のハンバーグと飲み物のセットの画像)を開店時から午後2時まで投影画像に含めて投影しておき、午後2時になったら別のタイムサービスに変更する旨の別のメニューのシーンファイルと自動的に入れ替えることができる。 As an application example, for example, it can be applied to time services such as supermarkets and hamburg chain stores. In other words, interior or advertising wallpaper (corresponding to the stage image in FIG. 2) is pasted on the wall of the store, and a specific scene file (for example, a set of a specific hamburger and drink) that constitutes the projected image Can be automatically included in the projected image from the opening of the store until 2 pm, and can be automatically replaced with another menu scene file to change to another time service at 2 pm.
また、昼と夜で業態が異なるカフェバー等の壁紙とそれに画像を投影する場合に適用することができる。店の壁紙の画像は同じであるが、昼と夜で投影する一部の画像コンテンツを変更することで、店内の雰囲気を容易に変えることが可能である。
また他の適用例として、例えばイベント広場やアミューズメント施設への適用も可能である。例えば壁紙としてクリスマスツリーの画像を掲示しておき、ツリーの装飾物を夜間は点灯させるように、時刻の経過に応じてシーンファイルを適宜変更することで対応が可能である。
Further, the present invention can be applied to wallpaper such as a cafe bar that has different business conditions during the day and at night, and images projected thereon. The image of the store wallpaper is the same, but it is possible to easily change the atmosphere in the store by changing some image contents projected at day and night.
As another application example, for example, application to an event plaza or an amusement facility is also possible. For example, an image of a Christmas tree can be posted as wallpaper, and the scene file can be appropriately changed as time passes so that the decorations on the tree can be lit at night.
この実施例は、背景画像の複数の場所に対して複数のプロジェクタ装置よりそれぞれ投影画像を投影して、合成画像を形成する例である。
図16に、最終的に形成される画像1600と複数の投影エリアの関係を示す。合成画像1600には、2つの投影エリア1601,1602が設定される。投影エリア1601、1602に対して2台のプロジェクタ装置からそれぞれ独立的にシーン画像が投影される。投影エリア1601、1602は、シーンファイルやポジションファイルを作成するための画像切り出し部分となる。
This embodiment is an example in which a projected image is projected from a plurality of projector devices to a plurality of locations of a background image to form a composite image.
FIG. 16 shows the relationship between the finally formed
図17に示すように、背景画像1600´上を形成するステージ画像と、この背景画像1600´上に設定された投影エリア1601、1602(ポジション画像部分1601´、1602´)に投影される、シーン画像1701とシーン画像1702が作成される。ここで、投影エリア1601に対するシーン画像1701は実施例1と同様であるが、投影エリア1602に対するシーン画像1702は、池にアヒルがいる画像となる。
なお、シーン画像1701及び1702のファイルやそれらのポジションファイルの作成処理は実施例1と同様であるので、ここでは説明を省略する。
本実施例の場合、背景画像となる壁紙の作成は、共通のステージ画像(図17(A))をプリンタ14で1回印刷するだけで済む。
As shown in FIG. 17, a stage image formed on the
Note that the
In the case of this embodiment, the wallpaper that becomes the background image can be created only by printing the common stage image (FIG. 17A) once by the
図18は画像コンテンツ表示システムの全体構成を示す。
この表示システムは、図1の表示システムにおけるプロジェクタ出力制御部171及びプロジェクタ装置181に、更にプロジェクタ出力制御部172及びプロジェクタ装置182を追加して構成される。即ち、プロジェクタ装置181が投影エリア1601(P1ポジション)を投影し、プロジェクタ装置182が投影エリア1602(P2ポジション)を投影する。
FIG. 18 shows the overall configuration of the image content display system.
This display system is configured by further adding a projector
図19にコンテンツ管理テーブルの構成例を示す。
この例は、1つのステージ画像「Pステージ」に対して、2つの投影エリア1601,1602に対応して、「P1ポジション」と「P2ポジション」の2つのポジションファイルが用意される。この例は実施例2の発明も加味して、ポジションごとに昼用のシーンファイル「P1昼」「P2昼」と、夜用のシーンファイル「P1夜」「P2夜」がそれぞれ用意される。即ち、投影エリア1601と投影エリア1602の投影画像は、昼と夜でそれぞれ同じタイミング(12時間ごとに)で切り替えられることになる。
なお、実施例2の発明を加味しなければ、夜用のシーンファイル「P1夜」及び「P2夜」を不要とすればよい。
FIG. 19 shows a configuration example of the content management table.
In this example, two position files of “P1 position” and “P2 position” are prepared corresponding to the two
If the invention of the second embodiment is not taken into consideration, the night scene files “P1 night” and “P2 night” may be unnecessary.
次に、図20を参照して、背景画像の作成処理及び投影画像の生成処理動作について説明する。
共通の背景画像1600´の作成処理(S101〜S103)は実施例1(図10)における処理動作と同様である。
また、プロジェクタ装置181に対する、ポジションファイル「P1ポジション」の作成(S121−1)からシーン画像「P1昼」の投影エリア1601への投影動作(S127−1)も実施例1(図10)における処理動作と同様である。
更に、プロジェクタ装置182に対する、ポジションファイル「P2ポジション」の作成(S121−2)からシーン画像「P2昼」の投影エリア1602への投影動作(S127−2)も、実施例1(図10)における処理動作(或いはプロジェクタ装置181に対する処理動作)と同様である。
以上のように、実施例3によれば、スクリーンとして共通に印刷された背景画像上に、複数の投影画像をそれぞれ独立的に投影して、合成画像を表示することが可能となる。
Next, background image generation processing and projection image generation processing will be described with reference to FIG.
The
Further, the projection operation (S127-1) from the creation of the position file “P1 position” (S121-1) to the
Further, the projection operation (S127-2) from the creation of the position file “P2 position” (S121-2) to the
As described above, according to the third embodiment, it is possible to independently project a plurality of projection images onto a background image that is commonly printed as a screen and display a composite image.
なお、実施例3も種々変形して実施し得る。
例えば、実施例2を併せて適用して、投影エリア1601のシーンの画像の変更と、投影エリア1602のシーンの画像の変更をそれぞれ別々のタイミングで行うこともできる。これは、図19のコンテンツ管理テーブルの変更条件を適宜変えることで、実施例2に即して実施できる。
In addition, Example 3 can also be implemented with various modifications.
For example, the second embodiment can also be applied to change the scene image in the
更に他の例として、スクリーン8は平面である必要はない。例えば直角のコーナーを有する壁に、ステージ画像を印刷した壁紙を真ん中で折り曲げて直角のコーナーに貼付することで容易に実現できる。この場合、投影エリア601に投影するプロジェクタ装置181と、投影エリア1602に投影するプロジェクタ装置182はそれぞれ別々の方向から対象とする投影エリアへ画像等を投影することになる。
As yet another example, the screen 8 need not be planar. For example, it can be easily realized by folding a wallpaper on which a stage image is printed on a wall having a right-angled corner and sticking it to the right-angled corner. In this case, the
更に他の例として、スクリーン8は立体形状の柱や、表裏を有する展示物や造形物に形成することも可能である。また、投影するプロジェクタ装置の数も2台に限らず、3台以上設置することができる。この場合、シーンファイルやポジションファイルの作成処理、及び画像表示処理等の機能もそれぞれの投影エリアの数に応じて増やす。例えば、一辺が数メートルの大きな四角の柱の各辺に、それぞれ投影エリア(4つの投影エリア)を設定するように、四角の柱を背景画像の壁紙で包囲し、更に四角の柱の各辺に対応してプロジェクタ装置(4台のプロジェクタ装置)を設置する。各投影エリアに対応するプロジェクタ装置からそれぞれ固有のシーン画像を投影することにより、四角の柱の周囲に投影画像を合成することが可能である。 As yet another example, the screen 8 can be formed as a three-dimensional column or an exhibit or a modeled object having front and back surfaces. Further, the number of projector devices to project is not limited to two, and three or more projector devices can be installed. In this case, functions such as scene file and position file creation processing and image display processing are also increased in accordance with the number of projection areas. For example, a square column is surrounded by the background image wallpaper so that a projection area (four projection areas) is set for each side of a large square column with a side of several meters, and each side of the square column Projector apparatuses (four projector apparatuses) are installed corresponding to the above. By projecting a unique scene image from the projector device corresponding to each projection area, it is possible to synthesize the projection image around the square pillar.
以上、本発明の実施例1〜3について説明したが、本発明は更にいろいろと変形し、応用して実施し得る。
上記実施例では、原画像を基に背景画像及び投影画像のファイルを作成するとした。即ち、原画像から投影画像を作成するための画像を切り出し、その切り出した画像を複数のレイヤーに分割して、ステージレイヤー及びシーンレイヤーを作成している。しかし、これに限らない。他の例によれば、ステージ画像及びポジション画像は第1の原画像を基に作成し、シーン画像は別の原画像(第2乃至第nの原画像)を基に、ステージ画像に設定された投影エリアに合うように作成することができる。この場合、作成者は、任意の複数の画像を寄せ集めて、それら画像の上下関係を考慮してシーンレイヤーを作成し、作成されたシーンレイヤーを重畳してシーン画像のファイルを作成することができる。
While the first to third embodiments of the present invention have been described above, the present invention can be further modified and applied.
In the above-described embodiment, the background image and projection image files are created based on the original image. That is, an image for creating a projection image is cut out from the original image, and the cut out image is divided into a plurality of layers to create a stage layer and a scene layer. However, it is not limited to this. According to another example, the stage image and the position image are created based on the first original image, and the scene image is set as the stage image based on another original image (second to nth original images). Can be created to fit the projected area. In this case, the creator can collect a plurality of arbitrary images, create a scene layer in consideration of the hierarchical relationship of these images, and create a scene image file by superimposing the created scene layers. it can.
更に、背景画像と投影画像のファイルの作成に関して、実施例1と上記例を折衷した例が可能である。即ち、実施例1のように原画像を基にしてステージレイヤー及びシーンレイヤー(第1種のシーンレイヤー)を作成し、更に他の原画像を基に第2種のシーンレイヤーを作成して、この第2種のシーンレイヤーと第1種のシーンレイヤーの上下関係を考慮して両者のシーンレイヤーを重畳させてシーン画像のファイルを作成することができる。例えば、図4乃至図5に示すように、シーンレイヤー(イ)〜(ホ)を作成した後に、更に他の原画像を用いて、シーンレイヤー(イ)の上に、鳥が飛んでいる画像のシーンレイヤー(ヘ)を追加し、更にシーンレイヤー(ホ)とステージレイヤー(ニ)の間に、蝶が飛んでいる画像のシーンレイヤー(ト)を追加して、これらの全てのシーンレイヤーを含んだシーン画像を作成することができる。 Further, with respect to the creation of the background image and projection image files, an example in which Example 1 is combined with the above example is possible. That is, a stage layer and a scene layer (first type scene layer) are created based on the original image as in the first embodiment, and a second type scene layer is created based on another original image. In consideration of the vertical relationship between the second type of scene layer and the first type of scene layer, a scene image file can be created by superimposing the two scene layers. For example, as shown in FIGS. 4 to 5, after scene layers (a) to (e) are created, an image of a bird flying on the scene layer (a) using another original image Add a scene layer (F), and then add a scene layer (G) with an image of a flying butterfly between the scene layer (e) and the stage layer (d). An included scene image can be created.
また、上記実施例では、画像処理装置1は、例えばPCやサーバ等のコンピュータで実現されるとした。他の例として、画像処理装置1における画像ファイル作成処理と、作成された画像ファイルの印刷処理及び表示処理を別に行うことが可能である。例えば、画像ファイル作成処理及び印刷処理は、上記実施例と同様にPCやサーバ等のコンピュータで実現し、画像ファイルの表示処理はDVD装置を用いて実現することが可能である。この場合、DVD装置はプロジェクタ装置を接続するプロジェクタ出力制御部171を備えていることが前提である。作成されたステージ画像ファイル、ポジションファイル及び1又は複数のシーン画像ファイルを記憶した光ディスクをDVD装置にセットして表示操作することで、スクリーンに投影、表示することが可能である。
なお、背景画像を生成する印刷処理は、画像ファイルを作成したPC等で行う必要はなく、別のプリンタを用いて行うことも可能である。
In the above embodiment, the
Note that the printing process for generating the background image does not need to be performed by the PC or the like that created the image file, and can be performed by using another printer.
更に他の適用例として、画像処理装置1とプロジェクタ装置181は位置的に必ずしも近くに設置することを要しない。例えば、画像処理装置1とプロジェクタ装置181(上記変形例で言えばDVD装置)を、インタネット等のネットワークを介して接続した画像等表示システムとして実現することができる。この場合、画像処理装置1とプロジェクタ装置181(上記変形例で言えばDVD装置)は、画像ファイルを送受信する通信機能を有し、各装置はIPアドレス等を有することが必要である。
As yet another application example, the
また、1台の画像処理装置1に、ネットワークを介して複数のDVD装置やコンピュータを接続し、これらのDVD装置やコンピュータに接続されたプロジェクタ装置を用いて画像等をスクリーンに投影することも可能である。例えば、本店又はセンターに画像処理装置1を設置して、複数の支店の壁には同じ背景画像からなる壁紙を貼付しておき、本店の画像処理装置から支店のDVD装置やコンピュータに定期的にシーンファイルを配信して、複数の各プロジェクタ装置から同じ画像をスクリーンに投影することが可能である。
It is also possible to connect a plurality of DVD devices and computers to a single
更に他の例によれば、画像処理装置1から全ての支店のDVD装置等に同じシーンファイルを配信することを要しない。複数の支店ごとに別々のシーンファイルを配信するようにしてもよい。例えば、複数の支店のうちある支店のDVD装置等には画像処理装置1から風景Pに関する「Pシーン」のシーンファイル(図8参照)を配信し、他の支店のDVD装置等には風景Qに関する「Qシーン」のシーンファイルを配するようにしてもよい。
According to yet another example, it is not necessary to distribute the same scene file from the
1:画像処理装置 11:情報処理部(CPU) 12:メモリ
13:記憶部 14:プリンタ 15:入力器 16:表示器
1102:ファイル作成処理部 1103:画像ファイル印刷処理部
1104:画像ファイル表示処理部
171:プロジェクタ出力制御部 181:プロジェクタ装置 8:スクリーン
1: Image processing device 11: Information processing unit (CPU) 12: Memory 13: Storage unit 14: Printer 15: Input device 16: Display device
1102: File creation processing unit 1103: Image file printing processing unit
1104: Image file display processing unit 171: Projector output control unit 181: Projector device 8: Screen
Claims (5)
予め作成された第2の表示コンテンツを記憶部に格納しておき、
該スクリーンが有する第1の表示コンテンツを基に作成された第3の表示コンテンツを該記憶部に格納し、
該スクリーンに対する該プロジェクタ装置の位置合わせを行うときに、該記憶部に格納された該第3の表示コンテンツを読み出して、該プロジェクタ装置を用いて該スクリーンに投影し、
その後、該記憶部に格納された第2の表示コンテンツを読み出して、該プロジェクタ装置を用いて該スクリーンに投影する
ことを特徴とするコンテンツ表示方法。 A content display method for projecting and displaying image or video display content on a screen using a projector device,
May be stored a second display container down tree created in advance in the storage unit,
Storing the third display content created based on the first display content of the screen in the storage unit;
When positioning the projector device with respect to the screen, the third display content stored in the storage unit is read out and projected onto the screen using the projector device,
Thereafter, the second display content stored in the storage unit is read out and projected onto the screen using the projector device.
該プロジェクタ装置は、該第3の表示コンテンツを該所定エリアに投影する
ことを特徴とする請求項1記載のコンテンツ表示方法。 The third display content has been created is cut from the image content of a predetermined area forming a part of the display contents of the first,
The projector device, content display method according to claim 1, wherein projecting the display content of the third to the predetermined area.
時間の経過に伴って該複数の表示コンテンツの中からある表示コンテンツを選択して、該選択された該表示コンテンツを該プロジェクタ装置から該スクリーンに投影する、
ことを特徴とする請求項1乃至2のいずれかの項記載のコンテンツ表示方法。 A plurality of display contents are prepared in advance as the second display contents,
Selecting a display content from the plurality of display content as time elapses, and projecting the selected display content from the projector device to the screen;
3. The content display method according to claim 1, wherein the content display method is the same as the content display method.
該第1の所定エリアに関係して作成された前記第2の表示コンテンツとしての第21の表示コンテンツと、該第2の所定エリアに関係して作成された前記第2の表示コンテンツとしての第22の表示コンテンツを、それぞれ前記記憶部に格納し、
第1のプロジェクタ装置から該第21の表示コンテンツを、該第1の所定エリアに対して投影して、
第2のプロジェクタ装置から該第22の表示コンテンツを、該第2の所定エリアに対して投影して、
該第1の表示コンテンツ上に、該第21の表示コンテンツと、該第22の表示コンテンツとの合成表示コンテンツを形成すること
を特徴とする請求項2記載のコンテンツ表示方法。 A first predetermined area and a second predetermined area are set as the predetermined area in the first display content,
A second 21 display the content of the second display content created in relation to a predetermined area of the first, second as the created in relation to a predetermined area of the second second display content Each of the 22 display contents is stored in the storage unit ,
The display content of said 21 from a first projector apparatus, and a projection for a given area of the first,
The display content of said 22 from the second projector apparatus, and projects to a predetermined area of the second,
3. The content display method according to claim 2 , wherein a composite display content of the twenty-first display content and the twenty-second display content is formed on the first display content.
を特徴とする請求項1乃至4のいずれかの項記載のコンテンツ表示方法。 The content according to any one of claims 1 to 4 , wherein the third display content and the second display content are images created by rendering an image of one or a plurality of layers. Display method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012016111A JP5749668B2 (en) | 2012-01-30 | 2012-01-30 | Content display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012016111A JP5749668B2 (en) | 2012-01-30 | 2012-01-30 | Content display method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011229787A Division JP5074616B1 (en) | 2011-10-19 | 2011-10-19 | Content display system and method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013088802A JP2013088802A (en) | 2013-05-13 |
JP2013088802A5 JP2013088802A5 (en) | 2014-05-15 |
JP5749668B2 true JP5749668B2 (en) | 2015-07-15 |
Family
ID=48532723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012016111A Active JP5749668B2 (en) | 2012-01-30 | 2012-01-30 | Content display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5749668B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101710413B1 (en) * | 2015-09-22 | 2017-02-27 | 현대건설주식회사 | Display system in model house and method of the same |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0371790A (en) * | 1989-08-11 | 1991-03-27 | Hitachi Ltd | Screen for distortion correction |
JP2005258162A (en) * | 2004-03-12 | 2005-09-22 | Tetsuya Akiba | Video display method and interior decorating method |
JP5205978B2 (en) * | 2008-01-11 | 2013-06-05 | 株式会社ニコン | projector |
JP5074616B1 (en) * | 2011-10-19 | 2012-11-14 | 哲也 秋葉 | Content display system and method |
-
2012
- 2012-01-30 JP JP2012016111A patent/JP5749668B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013088802A (en) | 2013-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5074616B1 (en) | Content display system and method | |
JP7187446B2 (en) | augmented virtual reality | |
US8558830B2 (en) | System and method for adaptive scalable dynamic conversion, quality and processing optimization, enhancement, correction, mastering, and other advantageous processing of three dimensional media content | |
JP2009527860A (en) | System and method for dynamically designing products with digital content | |
JP2011023902A (en) | Image processor and image processing method | |
US8817013B2 (en) | Method for processing a spatial image | |
Spigel | Back to the drawing board: graphic design and the visual environment of television at midcentury | |
Mitchell | Wunderkammer to World Wide Web: picturing place in the post-photographic era | |
JPH1091773A (en) | Digital image combination method | |
US20130251347A1 (en) | System and method for portrayal of object or character target features in an at least partially computer-generated video | |
JP5749668B2 (en) | Content display method | |
Bordwell | Pandora’s Digital Box | |
KR100403942B1 (en) | System for emboding dynamic image of it when selected object in three dimensions imagination space | |
CN101989356B (en) | WYSWYG (What You See Is What You Get) type business card design system and method | |
Lomas | Morphogenetic Creations: Exhibiting and collecting digital art | |
JP2004139305A (en) | Method and terminal for multimedia display in virtual space, virtual space management server, multimedia display program in virtual space and recording medium having the same program recorded thereon | |
del Blanco García et al. | Technology transfer: From the film industry to architecture | |
Lantz | Digital domes and the future of large-format film | |
Uribe-Montesdeoca et al. | Using drones for tourism: Exploring exciting places in Ecuador | |
JP2020202416A (en) | Advertisement animation creation system | |
Germen | Subjectivity in contemporary visualization of reality: re-visiting Ottoman miniatures | |
Diggins et al. | ‘Anzac from the Air’: Re-imagining the Australian War Memorial’s Gallipoli Aerial Collection | |
Elmansy | Developing Professional IPhone Photography: Using Photoshop, Lightroom, and Other IOS and Desktop Apps to Create and Edit Photos | |
Hung | Immersive Projection: A Case Study on the Duke Chapel Interior | |
Liu et al. | From ‘Dimensional Effects’ to Digital 3D Cinema |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140326 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140326 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140326 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150512 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150514 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5749668 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |