JP2019013012A - data structure - Google Patents

data structure Download PDF

Info

Publication number
JP2019013012A
JP2019013012A JP2018153388A JP2018153388A JP2019013012A JP 2019013012 A JP2019013012 A JP 2019013012A JP 2018153388 A JP2018153388 A JP 2018153388A JP 2018153388 A JP2018153388 A JP 2018153388A JP 2019013012 A JP2019013012 A JP 2019013012A
Authority
JP
Japan
Prior art keywords
image
region
pattern
target
binocular parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018153388A
Other languages
Japanese (ja)
Inventor
隆寛 河邉
Takahiro Kawabe
隆寛 河邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018153388A priority Critical patent/JP2019013012A/en
Publication of JP2019013012A publication Critical patent/JP2019013012A/en
Pending legal-status Critical Current

Links

Images

Abstract

To cause a person to have a perception that a depth of an arbitrary object is given a change without largely deviating an apparent impression from an original target.SOLUTION: The data structure for projecting or displaying a first differential image and a second difference image superimposed on a target pattern of interest, includes: the first differential image including a first region overlapped with a binocular disparity region for giving a certain binocular parallax to a certain binocular parallax region of a target pattern in a certain time period, which are associated with each other; and a second differential image including a second region overlapped in the vicinity of the binocular parallax region for giving the binocular parallax to the binocular parallax region in the time period.SELECTED DRAWING: Figure 1

Description

本発明は、対象の奥行きに変化が与えられたように知覚させる技術に関する。   The present invention relates to a technique for causing a subject to perceive a change in depth.

人間を含む様々な生物は、左右に離れた目を持っている。そのため奥行きのある空間や対象を観察した場合には、左右眼で網膜像のずれが生じる。このずれは両眼視差と呼ばれる。人間は、両眼視差から奥行きを認識することができる。最近では両眼視差を人工的に導入することで奥行きをもったシーンを平面に再現する様々な技術が普及している。   Various creatures, including humans, have eyes that are separated from each other. For this reason, when a deep space or object is observed, the retinal image shifts between the left and right eyes. This shift is called binocular parallax. Humans can recognize depth from binocular parallax. Recently, various techniques for reproducing a scene with depth on a plane by artificially introducing binocular parallax have become widespread.

3Dテレビや3Dプロジェクタでは、例えば偏光レンズや液晶シャッターを持つ眼鏡を通して見た場合に、左右眼に異なる画像情報が入力されるように映像を調整することで両眼視差を導入している。   In 3D televisions and 3D projectors, binocular parallax is introduced by adjusting the image so that different image information is input to the left and right eyes when viewed through glasses having a polarizing lens or a liquid crystal shutter, for example.

アナグリフ法では、互いに異なる2つの色相の画像(例えば赤と青)を重ねて表示し、これら2つの色相の透過フィルターを左右レンズとした眼鏡で観察することで両眼視差を導入し、対象に奥行きがあるように知覚させている。   In the anaglyph method, images of two different hues (for example, red and blue) are displayed in an overlapping manner, and binocular parallax is introduced by observing with these two hue transmission filters with left and right lenses. It is perceived as having depth.

また対象の奥行きに変化が与えられたように知覚させるものではないが、対象のグレースケール画像に動きを与え、そのように得られた動画と元のグレースケール画像との差分映像(動画)を投影することで、対象に動きの印象を与える技術が提案されている(例えば、特許文献1等参照)。差分映像が投影された対象では輝度のみが変調されるため、色、肌理、風合いを損なわない。   In addition, it does not perceive the subject's depth as if it was given a change, but it gives motion to the target grayscale image, and the difference video (video) between the resulting grayscale image and the original grayscale image. A technique for giving an impression of motion to an object by projecting has been proposed (see, for example, Patent Document 1). Since only the luminance is modulated in the target on which the difference video is projected, the color, texture, and texture are not impaired.

国際公開第WO/2015/163317号International Publication No. WO / 2015/163317

従来の3Dテレビや3Dプロジェクタでは、対象の奥行きに変化が与えられたように知覚させることができる対象が表示や投影されたものに限られる。アナグリフ法では、色のついた透過フィルターを用いるため、対象の見かけの印象が元の印象と大きく乖離してしまう。特許文献1に記載された技術は両眼に同じ画像情報が入力されることを想定しており、対象の奥行きに変化が与えられたように知覚させるものではない。   In conventional 3D televisions and 3D projectors, a target that can be perceived as if the depth of the target has been changed is limited to that displayed or projected. Since the anaglyph method uses a colored transmission filter, the apparent impression of the object is greatly different from the original impression. The technique described in Patent Document 1 assumes that the same image information is input to both eyes, and does not cause a user to perceive a change in depth.

本形態の課題は、見かけの印象を元の対象から大きく乖離させることなく、任意の対象の奥行きに変化が与えられたように知覚させることである。   The subject of this form is making it perceive as the change of the depth of arbitrary objects was given, without making an apparent impression largely deviate from the original object.

第1差分画像と第2差分画像とを、対象の対象パターンに重畳する投影または表示を行うためのデータ構造が提供される。このデータ構造は、互いに対応付けられた、或る時間区間において対象パターンの或る両眼視差領域に或る両眼視差を与えるために両眼視差領域の近傍に重畳される第1領域を含む第1差分画像と、当該時間区間において当該両眼視差領域に当該両眼視差を与えるために当該両眼視差領域の近傍に重畳される第2領域を含む第2差分画像と、を含み、第1差分画像と第1領域と両眼視差と識別情報とが組になって対応付けられ、第2差分画像と第2領域と両眼視差と識別情報とが組になって対応付けられた構造を持ち、記憶装置に格納される。第1差分画像は、対象の静止画像に基づく輝度成分パターンを含む元画像と、元画像に含まれた両眼視差領域に対応する輝度成分パターンの領域を第1の方向に移動させた第1変形画像と、の差分に基づき生成された画像である。第2差分画像は、元画像と、元画像に含まれた両眼視差領域に対応する輝度成分パターンの領域を第1の方向と逆方向の第2の方向に移動させた第2変形画像と、の差分に基づき生成された画像である。両眼視差領域に対応する領域を第1の方向に移動させる移動量と、両眼視差領域に対応する領域を第2の方向に移動させる移動量と、の合計が両眼視差に対応する。このデータ構造は、再生処理装置に制御情報が入力されたのを契機に、第1差分画像に対応する時間区間、両眼視差、および第1領域と、第2差分画像に対応する時間区間、両眼視差、および第2領域と、の対応関係に従って、再生処理装置に入力される制御情報により特定される、互いに対応付けられた、時間区間、両眼視差、および第1領域とを有する第1差分画像と、時間区間、両眼視差、および第2領域とを有する第2差分画像とが記憶装置から再生処理装置に読み込まれ、観察者の一方の目と他方の目のそれぞれで、第1差分画像と第2差分画像とのそれぞれを同時に視認可能なように、当該時間区間において、第1差分画像が再生処理装置の一方のチャネルから出力されて対象パターンに投影または表示され、第2差分画像が再生処理装置の他方のチャネルから出力されて対象パターンに投影または表示され、当該時間区間において、当該第1領域が当該両眼視差領域の近傍に重畳され、当該第2領域が当該両眼視差領域の近傍に重畳された状態を観察者に知覚させる処理に用いられる。   A data structure is provided for performing projection or display in which the first difference image and the second difference image are superimposed on the target pattern of interest. This data structure includes a first region that is associated with each other and is superimposed in the vicinity of the binocular parallax region in order to give a certain binocular parallax to a certain binocular parallax region of a target pattern in a certain time interval. A first difference image and a second difference image including a second region superimposed in the vicinity of the binocular parallax region in order to give the binocular parallax to the binocular parallax region in the time interval; Structure in which one difference image, first region, binocular parallax, and identification information are associated with each other in pairs, and the second difference image, second region, binocular parallax, and identification information are associated in pairs. And stored in a storage device. The first difference image is a first image obtained by moving an original image including a luminance component pattern based on a target still image and a luminance component pattern region corresponding to a binocular parallax region included in the original image in a first direction. It is the image produced | generated based on the difference with a deformation | transformation image. The second difference image includes an original image and a second modified image obtained by moving a luminance component pattern area corresponding to the binocular parallax area included in the original image in a second direction opposite to the first direction. It is the image produced | generated based on the difference of. The sum of the movement amount for moving the region corresponding to the binocular parallax region in the first direction and the movement amount for moving the region corresponding to the binocular parallax region in the second direction corresponds to binocular parallax. This data structure is triggered by the input of control information to the playback processing device, the time interval corresponding to the first difference image, the binocular parallax, the first region, and the time interval corresponding to the second difference image, According to the correspondence relationship between the binocular parallax and the second area, the first section includes the time section, the binocular parallax, and the first area, which are associated with each other, specified by the control information input to the reproduction processing device. The first difference image and the second difference image having the time interval, the binocular parallax, and the second region are read from the storage device into the reproduction processing device, and the first eye and the other eye of the observer respectively In the time interval, the first difference image is output from one channel of the reproduction processing apparatus and projected or displayed on the target pattern so that each of the first difference image and the second difference image can be viewed simultaneously. Difference image is re Output from the other channel of the processing device and projected or displayed on the target pattern, and in the time interval, the first region is superimposed in the vicinity of the binocular parallax region, and the second region is the binocular parallax region. It is used for processing that makes the observer perceive the state superimposed in the vicinity.

本発明では、見かけの印象を元の対象から大きく乖離させることなく、任意の対象の奥行きに変化が与えられたように知覚させることができる。   In the present invention, it is possible to perceive a change in the depth of an arbitrary object without greatly deviating the apparent impression from the original object.

図1は実施形態の画像生成システムの機能構成を例示するためのブロック図である。FIG. 1 is a block diagram for illustrating a functional configuration of an image generation system according to an embodiment. 図2Aは対象を撮影して得られる静止画像、およびそれに由来するグレースケールの静止画像の一例を説明するための概念図である。図2Bはグレースケールの静止画像を変形して得られる第1変形画像の一例を説明するための概念図である。図2Cはグレースケールの静止画像を変形して得られる第2変形画像の一例を説明するための概念図である。図2Dは第1画像の一例を説明するための概念図である。図2Eは第2画像の一例を説明するための概念図である。FIG. 2A is a conceptual diagram for explaining an example of a still image obtained by photographing an object and a grayscale still image derived therefrom. FIG. 2B is a conceptual diagram for explaining an example of a first modified image obtained by modifying a gray-scale still image. FIG. 2C is a conceptual diagram for explaining an example of a second modified image obtained by modifying a grayscale still image. FIG. 2D is a conceptual diagram for explaining an example of the first image. FIG. 2E is a conceptual diagram for explaining an example of the second image. 図3Aは実施形態の投影システムの構成を例示するためのブロック図である。図3Bは対象に画像が重畳された様子を例示するための概念図である。FIG. 3A is a block diagram for illustrating the configuration of the projection system of the embodiment. FIG. 3B is a conceptual diagram for illustrating a state in which an image is superimposed on an object. 図4Aは第1画像の一例を説明するための概念図である。図4Bは第2画像の一例を説明するための概念図である。図4Cは対象に画像が重畳された様子を例示するための概念図である。FIG. 4A is a conceptual diagram for explaining an example of the first image. FIG. 4B is a conceptual diagram for explaining an example of the second image. FIG. 4C is a conceptual diagram for illustrating a state in which an image is superimposed on an object. 図5Aおよび図5Bは対象に画像が重畳された様子を例示するための概念図である。5A and 5B are conceptual diagrams for illustrating a state in which an image is superimposed on an object. 図6Aおよび図BDは対象に画像が重畳された様子を例示するための概念図である。6A and BD are conceptual diagrams for illustrating a state in which an image is superimposed on an object. 図7Aおよび図7Bは対象に画像が重畳された様子を例示するための概念図である。図7Cは右目用の画像が呈示される時間区間(R)および左目用の画像が呈示される時間区間(L)を例示するための図である。7A and 7B are conceptual diagrams for illustrating a state in which an image is superimposed on an object. FIG. 7C is a diagram for illustrating a time interval (R) in which an image for the right eye is presented and a time interval (L) in which an image for the left eye is presented. 図8Aおよび図8Bは実施形態の表示システムの構成を例示するためのブロック図である。8A and 8B are block diagrams for illustrating the configuration of the display system of the embodiment.

以下、本発明の実施形態を説明する。
[概要]
まず、実施形態の概要を説明する。
以下で説明する「対象」は、奥行きに変化が与えられたように知覚させる効果を与える「もの」を表す。視覚的なパターンがないものにこのような効果を与えることはできない。そのため「対象」は視覚的なパターンである。「対象」は輪郭を含んだパターンであってもよいし、輪郭を含まないパターンであってもよい。例えば「対象」は、所定面(例えば、紙、ボード、壁、スクリーン、電子ペーパー、通常のディスプレイや透過型ディスプレイなどの画面)上のパターン(例えば、所定面に「印刷」「描画」「表示」または「投影」された画像や写真、所定面を構成する素材の色合いに基づく柄や模様、所定面の形状に基づく模様、境界線、濃淡など)である。「所定面」は、平面であってもよいし、平面とみなせるものであってもよいし、曲面であってもよいし、凹凸面であってもよい。「対象」が、立体的形状を備える物(例えば、花瓶、ボール、模型、建築物など)の表面のパターン(例えば、表面に「印刷」「描画」「表示」または「投影」された画像や写真、表面を構成する素材の色合いに基づく柄や模様、表面の形状に基づく模様、境界線、濃淡など)であってもよい。「対象」が平面または平面とみなせるもの上のパターンである場合には「対象」に奥行きはない。「対象」が曲面または凹凸面上のパターンである場合には「対象」に奥行きがある。「対象」が立体的形状を備える物の表面上のパターンである場合には「対象」に奥行きがあることが多い。しかし、立体的形状を備える物の表面が平面または平面とみなせるものであり、その表面上のパターンが「対象」である場合には当該「対象」に奥行きはないこともある。「対象パターン」は「対象」の全部または一部の領域のパターンである。実施形態では、以下のように「対象」の奥行きに変化が与えられたように知覚させる。「対象」の「対象パターン」に対応するパターンであって一方の目のみで視認可能な「第1輝度成分パターン」を含む「第1画像」と「対象」とを重畳させる。また「対象パターン」に対応するパターンであって他方の目のみで視認可能な「第2輝度成分パターン」を含む「第2画像」と「対象」とを重畳させる。ただし、「対象パターン」に対する「第1輝度成分パターン」の相対位置と、「対象パターン」に対する「第2輝度成分パターン」の相対位置とは異なる。なお、「第1輝度成分パターン」が他方の目に比べて一方の目で優位に視認可能であり、「第2輝度成分パターン」が一方の目に比べて他方の目で優位に視認可能であってもよい。
Embodiments of the present invention will be described below.
[Overview]
First, an outline of the embodiment will be described.
The “object” described below represents “thing” that gives the effect of perceiving a change in depth. You can't have this effect on things that don't have visual patterns. Therefore, “object” is a visual pattern. The “target” may be a pattern including an outline or a pattern not including an outline. For example, “target” is a pattern on a predetermined surface (for example, a screen such as paper, board, wall, screen, electronic paper, a normal display or a transmissive display) ”Or“ projected ”images and photographs, patterns and patterns based on the color of the material constituting the predetermined surface, patterns based on the shape of the predetermined surface, border lines, shading, etc.). The “predetermined surface” may be a flat surface, a surface that can be regarded as a flat surface, a curved surface, or an uneven surface. The “object” is a pattern (eg, “printed”, “drawn”, “displayed” or “projected” on the surface of an object having a three-dimensional shape (eg, vase, ball, model, building, etc.) It may be a photograph, a pattern or pattern based on the color of the material constituting the surface, a pattern based on the shape of the surface, a boundary line, shading, etc.). When the “object” is a plane or a pattern on what can be regarded as a plane, the “object” has no depth. When the “target” is a pattern on a curved surface or an uneven surface, the “target” has a depth. When the “target” is a pattern on the surface of an object having a three-dimensional shape, the “target” often has a depth. However, when the surface of an object having a three-dimensional shape can be regarded as a plane or a plane, and the pattern on the surface is “target”, the “target” may not have a depth. The “target pattern” is a pattern of all or a part of the “target”. In the embodiment, the depth of the “target” is perceived as being changed as follows. A “first image” that includes a “first luminance component pattern” that corresponds to a “target pattern” of “target” and that is visible with only one eye is superimposed on the “target”. Further, a “second image” that includes a “second luminance component pattern” that corresponds to the “target pattern” and is visible only with the other eye is superimposed on the “target”. However, the relative position of the “first luminance component pattern” with respect to the “target pattern” is different from the relative position of the “second luminance component pattern” with respect to the “target pattern”. Note that the “first luminance component pattern” can be visually recognized by one eye as compared with the other eye, and the “second luminance component pattern” can be visually recognized by the other eye as compared with the first eye. There may be.

「第1画像」と「対象」とを重畳させることで「対象」の「対象パターン」の位置は一方の目で視認可能な「第1輝度成分パターン」の方へ変位したように知覚される。「第2画像」と「対象」とを重畳させることで「対象」の「対象パターン」の位置は他方の目で視認可能な「第2輝度成分パターン」の方へ変位したように知覚される。ここで「対象パターン」に対する「第1輝度成分パターン」の相対位置と「対象パターン」に対する「第2輝度成分パターン」の相対位置とは互いに異なる。そのため、観察者が一方の目で視認することで知覚する「対象パターン」の変位と、他方の目で視認することで知覚する「対象パターン」の変位とは互いに相違し、観察者はそれらの相違を両眼視差として知覚する。これにより、「対象」の奥行きに変化が与えられたように知覚させることができる。また「第1画像」と「対象」とを重畳させ、「第2画像」と「対象」とを重畳させればよいため、表示または投影された「対象」のみならず、任意の「対象」の奥行きに変化が与えられたように知覚させることができる。さらにアナグリフ法のように色相の違いによって両眼視差を導入するものではないため、見かけの印象を「対象」から大きく乖離させることもない。なお「対象の奥行きに変化が与えられたように知覚させる」とは、奥行きのない「対象」に奥行きが与えられたように知覚させること、または、奥行きのある「対象」の奥行きが変化したように知覚させることを意味する。   By superimposing the “first image” and the “target”, the position of the “target pattern” of the “target” is perceived as being displaced toward the “first luminance component pattern” visible with one eye. . By superimposing the “second image” and the “target”, the position of the “target pattern” of the “target” is perceived as being displaced toward the “second luminance component pattern” visible with the other eye. . Here, the relative position of the “first luminance component pattern” with respect to the “target pattern” is different from the relative position of the “second luminance component pattern” with respect to the “target pattern”. For this reason, the displacement of the “target pattern” perceived by the observer visually recognizing with one eye is different from the displacement of the “target pattern” perceived by visually recognizing with the other eye. The difference is perceived as binocular parallax. Thereby, it can be made to perceive as the change of the depth of "object" was given. In addition, since the “first image” and the “target” may be superimposed and the “second image” and the “target” may be superimposed, not only the displayed or projected “target” but also any “target” It can be perceived as a change in depth. Furthermore, unlike the anaglyph method, binocular parallax is not introduced due to a difference in hue, so that the apparent impression is not greatly deviated from the “target”. “Make the target perceived as if the depth of the object has been changed” means that the “object” without depth is perceived as if the depth is given, or the depth of the “object” with depth has changed. Means to perceive.

「第1画像」および「第2画像」の輝度は空間的に一様ではなく、輝度成分からなる模様であるパターンを含む。「第1画像」は「対象」に対応する単一の画像(1枚の静止画像)であり、その全領域または一部の領域の輝度成分からなるパターン(模様)を「第1輝度成分パターン」と呼ぶ。「第2画像」は「対象」に対応する単一の画像であり、その全領域または一部の領域の輝度成分からなるパターン(模様)を「第2輝度成分パターン」と呼ぶ。「第1画像」および「第2画像」は「対象」を撮影して得られた静止画像から得られたものであってもよいし、「対象」と同一または近似する像を撮影して得られた静止画像から得られたものであってもよいし、「対象」に基づいて作画された静止画像から得られたものであってもよい。「第1輝度成分パターン」および「第2輝度成分パターン」は「対象パターン」に由来するパターンである。「第1輝度成分パターン」および「第2輝度成分パターン」は、「対象」を撮影して得られた静止画像が含むパターンから得られたものであってもよいし、「対象」と同一または近似する像を撮影して得られた静止画像が含むパターンから得られたものであってもよいし、「対象」に基づいて作画された静止画像が含むパターンから得られたものであってもよい。「第1画像」は輝度成分のみからなる画像であってもよいし、輝度成分と色成分(色差成分)とからなる画像であってもよい。「第2画像」も輝度成分のみからなる画像であってもよいし、輝度成分と色成分とからなる画像であってもよい。「対象」の色や質感の変化を抑えつつ、「対象」の奥行きに変化が与えられたように知覚させるためには、「第1画像」および「第2画像」の輝度成分が色成分に比べて優位に知覚されるものであることが望ましい。「第1画像」および「第2画像」が輝度成分のみからなる画像である場合には、「対象」の色やテクスチャの印象をほとんど損なうことなく、「対象」の奥行きに変化が与えられたように知覚させることができる。   The luminances of the “first image” and the “second image” are not spatially uniform, but include a pattern that is a pattern of luminance components. The “first image” is a single image (one still image) corresponding to the “target”, and a pattern (pattern) composed of luminance components of the entire region or a part of the region is referred to as “first luminance component pattern”. " The “second image” is a single image corresponding to the “target”, and a pattern (pattern) composed of the luminance components of the entire region or a part of the region is called a “second luminance component pattern”. The “first image” and the “second image” may be obtained from a still image obtained by photographing the “object”, or obtained by photographing an image that is the same as or similar to the “object”. It may be obtained from a still image that has been created, or may be obtained from a still image that has been drawn based on a “target”. The “first luminance component pattern” and the “second luminance component pattern” are patterns derived from the “target pattern”. The “first luminance component pattern” and the “second luminance component pattern” may be obtained from a pattern included in a still image obtained by photographing the “target”, or the same as the “target” or It may be obtained from a pattern included in a still image obtained by photographing an approximate image, or may be obtained from a pattern included in a still image drawn based on the “target” Good. The “first image” may be an image including only a luminance component, or may be an image including a luminance component and a color component (color difference component). The “second image” may also be an image made up of only luminance components, or an image made up of luminance components and color components. In order to perceive a change in the depth of the “target” while suppressing changes in the color and texture of the “target”, the luminance components of the “first image” and the “second image” are used as color components. It is desirable that it is perceived as being superior. When the “first image” and the “second image” are images composed only of luminance components, the depth of the “target” was changed without substantially impairing the impression of the color and texture of the “target”. Can be perceived.

例えば、「第1画像」は、「対象」に由来する「第1静止画像」と、「第1静止画像」を変形して得られる「第1変形画像」と、の差分に基づく画像であり、「第2画像」は、「対象」に由来する「第2静止画像」と、「第2静止画像」を変形して得られる「第2変形画像」と、の差分に基づく画像である。   For example, the “first image” is an image based on a difference between a “first still image” derived from the “target” and a “first modified image” obtained by modifying the “first still image”. The “second image” is an image based on a difference between a “second still image” derived from the “object” and a “second modified image” obtained by modifying the “second still image”.

「対象」に由来する「第1静止画像」の例は、「対象」を撮影して得られた静止画像に由来する画像、「対象」と同一または近似する像を撮影して得られた静止画像に由来する画像、または「対象」と同一または近似する像を撮影して得られた静止画像に由来する画像などである。「静止画像に由来する画像」の例は、「静止画像」をグレースケールに変換した画像や、輝度成分が色成分に比べて優位に知覚されるように変換した画像である。「第1変形画像」は「第1静止画像」の一部または全部の領域を変形した画像である。例えば、「第1静止画像」の一部または全部の領域の画像を画像中の本来の位置からずらすことで得られる画像や、「第1静止画像」の一部または全部の領域の画像を画像中の本来の位置からずらすことで得られる画像を平滑化(例えば、ガウシアンフィルターなどの平滑化フィルターでの平滑化)した画像などを「第1変形画像」とする。平滑化した場合には、画像の一部または全部の領域の画像を空間的に滑らかに変形させることができ、「対象」に滑らかに変化する(曲面のような)奥行き印象を与えることができる。「第1静止画像」の一部または全部の領域の画像を画像中の本来の位置からずらす際に使用する関数自体によって、画像を空間的に滑らかにずらしてもよい。例えば、滑らかな形状をもつ関数(正弦波や正規分布)などによって作成した空間的に滑らかなずれ量変化をもつ地図(マップ)をつかって「画像」に変形をかけてもよい。このような地図の例は、「画像」内の相対的な座標(「画像」の所定位置を基準とした座標)とその座標に対応するずらし量(座標の移動量)または相対的な座標に対するずらし量を出力する関数との対応表である。これによっても、実際には平面であるものに曲面であるかのような奥行き印象を与えることができる。なお「画像を画像中の本来の位置からずらす」とは、「画像」をその画像が存在する平面に沿って移動させることを意味する。言い換えると「画像を画像中の本来の位置からずらす」とは、「画像」をその画像が存在する平面上でスライドさせること、すなわち「画像」の座標を当該「平面」と平行に移動させることを意味する。そのずれは、画像全体で一様である必要はなく、例えば大きく平行移動させる場所と小さく平行移動させる場所など、複数のずれ量をもつ領域が共存してもよい。その場合、各ずれ量に基づいて様々な大きさの両眼視差を設定でき、知覚的には複数の奥行き面が対象に存在する状況を演出できる。「第1静止画像と第1変形画像との差分に基づく画像」は、「第1静止画像」と「第1変形画像」との差分画像であってもよいし、当該差分画像の輝度を変更して得られる画像であってもよいし、当該差分画像の高空間周波数成分が低空間周波数成分よりも優位に知覚されるように処理して得られる画像であってもよいし、当該差分画像を平滑化して得られる画像であってもよいし、当該差分画像にこれらのうち複数の処理を施して得られる画像であってもよい。差分画像の輝度の変更は、例えば、差分画像への平均輝度値(「第1静止画像」および/または「第1変形画像」の平均輝度値)の加算、一般的な画素値クリッピング(例えば、0より小さい値は0、255より大きな値は255に固定する処理など)、および正規化(例えば、画素値の範囲を一旦0〜1の範囲に収まるように変形し、それに255を乗算する処理など)の少なくとも何れかによる変更である。「画像」の「高空間周波数成分が低空間周波数成分よりも優位に知覚されるように処理」するとは、「画像」の低空間周波数成分を高空間周波数成分に対して抑圧すること(高空間周波数フィルタリング)であってもよいし、「画像」の高空間周波数成分を低空間周波数成分よりも強調することであってもよい。   Examples of the “first still image” derived from the “object” include an image derived from a still image obtained by photographing the “object”, and a still image obtained by photographing an image that is the same as or similar to the “object”. An image derived from an image, or an image derived from a still image obtained by photographing an image that is the same as or close to the “target”. Examples of “an image derived from a still image” are an image obtained by converting a “still image” into a gray scale, and an image obtained by converting a luminance component so as to be perceived as being superior to a color component. The “first modified image” is an image obtained by deforming a part or all of the “first still image”. For example, an image obtained by shifting an image of a part or the whole area of the “first still image” from an original position in the image, or an image of a part or the whole area of the “first still image”. An image obtained by smoothing (for example, smoothing with a smoothing filter such as a Gaussian filter) an image obtained by shifting it from its original position is referred to as a “first modified image”. In the case of smoothing, an image of a part or all of the image can be spatially and smoothly deformed, and a depth impression (such as a curved surface) that smoothly changes to the “target” can be given. . The image may be spatially and smoothly shifted by a function itself used to shift an image of a part or all of the “first still image” from the original position in the image. For example, the “image” may be deformed using a map (map) having a spatially smooth shift amount created by a function having a smooth shape (sine wave or normal distribution). An example of such a map is a relative coordinate in the “image” (coordinate based on a predetermined position of the “image”) and a shift amount (coordinate movement amount) corresponding to the coordinate or relative coordinate. It is a correspondence table with the function which outputs displacement amount. This also makes it possible to give a depth impression as if it were a curved surface to what is actually a flat surface. Note that “shifting an image from its original position in the image” means moving the “image” along a plane in which the image exists. In other words, “shift the image from its original position in the image” means to slide the “image” on the plane where the image exists, that is, to move the coordinates of the “image” parallel to the “plane”. Means. The shift does not need to be uniform throughout the image. For example, a region having a plurality of shift amounts may coexist, such as a place where the image is largely translated and a location where the image is translated slightly. In that case, binocular parallax of various sizes can be set based on each shift amount, and a situation in which a plurality of depth planes exist in the target can be produced perceptually. The “image based on the difference between the first still image and the first modified image” may be a difference image between the “first still image” and the “first modified image”, or the luminance of the difference image is changed. Or an image obtained by processing so that the high spatial frequency component of the difference image is perceived more dominantly than the low spatial frequency component, or the difference image. May be an image obtained by smoothing, or may be an image obtained by subjecting the difference image to a plurality of processes. For example, the luminance of the difference image can be changed by adding an average luminance value (an average luminance value of the “first still image” and / or “first modified image”) to the difference image, or by general pixel value clipping (for example, A value smaller than 0 is 0, a value larger than 255 is fixed to 255), and normalization (for example, a range of pixel values is once modified to fall within the range of 0 to 1, and then multiplied by 255) Etc.). “Processing so that the high spatial frequency component is perceived more preferentially than the low spatial frequency component” in “Image” means suppressing the low spatial frequency component of “Image” with respect to the high spatial frequency component (high spatial frequency component). Frequency filtering) or emphasizing the high spatial frequency component of the “image” over the low spatial frequency component.

「対象」に由来する「第2静止画像」の例は、「対象」を撮影して得られた静止画像に由来する画像、「対象」と同一または近似する像を撮影して得られた静止画像に由来する画像、または「対象」と同一または近似する像を撮影して得られた静止画像に由来する画像などである。「静止画像に由来する画像」の例は、「静止画像」をグレースケールに変換した画像や、輝度成分が色成分に比べて優位に知覚されるように変換した画像である。「対象」に由来する「第2静止画像」は前述「第1静止画像」と同一の画像であってもよいし、異なる画像であってもよい。「第2変形画像」は「第2静止画像」の一部または全部の領域を変形した画像である。例えば、「第2静止画像」の一部または全部の領域の画像を画像中の本来の位置からずらすことで得られる画像や、「第2静止画像」の一部または全部の領域の画像を画像中の本来の位置からずらすことで得られる画像を平滑化(例えば、ガウシアンフィルターなどの平滑化フィルターでの平滑化)した画像などを「第2変形画像」とする。平滑化した場合には、画像の一部または全部の領域の画像を空間的に滑らかに変形させることができ、「対象」に滑らかに変化する(曲面のような)奥行き印象を与えることができる。「第2静止画像」の一部または全部の領域の画像を画像中の本来の位置からずらす際に使用する関数自体によって、画像を空間的に滑らかにずらしてもよい。「第2静止画像と第2変形画像との差分に基づく画像」は、「第2静止画像」と「第2変形画像」との差分画像であってもよいし、当該差分画像の輝度を変更して得られる画像であってもよいし、当該差分画像の高空間周波数成分が低空間周波数成分よりも優位に知覚されるように処理して得られる画像であってもよいし、当該差分画像を平滑化して得られる画像であってもよいし、当該差分画像にこれらのうち複数の処理を施して得られる画像であってもよい。差分画像の輝度の変更は、例えば、差分画像への平均輝度値(「第2静止画像」および/または「第2変形画像」の平均輝度値)の加算、一般的な画素値クリッピング、および正規化の少なくとも何れかによる変更である。   Examples of the “second still image” derived from the “object” include an image derived from a still image obtained by photographing the “object”, and a still image obtained by photographing an image that is the same as or similar to the “object”. An image derived from an image, or an image derived from a still image obtained by photographing an image that is the same as or close to the “target”. Examples of “an image derived from a still image” are an image obtained by converting a “still image” into a gray scale, and an image obtained by converting a luminance component so as to be perceived as being superior to a color component. The “second still image” derived from the “target” may be the same image as the “first still image” described above, or may be a different image. The “second modified image” is an image obtained by deforming part or all of the “second still image”. For example, an image obtained by shifting an image of a part or the whole area of the “second still image” from an original position in the image, or an image of a part or the whole area of the “second still image”. An image obtained by smoothing (for example, smoothing with a smoothing filter such as a Gaussian filter) an image obtained by shifting it from its original position is referred to as a “second modified image”. In the case of smoothing, an image of a part or all of the image can be spatially and smoothly deformed, and a depth impression (such as a curved surface) that smoothly changes to the “target” can be given. . The image may be spatially and smoothly shifted by a function itself used to shift an image of a part or all of the “second still image” from the original position in the image. The “image based on the difference between the second still image and the second modified image” may be a difference image between the “second still image” and the “second modified image”, or the luminance of the difference image is changed. Or an image obtained by processing so that the high spatial frequency component of the difference image is perceived more dominantly than the low spatial frequency component, or the difference image. May be an image obtained by smoothing, or may be an image obtained by subjecting the difference image to a plurality of processes. For example, the luminance of the difference image is changed by adding an average luminance value (an average luminance value of the “second still image” and / or the “second modified image”) to the difference image, general pixel value clipping, and normal It is a change due to at least one of conversion.

その他、「静止画像に由来する画像」の高空間周波数成分が低空間周波数成分よりも優位に知覚されるように処理し、それによって得られる画像の全部または一部の領域を変形した画像を「第1画像」や「第2画像」としてもよい。あるいは、「第1変形画像」の高空間周波数成分が低空間周波数成分よりも優位に知覚されるように処理し、それによって得られる画像を「第1画像」としてもよい。同様に、「第2変形画像」の高空間周波数成分が低空間周波数成分よりも優位に知覚されるように処理し、それによって得られる画像を「第2画像」としてもよい。すなわち、「第1画像」および「第2画像」の少なくとも一方が、高空間周波数成分が低空間周波数成分よりも優位に知覚される画像であってもよく、「第1輝度成分パターン」および「第2輝度成分パターン」の少なくとも一方が、高空間周波数成分が低空間周波数成分よりも優位に知覚されるパターンであってもよい。   In addition, an image obtained by processing a high spatial frequency component of an “image derived from a still image” to be perceived as being superior to a low spatial frequency component, and transforming all or a part of the obtained image by “ It may be a “first image” or a “second image”. Alternatively, processing may be performed so that the high spatial frequency component of the “first modified image” is perceived more preferentially than the low spatial frequency component, and an image obtained thereby may be referred to as a “first image”. Similarly, processing may be performed so that the high spatial frequency component of the “second modified image” is perceived more preferentially than the low spatial frequency component, and the resulting image may be referred to as a “second image”. That is, at least one of the “first image” and the “second image” may be an image in which the high spatial frequency component is perceived more preferentially than the low spatial frequency component, and the “first luminance component pattern” and “ At least one of the “second luminance component pattern” may be a pattern in which a high spatial frequency component is perceived more preferentially than a low spatial frequency component.

「第1画像」および「第2画像」と「対象」とを重畳させる方法に限定はない。透過性のある「第1画像」および「第2画像」を透過性のない「対象」に重ねて表示してもよいし、透過性のある「対象」を透過性のない「第1画像」および「第2画像」に重ねて表示してもよいし、透過性のある「第1画像」および「第2画像」を透過性のある「対象」に重ねて表示してもよいし、透過性のある「対象」を透過性のある「第1画像」および「第2画像」に重ねて表示してもよい。例えば、印刷や描画された「対象」にプロジェクタなどで「第1画像」および「第2画像」を投影してもよいし、投影された「対象」に「第1画像」および「第2画像」を投影してもよいし、「対象」と「第1画像」および「第2画像」とが同一画面上に表示されてもよいし、ディスプレイ(非透過型または透過型)に表示された「対象」に「第1画像」および「第2画像」を投影してもよいし、ディスプレイ(非透過型または透過型)に表示された「第1画像」および「第2画像」に「対象」を投影してもよい。また、例えば「対象」と観察者との間に透過型ディスプレイなどの透明な液晶画面を設置し、当該液晶画面に透過性のある「第1画像」および「第2画像」を表示してもよい。これによっても、観察者から見ると、「対象」に透過性のある「第1画像」および「第2画像」を重畳させたことになる。また、例えば「第1画像」および「第2画像」と観察者との間に透過型ディスプレイなどの透明な液晶画面を設置し、当該液晶画面に透過性のある「対象」を表示してもよい。観察者から見ると、「第1画像」および「第2画像」に透過性のある「対象」を重畳させたことになる。   There is no limitation on the method of superimposing the “first image”, the “second image”, and the “target”. The transparent “first image” and the “second image” may be superimposed on the non-transparent “object”, or the transparent “object” may be displayed as the non-transparent “first image”. And may be displayed over the “second image”, or the transparent “first image” and “second image” may be displayed over the transparent “target”, or may be transparent. The characteristic “object” may be displayed so as to overlap the transparent “first image” and “second image”. For example, a “first image” and a “second image” may be projected onto a “target” printed or drawn by a projector or the like, or a “first image” and a “second image” may be projected onto the projected “target”. ”May be projected, or“ object ”and“ first image ”and“ second image ”may be displayed on the same screen, or may be displayed on a display (non-transmission type or transmission type). The “first image” and the “second image” may be projected on the “object”, and the “object” is displayed on the “first image” and the “second image” displayed on the display (non-transmission type or transmission type). May be projected. Further, for example, a transparent liquid crystal screen such as a transmissive display is installed between the “target” and the observer, and the transparent “first image” and “second image” are displayed on the liquid crystal screen. Good. Also in this case, when viewed from the observer, the “first image” and the “second image” having transparency are superimposed on the “object”. Further, for example, a transparent liquid crystal screen such as a transmissive display is installed between the “first image” and the “second image” and the observer, and a transparent “target” is displayed on the liquid crystal screen. Good. When viewed from the observer, a transparent “object” is superimposed on the “first image” and the “second image”.

「対象パターン」の近傍に「第1輝度成分パターン」および「第2輝度成分パターン」が重ねられる。例えば、「第1輝度成分パターン」および「第2輝度成分パターン」の輪郭またはその近傍が「対象パターン」の輪郭と重なるように配置されてもよいし、「第1画像」および「第2画像」の輪郭またはその近傍が「対象」の輪郭と重なるように配置されてもよいし、「第1輝度成分パターン」および「第2輝度成分パターン」が含むエッジまたはその近傍が「対象パターン」が含むエッジに重なるように配置されてもよい。「第1輝度成分パターン」および「第2輝度成分パターン」と「対象パターン」とのずれ幅は、両者が見かけ上分離しない範囲内に制限される。見かけ上分離しない範囲については、「第1輝度成分パターン」および「第2輝度成分パターン」や「対象パターン」の大きさ、スクリーン等に表示する場合にはその大きさ、ユーザからの視角などを考慮して設定する。「第1輝度成分パターン」および「第2輝度成分パターン」は「対象パターン」交わってもよいし、交わらなくてもよい。   A “first luminance component pattern” and a “second luminance component pattern” are superimposed in the vicinity of the “target pattern”. For example, the contours of “first luminance component pattern” and “second luminance component pattern” or the vicinity thereof may be arranged so as to overlap with the contour of “target pattern”, or “first image” and “second image”. ”Or the vicinity thereof may overlap with the“ target ”outline, or the edge included in the“ first luminance component pattern ”and the“ second luminance component pattern ”or the vicinity thereof may be the“ target pattern ”. You may arrange | position so that it may overlap with the containing edge. The deviation width between the “first luminance component pattern” and the “second luminance component pattern” and the “target pattern” is limited to a range in which they are not apparently separated. For the range that does not appear to be separated, the size of the “first luminance component pattern” and “second luminance component pattern” or “target pattern”, the size when displayed on a screen, the viewing angle from the user, etc. Set in consideration. The “first luminance component pattern” and the “second luminance component pattern” may or may not intersect with each other.

一方の目で視認可能な「第1輝度成分パターン」は、他方の目で視認できないか、ほぼ視認できない。逆に他方の目で視認可能な「第2輝度成分パターン」は、一方の目で視認できないか、ほぼ視認できない。「対象パターン」は両方の目で視認できる。これらを実現する方法に限定はない。   The “first luminance component pattern” that can be visually recognized by one eye cannot be visually recognized by the other eye, or is almost invisible. On the contrary, the “second luminance component pattern” that can be visually recognized by the other eye cannot be visually recognized by one eye or almost cannot be visually recognized. The “target pattern” is visible with both eyes. There is no limitation on the method of realizing these.

例えば、「第1輝度成分パターン」の偏光方向(第1偏光方向)と「第2輝度成分パターン」の偏光方向(第2偏光方向)とを互いに相違させる。この場合、観測者は「第1偏光方向」の光のみを通す「第1偏光レンズ」および「第2偏光方向」の光のみを通す第2偏光レンズを持つ偏光眼鏡をかける。観測者の一方の目は「第1偏光レンズ」を通し、他方の目は「第2偏光レンズ」を通し、それぞれ「対象」と「第1画像」および「第2画像」とが重畳した様子を見る。これにより、観測者の一方の目は「第1輝度成分パターン」と「対象パターン」が重畳した様子を視認し、他方の目は「第2輝度成分パターン」と「対象パターン」が重畳した様子を視認する(偏光レンズ法)。   For example, the polarization direction (first polarization direction) of the “first luminance component pattern” is different from the polarization direction (second polarization direction) of the “second luminance component pattern”. In this case, the observer wears polarized glasses having a “first polarization lens” that passes only light in the “first polarization direction” and a second polarization lens that passes only light in the “second polarization direction”. One eye of the observer passes through the “first polarizing lens” and the other eye passes through the “second polarizing lens”, and the “object”, “first image”, and “second image” are superimposed, respectively. I see. Accordingly, one eye of the observer visually recognizes that the “first luminance component pattern” and the “target pattern” are superimposed, and the other eye is a state where the “second luminance component pattern” and the “target pattern” are superimposed. Is visually recognized (polarized lens method).

或いは、「対象」と「第1画像」とを重畳させるが「第2画像」を重畳させない「第1時間区間」と、「対象」と「第2画像」とを重畳させるが「第1画像」を重畳させない「第2時間区間」とを交互に繰り返してもよい。「第1画像」と「対象」とを重畳させる「第1時間区間」と、「第2画像」と「対象」とを重畳させる「第2時間区間」とは互いに重複しない。観測者は「第1時間区間」で透過状態となり「第2時間区間」で非透過状態となる液晶シャッターを備える「第1レンズ」と、「第2時間区間」で透過状態となり「第1時間区間」で非透過状態となる液晶シャッターを備える「第2レンズ」とを持つ眼鏡をかける。観測者の一方の目は「第1レンズ」を通し、他方の目は「第2レンズ」を通し、それぞれ「対象」と「第1画像」および「対象」と「第2画像」とが重畳した様子を見る。これにより、観測者の一方の目は「第1時間区間」で「第1輝度成分パターン」と「対象パターン」が重畳した様子を視認し、他方の目は「第2時間区間」で「第2輝度成分パターン」と「対象パターン」が重畳した様子を視認する(液晶シャッター法)。   Alternatively, the “first time interval” in which the “target” and the “first image” are superimposed but the “second image” is not superimposed, and the “target” and the “second image” are superimposed, but the “first image” "Second time interval" in which "is not superimposed may be alternately repeated. The “first time interval” in which the “first image” and the “target” are superimposed does not overlap with the “second time interval” in which the “second image” and the “target” are superimposed. The observer is in the transmissive state in the “first time interval” and is in the transmissive state in the “second time interval” and the “first lens” having the liquid crystal shutter that is in the non-transmissive state in the “second time interval”. Wear spectacles with a “second lens” with a liquid crystal shutter that becomes non-transmissive in the “section”. One eye of the observer passes through the “first lens” and the other eye passes through the “second lens”, and “object” and “first image” and “object” and “second image” are superimposed, respectively. See what happened. Thus, one eye of the observer visually recognizes that the “first luminance component pattern” and the “target pattern” are superimposed in the “first time interval”, and the other eye “the second time interval” in the “first time interval”. The state where the “two luminance component pattern” and the “target pattern” are superimposed is visually recognized (liquid crystal shutter method).

「一方の目」および「他方の目」は同じ観察者の両目である。「一方の目」が右目であるとき「他方の目」は左目であり、「一方の目」が左目であるとき「他方の目」は右目である。   “One eye” and “the other eye” are both eyes of the same observer. When "one eye" is a right eye, "the other eye" is a left eye, and when "one eye" is a left eye, "the other eye" is a right eye.

「対象パターン」と「第1輝度成分パターン」との間の位置関係、および、「対象パターン」と「第2輝度成分パターン」との間の位置関係、の少なくとも一方を変化(時間経過に伴って変化)させてもよい。例えば、「対象」に重畳する「第1画像」および「第2画像」の少なくとも一方、すなわち「対象パターン」に重畳する「第1輝度成分パターン」および「第2輝度成分パターン」の少なくとも一方を時間経過に伴って移動や変形させてもよい。例えば、フレームごとに「第1画像」および「第2画像」、すなわち「第1輝度成分パターン」および「第2輝度成分パターン」が異なってもよい。フレームごとに、「対象パターン」に対する「第1輝度成分パターン」のずれ幅、および、「対象パターン」に対する「第2輝度成分パターン」のずれ幅、の少なくとも一方を相違させてもよい。これにより、両眼視差が時間経過に伴って変化するように知覚させ、「対象」の奥行きも時間経過に伴って変化するように知覚させることができる(例1)。時間経過に伴って変化(例えば、変形や移動)する「対象」と、時間経過に伴って変化(例えば、変形や移動)する「第1画像」および「第2画像」を重畳させてもよい。すなわち、時間経過に伴って変化する「対象パターン」と、時間経過に伴って変化する「第1輝度成分パターン」および「第2輝度成分パターン」を重畳させてもよい。これにより、変化する「対象」の奥行きに変化が与えられたように知覚させることもできる(例2)。例1,2の組み合わせであってもよい。この場合には、変化する「対象」の奥行きが時間経過に伴って変化するように知覚させることができる。   At least one of the positional relationship between the “target pattern” and the “first luminance component pattern” and the positional relationship between the “target pattern” and the “second luminance component pattern” changes (with time elapse) May be changed). For example, at least one of “first image” and “second image” to be superimposed on “target”, that is, at least one of “first luminance component pattern” and “second luminance component pattern” to be superimposed on “target pattern”. It may be moved or deformed over time. For example, the “first image” and the “second image”, that is, the “first luminance component pattern” and the “second luminance component pattern” may be different for each frame. At least one of the shift width of the “first luminance component pattern” with respect to the “target pattern” and the shift width of the “second luminance component pattern” with respect to the “target pattern” may be different for each frame. Thereby, the binocular parallax can be perceived to change with the passage of time, and the depth of the “target” can also be perceived to change with the passage of time (Example 1). A “target” that changes (eg, deformation or movement) with the passage of time may be superimposed on a “first image” and a “second image” that change (eg, deformation or movement) with the passage of time. . That is, the “target pattern” that changes with the passage of time may be superimposed on the “first luminance component pattern” and the “second luminance component pattern” that change with the passage of time. Thereby, it can be made to perceive as the change was given to the depth of the "object" to change (example 2). The combination of Examples 1 and 2 may be used. In this case, it can be perceived that the changing depth of the “target” changes with time.

「対象パターン」と「第1輝度成分パターン」との間の位置関係の変化、「対象パターン」と「第2輝度成分パターン」との間の位置関係の変化、「対象パターン」の変化、「第1輝度成分パターン」の変化、および「第2輝度成分パターン」の変化の少なくとも何れかは、反復的や周期的なものであってもよいし、反復的や周期的でないものであってもよい。これらの変化は、連続的な変化であってもよいし、断続的な変化であってもよいし、1回のみの変化であってもよい。またこれらの変化は、画像処理によってなされてもよいし、「対象」「第1画像」「第2画像」の何れかを投影または表示する装置の機構を機械的に動かすことによってなされてもよいし、「対象」を機械的に動かすことによってなされてもよい。機械的な動きの動力は、アクチュエータなどの電気的なものであってもよいし、人力によるものであってもよいし、風力や揺れなどの環境によるものであってもよい。画像処理による動きと機械的な動きとを組み合わせてもよい。   Change in positional relationship between “target pattern” and “first luminance component pattern”, change in positional relationship between “target pattern” and “second luminance component pattern”, change in “target pattern”, “ At least one of the change of the “first luminance component pattern” and the change of the “second luminance component pattern” may be repetitive or periodic, or may be repetitive or non-periodic. Good. These changes may be continuous changes, intermittent changes, or changes only once. These changes may be made by image processing, or may be made by mechanically moving a mechanism of a device that projects or displays any one of “target”, “first image”, and “second image”. However, the “object” may be moved mechanically. The power of the mechanical movement may be electrical such as an actuator, may be based on human power, or may be based on an environment such as wind force or shaking. You may combine the motion by image processing, and mechanical motion.

[第1実施形態]
次に、図面を用いて第1実施形態を説明する。
<画像生成システムの構成>
図1に例示するように、本形態の画像生成システムは、画像生成装置11、撮影装置12、設置板13、および対象14を有する。画像生成装置11は、撮影処理部111、グレースケール変換部112、画像生成部114、および記憶部115を有する。画像生成装置11は、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)およびRAM(random-access memory)・ROM(read-only memory)等のメモリ等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される装置である。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、プログラムを用いることなく処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。また、1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。撮影装置12はカラーの静止画像を撮影可能な一般的なカメラである。設置板13は平面部131を有する板であり、対象14は平面部131に固定された印刷物である。対象14は一様ではなく、少なくとも一部に模様を有する。すなわち、対象14を撮影して得られた画像や映像の空間周波数は零ではない。
[First Embodiment]
Next, a first embodiment will be described with reference to the drawings.
<Configuration of image generation system>
As illustrated in FIG. 1, the image generation system of the present embodiment includes an image generation device 11, a photographing device 12, an installation plate 13, and a target 14. The image generation apparatus 11 includes a photographing processing unit 111, a gray scale conversion unit 112, an image generation unit 114, and a storage unit 115. The image generation apparatus 11 is a general-purpose or dedicated computer including, for example, a processor (hardware processor) such as a central processing unit (CPU) and a memory such as random-access memory (RAM) and read-only memory (ROM). Is an apparatus configured by executing a predetermined program. The computer may include a single processor and memory, or may include a plurality of processors and memory. This program may be installed in a computer, or may be recorded in a ROM or the like in advance. In addition, some or all of the processing units are configured using an electronic circuit that realizes a processing function without using a program, instead of an electronic circuit (circuitry) that realizes a functional configuration by reading a program like a CPU. May be. In addition, an electronic circuit constituting one device may include a plurality of CPUs. The photographing device 12 is a general camera capable of photographing a color still image. The installation plate 13 is a plate having a flat portion 131, and the object 14 is a printed matter fixed to the flat portion 131. The object 14 is not uniform and has a pattern at least partially. That is, the spatial frequency of an image or video obtained by photographing the object 14 is not zero.

<投影システムの構成>
図3Aに例示するように、本形態の投影システムは、投影装置15、プロジェクタ161,162、設置板17、および対象18を有する。投影装置15は、再生処理部151および記憶部152を有する。投影装置15は、例えば、上述のコンピュータが所定のプログラムを実行することで構成される装置である。設置板17は平面部171を有する板であり、対象18は平面部171に固定された印刷物である。対象18は上述の対象14であってもよいし、対象14の複製物であってもよいし、対象14の類似物であってもよい。対象14の類似物としては、対象14の一部の色や柄や輝度などが変更されたり省略されたりしたものや、対象14に色や柄や輝度などを付加したものを例示できる。プロジェクタ161,162は一般的なものでよい。
<Configuration of projection system>
As illustrated in FIG. 3A, the projection system of the present embodiment includes a projection device 15, projectors 161 and 162, an installation plate 17, and an object 18. The projection device 15 includes a reproduction processing unit 151 and a storage unit 152. The projection device 15 is, for example, a device configured by the above-described computer executing a predetermined program. The installation plate 17 is a plate having a flat portion 171, and the object 18 is a printed matter fixed to the flat portion 171. The target 18 may be the target 14 described above, a duplicate of the target 14, or an analog of the target 14. Examples of the similar object 14 include those in which a part of the color, pattern, brightness, and the like of the object 14 are changed or omitted, and those in which the color, pattern, brightness, etc. are added to the object 14. The projectors 161 and 162 may be general ones.

<画像生成処理>
まず画像生成処理を説明する。この処理では、対象18の奥行きに変化が与えられたように知覚させるために対象18に重畳させる画像を生成する。まず、撮影処理部111の制御の下、撮影装置12が対象14を撮影する(図1)。撮影によって得られたカラーの静止画像140(図2A)は撮影処理部111に送られ、グレースケール変換部112に送られる。
<Image generation processing>
First, image generation processing will be described. In this process, an image to be superimposed on the target 18 is generated in order to perceive a change in the depth of the target 18. First, under the control of the imaging processing unit 111, the imaging device 12 images the object 14 (FIG. 1). A color still image 140 (FIG. 2A) obtained by shooting is sent to the shooting processing unit 111 and then sent to the grayscale conversion unit 112.

グレースケール変換部112は、静止画像140をグレースケールに変換し、輝度成分パターンである対象パターン140a’を含む画像140’(「対象に由来する第1静止画像」および「対象に由来する第2静止画像」に相当)を生成する(図2A)。この例の画像140’は輝度成分のみからなる。例えば、グレースケール変換部112は、NTSC加重平均法(輝度Y=R×0.298912+G×0.586611+B×0.114478、ここでR,G,Bはそれぞれ、各ピクセルの赤,緑,青チャンネルの強度を表す)によって静止画像140をグレースケールの画像140’に変換する。ただし、グレースケールに変換できる手法なら、これ以外の方法を用いてもよい。   The grayscale conversion unit 112 converts the still image 140 to grayscale, and includes an image 140 ′ (“first still image derived from the target” and “second derived from the target” including the target pattern 140a ′ that is a luminance component pattern. Corresponding to “still image”) (FIG. 2A). The image 140 'in this example is composed only of luminance components. For example, the gray scale conversion unit 112 uses the NTSC weighted average method (luminance Y = R × 0.298912 + G × 0.586611 + B × 0.114478, where R, G, and B represent the red, green, and blue channel intensities of each pixel, respectively. ) To convert the still image 140 into a grayscale image 140 ′. However, any other method may be used as long as it can be converted to grayscale.

画像140’は画像生成部114に送られる。画像生成部114は、画像140’から右目(一方の目)用の画像1411(第1画像)および左目(他方の目)用の画像1412(第2画像)を生成する(図2C)。画像1411は、対象18の対象パターン18a(図3B)に対応するパターンであって右目で視認可能な輝度成分パターン1411aを含む単一の画像である。画像1412は、対象パターン18aに対応するパターンであって左目で視認可能な輝度成分パターン1412aを含む単一の画像である(図3B)。輝度成分パターン1411aおよび輝度成分パターン1412aは、対象パターン18aに由来するパターンである。以下、より具体的に説明する。   The image 140 ′ is sent to the image generation unit 114. The image generation unit 114 generates an image 1411 (first image) for the right eye (one eye) and an image 1412 (second image) for the left eye (the other eye) from the image 140 '(FIG. 2C). The image 1411 is a single image that includes the luminance component pattern 1411a that corresponds to the target pattern 18a (FIG. 3B) of the target 18 and that is visible with the right eye. The image 1412 is a single image corresponding to the target pattern 18a and including a luminance component pattern 1412a that can be visually recognized by the left eye (FIG. 3B). The luminance component pattern 1411a and the luminance component pattern 1412a are patterns derived from the target pattern 18a. More specific description will be given below.

まず画像生成部114は、画像140’(図2A)を用い、輝度成分パターン1401aを含む画像1401(第1変形画像)、および輝度成分パターン1402aを含む画像1402(第2変形画像)を生成する(図2B)。輝度成分パターン1401aおよび輝度成分パターン1402aは、画像140’の対象パターン140a’のうち両眼視差を付けたい領域(全部または一部の領域)を変形したものである。すなわち、輝度成分パターン1401aは対象パターン140a’の「両眼視差を付けたい領域」に「第1変形」を行ったものであり、輝度成分パターン1402aは対象パターン140a’の当該「両眼視差を付けたい領域」に「第2変形」を行ったものである。ただし、「第1変形」と「第2変形」とは互いに異なる。本形態では対象パターン140a’の全部の領域に両眼視差を付ける。例えば、対象パターン140a’を「第1方向」に移動させたものを輝度成分パターン1401aとした画像1401、および、対象パターン140a’を「第2方向(第1方向の逆方向)」に移動させたものを輝度成分パターン1402aとした画像1402が生成される。図2Bの例では、対象パターン140a’を左方向に移動させた輝度成分パターン1401aを含む画像1401が生成され、対象パターン140a’を右方向に移動させた輝度成分パターン1402aを含む画像1402が生成されている。図2Bの例の場合、対象パターン140a’に対する輝度成分パターン1401aの移動量と対象パターン140a’に対する輝度成分パターン1402aの移動量との合計が両眼視差に対応する。さらに、「第1変形」後の画像を平滑化したものを画像1401とし、「第2変形」後の画像を平滑化したものを画像1402としてもよい。平滑化した場合には、対象に滑らかに変化する奥行き印象を与えることができる。   First, the image generation unit 114 generates an image 1401 (first modified image) including the luminance component pattern 1401a and an image 1402 (second modified image) including the luminance component pattern 1402a using the image 140 ′ (FIG. 2A). (FIG. 2B). The luminance component pattern 1401a and the luminance component pattern 1402a are obtained by modifying an area (all or a part of the area) of the target pattern 140a 'of the image 140' where binocular parallax is desired. That is, the luminance component pattern 1401a is obtained by performing “first modification” on the “region where binocular parallax is to be added” of the target pattern 140a ′, and the luminance component pattern 1402a is the “binocular parallax of the target pattern 140a ′. The “second deformation” is performed on the “region to be attached”. However, the “first modification” and the “second modification” are different from each other. In this embodiment, binocular parallax is added to the entire area of the target pattern 140a '. For example, an image 1401 obtained by moving the target pattern 140a ′ in the “first direction” to the luminance component pattern 1401a and the target pattern 140a ′ are moved in the “second direction (the reverse direction of the first direction)”. An image 1402 having a luminance component pattern 1402a as a pattern is generated. In the example of FIG. 2B, an image 1401 including a luminance component pattern 1401a obtained by moving the target pattern 140a ′ leftward is generated, and an image 1402 including a luminance component pattern 1402a obtained by moving the target pattern 140a ′ rightward is generated. Has been. In the case of the example in FIG. 2B, the sum of the movement amount of the luminance component pattern 1401a with respect to the target pattern 140a 'and the movement amount of the luminance component pattern 1402a with respect to the target pattern 140a' corresponds to binocular parallax. Furthermore, an image 1401 may be obtained by smoothing an image after “first deformation”, and an image 1402 may be obtained by smoothing an image after “second deformation”. In the case of smoothing, a depth impression that smoothly changes can be given to the object.

次に画像生成部114は、画像140’(対象に由来する第1静止画像)と画像1401(第1静止画像を変形して得られる第1変形画像)との差分に基づく画像1411(図2C)、および、画像140’(対象に由来する第2静止画像)と画像1402(第2静止画像を変形して得られる第2変形画像)との差分に基づく画像1412(図2D)を生成する。画像1411は輝度成分パターン1401aに対応する輝度成分パターン1411aを含み、画像1412は輝度成分パターン1402aに対応する輝度成分パターン1412aを含む。画像1411は、画像140’から画像1401を減じて得られる画像に基づくものであってもよいし、逆に画像1401から画像140’を減じて得られる画像に基づくものであってもよい。ただし、このように減じて得られる画像が負の画素値を含む場合、その画素は表示または投影できない(すなわち、黒として処理される)。そのため、このように減じて得られる画像の全領域に画像140’または画像1401の平均輝度(RGB値でいえば128)を加算し、その上で、全領域の輝度値が通常のグレースケール値の範囲内(0〜255)に収まるように処理したものを画像1411としてもよい。ここでいう処理とは、一般的な画素値クリッピング(例えば、0より小さい値は0、255より大きな値は255に固定する処理)や、正規化(画素値の範囲を一旦0〜1の範囲に収まるようにデータを変形し、それに255を乗算する処理)のことを指す。同様に、画像1412は、画像140’から画像1402を減じて得られる画像に基づくものであってもよいし、逆に画像1402から画像140’を減じて得られる画像に基づくものであってもよい。このように減じて得られる画像の全領域に画像140’または画像1402の平均輝度を加算し、その上で、全領域の輝度値が通常のグレースケール値の範囲内に収まるように処理したものを画像1412としてもよい。得られた画像1411および画像1412は記憶部115に格納される。   Next, the image generation unit 114 generates an image 1411 (FIG. 2C) based on the difference between the image 140 ′ (first still image derived from the object) and the image 1401 (first modified image obtained by deforming the first still image). ), And an image 1412 (FIG. 2D) based on the difference between the image 140 ′ (second still image derived from the object) and the image 1402 (second modified image obtained by deforming the second still image). . The image 1411 includes a luminance component pattern 1411a corresponding to the luminance component pattern 1401a, and the image 1412 includes a luminance component pattern 1412a corresponding to the luminance component pattern 1402a. The image 1411 may be based on an image obtained by subtracting the image 1401 from the image 140 ′, or conversely, may be based on an image obtained by subtracting the image 140 ′ from the image 1401. However, when an image obtained by such reduction includes a negative pixel value, the pixel cannot be displayed or projected (that is, processed as black). Therefore, the average luminance (128 in terms of RGB values) of the image 140 ′ or the image 1401 is added to the entire area of the image obtained by such reduction, and the luminance value of the entire area is then set to a normal gray scale value. The image 1411 may be processed so as to be within the range (0 to 255). Processing here refers to general pixel value clipping (for example, processing for fixing a value smaller than 0 to 0 and a value larger than 255 to 255) or normalization (a range of pixel values from 0 to 1 once). The data is transformed so that it falls within the range and multiplied by 255). Similarly, the image 1412 may be based on an image obtained by subtracting the image 1402 from the image 140 ′, or conversely, may be based on an image obtained by subtracting the image 140 ′ from the image 1402. Good. The average luminance of the image 140 ′ or the image 1402 is added to the entire area of the image obtained by the reduction in this way, and then processed so that the luminance value of the entire area falls within the normal gray scale value range. May be the image 1412. The obtained image 1411 and image 1412 are stored in the storage unit 115.

<投影処理>
前処理として画像1411および画像1412が投影装置15(図3A)の記憶部152に格納される。記憶部115が記憶部152と同一であればこの前処理は不要である。次に、再生処理部151が画像1411をプロジェクタ161に送り、プロジェクタ161から画像1411を対象18に合わせて投影し、画像1412をプロジェクタ162に送り、プロジェクタ162から画像1412を対象18に合わせて投影する。その際、見た目で位置合わせをしてもよいし、構造化光法などの既存技術を使ってプロジェクタ161,162の光源と撮影装置12との対応関係をとることで位置合わせを行ってもよい。見た目で位置合わせを行う場合には、例えば、画像1411の輝度成分パターン1411aおよび画像1412の輝度成分パターン1412a(図2C)が、対象18の対象パターン18a(図3B)の近傍に重なるように行われる。例えば、輝度成分パターン1411a,1412aの輪郭の近傍が対象パターン18aの輪郭と重なるように配置されてもよいし、画像1411,1412の輪郭の近傍が対象18の輪郭と重なるように配置されてもよいし、輝度成分パターン1411a,1412aが含むエッジの近傍が対象パターン18aに含まれるエッジに重なるように配置されてもよい。ただし、対象パターン18aに対する輝度成分パターン1411aの相対位置と、対象パターン18aに対する輝度成分パターン1412aの相対位置とは互いに異なり、その相違が両眼視差となるように位置合わせが行われる。すなわち、対象パターン18aに対する輝度成分パターン1411aの相対位置と、対象パターン18aに対する輝度成分パターン1412aの相対位置とは異なる。
<Projection processing>
As preprocessing, the image 1411 and the image 1412 are stored in the storage unit 152 of the projection device 15 (FIG. 3A). If the storage unit 115 is the same as the storage unit 152, this pre-processing is not necessary. Next, the reproduction processing unit 151 sends the image 1411 to the projector 161, projects the image 1411 from the projector 161 according to the target 18, sends the image 1412 to the projector 162, and projects the image 1412 from the projector 162 to the target 18. To do. At that time, alignment may be performed by appearance, or alignment may be performed by taking a correspondence relationship between the light sources of the projectors 161 and 162 and the imaging device 12 using an existing technique such as a structured light method. . When alignment is performed in appearance, for example, the luminance component pattern 1411a of the image 1411 and the luminance component pattern 1412a (FIG. 2C) of the image 1412 are arranged so as to overlap with the vicinity of the target pattern 18a (FIG. 3B) of the target 18. Is called. For example, the vicinity of the contours of the luminance component patterns 1411a and 1412a may be disposed so as to overlap the contour of the target pattern 18a, or the vicinity of the contours of the images 1411 and 1412 may be disposed to overlap the contour of the target 18. Alternatively, the luminance component patterns 1411a and 1412a may be arranged so that the vicinity of the edge includes the edge included in the target pattern 18a. However, the relative position of the luminance component pattern 1411a with respect to the target pattern 18a and the relative position of the luminance component pattern 1412a with respect to the target pattern 18a are different from each other, and alignment is performed so that the difference becomes binocular parallax. That is, the relative position of the luminance component pattern 1411a with respect to the target pattern 18a is different from the relative position of the luminance component pattern 1412a with respect to the target pattern 18a.

なお、プロジェクタ161は、第1偏光方向に偏光(例えば、水平偏光)した画像1411を対象18に合わせて投影し、プロジェクタ162は、第1偏光方向と異なる第2偏光方向に偏光(例えば、垂直偏光)した画像1412を対象18に合わせて投影する。観測者は「第1偏光方向」の光のみを通す「第1偏光レンズ」および「第2偏光方向」の光のみを通す第2偏光レンズを持つ偏光眼鏡をかける。観測者の右目は「第1偏光レンズ」を通し、左目は「第2偏光レンズ」を通し、それぞれ対象18と画像1411および画像1412とが重畳した様子を見る。これにより、観測者の右目は輝度成分パターン1411aと対象パターン18aが重畳した様子を視認し、左目は輝度成分パターン1402aと対象パターン18aとが重畳した様子を視認する。これにより、観測者は対象18の全体またはその部位に本来は存在しない奥行きがあるように知覚する。   The projector 161 projects an image 1411 polarized in the first polarization direction (for example, horizontal polarization) according to the target 18, and the projector 162 is polarized (for example, vertical) in a second polarization direction different from the first polarization direction. A polarized image 1412 is projected according to the object 18. The observer wears polarized glasses having a “first polarization lens” that passes only light in the “first polarization direction” and a second polarization lens that passes only light in the “second polarization direction”. The observer's right eye passes through the “first polarizing lens” and the left eye passes through the “second polarizing lens”, and the state in which the object 18, the image 1411, and the image 1412 are superimposed is seen. As a result, the observer's right eye visually recognizes that the luminance component pattern 1411a and the target pattern 18a are superimposed, and the left eye visually recognizes that the luminance component pattern 1402a and the target pattern 18a are superimposed. As a result, the observer perceives that there is a depth that does not originally exist in the entire object 18 or its part.

<対象の奥行きに変化が与えられたように知覚される理由>
画像1411,1412には、奥行きを与えたい対象18のエッジに対応する輝度成分からなるエッジ情報が含まれている。対象18の対象パターン18の近傍にこのエッジ情報を重畳した場合、対象パターン18がエッジ情報の明るい領域側に変位したように知覚(錯覚)される。よって、右目と左目に入力される像の間で対象パターン18が異なる方向(例えば逆方向)へ画像変位するように錯覚された場合、錯覚的な両眼視差が生じ、その結果として奥行きを感じる。
<Reasons for perception as if the depth of the subject was changed>
The images 1411 and 1412 include edge information made up of luminance components corresponding to the edges of the target 18 to be given depth. When this edge information is superimposed in the vicinity of the target pattern 18 of the target 18, it is perceived (illusion) that the target pattern 18 is displaced to the bright area side of the edge information. Accordingly, when the illusion is made that the target pattern 18 is displaced in a different direction (for example, in the opposite direction) between the images input to the right eye and the left eye, an illusion of binocular parallax occurs, resulting in a sense of depth. .

<本形態の特徴>
以上のように、本形態では対象18に奥行きの変化が与えられたように知覚させることができる。本形態で対象18に重畳させる画像1411,1412は輝度成分のみからなる画像である。そのため、対象18の色やテクスチャなどの印象を損なわずに、新たに奥行き印象を付与することができる。また対象18に制約はなく、任意の対象18に奥行き印象を付与できる。このように、見かけの印象を元の対象から大きく乖離させることなく、任意の対象の奥行きに変化が与えられたように知覚させることができる。
<Features of this embodiment>
As described above, in this embodiment, the object 18 can be perceived as if a change in depth is given. In this embodiment, the images 1411 and 1412 to be superimposed on the target 18 are images composed only of luminance components. Therefore, a new depth impression can be given without impairing the impression of the color or texture of the object 18. Moreover, there is no restriction | limiting in the object 18, A depth impression can be provided to the arbitrary object 18. FIG. In this way, it is possible to perceive a change in the depth of an arbitrary object without greatly deviating the apparent impression from the original object.

[第1実施形態の変形例1]
第1実施形態は、対象18の対象パターン18a全体に奥行きの変化が与えられたように知覚させるものであった。対象パターン18aの一部の領域のみに奥行きの変化が与えられたように知覚させてもよい。この場合、画像生成部114は、対象パターン18aの「一部の領域(例えば、両目の領域)」のみに対応する輝度成分パターン1411a’を含み、右目で視認可能な画像1411’(図4A)、および対象パターン18aの当該「一部の領域」のみに対応する輝度成分パターン1411a’を含み、左眼で視認可能な画像1411’を生成すればよい(図4B)。
[First Modification of First Embodiment]
In the first embodiment, the entire target pattern 18a of the target 18 is perceived as having a change in depth. It may be perceived that a change in depth is given to only a part of the target pattern 18a. In this case, the image generation unit 114 includes the luminance component pattern 1411a ′ corresponding to only “part of the region (for example, the region of both eyes)” of the target pattern 18a and is visible with the right eye 1411 ′ (FIG. 4A). And the luminance component pattern 1411a ′ corresponding to only the “partial region” of the target pattern 18a, and an image 1411 ′ that can be viewed with the left eye may be generated (FIG. 4B).

この場合、画像生成部114は、第1実施形態の画像1401に代え、対象パターン140a’の一部の領域(両目の領域)のみを切り取って「第1方向」に移動させたものを輝度成分パターン1401a’として含む画像1401’を生成し(第1変形画像)、第1実施形態の画像1402に代え、対象パターン140a’の一部の領域(両目の領域)のみを切り取って「第2方向」に移動させたものを輝度成分パターン1402a’として含む画像1402’(第2変形画像)を生成する。次に画像生成部114は、画像140’(対象に由来する第1静止画像)と画像1401’(第1静止画像を変形して得られる第1変形画像)との差分に基づく画像1411’(図4A)、および、画像140’(対象に由来する第2静止画像)と画像1402’(第2静止画像を変形して得られる第2変形画像)との差分に基づく画像1412’(図4B)を生成する。   In this case, instead of the image 1401 of the first embodiment, the image generation unit 114 cuts out only a partial region (region of both eyes) of the target pattern 140a ′ and moves it in the “first direction” as a luminance component. An image 1401 ′ included as a pattern 1401a ′ is generated (first modified image), and instead of the image 1402 of the first embodiment, only a partial region (region of both eyes) of the target pattern 140a ′ is cut out to be “second direction” ”Is generated as a luminance component pattern 1402a ′ (second modified image). Next, the image generation unit 114 generates an image 1411 ′ (based on the difference between the image 140 ′ (first still image derived from the object) and the image 1401 ′ (first modified image obtained by deforming the first still image). FIG. 4A) and an image 1412 ′ (FIG. 4B) based on the difference between the image 140 ′ (second still image derived from the object) and the image 1402 ′ (second modified image obtained by deforming the second still image). ) Is generated.

再生処理部151は、画像1411に代えて画像1411’をプロジェクタ161に送り、プロジェクタ161から第1偏光方向に偏光した画像1411’を対象18に合わせて投影する。さらに再生処理部151は、画像1412に代えて画像1412’をプロジェクタ162に送り、プロジェクタ162から第2偏光方向に偏光した画像1412’を対象18に合わせて投影する(図4C)。観察者は第1実施形態で説明した偏光眼鏡をかけ、対象18と画像1411’および画像1412’とが重畳した様子を見る。これにより、観察者は、対象パターン18aの一部の領域のみに奥行きの変化が与えられたように知覚する。   The reproduction processing unit 151 sends an image 1411 ′ instead of the image 1411 to the projector 161, and projects the image 1411 ′ polarized in the first polarization direction from the projector 161 according to the target 18. Furthermore, the reproduction processing unit 151 sends an image 1412 ′ instead of the image 1412 to the projector 162, and projects the image 1412 ′ polarized in the second polarization direction from the projector 162 according to the target 18 (FIG. 4C). The observer wears the polarized glasses described in the first embodiment and sees the state in which the object 18 is superimposed on the image 1411 ′ and the image 1412 ′. Thereby, the observer perceives that a change in depth is given only to a partial region of the target pattern 18a.

あるいは、第1実施形態と同じように画像1411,1412を対象18に合わせて投影し、奥行きの変化を与えたくない領域に一様照明を照射してもよい。この一様照明の輝度が対象パターン18aのエッジの明暗の中間輝度になるように操作することで、投影される輝度成分パターン1411a,1412aの奥行きの変化を与えたくない領域が見かけ上消失する。観察者は第1実施形態で説明した偏光眼鏡をかけ、この様子を見ることで対象パターン18aの一部の領域のみに奥行きの変化が与えられたように知覚する。輝度成分パターン1411a,1412aのうち、奥行きの変化を与えたくない領域を投影しないこととしても、同様な効果を得ることができる。   Alternatively, as in the first embodiment, the images 1411 and 1412 may be projected according to the target 18 and the uniform illumination may be applied to the area where it is not desired to change the depth. By operating so that the brightness of the uniform illumination becomes an intermediate brightness between the edges of the target pattern 18a, a region where it is not desired to change the depth of the projected brightness component patterns 1411a and 1412a apparently disappears. The observer wears the polarized glasses described in the first embodiment, and perceives that a change in depth is given only to a partial region of the target pattern 18a by viewing this state. A similar effect can be obtained by not projecting a region of the luminance component patterns 1411a and 1412a that is not desired to be changed in depth.

[第1実施形態の変形例2]
投影装置15がさらにフィルタリング部113を有してもよい。画像生成部114が画像1411,1412(図2C)を生成して出力することに代え、画像生成部114が生成した画像1401,1402(図2B)をフィルタリング部113に送ってもよい。フィルタリング部113は、送られた画像1401,1402を高空間周波数フィルタリングし、これらの低空間周波数成分を抑圧したものを画像1411,1412(図2C)として出力する。このように高空間周波数成分が低空間周波数成分よりも優位に知覚される画像1411(第1画像)および画像1412(第2画像)を対象18に重畳(すなわち、高空間周波数成分が低空間周波数成分よりも優位に知覚される第1輝度成分パターンおよび第2輝度成分パターンを対象に重畳)しても、第1実施形態と同様な効果を得ることができる。この高空間周波数フィルタリングに用いるフィルターは、例えば、画像1401,1402画像の位相を変えないで高空間周波数成分を抽出できるものである。例えば、Adobe Photoshop(登録商標)などの既存の画像編集ソフトに組み込まれているエッジ検出フィルターを用いたり、高空間周波数方位成分をたたみ込んで算出したりすることでも、同様の結果を得ることができる。
[Modification 2 of the first embodiment]
The projection device 15 may further include a filtering unit 113. Instead of the image generation unit 114 generating and outputting the images 1411 and 1412 (FIG. 2C), the images 1401 and 1402 (FIG. 2B) generated by the image generation unit 114 may be sent to the filtering unit 113. The filtering unit 113 performs high spatial frequency filtering on the transmitted images 1401 and 1402 and outputs images obtained by suppressing these low spatial frequency components as images 1411 and 1412 (FIG. 2C). In this way, the image 1411 (first image) and the image 1412 (second image) in which the high spatial frequency component is perceived as being superior to the low spatial frequency component are superimposed on the target 18 (that is, the high spatial frequency component is the low spatial frequency). Even when the first luminance component pattern and the second luminance component pattern that are perceived more preferentially than the components are superimposed on the target), the same effect as in the first embodiment can be obtained. The filter used for the high spatial frequency filtering can extract a high spatial frequency component without changing the phases of the images 1401 and 1402, for example. For example, the same result can be obtained by using an edge detection filter incorporated in existing image editing software such as Adobe Photoshop (registered trademark) or by calculating by convolving a high spatial frequency direction component. it can.

あるいは、画像生成部114が、グレースケール変換部112から出力された画像140’(図2A)を高空間周波数フィルタリングして画像140”を得てもよい。画像生成部114は、画像140”のパターンの全部または一部の領域(両眼視差を付けたい領域)に前述の「第1変形」を行った輝度成分パターン1411aを含む画像1411(図2C)を出力し、前述の「第2変形」を行った輝度成分パターン1412aを含む画像1412(図2D)を出力する。このような画像1411(第1画像)および画像1412(第2画像)を対象18に重畳しても、第1実施形態と同様な効果を得ることができる。   Alternatively, the image generation unit 114 may obtain the image 140 ″ by performing high spatial frequency filtering on the image 140 ′ (FIG. 2A) output from the grayscale conversion unit 112. The image generation unit 114 may obtain the image 140 ″. An image 1411 (FIG. 2C) including the luminance component pattern 1411a obtained by performing the above-described “first deformation” on all or a part of the pattern (an area where binocular parallax is to be added) is output. The image 1412 (FIG. 2D) including the luminance component pattern 1412 a subjected to “is output. Even if such an image 1411 (first image) and an image 1412 (second image) are superimposed on the target 18, the same effect as in the first embodiment can be obtained.

[第1実施形態の変形例3]
第1実施形態では、静止画像140をグレースケールに変換し、輝度成分パターンである対象パターン140a’を含む画像140’を生成した。しかし、この処理を省略して静止画像140をそのまま画像140’として用い、第1実施形態やその変形例1,2を実施してもよい。あるいは、静止画像140の特定の色成分を強調したり、抑圧したりした画像を画像140’として用い、第1実施形態やその変形例1,2を実施してもよい。
[Modification 3 of the first embodiment]
In the first embodiment, the still image 140 is converted to grayscale, and an image 140 ′ including a target pattern 140a ′ that is a luminance component pattern is generated. However, this process may be omitted and the still image 140 may be used as it is as the image 140 ′ to implement the first embodiment and its modifications 1 and 2. Alternatively, an image obtained by enhancing or suppressing a specific color component of the still image 140 may be used as the image 140 ′, and the first embodiment or its modifications 1 and 2 may be implemented.

[第1実施形態の変形例4]
対象パターン18aと輝度成分パターン1411aとの間の位置関係、および、対象パターン18aと輝度成分パターン1412aとの間の位置関係を時間経過に伴って変化させてもよい。これにより、対象18の奥行きが時間経過に伴って変化するように知覚させることができる。例えば、図5Aおよび図5Bに例示するように、時間区間T1での対象パターン18aに対する輝度成分パターン1411a,1412aのずれ幅(相対位置)と、時間区間T1以外の時間区間T2での対象パターン18aに対する輝度成分パターン1411a,1412aのずれ幅(相対位置)が異なっていてもよい。これにより、時間区間T1とT2で対象18の奥行きが変化するように知覚させることができる。
[Modification 4 of the first embodiment]
The positional relationship between the target pattern 18a and the luminance component pattern 1411a and the positional relationship between the target pattern 18a and the luminance component pattern 1412a may be changed over time. Thereby, it can be made to perceive so that the depth of the object 18 may change with progress of time. For example, as illustrated in FIGS. 5A and 5B, the deviation width (relative position) of the luminance component patterns 1411a and 1412a with respect to the target pattern 18a in the time interval T1 and the target pattern 18a in the time interval T2 other than the time interval T1. The deviation widths (relative positions) of the luminance component patterns 1411a and 1412a may be different. Thereby, it can be perceived that the depth of the object 18 changes in the time sections T1 and T2.

[第1実施形態の変形例5]
移動する対象18に移動する画像1411,1412を重畳させてもよい。この場合も、対象パターン18aに対する輝度成分パターン1411aの相対位置と、対象パターン18aに対する輝度成分パターン1412aの相対位置とを相違させることで、移動する対象18の奥行きに変化が与えられたように知覚させることができる。図6Aの例では、時間区間T1での対象パターン18aの位置と、時間区間T2での対象パターン18aの位置とが異なり、それぞれの対象パターン18aに輝度成分パターン1411a,1412aを重畳している。これにより、時間区間T1とT2で位置が相違する対象18の奥行きに変化が与えられたように知覚させることができる。なお、設置板17を物理的に移動させることで対象18を移動させることができる。或いは、平面部171に固定された印刷物を対象18とすることに代え、平面部171に投影された画像を対象18としてもよく、この場合にはプロジェクタの機構を動かすことで対象18を移動させてもよい。
[Modification 5 of the first embodiment]
The moving images 1411 and 1412 may be superimposed on the moving object 18. Also in this case, the relative position of the luminance component pattern 1411a with respect to the target pattern 18a and the relative position of the luminance component pattern 1412a with respect to the target pattern 18a are made different so that the depth of the moving target 18 is perceived as being changed. Can be made. In the example of FIG. 6A, the position of the target pattern 18a in the time section T1 is different from the position of the target pattern 18a in the time section T2, and the luminance component patterns 1411a and 1412a are superimposed on the respective target patterns 18a. Thereby, it can be made to perceive as the change was given to the depth of the object 18 in which the position is different in the time sections T1 and T2. The object 18 can be moved by physically moving the installation plate 17. Alternatively, instead of setting the printed matter fixed on the plane portion 171 as the target 18, the image projected on the plane portion 171 may be set as the target 18. In this case, the target 18 is moved by moving the mechanism of the projector. May be.

[第1実施形態の変形例6]
第1実施形態の変形例4と変形例5とを組み合わせてもよい。すなわち、移動する対象18に移動する画像1411,1412を重畳させ、対象パターン18aと輝度成分パターン1411aとの間の位置関係、および、対象パターン18aと輝度成分パターン1412aとの間の位置関係を時間経過に伴って変化させてもよい。これにより、移動する対象18の奥行きが時間経過に伴って変化するように知覚させることができる。例えば、図6Bに例示するように、時間区間T1での対象パターン18aの位置と、時間区間T2での対象パターン18aの位置とが異なってもよい。さらに、時間区間T1での対象パターン18aに対する輝度成分パターン1411aおよび輝度成分パターン1412aのずれ幅と、時間区間T1以外の時間区間T2での対象パターン18aに対する輝度成分パターン1411aおよび輝度成分パターン1412aのずれ幅が異なっていてもよい。これにより、時間区間T1とT2で位置が相違する対象18の奥行きが変化するように知覚させることができる。
[Modification 6 of the first embodiment]
You may combine the modification 4 and the modification 5 of 1st Embodiment. That is, the moving images 1411 and 1412 are superimposed on the moving target 18, and the positional relationship between the target pattern 18a and the luminance component pattern 1411a and the positional relationship between the target pattern 18a and the luminance component pattern 1412a are set as time. You may change with progress. Thereby, it can be made to perceive that the depth of the moving object 18 changes with time passage. For example, as illustrated in FIG. 6B, the position of the target pattern 18a in the time interval T1 may be different from the position of the target pattern 18a in the time interval T2. Further, the deviation width of the luminance component pattern 1411a and the luminance component pattern 1412a with respect to the target pattern 18a in the time interval T1, and the deviation of the luminance component pattern 1411a and the luminance component pattern 1412a with respect to the target pattern 18a in the time interval T2 other than the time interval T1. The width may be different. Thereby, it can be made to perceive so that the depth of the object 18 from which a position differs in time interval T1 and T2 may change.

[第1実施形態の変形例7]
プロジェクタ161,162を機械的に動かすことによって、対象パターン18aに対する輝度成分パターン1411aの相対位置と、対象パターン18aに対する輝度成分パターン1412aの相対位置とを相違させてもよい。この場合、プロジェクタ161,162から同じ画像1411(図2C)を対象18aに投影し、プロジェクタ161から投影する輝度成分パターン1411aの対象パターン18aに対する相対位置と、プロジェクタ162から投影する輝度成分パターン1411aの対象パターン18aに対する相対位置とを互いに相違させてもよい。この相違はプロジェクタ161,162の投影方向を機械的にずらすことで実現できる。
[Modification 7 of First Embodiment]
The relative position of the luminance component pattern 1411a with respect to the target pattern 18a may be made different from the relative position of the luminance component pattern 1412a with respect to the target pattern 18a by mechanically moving the projectors 161 and 162. In this case, the same image 1411 (FIG. 2C) is projected from the projectors 161 and 162 onto the target 18a, the relative position of the luminance component pattern 1411a projected from the projector 161 with respect to the target pattern 18a, and the luminance component pattern 1411a projected from the projector 162 The relative positions with respect to the target pattern 18a may be different from each other. This difference can be realized by mechanically shifting the projection directions of the projectors 161 and 162.

[第1実施形態の変形例8]
対象18と画像1411とを重畳させるが画像1412を重畳させない時間区間R(例えば、奇数番目のフレーム)と、対象18と画像1412とを重畳させるが画像1411を重畳させない時間区間L(例えば、偶数番目のフレーム)とを交互に繰り返してもよい。例えば、図7Aに例示するように対象18の対象パターン18aに画像1411の輝度成分パターン1411aを重畳する時間区間Rと、図7Bに例示するように対象18の対象パターン18aに画像1412の輝度成分パターン1412aを重畳する時間区間Lとを交互に繰り返してよい(図7C)。観測者は時間区間Rで透過状態となり、時間区間Lで非透過状態となる液晶シャッターを備える右側レンズと、時間区間Lで透過状態となり、時間区間Rで非透過状態となる液晶シャッターを備える左側レンズとを持つ液晶シャッター眼鏡をかける。観測者の右目は右側レンズを通し、左目は左側レンズを通し、それぞれ対象18と画像1411および対象18と画像1412とが重畳した様子を見る。これにより、観測者の右目は時間区間Rで輝度成分パターン1411aと対象パターン18aが重畳した様子を視認し、左目は時間区間Lで輝度成分パターン1412aと対象パターン18aが重畳した様子を視認する。これによっても、対象18の奥行きに変化が与えられたように知覚させることができる。
[Modification 8 of the first embodiment]
A time interval R (for example, an odd-numbered frame) in which the target 18 and the image 1411 are superimposed but the image 1412 is not superimposed, and a time interval L (for example, an even number) in which the target 18 and the image 1412 are superimposed but the image 1411 is not superimposed. And the second frame) may be alternately repeated. For example, a time interval R in which the luminance component pattern 1411a of the image 1411 is superimposed on the target pattern 18a of the target 18 as illustrated in FIG. 7A, and a luminance component of the image 1412 in the target pattern 18a of the target 18 as illustrated in FIG. 7B. The time interval L on which the pattern 1412a is superimposed may be alternately repeated (FIG. 7C). An observer has a right lens with a liquid crystal shutter that is transmissive in time interval R and non-transmissive in time interval L, and a left side that has a liquid crystal shutter in transmissive state in time interval L and non-transmissive in time interval R. Wear LCD shutter glasses with a lens. The observer's right eye passes through the right lens and the left eye passes through the left lens, and the object 18 and the image 1411 and the object 18 and the image 1412 are seen superimposed. Thereby, the observer's right eye visually recognizes that the luminance component pattern 1411a and the target pattern 18a are superimposed in the time interval R, and the left eye visually recognizes that the luminance component pattern 1412a and the target pattern 18a are superimposed in the time interval L. This also makes it possible to perceive a change in the depth of the object 18.

[第2実施形態]
画像1411,1412を投影するのではなく、透過性のある画像1411,1412を透過型ディスプレイに表示してもよい。図8Aに例示するように、本形態の映像表示システムは、表示装置35、透過型ディスプレイ36、設置板17、および設置板17の平面部171に固定された対象18を有する。表示装置35は、再生処理部151および記憶部152を有する。透過型ディスプレイ36の一方の面361は、設置板17の対象18側(平面部171側)に対向配置される。この場合には、まず位置合わせのために、再生処理部151が画像1411,1412を透過型ディスプレイ36に送り、透過型ディスプレイ36で透過性のある画像1411,1412を表示する。見た目で位置合わせを行う場合、観察者が透過型ディスプレイ36の他方の面362側からA方向を閲覧し、透過型ディスプレイ36に表示された透過性のある画像1411,1412と対象18との重なり具合を調整する。調整の方法は第1実施形態と同じであり、対象パターン18aに対する輝度成分パターン1411aの相対位置と、対象パターン18aに対する輝度成分パターン1412aの相対位置を相違させる。透過型ディスプレイ36の他方の面362側(A方向)から見ると、画像1411,1412と対象18とが重畳して見える。ここで偏光の違いや表示される時間区間の切り替え等(偏光レンズ法や液晶シャッター法等)により、対象パターン18aが観察者の両目で視認され、輝度成分パターン1411aが右目でのみ視認され、輝度成分パターン1412aが観察者の左目でのみ視認されるようにする。これにより、偏光レンズや液晶シャッターを備えた眼鏡かけ、A方向から透過型ディスプレイ36を閲覧する観察者は、対象18の奥行きに変化が与えられたように知覚する。このようにしても第1実施形態と同様な効果を得ることができる。
[Second Embodiment]
Instead of projecting the images 1411 and 1412, the transparent images 1411 and 1412 may be displayed on the transmissive display. As illustrated in FIG. 8A, the video display system according to the present embodiment includes a display device 35, a transmissive display 36, an installation plate 17, and an object 18 fixed to the flat portion 171 of the installation plate 17. The display device 35 includes a reproduction processing unit 151 and a storage unit 152. One surface 361 of the transmissive display 36 is disposed to face the target 18 side (plane portion 171 side) of the installation plate 17. In this case, the reproduction processing unit 151 first sends the images 1411 and 1412 to the transmissive display 36 for alignment, and displays the transmissive images 1411 and 1412 on the transmissive display 36. When alignment is performed in appearance, an observer browses the A direction from the other surface 362 side of the transmissive display 36, and the transmissive images 1411 and 1412 displayed on the transmissive display 36 overlap with the target 18. Adjust the condition. The adjustment method is the same as in the first embodiment, and the relative position of the luminance component pattern 1411a with respect to the target pattern 18a is different from the relative position of the luminance component pattern 1412a with respect to the target pattern 18a. When viewed from the other surface 362 side (direction A) of the transmissive display 36, the images 1411 and 1412 and the object 18 appear to overlap each other. Here, the target pattern 18a is visually recognized by both eyes of the observer and the luminance component pattern 1411a is visually recognized only by the right eye due to a difference in polarization, switching of a displayed time interval, and the like (polarization lens method, liquid crystal shutter method, etc.). The component pattern 1412a is made visible only with the left eye of the observer. As a result, an observer who wears glasses equipped with a polarizing lens and a liquid crystal shutter and views the transmissive display 36 from the A direction perceives that the depth of the object 18 has been changed. Even if it does in this way, the effect similar to 1st Embodiment can be acquired.

[第2実施形態の変形例1]
透過性のある対象とディスプレイ(透過型または非透過型)に表示された画像1411,1412とを重畳させてもよい。図8Bに例示するように、本形態の映像表示システムは、表示装置35、ディスプレイ36’、透過性のある設置板37、および透過性のある対象318を有する。設置板37の一方の面371に透過性のある対象318が印刷されている。ディスプレイ36’の一方の面362’は、設置板37の他方の面372側に対向配置される。まず位置合わせのために、再生処理部151が画像1411,1412をディスプレイ36’に送り、ディスプレイ36’で透過性のある画像1411,1412を表示する。見た目で位置合わせを行う場合、観察者が設置板37の一方の面371側からA方向を閲覧し、設置板37の透過性のある対象318とディスプレイ36’に表示された透過性のある画像1411,1412との重なり具合を調整する。調整の方法は第1実施形態と同じであり、対象318の対象パターンに対する輝度成分パターン1411aの相対位置と、当該対象パターンに対する輝度成分パターン1412aの相対位置を相違させる。A方向から見ると、画像1411,1412と対象18とが重畳して見える。ここで偏光の違いや表示される時間区間の切り替え等(偏光レンズ法や液晶シャッター法等)により、対象318の対象パターンが観察者の両目で視認され、輝度成分パターン1411aが右目でのみ視認され、輝度成分パターン1412aが観察者の左目でのみ視認されるようにする。これにより、偏光レンズや液晶シャッターを備えた眼鏡かけ、A方向から設置板37を閲覧する観察者は、対象318の奥行きに変化が与えられたように知覚する。
[Modification 1 of the second embodiment]
A transparent object and images 1411 and 1412 displayed on a display (transmission type or non-transmission type) may be superimposed. As illustrated in FIG. 8B, the video display system of the present embodiment includes a display device 35, a display 36 ′, a transmissive installation plate 37, and a transmissive target 318. A transparent object 318 is printed on one surface 371 of the installation plate 37. One surface 362 ′ of the display 36 ′ is disposed opposite to the other surface 372 side of the installation plate 37. First, for alignment, the reproduction processing unit 151 sends the images 1411 and 1412 to the display 36 ′, and displays the transparent images 1411 and 1412 on the display 36 ′. When aligning the appearance, the observer views the direction A from the one surface 371 side of the installation board 37, and the transparent object 318 of the installation board 37 and the transparent image displayed on the display 36 '. 1411 and 1412 are adjusted. The adjustment method is the same as in the first embodiment, and the relative position of the luminance component pattern 1411a with respect to the target pattern of the target 318 is made different from the relative position of the luminance component pattern 1412a with respect to the target pattern. When viewed from the A direction, the images 1411 and 1412 and the object 18 appear to overlap each other. Here, the target pattern of the target 318 is visually recognized by both eyes of the observer, and the luminance component pattern 1411a is visually recognized only by the right eye due to the difference in polarization and switching of the displayed time interval (polarized lens method, liquid crystal shutter method, etc.). The luminance component pattern 1412a is made visible only with the left eye of the observer. Thus, an observer who wears glasses equipped with a polarizing lens and a liquid crystal shutter and views the installation plate 37 from the A direction perceives that the depth of the object 318 has been changed.

[第2実施形態の変形例2]
第1実施形態の変形例1と同様、第2実施形態およびその変形例1において、対象パターンの一部の領域のみに奥行きの変化が与えられたように知覚させてもよい。また、第1実施形態の変形例2,3で説明した方法で生成された画像1411,1412を用いてもよい。その他、第1実施形態の変形例4,6で説明したように、移動または静止する対象の対象パターンと輝度成分パターン1411aとの間の位置関係、および、当該対象パターンと輝度成分パターン1412aとの間の位置関係を時間経過に伴って変化させてもよい。第1実施形態の変形例5で説明したように、移動する対象に移動する画像1411,1412を重畳させてもよい。
[Modification 2 of the second embodiment]
Similar to the first modification of the first embodiment, in the second embodiment and the first modification thereof, only a partial region of the target pattern may be perceived as having a change in depth. Moreover, you may use the images 1411 and 1412 produced | generated by the method demonstrated in the modifications 2 and 3 of 1st Embodiment. In addition, as described in Modifications 4 and 6 of the first embodiment, the positional relationship between the target pattern to be moved or stopped and the luminance component pattern 1411a, and the relationship between the target pattern and the luminance component pattern 1412a. You may change the positional relationship between them with progress of time. As described in the fifth modification of the first embodiment, the moving images 1411 and 1412 may be superimposed on the moving object.

[その他の変形例等]
なお、本発明は上述の実施の形態に限定されるものではない。上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
[Other variations]
The present invention is not limited to the embodiment described above. The various processes described above are not only executed in time series according to the description, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes. Needless to say, other modifications are possible without departing from the spirit of the present invention.

上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は、非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。   When the above configuration is realized by a computer, the processing contents of the functions that each device should have are described by a program. By executing this program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. An example of a computer-readable recording medium is a non-transitory recording medium. Examples of such a recording medium are a magnetic recording device, an optical disk, a magneto-optical recording medium, a semiconductor memory, and the like.

このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   This program is distributed, for example, by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own storage device, and executes a process according to the read program. As another execution form of the program, the computer may read the program directly from the portable recording medium and execute processing according to the program, and each time the program is transferred from the server computer to the computer. The processing according to the received program may be executed sequentially. The above-described processing may be executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by an execution instruction and result acquisition without transferring a program from the server computer to the computer. Good.

上記実施形態では、コンピュータ上で所定のプログラムを実行させて本装置の処理機能が実現されたが、これらの処理機能の少なくとも一部がハードウェアで実現されてもよい。   In the above embodiment, the processing functions of the apparatus are realized by executing a predetermined program on a computer. However, at least a part of these processing functions may be realized by hardware.

対象の奥行きに変化が与えられたように知覚させる画像のデータ構造であって、対象の対象パターンに対応するパターンであって一方の目で視認可能な第1輝度成分パターンを含む第1画像と、当該対象パターンに対応するパターンであって他方の目で視認可能な第2輝度成分パターンを含む第2画像と、を有し、当該対象パターンに対する当該第1輝度成分パターンの相対位置と、当該対象パターンに対する当該第2輝度成分パターンの相対位置と、が異なるように当該第1画像および当該第2画像を前記対象に重畳する装置で用いられるデータ構造を流通させてもよい。このデータ構造の流通は、例えば、そのデータ構造を記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行ってもよいし、インターネット等のネットワーク上のサーバコンピュータにそのデータ構造をアップロードし、そこから配信することによって行ってもよい。   A first image including a first luminance component pattern which is a pattern corresponding to a target pattern of a target and perceivable by one eye; A second image including a second luminance component pattern corresponding to the target pattern and visible to the other eye, and a relative position of the first luminance component pattern with respect to the target pattern, A data structure used in an apparatus that superimposes the first image and the second image on the target may be distributed so that the relative position of the second luminance component pattern with respect to the target pattern is different. This data structure may be distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM that records the data structure, or a server computer on a network such as the Internet. You may do this by uploading the data structure to and distributing from there.

本発明は、例えば、美術館や写真館などに展示された絵画、美術品、写真などの対象の奥行きに変化が与えられたように知覚させ、新しい鑑賞方法や奥行き表現手法を提供できる。   The present invention can provide a new appreciation method and depth expression method by allowing a user to perceive a change in the depth of an object such as a painting, a work of art, or a photograph exhibited in a museum or a photo studio.

11 画像生成装置
15 投影装置
35 表示装置
18,318 対象
18a 対象パターン
1411,1412 画像
1411a,1412a 輝度成分パターン
DESCRIPTION OF SYMBOLS 11 Image production | generation apparatus 15 Projection apparatus 35 Display apparatus 18,318 Target 18a Target pattern 1411,1412 Image 1411a, 1412a Luminance component pattern

Claims (1)

第1差分画像と第2差分画像とを、対象の対象パターンに重畳する投影または表示を行うためのデータ構造であって、
互いに対応付けられた、或る時間区間において前記対象パターンの或る両眼視差領域に或る両眼視差を与えるために前記両眼視差領域の近傍に重畳される第1領域を含む前記第1差分画像と、前記時間区間において前記両眼視差領域に前記両眼視差を与えるために前記両眼視差領域の近傍に重畳される第2領域を含む前記第2差分画像と、を含み、
前記第1差分画像と前記第1領域と前記両眼視差と識別情報とが組になって対応付けられ、前記第2差分画像と前記第2領域と前記両眼視差と前記識別情報とが組になって対応付けられた構造を持ち、
記憶装置に格納され、
前記第1差分画像は、前記対象の静止画像に基づく輝度成分パターンを含む元画像と、前記元画像に含まれた前記両眼視差領域に対応する前記輝度成分パターンの領域を第1の方向に移動させた第1変形画像と、の差分に基づき生成された画像であり、
前記第2差分画像は、前記元画像と、前記元画像に含まれた前記両眼視差領域に対応する前記輝度成分パターンの領域を前記第1の方向と逆方向の第2の方向に移動させた第2変形画像と、の差分に基づき生成された画像であり、
前記両眼視差領域に対応する領域を前記第1の方向に移動させる移動量と、前記両眼視差領域に対応する領域を前記第2の方向に移動させる移動量と、の合計が前記両眼視差に対応し、
再生処理装置に制御用の情報が入力されたのを契機に、
前記第1差分画像に対応する前記時間区間、前記両眼視差、および前記第1領域と、前記第2差分画像に対応する前記時間区間、前記両眼視差、および前記第2領域と、の対応関係に従って、
前記再生処理装置に入力される情報により特定される、前記互いに対応付けられた、前記時間区間、前記両眼視差、および前記第1領域とを有する前記第1差分画像と、前記時間区間、前記両眼視差、および前記第2領域とを有する前記第2差分画像とが前記記憶装置から前記再生処理装置に読み込まれ、
観察者の一方の目と他方の目のそれぞれで、前記第1差分画像と前記第2差分画像とのそれぞれを同時に視認可能なように、前記時間区間において、前記第1差分画像が前記再生処理装置の一方のチャネルから出力されて前記対象パターンに投影または表示され、前記第2差分画像が前記再生処理装置の他方のチャネルから出力されて前記対象パターンに投影または表示され、
前記時間区間において、前記第1領域が前記両眼視差領域の近傍に重畳され、前記第2領域が前記両眼視差領域の近傍に重畳された状態を前記観察者に知覚させる処理に用いられる、データ構造。
A data structure for performing projection or display for superimposing a first difference image and a second difference image on a target pattern of interest,
The first region includes a first region that is associated with each other and is superimposed in the vicinity of the binocular parallax region in order to give a binocular parallax to a certain binocular parallax region of the target pattern in a certain time interval. A difference image, and the second difference image including a second region superimposed in the vicinity of the binocular parallax region in order to give the binocular parallax to the binocular parallax region in the time interval,
The first difference image, the first region, the binocular parallax, and identification information are associated with each other as a set, and the second difference image, the second region, the binocular parallax, and the identification information are combined. And has an associated structure,
Stored in a storage device,
The first difference image includes an original image including a luminance component pattern based on the target still image and an area of the luminance component pattern corresponding to the binocular parallax area included in the original image in a first direction. It is an image generated based on the difference from the moved first modified image,
The second difference image moves the region of the luminance component pattern corresponding to the binocular parallax region included in the original image and the binocular parallax region included in the original image in a second direction opposite to the first direction. And an image generated based on the difference between the second modified image and
The total of the amount of movement for moving the region corresponding to the binocular parallax region in the first direction and the amount of movement for moving the region corresponding to the binocular parallax region in the second direction is the binocular Corresponding to parallax,
In response to the input of control information to the playback processing device,
Correspondence between the time interval corresponding to the first difference image, the binocular parallax, and the first region, and the time interval corresponding to the second difference image, the binocular disparity, and the second region. According to the relationship
The first differential image having the time interval, the binocular parallax, and the first region, which are specified by information input to the reproduction processing device and are associated with each other, the time interval, The binocular parallax and the second difference image having the second region are read from the storage device into the reproduction processing device,
In the time interval, the first difference image is reproduced by the reproduction process so that each of the first difference image and the second difference image can be simultaneously recognized by one eye of the observer and the other eye. Output from one channel of the apparatus and projected or displayed on the target pattern, and the second difference image is output from the other channel of the reproduction processing apparatus and projected or displayed on the target pattern;
In the time interval, the first area is superimposed on the vicinity of the binocular parallax area, and the second area is used for processing that causes the observer to perceive a state of being superimposed on the vicinity of the binocular parallax area. data structure.
JP2018153388A 2018-08-17 2018-08-17 data structure Pending JP2019013012A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018153388A JP2019013012A (en) 2018-08-17 2018-08-17 data structure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018153388A JP2019013012A (en) 2018-08-17 2018-08-17 data structure

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016046600A Division JP6457964B2 (en) 2016-03-10 2016-03-10 Apparatus, projection apparatus, display apparatus, image generation apparatus, method thereof, and program

Publications (1)

Publication Number Publication Date
JP2019013012A true JP2019013012A (en) 2019-01-24

Family

ID=65227058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018153388A Pending JP2019013012A (en) 2018-08-17 2018-08-17 data structure

Country Status (1)

Country Link
JP (1) JP2019013012A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007312407A (en) * 2007-06-21 2007-11-29 Sharp Corp Stereoscopic image display device and method thereof
JP2010063083A (en) * 2008-08-06 2010-03-18 Sony Corp Image processor, image processing method, and program
JP2011120210A (en) * 2009-10-28 2011-06-16 Sony Corp Image processing apparatus, image processing method, and program
JP2012120057A (en) * 2010-12-02 2012-06-21 Sony Corp Image processing device, image processing method, and program
WO2015163317A1 (en) * 2014-04-22 2015-10-29 日本電信電話株式会社 Video display device, video projection device, dynamic illusion presentation device, video generation device, method thereof, data construct, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007312407A (en) * 2007-06-21 2007-11-29 Sharp Corp Stereoscopic image display device and method thereof
JP2010063083A (en) * 2008-08-06 2010-03-18 Sony Corp Image processor, image processing method, and program
JP2011120210A (en) * 2009-10-28 2011-06-16 Sony Corp Image processing apparatus, image processing method, and program
JP2012120057A (en) * 2010-12-02 2012-06-21 Sony Corp Image processing device, image processing method, and program
WO2015163317A1 (en) * 2014-04-22 2015-10-29 日本電信電話株式会社 Video display device, video projection device, dynamic illusion presentation device, video generation device, method thereof, data construct, and program

Similar Documents

Publication Publication Date Title
Grundhöfer et al. Recent advances in projection mapping algorithms, hardware and applications
JP7283513B2 (en) VIDEO DISPLAY DEVICE, VIDEO PROJECTION DEVICE, THEIR METHOD AND PROGRAM
US8791989B2 (en) Image processing apparatus, image processing method, recording method, and recording medium
Devernay et al. Stereoscopic cinema
US11659158B1 (en) Frustum change in projection stereo rendering
Ledda et al. A wide field, high dynamic range, stereographic viewer
JP2012079291A (en) Program, information storage medium and image generation system
US10264245B2 (en) Methods and system for generating three-dimensional spatial images
JP6457964B2 (en) Apparatus, projection apparatus, display apparatus, image generation apparatus, method thereof, and program
US11595628B2 (en) Projection system and method for three-dimensional images
US20220020132A1 (en) Device and method for enhancing images
JP6430420B2 (en) Information presentation system and information presentation method
Ogawa et al. Swinging 3D lamps: a projection technique to convert a static 2D picture to 3D using wiggle stereoscopy
JP2019013012A (en) data structure
JP6466354B2 (en) Apparatus, video projection apparatus, video projection system, video display apparatus, video generation apparatus, method thereof, and program
Kakeya Real-image-based autostereoscopic display using LCD, mirrors, and lenses
KR102042914B1 (en) Floating-type hologram displaying apparatus using multi-layered displaying planes and multi-video processing method for said apparatus
JP5721210B2 (en) Image projection apparatus, image processing apparatus, image processing method, image processing program, and method of using image data
US11778306B2 (en) Method for editing an image
JP2009237310A (en) False three-dimensional display method and false three-dimensional display apparatus
WO2009018557A1 (en) Method and software for transforming images
JP2012094953A (en) Pseudo presentation device of three-dimensional image
JP6845181B2 (en) Video generator, video generation method, and program
JP6461836B2 (en) Apparatus and method for causing object to perceive change in motion
RU2320016C2 (en) Method for processing images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190701

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190813