JP2007108626A - Stereoscopic image forming system - Google Patents
Stereoscopic image forming system Download PDFInfo
- Publication number
- JP2007108626A JP2007108626A JP2005352247A JP2005352247A JP2007108626A JP 2007108626 A JP2007108626 A JP 2007108626A JP 2005352247 A JP2005352247 A JP 2005352247A JP 2005352247 A JP2005352247 A JP 2005352247A JP 2007108626 A JP2007108626 A JP 2007108626A
- Authority
- JP
- Japan
- Prior art keywords
- video
- image
- stereoscopic
- generation system
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、自然な立体映像を撮影・表示する立体映像生成システムに関するものである。 The present invention relates to a stereoscopic video generation system that captures and displays natural stereoscopic video.
従来の立体映像生成システムには、右眼用映像と左眼用映像を夫々別カメラで撮影し、表示の際に、各々の映像光に互いに直交する偏光を施して表示し、看視者は左右眼で互いに直交する偏光眼鏡を掛けて、右眼用映像と左眼用映像を個別に見る事で、立体視を実現していた。(例えば、特許文献1参照。)図18は、特許文献1に記載された従来の二眼式立体カメラの構成を示すものである。
図18において、100は右眼用カメラ、101は左眼用カメラ、102は時分割多重化表示部、103は液晶シャッタ眼鏡である。立体映像の撮影を行う場合、右眼用カメラ100とは左眼用カメラ101で撮影された映像は、時分割多重化部102で1フィールド毎に交互に並び替えられ、時分割多重化されて交互に表示出力される。これを液晶シャッタ眼鏡103を通して見る時、時分割多重化された左右眼映像に同期して左右眼の液晶シャッタを交互に開閉する事で、右眼は右眼用映像のみを、左眼は左眼用映像のみを見る事により、立体視を実現していた。
In FIG. 18, 100 is a right-eye camera, 101 is a left-eye camera, 102 is a time-division multiplexed display unit, and 103 is liquid crystal shutter glasses. When shooting a stereoscopic video, the video shot by the right-
しかしながら、前記従来の構成では、映像中の物体の奥行位置に応じて左右眼映像の表示位置が異なると言う両眼視差のみを用いて立体視を行う為、物体の奥行如何によらず、両眼の焦点位置は多重化表示部に固定しなければならず、立体視が困難であったり、疲労したりすると言う問題があった。更に、立体視を行う為に眼鏡をかけなければならないと言う課題も有していた。
本発明は、前記従来の課題を全て解決するもので、映像中の物体の奥行位置に応じて、両眼視差と焦点位置が整合して変化し、更に眼鏡を必要としない為、立体視が容易でかつ疲労しない、自然な立体映像を提供することを目的とする。
However, in the conventional configuration, stereoscopic viewing is performed using only binocular parallax, which indicates that the display position of the left and right eye images differs depending on the depth position of the object in the image. The focus position of the eye must be fixed on the multiplexed display unit, and there is a problem that stereoscopic viewing is difficult or fatigued. In addition, there is a problem that glasses must be worn for stereoscopic viewing.
The present invention solves all the above-mentioned conventional problems, and binocular parallax and the focal position change in conformity with the depth position of the object in the image, and further, glasses are not required, so that stereoscopic viewing is possible. An object is to provide a natural stereoscopic image that is easy and does not cause fatigue.
前記従来の課題を解決するために、本発明の立体映像生成システムは、物体の実像を結像させるレンズと、該実像位置に配置した撮像デバイスとで構成される立体映像撮像手段を持ち、該立体映像撮像手段は、物体までの距離に応じてレンズから撮像デバイスの撮像位置までの距離を異ならせることにより、撮像された物体までの距離に応じた複数の映像を得、得られた距離毎に異なる映像を個別に表示する映像表示デバイスを含む立体映像表示手段を持ち、該立体映像表示手段は、物体の本来あるべき位置までの距離に応じて映像の表示位置までの距離を異ならせることにより、奥行のある立体映像を表示する。
本構成によって、映像の看視者は、眼鏡を掛ける事なく、真に奥行のある立体映像を見ることが出来る。
In order to solve the above-described conventional problems, a stereoscopic video generation system according to the present invention includes a stereoscopic video imaging unit including a lens that forms a real image of an object and an imaging device disposed at the real image position. The stereoscopic image capturing means obtains a plurality of images according to the distance to the imaged object by varying the distance from the lens to the imaging position of the imaging device according to the distance to the object, and for each obtained distance. A stereoscopic video display means including a video display device for individually displaying different videos, and the stereoscopic video display means varies the distance to the video display position according to the distance to the original position of the object. Thus, a stereoscopic image with depth is displayed.
With this configuration, the viewer of the image can see a truly stereoscopic image without wearing glasses.
本発明の立体映像生成システムによれば、表示される物体映像の表示位置が、実際に物体が存在した距離に応じて設定されるので、両眼視差と焦点調節は整合し、かつ、左右眼は同一の映像を見るので眼鏡を必要とせず、自然な形で立体映像を見る事が出来る。 According to the stereoscopic image generation system of the present invention, the display position of the displayed object image is set according to the distance at which the object actually exists, so that the binocular parallax and the focus adjustment match, and the left and right eyes Can see 3D images in a natural way without the need for glasses because they see the same images.
以下本発明の実施の形態について、図面を参照しながら説明する。
[実施の形態1]
図1は、本発明の実施の形態1における、立体映像生成システムの構成図である。図1において、1は凸レンズ、2は電荷結合素子(CCD)などから成る撮像デバイスである。図の構成において、レンズ1の焦点距離をfとすると、レンズの前方、距離Dの位置にある物体D1の実像は、レンズ1の後方、距離D×f/(D−f)の位置に結像される。すなわち、撮影される物体までの距離Dに応じて実像位置が異なるので、レンズ1から撮像デバイス2の撮像位置までの距離を異ならせながら撮影を行えば、撮影物体の距離に応じた個別の映像を取得する事が可能になる。無限遠の映像は、レンズ1の後方、距離fの位置に出来、それより近い距離の物体の映像は、fより遠くに出来るので、撮像デバイスは、レンズの焦点距離f以遠でかつ、最近撮影距離をDとしてD×f/(D−f)の距離以内に配置すれば、距離D以上無限遠までにある物体の映像を撮影出来る。
Embodiments of the present invention will be described below with reference to the drawings.
[Embodiment 1]
FIG. 1 is a configuration diagram of a stereoscopic video generation system according to
図2は、撮像デバイス2の詳細な構造を示すもので、複数の透明な撮像パネル21を重ね合わせた構成により、各撮像パネルの厚み分、レンズから撮像位置までの距離を異ならせてある。撮像パネルとしては、通常のカメラに使用されている電荷結合素子(CCD)や、CMOSセンサ等の電極に透明電極を用いたものが使用可能である。
FIG. 2 shows a detailed structure of the
図3は、撮像パネル21の構成図であり、透明電極211を有する。透明基板はガラス等で構成され、半導体及び、絶縁膜はガラスの材料の一つであるシリコンに微量の不純物を注入して形成されるので透明である。透明電極211は、ポリシリコン等により作成可能である。該構成により、個々の撮像パネルは、レンズまでの距離に応じて、異なる距離にある物体の映像を個別に撮影する事になる。又、該複数の撮像パネルは、レンズから遠い位置にあるパネル程、前にあるパネルで光が減衰され、到達する光量が減少するので、後方のパネル程、感度を高めるか若しくは、パネル出力信号を増幅する事により、パネル位置によらず一定の明るさの映像を得る様にする。
FIG. 3 is a configuration diagram of the
撮像パネルの枚数は有限にせざるを得ない為、撮像面の無い位置に結像する映像は、その前後のパネルにボケた映像を映す。このボケ量δは、レンズの直径をD、焦点距離をf、物体までの距離をd、レンズから撮像パネルまでの距離をf+xとすると、
δ=D|x(d−f)−f2|/(fd)・・・(1)式
で与えられる。この式より、ボケ量を小さくするには、口径Dの小さいレンズが良い事が分かる。今、D=35.7mm、f=50mmのレンズを用い、撮像パネルとして、横幅35mmのHDTV用CCDを用いると、解像度は、横1920画素×縦1088画素であるので、1画素の横サイズは、
35mm/1920=18.2μ・・・(2)式
となる。撮像パネルを焦点距離fの位置から、順に0.2mm間隔で重ねた場合の各パネル上での像のボケ量を画素数で表したものを図4に示す。このグラフは、撮像パネルを等間隔で重ねる事により、パネルの中間に位置する物体映像のボケ量を一定値以下に出来る事を示している。パネルが0.2mm間隔の場合、中間映像のボケ量は4画素以下である。
Since the number of image pickup panels must be finite, an image formed at a position where there is no image pickup surface is blurred on the front and rear panels. The amount of blur δ is expressed by assuming that the lens diameter is D, the focal length is f, the distance to the object is d, and the distance from the lens to the imaging panel is f + x.
δ = D | x (d−f) −f 2 | / (fd) (1). From this equation, it can be seen that a lens having a small aperture D is good for reducing the amount of blur. Now, when a lens for D = 35.7 mm and f = 50 mm is used and a CCD for HDTV with a width of 35 mm is used as an imaging panel, the resolution is 1920 pixels × 1088 pixels vertically, so the horizontal size of one pixel is ,
35 mm / 1920 = 18.2 μ (2). FIG. 4 shows the amount of blurring of the image on each panel in the case where the imaging panels are sequentially overlapped at an interval of 0.2 mm from the position of the focal length f in terms of the number of pixels. This graph shows that the amount of blur of an object image located in the middle of the panel can be reduced to a certain value or less by overlapping the imaging panels at equal intervals. When the panels are spaced by 0.2 mm, the blur amount of the intermediate video is 4 pixels or less.
又、図4より、撮像パネル数が5枚しかない場合、これらをレンズの焦点距離fの位置から遠方に5枚、0.2mm間隔で並べた場合、ボケ量4画素以内で撮影可能な距離範囲は、約2.8m〜∞とする事が出来る事が分かる。それ以上近距離を撮影したい場合は、例えば、レンズの焦点距離f+1mmの位置から遠方に5枚撮像パネルを並べれば、その他は同じ条件で、約1.3m〜2.8mの距離を撮影可能範囲に設定出来る事が分かる。更に、5枚の撮像パネルで、1.3m〜∞の距離を撮影したい場合は、最大ボケ量は倍になるが、撮像パネル間隔を0.4mm間隔に広げれば良い事が分かる。ボケ量を増やさず、撮影可能距離範囲を広げたい場合は、撮像パネル数を増やせば良い。 In addition, as shown in FIG. 4, when there are only five imaging panels, when these are arranged at a distance of 0.2 mm from the position of the focal length f of the lens, the distance that can be photographed within 4 pixels of the blur amount It can be seen that the range can be about 2.8 m to ∞. If you want to shoot a closer distance than that, for example, if you place 5 imaging panels far away from the position of the focal length f + 1mm of the lens, you can shoot a distance of about 1.3m to 2.8m under the same conditions. You can see that it can be set. Furthermore, when it is desired to photograph a distance of 1.3 m to ∞ with five imaging panels, the maximum blur amount is doubled, but it can be understood that the imaging panel interval may be increased to 0.4 mm interval. If it is desired to increase the shootable distance range without increasing the amount of blur, the number of imaging panels may be increased.
立体視を効果的にするには、ある距離にある物体の映像は1枚のパネルのみに結像し、他のパネルでは結像しない事が望ましい。その為には、明るいレンズを用いて焦点の合わない映像を大きくボカせば良い。更に残った不要な映像を取り除く為には、ボケた映像は高周波成分を含まないので、撮像パネルから出力される映像信号の周波数成分を調べ、所定の周波数以上を含まない領域を抽出し、この部分を最大輝度値に近づければ、その部分は透明になり、不要な像を消す事が出来る。映像信号の周波数成分を調べるには、離散コサイン変換やフーリエ変換等の空間−周波数座標変換を行っても良いし、図5に示す様な2次元の高域通過フィルタの出力振幅を調べても良い。フィルタリング処理は、図のフィルタを平面に配置した映像データにかぶせ、各係数を対応する位置の画素の輝度値に掛けて加え合わせる事により行われる。 In order to make stereoscopic viewing effective, it is desirable that an image of an object at a certain distance is formed on only one panel and not on another panel. For this purpose, it is only necessary to greatly blur out of focus images using a bright lens. Furthermore, in order to remove the remaining unnecessary video, the blurred video does not contain a high frequency component, so the frequency component of the video signal output from the imaging panel is examined, and an area not including a predetermined frequency or more is extracted. If a part is brought close to the maximum luminance value, the part becomes transparent and unnecessary images can be erased. In order to examine the frequency component of the video signal, space-frequency coordinate transformation such as discrete cosine transformation or Fourier transformation may be performed, or the output amplitude of a two-dimensional high-pass filter as shown in FIG. 5 may be examined. good. The filtering process is performed by covering the image data arranged on the plane with the filter shown in the figure and multiplying each coefficient by the luminance value of the pixel at the corresponding position.
フィルタリング処理をより有効にするには、焦点の合わない映像のボケ量を大きくして、映像がボケた部分を確実に検出する様にする事が望ましい。その為には、(1)式より、レンズの口径Dを大きくすれば良い事が分かる。
この場合、1枚の撮像パネルで焦点の合う距離範囲である焦点深度は浅くなるので、広い距離範囲を少ないボケ量で撮影したい場合は、より多くの撮像パネルが必要になる。
不要映像の透明化後、残った映像のボケを改善するには、図5に示した様な高域通過フィルタに映像信号を通して、高域成分を強調すれば良い。強調の度合いが大き過ぎると、絵柄のエッジ付近にリンギングが生じるので、適度な量に調節する。
In order to make the filtering process more effective, it is desirable to increase the amount of blurring of an unfocused image so as to reliably detect a blurred portion of the image. For this purpose, it is understood from the formula (1) that the lens aperture D should be increased.
In this case, since the depth of focus, which is a distance range in which one image pickup panel is focused, becomes shallow, more image pickup panels are required when shooting a wide distance range with a small amount of blur.
In order to improve the blur of the remaining video after the unnecessary video is made transparent, the high frequency component may be emphasized by passing the video signal through a high pass filter as shown in FIG. If the degree of emphasis is too large, ringing will occur near the edge of the pattern, so adjust it to an appropriate amount.
不要映像の透明化を、各パネル毎に独立に行った場合、どのパネルにも映像のない部分や、複数のパネルの同じ位置に映像が残って不都合な場合が生じる。これを防ぐには、パネル内の各画素の高周波成分を他のパネルの同位置の成分と比較して、最も高周波成分の多い画素のみを残す様にすれば良い。
又、映像がパネル間に結像した部分は、他のパネルよりは高周波成分は多いが、連続した2枚のパネルに同程度の高周波成分が発生するので、この様な部分は、両者の映像を残すことにより、視覚の補間効果により、パネルの中間に像がある様に見させる事が出来る。
If the unnecessary image is made transparent for each panel independently, there may be an inconvenience that the image remains in a portion where no image is present on any panel or at the same position of a plurality of panels. In order to prevent this, the high frequency component of each pixel in the panel may be compared with the component at the same position in the other panel so that only the pixel with the highest high frequency component is left.
Also, the portion where the image is formed between the panels has more high-frequency components than the other panels, but the same level of high-frequency components are generated in two consecutive panels. By leaving, you can make the image appear to be in the middle of the panel due to the visual interpolation effect.
又、半透明な物体を透かして、奥の映像が見えている部分も、比較的高周波成分の多い映像が複数のパネルの同位置に出来るので、これらの映像も残す事により、半透明な物体の自然な撮影が可能になる。
どのパネルにも高周波成分の無い部分は、撮影可能距離範囲外の映像であるが、透明化処理をすると、その映像の部分に穴が開くので、その中で最も低周波成分の少ないパネルの映像を残す。低域成分の量は、図6に示す様な低域通過フィルタで調べる事が出来る。フィルタリング処理は、上記と同じで、対応する画素値と計数値を掛けて加え合わせる事で行われる。
尚、これらの不要映像の透明化処理は、後に述べる立体映像表示手段の中で実施しても良い。
In addition, through the semi-transparent object, since the image with a relatively high frequency component can be seen at the same position on multiple panels, the semi-transparent object can be left by leaving these images as well. Enables natural shooting.
The part without any high-frequency component in any panel is an image outside the shootable distance range, but when transparency processing is performed, a hole is opened in the part of the image, so the image of the panel with the least low-frequency component among them Leave. The amount of the low-frequency component can be examined with a low-pass filter as shown in FIG. The filtering process is the same as described above, and is performed by multiplying and adding the corresponding pixel value and the count value.
Note that these unnecessary video transparency processings may be performed in a stereoscopic video display means described later.
撮像デバイス2を1枚の撮像パネル21で構成し、撮影する対象物までの距離を異ならせる手段としては、レンズ1又は、撮像デバイス2をリニヤモータ等に乗せて前後に移動する事でレンズと撮像パネル間の距離を変えても良いし、レンズ1の材料に電圧変形素子を用いて、電圧を掛ける事でレンズの曲率を変え、結果的にレンズの焦点距離fを変えても良いし、レンズ1の材料に可塑材を用いて、レンズの半径方向に力を加える事で、レンズの曲率を変えても良いし、又、レンズ1に、液晶等の電圧によって屈折率の変化する材料を用いて、電圧でレンズの屈折率を変える事で、レンズの焦点距離fを変えても良い。
The
撮影する物体の前に他の物体がある場合、図7に示す様に、後ろの物体の一部が前の物体で遮られ、像の一部が欠ける。この欠ける量は、レンズが小さい程多くなるが、人が物体を直接見た場合の欠け量より大きいと、本来見えるはずの部分の映像がなくなり自然さが損なわれるので、レンズの直径は、人の両眼距離(約65mm)以上が必要である。 When there is another object in front of the object to be photographed, as shown in FIG. 7, a part of the rear object is blocked by the front object, and a part of the image is missing. The amount of chipping increases as the lens becomes smaller.However, if it is larger than the amount of chipping when a person looks directly at an object, the image of the part that should be visible is lost and the naturalness is lost. More than binocular distance (about 65 mm) is required.
次に、撮影される立体映像をカラー化する方法を説明する。
カラー映像の撮影には通常、撮像デバイスの1画素分の面積を3つに分け、各表面に3色の色フィルタをそれぞれ貼って、カラー画像を得るのが一般的であるが、複数の撮像パネルを重ねて立体映像を撮影する場合は、各パネルの同じ位置が同じ色とは限らない為、パネル毎に色フィルタを貼ると、後方のパネルには必要な色の光が届かなくなる問題があり、又、最前面に1枚の3色フィルタを貼った構成では、後方のパネル程、色フィルタの1画素と撮像パネルの1画素とが合わなくなり、不都合である。
Next, a method for colorizing a stereoscopic image to be shot will be described.
In general, color images are taken by dividing the area of one pixel of the image pickup device into three parts and attaching color filters of three colors on each surface to obtain a color image. When shooting 3D images with overlapping panels, the same position of each panel is not necessarily the same color, so if you attach a color filter to each panel, the light of the required color will not reach the rear panel. In addition, in the configuration in which one three-color filter is pasted on the forefront, one pixel of the color filter and one pixel of the imaging panel are not aligned with each other in the rear panel, which is inconvenient.
[実施の形態2]
図8は、この問題を解決する為の、本発明の実施の形態2における、立体映像生成システムの構成図である。図において、1は凸レンズ、4は2枚のハーフミラー41を直交させた分光器、3は撮像デバイスで、その表面に夫々3色の色フィルタ42のいずれかが貼ってある。
本構成のカラー立体映像生成システムでは、撮影物体から出た光は、レンズ1を通り、ハーフミラー41で3方向に分光され、各分光は夫々3色の色フィルタ42の内の1つを夫々通って単色光となり、3つの撮像デバイスの夫々で結像するが、各像はいずれも単色なので、色フィルタを画素毎に区切る必要はなく、色フィルタと撮像デバイスの間で色矛盾も起こらない。
[Embodiment 2]
FIG. 8 is a configuration diagram of a stereoscopic video generation system according to
In the color stereoscopic image generation system of this configuration, the light emitted from the photographic object passes through the
[実施の形態3]
次に、該手段で得られた距離毎に異なる映像を立体表示する方法を以下に説明する。
図9は、本発明の実施の形態3における、立体映像生成システムの構成図であり、透明な立体映像表示デバイス3より構成される。図10は、表示デバイス3の詳細な構造を示し、複数の透明な表示パネル31で構成される。
[Embodiment 3]
Next, a method for stereoscopically displaying different images for each distance obtained by the means will be described.
FIG. 9 is a configuration diagram of a stereoscopic video generation system according to
図11は、表示パネル31に液晶(LCD)を用いた場合の構造図であり、透明なシリコンで形成される、駆動回路311と、透明電極ではさまれた液晶を、ガラス等の透明基板上に載せた構成で、この表示パネルを複数枚重ね、最外縁に偏光方向を90度ずらせた一対の偏光版を置き、最背面から照明することにより、表示デバイスが構成される。
以上の様に構成された夫々の位置の表示パネル31に、上記撮影距離毎に異なる物体映像を表示する事で奥行のある立体映像が得られる。ここで注意する事は、遠方の物体程、レンズに近い位置の撮像パネルで撮影されるので、表示の際には、看視者から見て最も遠方の表示パネルに、該映像を表示しなければならない。更に、撮影された像は、上下左右が反転した倒立像であるので、表示の際には、像の上下左右を反転して表示する事により、正しい向きの像を再生出来る。
FIG. 11 is a structural diagram in the case where a liquid crystal (LCD) is used for the
By displaying different object images for each of the shooting distances on the
図4より、等間隔の撮像パネルで撮影された立体映像は、同じ間隔に配置した表示パネルに、同じ大きさで表示すれば正しい距離関係になる事が分かる。又、大きなパネルに表示したい場合は、像の拡大率に合わせて、パネル間隔を広げれば良い。
この表示デバイス3をそのまま覗けば、実際の距離より縮まった奥行位置に像が見えるが、距離が縮まった分、像のサイズも縮まっており、撮影時の物体を見込む角度である視野角は不変であるので、自然な立体像を見る事が出来る。
From FIG. 4, it can be seen that stereoscopic images captured by an imaging panel with equal intervals are in a correct distance relationship if they are displayed with the same size on a display panel arranged at the same interval. If it is desired to display on a large panel, the interval between the panels may be increased in accordance with the enlargement ratio of the image.
If you look directly at the
表示映像をカラー化するには、液晶パネルを背後から照明する光源として、3色の光源を設け、時分割照明しながら、これに同期して表示パネル映像を切り替えれば良い。又は、図12に示す様に、表示デバイス3を3色分設け、夫々を別々の色の光源で照射し、出来た映像をハーフミラー41で合成しても良い。3色の光源は、3色の発光ダイオードでも良いし、図に示す様に、電球等の白色光の波長を色フィルタで分離して作っても良い。
In order to colorize the display image, three color light sources are provided as light sources for illuminating the liquid crystal panel from behind, and the display panel image is switched in synchronism with time-division illumination. Alternatively, as shown in FIG. 12, the
図13は、表示パネル31に有機Electro−Luminescent(EL)素子等の自己発光素子を用いた場合の構造図であり、透明なシリコンで形成される駆動回路311と、透明な陽極と陰極ではさまれた有機EL層313を、ガラス等の透明基板上に載せた構成であり、この表示パネルを複数枚重ねることで立体映像表示デバイスが構成される。
この表示デバイスの特徴は、各パネルが自己発光するので、背後から照明する必要がない事であるが、パネル毎に、前方に向かう光が透過する他のパネルの枚数が異なるので、どのパネルも同じ明るさにするには、後方のパネル程高輝度にしなければならない。
更に、後方の不要な光が前方の映像を透過して見えるのを防ぐ為には、図11で示した液晶表示パネルを液晶シャッタとして用いて、表示パネルの背面に貼り付け、表示パネルの発光部分を不透明にすれば良い。
FIG. 13 is a structural diagram when a self-luminous element such as an organic Electro-Luminescent (EL) element is used for the
The feature of this display device is that each panel is self-luminous, so there is no need to illuminate from behind, but each panel has a different number of other panels that transmit light forward, so every panel To achieve the same brightness, the rear panel must have higher brightness.
Further, in order to prevent unnecessary rear light from being transmitted through the front image, the liquid crystal display panel shown in FIG. 11 is used as a liquid crystal shutter and is attached to the rear surface of the display panel to emit light from the display panel. What is necessary is to make the part opaque.
表示をカラー化するには、表示パネルの各画素を3色の発光素子の組で構成しても良いし、3色の表示デバイスを夫々設けて3色の映像を作り、図12に示したハーフミラー41でこの3色の映像を合成してカラー映像としても良い。3色の発光素子が、白色光をカラーフィルタで3色に変換するタイプや、青色光を色変換材料で緑や赤に変換するタイプでは、後方のパネルから出た光が前方のパネルの色に影響されるので、3色別々の表示デバイスを用いる構成にした方が良い。
In order to colorize the display, each pixel of the display panel may be composed of a set of light emitting elements of three colors, or a three-color display device is provided to create a three-color image, as shown in FIG. The three-color image may be synthesized by the
奥行き感を増すには、パネル間隔を広げれば良いが、正しい奥行比にするには、同時にパネルサイズも大きくする必要がある。別の手段としては、図14に示す様に、表示デバイス3の前面に凸レンズ1を設ければ良い。この時、レンズと表示デバイスの距離を、レンズの焦点距離f以内にすれば、表示デバイスの後方に、奥行の拡大された正立虚像を見る事が出来る。この時、レンズから虚像までの距離をDとすれば、その像が表示された表示パネルからレンズ中心までの距離は、D×f/(D+f)であり、像の拡大率は、(D+f)/f倍である。
To increase the sense of depth, the panel spacing can be increased, but to achieve the correct depth ratio, the panel size must be increased at the same time. As another means, a
[実施の形態4]
表示デバイス3を、凸レンズ1の焦点距離f以遠に配置すると、投射型の立体映像生成システムとなる。図15は、本発明の実施の形態4における、立体映像生成システムの構成図であり、立体映像表示デバイス3と、その前方、レンズの焦点距離以遠に配置した凸レンズ1及び、更にその前方に配置したスクリーン5より構成される。図15において、表示デバイス3は、液晶等の光透過型表示デバイスでも良いし、有機EL素子等の自己発光型表示デバイスでも良い。
[Embodiment 4]
When the
レンズの焦点距離をfとし、レンズからスクリーンまでの距離をDとすると、このスクリーン上に焦点を結ぶ映像の、元となる表示デバイス3内での位置は、レンズから距離D×f/(D−f)の位置となるので、この距離の位置に、対応する表示パネルが来る様に、表示デバイスを配置すれば良い。表示される映像の奥行位置に応じて、スクリーンの位置を変える必要があるので、複数枚の半透明スクリーンをそれぞれの位置に順に重ねて立てるか、図16に示す様な指向性反射スクリーンを用いる。
If the focal length of the lens is f and the distance from the lens to the screen is D, the position of the image focused on the screen in the
図16において、51は微小な球形のレンズで、半面が鏡面になった反射鏡である。この様な球形レンズの焦点距離fは、球の半径をrとし、レンズ材料の屈折率をnとすると、f=r/2×n/(nー1)であるので、n=2とすると、f=rとなり、焦点位置とレンズ表面が一致する。入射光は、レンズ底面で焦点を結び、そこで反射されて、入射光と同じ方向に出て行く。この様にして反射された光は、スクリーンが無い場合に焦点を結ぶ位置から出た様に見えるので、夫々の奥行位置に結像した実像を見る事が出来る。普通のガラスは、n=1.5であるので、f=1.5rとなる。この場合は、図17に示す様に、厚み3rの円筒レンズ型反射鏡とし、表面の曲率を1/r、裏面の曲率を1/2rとすれば良い。 In FIG. 16, reference numeral 51 denotes a minute spherical lens, which is a reflecting mirror whose half surface is a mirror surface. The focal length f of such a spherical lens is f = r / 2 × n / (n−1), where r is the radius of the sphere and n is the refractive index of the lens material, so n = 2. F = r, and the focal position matches the lens surface. Incident light is focused on the bottom surface of the lens, reflected there, and exits in the same direction as the incident light. Since the light reflected in this manner appears to have come out of the focal position when there is no screen, it is possible to see the real images formed at the respective depth positions. Since normal glass has n = 1.5, f = 1.5r. In this case, as shown in FIG. 17, a cylindrical lens type reflecting mirror having a thickness of 3r may be used, and the curvature of the front surface may be 1 / r and the curvature of the back surface may be 1 / 2r.
[実施の形態5]
図19は、本発明の実施の形態5における、立体映像生成システムの構成図である。図19において、61は高周波成分抽出手段、62は輝度変更手段である。図の構成において、撮像デバイス2内の各撮像パネルから出力される映像信号は、高周波成分抽出手段61に入力され、図5に示す様なラプラシアンフィルタで高周波成分が抽出される。ラプラシアンフィルタは、入力信号の高周波成分が強い程、正と負の大振幅の信号ペアを出力するので、この絶対値を高周波成分の量、すなわち焦点の合い具合とすれば良い。
[Embodiment 5]
FIG. 19 is a configuration diagram of a stereoscopic video generation system according to
しかし、焦点の合っている映像でも、もともと細かな絵柄の少ない部分では、高周波成分量が少なく、ボケ領域と判定される恐れがあるので、モルフォロジーフィルタやメディアンフィルタ等で、合焦領域に点在する高周波成分の少ない領域を埋めるのが良い。この時、本来ボケるべき映像領域でも、被写体のコントラストが強い部分は高周波成分が抽出されており、その領域が拡大されるので、これを除去する為に、次に逆の順番でモルフォロジーフィルタを掛けたり、メディアンフィルタを再度適用して、ボケ領域に点在する高周波成分を除去するのが良い。この様にしても、一旦つながった高周波成分領域は狭まる事はなく、安定に高周波成分量を抽出する事が出来る。 However, even in an in-focus image, there are few high-frequency components in areas where there are originally fine images, and there is a risk of being judged as a blurred area.Therefore, a morphological filter, median filter, etc. are scattered in the focused area. It is better to fill the region with less high frequency components. At this time, even in the video region that should originally be blurred, the high-frequency component is extracted in the portion where the contrast of the subject is strong, and the region is enlarged. In order to remove this, the morphological filter is then applied in the reverse order. It is preferable to remove the high-frequency components scattered in the blurred region by applying or applying the median filter again. Even in this way, the once connected high frequency component region is not narrowed, and the amount of high frequency component can be extracted stably.
抽出された高周波成分量は、隣り合う撮像パネルからの映像間で比較し、最も高周波成分量の多い領域の高周波成分量を1に対応させ、他方のパネルの同位置での高周波成分量を0に対応させれば、2枚のパネル間で高域成分量が0から1に正規化される。すなはち、パネル1上で焦点の合っている領域の正規化高周波成分量Xは1となり、対応するパネル2での正規化高周波成分量は1−X=0となる。又、両パネル上で同程度にボケている領域の正規化高周波成分量は共にX=0.5、1−X=0.5となるが、この値Xは、本来映像が焦点を結ぶ位置をパネル間距離で正規化した値と等しくなっている。
The extracted high-frequency component amount is compared between images from adjacent imaging panels, the high-frequency component amount in the region with the highest high-frequency component amount is associated with 1, and the high-frequency component amount at the same position on the other panel is 0. , The high-frequency component amount is normalized from 0 to 1 between the two panels. That is, the normalized high-frequency component amount X in the focused area on the
次に、輝度変更手段62で、この正規化成分量Xから、ボケた映像の輝度Yを変更し、新たな輝度Y1、Y2を次の様に求める。ここで、2枚のパネルの輝度値は、同じ被写体のボケた映像であるのでほぼ等しく、Yとする。
表示パネルが、液晶表示パネル等の様に、光源からの透過光量を制御するものの場合は、元の輝度値Yが、0からZ(例えば255)の間で変化するものとすると、
Y1=Z1−X×YX
Y2=ZX×Y1−X
と変更する。この輝度値の2枚のパネルを重ねて裏から照明を当てると、出力される映像の輝度は両者の積となり、
Y1×Y2=Z×Y
となる。
Next, the
When the display panel controls the amount of light transmitted from the light source, such as a liquid crystal display panel, the original luminance value Y changes between 0 and Z (for example, 255).
Y1 = Z 1-X × Y X
Y2 = Z X × Y 1- X
And change. When two panels with this luminance value are overlapped and illuminated from the back, the luminance of the output video is the product of both.
Y1 × Y2 = Z × Y
It becomes.
これは、最も明るいパネル(Y=Z:透明)と元の輝度値Yのパネルを重ねて見ているのと同じになり、元の輝度値の画像が得られるが、その位置は、目の補間作用により、2枚のパネルの間でコントラストの高い方に偏る。すなわち、高域成分が少ない程、Xの値は1から0に近づき、Y1はY2より明るくなり、Y1のコントラストはY2より下がるので、映像はY2のパネル側に寄った位置に定位する。逆に高域成分量Xが1に近い程、映像はY1のパネル側に寄った位置に定位する。 This is the same as viewing the brightest panel (Y = Z: transparent) and the panel with the original luminance value Y, and an image with the original luminance value is obtained. Due to the interpolation action, the two panels are biased toward the higher contrast. That is, the smaller the high frequency component, the closer the value of X approaches 1 to 0, Y1 becomes brighter than Y2, and the contrast of Y1 falls below Y2, so that the image is localized at a position closer to the Y2 panel. Conversely, as the high frequency component amount X is closer to 1, the image is localized at a position closer to the panel side of Y1.
表示パネルが、有機ELパネル等の様に、自己発光するものの場合は、元の輝度値Yを、
Y1=X×Y
Y2=(1−X)×Y
と変更する。この輝度値の2枚のパネルを重ねて見ると、出力される映像の輝度は両者の和となり、
Y1+Y2= Y
となり、元の輝度値の画像が得られるが、その位置は、目の補間作用により、2枚のパネルの間でコントラストの高い方に偏る。すなわち、高域成分が少ない程、Xの値は1から0に近づき、Y1はY2より暗くなり、Y1のコントラストはY2より下がるので、映像はY2のパネル側に寄った位置に定位する。逆に高域成分量Xが1に近い程、映像はY1のパネル側に寄った位置に定位する。
If the display panel is self-luminous, such as an organic EL panel, the original luminance value Y is
Y1 = X × Y
Y2 = (1-X) × Y
And change. If you look at two panels with this brightness value, the brightness of the output video will be the sum of both.
Y1 + Y2 = Y
Thus, an image having the original luminance value is obtained, but its position is biased toward the higher contrast between the two panels due to the interpolation of the eyes. That is, as the high frequency component is smaller, the value of X approaches 1 to 0, Y1 is darker than Y2, and the contrast of Y1 is lower than Y2. Therefore, the image is localized at a position closer to the Y2 panel. Conversely, as the high frequency component amount X is closer to 1, the image is localized at a position closer to the panel side of Y1.
以上より、映像のボケ量から被写体の元あった位置が判り、それに応じた輝度配分を表示パネルで行う事により、パネルとパネルの間の映像をその位置も含めて再現する事が出来る。 As described above, the original position of the subject can be determined from the amount of blur of the video, and the luminance distribution corresponding to the subject is performed on the display panel, so that the video between the panels including the position can be reproduced.
本発明にかかる立体映像生成システムは、実世界の3次元空間に存在する物体の大きさと物体までの距離の関係を保存して表示するので、自然な立体映像を生成するシステムとして有用である。特に、従来の両眼視差のみを使った立体映像システムの欠点を全て解消しており、眼鏡を必要としないにも関わらず、監視位置による映像の不連続や奥行き反転が生じず、又焦点調節との不整合も生じないので、長時間看視しても違和感や疲労の生じない立体映像生成システムとして有用である。 The 3D image generation system according to the present invention is useful as a system for generating natural 3D images because it stores and displays the relationship between the size of an object existing in a three-dimensional space in the real world and the distance to the object. In particular, it eliminates all the disadvantages of conventional stereoscopic video systems that use only binocular parallax, and does not require spectacles, but does not cause video discontinuity or depth reversal due to the monitoring position, and focus adjustment. Therefore, it is useful as a 3D image generation system that does not cause discomfort or fatigue even when viewed for a long time.
1・・・凸レンズ、2・・・撮像デバイス、21・・・撮像パネル、211・・・透明電極、3・・・表示デバイス、31・・・表示パネル、311・・・駆動回路、312・・・偏光版、313・・・有機EL層、4・・・分光器、41・・・ハーフミラー、42・・・色フィルタ、5・・・スクリーン、51・・・球形ミラー、61・・・高周波成分検出手段、62・・・輝度変更手段
DESCRIPTION OF
Claims (52)
物体の実像を結像させるレンズと、該実像位置に配置した一体型撮像デバイスとで構成される立体映像撮像手段を持ち、
該立体映像撮像手段は、物体までの距離に応じてレンズから撮像デバイスの撮像位置までの距離を異ならせることにより、結像した物体までの距離に応じた複数の映像を得ると共に、結像しない部分の映像を透明化する事を特徴とする立体映像生成システム。 A system for generating stereoscopic images,
It has a stereoscopic video imaging means composed of a lens that forms a real image of an object and an integrated imaging device arranged at the real image position,
The stereoscopic image capturing unit obtains a plurality of images according to the distance to the imaged object by changing the distance from the lens to the imaging position of the imaging device according to the distance to the object, and does not form an image. A 3D image generation system characterized by making the image of the part transparent.
物体の映像を表示する映像表示デバイスを含む立体映像表示手段を持ち、
該立体映像表示手段は、表示する映像のサイズと、その映像が本来あるべき位置までの距離との比に応じて、映像の表示位置までの距離を異ならせることにより、自然な奥行のある立体映像を表示する事を特徴とする、立体映像生成システム。 A system for generating stereoscopic images,
Having a 3D image display means including an image display device for displaying an image of an object,
The three-dimensional video display means is a three-dimensional video having a natural depth by varying the distance to the video display position in accordance with the ratio between the size of the video to be displayed and the distance to the position where the video should originally be. A three-dimensional video generation system characterized by displaying video.
The stereoscopic video display means changes the luminance of the video according to the amount of high frequency components included in the video signal displayed on the plurality of display panels constituting the display device, and performs composite display of the video image formed in the middle of the panel. 21. The three-dimensional image generation system according to claim 20, wherein the position of the synthesized image is stably positioned by giving priority to the amount of high-frequency components in the front panel.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005352247A JP2007108626A (en) | 2005-09-16 | 2005-12-06 | Stereoscopic image forming system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005269901 | 2005-09-16 | ||
JP2005352247A JP2007108626A (en) | 2005-09-16 | 2005-12-06 | Stereoscopic image forming system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007108626A true JP2007108626A (en) | 2007-04-26 |
Family
ID=38034508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005352247A Pending JP2007108626A (en) | 2005-09-16 | 2005-12-06 | Stereoscopic image forming system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007108626A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009271161A (en) * | 2008-05-01 | 2009-11-19 | Seiko Epson Corp | Image projection device and image projection method |
JP2011525769A (en) * | 2008-06-24 | 2011-09-22 | フランス・テレコム | Method and apparatus for filling in an area of occlusion in a depth or parallax map estimated based on at least two images |
JP2012134651A (en) * | 2010-12-20 | 2012-07-12 | Canon Inc | Image processing device, method, and program |
CN109343229A (en) * | 2018-12-06 | 2019-02-15 | 成都工业学院 | A kind of 3 d display device of long sight distance |
CN115039028A (en) * | 2020-01-13 | 2022-09-09 | 荆门市探梦科技有限公司 | All-solid-state holographic shooting device and all-solid-state holographic projector |
-
2005
- 2005-12-06 JP JP2005352247A patent/JP2007108626A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009271161A (en) * | 2008-05-01 | 2009-11-19 | Seiko Epson Corp | Image projection device and image projection method |
JP2011525769A (en) * | 2008-06-24 | 2011-09-22 | フランス・テレコム | Method and apparatus for filling in an area of occlusion in a depth or parallax map estimated based on at least two images |
JP2012134651A (en) * | 2010-12-20 | 2012-07-12 | Canon Inc | Image processing device, method, and program |
CN109343229A (en) * | 2018-12-06 | 2019-02-15 | 成都工业学院 | A kind of 3 d display device of long sight distance |
CN109343229B (en) * | 2018-12-06 | 2023-10-13 | 成都工业学院 | Stereoscopic display device for far vision |
CN115039028A (en) * | 2020-01-13 | 2022-09-09 | 荆门市探梦科技有限公司 | All-solid-state holographic shooting device and all-solid-state holographic projector |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8547421B2 (en) | System for adaptive displays | |
US20030063186A1 (en) | 2D/3D convertible display | |
US9282881B2 (en) | 3D image shooting apparatus and endoscope | |
US5644427A (en) | Image display apparatus | |
JPH07222866A (en) | Stereoscopic image game machine | |
WO2019000948A1 (en) | Three-dimensional stereoscopic display panel, and display method and display apparatus therefor | |
JP2001238229A (en) | Stereoscopic image photographing device and stereoscopic image display device, and stereoscopic image photographing and display system | |
US10310369B2 (en) | Stereoscopic reproduction system using transparency | |
JP2004144874A (en) | Picture display device and picture display method | |
JPH08136884A (en) | Three dimensional image display device | |
JP2007108626A (en) | Stereoscopic image forming system | |
JPH0250145A (en) | Stereoscopic image display device | |
JP2007088536A (en) | Three-dimensional video presenting/imaging apparatus | |
JP2006267767A (en) | Image display device | |
CZ308335B6 (en) | The method of describing the points of objects of the subject space and connection for its implementation | |
JP2004258594A (en) | Three-dimensional image display device realizing appreciation from wide angle | |
JP2016110146A (en) | Image display device | |
JP2004144800A (en) | Three dimensional display device | |
WO2011036798A1 (en) | Three-dimensional image generation device | |
JP3463960B2 (en) | 3D image display device | |
JP2002341473A (en) | Three-dimensional image photographing method and three-dimensional image observing device | |
JP2007108274A (en) | Three-dimensional display device | |
JP2004151646A (en) | Image display device | |
JP3837108B2 (en) | 3D display device | |
JP3739349B2 (en) | 3D display device |