JP6677385B2 - Stereoscopic display device and parallax image correction method - Google Patents

Stereoscopic display device and parallax image correction method Download PDF

Info

Publication number
JP6677385B2
JP6677385B2 JP2015232499A JP2015232499A JP6677385B2 JP 6677385 B2 JP6677385 B2 JP 6677385B2 JP 2015232499 A JP2015232499 A JP 2015232499A JP 2015232499 A JP2015232499 A JP 2015232499A JP 6677385 B2 JP6677385 B2 JP 6677385B2
Authority
JP
Japan
Prior art keywords
image
parallax
input image
region
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015232499A
Other languages
Japanese (ja)
Other versions
JP2016140056A (en
Inventor
哲史 佐藤
哲史 佐藤
幸治 重村
幸治 重村
Original Assignee
天馬微電子有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 天馬微電子有限公司 filed Critical 天馬微電子有限公司
Priority to CN201610037615.0A priority Critical patent/CN105828060B/en
Priority to US15/002,771 priority patent/US10448005B2/en
Publication of JP2016140056A publication Critical patent/JP2016140056A/en
Application granted granted Critical
Publication of JP6677385B2 publication Critical patent/JP6677385B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は、3D(Dimension)画像を空中に結像した空中浮遊像を生成する立体表示装置及び当該立体表示装置における視差画像の補正方法に関する。   The present invention relates to a stereoscopic display device that generates a floating image in the air by forming a 3D (Dimension) image in the air, and a method of correcting a parallax image in the stereoscopic display device.

立体画像を観測者に認識させる手法として、一般的に、左眼と右眼との位置差を利用した両眼視差による立体画像表示方法が用いられている。この方法は、左眼と右眼にそれぞれ異なる2次元画像を視認させ、脳においてその見え方の違いから3次元の立体画像を認識させるステレオグラム(Stereogram)の原理を応用したものである。また、立体画像の表示方法としては、メガネを用いた方式又はメガネを使用しない裸眼方式があり、裸眼方式には、観測者の視点数に応じて2眼式又は多眼式などがある。   As a technique for causing a viewer to recognize a stereoscopic image, a stereoscopic image display method based on binocular parallax using a positional difference between a left eye and a right eye is generally used. This method is based on the principle of a stereogram that allows the left eye and the right eye to visually recognize different two-dimensional images, and recognizes a three-dimensional stereoscopic image from the difference in how the brain looks. In addition, as a method for displaying a stereoscopic image, there is a method using glasses or a naked eye method without using glasses. The naked eye method includes a binocular method or a multi-eye method according to the number of viewpoints of an observer.

通常のフラットパネルディスプレイなどの2次元ディスプレイを用いて、裸眼方式により立体画像を表現するには、2次元ディスプレイに左眼用画像及び右眼用画像を表示する画素を設け、2次元ディスプレイと観測者との間に、シリンドリカルレンズを配列したレンチキュラレンズ又はスリット状の遮光パターンを配列したパララックスバリアなどの光学手段を配置し、画面上の左眼用画像と右眼用画像とを空間的に分離して、左右それぞれの眼に視認させる方法が用いられている。   In order to express a three-dimensional image by the naked eye method using a two-dimensional display such as a normal flat panel display, pixels for displaying the left-eye image and the right-eye image are provided on the two-dimensional display, and the two-dimensional display is observed. Optical means such as a lenticular lens in which a cylindrical lens is arranged or a parallax barrier in which a slit-shaped light-shielding pattern is arranged, and the left-eye image and the right-eye image on the screen are spatially separated from each other. A method is used in which the right and left eyes are separated and visually recognized.

上記技術は、2次元ディスプレイの画面上に画像を立体的に表示するものであるが、更に、物体があたかも空中に浮かんでいるかのように画像を表示する技術も開発されてきている。例えば、凸レンズ又は凹面鏡などの結像光学系を利用し、2次元ディスプレイを結像光学系の光軸に対して傾けて配置し、ミラースキャンによって光軸に対して傾いた2次元像を移動させ、2次元像の移動に同期させて2次元ディスプレイに表示物体の断面像を表示させることにより3次元像を形成する、という体積走査法による3次元像の立体表示方法が提案されている。   The above technique is to display an image three-dimensionally on the screen of a two-dimensional display, and furthermore, a technique to display an image as if an object is floating in the air has been developed. For example, using an imaging optical system such as a convex lens or a concave mirror, a two-dimensional display is arranged to be inclined with respect to the optical axis of the imaging optical system, and a two-dimensional image inclined with respect to the optical axis is moved by mirror scanning. A three-dimensional display method of a three-dimensional image by a volume scanning method has been proposed in which a three-dimensional image is formed by displaying a cross-sectional image of a display object on a two-dimensional display in synchronization with movement of the two-dimensional image.

しかしながら、上記方法では、結像光学系として凸レンズ又は凹面鏡を用いているため、凸レンズ又は凹面鏡が持つ収差により像に歪みが生じ、表示物体の形状を正確に再現することができない。この問題に対して、結像光学系として、2つの鏡面から構成される2面コーナーリフレクタを多数備えた光学素子などの実鏡映像結像光学系を利用する方法が提案されている。   However, in the above method, since a convex lens or a concave mirror is used as the imaging optical system, distortion occurs in the image due to aberrations of the convex lens or the concave mirror, and the shape of the display object cannot be accurately reproduced. To solve this problem, a method has been proposed in which a real mirror image forming optical system such as an optical element having many dihedral corner reflectors composed of two mirror surfaces is used as the image forming optical system.

図1は特許文献1の3次元空中映像表示装置を模式的に示す斜視図である。図2は特許文献1の実鏡映像結像光学系である2面コーナーリフレクタアレイを模式的に示す平面図及びA部の部分拡大図である。例えば、特許文献1には、図1及び図2に示すように、被投影物の実像を、対称面となるある1つの幾何平面に対する面対称位置に結像可能な実鏡映像結像光学系を少なくとも2つ並べて配置し、各結像光学系に対応してそれぞれに被投影物を配置してなり、相対的に左側に配置した前記実鏡映像結像光学系である右眼用結像光学系によって結像される対応する被投影物の実鏡映像と、相対的に右側に配置した前記実鏡映像結像光学系である左眼用結像光学系によって結像される対応する被投影物の実鏡映像とを同じ位置で重ね合わせて表示させる3次元空中映像表示装置が開示されている。   FIG. 1 is a perspective view schematically showing a three-dimensional aerial image display device of Patent Document 1. FIG. 2 is a plan view schematically showing a dihedral corner reflector array as a real mirror image forming optical system of Patent Document 1 and a partially enlarged view of a portion A. For example, Patent Document 1 discloses a real mirror image forming optical system capable of forming a real image of a projection object at a plane symmetric position with respect to a certain geometric plane serving as a symmetry plane, as shown in FIGS. Are arranged side by side, and objects to be projected are arranged respectively corresponding to the respective imaging optical systems, and the right-eye image forming optical system, which is the real mirror image forming optical system arranged relatively on the left side, A real mirror image of the corresponding projection object formed by the optical system and a corresponding mirror image formed by the left-eye imaging optical system, which is the real mirror image forming optical system disposed relatively on the right side. There has been disclosed a three-dimensional aerial image display device for displaying a real mirror image of a projection object superimposed and displayed at the same position.

図3は特許文献2の体積走査型3次元空中映像ディスプレイ装置を模式的に示す斜視図である。図4は特許文献2の実鏡映像結像光学系である2面コーナーリフレクタアレイによる結像様式を模式的に示す図である。また、下記特許文献2には、図3及び図4に示すように、被投影物の実像を、対称面となるある1つの幾何平面に対する面対称位置に鏡映像として結像可能な実鏡映像結像光学系と、前記対称面の下面側に配置されて前記被投影物として映像を表示する表示面を備えたディスプレイと、前記ディスプレイを、その表示面に対して垂直方向の成分を含む運動をするように動作させる駆動手段とを具備し、前記駆動手段による前記ディスプレイの動作と同期させて前記表示面に表示される映像を変化させることにより、当該映像を前記対称面の上面側の空間に立体映像として結像させる体積走査型3次元空中映像ディスプレイ装置が開示されている。   FIG. 3 is a perspective view schematically showing a volume scanning type three-dimensional aerial image display device of Patent Document 2. FIG. 4 is a diagram schematically showing an image forming mode by a two-sided corner reflector array which is a real mirror image forming optical system of Patent Document 2. Patent Document 2 below discloses a real mirror image capable of forming a real image of a projection object as a mirror image at a plane symmetric position with respect to a certain geometric plane serving as a symmetry plane, as shown in FIGS. A display including an imaging optical system, a display surface disposed on the lower surface side of the plane of symmetry, and displaying an image as the projection target; and a motion including a component in a direction perpendicular to the display surface. Driving means for operating the display means, and changing the image displayed on the display surface in synchronization with the operation of the display by the driving means, thereby converting the image to a space on the upper surface side of the symmetry plane. Discloses a volume scanning type three-dimensional aerial image display device that forms an image as a three-dimensional image.

特開2012−163702号公報JP 2012-163702 A 特開2013−080227号公報JP 2013-080227 A

このように2次元ディスプレイと図2又は図4に示すような実鏡映像結像光学系91とを組み合わせ、更に、特許文献1のように2次元ディスプレイを視点分配置したり、特許文献2のように2次元ディスプレイを移動させたりすることによって、空中浮遊像を表示することが可能となる。しかしながら、特許文献1の構成では、図1に示すように、視点数に応じた被投影物92を表示するための2次元ディスプレイが必要になり、また、特許文献2の構成では、図3に示すように、2次元ディスプレイ94を移動させる駆動手段95が必要になるため、装置が大型化するという問題がある。   As described above, the two-dimensional display is combined with the real mirror image forming optical system 91 as shown in FIG. 2 or FIG. By moving the two-dimensional display as described above, a floating image in the air can be displayed. However, in the configuration of Patent Document 1, as shown in FIG. 1, a two-dimensional display for displaying the projection object 92 according to the number of viewpoints is required. In the configuration of Patent Document 2, FIG. As shown in the figure, a driving unit 95 for moving the two-dimensional display 94 is required, which causes a problem that the size of the apparatus is increased.

この問題に対して、2次元ディスプレイにレンチキュラレンズなどの光学手段を配置したディスプレイ(いわゆる裸眼式3Dディスプレイ)に、上記の実鏡映像結像光学系のような空間結像素子を組み合わせて、空中浮遊像を表示させる方法が考えられる。しかしながら、この構成の場合、空中浮遊像に3D正視領域(3Dオブジェクトの奥行きが正しく表示される領域)と3D逆視領域(3Dオブジェクトの奥行きが逆転する領域)とが交互に出現するという新たな問題が発生してしまう。   To solve this problem, a two-dimensional display in which optical means such as a lenticular lens is arranged (a so-called naked-eye type 3D display) is combined with a spatial imaging element such as the above-described real-mirror video imaging optical system to form an aerial image. A method of displaying a floating image can be considered. However, in the case of this configuration, a new 3D normal viewing region (a region where the depth of the 3D object is correctly displayed) and a 3D reverse viewing region (a region where the depth of the 3D object is reversed) appear alternately in the airborne image. Problems arise.

本発明は、上記問題点に鑑みてなされたものであって、その主たる目的は、裸眼式3Dディスプレイと空間結像素子とを組合せた構成において、空中浮遊像に3D正視領域と3D逆視領域とが出現するという問題を回避することができる立体表示装置及び視差画像補正方法を提供することにある。   SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and a main object of the present invention is to provide a 3D normal viewing region and a 3D reverse viewing region in an airborne image in a configuration combining an autostereoscopic 3D display and a spatial imaging element. It is an object of the present invention to provide a stereoscopic display device and a parallax image correction method that can avoid the problem of the appearance of a parallax image.

本発明の一側面は、2視点分の第1の入力画像及び第2の入力画像に基づいて、第1の方向に並んだ観察者の左眼と右眼とに異なる画像を投影する裸眼立体ディスプレイと、物体からの光を、互いに直交する第1の反射面及び第2の反射面で反射させる光反射素子を複数有し、前記裸眼立体ディスプレイにより投影された前記第1の入力画像及び第2の入力画像に対応する浮遊像を空中に結像する平板状の空間結像素子と、空中に結像する前記浮遊像の少なくとも一部に生じる、前記第1の入力画像及び第2の入力画像の奥行き視差と飛び出し視差とが逆転する逆視領域、に対応する前記第1の入力画像の対応領域と、前記逆視領域に対応する前記第2の入力画像の対応領域とを入れ替えて、前記第2の入力画像の対応領域を含む前記第1の入力画像と前記第1の入力画像の対応領域を含む前記第2の入力画像とを前記裸眼立体ディスプレイに出力する画像処理部とを備え、前記空間結像素子が、前記裸眼立体ディスプレイから投影され前記第2の入力画像の対応領域を含む前記第1の入力画像と、前記第1の入力画像の対応領域を含む前記第2の入力画像とに対応する浮遊像を観察者側の空中結像し、前記裸眼立体ディスプレイは、表示面の中心を通る法線近傍の正面の立体視域であるメインローブと、前記メインローブの前記第1の方向の外側の立体視域であるサイドローブとを有することを特徴とする。 One aspect of the present invention is an autostereoscopic device that projects different images to the left and right eyes of an observer arranged in a first direction based on a first input image and a second input image for two viewpoints. a display, light from an object, a plurality have a light reflecting element for reflecting the first and second reflective surfaces which are orthogonal to each other, the autostereoscopic displays the first input image projected by and the A flat spatial imaging element that forms a floating image corresponding to the second input image in the air, and the first input image and the second input generated in at least a part of the floating image that is formed in the air The corresponding area of the first input image corresponding to the reverse viewing area where the depth parallax and the pop-out parallax of the image are reversed, and the corresponding area of the second input image corresponding to the reverse viewing area are replaced. The first input image including a corresponding area of the second input image; And an image processing section for outputting said second input image containing the corresponding region of the the force image first input image to the autostereoscopic display, the spatial imaging element is projected from the autostereoscopic display In addition , a floating image corresponding to the first input image including the corresponding area of the second input image and the second input image including the corresponding area of the first input image is aerial on the viewer side . imaged on the side the autostereoscopic display is a main lobe and stereoscopic area outside of the first direction of the main lobe is a stereoscopic viewing zone in front of the normal neighboring passing through the center of the display surface characterized in that it closed the robe.

本発明の一側面は、2視点分の第1の入力画像及び第2の入力画像に基づいて、第1の方向に並んだ観察者の左眼と右眼とに異なる画像を投影する裸眼立体ディスプレイと、物体からの光を、互いに直交する第1の反射面及び第2の反射面で反射させる光反射素子を複数有し、前記裸眼立体ディスプレイにより投影された前記第1の入力画像及び第2の入力画像に対応する浮遊像を空中に結像する平板状の空間結像素子とを備え、前記裸眼立体ディスプレイは、表示面の中心を通る法線近傍の正面の立体視域であるメインローブと、前記メインローブの前記第1の方向の外側の立体視域であるサイドローブとを有し、空中に結像する前記浮遊像の一部に生じる、前記第1の入力画像及び第2の入力画像の奥行き視差と飛び出し視差とが逆転する逆視領域が存在するかを判断し、前記逆視領域が存在する場合に、前記逆視領域に対応する前記第1の入力画像の対応領域と、前記逆視領域に対応する前記第2の入力画像の対応領域とを入れ替えて、前記第2の入力画像の対応領域を含む前記第1の入力画像と、前記第1の入力画像の対応領域を含む前記第2の入力画像とを前記裸眼立体ディスプレイに出力し、前記空間結像素子が、前記裸眼立体ディスプレイによって投影された、前記第2の入力画像の対応領域を含む前記第1の入力画像と、前記第1の入力画像の対応領域を含む前記第2の入力画像とに対応する浮遊像を観察者側の空中に結像する処理を実行することを特徴とする。 One aspect of the present invention is an autostereoscopic device that projects different images to the left and right eyes of an observer arranged in a first direction based on a first input image and a second input image for two viewpoints. a display, light from an object, a plurality have a light reflecting element for reflecting the first and second reflective surfaces which are orthogonal to each other, the autostereoscopic displays the first input image projected by and the and a plate-shaped space image forming element for forming an floating image corresponding to the second input image in the air, the autostereoscopic display is a stereoscopic viewing zone in front of the normal neighboring passing through the center of the display surface main lobe and the and a side lobe is outside of the stereoscopic area of the first direction of the main lobe, resulting in a part of the floating image formed in the air, the first input image and the second be reversed and the parallax jumping out the depth parallax input image of the Determining whether a reverse vision area exists, when said reverse vision area is present, the corresponding region of the first input image corresponding to the previous Kigyaku vision zone, the second corresponding to the inverse viewing area interchanging the corresponding region of the input image, and the first input image containing the corresponding region of the second input image and the second input image containing the corresponding region of the first input image the Output to an autostereoscopic display , wherein the spatial imaging element is projected by the autostereoscopic display, the first input image including a corresponding area of the second input image, and the correspondence of the first input image A process of forming a floating image corresponding to the second input image including a region in the air on the observer side is performed.

本発明の立体表示装置及び視差画像補正方法によれば、3Dディスプレイと空間結像素子とを組合せた構成において、空中浮遊像に3D正視領域と3D逆視領域とが出現するという問題を回避することができる。   According to the stereoscopic display device and the parallax image correction method of the present invention, in a configuration in which a 3D display and a spatial imaging element are combined, a problem that a 3D normal viewing region and a 3D reverse viewing region appear in an airborne image is avoided. be able to.

その理由は、入力画像を処理する画像処理部を設け、画像処理部では、入力画像を解析して逆視が生じる視差画像領域を抽出し、抽出した視差画像領域の左眼用画像と右眼用画像とを入れ替えて3Dディスプレイに入力する制御を行うからである。   The reason is that an image processing unit that processes the input image is provided, and the image processing unit analyzes the input image to extract a parallax image region in which reverse vision occurs, and extracts the left-eye image and the right-eye image of the extracted parallax image region. This is because control for inputting the image to the 3D display by exchanging the image for use is performed.

特許文献1の3次元空中映像表示装置を模式的に示す斜視図である。It is a perspective view which shows typically the three-dimensional aerial image display apparatus of patent document 1. 特許文献1の実鏡映像結像光学系である2面コーナーリフレクタアレイを模式的に示す平面図及びA部の部分拡大図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a plan view schematically showing a dihedral corner reflector array as a real mirror image forming optical system of Patent Document 1, and a partially enlarged view of a portion A. 特許文献2の体積走査型3次元空中映像ディスプレイ装置を模式的に示す斜視図である。It is a perspective view which shows typically the volume scanning type three-dimensional aerial image display apparatus of patent document 2. 特許文献2の実鏡映像結像光学系である2面コーナーリフレクタアレイによる結像様式を模式的に示す図である。FIG. 9 is a diagram schematically showing an image forming mode by a two-sided corner reflector array which is a real mirror image forming optical system of Patent Document 2. 従来の立体表示装置の構成を示す斜視図である。FIG. 11 is a perspective view illustrating a configuration of a conventional stereoscopic display device. 従来の立体表示装置における入力画像と観察者の視認画像との関係を示す図である。FIG. 11 is a diagram illustrating a relationship between an input image and a viewer's view image in a conventional stereoscopic display device. 従来の立体表示装置における逆視を説明する図である。FIG. 9 is a diagram for explaining reverse viewing in a conventional stereoscopic display device. 本実施例の立体表示装置の構成を示す斜視図である。FIG. 2 is a perspective view illustrating a configuration of a stereoscopic display device according to the present embodiment. 本実施例の立体表示装置に含まれる3Dディスプレイの構成を示す断面図である。FIG. 2 is a cross-sectional view illustrating a configuration of a 3D display included in the stereoscopic display device according to the embodiment. 本実施例の立体表示装置に含まれる3Dディスプレイの構成を示す上面図である。FIG. 3 is a top view illustrating a configuration of a 3D display included in the stereoscopic display device according to the embodiment. 3Dディスプレイと撮影手段の配置例を示す斜視図である。It is a perspective view showing an example of arrangement of a 3D display and photography means. 3Dディスプレイの光学手段としてレンチキュラレンズを用いたときに形成される立体視域を説明するための光路図である。FIG. 4 is an optical path diagram for explaining a stereoscopic viewing area formed when a lenticular lens is used as an optical unit of a 3D display. 撮影手段を3Dディスプレイの中心線上に配置し、撮影手段とレンチキュラレンズとの間隔Dを変化させた場合の例である。This is an example of a case where the photographing unit is arranged on the center line of the 3D display and the distance D between the photographing unit and the lenticular lens is changed. 図13の構成におけるレンチキュラレンズと撮影手段との間隔と撮影画像との対応関係を示す図である。FIG. 14 is a diagram illustrating a correspondence relationship between a distance between a lenticular lens and a photographing unit and a photographed image in the configuration in FIG. 13. 撮影手段を3Dディスプレイの中心線に対して右側(右眼側)にずらして配置し、撮影手段とレンチキュラレンズとの間隔Dを変化させた場合の例である。This is an example of a case where the photographing means is shifted to the right (to the right eye) with respect to the center line of the 3D display, and the distance D between the photographing means and the lenticular lens is changed. 図15の構成におけるレンチキュラレンズと撮影手段との間隔と撮影画像との対応関係を示す図である。FIG. 16 is a diagram illustrating a correspondence relationship between a distance between a lenticular lens and a photographing unit and a photographed image in the configuration of FIG. 15. 図15の撮影画像の構成を説明する図である。FIG. 16 is a diagram illustrating a configuration of a captured image in FIG. 15. 撮影手段を3Dディスプレイの中心線に対して左側(左眼側)にずらして配置し、撮影手段とレンチキュラレンズとの間隔Dを変化させた場合の例である。This is an example of a case in which the photographing unit is shifted to the left (left eye side) with respect to the center line of the 3D display, and the distance D between the photographing unit and the lenticular lens is changed. 図18の構成におけるレンチキュラレンズと撮影手段との間隔と撮影画像との対応関係を示す図である。FIG. 19 is a diagram illustrating a correspondence relationship between a distance between a lenticular lens and a photographing unit and a photographed image in the configuration in FIG. 18. 3Dディスプレイによって視認される画像を説明する図である。FIG. 3 is a diagram illustrating an image visually recognized by a 3D display. 3Dディスプレイにおける飛び出し視差を説明する模式図である。It is a schematic diagram explaining pop-out parallax in a 3D display. 立体表示装置における逆視を説明する図である。FIG. 4 is a diagram for explaining pseudoscopy in a stereoscopic display device. 本発明の第1の実施例に係る立体表示装置における画像処理部の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of an image processing unit in the stereoscopic display device according to the first embodiment of the present invention. 本発明の第1の実施例に係る立体表示装置における視差画像補正方法を示すフローチャート図である。FIG. 3 is a flowchart illustrating a parallax image correction method in the stereoscopic display device according to the first embodiment of the present invention. 本発明の第1の実施例に係る立体表示装置における視差画像補正方法を説明する1例の模式図である。FIG. 3 is a schematic diagram of an example illustrating a parallax image correction method in the stereoscopic display device according to the first embodiment of the present invention. 本発明の第1の実施例に係る立体表示装置における視差画像補正方法を説明する他の例の模式図である。FIG. 7 is a schematic diagram of another example illustrating a parallax image correction method in the stereoscopic display device according to the first embodiment of the present invention. 本実施例の画像処理部の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of an image processing unit according to the embodiment. 本実施例の立体画像の処理方法を示すフローチャート図である。It is a flowchart figure which shows the processing method of the three-dimensional image of a present Example. 本発明の第2の実施例に係る立体表示装置における視差画像補正方法を説明する模式図である。FIG. 7 is a schematic diagram illustrating a parallax image correction method in a stereoscopic display device according to a second embodiment of the present invention. 本発明の第2の実施例に係る立体表示装置における視差画像補正方法を説明する模式図である。FIG. 7 is a schematic diagram illustrating a parallax image correction method in a stereoscopic display device according to a second embodiment of the present invention. 本発明の第3の実施例に係る3Dディスプレイの構成の概略図である。FIG. 9 is a schematic diagram of a configuration of a 3D display according to a third embodiment of the present invention. 本発明の第3の実施例に係る3Dディスプレイの機能説明図である。FIG. 14 is an explanatory diagram of functions of a 3D display according to a third embodiment of the present invention. 本発明の第3の実施例に係る3Dディスプレイの機能説明図である。FIG. 14 is an explanatory diagram of functions of a 3D display according to a third embodiment of the present invention. 本発明の第3の実施例のサブ画素の構成を示す具体例である。14 is a specific example showing a configuration of a sub-pixel according to a third embodiment of the present invention. 本発明の第3の実施例に係る3Dディスプレイの機能説明図である。FIG. 14 is an explanatory diagram of functions of a 3D display according to a third embodiment of the present invention. 図31の構成におけるレンチキュラレンズと撮影手段との間隔と撮影画像との対応関係を示す図である。FIG. 32 is a diagram illustrating a correspondence relationship between a distance between a lenticular lens and a photographing unit and a photographed image in the configuration of FIG. 31. 立体表示装置における逆視を説明する図である。FIG. 4 is a diagram for explaining pseudoscopy in a stereoscopic display device. 本発明の第3の実施例に係る立体表示装置における視差画像補正方法を説明する模式図である。FIG. 9 is a schematic diagram illustrating a parallax image correction method in a stereoscopic display device according to a third embodiment of the present invention. 本実施例の立体表示装置の構成を示す斜視図である。FIG. 2 is a perspective view illustrating a configuration of a stereoscopic display device according to the present embodiment. 観察者の移動に応じたPxの値を説明する図である。It is a figure explaining the value of Px according to observer's movement. 観察者の移動に応じて観察する視認画像と逆視領域を示す図である。It is a figure which shows the visual recognition image observed according to a movement of an observer, and a pseudoscopic area. 本発明の第4の実施例に係る立体表示装置における画像処理部、視点位置検出部の構成例を示すブロック図である。FIG. 14 is a block diagram illustrating a configuration example of an image processing unit and a viewpoint position detection unit in a stereoscopic display device according to a fourth embodiment of the present invention. 本発明の第4の実施例に係る立体表示装置における視差画像補正方法を示すフローチャート図である。FIG. 14 is a flowchart illustrating a parallax image correction method in a stereoscopic display device according to a fourth embodiment of the present invention. 本発明の第4の実施例に係る立体表示装置における視差画像補正方法を示すフローチャート図である。FIG. 14 is a flowchart illustrating a parallax image correction method in a stereoscopic display device according to a fourth embodiment of the present invention.

背景技術で示したように、2次元ディスプレイに左眼用画像及び右眼用画像を表示する画素を設け、レンチキュラレンズ又はパララックスバリア等の光学手段により、観察者の左右の眼に左眼用画像と右眼用画像を振分けることによって立体画像を表示する3Dディスプレイ20が開発されている。更に、物体があたかも空中に浮かんでいるかのように画像を表示するために、2次元ディスプレイと実鏡映像結像光学系のような空間結像素子とを組み合わせた3次元空中映像表示装置も開発されている。   As shown in the background art, a pixel for displaying the image for the left eye and the image for the right eye is provided on the two-dimensional display, and the left and right eyes of the observer are placed on the left and right eyes of the observer by optical means such as a lenticular lens or a parallax barrier. A 3D display 20 that displays a stereoscopic image by sorting the image and the image for the right eye has been developed. Furthermore, in order to display an image as if the object is floating in the air, a 3D aerial image display device that combines a 2D display and a spatial imaging device such as a real mirror image imaging optical system has also been developed. Have been.

しかしながら、従来の3次元空中映像表示装置は、2次元ディスプレイを視点分配置したり2次元ディスプレイを移動させたりすることによって、空中浮遊像を形成するものであるため、視点数に応じた2次元ディスプレイが必要になったり、2次元ディスプレイを移動させる駆動手段が必要になったりし、装置が大型化するという問題がある。   However, since the conventional three-dimensional aerial image display device forms a floating image in the air by arranging the two-dimensional display for viewpoints or moving the two-dimensional display, the two-dimensional display corresponding to the number of viewpoints is performed. There is a problem that a display is required, a driving means for moving the two-dimensional display is required, and the apparatus becomes large.

この問題に対して、図5に示すように、3Dディスプレイ20と上記の実鏡映像結像光学系のような空間結像素子とを組み合わせることによって、空中浮遊像を形成する方法が考えられるが、本願発明者が検討した結果、この方法では、空中浮遊像に3D正視領域と3D逆視領域とが交互に出現するという新たな問題が発生することを見出した。   To solve this problem, as shown in FIG. 5, a method of forming a floating image in the air by combining the 3D display 20 and a spatial imaging element such as the above-described real mirror image imaging optical system can be considered. As a result of the study by the present inventors, it has been found that this method causes a new problem that a 3D normal viewing region and a 3D reverse viewing region alternately appear in the airborne image.

すなわち、この構成の場合、3Dディスプレイ20から出射される光が空間結像素子に入射するように、3Dディスプレイ20と空間結像素子との距離を極めて小さくする必要があるため、隣接するシリンドリカルレンズからの光線が投影されてしまい、図6に示すような入力画像に対して、左右の各々の眼に投影される視認画像は左眼用画像と右眼用画像の繰り返しとなる。また、基本的に反射光学系を1つ介在させると奥行き方向が反転した反転像が生成されてしまう。その結果、図6に示すように、中央の領域に投影される画像(メインローブ画像)は、左右が入れ替わってしまい、図7に示すように、空中浮遊像に3D正視領域と3D逆視領域とが交互に出現するという問題が発生してしまう。   That is, in the case of this configuration, the distance between the 3D display 20 and the spatial imaging element needs to be extremely small so that the light emitted from the 3D display 20 enters the spatial imaging element. Are projected, and the visual recognition image projected to each of the left and right eyes with respect to the input image shown in FIG. 6 is a repetition of a left-eye image and a right-eye image. In addition, basically, if one reflection optical system is interposed, an inverted image whose depth direction is inverted is generated. As a result, as shown in FIG. 6, the image (main lobe image) projected on the central region is switched between left and right, and as shown in FIG. And appear alternately.

そこで、本発明の一実施の形態では、3Dディスプレイ20に入力する画像に対して、逆視が生じる視差画像領域の左眼用画像と右眼用画像とを入れ替える画像処理を行う。具体的には、観察者の視線方向と空間結像素子の法線方向とがなす角度、空間結像素子と観察者との距離、3Dディスプレイ20と空間結像素子との距離又は空間結像素子の光学特性などに基づいて、奥行き視差と飛び出し視差とが逆転する逆視領域を抽出し、左眼用画像及び右眼用画像の内の、逆視領域に対応する部分の画像を入れ替える。   Therefore, in an embodiment of the present invention, an image input to the 3D display 20 is subjected to image processing for exchanging a left-eye image and a right-eye image in a parallax image region where pseudoscopy occurs. Specifically, the angle between the line of sight of the observer and the normal direction of the spatial imaging element, the distance between the spatial imaging element and the observer, the distance between the 3D display 20 and the spatial imaging element, or the spatial imaging element Based on the child's optical characteristics and the like, a reverse viewing area in which the depth parallax and the pop-out parallax are reversed is extracted, and an image corresponding to the reverse viewing area in the left-eye image and the right-eye image is replaced.

これにより、3次元ディスプレイと空間結像素子とを組み合わせた場合における、3D正視領域と3D逆視領域とが交互に出現するという問題を回避することができる。   Thus, it is possible to avoid the problem that the 3D normal viewing region and the 3D reverse viewing region appear alternately when the three-dimensional display and the spatial imaging element are combined.

上記した本発明の実施の形態についてさらに詳細に説明すべく、本発明の第1の実施例に係る立体表示装置及び視差画像補正方法について、図8乃至図26を参照して説明する。図8は、本実施例の立体表示装置の構成を示す斜視図である。また、図11乃至図20は、3Dディスプレイ20によって視認される画像を説明する図である。   In order to describe the above-described embodiment of the present invention in more detail, a stereoscopic display device and a parallax image correcting method according to a first embodiment of the present invention will be described with reference to FIGS. FIG. 8 is a perspective view illustrating the configuration of the stereoscopic display device according to the present embodiment. FIGS. 11 to 20 are diagrams for explaining images visually recognized by the 3D display 20. FIG.

図8に示すように、本実施例の立体表示装置10は、3Dディスプレイ20と空間結像素子30と画像信号入力部40と画像処理部50とで構成される。また、図示していないが、必要に応じて、空間結像素子30と観察者との間隔を検出するための手段(例えばカメラなど)が立体表示装置10の所定の位置に配置される。   As shown in FIG. 8, the stereoscopic display device 10 according to the present embodiment includes a 3D display 20, a spatial imaging device 30, an image signal input unit 40, and an image processing unit 50. Although not shown, a unit (for example, a camera) for detecting the distance between the spatial imaging element 30 and the observer is arranged at a predetermined position on the stereoscopic display device 10 as necessary.

3Dディスプレイ20は、立体画像を裸眼で視認可能にする裸眼立体ディスプレイであり、液晶表示装置などの表示パネルと、レンチキュラレンズ又はパララックスバリアなどの光学手段(本実施例ではレンチキュラレンズとする。)とで構成される。表示パネルには、左眼用の画像を表示する左眼用画素と右眼用の画像を表示する右眼用画素とが第1の方向に交互に配列された構成である。また、レンチキュラレンズは、表示パネルに対向する面が平面であり、他方の面が半円柱状のシリンドリカルレンズが上記第1の方向に配列された構成である。この3Dディスプレイ20の詳細については後述する。   The 3D display 20 is an autostereoscopic display that allows a stereoscopic image to be visually recognized with the naked eye, and includes a display panel such as a liquid crystal display device and optical means such as a lenticular lens or a parallax barrier (in this embodiment, a lenticular lens). It is composed of The display panel has a configuration in which left-eye pixels for displaying a left-eye image and right-eye pixels for displaying a right-eye image are alternately arranged in a first direction. In addition, the lenticular lens has a configuration in which a surface facing the display panel is a flat surface and the other surface is a semi-cylindrical cylindrical lens arranged in the first direction. The details of the 3D display 20 will be described later.

空間結像素子30は、3Dディスプレイ20に表示された立体画像を空間中に結像して空中浮遊像を形成する装置である。空間結像素子30は、例えば、垂直な2つの鏡面からなる光学素子(第1の反射面で反射し、更に該第1の反射面と対となって段違いに配置され、該第1の反射面と交差配置された第2の反射面で反射させて通過させる光反射素子)を複数配列したものである。この空間結像素子30として、例えば、特許文献1及び2に開示された実鏡映像結像光学系を利用することができる。この2つの垂直鏡面を持った構造は、例えば、平板の面上に100μm程度の高さの四角断面の柱を立て、その側面の内の直交する2つの面をミラーとして使用したり、100μm程度の厚さの平板の面内に四角の孔を掘り、その2つの内壁面を鏡面にしたりすることによって形成することができる。   The spatial imaging device 30 is a device that forms a three-dimensional image displayed on the 3D display 20 in space to form a floating image in the air. The spatial imaging element 30 is, for example, an optical element composed of two perpendicular mirror surfaces (reflecting on the first reflecting surface, and further arranged in a pair with the first reflecting surface, at a step difference; A plurality of light reflecting elements (light reflecting elements) that are reflected by a second reflecting surface intersecting with the surface and pass therethrough are arranged. As the spatial imaging element 30, for example, a real mirror image imaging optical system disclosed in Patent Documents 1 and 2 can be used. The structure having the two vertical mirror surfaces is, for example, a pillar having a square cross section having a height of about 100 μm is formed on a flat plate surface, and two orthogonal surfaces of the side surfaces are used as mirrors, It can be formed by digging a square hole in the plane of a flat plate having a thickness of 2 mm and making the two inner wall surfaces mirror surfaces.

なお、図8では、空間結像素子30を、垂直な2つの鏡面からなる光学素子を、当該2つの鏡面に対して垂直な平面に配列した(すなわち、上記の柱又は孔を平板の主面に対して垂直に形成した)構成としているため、空間結像素子30の平面が3Dディスプレイ20の表示面に対して所定の角度で傾斜するように記載しているが、柱又は孔が平板の主面の法線に対して傾斜するように形成した場合は、空間結像素子30の平面が3Dディスプレイ20の表示面に対して平行となるように配置することができる。   In FIG. 8, the spatial imaging element 30 is configured such that an optical element including two perpendicular mirror surfaces is arranged on a plane perpendicular to the two mirror surfaces (that is, the column or the hole is formed by a main surface of a flat plate). Is formed so as to be perpendicular to the surface of the 3D display 20 because the plane is formed at a predetermined angle with respect to the display surface of the 3D display 20. When formed so as to be inclined with respect to the normal line of the main surface, the spatial imaging element 30 can be arranged so that the plane thereof is parallel to the display surface of the 3D display 20.

画像信号入力部40は、表示パネルの各画素に表示させる左眼用画像及び右眼用画像を画像処理部50に出力する装置である。左眼用画像及び右眼用画像は、2つの視点からカメラで撮影した撮影画像(2視点分の画像)としてもよいし、1つの視点からカメラで撮影した撮影画像とこの画像の各画素に対応する3Dオブジェクトの奥行き情報を表すデプス画像のセットとしてもよい。その場合は、撮影画像とデプス画像とに基づいて、3次元空間に仮想的に配置した仮想カメラ位置から撮影して得られる仮想視点画像を生成し、撮影画像と仮想視点画像とを画像処理部50に出力すればよい。   The image signal input unit 40 is a device that outputs a left-eye image and a right-eye image to be displayed on each pixel of the display panel to the image processing unit 50. The image for the left eye and the image for the right eye may be captured images captured by the camera from two viewpoints (images for two viewpoints), or a captured image captured by the camera from one viewpoint and each pixel of this image. A set of depth images representing depth information of the corresponding 3D object may be used. In that case, a virtual viewpoint image obtained by photographing from a virtual camera position virtually arranged in a three-dimensional space is generated based on the photographed image and the depth image, and the photographed image and the virtual viewpoint image are processed by the image processing unit. 50 may be output.

画像処理部50は、画像信号入力部40から出力される画像(2視点分の撮影画像若しくは1視点分の撮影画像と仮想視点画像のセット)を解析し、逆視が生じる領域(視差画像領域)を抽出し、視差画像領域の入力画像を左右反転させる(左眼用画像と右眼用画像を入れ替える)画像処理を行い、画像処理後の画像データを3Dディスプレイ20に出力する装置である。画像処理部50は、3Dディスプレイ20とは独立した装置としてもよいし、3Dディスプレイ20に組み込まれていてもよい。この画像処理部50の詳細についても後述する。   The image processing unit 50 analyzes an image (a set of a captured image for two viewpoints or a set of a captured image for one viewpoint and a virtual viewpoint image) output from the image signal input unit 40, and generates an area (a parallax image area) where reverse vision occurs. ) Is extracted, the input image in the parallax image region is horizontally inverted (the left-eye image and the right-eye image are exchanged), and the image data after the image processing is output to the 3D display 20. The image processing unit 50 may be a device independent of the 3D display 20 or may be incorporated in the 3D display 20. The details of the image processing unit 50 will also be described later.

まず、本実施例の立体表示装置10の理解を容易にするために、3Dディスプレイ20の構成及び動作について説明する。なお、本明細書においては、便宜上、以下のようにXYZ直交座標系を設定する。X軸方向は後述する左眼用画素24L及び右眼用画素24Rが繰り返し配列される方向とする。+X方向は右眼用画素24Rから左眼用画素24Lに向かう方向とする。また、Y軸方向は後述するシリンドリカルレンズ29aの長手方向とする。更に、Z軸方向はX軸方向及びY軸方向の双方に直交する方向をとする。+Z方向は左眼用画素24L又は右眼用画素24Rが配置された面からレンチキュラレンズ29に向かう方向(観察者に向かう方向)とする。   First, the configuration and operation of the 3D display 20 will be described to facilitate understanding of the stereoscopic display device 10 according to the present embodiment. In this specification, an XYZ orthogonal coordinate system is set as follows for convenience. The X-axis direction is a direction in which a left-eye pixel 24L and a right-eye pixel 24R described later are repeatedly arranged. The + X direction is a direction from the right-eye pixel 24R to the left-eye pixel 24L. The Y-axis direction is the longitudinal direction of a cylindrical lens 29a described later. Further, the Z-axis direction is a direction orthogonal to both the X-axis direction and the Y-axis direction. The + Z direction is a direction toward the lenticular lens 29 (a direction toward the observer) from the surface on which the left-eye pixels 24L or the right-eye pixels 24R are arranged.

図9は本実施例の立体表示装置に含まれる3Dディスプレイ20の構成を示す断面図である。図10は、本実施例の立体表示装置に含まれる3Dディスプレイ20の構成を示す上面図である。図9及び図10に示すように、3Dディスプレイ20は、電気光学素子として液晶分子を利用した表示パネル21と、光学手段としてレンチキュラレンズ29とを備える。   FIG. 9 is a cross-sectional view illustrating the configuration of the 3D display 20 included in the stereoscopic display device according to the present embodiment. FIG. 10 is a top view illustrating the configuration of the 3D display 20 included in the stereoscopic display device according to the present embodiment. As shown in FIGS. 9 and 10, the 3D display 20 includes a display panel 21 using liquid crystal molecules as electro-optical elements, and a lenticular lens 29 as optical means.

表示パネル21は、薄膜トランジスタ(TFT:Thin Film Transistor)を有するアクティブマトリクス型の表示パネルであり、TFTが形成されるTFT基板24と対向基板26とが微小な間隙を空けて対向しており、この間隙に液晶層25が配置されている。TFT基板24には、各々1個の左眼用画素24L及び右眼用画素24Rからなる表示単位としての画素対がマトリクス状に設けられている。液晶層25は、例えば透過型のTN(Twisted Nematic)モードとなるように構成されている。TFT基板24は表示パネル21の−Z方向側に配置され、対向基板26は+Z方向側に配置されている。更に、TFT基板24の−Z方向側に第1光学フィルム23が貼付され、対向基板26の+Z方向側に第2光学フィルム27が貼付されている。そして、第2光学フィルム27の+Z方向側に接着層28を介してレンチキュラレンズ29が固定され、第1光学フィルム23の−Z方向側にバックライト22が配置されている。   The display panel 21 is an active matrix type display panel having a thin film transistor (TFT: Thin Film Transistor). A TFT substrate 24 on which a TFT is formed and a counter substrate 26 face each other with a small gap therebetween. The liquid crystal layer 25 is arranged in the gap. On the TFT substrate 24, a pixel pair as a display unit including one left-eye pixel 24L and one right-eye pixel 24R is provided in a matrix. The liquid crystal layer 25 is configured to be, for example, a transmission type TN (Twisted Nematic) mode. The TFT substrate 24 is disposed on the −Z direction side of the display panel 21, and the counter substrate 26 is disposed on the + Z direction side. Further, a first optical film 23 is attached to the -Z direction side of the TFT substrate 24, and a second optical film 27 is attached to the + Z direction side of the counter substrate 26. A lenticular lens 29 is fixed to the + Z direction side of the second optical film 27 via an adhesive layer 28, and the backlight 22 is arranged on the −Z direction side of the first optical film 23.

TFT基板24の内側の面、すなわち+Z方向側の面に、行方向、すなわちX軸方向に延伸する複数のゲート線G(図ではG1〜G5)が配置されている。更に、TFT基板24の同じ面には、列方向、すなわちY軸方向に延伸する複数のデータ線D(図ではD1〜D7)が配置されている。そして、ゲート線Gとデータ線Dとで囲まれる領域に画素(左眼用画素24L又は右眼用画素24R)が形成され、ゲート線Gとデータ線Dの交点近傍に配置されるTFTによって画素が駆動される。図10では、各画素とゲート線G及びデータ線Dとの接続関係を明確にするため、例えばゲート線G3とデータ線D2に接続された画素をP32と表記している。   A plurality of gate lines G (G1 to G5 in the figure) extending in the row direction, that is, the X-axis direction are arranged on the inner surface of the TFT substrate 24, that is, the surface on the + Z direction side. Further, on the same surface of the TFT substrate 24, a plurality of data lines D (D1 to D7 in the figure) extending in the column direction, that is, the Y-axis direction are arranged. Then, a pixel (a left-eye pixel 24L or a right-eye pixel 24R) is formed in a region surrounded by the gate line G and the data line D, and the pixel is formed by a TFT arranged near the intersection of the gate line G and the data line D. Is driven. In FIG. 10, in order to clarify the connection relationship between each pixel and the gate line G and the data line D, for example, a pixel connected to the gate line G3 and the data line D2 is denoted by P32.

なお、TFT基板の構成は、図10のようにX軸方向にゲート線Gが延伸し、Y軸方向にデータ線Dが延伸する配置に限らず、X軸方向にデータ線Dが延伸し、Y軸方向にゲート線Gが延伸するように配置されても構わない。また、表示パネル21は、液晶表示素子以外の表示素子、例えば有機EL(Electro Luminescence)素子、量子ドット素子又はフィールドエミッション素子など、様々な表示素子を用いることができる。また、表示パネル21の駆動方法は、TFT等を用いたアクティブマトリクス方式に限らず、パッシブマトリクス方式でもよい。   The configuration of the TFT substrate is not limited to the arrangement in which the gate line G extends in the X-axis direction and the data line D extends in the Y-axis direction as shown in FIG. 10, but the data line D extends in the X-axis direction. The gate lines G may be arranged to extend in the Y-axis direction. Further, the display panel 21 can use various display elements other than the liquid crystal display element, for example, an organic EL (Electro Luminescence) element, a quantum dot element, or a field emission element. Further, the driving method of the display panel 21 is not limited to the active matrix method using a TFT or the like, but may be a passive matrix method.

レンチキュラレンズ29は、多数のシリンドリカルレンズ29aが一次元に配列したレンズアレイである。シリンドリカルレンズ29aは、かまぼこ状の凸部が一方向に延伸する一次元レンズであり、シリンドリカルレンズ29aの配列方向は、左眼用画素24L及び右眼用画素24Rからなる画素対が繰り返し配列される方向、すなわちX軸方向に設定され、1つのシリンドリカルレンズ29aが1つの画素対に対応するように構成される。   The lenticular lens 29 is a lens array in which a number of cylindrical lenses 29a are arranged one-dimensionally. The cylindrical lens 29a is a one-dimensional lens in which a convex portion having a semicylindrical shape extends in one direction. In the arrangement direction of the cylindrical lens 29a, a pixel pair including a left-eye pixel 24L and a right-eye pixel 24R is repeatedly arranged. The direction is set in the X axis direction, and one cylindrical lens 29a is configured to correspond to one pixel pair.

シリンドリカルレンズ29aは、その延伸方向と直交する方向にのみレンズ効果を有する。そして、このレンズ効果を有する方向が、左眼用画素24L及び右眼用画素24Rが繰り返し配列される方向と一致している。この結果、シリンドリカルレンズ29aは、左眼用画素24Lから出射される光と右眼用画素24Rから出射される光を異なる方向に分離可能な光線分離手段として作用する。これにより、レンチキュラレンズ29は、各表示単位の左眼用画素24Lが表示する画像と、各表示単位の右眼用画素24Rが表示する画像を、異なる方向に分離することができる。このシリンドリカルレンズ29aの焦点距離は、シリンドリカルレンズ29aの主点、すなわちレンズの頂点と、画素面、すなわち左眼用画素24L又は右眼用画素24Rが配置された面との間の距離に設定されている。   The cylindrical lens 29a has a lens effect only in a direction orthogonal to the extending direction. The direction having the lens effect coincides with the direction in which the left-eye pixels 24L and the right-eye pixels 24R are repeatedly arranged. As a result, the cylindrical lens 29a functions as a light beam separating unit that can separate the light emitted from the left-eye pixel 24L and the light emitted from the right-eye pixel 24R in different directions. Thereby, the lenticular lens 29 can separate the image displayed by the left-eye pixel 24L of each display unit from the image displayed by the right-eye pixel 24R of each display unit in different directions. The focal length of the cylindrical lens 29a is set to the distance between the principal point of the cylindrical lens 29a, that is, the vertex of the lens, and the pixel surface, that is, the surface on which the left-eye pixel 24L or the right-eye pixel 24R is arranged. ing.

なお、レンチキュラレンズ29は、表示パネル21に対抗する面にレンズ面が配置された構成としてもよい。また、光学手段はレンチキュラレンズ29に限らず、フライアイレンズ、パララックスバリア又はプリズムシート等の光を分離可能な様々な光学素子を用いることができる。また、光学手段は、例えば液晶を用いたGRIN(Gradient Index)レンズ、レンズ効果を有する凹凸基板と液晶分子とを組み合わせた液晶レンズ又は液晶を用いたスイッチングパララックスバリア等を用いることもできる。   The lenticular lens 29 may have a configuration in which a lens surface is disposed on a surface facing the display panel 21. The optical means is not limited to the lenticular lens 29, and various optical elements capable of separating light, such as a fly-eye lens, a parallax barrier, or a prism sheet, can be used. Further, as the optical means, for example, a GRIN (Gradient Index) lens using liquid crystal, a liquid crystal lens combining a concavo-convex substrate having a lens effect and liquid crystal molecules, a switching parallax barrier using liquid crystal, or the like can be used.

次に、上記構成の3Dディスプレイ20から出射して観察者の眼に入射する光の様子を、撮影手段で撮影した撮影画像を用いて説明する。図11は、3Dディスプレイ20と撮影手段80の配置例を示す斜視図である。図11は観察者の左眼の位置60と右眼の位置61とを併せて示している。なお、ここでは説明を容易にするために、左眼用画素24L及び右眼用画素24Rは各々シリンドリカルレンズ29aの長手方向に延伸する短冊状とし、X軸方向に配列されているものとする。   Next, the state of the light emitted from the 3D display 20 having the above-described configuration and incident on the observer's eye will be described using an image captured by the image capturing means. FIG. 11 is a perspective view showing an example of the arrangement of the 3D display 20 and the photographing means 80. FIG. 11 also shows the position 60 of the left eye and the position 61 of the right eye of the observer. Here, for ease of explanation, it is assumed that each of the left-eye pixels 24L and the right-eye pixels 24R has a strip shape extending in the longitudinal direction of the cylindrical lens 29a and is arranged in the X-axis direction.

図11に示すように、撮影手段80は、3Dディスプレイ20の表示面を撮影する位置に配置される。この撮影手段80は、画像処理用レンズシステム、一般的なビデオカメラ又はデジタルカメラ等が用いられる。撮影手段80は、表示パネル21の表示面近傍に焦点が合う、3Dディスプレイ20に対して+Z方向の位置で固定される。撮影手段80の撮影中心81は、3Dディスプレイ20の中心20aと一致し、理想的には当該中心20a近傍の左眼用画素24Lと右眼用画素24Rとの中間に位置することが望ましい。   As shown in FIG. 11, the photographing means 80 is arranged at a position where the display surface of the 3D display 20 is photographed. As the photographing unit 80, an image processing lens system, a general video camera, a digital camera, or the like is used. The imaging unit 80 is fixed at a position in the + Z direction with respect to the 3D display 20 that is focused on the vicinity of the display surface of the display panel 21. It is desirable that the photographing center 81 of the photographing means 80 coincides with the center 20a of the 3D display 20, and is ideally located between the left-eye pixel 24L and the right-eye pixel 24R near the center 20a.

図12は、3Dディスプレイ20の光学手段としてレンチキュラレンズ29を用いたときに形成される立体視域を説明するための光路図である。   FIG. 12 is an optical path diagram for explaining a stereoscopic viewing area formed when the lenticular lens 29 is used as the optical unit of the 3D display 20.

表示パネル21には、X軸方向に左眼用画素24L(L1〜L3)、(C1〜C3)及び(R1〜R3)と、右眼用画素24R(L1〜L3)、(C1〜C2)及び(R1〜R3)とが順次配置されている。また、シリンドリカルレンズ29Lは、左眼用画素24L(L1〜L3)と右眼用画素24R(L1〜L3)とに対応し、シリンドリカルレンズ29Cは、左眼用画素24L(C1〜C3)と右眼用画素24R(C1〜C2)とに対応し、シリンドリカルレンズ29Rは、左眼用画素24L(R1〜R3)と右眼用画素24R(R1〜R3)とに対応している。   The display panel 21 has left-eye pixels 24L (L1 to L3), (C1 to C3) and (R1 to R3) and right-eye pixels 24R (L1 to L3) and (C1 to C2) in the X-axis direction. And (R1 to R3) are sequentially arranged. The cylindrical lens 29L corresponds to the left-eye pixel 24L (L1 to L3) and the right-eye pixel 24R (L1 to L3), and the cylindrical lens 29C corresponds to the left-eye pixel 24L (C1 to C3). The cylindrical lens 29R corresponds to the pixel 24R (R1 to R3) for the left eye and the pixel 24R (R1 to R3) for the right eye.

図12に示す1L1、2L1及び3L1は、左眼用画素24L(L1〜L3)から出射され、シリンドリカルレンズ29Lで屈折された光の光路を示し、1L2、2L2及び3L2は、右眼用画素24R(L1〜L3)から出射され、シリンドリカルレンズ29Lで屈折された光の光路を示している。また、1C1、2C1及び3C1は、左眼用画素24L(C1〜C3)から出射され、シリンドリカルレンズ29Cで屈折された光の光路を示し、1C2及び2C2は、右眼用画素24R(C1〜C2)から出射され、シリンドリカルレンズ29Cで屈折された光の光路を示している。同様に、1R1、2R1及び3R1は、左眼用画素24L(R1〜R3)から出射され、シリンドリカルレンズ29Rで屈折された光の光路を示し、1R2、2R2及び3R2は、右眼用画素24R(R1〜R3)から出射され、シリンドリカルレンズ29Rで屈折された光の光路を示している。   1L1, 2L1 and 3L1 shown in FIG. 12 indicate optical paths of light emitted from the left-eye pixels 24L (L1 to L3) and refracted by the cylindrical lens 29L, and 1L2, 2L2 and 3L2 are right-eye pixels 24R. The optical path of light emitted from (L1 to L3) and refracted by the cylindrical lens 29L is shown. Further, 1C1, 2C1 and 3C1 show the optical paths of the light emitted from the left-eye pixels 24L (C1 to C3) and refracted by the cylindrical lens 29C, and 1C2 and 2C2 are the right-eye pixels 24R (C1 to C2). ) Shows the optical path of light emitted from the cylindrical lens 29C and refracted by the cylindrical lens 29C. Similarly, 1R1, 2R1 and 3R1 indicate the optical paths of light emitted from the left-eye pixels 24L (R1 to R3) and refracted by the cylindrical lens 29R, and 1R2, 2R2 and 3R2 are the right-eye pixels 24R ( R1 to R3) and the optical path of light refracted by the cylindrical lens 29R.

光路上を進行する実際の光は、これらの光路に対して時計回りまたは反時計回りに所定の角度の幅を有している。1L1、1C1及び1R1が交わる点を含む領域に左眼用画像領域62が形成され、1L2、1C2及び1R2が交わる点を含む領域に右眼用画像領域63が形成される。これらの左眼用画像領域62及び右眼用画像領域63が立体視できる立体視認範囲となり、左眼用画像領域62に左眼の位置60があり、右眼用画像領域63に右眼の位置61があるとき、観察者は立体画像を正しく視認することができる。   Actual light traveling on the optical path has a width of a predetermined angle clockwise or counterclockwise with respect to these optical paths. A left-eye image area 62 is formed in an area including a point where 1L1, 1C1 and 1R1 intersect, and a right-eye image area 63 is formed in an area including a point where 1L2, 1C2 and 1R2 intersect. The left-eye image area 62 and the right-eye image area 63 form a stereoscopic viewing range in which stereoscopic viewing is possible. The left-eye image area 62 has a left-eye position 60, and the right-eye image area 63 has a right-eye position. When there is 61, the observer can see the stereoscopic image correctly.

立体視認範囲が最大となる(すなわち、左眼用画像領域62及び右眼用画像領域63のX軸方向の距離が最大となる)位置とレンチキュラレンズ29の位置との距離を最適立体視認距離(Dop)とし、左右眼のY軸方向と、左眼用画像領域62及び右眼用画像領域63とが交差する位置とレンチキュラレンズ29の位置との距離を、最大立体視認距離(Dmax)及び最小立体視認距離(Dmin)とする。   The distance between the position where the stereoscopic viewing range is maximum (that is, the distance in the X-axis direction between the left-eye image area 62 and the right-eye image area 63 is maximum) and the position of the lenticular lens 29 is determined as the optimal stereoscopic viewing distance ( Dop), and the distance between the Y-axis direction of the left and right eyes, the position where the left-eye image area 62 and the right-eye image area 63 intersect, and the position of the lenticular lens 29 are the maximum stereoscopic viewing distance (Dmax) and the minimum The stereoscopic viewing distance (Dmin) is used.

ここで、シリンドリカルレンズ29Lに注目すると、左眼用画像領域62と右眼用画像領域63の形成に寄与する光は、左眼用画素24L(L1)及び右眼用画素24R(L1)から出射された光(1L1、1L2)だけである。これらを一次光と定義する。また、左眼用画素24L(L1)又は右眼用画素24R(L1)の隣接画素である左眼用画素24L(L2)又は右眼用画素24R(L2)から出射され、シリンドリカルレンズ29Lで屈折された光(2L1、2L2)を二次光と定義する。同様に、左眼用画素24L(L1)又は右眼用画素24R(L1)の第2の隣接画素である左眼用画素24L(L3)又は右眼用画素24R(L3)から出射され、シリンドリカルレンズ29Lで屈折された光(3L1、3L2)を三次光と定義する。シリンドリカルレンズ29C又は29Rに関連する光についても、同様に一次光が左眼用画像領域62及び右眼用画像領域63の形成に寄与する。   Here, focusing on the cylindrical lens 29L, light contributing to the formation of the left-eye image region 62 and the right-eye image region 63 is emitted from the left-eye pixel 24L (L1) and the right-eye pixel 24R (L1). Light (1L1, 1L2). These are defined as primary light. The light is emitted from the left-eye pixel 24L (L2) or the right-eye pixel 24R (L2), which is a pixel adjacent to the left-eye pixel 24L (L1) or the right-eye pixel 24R (L1), and refracted by the cylindrical lens 29L. The light (2L1, 2L2) obtained is defined as secondary light. Similarly, the light is emitted from the left-eye pixel 24L (L3) or the right-eye pixel 24R (L3), which is the second adjacent pixel to the left-eye pixel 24L (L1) or the right-eye pixel 24R (L1), and is cylindrical. Light (3L1, 3L2) refracted by the lens 29L is defined as tertiary light. Similarly, with respect to the light related to the cylindrical lens 29C or 29R, the primary light also contributes to the formation of the left-eye image area 62 and the right-eye image area 63.

図12の光路図から分かるように、観察者とレンチキュラレンズ29との間隔が最小立体視認距離Dminよりも短くなると、表示パネル21の左右側から出射される二次光又は三次光等の高次光の影響が顕在化することが分かる。   As can be seen from the optical path diagram of FIG. 12, when the distance between the observer and the lenticular lens 29 is shorter than the minimum stereoscopic viewing distance Dmin, the secondary light or the tertiary light, such as secondary light or tertiary light, emitted from the left and right sides of the display panel 21 is reduced. It can be seen that the effects become apparent.

次に、撮影手段80とレンチキュラレンズ29との間隔Dを変化させた時に得られる撮影画像について説明する。なお、図13、図15及び図18では、光路を分かりやすくするために、一次光の光路のみを記載している。   Next, a photographed image obtained when the distance D between the photographing means 80 and the lenticular lens 29 is changed will be described. In FIGS. 13, 15, and 18, only the optical path of the primary light is shown for easy understanding of the optical path.

図13は、撮影手段80を3Dディスプレイ20の中心線上に配置し、撮影手段80とレンチキュラレンズ29との間隔Dを変化させた場合の例である。図14は図13の構成におけるレンチキュラレンズと撮影手段との間隔と撮影画像との対応関係を示す図である。この場合、間隔Dが最適立体視認距離Dop近傍であれば、図14A及びBに示すように、撮影手段80が撮影する画像は、左側が左眼用画素24Lの入力画像、右側が右眼用画素24Rの入力画像となる。これに対して、間隔Dが徐々に小さくなると(例えば、最適立体視認距離Dopの1/3程度になると)、図14Cに示すように、二次光の影響を受けて、撮影画像の左側に右眼用画素24Rの入力画像が出現し、右側に左眼用画素24Lの入力画像が出現する。更に、間隔Dが小さくなると(例えば、最適立体視認距離Dopの1/4程度になると)、図14D及びEに示すように、三次光の影響を受けて、撮影画像の左側に左眼用画素24Lの入力画像が出現し、右側に右眼用画素24Rの入力画像が出現する。すなわち、撮影手段80とレンチキュラレンズ29との間隔Dが最適立体視認距離Dopに比べて小さくなるほど、二次光又は三次光等の高次光の影響を受けて、撮影画像が左眼用画素24Lの入力画像と右眼用画素24Rの入力画像の繰り返しになる。   FIG. 13 shows an example in which the photographing unit 80 is arranged on the center line of the 3D display 20 and the distance D between the photographing unit 80 and the lenticular lens 29 is changed. FIG. 14 is a diagram showing the correspondence between the distance between the lenticular lens and the photographing means and the photographed image in the configuration of FIG. In this case, if the interval D is near the optimum stereoscopic viewing distance Dop, as shown in FIGS. 14A and 14B, the image captured by the image capturing unit 80 is an input image of the left-eye pixel 24L on the left and a right-eye image on the right. The input image is the pixel 24R. On the other hand, when the interval D is gradually reduced (for example, when the interval is about 1/3 of the optimal stereoscopic viewing distance Dop), as shown in FIG. The input image of the right-eye pixel 24R appears, and the input image of the left-eye pixel 24L appears on the right side. Further, when the distance D is reduced (for example, when the distance is about 1/4 of the optimum stereoscopic viewing distance Dop), as shown in FIGS. 14D and 14E, the left-eye pixel is located on the left side of the captured image under the influence of the tertiary light. An input image of 24L appears, and an input image of the right-eye pixel 24R appears on the right side. That is, as the distance D between the photographing means 80 and the lenticular lens 29 becomes smaller than the optimal stereoscopic viewing distance Dop, the photographed image is affected by higher-order light such as secondary light or tertiary light, and the photographed image is input to the left-eye pixel 24L. This is a repetition of the image and the input image of the right-eye pixel 24R.

図15は、撮影手段80を3Dディスプレイ20の中心線に対して右側(右眼側)にずらして配置し、撮影手段80とレンチキュラレンズ29との間隔Dを変化させた場合の例である。図16は図15の構成におけるレンチキュラレンズと撮影手段80との間隔と撮影画像との対応関係を示す図である。この場合、間隔Dが最適立体視認距離Dop近傍であれば、図16Aに示すように、撮影手段80が撮影する画像は、右眼用画素24Rの入力画像のみとなる。また、間隔Dが小さくなり、最適立体視認距離Dopの1/2程度になると、図16Bに示すように、撮影画像の両側に左眼用画素24Lの入力画像が出現する。更に、間隔Dが小さくなり、最適立体視認距離Dopの1/3〜1/4程度になると、図16C及びDに示すように、二次光の影響を受けて、撮影画像の両側に右眼用画素24Rの入力画像が出現する。更に、間隔Dが小さくなり、最適立体視認距離Dopの1/4以下になると、図16Eに示すように、三次光の影響を受けて、撮影画像の左側に左眼用画素24Lの入力画像が出現する。   FIG. 15 shows an example in which the photographing unit 80 is shifted to the right (to the right eye) with respect to the center line of the 3D display 20 and the distance D between the photographing unit 80 and the lenticular lens 29 is changed. FIG. 16 is a diagram showing the correspondence between the distance between the lenticular lens and the photographing means 80 and the photographed image in the configuration of FIG. In this case, if the interval D is in the vicinity of the optimal stereoscopic viewing distance Dop, as shown in FIG. 16A, the image captured by the image capturing means 80 is only the input image of the right-eye pixel 24R. Further, when the interval D becomes small and becomes about 1/2 of the optimal stereoscopic viewing distance Dop, as shown in FIG. 16B, the input image of the left-eye pixel 24L appears on both sides of the captured image. Further, when the interval D becomes smaller and becomes about 1/3 to 1/4 of the optimal stereoscopic viewing distance Dop, as shown in FIGS. 16C and D, the right eye is placed on both sides of the captured image under the influence of the secondary light. The input image of the use pixel 24R appears. Further, when the interval D becomes smaller and becomes 1/4 or less of the optimum stereoscopic viewing distance Dop, as shown in FIG. 16E, the input image of the left-eye pixel 24L is located on the left side of the captured image under the influence of the tertiary light. Appear.

このような撮影画像となるのは、3Dディスプレイ20の表示面の中心を通る法線を含む正面の立体視域であるメインローブを構成する一次光と、メインローブに対してX軸方向の外側の立体視域である他のローブ(サイドローブ)を構成する高次光が混合して撮影画像が形成されるからである。図17は図15の撮影画像の構成を説明する図である。例えば、図17に示すように、撮影手段80とシリンドリカルレンズ29との間隔Dに関わらず、メインローブを構成する一次光によって右眼用画素24Rの入力画像が撮影されるが、間隔Dが小さくなるに従って他のローブを構成する高次光の影響を受けて、左眼用画素24Lの入力画像が多く撮影される。その結果、間隔Dが最適立体視認距離Dop(例えば600mm)の場合、撮影画像はメインローブを構成する一次光による右眼用画素24Rの入力画像のみであるが、間隔Dが0.5×Dop(例えば300mm)の場合、撮影画像は、メインローブを構成する一次光による右眼用画素24Rの入力画像と、他のローブを構成する高次光による両側の左眼用画素24Lの入力画像とを合成した画像となり、撮影画像は中央に右眼用画素24Rの入力画像が配置され、その両側に左眼用画素24Lの入力画像が配置された構成となる。また、間隔Dが0.33×Dop(例えば200mm)又は0.28×Dop(例えば170mm)の場合、他のローブを構成する高次光による左眼用画素24Lの入力画像が中央に寄るため、撮影画像は中央に右眼用画素24Rの入力画像が配置され、その両外側に左眼用画素24Lの入力画像が配置され、更にその両外側に右眼用画素24Rの入力画像が配置された構成となる。また、間隔Dが0.23×Dop(例えば140mm)の場合、他のローブを構成する高次光による左眼用画素24Lの入力画像が更に中央に寄り、更に外側に左眼用画素24Lの入力画像が出現するため、撮影画像は左眼用画素24Lの入力画像と右眼用画素24Rの入力画像とが3回繰り返し配置された構成となる。   Such captured images include primary light constituting a main lobe, which is a front stereoscopic viewing area including a normal passing through the center of the display surface of the 3D display 20, and an outer side in the X-axis direction with respect to the main lobe. This is because high-order lights constituting other lobes (side lobes) which are the stereoscopic viewing area are mixed to form a captured image. FIG. 17 is a diagram illustrating the configuration of the captured image in FIG. For example, as shown in FIG. 17, regardless of the distance D between the photographing means 80 and the cylindrical lens 29, the input image of the right-eye pixel 24R is photographed by the primary light constituting the main lobe, but the distance D is small. As much as possible, many input images of the left-eye pixel 24L are captured under the influence of higher-order light constituting another lobe. As a result, when the interval D is the optimum stereoscopic viewing distance Dop (for example, 600 mm), the captured image is only the input image of the right-eye pixel 24R by the primary light constituting the main lobe, but the interval D is 0.5 × Dop. In the case of (for example, 300 mm), the captured image combines the input image of the right-eye pixel 24R by the primary light constituting the main lobe and the input image of the left-eye pixels 24L on both sides by the high-order light constituting the other lobe. The captured image has a configuration in which the input image of the right-eye pixel 24R is arranged in the center, and the input image of the left-eye pixel 24L is arranged on both sides thereof. Further, when the interval D is 0.33 × Dop (for example, 200 mm) or 0.28 × Dop (for example, 170 mm), the input image of the left-eye pixel 24 </ b> L due to the higher-order light constituting another lobe is shifted to the center. The image has a configuration in which the input image of the right-eye pixel 24R is arranged in the center, the input image of the left-eye pixel 24L is arranged on both outer sides thereof, and the input image of the right-eye pixel 24R is arranged on both outer sides thereof. Becomes When the interval D is 0.23 × Dop (for example, 140 mm), the input image of the left-eye pixel 24L due to the higher-order light constituting another lobe is further shifted toward the center, and further outwardly, the input image of the left-eye pixel 24L. Appears, the captured image has a configuration in which the input image of the left-eye pixel 24L and the input image of the right-eye pixel 24R are repeatedly arranged three times.

図18は、撮影手段80を3Dディスプレイ20の中心線に対して左側(左眼側)にずらして配置し、撮影手段80とレンチキュラレンズとの間隔Dを変化させた場合の例である。図19は図18の構成におけるレンチキュラレンズと撮影手段80との間隔と撮影画像との対応関係を示す図である。この場合、間隔Dが最適立体視認距離Dop近傍であれば、図19Aに示すように、撮影手段80が撮影する画像は、左眼用画素24Lの入力画像のみとなる。また、間隔Dが小さくなり、最適立体視認距離Dopの1/2程度になると、図19Bに示すように、撮影画像の両側に右眼用画素24Rの入力画像が出現する。更に、間隔Dが小さくなり、最適立体視認距離Dopの1/3〜1/4程度になると、図19C及びDに示すように、二次光の影響を受けて、撮影画像の両側に左眼用画素24Lの入力画像が出現する。更に、間隔Dが小さくなり、最適立体視認距離Dopの1/4以下になると、図19Eに示すように、三次光の影響を受けて、撮影画像の左側に右眼用画素24Rの入力画像が出現する。   FIG. 18 shows an example in which the photographing unit 80 is shifted to the left (to the left eye) with respect to the center line of the 3D display 20, and the distance D between the photographing unit 80 and the lenticular lens is changed. FIG. 19 is a diagram showing the correspondence between the distance between the lenticular lens and the photographing means 80 and the photographed image in the configuration of FIG. In this case, if the interval D is in the vicinity of the optimum stereoscopic viewing distance Dop, as shown in FIG. 19A, the image captured by the image capturing means 80 is only the input image of the left-eye pixel 24L. When the interval D becomes small and becomes about half of the optimal stereoscopic viewing distance Dop, as shown in FIG. 19B, the input image of the right-eye pixel 24R appears on both sides of the captured image. Further, when the interval D becomes smaller and becomes about 1/3 to 1/4 of the optimal stereoscopic viewing distance Dop, as shown in FIGS. 19C and D, the left eye is placed on both sides of the captured image under the influence of the secondary light. The input image of the use pixel 24L appears. Further, when the interval D is reduced and becomes equal to or less than 1/4 of the optimum stereoscopic viewing distance Dop, as shown in FIG. 19E, the input image of the right-eye pixel 24R is located on the left side of the captured image under the influence of the tertiary light. Appear.

図20は図19の撮影画像の構成を説明する図である。この場合、図20に示すように、撮影手段80とシリンドリカルレンズ29との間隔Dに関わらず、メインローブを構成する一次光によって左眼用画素24Lの入力画像が撮影されるが、間隔Dが小さくなるに従って他のローブを構成する高次光の影響を受けて、右眼用画素24Rの入力画像が多く撮影される。その結果、撮影画像は、図17の左眼用画素24Lの入力画像と右眼用画素24Rの入力画像とが入れ替えた構成となる。   FIG. 20 is a diagram illustrating the configuration of the captured image in FIG. In this case, as shown in FIG. 20, the input image of the left-eye pixel 24L is photographed by the primary light constituting the main lobe regardless of the distance D between the photographing means 80 and the cylindrical lens 29. As the size becomes smaller, more input images of the right-eye pixel 24R are taken under the influence of higher-order light constituting another lobe. As a result, the captured image has a configuration in which the input image of the left-eye pixel 24L and the input image of the right-eye pixel 24R in FIG. 17 are interchanged.

すなわち、撮影手段80とシリンドリカルレンズ29との間隔Dが小さくなると、高次光の影響を受けて、撮影画像は左眼用画素24Lの入力画像と右眼用画素24Rの入力画像とが繰り返し配置された構成となり、撮影手段80の位置が3Dディスプレイ20の中心線からずれると、ずれに応じてメインローブを構成する一次光による画像と他のローブを構成する高次光による画像とが変化する。   In other words, when the distance D between the photographing unit 80 and the cylindrical lens 29 is reduced, the photographed image is affected by the higher-order light, and the photographed image has the input image of the left-eye pixel 24L and the input image of the right-eye pixel 24R repeatedly arranged. When the position of the photographing unit 80 is shifted from the center line of the 3D display 20, an image formed by primary light constituting the main lobe and an image formed by higher-order light constituting another lobe change in accordance with the shift.

次に、上記3Dディスプレイ20に空間結像素子30を組み合わせた場合について説明する。なお、以下では、空間結像素子30を、2面コーナーリフレクタとなる柱又は孔が平板の主面の法線に対して傾斜するように形成された構成とし、空間結像素子30の平面が3Dディスプレイ20の表示面に対して平行となるように配置されるものとする。   Next, a case where the spatial imaging element 30 is combined with the 3D display 20 will be described. In the following, the spatial imaging element 30 has a configuration in which a pillar or a hole serving as a dihedral corner reflector is formed so as to be inclined with respect to the normal to the main surface of the flat plate. It is assumed that they are arranged so as to be parallel to the display surface of the 3D display 20.

図21は3Dディスプレイ20における飛び出し視差を説明する模式図である。ここで、表示パネル21の左眼用画素24Lに、図21Bの左側に示すように、星形のオブジェクト71が中央のやや右側に配置された入力画像を表示させ、右眼用画素24Rに、図21Bの右側に示すように、星形のオブジェクト71が中央のやや左側に配置された入力画像を表示させた場合、図21Aに示すように、空中に星形のオブジェクト71が飛び出したように視認される飛び出し視差となる。これに対して、例えば、図22Aに示すように、D=0.5×Dopの位置に空間結像素子30を配置した場合、空間結像素子30の位置に仮想的に配置した仮想カメラで撮影される画像は、図17及び図20より、図22Bのようになる。ここで、空間結像素子30は反射光学系であり、空間結像素子30から出射される光線は、入射方向と同じ方向になるため、観察者が見る画像は左右が入れ替わる。その結果、観察者が見る画像は図22Cのようになり、左眼で視認する画像の中央に、右眼用画素24Rの入力画像が配置され、右眼で視認する画像の中央に、左眼用画素24Lの入力画像が配置される。すなわち、飛び出し視差が奥行き視差になる、いわゆる逆視が生じる。   FIG. 21 is a schematic diagram illustrating pop-out parallax on the 3D display 20. Here, as shown on the left side of FIG. 21B, the input image in which the star-shaped object 71 is arranged slightly right in the center is displayed on the left-eye pixel 24L of the display panel 21, and the right-eye pixel 24R is displayed on the right-eye pixel 24R. As shown on the right side of FIG. 21B, when the input image in which the star-shaped object 71 is arranged on the slightly left side of the center is displayed, as shown in FIG. 21A, the star-shaped object 71 protrudes into the air. It becomes the pop-out parallax that is visually recognized. On the other hand, for example, as shown in FIG. 22A, when the spatial imaging element 30 is arranged at a position of D = 0.5 × Dop, a virtual camera virtually arranged at the position of the spatial imaging element 30 The captured image is as shown in FIG. 22B from FIG. 17 and FIG. Here, the spatial imaging element 30 is a reflection optical system, and the light emitted from the spatial imaging element 30 is in the same direction as the incident direction, so that the image viewed by the observer is switched left and right. As a result, the image viewed by the observer is as shown in FIG. 22C, the input image of the right-eye pixel 24R is arranged in the center of the image viewed by the left eye, and the left eye is positioned in the center of the image viewed by the right eye. The input image of the pixel for use 24L is arranged. That is, so-called reverse vision, in which the pop-out parallax becomes the depth parallax, occurs.

このように、本願発明者の考察により、3Dディスプレイ20と空間結像素子30とを組み合わせた場合、逆視が生じることが判明したことから、本実施例の立体表示装置10では、画像処理部50を設け、画像信号入力部40から入力される入力画像の逆視が生じる(奥行き視差と飛び出し視差とが逆転する)領域を左右反転させる(逆視が生じる領域の左眼用画像と右眼用画像とを入れ替える)画像処理を行い、画像処理後の画像データを3Dディスプレイ20に出力するようにする。   As described above, when the 3D display 20 and the spatial imaging element 30 are combined, it has been found that pseudoscopy occurs when the 3D display 20 and the spatial imaging element 30 are combined. Therefore, in the stereoscopic display device 10 of the present embodiment, the image processing unit The left and right eyes of the region where reverse vision occurs (the depth disparity and the pop-out disparity are reversed) of the input image input from the image signal input unit 40 are provided. Image processing is performed, and the image data after the image processing is output to the 3D display 20.

図23は本発明の第1の実施例に係る立体表示装置10における画像処理部50の構成例を示すブロック図である。この画像処理部50は、図23に示すように、視差画像補正部51と領域パラメータ格納部56とで構成され、視差画像補正部51は、視差画像領域抽出部52と画像データ入替部53とで構成される。   FIG. 23 is a block diagram illustrating a configuration example of the image processing unit 50 in the stereoscopic display device 10 according to the first embodiment of the present invention. As shown in FIG. 23, the image processing unit 50 includes a parallax image correcting unit 51 and a region parameter storage unit 56. The parallax image correcting unit 51 includes a parallax image region extracting unit 52, an image data replacing unit 53, It consists of.

視差画像補正部51の視差画像領域抽出部52は、画像信号入力部40から、2視点分の撮影画像若しくは1視点分の撮影画像と仮想視点画像のセットを取得し、上記したメインローブを構成する一次光の角度(EVS(Eye Viewing Space)角度)、3Dディスプレイ20と空間結像素子30との距離、空間結像素子30と観察者との距離又は空間結像素子30のアスペクト比(例えば、2面コーナーリフレクタの開口幅と開口高さの比)などの所定の条件に基づいて、逆視が生じる(奥行き視差と飛び出し視差とが逆転する)領域(視差画像領域)を抽出する。   The parallax image area extraction unit 52 of the parallax image correction unit 51 acquires a set of a captured image for two viewpoints or a captured image for one viewpoint and a virtual viewpoint image from the image signal input unit 40, and configures the main lobe described above. Primary light angle (EVS (Eye Viewing Space) angle), the distance between the 3D display 20 and the spatial imaging element 30, the distance between the spatial imaging element 30 and the observer, or the aspect ratio of the spatial imaging element 30 (for example, Based on predetermined conditions, such as the ratio of the opening width and the opening height of the dihedral corner reflector, an area (parallax image area) where pseudoparallax occurs (depth parallax and pop-out parallax are reversed) is extracted.

例えば、EVS角度、3Dディスプレイ20と空間結像素子30の距離又は空間結像素子30と観察者との距離が小さくなると、左眼用画像と右眼用画像との繰り返し画素数が多くなる。また、3Dディスプレイ20と空間結像素子30の距離、または空間結像素子30と観察者との距離が所定の範囲外となる場合は、メインローブ画像が左右眼の視認画像の中央に出現しない。なお、3Dディスプレイ20と空間結像素子30の距離及び空間結像素子30と観察者との距離が所定の範囲外となる場合も、メインローブ画像が左右眼の視認画像の中央に出現しない。また、空間結像素子30のアスペクト比によって、左眼用画像と右眼用画像の位置又は繰り返し画素数が変化する。そこで、これらの条件を領域パラメータ格納部56に記憶しておき、画像信号入力部40から入力画像を取得したら、領域パラメータ格納部56から条件を読み出し、読み出した条件の内の少なくとも1つの条件に基づいて、どの領域で逆視が生じるかを特定し、特定した領域を視差画像領域として抽出する。言い換えると、上記所定の条件によってメインローブ画像の位置及び大きさが決定され、メインローブ画像の位置及び大きさによってどの領域で逆視が生じるかを判断できることから、メインローブ画像の位置及び大きさに基づいて視差画像領域を抽出することになる。   For example, when the EVS angle or the distance between the 3D display 20 and the spatial imaging element 30 or the distance between the spatial imaging element 30 and the observer decreases, the number of repetitive pixels of the left-eye image and the right-eye image increases. When the distance between the 3D display 20 and the spatial imaging element 30 or the distance between the spatial imaging element 30 and the observer is out of the predetermined range, the main lobe image does not appear at the center of the left and right eye visual recognition images. . In addition, even when the distance between the 3D display 20 and the spatial imaging element 30 and the distance between the spatial imaging element 30 and the observer are out of the predetermined range, the main lobe image does not appear at the center of the left and right eyes visually recognized images. Further, the position or the number of repetitive pixels of the left-eye image and the right-eye image changes depending on the aspect ratio of the spatial imaging element 30. Therefore, these conditions are stored in the area parameter storage unit 56, and when the input image is obtained from the image signal input unit 40, the conditions are read out from the area parameter storage unit 56, and at least one of the read out conditions is set as one of the read out conditions. Based on this, it is specified in which area the pseudoscopy occurs, and the specified area is extracted as a parallax image area. In other words, the position and size of the main lobe image are determined according to the above-described predetermined conditions, and it is possible to determine in which region the reverse sight occurs due to the position and size of the main lobe image. , The parallax image area is extracted.

なお、EVS角度及び空間結像素子30と観察者との距離は、観察者の位置に伴って変化する。そこで、立体表示装置10にカメラを設置し、画像処理部50が、適宜カメラから観察者を撮影した画像を取得し、撮影画像から特徴点を抽出して両眼の位置を検出し、両眼の位置及び間隔などに基づいて、EVS角度及び空間結像素子30と観察者との距離を特定して領域パラメータ格納部56に格納すればよい。また、ここでは所定の条件として、EVS角度、3Dディスプレイ20と空間結像素子30の距離、空間結像素子30と観察者との距離、空間結像素子30のアスペクト比の4つを例示したが、表示パネル21の特性(例えば、画素サイズ、画素ピッチもしくは画素配列構造)又はレンチキュラレンズ29の特性(例えば、シリンドリカルレンズ29aの形状、ピッチ、焦点距離、収差もしくは材質)などの他の条件を利用してもよい。また、ここでは空間結像素子30の特性に関する所定の条件として、空間結像素子30のアスペクト比を例示したが、空間結像素子30を構成する2面コーナーリフレクタのミラー表面粗さ、ミラー組立精度又は反射率などを利用することもできる。   The EVS angle and the distance between the spatial imaging element 30 and the observer change according to the position of the observer. Therefore, a camera is installed on the three-dimensional display device 10, and the image processing unit 50 appropriately acquires an image of the observer from the camera, extracts feature points from the captured image, detects the positions of both eyes, The EVS angle and the distance between the spatial imaging element 30 and the observer may be specified and stored in the area parameter storage unit 56 on the basis of the position, the interval, and the like. Here, four examples of the predetermined conditions are the EVS angle, the distance between the 3D display 20 and the spatial imaging element 30, the distance between the spatial imaging element 30 and the observer, and the aspect ratio of the spatial imaging element 30. However, other conditions such as characteristics of the display panel 21 (for example, pixel size, pixel pitch or pixel array structure) or characteristics of the lenticular lens 29 (for example, shape, pitch, focal length, aberration or material of the cylindrical lens 29a) are set. May be used. Also, here, the aspect ratio of the spatial imaging element 30 has been exemplified as the predetermined condition regarding the characteristics of the spatial imaging element 30, but the mirror surface roughness of the two-sided corner reflector constituting the spatial imaging element 30, the mirror assembly Accuracy or reflectivity can also be used.

視差画像補正部51の画像データ入替部53は、入力画像から、視差画像領域抽出部52が抽出した視差画像領域に対応する左眼用画像と右眼用画像とを特定し、左眼用画像と右眼用画像の境界位置が実質的に一致している場合、それらを入れ替えた画像データを生成し、生成した画像データを3Dディスプレイ20に出力する。   The image data replacement unit 53 of the parallax image correction unit 51 specifies a left-eye image and a right-eye image corresponding to the parallax image region extracted by the parallax image region extraction unit 52 from the input image, and When the boundary positions of the image and the right-eye image substantially coincide with each other, image data in which the boundary positions are replaced is generated, and the generated image data is output to the 3D display 20.

領域パラメータ格納部56は、メモリなどの記憶手段であり、視差画像領域抽出部52が視差画像領域を抽出する際に参照する、上記の所定の条件を記憶する。   The area parameter storage unit 56 is a storage unit such as a memory, and stores the above-described predetermined condition that is referred to when the parallax image area extraction unit 52 extracts a parallax image area.

なお、視差画像領域抽出部52及び画像データ入替部53はハードウェアとして構成してもよいし、画像処理部50にCPU(Central Processing Unit)とROM(Read Only Memory)又はRAM(Random Access Memory)などのメモリとを含む制御部を設け、CPUがROMに記憶したプログラムをRAMに展開して実行することにより、制御部を、視差画像領域抽出部52及び画像データ入替部53として機能させるようにしてもよい。   Note that the parallax image area extraction unit 52 and the image data replacement unit 53 may be configured as hardware, or the image processing unit 50 may include a CPU (Central Processing Unit) and a ROM (Read Only Memory) or a RAM (Random Access Memory). A control unit including a memory such as a memory is provided, and the CPU expands the program stored in the ROM into the RAM and executes the program, so that the control unit functions as the parallax image area extraction unit 52 and the image data replacement unit 53. You may.

図24は本発明の第1の実施例に係る立体表示装置10における視差画像補正方法を示すフローチャート図である。図25は本発明の第1の実施例に係る立体表示装置10における視差画像補正方法を説明する1例の模式図である。上記構成の画像処理部50を用いた視差画像補正方法について、図24のフローチャート図及び図25の概念図を用いて説明する。   FIG. 24 is a flowchart illustrating a parallax image correction method in the stereoscopic display device 10 according to the first embodiment of the present invention. FIG. 25 is a schematic view of an example illustrating a parallax image correction method in the stereoscopic display device 10 according to the first embodiment of the present invention. A parallax image correction method using the image processing unit 50 having the above configuration will be described with reference to a flowchart of FIG. 24 and a conceptual diagram of FIG.

まず、視差画像領域抽出部52は、画像信号入力部40から入力画像(2視点分の撮影画像若しくは1視点分の撮影画像と仮想視点画像のセット)を取得する(ステップS101)。ここでは、図25Aに示すように、メインローブ画像に逆視が生じているものとする。   First, the parallax image area extraction unit 52 acquires an input image (a captured image for two viewpoints or a set of a captured image for one viewpoint and a virtual viewpoint image) from the image signal input unit 40 (Step S101). Here, as shown in FIG. 25A, it is assumed that a reverse sight has occurred in the main lobe image.

次に、視差画像領域抽出部52は、領域パラメータ格納部56から所定の条件を取得し、所定の条件に基づいて視差画像領域を抽出する(ステップS102)。ここでは、視差画像領域としてメインローブ画像の領域を抽出する。   Next, the parallax image region extraction unit 52 acquires a predetermined condition from the region parameter storage unit 56, and extracts a parallax image region based on the predetermined condition (Step S102). Here, the area of the main lobe image is extracted as the parallax image area.

次に、画像データ入替部53は、視差画像領域の左眼用画像と右眼用画像との入れ替えを行う(ステップS103)。例えば、図25Bに示すように、入力画像の左眼用画像がL、L及びLで構成され、右眼用画像がR、R及びRで構成されている場合、左眼用画像のメインローブ画像Rと、右眼用画像のメインローブ画像Lとを入れ替える。 Next, the image data exchange unit 53 exchanges the image for the left eye and the image for the right eye in the parallax image area (Step S103). For example, as shown in FIG. 25B, when the left eye image of the input image is composed of L A, L B, and L C, the right-eye image is composed of R A, R B and R C, left replacing the main lobe picture R B of eye images, and a main lobe image L B of the right-eye image.

そして、画像データ入替部53は、視差画像領域の左眼用画像と右眼用画像との入れ替えを行った画像データを3Dディスプレイ20に出力し、3Dディスプレイ20はその画像データに基づいて、表示パネル21に画像を表示する(ステップS104)。ここでは、逆視が生じるメインローブの左眼用画像と右眼用画像とが入れ替えられているため、図25Cに示すように、観察者は全ての領域が3D正視領域となった空中浮遊像を視認することができる。   Then, the image data replacing unit 53 outputs the image data in which the image for the left eye and the image for the right eye in the parallax image area have been exchanged to the 3D display 20, and the 3D display 20 displays based on the image data. An image is displayed on panel 21 (step S104). Here, since the image for the left eye and the image for the right eye of the main lobe where pseudoscopy occurs are interchanged, as shown in FIG. 25C, the observer views the airborne image in which all the regions are 3D normal viewing regions. Can be visually recognized.

なお、上記では、左右各々の入力画像が左右及び中央の3つの画像で構成される場合について記載したが、左右各々の入力画像が複数の領域で構成される場合に対しても同様に適用することができる。図26は本発明の第1の実施例に係る立体表示装置10における視差画像補正方法を説明する他の例の模式図である。例えば、図26に示すように、左右各々の入力画像が5つの画像で構成される場合、図26Aに示すように、視差画像領域抽出部52は、上記の所定の条件に基づいて、中央のメインローブ画像及び両端のサイドローブ画像の領域を視差画像領域として抽出し、図26Bに示すように、画像データ入替部53は、入力画像に対して、左眼用画像のR、R及びRと右眼用画像のL、L及びLとを入れ替えて3Dディスプレイ20に出力すれば、図26Cに示すように、観察者は全ての領域が3D正視領域となった空中浮遊像を視認することができる。 In the above description, the case where each of the left and right input images is composed of the three images of the left and right and the center is described. However, the same applies to the case where each of the left and right input images is composed of a plurality of regions. be able to. FIG. 26 is a schematic diagram of another example illustrating a parallax image correction method in the stereoscopic display device 10 according to the first embodiment of the present invention. For example, as shown in FIG. 26, when each of the left and right input images is composed of five images, as shown in FIG. 26A, the parallax image area extraction unit 52 determines the center image based on the above predetermined condition. The areas of the main lobe image and the side lobe images at both ends are extracted as parallax image areas, and as shown in FIG. 26B, the image data replacement unit 53 outputs the left image R A , R C and By exchanging R E and L A , L C, and L E of the image for the right eye and outputting them to the 3D display 20, as shown in FIG. The image can be viewed.

このように、入力画像から逆視が生じる視差画像領域を抽出し、その視差画像領域に対応する左眼用画像と右眼用画像とを入れ替えることにより、空中浮遊像に3D正視領域と3D逆視領域とが交互に出現するという問題を回避することができる。   As described above, the parallax image region in which reverse vision occurs is extracted from the input image, and the left-eye image and the right-eye image corresponding to the parallax image region are exchanged, so that the 3D normal viewing region and the 3D inverse The problem that the viewing region and the viewing region appear alternately can be avoided.

なお、本実施例の立体表示装置10は3Dオブジェクトをモノクロ表示する場合とカラー表示する場合のいずれの場合にも適用することができる。3Dオブジェクトをカラー表示する場合は、表示パネル21を構成する対向基板26をカラーフィルタ(CF)基板とすることによって実現することができる。その場合、シリンドリカルレンズ29aのレンズ効果を有する方向(X軸方向)に並ぶ一対の画素を同色とし、シリンドリカルレンズ29aの長手方向(Y軸方向、すなわち行毎)に周期的に色を変化させる構造とすることもできるし、X軸方向とY軸方向を逆にした構造とすることもできる。また、CFを設ける代わりに、例えば、バックライト22をR(Red)/G(Green)/B(Blue)各々の単色で発光できる光源で構成し、R/G/Bの発光時間に合わせて所望の画素を所定の階調で表示させることにより(いわゆる時分割駆動により)、カラー表示を実現することもできる。   Note that the stereoscopic display device 10 of the present embodiment can be applied to both cases of displaying a 3D object in monochrome and displaying in color. When displaying a 3D object in color, it can be realized by using a color filter (CF) substrate as the opposing substrate 26 forming the display panel 21. In this case, a structure in which a pair of pixels arranged in a direction (X-axis direction) having a lens effect of the cylindrical lens 29a have the same color, and a color is periodically changed in the longitudinal direction (Y-axis direction, that is, for each row) of the cylindrical lens 29a. Or a structure in which the X-axis direction and the Y-axis direction are reversed. Instead of providing the CF, for example, the backlight 22 is configured by a light source capable of emitting a single color of R (Red) / G (Green) / B (Blue), and the backlight 22 is set in accordance with the emission time of R / G / B. By displaying a desired pixel at a predetermined gradation (by so-called time-division driving), color display can also be realized.

次に、本発明の第2の実施例に係る立体表示装置及び視差画像補正方法について、図27乃至図30を参照して説明する。図27は、本実施例の画像処理部の構成例を示すブロック図である。図28は、本実施例の立体画像の処理方法を示すフローチャート図である。図29は本発明の第2の実施例に係る立体表示装置10における視差画像補正方法を説明する模式図である。図30は本発明の第2の実施例に係る立体表示装置10における視差画像補正方法を説明する模式図である。   Next, a stereoscopic display device and a parallax image correction method according to a second embodiment of the present invention will be described with reference to FIGS. FIG. 27 is a block diagram illustrating a configuration example of an image processing unit according to the present embodiment. FIG. 28 is a flowchart illustrating a method of processing a stereoscopic image according to the present embodiment. FIG. 29 is a schematic diagram illustrating a parallax image correction method in the stereoscopic display device 10 according to the second embodiment of the present invention. FIG. 30 is a schematic diagram illustrating a parallax image correction method in the stereoscopic display device 10 according to the second embodiment of the present invention.

前記した第1の実施例では、視差画像領域の左眼用画像と右眼用画像との入れ替えを行ったが、画像と入れ替えた画像とで奥行き(又は飛び出し)の状態が異なる場合、入れ替えた画像とその画像に隣接する画像との繋ぎ目で奥行き(又は飛び出し)が不自然に変化したり、メインローブ画像の奥行き(又は飛び出し)が小さい場合、立体感を十分に表現できなかったりする場合がある。また、空間結像素子の特性によっては、各画像の境界部近傍において画像が混合する領域(3Dクロストーク領域)が大きくなり、視差がある場合には2重画像が視認される場合もある。そこで、本実施例では、入力画像の奥行き情報を用いて、入力画像の視差量(左眼用画像と右眼用画像の各画素のずらし量)を調整して、空中浮遊像が適切に表示されるようにする。   In the first embodiment described above, the image for the left eye and the image for the right eye in the parallax image area are exchanged. However, when the depth (or pop-out) state differs between the image and the exchanged image, the exchange is performed. When the depth (or pop-out) changes unnaturally at the seam between the image and the image adjacent to the image, or when the depth (or pop-out) of the main lobe image is small, the stereoscopic effect cannot be sufficiently expressed. There is. Further, depending on the characteristics of the spatial imaging element, a region where the images are mixed (3D crosstalk region) near the boundary between the images becomes large, and when there is parallax, a double image may be visually recognized. Therefore, in this embodiment, the depth of the input image is used to adjust the amount of parallax of the input image (the amount of shift between each pixel of the left-eye image and the right-eye image) so that the airborne image is appropriately displayed. To be done.

その場合、立体表示装置10の構成は第1の実施例の図8乃至図10と同様であるが、図27に示すように、画像処理部50の視差画像補正部51に、視差画像領域抽出部52と画像データ入替部53とに加えて、奥行き情報抽出部54と視差量調整部55とを設ける。   In this case, the configuration of the stereoscopic display device 10 is the same as that of FIGS. 8 to 10 of the first embodiment, but the parallax image correcting unit 51 of the image processing unit 50 outputs the parallax image area extraction as shown in FIG. In addition to the section 52 and the image data replacing section 53, a depth information extracting section 54 and a parallax amount adjusting section 55 are provided.

上記奥行き情報抽出部54は、画像信号入力部40が1視点分の撮影画像及びデプス画像から仮想視点画像を生成する場合は、画像信号入力部40から、1視点分の撮影画像と仮想視点画像に加えてデプス画像を取得し、このデプス画像に基づいて3Dオブジェクトの各部の奥行き情報を抽出する。また、画像信号入力部40から2視点分の撮影画像を取得する場合は、この2視点分の撮影画像を比較することによって3Dオブジェクトの各部の奥行き情報を抽出する。なお、デプス画像は、3D空間のある視点位置から撮影した撮影画像の各画素に対応するオブジェクトと上記視点位置との距離を表すものである。   When the image signal input unit 40 generates the virtual viewpoint image from the captured image and the depth image for one viewpoint, the depth information extracting unit 54 determines the captured image for one viewpoint and the virtual viewpoint image from the image signal input unit 40. In addition, a depth image is acquired, and depth information of each part of the 3D object is extracted based on the depth image. When acquiring captured images for two viewpoints from the image signal input unit 40, the depth information of each part of the 3D object is extracted by comparing the captured images for the two viewpoints. Note that the depth image represents a distance between an object corresponding to each pixel of a captured image captured from a certain viewpoint position in the 3D space and the viewpoint position.

視差量調整部55は、奥行き情報抽出部54が抽出した奥行き情報に基づいて、入力画像(1視点分の撮影画像及び仮想視点画像若しくは2視点分の撮影画像)の視差量を調整する。その際、領域パラメータ格納部56から、EVS角度、3Dディスプレイ20と空間結像素子30の距離、空間結像素子30と観察者との距離、空間結像素子30のアスペクト比などの所定の条件を読み出し、この所定の条件を参照して、どのように視差量を調整するかを決定する。例えば、左眼用画像と右眼用画像とを入れ替えることによって、入れ替えた画像とその画像に隣接する画像との繋ぎ目で画像の左右で奥行き又は飛び出しが不自然さに変化する場合がある。そのような場合は、画像の両端部分(隣接する画像との境界近傍部分)の視差量を境界近傍以外の視差量より小さくし、画像の繋がりをなめらかにする。また、メインローブ画像の奥行き又は飛び出しの程度が小さい場合、3Dオブジェクトの立体感が十分に得られない場合がある。そのような場合は、メインローブ画像(逆視領域に対応する部分の画像)の視差量をメインローブ画像以外の視差量より大きくし、3Dオブジェクトの立体感を強調する。また、空間結像素子によって、画像の境界部近傍において3Dクロストーク領域が大きくなり、2重画像が視認される場合がある。そのような場合は、上記と同様に、画像の両端部分(隣接する画像との境界近傍部分)の視差量を小さく若しくはゼロにし、2重画像が視認されにくくなるようにする。   The parallax adjustment unit 55 adjusts the parallax of the input image (a captured image for one viewpoint and a virtual viewpoint image or a captured image for two viewpoints) based on the depth information extracted by the depth information extracting unit 54. At this time, predetermined conditions such as the EVS angle, the distance between the 3D display 20 and the spatial imaging element 30, the distance between the spatial imaging element 30 and the observer, and the aspect ratio of the spatial imaging element 30 are stored in the area parameter storage unit 56. Is read, and how to adjust the amount of parallax is determined with reference to the predetermined condition. For example, when the image for the left eye and the image for the right eye are exchanged, the depth or the projection at the right and left of the image may change unnaturally at the joint between the exchanged image and the image adjacent to the image. In such a case, the amount of parallax at both ends of the image (near the boundary between adjacent images) is made smaller than the amount of parallax other than near the boundary, and the connection of the images is smoothed. In addition, when the depth or the degree of protrusion of the main lobe image is small, the three-dimensional effect of the 3D object may not be sufficiently obtained. In such a case, the parallax amount of the main lobe image (the image of the portion corresponding to the reverse viewing area) is made larger than the parallax amounts other than the main lobe image to emphasize the stereoscopic effect of the 3D object. In addition, the spatial imaging element may increase the size of the 3D crosstalk area in the vicinity of the boundary of the image, so that a double image may be visually recognized. In such a case, similarly to the above, the amount of parallax at both ends of the image (near the boundary with the adjacent image) is reduced or set to zero so that the double image is hardly viewed.

視差画像領域抽出部52は、視差量調整部55から、視差量を調整した画像(1視点分の撮影画像と仮想視点画像若しくは2視点分の撮影画像)を取得し、領域パラメータ格納部56から、EVS角度、3Dディスプレイ20と空間結像素子30の距離、空間結像素子30と観察者との距離又は空間結像素子30のアスペクト比などの所定の条件を読み出し、所定の条件の内の少なくとも1つの条件に基づいて、逆視が生じる領域(視差画像領域)を抽出する。   The parallax image region extraction unit 52 acquires an image (a captured image for one viewpoint and a virtual viewpoint image or a captured image for two viewpoints) in which the amount of parallax has been adjusted from the parallax amount adjustment unit 55, and , An EVS angle, a predetermined condition such as a distance between the 3D display 20 and the spatial imaging device 30, a distance between the spatial imaging device 30 and the observer, or an aspect ratio of the spatial imaging device 30, and the like. Based on at least one condition, an area (parallax image area) where pseudoscopy occurs is extracted.

なお、第1の実施例と同様に、EVS角度及び空間結像素子30と観察者との距離は、観察者の位置に伴って変化するため、立体表示装置10にカメラを設置し、画像処理部50が、適宜カメラから観察者を撮影した画像を取得し、撮影画像から特徴点を抽出して両眼の位置を検出し、両眼の位置及び間隔などに基づいて、EVS角度及び空間結像素子30と観察者との距離を特定して領域パラメータ格納部56に格納すればよい。また、所定の条件として、表示パネル21の特性又はレンチキュラレンズ29の特性などの他の条件を利用することができる。また、空間結像素子30の特性に関する所定の条件として、空間結像素子30を構成する2面コーナーリフレクタのミラー表面粗さ又はミラー組立精度、反射率などを利用することもできる。   Note that, as in the first embodiment, since the EVS angle and the distance between the spatial imaging element 30 and the observer change with the position of the observer, a camera is installed on the stereoscopic display device 10 and image processing is performed. The unit 50 appropriately obtains an image of the observer from the camera, extracts feature points from the captured image, detects the positions of both eyes, and based on the positions and intervals of the eyes, the EVS angle and spatial connection. The distance between the image element 30 and the observer may be specified and stored in the area parameter storage unit 56. In addition, other conditions such as the characteristics of the display panel 21 or the characteristics of the lenticular lens 29 can be used as the predetermined conditions. In addition, as the predetermined condition regarding the characteristics of the spatial imaging element 30, the mirror surface roughness, mirror assembly accuracy, reflectance, and the like of the dihedral corner reflector constituting the spatial imaging element 30 can be used.

画像データ入替部53は、入力画像から、視差画像領域抽出部52が抽出した視差画像領域に対応する左眼用画像と右眼用画像とを特定し、左眼用画像と右眼用画像の境界位置が実質的に一致している場合、それらを入れ替えた画像データを生成し、生成した画像データを3Dディスプレイ20に出力する。   The image data replacement unit 53 specifies a left-eye image and a right-eye image corresponding to the parallax image region extracted by the parallax image region extraction unit 52 from the input image, and outputs the left-eye image and the right-eye image. When the boundary positions substantially coincide with each other, image data in which the boundary positions are replaced is generated, and the generated image data is output to the 3D display 20.

なお、奥行き情報抽出部54、視差量調整部55、視差画像領域抽出部52及び画像データ入替部53はハードウェアとして構成してもよいし、画像処理部50にCPUとROM又はRAMなどのメモリとを含む制御部を設け、CPUがROMに記憶したプログラムをRAMに展開して実行することにより、制御部を、奥行き情報抽出部54、視差量調整部55、視差画像領域抽出部52及び画像データ入替部53として機能させるようにしてもよい。また、前記した第1の実施例と同様に、本実施例の3Dディスプレイ20の表示パネル21に、カラーフィルタを形成した対向基板26を使用したり、R/G/Bの単色光を発光可能なバックライト22を使用したりして、カラー表示を行うことができる。   The depth information extracting unit 54, the parallax amount adjusting unit 55, the parallax image area extracting unit 52, and the image data replacing unit 53 may be configured as hardware, or the image processing unit 50 may include a CPU and a memory such as a ROM or a RAM. Is provided, and the CPU develops the program stored in the ROM into the RAM and executes the program. The control unit includes a depth information extracting unit 54, a parallax amount adjusting unit 55, a parallax image area extracting unit 52, and an image processing unit. You may make it function as the data replacement part 53. Further, similarly to the above-described first embodiment, the display panel 21 of the 3D display 20 of the present embodiment can use the opposite substrate 26 on which a color filter is formed or emit R / G / B monochromatic light. For example, a color display can be performed by using a suitable backlight 22.

上記構成の画像処理部50を用いた視差画像補正方法について、図28のフローチャート図及び図29、30の概念図を用いて説明する。   A parallax image correction method using the image processing unit 50 having the above configuration will be described with reference to the flowchart of FIG. 28 and the conceptual diagrams of FIGS.

まず、奥行き情報抽出部54は、画像信号入力部40から入力画像(1視点分の撮影画像と仮想視点画像とデプス画像のセット若しくは2視点分の撮影画像を取得する(ステップS201)。そして、奥行き情報抽出部54はデプス画像若しくは2視点分の撮影画像を処理した結果に基づいて、3Dオブジェクトの各部の奥行き情報を抽出する(ステップS202)。   First, the depth information extraction unit 54 acquires an input image (a set of a captured image for one viewpoint, a virtual viewpoint image, and a depth image or a captured image for two viewpoints) from the image signal input unit 40 (Step S201). The depth information extracting unit 54 extracts the depth information of each part of the 3D object based on the result of processing the depth image or the captured image for two viewpoints (Step S202).

次に、視差量調整部55は、奥行き情報抽出部54が抽出した奥行き情報と領域パラメータ格納部56から取得した所定の条件とに基づいて、入力画像(1視点分の撮影画像信号と仮想視点画像信号若しくは2視点分の撮影画像)の視差量を調整する(ステップS203)。例えば、入れ替えた画像とその画像に隣接する画像との繋がりを改善したい場合は、図29Bに示すように、画像の境界近傍の視差量が境界部分以外の視差量より小さくなるように調整する。また、3Dオブジェクトの奥行き又は飛び出しを十分に表現したい場合は、図29Cに示すように、メインローブ画像の視差量がメインローブ画像以外の視差量より大きくなるように調整する。また、2重画像が視認される不具合を改善したい場合は、画像の境界近傍の視差量が小さくなるように調整する。例えば、3Dクロストークが少ない場合は、図30Bに示すように、画像の境界近傍の視差量が境界部分以外の視差量より小さくなるように調整する。また、3Dクロストークが著しい場合は、図30Cに示すように、画像の境界部分の視差量がゼロなるように調整する。   Next, based on the depth information extracted by the depth information extraction unit 54 and the predetermined condition acquired from the area parameter storage unit 56, the parallax amount adjustment unit 55 generates an input image (a captured image signal for one viewpoint and a virtual viewpoint The parallax amount of the image signal or the captured image for two viewpoints) is adjusted (step S203). For example, when it is desired to improve the connection between the replaced image and an image adjacent to the replaced image, as shown in FIG. 29B, adjustment is performed so that the amount of parallax near the boundary of the image is smaller than the amount of parallax other than the boundary. When it is desired to sufficiently express the depth or pop-out of the 3D object, as shown in FIG. 29C, the main lobe image is adjusted so that the amount of parallax becomes larger than the amount of parallax other than the main lobe image. If it is desired to improve the problem that the double image is visually recognized, the adjustment is performed so that the amount of parallax near the boundary of the image is reduced. For example, when the 3D crosstalk is small, as shown in FIG. 30B, the adjustment is performed so that the amount of parallax near the boundary of the image is smaller than the amount of parallax other than the boundary. If the 3D crosstalk is significant, as shown in FIG. 30C, the adjustment is performed so that the parallax amount at the boundary portion of the image becomes zero.

次に、視差画像領域抽出部52は、視差量調整部55が調整した1視点分の撮影画像と仮想視点画像とを取得する。また、視差画像領域抽出部52は、領域パラメータ格納部56から所定の条件を取得する。そして、視差画像領域抽出部52は、それらに基づいて視差画像領域を抽出する(ステップS204)。ここでは、視差画像領域としてメインローブ画像の領域を抽出する。   Next, the parallax image region extraction unit 52 acquires the captured image for one viewpoint and the virtual viewpoint image adjusted by the parallax amount adjustment unit 55. In addition, the parallax image area extraction unit 52 acquires a predetermined condition from the area parameter storage unit 56. Then, the parallax image region extracting unit 52 extracts a parallax image region based on the extracted data (step S204). Here, the area of the main lobe image is extracted as the parallax image area.

次に、画像データ入替部53は、視差画像領域の左眼用画像と右眼用画像との入れ替えを行う(ステップS205)。例えば、図29A、図30Aに示すように、入力画像の左眼用画像がL、L及びLで構成され、右眼用画像がR、R及びRで構成されている場合、左眼用画像のメインローブ画像Rと、右眼用画像のメインローブ画像Lとを入れ替える。 Next, the image data exchange unit 53 exchanges the left-eye image and the right-eye image in the parallax image area (Step S205). For example, as shown in FIG. 29A, FIG. 30A, left-eye image of the input image is composed of L A, L B, and L C, the right-eye image is composed of R A, R B and R C If, replacing the main lobe picture R B of the left-eye image, and a main lobe image L B of the right-eye image.

そして、画像データ入替部53は、視差画像領域の左眼用画像と右眼用画像との入れ替えを行った画像データを3Dディスプレイ20に出力し、3Dディスプレイ20はその画像データに基づいて、表示パネル21に画像を表示する(ステップS206)。   Then, the image data replacing unit 53 outputs the image data in which the image for the left eye and the image for the right eye in the parallax image area have been exchanged to the 3D display 20, and the 3D display 20 displays based on the image data. An image is displayed on panel 21 (step S206).

なお、上記では、左右各々の入力画像が左右及び中央の3つの画像で構成される場合について記載したが、左右各々の入力画像が複数の領域で構成される場合に対しても同様に適用することができる。   In the above description, the case where each of the left and right input images is composed of the three images of the left and right and the center is described. However, the same applies to the case where each of the left and right input images is composed of a plurality of regions. be able to.

このように、デプス画像に基づいて視差量を調整した後、視差画像領域に対応する左眼用画像と右眼用画像とを入れ替えることにより、空中浮遊像を適切に表示することができ、立体表示装置10の利用価値を高めることができる。   In this way, after adjusting the amount of parallax based on the depth image, by swapping the image for the left eye and the image for the right eye corresponding to the parallax image area, the airborne image can be displayed appropriately, The use value of the display device 10 can be increased.

本発明の第3の実施例に係る立体表示装置及び視差画像補正方法について、図31乃至図38を参照して説明する。   A stereoscopic display device and a parallax image correction method according to a third embodiment of the present invention will be described with reference to FIGS.

前記した第1の実施例では、図10に示すように、レンチキュラレンズ29を構成するシリンドリカルレンズ29aは、その延伸方向と、延伸方向と直交しレンズ効果を有する方向とが、画素の配列するY方向ならびにX方向に夫々平行になるように配置される。しかしながら、本発明は、シリンドリカルレンズの配列方向が画素の配列に対して回転配置された3Dディスプレイ20を用いることも可能である。以下に詳細を説明する。   In the first embodiment, as shown in FIG. 10, in the cylindrical lens 29a constituting the lenticular lens 29, the extending direction and the direction orthogonal to the extending direction and having the lens effect are Y in which the pixels are arranged. It is arranged so as to be parallel to the direction and the X direction, respectively. However, the present invention can also use the 3D display 20 in which the arrangement direction of the cylindrical lenses is rotated with respect to the arrangement of the pixels. The details will be described below.

図31は本発明の第3の実施例に係る3Dディスプレイ20の構成の概略図である。図32は本発明の第3の実施例に係る3Dディスプレイ20の機能説明図である。図33は本発明の第3の実施例に係る3Dディスプレイ20の機能説明図である。図31A及びBに本実施例に用いる3Dディスプレイ20を示す。図31に示すように、配列されるシリンドリカルレンズ29aの延伸方向と、表示パネル21の画素124が配列されるY軸方向との間は角度αである。   FIG. 31 is a schematic diagram of the configuration of the 3D display 20 according to the third embodiment of the present invention. FIG. 32 is an explanatory diagram of functions of the 3D display 20 according to the third embodiment of the present invention. FIG. 33 is an explanatory diagram of functions of the 3D display 20 according to the third embodiment of the present invention. FIGS. 31A and 31B show the 3D display 20 used in this embodiment. As shown in FIG. 31, there is an angle α between the extending direction of the arranged cylindrical lenses 29a and the Y-axis direction in which the pixels 124 of the display panel 21 are arranged.

表示パネル21は、図31A及びBに示すように画素124がX方向ならびに、Y方向に複数配列し構成される。表示パネル21は、レンチキュラレンズ29を構成するシリンドリカルレンズ29aの配置に従い、画素124の各々を、左眼用画素24L、右眼用画素24Rとして機能させることにより、観察者へ立体表示を提供することができる。例えば、図31Aの3Dディスプレイ20では図32に示すように、図31Bの3Dディスプレイ20では図33に示すように、配置されるシリンドリカルレンズ29aの光線分離特性に合わせて、画素124を左眼用画素24L、右用画素24Rとして機能させる。なお、図32及び図33に示す画素125は、画素から出る光線がシリンドリカルレンズ29aによって、観察者の右眼側及び左眼側の両方向に分けられる画素である。これらの画素125は、表示パネル内での総数が等しくなるように左眼用画素24L、右眼用画素24Rとして機能させてもよいし、隣接する左眼用画素24Lと右眼用画素24Rの中間輝度を表示する画素として機能させてもよいし、表示させない(黒表示)画素としてもよい。また、図31から図33において、画素を単一に図示しているが、説明の便宜上であり、カラー表示のため、複数のサブ画素から画素124が構成される表示パネルを用いることも可能である。   The display panel 21 is configured by arranging a plurality of pixels 124 in the X direction and the Y direction as shown in FIGS. 31A and 31B. The display panel 21 provides a viewer with a stereoscopic display by causing each of the pixels 124 to function as the left-eye pixel 24L and the right-eye pixel 24R according to the arrangement of the cylindrical lens 29a constituting the lenticular lens 29. Can be. For example, as shown in FIG. 32 in the 3D display 20 of FIG. 31A, and as shown in FIG. 33 in the 3D display 20 of FIG. 31B, the pixel 124 for the left eye is adjusted according to the light beam separation characteristic of the cylindrical lens 29a to be arranged. It functions as the pixel 24L and the right pixel 24R. Note that the pixel 125 shown in FIGS. 32 and 33 is a pixel in which light rays emitted from the pixel are divided by the cylindrical lens 29a in both directions on the right eye side and the left eye side of the observer. These pixels 125 may function as the left-eye pixel 24L and the right-eye pixel 24R so that the total number in the display panel is equal, or the adjacent left-eye pixel 24L and right-eye pixel 24R may be used. The pixel may be made to function as a pixel for displaying intermediate luminance, or may be made a pixel not to display (black display). Although a single pixel is illustrated in FIGS. 31 to 33, for convenience of description, a display panel in which the pixel 124 includes a plurality of sub-pixels can be used for color display. is there.

図34は本発明の第3の実施例のサブ画素の構成を示す具体例である。図34A及びBに、複数のサブ画素から画素124が構成される具体例を示す。図34Aは、画素124をX方向に3分割し、サブ画素126、サブ画素127、サブ画素128を配置した例であり、図34Bは、画素124をY方向に3分割し、サブ画素126、サブ画素127、サブ画素128を配置した例である。図34では、X軸方向に延伸する複数のゲート線G(Gy、Gy+1・・・)、Y軸方向に延伸する複数のデータ線D(Dx、Dx+1・・・)が配置され、ゲート線Gとデータ線Dとで囲まれる領域に画素が形成され、ゲート線Gとデータ線Dの交点付近に配置されるTFTによってサブ画素が駆動される例を示しているが、X軸方向にデータ線Dが延伸し、Y軸方向にゲート線Gが延伸するように配置されても構わない。また、画素124を3つのサブ画素で構成したが、さらに複数のサブ画素から画素124を構成してもよい。   FIG. 34 is a specific example showing the configuration of the sub-pixel according to the third embodiment of the present invention. 34A and 34B show a specific example in which the pixel 124 is composed of a plurality of sub-pixels. FIG. 34A is an example in which the pixel 124 is divided into three in the X direction, and sub-pixels 126, 127, and 128 are arranged. FIG. 34B is a diagram in which the pixel 124 is divided into three in the Y direction. This is an example in which sub-pixels 127 and 128 are arranged. In FIG. 34, a plurality of gate lines G (Gy, Gy + 1...) Extending in the X-axis direction and a plurality of data lines D (Dx, Dx + 1...) Extending in the Y-axis direction are arranged. A pixel is formed in a region surrounded by a data line D and a sub-pixel is driven by a TFT disposed near an intersection of the gate line G and the data line D. D may extend and the gate line G may extend in the Y-axis direction. Further, although the pixel 124 is constituted by three sub-pixels, the pixel 124 may be constituted by a plurality of sub-pixels.

以上のように、画素124が複数のサブ画素から構成されている場合は、図32及び図33に示した画素125は、配置されるシリンドリカルレンズ29aの光線分離特性に合わせて、サブ画素単位で左眼用画素24L又は右眼用画素24Rとして機能させればよい。以降、シリンドリカルレンズ29aが画素配列に対して回転配置されたときの光学特性について説明するが、説明の便宜上、図32から画素125を省いた図35を用いる。   As described above, when the pixel 124 is composed of a plurality of sub-pixels, the pixel 125 shown in FIGS. 32 and 33 is provided in sub-pixel units in accordance with the light beam separation characteristics of the cylindrical lens 29a to be arranged. What is necessary is just to function as the pixel 24L for left eyes or the pixel 24R for right eyes. Hereinafter, optical characteristics when the cylindrical lens 29a is rotated with respect to the pixel array will be described. For convenience of description, FIG. 35 in which the pixels 125 are omitted from FIG. 32 will be used.

図31Aの3Dディスプレイ20の画素124を、図35に示すように、左眼用画素24L、右眼用画素24Rとして機能させることにより、観察者へ立体表示を提供することができる。例えば図35のB-B’のXZ面断面は、図9と同じ断面図で説明できるため、B-B’上の左眼用画素24L又は右眼用画素24Rから出射されシリンドリカルレンズで屈折され観察者へ向かう光の光路は、図5によって説明できる。また、B-B’とはY方向に位置が異なるA-A’又はC-C’の断面も図9によって説明できるが、左眼用画素24L又は右眼用画素24Rは回転角αに従って配置されているため、左眼用画素24L又は右眼用画素24Rの位置は、B-B’と比較するとA-A’では−X方向にC−C’では+X方向にずれる。このため、図5に示す光路もY方向の位置に応じてずれが生じる。したがって、視認される画像へも回転角αの影響が及ぶ。   By making the pixels 124 of the 3D display 20 in FIG. 31A function as the left-eye pixels 24L and the right-eye pixels 24R as shown in FIG. 35, stereoscopic display can be provided to the viewer. For example, since the XZ plane cross section of BB ′ in FIG. 35 can be described with the same cross-sectional view as FIG. 9, the light is emitted from the left-eye pixel 24L or the right-eye pixel 24R on BB ′ and refracted by the cylindrical lens. The optical path of the light going to the observer can be explained with reference to FIG. Further, a cross section of AA ′ or CC ′ that is different in position in the Y direction from BB ′ can also be described with reference to FIG. 9, but the left-eye pixel 24L or the right-eye pixel 24R is arranged according to the rotation angle α. Therefore, the position of the left-eye pixel 24L or the right-eye pixel 24R is shifted in the −X direction in AA ′ and in the + X direction in CC ′ as compared with BB ′. Therefore, the optical path shown in FIG. 5 is shifted according to the position in the Y direction. Therefore, the rotation angle α affects the visually recognized image.

視認される画像への回転角αの影響については、実施例1と同様に撮影手段を用いて撮影される撮影画像を用いて説明する。   The effect of the rotation angle α on the visually recognized image will be described using an image captured using the image capturing unit as in the first embodiment.

図36は図31の構成におけるレンチキュラレンズ29と撮影手段との間隔と撮影画像との対応関係を示す図である。すなわち、本実施例の3Dディスプレイ20と撮影手段80を実施例1の図11と同様に配置したとき、撮影される撮影画像である。図36に示すように、実施例1で説明した図13のように、撮影手段80を3Dディスプレイ20の中心線上に配置し、撮影手段80とレンチキュラレンズ29との間隔Dを変化させた場合の例であり、実施例1の図13に対応する撮影画像である。この場合、本実施例における間隔Dが最適立体視認距離Dop近傍の撮影画像は、図36A及びBに示すように、実施例1と同様、左側に左眼用画素24Lの入力画像と、右側に右眼用画素24Rの入力画像となるが、中央の境界線129は、回転角αに応じてY軸からβ傾いた撮影画像となる。Y軸に対する境界線の傾き角βは、理想的には回転角αと等しいが、レンチキュラレンズ29を実装した際の位置が理想とずれると、実装の位置ずれに応じて回転角αからのずれが生じる。   FIG. 36 is a diagram showing the correspondence between the distance between the lenticular lens 29 and the photographing means and the photographed image in the configuration of FIG. That is, when the 3D display 20 and the photographing unit 80 of the present embodiment are arranged in the same manner as in FIG. As shown in FIG. 36, as shown in FIG. 13 described in the first embodiment, the photographing unit 80 is arranged on the center line of the 3D display 20, and the distance D between the photographing unit 80 and the lenticular lens 29 is changed. This is an example, and is a captured image corresponding to FIG. 13 of the first embodiment. In this case, the captured image in which the interval D in the present embodiment is in the vicinity of the optimum stereoscopic viewing distance Dop is the input image of the left-eye pixel 24L on the left side and the right side on the right side, as in Embodiment 1, as shown in FIGS. Although the input image is the right-eye pixel 24R, the center boundary line 129 is a captured image inclined by β from the Y axis according to the rotation angle α. The inclination angle β of the boundary line with respect to the Y axis is ideally equal to the rotation angle α. However, if the position when the lenticular lens 29 is mounted deviates from the ideal, the deviation from the rotation angle α depends on the mounting position deviation. Occurs.

間隔Dが徐々に小さくなると、実施例1と同様に、図36Cに示すように、二次光の影響を受けて撮影画像の左側に右眼用画素24Rの入力画像が出現し、右側に左眼用画素24Lの入力画像が出現する。更に、間隔Dが小さくなると、図36D及びEに示すように、三次光の影響を受けて、撮影画像の左側に左眼用画素24Lの入力画像が出現し、右側に右眼用画素24Rの入力画像が出現する。すなわち、実施例1の図14と同様に、撮影手段80とレンチキュラレンズ29との間隔Dが最適立体視認距離Dopに比べて小さくなるほど、二次光又は三次光等の高次光の影響を受けて、撮影画像が左眼用画素24Lの入力画像と右眼用画素24Rの入力画像の繰り返しになる。   When the interval D gradually decreases, as in the first embodiment, as shown in FIG. 36C, the input image of the right-eye pixel 24R appears on the left side of the captured image under the influence of the secondary light, and the left side on the right side. The input image of the eye pixel 24L appears. Further, when the interval D is reduced, as shown in FIGS. 36D and 36E, the input image of the left-eye pixel 24L appears on the left side of the captured image under the influence of the tertiary light, and the right-eye pixel 24R on the right side. The input image appears. That is, similarly to FIG. 14 of the first embodiment, as the distance D between the photographing unit 80 and the lenticular lens 29 is smaller than the optimal stereoscopic viewing distance Dop, the distance D is affected by higher-order light such as secondary light or tertiary light, The captured image is a repetition of the input image of the left-eye pixel 24L and the input image of the right-eye pixel 24R.

また、実施例1で説明した撮影手段80を3Dディスプレイ20の中心線に対して右側(右眼側)にずらして配置し、撮影手段80とレンチキュラレンズ29との間隔Dを変化させた場合(図15)、及び、撮影手段80を3Dディスプレイ20の中心線に対して左側(左眼側)にずらして配置し、撮影手段80とレンチキュラレンズ29との間隔Dを変化させた場合(図18)の撮影画像については、上記と同様に、左眼用画素24Lの入力画像と、右側に右眼用画素24Rの入力画像の境界線129が、Y軸から傾き角βとなる以外は同じであるため説明を略す。   In addition, when the photographing unit 80 described in the first embodiment is displaced to the right (to the right eye) with respect to the center line of the 3D display 20, and the distance D between the photographing unit 80 and the lenticular lens 29 is changed ( (FIG. 15), and the case where the photographing unit 80 is shifted to the left (left eye side) with respect to the center line of the 3D display 20, and the distance D between the photographing unit 80 and the lenticular lens 29 is changed (FIG. 18). ) Is the same as described above except that the boundary line 129 between the input image of the left-eye pixel 24L and the input image of the right-eye pixel 24R on the right has an inclination angle β from the Y axis. Description is omitted because there is.

次に、図31Aに例示した本実施例の3Dディスプレイ20と空間結像素子30とを組み合わせた場合について説明する。なお、以下では、空間結像素子30を、2面コーナーリフレクタとなる柱又は孔が平板の主面の法線に対して傾斜するように形成された構成とし、空間結像素子30の平面が3Dディスプレイ20の表示面に対して平行となるように配置されるものとする。   Next, a case where the 3D display 20 of the present embodiment illustrated in FIG. 31A and the spatial imaging element 30 are combined will be described. In the following, the spatial imaging element 30 has a configuration in which a pillar or a hole serving as a dihedral corner reflector is formed so as to be inclined with respect to the normal to the main surface of the flat plate. It is assumed that they are arranged so as to be parallel to the display surface of the 3D display 20.

実施例1と同様、図21Bの左側に示すように、左眼用画素24Lに星形のオブジェクト71が中央のやや右側に配置された入力画像を表示させ、右眼用画素24Rに、図21Bの右側に示すように、星形のオブジェクト71が中央のやや左側に配置された入力画像を表示させた場合、空中に星形のオブジェクト71が飛び出したように視認される飛び出し視差となる。   As in the first embodiment, as shown on the left side of FIG. 21B, an input image in which the star-shaped object 71 is arranged slightly to the right of the center is displayed on the left-eye pixel 24L, and the right-eye pixel 24R is displayed on the left-eye pixel 24R. As shown on the right side, when an input image in which the star-shaped object 71 is arranged slightly to the left in the center is displayed, the parallax is a pop-out parallax in which the star-shaped object 71 is visually recognized as popping out in the air.

これに対して、例えば、図37Aに示す(実施例1の図22と同様)ように、D=0.5×Dopの位置に空間結像素子30を配置した場合、空間結像素子30の位置に仮想的に配置した仮想カメラで撮影される画像は、図37Bのようになる。ここで、空間結像素子30は反射光学系であり、空間結像素子30から出射される光線は、入射方向と同じ方向になるため、観察者が見る画像は左右が入れ替わる。その結果、観察者が見る画像は図37Cのようになり、実施例1で説明したように、飛び出し視差が奥行き視差になる、いわゆる逆視が生じる。   On the other hand, for example, as shown in FIG. 37A (similar to FIG. 22 of the first embodiment), when the spatial imaging element 30 is arranged at a position of D = 0.5 × Dop, the spatial imaging element 30 An image captured by a virtual camera virtually arranged at the position is as shown in FIG. 37B. Here, the spatial imaging element 30 is a reflection optical system, and the light emitted from the spatial imaging element 30 is in the same direction as the incident direction, so that the image viewed by the observer is switched left and right. As a result, the image viewed by the observer is as shown in FIG. 37C, and as described in the first embodiment, so-called reverse vision, in which the pop-out parallax becomes the depth parallax, occurs.

このように、本実施例の3Dディスプレイ20と空間結像素子30とを組み合わせた場合も、実施例1と同様に逆視が生じる。   Thus, even when the 3D display 20 of the present embodiment and the spatial imaging element 30 are combined, pseudoscopy occurs as in the first embodiment.

本実施例の立体表示装置10の構成は、上記3Dディスプレイ20が異なる以外は実施例1と同じである。すなわち、図31に示す3Dディスプレイ20が図8に配置される。したがって、実施例1と同様に画像処理部50を設け、画像信号入力部40から入力される入力画像の逆視が生じる領域を左右反転させる画像処理を行い、画像処理後の画像データを3Dディスプレイ20に出力するようにする。   The configuration of the stereoscopic display device 10 of the present embodiment is the same as that of the first embodiment except that the 3D display 20 is different. That is, the 3D display 20 shown in FIG. 31 is arranged in FIG. Therefore, the image processing unit 50 is provided in the same manner as in the first embodiment, the image processing is performed to horizontally reverse the area where the reverse vision of the input image input from the image signal input unit 40 occurs, and the image data after the image processing is displayed on the 3D display. 20.

この画像処理部50の構成は、実施例1と同じ構成を適用できるため詳細説明を略す。本実施例の視差画像補正方法について、実施例1のフローチャートである図24及び図38に示す本発明の第3の実施例に係る立体表示装置10における視差画像補正方法を説明する模式図を用いて説明する。   As the configuration of the image processing unit 50, the same configuration as that of the first embodiment can be applied, detailed description is omitted. Regarding the parallax image correcting method of the present embodiment, a schematic diagram for explaining the parallax image correcting method in the stereoscopic display device 10 according to the third embodiment of the present invention shown in FIGS. Will be explained.

まず、視差画像領域抽出部52は、画像信号入力部40から入力画像(2視点分の撮影画像若しくは1視点分の撮影画像と仮想視点画像のセット)を取得する(ステップS101)。ここでは、図38Aに示すように、メインローブ画像に逆視が生じているものとする。このとき、3D正視領域と3D逆視領域の境界線は、実施例1と異なり、図34に示した傾き角βに応じて、傾き角γとなる。傾き角γは理想的には傾き角βと等しくなるが、空間結像素子の特性(2面コーナーリフレクタのミラー表面粗さ又はミラー組立精度、反射率など)によっては、立体表示装置の表示像と空中浮遊像の寸法にずれが生じるため、傾き角βからのずれが生じる場合がある。   First, the parallax image area extraction unit 52 acquires an input image (a captured image for two viewpoints or a set of a captured image for one viewpoint and a virtual viewpoint image) from the image signal input unit 40 (Step S101). Here, as shown in FIG. 38A, it is assumed that the main lobe image has a pseudo-vision. At this time, the boundary line between the 3D normal viewing region and the 3D reverse viewing region is different from the first embodiment, and becomes the tilt angle γ according to the tilt angle β shown in FIG. The inclination angle γ is ideally equal to the inclination angle β. However, depending on the characteristics of the spatial imaging element (mirror surface roughness of the two-sided corner reflector, mirror assembly accuracy, reflectance, etc.), the display image of the stereoscopic display device may be changed. And the size of the floating image in the air, there is a case where a difference from the inclination angle β occurs.

次に、視差画像領域抽出部52は、領域パラメータ格納部56から所定の条件を取得し、所定の条件に基づいて視差画像領域を抽出する(ステップS102)。ここでは、視差画像領域としてメインローブ画像の領域を抽出する。領域抽出の際に用いる境界線のパラメータとしては、回転角α又は傾き角βを用いることもできるが、立体表示装置に実際用いる3Dディスプレイ20と空間結像素子30とを組み合わせ、空中浮遊像から実測した傾き角γの適用が好ましい。   Next, the parallax image region extraction unit 52 acquires a predetermined condition from the region parameter storage unit 56, and extracts a parallax image region based on the predetermined condition (Step S102). Here, the area of the main lobe image is extracted as the parallax image area. The rotation angle α or the inclination angle β can be used as the parameter of the boundary line used in the region extraction. However, the 3D display 20 and the spatial imaging element 30 actually used in the stereoscopic display device are combined, and the It is preferable to apply the actually measured inclination angle γ.

次に、画像データ入替部53は、視差画像領域の左眼用画像と右眼用画像との入れ替えを行う(ステップS103)。例えば、図38Bに示すように、入力画像の左眼用画像がL、L及びLで構成され、右眼用画像がR、R及びRで構成されている場合、左眼用画像のメインローブ画像RBと、右眼用画像のメインローブ画像LBとを入れ替える。 Next, the image data exchange unit 53 exchanges the image for the left eye and the image for the right eye in the parallax image area (Step S103). For example, as shown in FIG. 38B, when the left eye image of the input image is composed of L A, L B, and L C, the right-eye image is composed of R A, R B and R C, left The main lobe image RB of the image for the eye and the main lobe image LB of the image for the right eye are exchanged.

そして、画像データ入替部53は、視差画像領域の左眼用画像と右眼用画像との入れ替えを行った画像データを3Dディスプレイ20に出力し、3Dディスプレイ20はその画像データに基づいて、表示パネル21に画像を表示する(ステップS104)。ここでは、逆視が生じるメインローブの左眼用画像と右眼用画像とが入れ替えられているため、図38Cに示すように、観察者は全ての領域が3D正視領域となった空中浮遊像を視認することができる。   Then, the image data replacing unit 53 outputs the image data in which the image for the left eye and the image for the right eye in the parallax image area have been exchanged to the 3D display 20, and the 3D display 20 displays based on the image data. An image is displayed on panel 21 (step S104). In this case, since the image for the left eye and the image for the right eye of the main lobe where pseudoscopy occurs are exchanged, as shown in FIG. 38C, the observer views the airborne image in which all the regions are 3D normal viewing regions. Can be visually recognized.

なお、上記では、左右各々の入力画像が左右及び中央の3つの画像で構成される場合について記載したが、実施例1で図26を用いて説明したように、左右各々の入力画像が複数の領域で構成される場合に対しても同様に適用することができる。   Note that, in the above description, the case where each of the left and right input images is composed of three images of the left and right and the center has been described. However, as described with reference to FIG. The same can be applied to a case where the region is constituted by regions.

また、本実施例の立体表示装置へ、実施例2の画像処理部の適応も可能であり、実施例2で説明した視差画像補正方法を適用することも可能である。   Further, the image processing unit of the second embodiment can be applied to the stereoscopic display device of the present embodiment, and the parallax image correction method described in the second embodiment can be applied.

さらに、第1及び第2の実施例と同様に、EVS角度及び空間結像素子30と観察者との距離は、観察者の位置に伴って変化するため、立体表示装置10にカメラを設置し、画像処理部50が、適宜カメラから観察者を撮影した画像を取得し、撮影画像から特徴点を抽出して両眼の位置を検出し、両眼の位置及び間隔などに基づいて、EVS角度及び空間結像素子30と観察者との距離を特定して領域パラメータ格納部56に格納すればよい。また、所定の条件として、表示パネル21の特性又はレンチキュラレンズ29の特性などの他の条件を利用することができる。また、空間結像素子30の特性に関する所定の条件として、空間結像素子30を構成する2面コーナーリフレクタのミラー表面粗さ、ミラー組立精度又は反射率などを利用することもできる。   Further, similarly to the first and second embodiments, since the EVS angle and the distance between the spatial imaging element 30 and the observer change according to the position of the observer, a camera is installed on the stereoscopic display device 10. The image processing unit 50 appropriately obtains an image of the observer from the camera, extracts feature points from the captured image to detect the positions of both eyes, and calculates the EVS angle based on the positions and intervals of both eyes. The distance between the spatial imaging element 30 and the observer may be specified and stored in the area parameter storage unit 56. In addition, other conditions such as the characteristics of the display panel 21 or the characteristics of the lenticular lens 29 can be used as the predetermined conditions. In addition, as the predetermined condition regarding the characteristics of the spatial imaging element 30, the mirror surface roughness, mirror assembly accuracy, reflectance, or the like of the dihedral corner reflector constituting the spatial imaging element 30 can be used.

このように、入力画像から逆視が生じる視差画像領域を抽出し、その視差画像領域に対応する左眼用画像と右眼用画像とを入れ替えることにより、空中浮遊像に3D正視領域と3D逆視領域とが交互に出現するという問題を回避することができる。   As described above, the parallax image region in which reverse vision occurs is extracted from the input image, and the left-eye image and the right-eye image corresponding to the parallax image region are exchanged, so that the 3D normal viewing region and the 3D inverse The problem that the viewing region and the viewing region appear alternately can be avoided.

なお、本実施例に用いる表示パネル21は、液晶表示素子、有機EL(Electro Luminescence)素子、量子ドット素子又はフィールドエミッション素子など、様々な表示素子を用いることができる。また、表示パネル21の駆動方法は、TFT等を用いたアクティブマトリクス方式に限らず、パッシブマトリクス方式でもよい。   The display panel 21 used in this embodiment can use various display elements such as a liquid crystal display element, an organic EL (Electro Luminescence) element, a quantum dot element, and a field emission element. Further, the driving method of the display panel 21 is not limited to the active matrix method using a TFT or the like, but may be a passive matrix method.

本発明の第4の実施例に係る立体表示装置及び視差画像補正方法について、図39乃至図44を参照して説明する。   A stereoscopic display apparatus and a parallax image correction method according to a fourth embodiment of the present invention will be described with reference to FIGS.

図39は、本実施例の立体表示装置130の構成を示す斜視図である。図40は観察者の移動に応じたPxの値を説明する図である。図41は観察者の移動に応じて観察する視認画像と逆視領域を示す図である。図42は本発明の第4の実施例に係る立体表示装置における画像処理部、視点位置検出部の構成例を示すブロック図である。   FIG. 39 is a perspective view illustrating the configuration of the stereoscopic display device 130 according to the present embodiment. FIG. 40 is a diagram illustrating the value of Px according to the movement of the observer. FIG. 41 is a diagram illustrating a visual recognition image observed in accordance with the movement of the observer and a pseudoscopic region. FIG. 42 is a block diagram illustrating a configuration example of an image processing unit and a viewpoint position detection unit in a stereoscopic display device according to a fourth embodiment of the present invention.

図39に示すように、本実施例の立体表示装置130は、3Dディスプレイ20と空間結像素子30と画像信号入力部140と画像処理部150と、空間結像素子30と観察者との位置関係を検出するための手段である視点位置検出部160から構成される。   As shown in FIG. 39, the three-dimensional display device 130 of the present embodiment includes the 3D display 20, the spatial imaging device 30, the image signal input unit 140, the image processing unit 150, and the positions of the spatial imaging device 30 and the observer. It is composed of a viewpoint position detecting section 160 which is a means for detecting the relationship.

3Dディスプレイ20は、第1及び第3の実施例で説明したものを用いることができ、詳細説明は略す。また、以降、説明の便宜上、本実施例に実施例1の3Dディスプレイ20を用いた例で説明する。   As the 3D display 20, those described in the first and third embodiments can be used, and detailed description is omitted. Hereinafter, for convenience of explanation, an example in which the 3D display 20 of the first embodiment is used in the present embodiment will be described.

図39に空中浮遊像からの法線を示し、観察者が空中浮遊像を好適に立体視できる法線上の距離をLpとする。また、X軸と平行な軸上における観察者の左眼位置60と右眼位置61との中点をPxとする。次に、図39に示す空中浮遊像と観察者を真上から観察した図40を用い、観察者が空中浮遊像との距離Lpを保ちながら移動した場合のPxの値について説明する。図40Bに示すように、観察者が空中浮遊像に対して中心位置にいるときのPxの値を0とし、図40Aのように、観察者が左に移動した場合のPxの値を負とし、図40Cのように、観察者が右に移動した場合のPxの値を正とする。このPxを用いて、観察位置VPxを以下の式で定義する。   FIG. 39 shows a normal line from the airborne image, and the distance on the normal line at which the observer can suitably view the airborne image in a stereoscopic manner is denoted by Lp. Further, the midpoint between the left eye position 60 and the right eye position 61 of the observer on an axis parallel to the X axis is Px. Next, the value of Px when the observer moves while maintaining the distance Lp from the airborne image to the airborne image shown in FIG. 39 and the observer from directly above will be described with reference to FIG. As shown in FIG. 40B, the value of Px when the observer is at the center position with respect to the airborne image is set to 0, and the value of Px when the observer moves to the left as shown in FIG. 40A is set to negative. 40C, the value of Px when the observer moves right is assumed to be positive. Using this Px, the observation position VPx is defined by the following equation.

VPx=Px/Lp ・・・・・式(1)   VPx = Px / Lp Expression (1)

次に、観察者がX軸と平行な軸上を移動する場合の視認画像について説明する。図41は、3Dディスプレイ20の右眼用画素と左眼用画素に異なる入力画像を入れたとき、観察者が図39に示すX軸との平行移動に応じて観察する視認画像と、逆視領域を示す図である。ここで、観察位置の値には、式(1)で算出されるVPxの値を用いる。   Next, a visual recognition image when the observer moves on an axis parallel to the X axis will be described. FIG. 41 is a view showing a visual image observed by the observer in accordance with the parallel movement with respect to the X axis shown in FIG. 39 when different input images are input to the right-eye pixel and the left-eye pixel of the 3D display 20, and the reverse vision It is a figure showing an area. Here, the value of VPx calculated by Expression (1) is used as the value of the observation position.

例えば、VPx=0のとき、左眼の視認画像は、実施例1で図25Bによって説明したものと同じであり、中央部には、逆視が生じるメインローブの右眼用画像が視認され、その左右両端にはサイドローブの左眼用画像が視認される。また、VPx=0のとき、右眼の視認画像は、中央部には、逆視が生じるメインローブの左眼用画像が視認され、その左右両端にはサイドローブの右眼用画像が視認される。   For example, when VPx = 0, the image visually recognized by the left eye is the same as that described with reference to FIG. 25B in the first embodiment, and the right-eye image of the main lobe where pseudoscopy occurs in the center is visually recognized. The left-eye images of the side lobes are visually recognized at the left and right ends. Further, when VPx = 0, the right-eye image of the right eye is visually recognized in the center, the left-eye image of the main lobe in which pseudoscopy occurs, and the right-eye image of the side lobe is visually recognized on both left and right ends. You.

観察者が右方向へ移動すると、逆視が生じるメインローブ画像も右方向へ移動し、両端のサイドローブ画像も右へ移動する。このとき、実施例1の図17及び図20に示すように、メインローブの画像(一次光による画像)とサイドローブの画像(高次光による画像)は、X方向に繰り返して出現するため、メインローブ画像に対して左側のサイドローブ画像のさらに左側に再びメインローブ画像が出現する。具体的には、VPx=+0.022において、左眼の視認画像は、左端から順に、メインローブの右眼用画像、サイドローブの左眼用画像、メインローブの右眼用画像、サイドローブの左眼用画となり、右眼の視認画像は、左端から順に、メインローブの左眼用画像、サイドローブの右眼用画像、メインローブの左眼用画像、サイドローブの右眼用画となる。このため、VPx=+0.022において、逆視領域はVPx=0の逆視領域が右側に移動した領域に加え、左端にも出現する。つまり、観察者が観察位置を変えると、図41に示すように視認画像が変化するため、逆視領域も変化する。   When the observer moves rightward, the main lobe image in which pseudopsis occurs also moves rightward, and the side lobe images at both ends also move rightward. At this time, as shown in FIG. 17 and FIG. 20 of the first embodiment, the image of the main lobe (the image by the primary light) and the image of the side lobe (the image by the high-order light) appear repeatedly in the X direction. The main lobe image appears again to the left of the left side lobe image with respect to the image. Specifically, at VPx = + 0.022, the left-eye visual images are, in order from the left end, the right-eye image of the main lobe, the left-eye image of the side lobe, the right-eye image of the main lobe, and the side lobe image. The left-eye image and the right-eye visual image are, in order from the left end, the left image of the main lobe, the right-eye image of the side lobe, the left-eye image of the main lobe, and the right-eye image of the side lobe. . Therefore, when VPx = + 0.022, the pseudoscopic region appears at the left end in addition to the region where the pseudoscopic region of VPx = 0 has moved to the right. That is, when the observer changes the observation position, the visual recognition image changes as shown in FIG. 41, so that the pseudoscopic region also changes.

このように、観察者の位置に応じて、逆視が生じる位置が変化することから、本実施例の立体表示装置130では、視点位置検出部160をさらに設けることで、観察者の位置に応じた逆視領域を求め、画像信号入力部40から入力される入力画像に対して、その求めた逆視領域に対して左右反転させる(逆視が生じる領域の左眼用画像と右眼用画像とを入れ替える)画像処理を行い、画像処理後の画像データを3Dディスプレイ20に出力するようにする。   As described above, since the position at which pseudoscopy occurs varies according to the position of the observer, the stereoscopic display device 130 according to the present embodiment further includes the viewpoint position detection unit 160, so that the three-dimensional display device 130 responds to the position of the observer. The left-right image and the right-eye image of the area where the reverse vision is generated are obtained by reversing the input image input from the image signal input unit 40. Is performed), and the image data after the image processing is output to the 3D display 20.

この視点位置検出部160は、図42に示すように、観察者撮影部161と、両眼位置検出部162とで構成される。また、画像処理部150は、図42に示すように、視差画像補正部51、領域パラメータ格納部164及び相対位置算出部163から構成される。   As shown in FIG. 42, the viewpoint position detection unit 160 includes an observer imaging unit 161 and a binocular position detection unit 162. The image processing unit 150 includes a parallax image correction unit 51, an area parameter storage unit 164, and a relative position calculation unit 163, as shown in FIG.

観察者撮影部161は、視点位置検出部160から観察者の両眼までの三次元座標を測定するために、観察者の画像を撮影する手段であり、可視光カメラ、可視光カメラと赤外線カメラの組合せ又は複数のカメラを用いることができる。   The observer photographing unit 161 is a unit for photographing an image of the observer in order to measure three-dimensional coordinates from the viewpoint position detecting unit 160 to both eyes of the observer, and includes a visible light camera, a visible light camera, and an infrared camera. Or multiple cameras can be used.

両眼位置検出部162は、観察者撮影部161で取得された画像データを基に観察者両眼の三次元座標を算出する。算出方法は観察者撮影部161によって異なり、例えば、可視光カメラ1台のみの場合は、撮影画像内の顔の特徴点から両眼位置を算出し、顔の大きさによって距離を算出する。可視光カメラと赤外線カメラの組合せの場合は、可視光カメラ撮影画像内の顔の特徴点から両眼位置を算出し、パターン発光させた赤外光の撮影画像から距離を算出、または、投光した赤外線が戻る時間を計測する方式(TOF方式:Time Of Flight 光の飛行時間)によって距離を算出する。複数のカメラを用いる場合は、撮影画像内の顔の特徴点から両眼位置を算出し、三角法によって距離を算出する。   The binocular position detector 162 calculates the three-dimensional coordinates of the observer's eyes based on the image data acquired by the observer imager 161. The calculation method differs depending on the observer imaging unit 161. For example, when only one visible light camera is used, the binocular position is calculated from the feature points of the face in the captured image, and the distance is calculated based on the size of the face. In the case of a combination of a visible light camera and an infrared camera, the positions of both eyes are calculated from the feature points of the face in the image captured by the visible light camera, and the distance is calculated from the captured image of the infrared light emitted with the pattern, or the light is projected. The distance is calculated by a method of measuring the time when the infrared rays return (TOF method: Time of Flight). When a plurality of cameras are used, the positions of both eyes are calculated from the feature points of the face in the captured image, and the distance is calculated by trigonometry.

上記のようにして、算出された視点位置検出部160から観察者両眼までの測定値が、相対位置算出部163へ入力される。相対位置算出部163では、取得した測定値と、立体表示装置130の視点位置検出部160の設置位置等の設計パラメータとを基に、空中浮遊像と観察者の位置関係(図39に示す距離Lp、及び両眼中心位置Px)を算出し、算出結果を領域パラメータ格納部に出力する。出力された空中浮遊像と観察者の位置関係が、領域パラメータ格納部164に格納される。   As described above, the measured values from the viewpoint position detecting unit 160 to the observer's both eyes are input to the relative position calculating unit 163. The relative position calculator 163 uses the acquired measurement values and design parameters such as the installation position of the viewpoint position detector 160 of the stereoscopic display device 130 to determine the positional relationship between the airborne image and the observer (the distance shown in FIG. 39). Lp and the binocular center position Px) are calculated, and the calculation result is output to the area parameter storage unit. The outputted positional relationship between the airborne image and the observer is stored in the area parameter storage unit 164.

本実施例の視差画像補正部51は、実施例1と同じであり、視差画像領域抽出部52と画像データ入替部53とで構成される。   The parallax image correction unit 51 of the present embodiment is the same as that of the first embodiment, and includes a parallax image area extraction unit 52 and an image data replacement unit 53.

視差画像補正部51の視差画像領域抽出部52は、画像信号入力部40から2視点分の撮影画像若しくは1視点分の撮影画像と仮想視点画像のセットを取得し、領域パラメータ格納部164から、空中浮遊像と観察者の位置関係(図37に示す距離Lp、及び両眼中心位置Px)、3Dディスプレイ20と空間結像素子30の距離、空間結像素子30のアスペクト比などの所定の条件を読み出し、所定の条件の内の少なくとも1つの条件に基づいて、逆視が生じる領域(視差画像領域)を抽出する。例えば、図41に示すように、観察位置に応じた逆視領域を抽出する。   The parallax image area extraction unit 52 of the parallax image correction unit 51 acquires a set of a captured image for two viewpoints or a captured image for one viewpoint and a virtual viewpoint image from the image signal input unit 40, and Predetermined conditions such as the positional relationship between the airborne image and the observer (the distance Lp and the binocular center position Px shown in FIG. 37), the distance between the 3D display 20 and the spatial imaging element 30, the aspect ratio of the spatial imaging element 30, and the like. Is read, and an area (parallax image area) in which pseudopsis occurs is extracted based on at least one of predetermined conditions. For example, as shown in FIG. 41, a pseudoscopic region corresponding to the observation position is extracted.

なお、観察者の位置に伴って変化するEVS角度及び空間結像素子30と観察者との距離は、視点位置検出部160と相対位置算出部163によって算出された空中浮遊像と観察者の位置関係により算出することができる。これらの観察者位置に対する変化率を領域パラメータ格納部164に格納しておけばよい。また、所定の条件として、表示パネル21の特性又はレンチキュラレンズ29の特性などの他の条件を利用することができる。また、空間結像素子30の特性に関する所定の条件として、空間結像素子30を構成する2面コーナーリフレクタのミラー表面粗さ、ミラー組立精度又は反射率などを利用することもできる。   The EVS angle that changes with the position of the observer and the distance between the spatial imaging element 30 and the observer are calculated based on the floating image in the air calculated by the viewpoint position detector 160 and the relative position calculator 163 and the position of the observer. It can be calculated by the relation. The rate of change for these observer positions may be stored in the area parameter storage unit 164. In addition, other conditions such as the characteristics of the display panel 21 or the characteristics of the lenticular lens 29 can be used as the predetermined conditions. In addition, as the predetermined condition regarding the characteristics of the spatial imaging element 30, the mirror surface roughness, mirror assembly accuracy, reflectance, or the like of the dihedral corner reflector constituting the spatial imaging element 30 can be used.

画像データ入替部53は、入力画像から視差画像領域抽出部52が抽出した視差画像領域に対応する左眼用画像と右眼用画像とを特定し、それらを入れ替えた画像データを生成し、生成した画像データを3Dディスプレイ20に出力する。例えば、図41に示す左眼用入力画像の逆視領域画像と、右眼用入力画像の逆視領域画像を特定し、それらを入れ替えた画像データを生成し3Dディスプレイ20に出力する。   The image data replacement unit 53 specifies a left-eye image and a right-eye image corresponding to the parallax image region extracted by the parallax image region extraction unit 52 from the input image, and generates image data by exchanging them. The output image data is output to the 3D display 20. For example, it identifies the pseudo-view area image of the input image for the left eye and the pseudo-view area image of the input image for the right eye shown in FIG. 41, generates image data in which these are interchanged, and outputs the image data to the 3D display 20.

以上で説明した本実施例の構成以外は、実施例1と同じ構成であるため詳細説明は省略する。   Except for the configuration of the present embodiment described above, the configuration is the same as that of the first embodiment, and a detailed description thereof will be omitted.

図43は本発明の第4の実施例に係る立体表示装置10における視差画像補正方法を示すフローチャート図である。図39及び図42に示す視点位置検出部160、及び画像処理部150を用いた視差画像補正方法について、図43のフローチャート図を用いて以下に説明する。   FIG. 43 is a flowchart illustrating a parallax image correction method in the stereoscopic display device 10 according to the fourth embodiment of the present invention. A method for correcting a parallax image using the viewpoint position detection unit 160 and the image processing unit 150 shown in FIGS. 39 and 42 will be described below with reference to the flowchart in FIG.

まず、画像処理部150は、画像信号処理部40から入力画像(2視点分の撮影画像若しくは1視点分の撮影画像と仮想視点画像のセット)を取得する(ステップS401)。次に視点位置検出部160では、観察者撮影部161で撮影された画像から、両眼位置検出部162において、観察者両眼位置を検出する(ステップS402)。画像処理部150では、視点位置検出部160で検出された両眼位置に基づき、相対位置算出部163において、空中浮遊像と観察者の位置関係(距離Lp、両眼中心位置Px)が算出され、領域パラメータ格納部164に出力される(ステップS403)。なお、観察者が撮影範囲にいないため空中浮遊像と観察者の位置関係を算出できない場合には、以前に算出された位置関係、あるいは、理想的な位置関係を領域パラメータ格納部164に出力すればよい。   First, the image processing unit 150 acquires an input image (a captured image for two viewpoints or a set of a captured image for one viewpoint and a virtual viewpoint image) from the image signal processing unit 40 (step S401). Next, in the viewpoint position detecting section 160, the binocular position detecting section 162 detects the observer's binocular position from the image photographed by the observer photographing section 161 (step S402). In the image processing unit 150, the relative position calculation unit 163 calculates the positional relationship between the airborne image and the observer (distance Lp, binocular center position Px) based on the binocular position detected by the viewpoint position detection unit 160. Is output to the area parameter storage unit 164 (step S403). If the observer is not in the photographing range and cannot calculate the positional relationship between the airborne image and the observer, the previously calculated positional relationship or the ideal positional relationship is output to the area parameter storage unit 164. I just need.

次に、視差画像領域抽出部52は、領域パラメータ格納部164から観察者の位置関係を含む所定の条件を取得し、これらに基づいて視差画像領域を抽出する(ステップS404)。ここでは、視差画像領域として、図41に例示するように観察者の位置によって変化する逆視領域を抽出する。次にステップS401で取得した入力画像について、抽出された逆視領域の左眼用画像と右眼用画像との入れ替えを行う(ステップS405)。例えば、図41に示す左眼用入力画像の逆視領域画像と右眼画像入力画像の逆視領域画像とを入れ替える。   Next, the parallax image region extracting unit 52 acquires predetermined conditions including the positional relationship of the observer from the region parameter storage unit 164, and extracts a parallax image region based on these (Step S404). Here, as the parallax image area, a pseudoscopic area that changes depending on the position of the observer is extracted as illustrated in FIG. 41. Next, with respect to the input image acquired in step S401, the image for the left eye and the image for the right eye in the extracted pseudoscopic region are exchanged (step S405). For example, the reverse view area image of the left-eye input image and the reverse view area image of the right-eye input image shown in FIG. 41 are exchanged.

そして、画像データ入替部53は、視差画像領域の左眼用画像と右眼用画像との入れ替えを行った画像データを3Dディスプレイ20に出力し、3Dディスプレイ20はその画像データに基づいて、表示パネル21に画像を表示する(ステップS406)。ここで、逆視が生じる左眼用画像と右眼用画像とが入れ替えられているため、観察者は全ての領域が3D正視領域となった空中浮遊像を視認することができる。   Then, the image data replacing unit 53 outputs the image data in which the image for the left eye and the image for the right eye in the parallax image area have been exchanged to the 3D display 20, and the 3D display 20 displays based on the image data. An image is displayed on panel 21 (step S406). Here, since the image for the left eye and the image for the right eye in which the pseudopsis are generated are exchanged, the observer can visually recognize the floating image in the air in which all the regions are 3D normal viewing regions.

なお、上記では、図41の例を用い、VPx=0において左右各々の入力画像が左右及び中央の3つの画像で構成される場合を示したが、実施例1で説明したように、左右各々の入力画像が複数の領域で構成される場合に対しても同様に適用することができる。   In the above description, using the example of FIG. 41, the case where each input image on the left and right is composed of three images on the left and right and at the center when VPx = 0 is shown, but as described in the first embodiment, The same can be applied to a case where the input image is composed of a plurality of regions.

このように、観察者の位置を検出し、観察者の位置に応じて入力画像から逆視が生じる視差画像領域を抽出し、その視差画像領域に対応する左眼用画像と右眼用画像とを入れ替えることにより、観察者が移動した場合でも、空中浮遊像に3D正視領域と3D逆視領域とが交互に出現するという問題を回避することができる。   In this manner, the position of the observer is detected, a parallax image region where reverse vision occurs is extracted from the input image according to the position of the observer, and a left-eye image and a right-eye image corresponding to the parallax image region are extracted. , The problem that the 3D normal viewing region and the 3D reverse viewing region alternately appear in the airborne image can be avoided even when the observer moves.

なお、本実施例の立体表示装置に実施例1の3Dディスプレイ20を用いて説明したが、実施例3の3Dディスプレイ20を用いることも可能である。実施例3の3Dディスプレイ20を用いる場合は、逆視領域の形成する境界線を3Dディスプレイ20の特性に合わせた傾きとすればよい。   Note that the 3D display 20 according to the first embodiment has been described as the stereoscopic display device according to the present embodiment, but the 3D display 20 according to the third embodiment may be used. When the 3D display 20 according to the third embodiment is used, the boundary formed by the pseudoscopic region may be set to have an inclination that matches the characteristics of the 3D display 20.

また、本実施例で説明した観察者の位置を検出し、観察者の位置に応じて入力画像から逆視が生じる視差画像領域を抽出する処理を実施例2に適用することも可能である。この場合のフローチャートを図44に示す。   Further, the processing of detecting the position of the observer described in the present embodiment and extracting the parallax image region where reverse vision occurs from the input image according to the position of the observer can be applied to the second embodiment. FIG. 44 shows a flowchart in this case.

なお、本発明は上記各実施例に限定されるものではなく、本発明の趣旨を逸脱しない限りにおいて、その構成又は制御は適宜変更可能である。   Note that the present invention is not limited to the above embodiments, and the configuration or control thereof can be appropriately changed without departing from the spirit of the present invention.

本発明は、3D画像を空中に結像した空中浮遊像を生成する立体表示装置及び当該立体表示装置における視差画像補正方法並びに視差画像補正プログラム並びに当該視差画像補正プログラムを記録した記録媒体に利用可能である。   INDUSTRIAL APPLICABILITY The present invention is applicable to a stereoscopic display device that generates a floating image in the air by forming a 3D image in the air, a parallax image correction method and a parallax image correction program in the stereoscopic display device, and a recording medium that stores the parallax image correction program. It is.

10 立体表示装置
20 3Dディスプレイ
20a 中心
21 表示パネル
22 バックライト
23 第1光学フィルム
24 TFT基板
24R 右眼用画素
24L 左眼用画素
25 液晶層
26 対向基板
27 第2光学フィルム
28 接着層
29 光学手段(レンチキュラレンズ)
29a、29L、29C、29R シリンドリカルレンズ
30 空間結像素子
40 画像信号入力部
50 画像処理部
51 視差画像補正部
52 視差画像領域抽出部
53 画像データ入替部
54 奥行き情報抽出部
55 視差量調整部
56 領域パラメータ格納部
60 左眼の位置
61 右眼の位置
62 左眼用画像領域
63 右眼用画像領域
71 オブジェクト
80 撮影手段
81 撮影中心
90 3次元空中映像表示装置
91 実鏡映像結像光学系(2面コーナーリフレクタアレイ)
91a 2面コーナーリフレクタ
92 被投影物
93 体積走査型3次元空中映像ディスプレイ装置
94 2次元ディスプレイ
95 駆動手段
124、125 画素
126、127、128 サブ画素
129 境界線
130 立体表示装置
140 画像信号入力部
150 画像処理部
160 視点位置検出部
161 観察者撮影部
162 両眼位置検出部
163 相対位置算出部
164 領域パラメータ格納部
Reference Signs List 10 stereoscopic display device 20 3D display 20a center 21 display panel 22 backlight 23 first optical film 24 TFT substrate 24R right-eye pixel 24L left-eye pixel 25 liquid crystal layer 26 counter substrate 27 second optical film 28 adhesive layer 29 optical means (Lenticular lens)
29a, 29L, 29C, 29R Cylindrical lens 30 Spatial imaging element 40 Image signal input unit 50 Image processing unit 51 Parallax image correction unit 52 Parallax image area extraction unit 53 Image data replacement unit 54 Depth information extraction unit 55 Parallax amount adjustment unit 56 Area parameter storage unit 60 Left eye position 61 Right eye position 62 Left eye image area 63 Right eye image area 71 Object 80 Imaging means 81 Imaging center 90 3D aerial image display device 91 Real mirror image forming optical system ( Two-sided corner reflector array)
91a Two-sided corner reflector 92 Projected object 93 Volume scanning type three-dimensional aerial image display device 94 Two-dimensional display 95 Driving means 124, 125 pixels 126, 127, 128 Sub-pixel 129 Boundary line 130 Stereoscopic display device 140 Image signal input unit 150 Image processing section 160 View point position detecting section 161 Observer photographing section 162 Binocular position detecting section 163 Relative position calculating section 164 Area parameter storage section

Claims (18)

2視点分の第1の入力画像及び第2の入力画像に基づいて、第1の方向に並んだ観察者の左眼と右眼とに異なる画像を投影する裸眼立体ディスプレイと、
物体からの光を、互いに直交する第1の反射面及び第2の反射面で反射させる光反射素子を複数有し、前記裸眼立体ディスプレイにより投影された前記第1の入力画像及び第2の入力画像に対応する浮遊像を空中に結像する平板状の空間結像素子と
空中に結像する前記浮遊像の少なくとも一部に生じる、前記第1の入力画像及び第2の入力画像の奥行き視差と飛び出し視差とが逆転する逆視領域、に対応する前記第1の入力画像の対応領域と、前記逆視領域に対応する前記第2の入力画像の対応領域とを入れ替えて、前記第2の入力画像の対応領域を含む前記第1の入力画像と前記第1の入力画像の対応領域を含む前記第2の入力画像とを前記裸眼立体ディスプレイに出力する画像処理部とを備え、
前記空間結像素子が、前記裸眼立体ディスプレイから投影され前記第2の入力画像の対応領域を含む前記第1の入力画像と、前記第1の入力画像の対応領域を含む前記第2の入力画像とに対応する浮遊像を観察者側の空中結像し
前記裸眼立体ディスプレイは、表示面の中心を通る法線近傍の正面の立体視域であるメインローブと、前記メインローブの前記第1の方向の外側の立体視域であるサイドローブとを有する
ことを特徴とする立体表示装置。
An autostereoscopic display that projects different images to the left and right eyes of the observer arranged in the first direction based on the first input image and the second input image for two viewpoints;
Light from an object, a plurality have a light reflecting element for reflecting the first and second reflective surfaces perpendicular to each other, the projected by the autostereoscopic display first input image and a second input A flat spatial imaging element that forms a floating image corresponding to the image in the air ,
The first input image corresponding to a reverse viewing area in which the depth parallax and the pop-out parallax of the first input image and the second input image are generated in at least a part of the floating image formed in the air. And the corresponding area of the second input image corresponding to the pseudoscopic area is replaced with the first input image and the first input image including the corresponding area of the second input image. And an image processing unit that outputs the second input image including the corresponding region to the autostereoscopic display ,
The space focusing elements, the autostereoscopic display is projected from the said first input image containing the corresponding region of the second input image, the second containing the corresponding region of the first input image A floating image corresponding to the input image is formed in the air on the observer side,
The autostereoscopic display is closed and the main lobe is a stereoscopic viewing zone in front of the normal neighboring passing through the center of the display surface, and side lobes outside the stereoscopic viewing area of the first direction of the main lobe A three-dimensional display device, characterized in that:
前記観察者の視点位置を検出する視点位置検出部を備え、
前記画像処理部は、一方の入力画像を投影した画像の中に他方の入力画像を投影した画像が混在する場合に、前記視点位置検出部で検出された観察者の位置に応じて、前記逆視領域に対応する部分を入れ替えて、前記裸眼立体ディスプレイに出力する
ことを特徴とする請求項1に記載の立体表示装置。
A viewpoint position detection unit that detects a viewpoint position of the observer,
The image processing unit, when an image obtained by projecting one input image and an image obtained by projecting the other input image are mixed, according to the position of the observer detected by the viewpoint position detection unit, The stereoscopic display device according to claim 1, wherein a part corresponding to a viewing area is replaced and output to the autostereoscopic display.
前記視点位置検出部は、
前記観察者を撮影する観察者撮影部と、
撮影した画像から両眼位置を検出する両眼位置検出部とを備え、
該両眼位置検出部で検出した両眼の位置に基づいて前記空間結像素子と前記観察者との位置関係を特定する相対位置算出部を備え、
前記画像処理部は、一方の入力画像を投影した画像の中に他方の入力画像を投影した画像が混在する場合に、特定した位置関係に応じて、前記逆視領域に対応する部分を入れ替えて、前記裸眼立体ディスプレイに出力する
ことを特徴とする請求項2に記載の立体表示装置。
The viewpoint position detection unit,
An observer photographing unit for photographing the observer,
Including a binocular position detection unit that detects the binocular position from the captured image,
A relative position calculation unit that specifies a positional relationship between the spatial imaging element and the observer based on the positions of both eyes detected by the binocular position detection unit,
The image processing unit, in the case where an image obtained by projecting one input image and an image obtained by projecting the other input image are mixed, in accordance with the specified positional relationship, replaces a portion corresponding to the pseudoscopic region. The stereoscopic display device according to claim 2, wherein the stereoscopic display device outputs the image to the autostereoscopic display.
前記画像処理部は、
所定の条件に基づいて、前記逆視領域を抽出する視差画像領域抽出部と、
前記逆視領域に対応する部分の画像を入れ替える画像データ入替部とを備える、
ことを特徴とする請求項1から請求項3のいずれか一に記載の立体表示装置。
The image processing unit,
A parallax image area extracting unit that extracts the pseudoscopic area based on a predetermined condition,
An image data replacement unit that replaces an image of a part corresponding to the pseudoscopic region,
The three-dimensional display device according to any one of claims 1 to 3, wherein:
前記逆視領域の境界線は、前記裸眼立体ディスプレイが備える画素の配列方向に対して角度を有する
ことを特徴とする請求項4に記載の立体表示装置。
The stereoscopic display device according to claim 4, wherein a boundary line of the pseudoscopic region has an angle with respect to an arrangement direction of pixels included in the autostereoscopic display.
前記画像処理部は、
前記2視点分の入力画像に基づいて、表示対象物の各部の奥行き情報を抽出する奥行き情報抽出部と、
前記所定の条件に基づいて、前記2視点分の入力画像の視差量を調整する視差量調整部と、を更に備える
ことを特徴とする請求項4、又は、請求項5に記載の立体表示装置。
The image processing unit,
A depth information extraction unit that extracts depth information of each part of the display target based on the input images for the two viewpoints;
The stereoscopic display device according to claim 4, further comprising: a parallax amount adjustment unit configured to adjust a parallax amount of the input images for the two viewpoints based on the predetermined condition. .
前記視差量調整部は、前記逆視領域に対応する部分の画像と当該画像に隣接する画像との境界近傍の視差量を該境界近傍以外の視差量より小さくする、
ことを特徴とする請求項6に記載の立体表示装置。
The parallax amount adjustment unit, the parallax amount near the boundary between the image of the portion corresponding to the reverse viewing region and the image adjacent to the image is smaller than the parallax amount other than the vicinity of the boundary,
The three-dimensional display device according to claim 6, wherein:
前記視差量調整部は、前記逆視領域に対応する部分の画像の視差量を前記逆視領域に対応する部分以外の画像の視差量より大きくする、
ことを特徴とする請求項6に記載の立体表示装置。
The parallax amount adjustment unit, the parallax amount of the image of the portion corresponding to the pseudoscopic region is larger than the parallax amount of the image other than the portion corresponding to the pseudoscopic region,
The three-dimensional display device according to claim 6, wherein:
前記所定の条件は、前記観察者の視線方向と前記空間結像素子の法線方向とがなす角度、前記裸眼立体ディスプレイと前記空間結像素子との距離、前記空間結像素子と前記観察者との距離又は前記空間結像素子の光学特性の少なくとも1つを含む、
ことを特徴とする請求項4乃至8のいずれか一に記載の立体表示装置。
The predetermined condition includes an angle formed by a line of sight of the observer and a normal direction of the spatial imaging element, a distance between the autostereoscopic display and the spatial imaging element, the spatial imaging element and the observer. Including at least one of the distance or the optical properties of the spatial imaging element,
9. The three-dimensional display device according to claim 4, wherein:
2視点分の第1の入力画像及び第2の入力画像に基づいて、第1の方向に並んだ観察者の左眼と右眼とに異なる画像を投影する裸眼立体ディスプレイと、
物体からの光を、互いに直交する第1の反射面及び第2の反射面で反射させる光反射素子を複数有し、前記裸眼立体ディスプレイにより投影された前記第1の入力画像及び第2の入力画像に対応する浮遊像を空中に結像する平板状の空間結像素子とを備え、
前記裸眼立体ディスプレイは、表示面の中心を通る法線近傍の正面の立体視域であるメインローブと、前記メインローブの前記第1の方向の外側の立体視域であるサイドローブとを有し、
空中に結像する前記浮遊像の一部に生じる、前記第1の入力画像及び第2の入力画像の奥行き視差と飛び出し視差とが逆転する逆視領域が存在するかを判断し、前記逆視領域が存在する場合に、前記逆視領域に対応する前記第1の入力画像の対応領域と、前記逆視領域に対応する前記第2の入力画像の対応領域とを入れ替えて、前記第2の入力画像の対応領域を含む前記第1の入力画像と、前記第1の入力画像の対応領域を含む前記第2の入力画像とを前記裸眼立体ディスプレイに出力し、
前記空間結像素子が、前記裸眼立体ディスプレイによって投影された、前記第2の入力画像の対応領域を含む前記第1の入力画像と、前記第1の入力画像の対応領域を含む前記第2の入力画像とに対応する浮遊像を観察者側の空中に結像する
処理を実行することを特徴とする視差画像補正方法。
An autostereoscopic display that projects different images to the left and right eyes of the observer arranged in the first direction based on the first input image and the second input image for two viewpoints;
Light from an object, a plurality have a light reflecting element for reflecting the first and second reflective surfaces perpendicular to each other, the projected by the autostereoscopic display first input image and a second input and a plate-shaped space image forming element for forming an floating image corresponding to the image in the air,
The autostereoscopic display includes a main lobe is a three-dimensional viewing zone in front of the normal neighboring passing through the center of the display surface, and side lobes outside the stereoscopic viewing area of the first direction of the main lobe ,
It is determined whether or not there is a pseudoscopic region in which the depth parallax and the pop-out parallax of the first input image and the second input image, which are generated in a part of the floating image formed in the air, are reversed. If the region is present, by replacing the corresponding region of the first input image corresponding to the previous Kigyaku vision zone, and a corresponding region of the second input image corresponding to the inverse viewing region, the second Outputting the first input image including the corresponding region of the input image and the second input image including the corresponding region of the first input image to the autostereoscopic display ,
The first input image including a corresponding region of the second input image, the second image including a corresponding region of the first input image, wherein the spatial imaging element is projected by the autostereoscopic display; A parallax image correction method, comprising performing a process of forming a floating image corresponding to an input image in the air on the observer side .
記観察者の視点位置を検出し、
一方の入力画像を投影した画像の中に他方の入力画像を投影した画像が混在する場合に、検出された観察者の視点位置に応じて、前記逆視領域が存在するか否かを判断し、前記逆視領域が存在する場合に、検出された観察者の視点位置に応じて前記逆視領域を特定し、
特定した逆視領域に対応する部分を入れ替えて、前記裸眼立体ディスプレイに出力する
処理を実行することを特徴とする請求項10に記載の視差画像補正方法。
Detects the leading Symbol observer's viewpoint position,
In the case where an image obtained by projecting one input image is mixed with an image obtained by projecting the other input image, it is determined whether or not the reverse viewing region exists according to the detected viewpoint position of the observer. When the pseudoscopic region is present, the pseudoscopic region is specified in accordance with the detected viewpoint position of the observer,
The parallax image correction method according to claim 10, wherein a part corresponding to the specified pseudoscopic region is replaced and a process of outputting the part to the autostereoscopic display is performed.
記観察者を撮影し、
撮影した画像から両眼位置を検出し、
検出した両眼の位置に基づいて前記空間結像素子と前記観察者との位置関係を特定し、
一方の入力画像を投影した画像の中に他方の入力画像を投影した画像が混在する場合に、特定した位置関係に応じて、前記逆視領域に対応する部分を入れ替えて、前記裸眼立体ディスプレイに出力する
処理を実行することを特徴とする請求項11に記載の視差画像補正方法。
Photographed before Symbol observer,
Detects the position of both eyes from the captured image,
Identify the positional relationship between the spatial imaging element and the observer based on the detected positions of both eyes,
When an image obtained by projecting one input image is mixed with an image obtained by projecting the other input image, a portion corresponding to the pseudoscopic region is replaced according to the specified positional relationship, and the image is displayed on the naked-eye stereoscopic display. The method for correcting a parallax image according to claim 11, further comprising: outputting a parallax image.
定の条件に基づいて、前記逆視領域を抽出し、
前記2視点分の入力画像の内の、前記逆視領域に対応する部分の画像を入れ替える
処理を実行する
ことを特徴とする請求項10から請求項12のいずれか一に記載の視差画像補正方法。
Based on Jo Tokoro conditions, it extracts the inverse viewing area,
The parallax image correction method according to any one of claims 10 to 12, wherein a process of exchanging an image of a portion corresponding to the pseudoscopic region in the input images for the two viewpoints is performed. .
前記逆視領域の境界線は、前記裸眼立体ディスプレイが備える画素の配列方向に対して角度を有する
ことを特徴とする請求項13に記載の視差画像補正方法。
The parallax image correction method according to claim 13, wherein a boundary line of the pseudoscopic region has an angle with respect to an arrangement direction of pixels included in the autostereoscopic display.
記逆視領域を抽出する前に、
前記2視点分の入力画像に基づいて、表示対象物の各部の奥行き情報を抽出し、
前記所定の条件に基づいて、前記2視点分の入力画像の視差量を調整する
処理を実行することを特徴とする請求項13、又は、請求項14に記載の視差画像補正方法。
Before extracting pre Kigyaku vision area,
Based on the input images for the two viewpoints, depth information of each part of the display target is extracted,
The parallax image correction method according to claim 13, wherein a process of adjusting a parallax amount of the input images for the two viewpoints based on the predetermined condition is performed.
前記逆視領域に対応する部分の画像と当該画像に隣接する画像との境界近傍の視差量を該境界近傍以外の視差量より小さくする
処理を実行することを特徴とする請求項15に記載の視差画像補正方法。
16. The processing according to claim 15, wherein a parallax amount near a boundary between an image of a portion corresponding to the pseudoscopic region and an image adjacent to the image is made smaller than a parallax amount other than the vicinity of the boundary. Parallax image correction method.
前記逆視領域に対応する部分の画像の視差量を前記逆視領域に対応する部分以外の画像の視差量より大きくする
処理を実行することを特徴とする請求項15に記載の視差画像補正方法。
The parallax image correction method according to claim 15, wherein a process of making a parallax amount of an image of a portion corresponding to the reverse viewing region larger than a parallax amount of an image other than the portion corresponding to the reverse viewing region is performed. .
前記所定の条件は、前記観察者の視線方向と前記空間結像素子の法線方向とがなす角度、前記裸眼立体ディスプレイと前記空間結像素子との距離、前記空間結像素子と前記観察者との距離又は前記空間結像素子の光学特性の少なくとも1つを含む
ことを特徴とする請求項13乃至17のいずれか一に記載の視差画像補正方法。
The predetermined condition includes an angle formed by a line of sight of the observer and a normal direction of the spatial imaging element, a distance between the autostereoscopic display and the spatial imaging element, the spatial imaging element and the observer. The parallax image correction method according to any one of claims 13 to 17, further comprising at least one of a distance from the image forming apparatus and an optical characteristic of the spatial imaging element.
JP2015232499A 2015-01-22 2015-11-28 Stereoscopic display device and parallax image correction method Active JP6677385B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201610037615.0A CN105828060B (en) 2015-01-22 2016-01-20 Stereoscopic display device and parallax image correction method
US15/002,771 US10448005B2 (en) 2015-01-22 2016-01-21 Stereoscopic display device and parallax image correcting method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015010402 2015-01-22
JP2015010402 2015-01-22

Publications (2)

Publication Number Publication Date
JP2016140056A JP2016140056A (en) 2016-08-04
JP6677385B2 true JP6677385B2 (en) 2020-04-08

Family

ID=56559403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015232499A Active JP6677385B2 (en) 2015-01-22 2015-11-28 Stereoscopic display device and parallax image correction method

Country Status (2)

Country Link
JP (1) JP6677385B2 (en)
CN (1) CN105828060B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11490802B2 (en) * 2018-12-26 2022-11-08 Topcon Corporation Ophthalmologic apparatus and method for controlling the same

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106817511A (en) * 2017-01-17 2017-06-09 南京大学 A kind of image compensation method for tracking mode auto-stereoscopic display
JP7136661B2 (en) * 2018-10-31 2022-09-13 京セラ株式会社 Image display device, image display system, and moving object
JP7105174B2 (en) * 2018-11-02 2022-07-22 京セラ株式会社 Communication heads-up display systems, communication equipment, mobile objects, and programs
JP7188981B2 (en) * 2018-11-05 2022-12-13 京セラ株式会社 3D display device, 3D display system, head-up display, and moving object
JP7141975B2 (en) * 2019-03-26 2022-09-26 京セラ株式会社 Image display module, image display system, moving body, image display method, and image display program
CN111856773B (en) 2019-04-26 2023-08-22 天马日本株式会社 display device
JP7240242B2 (en) * 2019-04-26 2023-03-15 Tianma Japan株式会社 Display device
CN110703459A (en) * 2019-11-07 2020-01-17 上海致菩汽车科技有限公司 Floating 3D display device and implementation method thereof
TWI808373B (en) * 2021-01-20 2023-07-11 幻景啟動股份有限公司 Floating three-dimensional image display system
CN114827566B (en) * 2021-01-28 2024-03-08 幻景启动股份有限公司 Floating three-dimensional image display system
CN116074486B (en) * 2023-03-21 2023-07-25 北京光谱印宝科技有限责任公司 Naked eye 3D display device

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007116639A1 (en) * 2006-03-23 2007-10-18 National Institute Of Information And Communications Technology Imageing element and display
JP5148960B2 (en) * 2007-09-21 2013-02-20 独立行政法人情報通信研究機構 Volume scanning type 3D aerial image display
CN101382660B (en) * 2008-10-27 2010-09-22 浙江大学 360 degree suspending type stereoscopic vision three-dimensional display apparatus
JP2012163702A (en) * 2011-02-04 2012-08-30 National Institute Of Information & Communication Technology Parallax type three-dimensional aerial video display device
JP5649526B2 (en) * 2011-07-01 2015-01-07 株式会社ジャパンディスプレイ Display device
CN102868894A (en) * 2011-07-05 2013-01-09 天马微电子股份有限公司 Full-visual angle 3D display image output method, device and display equipment
JP2013197933A (en) * 2012-03-21 2013-09-30 Pioneer Electronic Corp Stereoscopic videophone device
JP6380881B2 (en) * 2012-07-31 2018-08-29 Tianma Japan株式会社 Stereoscopic image display apparatus, image processing apparatus, and stereoscopic image processing method
JP6308513B2 (en) * 2012-07-31 2018-04-11 Tianma Japan株式会社 Stereoscopic image display apparatus, image processing apparatus, and stereoscopic image processing method
GB2508404A (en) * 2012-11-30 2014-06-04 Barry Patrick Skinner Display Projecting Image onto Inclined Transparent Panel with Semi-Reflective Coating
CN104007557A (en) * 2014-06-11 2014-08-27 深圳市丽新致维显示技术有限责任公司 Display equipment and system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11490802B2 (en) * 2018-12-26 2022-11-08 Topcon Corporation Ophthalmologic apparatus and method for controlling the same

Also Published As

Publication number Publication date
JP2016140056A (en) 2016-08-04
CN105828060B (en) 2020-07-31
CN105828060A (en) 2016-08-03

Similar Documents

Publication Publication Date Title
JP6677385B2 (en) Stereoscopic display device and parallax image correction method
US10448005B2 (en) Stereoscopic display device and parallax image correcting method
JP3966830B2 (en) 3D display device
KR20030030365A (en) Three dimensional image displaying apparatus
WO2012070103A1 (en) Method and device for displaying stereoscopic image
WO2013061734A1 (en) 3d display device
CN113050293B (en) Stereoscopic display device
JP4546505B2 (en) Spatial image projection apparatus and method
JP2024045434A (en) display device
JP2014045466A (en) Stereoscopic video display system, setting method and observation position changing method of stereoscopic video data
WO2008038425A1 (en) Apparatus, method and computer program product for three-dimensional image processing
KR20130036198A (en) Method for producing an autostereoscopic display and autostereoscopic display
US8629945B2 (en) 3D liquid crystal display system
KR20210127744A (en) High resolution 3D display
KR20160059410A (en) Imaging system
JP2006030507A (en) Three-dimensional spatial image display apparatus and three-dimensional spatial image display method
JP2007336002A (en) Multi-viewpoint video display apparatus
JP2006309178A (en) Image display apparatus
JP2008541165A (en) 3D image display device using flat panel display
JP7038981B2 (en) Stereoscopic display device and control method
KR20050076946A (en) Display apparatus and method of three dimensional image
JP2005091447A (en) Stereoscopic display device
KR101093929B1 (en) Method and system for displaying 3-dimensional images using depth map
Dong et al. P‐68: Dual‐Side Floating Autostereoscopic 3D Display Based on Micro‐Prism Array and Lenticular Sheet
KR101993338B1 (en) 3D image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190820

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200302

R150 Certificate of patent or registration of utility model

Ref document number: 6677385

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250