JPWO2019017290A1 - Stereoscopic image display device - Google Patents

Stereoscopic image display device Download PDF

Info

Publication number
JPWO2019017290A1
JPWO2019017290A1 JP2019531009A JP2019531009A JPWO2019017290A1 JP WO2019017290 A1 JPWO2019017290 A1 JP WO2019017290A1 JP 2019531009 A JP2019531009 A JP 2019531009A JP 2019531009 A JP2019531009 A JP 2019531009A JP WO2019017290 A1 JPWO2019017290 A1 JP WO2019017290A1
Authority
JP
Japan
Prior art keywords
image
pixels
stereoscopic
image display
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019531009A
Other languages
Japanese (ja)
Inventor
茂 寺田
茂 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FA. SYSTEM ENGINEERING CO., LTD.
Original Assignee
FA. SYSTEM ENGINEERING CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FA. SYSTEM ENGINEERING CO., LTD. filed Critical FA. SYSTEM ENGINEERING CO., LTD.
Publication of JPWO2019017290A1 publication Critical patent/JPWO2019017290A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/10Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images using integral imaging methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】広い範囲から立体画像を観察することが可能であり、どの位置から立体画像を観察しても逆視が発生することがなく、より自然で眼にも優しい立体画像を表示して、観察者の眼の衛生状態を向上させることが可能な裸眼式の立体画像表示装置を提供する。【解決手段】この立体画像表示装置は、m個(mは3以上の整数)のピクセルを各々が含む複数の立体画素を水平方向及び垂直方向に並べて構成される画像表示パネルと、画像信号の右眼用画像フレーム及び左眼用画像フレームから画素ごとの奥行き情報を求め、奥行き情報に基づいて、画素画像を水平方向に展開して表示するためのm個の視点画像フレームを生成する画像処理装置と、前記画像表示パネルの複数の立体画素において、前記m個の視点画像フレームによって表されるm個の視点画像を前記m個のピクセルにそれぞれ表示させる表示制御装置とを備える。【選択図】図1PROBLEM TO BE SOLVED: To display a more natural and eye-friendly stereoscopic image without causing reverse vision regardless of the position where the stereoscopic image is observed, and it is possible to observe the stereoscopic image from a wide range. Provided is a naked-eye type stereoscopic image display device capable of improving the hygiene condition of the observer's eyes. SOLUTION: This stereoscopic image display device includes an image display panel composed of a plurality of stereoscopic pixels each including m (m is an integer of 3 or more) arranged in a horizontal direction and a vertical direction, and an image signal. Image processing that obtains depth information for each pixel from the image frame for the right eye and the image frame for the left eye, and generates m viewpoint image frames for horizontally expanding and displaying the pixel image based on the depth information. The apparatus includes a display control device for displaying m viewpoint images represented by the m viewpoint image frames on the m pixels in a plurality of three-dimensional pixels of the image display panel. [Selection diagram] Fig. 1

Description

本発明は、立体画像表示装置に関し、特に、光線再生方式を用いた裸眼式の立体画像表示装置に関する。 The present invention relates to a stereoscopic image display device, and more particularly to a naked-eye type stereoscopic image display device using a light ray reproduction method.

従来から、立体画像表示技術は、エンターテインメントの道具として利用されることが多かった。しかし、近年においては、その有用性から医療分野などにおける利用が注目されるようになっている。 Conventionally, stereoscopic image display technology has often been used as a tool for entertainment. However, in recent years, due to their usefulness, their use in the medical field has been drawing attention.

現在普及している立体画像表示装置として、アナグリフ方式、偏光方式、又は、シャッター方式などの眼鏡を使用する立体画像表示装置と、眼鏡を使用することなくパララックスバリヤー又はレンチキラーレンズによって裸眼で立体画像を認識させる立体画像表示装置とがある。これらの立体画像表示装置は、右眼と左眼とに少しずれた2つの画像をそれぞれ投入して、左右眼における視差の大小に基づいて奥行き量の大小を認識させるものである(2眼式)。 As a currently popular stereoscopic image display device, a stereoscopic image display device using glasses such as an anaglyph system, a polarization system, or a shutter system, and a stereoscopic image with a parallax barrier or a lenticular killer lens without glasses is used. There is a stereoscopic image display device for recognizing an image. In these stereoscopic image display devices, two images slightly shifted to the right eye and the left eye are respectively input so that the amount of depth can be recognized based on the amount of parallax between the left and right eyes (two-eye type). ).

人の視覚システムにおいて、立体は、奥行き知覚と立体知覚とにより認識されるが、これまで開発されてきた立体画像制作技術や3D技術の多くは、奥行き知覚を利用するものである。しかし、人は、通常、視野中の注視点に左右眼を不随意に輻輳させて奥行き感や立体感を得る。この場合に、注視点に視差が生じなくても、人は立体知覚により立体感を伴って対象物を見ることができる。このように、日常生活の中で立体認識に頻繁に利用されるのは立体知覚であり、眼精疲労などは遥かに小さく、長時間の観察が可能である。 In the human visual system, solids are recognized by depth perception and stereoscopic perception, and most of the stereoscopic image production techniques and 3D techniques that have been developed so far utilize depth perception. However, a person usually involuntarily converges the left and right eyes to the gazing point in the visual field to obtain a sense of depth and a stereoscopic effect. In this case, even if there is no parallax in the gazing point, a person can see the object with a stereoscopic effect by stereoscopic perception. As described above, it is stereoscopic perception that is frequently used for stereoscopic recognition in daily life, eye strain is much smaller, and long-term observation is possible.

従来の立体画像表示装置において利用されている奥行き知覚は、自然には発生しない状況を人為的に作って非日常的な立体認識をさせるもので、左右眼における視差の大小に基づき注視点に左右眼を輻輳させることによって奥行き感が生じ、その頻度と量が生理的に疲れを発生させることとなる。このため、長時間の視聴が前提となる利用において、眼精疲労の抑制などの安全性が問題となり、従来技術では活用の幅が制限される。 The depth perception used in the conventional stereoscopic image display device artificially creates a situation that does not occur naturally and causes extraordinary stereoscopic recognition.The depth perception depends on the parallax between the left and right eyes. The vergence of the eyes creates a feeling of depth, and the frequency and amount of that causes physiological fatigue. For this reason, safety is a problem such as suppression of eye strain when used for viewing for a long time, and the range of use is limited in the related art.

また、眼鏡を使用しない立体画像表示装置として、インテグラルフォトグラフィーの原理を活用したレンチキラーレンズを用いる2次元インテグラル方式、レンズアレーを用いる3次元インテグラル方式、光線再生方式、及び、波面再生方式などの立体画像表示装置があげられる。ここで、市場でみられるインテグラル方式は、レンチキラーレンズ又はレンズアレーによって光線の方向を制御することにより、少なくとも水平方向に視差を有する2つの視差画像を左右両眼に提供するものであって、結局、実質的には2眼式に基づくものと変わらない。 In addition, as a stereoscopic image display device that does not use glasses, a two-dimensional integral system that uses a lenticular lens that utilizes the principle of integral photography, a three-dimensional integral system that uses a lens array, a ray reproduction system, and a wavefront reproduction system. Examples include a stereoscopic image display device such as a system. Here, the integral method found in the market is to provide two parallax images having parallax at least in the horizontal direction to the left and right eyes by controlling the direction of a light beam by a lenticular lens or a lens array. After all, it is practically the same as the one based on the twin-lens type.

図14は、レンズアレーを使用する従来の3次元インテグラル方式の原理を説明するための図面である。撮影装置においては、被写体と高精細カメラとの間に屈折率分布レンズアレーが配置されている。屈折率分布レンズアレーの前方に配置された奥行き制御レンズは、被写体から発せられる光線を屈折率分布レンズアレーの表面に入射させる。屈折率分布レンズアレーの後方に配置された集光レンズは、屈折率分布レンズアレーを通過した光線を高精細カメラに集光し、高精細カメラは、屈折率分布レンズアレーの裏面に形成される要素画像を撮影する。 FIG. 14 is a diagram for explaining the principle of a conventional three-dimensional integral method using a lens array. In a photographing device, a gradient index lens array is arranged between a subject and a high-definition camera. The depth control lens arranged in front of the gradient index lens array causes a light beam emitted from a subject to enter the surface of the gradient index lens array. A condenser lens arranged behind the gradient index lens array focuses the light rays passing through the gradient index lens array on a high-definition camera, and the high-definition camera is formed on the back surface of the gradient index lens array. Take an elemental image.

高精細カメラで取得された要素画像を表す画像信号は、表示装置に送られる。画像信号に基づいて表示装置の平面ディスプレーに表示される要素画像は、平面ディスプレーの前方に配置されたレンズアレーにより、被写体から各方向に放射される光線を代替する光線の一部として観察者の目に到達する。それにより、観察者は、立体像を認識することができる。 The image signal representing the elemental image acquired by the high-definition camera is sent to the display device. The elemental image displayed on the flat panel display of the display device based on the image signal is a part of the observer's rays which substitutes the rays emitted in each direction from the subject by the lens array arranged in front of the flat panel display. Reach the eye. Thereby, the observer can recognize the stereoscopic image.

3次元インテグラル方式は、水平方向のみならず垂直方向の立体感をも実現しようとするものであるが、人の両眼は水平方向に沿って配置されているので垂直方向の奥行きを認知することは難しく、自然姿勢による認知可能性は残すものの、実質的には水平方向の視差に基づいて奥行きを知覚するものである。なお、パースによる奥行き知覚は、先験的知識に基づくものである。結局、この3次元インテグラル方式も、2眼式の立体認識と同様に、自然視にはない不具合を有する。 The three-dimensional integral method is intended to realize a stereoscopic effect not only in the horizontal direction but also in the vertical direction. However, since both eyes of a person are arranged along the horizontal direction, the depth in the vertical direction is recognized. It is difficult to do so, and although the recognizability due to the natural posture remains, the depth is actually perceived based on the horizontal parallax. Depth perception by perspective is based on a priori knowledge. After all, this three-dimensional integral method also has a problem that does not occur in natural vision, like the two-eye type stereoscopic recognition.

特許文献1には、インテグラルフォトグラフィー法あるいは光線再生法を用いた裸眼式の立体像表示装置が記載されている。特許文献1に記載された立体像表示装置においては、立体像に対応した複数のパターンを平面的に分割された小領域に表示する液晶表示装置の前面に、小領域に対応した複数のピンホールあるいはマイクロレンズが平面的に配置されたアレイ板が設けられている。特許文献1の発明は、表示されるべき立体像に対応した複数のパターンを離散コサイン変換して圧縮し、表示のために圧縮画像データを逆離散コサイン変換により伸張するに際し、離散コサイン変換あるいは逆離散コサイン変換を施すブロック単位と要素画像の単位とを一致させることにより、ブロックノイズを抑制して、高精細な立体像を表示できるようにすることを特徴とする。 Patent Document 1 describes a naked-eye type stereoscopic image display device using an integral photography method or a light ray reproduction method. In the stereoscopic image display device described in Patent Document 1, a plurality of pinholes corresponding to a small area are provided on the front surface of a liquid crystal display device that displays a plurality of patterns corresponding to a stereoscopic image in a planarly divided small area. Alternatively, an array plate having microlenses arranged in a plane is provided. According to the invention of Patent Document 1, a plurality of patterns corresponding to a stereoscopic image to be displayed are subjected to discrete cosine transform and compressed, and when compressed image data is expanded by inverse discrete cosine transform for display, discrete cosine transform or inverse cosine transform is performed. It is characterized in that block noise is suppressed and a high-definition stereoscopic image can be displayed by matching the block unit to which the discrete cosine transform is applied with the unit of the element image.

しかし、特許文献1に係る立体像表示装置では、ピンホールあるいはマイクロレンズの密度に制約があるため、立体ディスプレーとしての画素数及び光線数に限度が生じて、十分な精細度を達成することが困難である。また、観察者の眼が想定観察位置から外れると立体画像にならない問題や、観察者の左右眼に左右の画像が逆に入射して奥行き感が逆転するいわゆる逆視が発生する問題があって、観察位置に制約がある。 However, in the stereoscopic image display device according to Patent Document 1, since the density of pinholes or microlenses is limited, the number of pixels and the number of light rays as a stereoscopic display are limited, and sufficient definition can be achieved. Have difficulty. In addition, there are problems that a stereoscopic image does not appear when the observer's eyes deviate from the expected observation position, and that so-called myopia occurs in which the left and right images are incident on the left and right eyes of the observer in reverse and the sense of depth is reversed. , There are restrictions on the observation position.

特開2006−148885号公報JP, 2006-148885, A

そこで、上記の点に鑑み、本発明の解決しようとする課題は、広い範囲から立体画像を観察することが可能であり、どの位置から立体画像を観察しても逆視が発生することがなく、より自然で眼にも優しい立体画像を表示して、観察者の眼の衛生状態を向上させることが可能な裸眼式の立体画像表示装置を提供することである。 Therefore, in view of the above points, the problem to be solved by the present invention is that it is possible to observe a stereoscopic image from a wide range, and even if the stereoscopic image is observed from any position, no stereoscopy occurs. It is an object of the present invention to provide a naked-eye type three-dimensional image display device capable of displaying a more natural and eye-friendly three-dimensional image and improving the hygiene of the eyes of an observer.

以上の課題の少なくとも一部を解決するため、本発明の1つの観点に係る立体画像表示装置は、m個(mは3以上の整数)のピクセルを各々が含む複数の立体画素を水平方向及び垂直方向に並べて構成される画像表示パネルと、画像信号の右眼用画像フレーム及び左眼用画像フレームから画素ごとの奥行き情報を求め、奥行き情報に基づいて、画素画像を水平方向に展開して表示するためのm個の視点画像フレームを生成する画像処理装置と、前記画像表示パネルの複数の立体画素において、前記m個の視点画像フレームによって表されるm個の視点画像を前記m個のピクセルにそれぞれ表示させる表示制御装置とを備える。 In order to solve at least a part of the above problems, a stereoscopic image display apparatus according to one aspect of the present invention includes a plurality of stereoscopic pixels each including m (m is an integer of 3 or more) pixels in a horizontal direction. An image display panel configured by arranging in the vertical direction, depth information for each pixel is obtained from the image frame for the right eye and the image frame for the left eye of the image signal, and the pixel image is expanded in the horizontal direction based on the depth information. An image processing apparatus that generates m viewpoint image frames for display, and m viewpoint images represented by the m viewpoint image frames in the plurality of stereoscopic pixels of the image display panel. And a display control device for displaying each pixel.

本発明の1つの観点に係る立体画像表示装置は、自然視における視野角から注がれる光束をサンプリングし、自然光に似せた光の配列を作り、自然視と近似する状況を作り出すことができる。右眼画像と左眼画像との位置的なずれが像の奥行きに対応することに注目して、立体画像表示装置は、右眼画像と左眼画像との内の一方の画像を基準画像として、基準画像中の画素が他方の画像においてずれている量を求めて視点の位置に換算し、それに基づいて設定されたm個の視点に対応するm個の視点画像フレームを生成してもよい。なお、それらの視点の位置は、自然視で発生する立体知覚に係る固視微動(通常約0.05度)による微小な視点移動に基づいて定められることが望ましい。 A stereoscopic image display device according to one aspect of the present invention can sample a light beam poured from a viewing angle in natural vision, create an array of light that resembles natural light, and create a situation similar to natural vision. Noting that the positional shift between the right-eye image and the left-eye image corresponds to the depth of the image, the stereoscopic image display device uses one of the right-eye image and the left-eye image as a reference image. The amount of pixel shift in the reference image may be calculated in the other image, converted into the position of the viewpoint, and m viewpoint image frames corresponding to the m viewpoints set based thereon may be generated. .. It should be noted that the positions of those viewpoints are preferably determined based on minute viewpoint movements due to the involuntary eye movement (usually about 0.05 degree) related to stereoscopic perception that occurs in natural vision.

両眼球の輻輳・開散運動、随従眼球運動、及び、衝動的眼球運動は、Heringの法則に従っており、注視点を両眼視する際に発生する固視微動は、注視点における輻輳運動の微動となって現れる。例えば、画像表示パネルの水平方向画素数が1920の場合に、画像表示パネルから距離2H〜3H(Hは画像表示パネルの縦幅)だけ離れて観察者が位置すると、固視微動によって発生する視点の移動は、画像表示パネルの立体画素の3〜5個分に相当する。通常の固視微動の1周期は約5m秒といわれており、m個の視点画像があるときに、立体画素において、約5m秒間で(1サブピクセル当たり約0.33m〜約0.56m秒の短い時間で)m個の視点画像が認知されて運動視差を生じ、それに基づいて相対的な立体感や奥行き感が知覚される。 The vergence/divergence movements, the saccadic eye movements, and the impulsive eye movements of both eyes follow Hering's law, and the fixational tremor that occurs when the gazing point is viewed is the tremor of the vergence movement at the gazing point. Appears. For example, when the number of pixels in the horizontal direction of the image display panel is 1920, when the observer is located at a distance of 2H to 3H (H is the vertical width of the image display panel) from the image display panel, the viewpoint generated by the involuntary eye movement. Is equivalent to 3 to 5 three-dimensional pixels of the image display panel. It is said that one cycle of normal involuntary eye movement is about 5 msec, and when there are m viewpoint images, in a stereoscopic pixel, in about 5 msec (about 0.33 m to about 0.56 msec per subpixel). In a short time), m viewpoint images are recognized to cause a motion parallax, and a relative stereoscopic effect and a sense of depth are perceived based on the motion parallax.

こうして生成されたm個の視点画像が、仮想上のm個のカメラの位置から撮影された画像として、複数の立体画素においてm個のピクセルの対応位置に表示される。従って、m個の視点画像から放射される光線が同時に観察者の眼に入ることになり、観察者が自然界で観察する対象物から立体感や奥行き感を知覚する状態を光線再生法により再現することができる。 The m viewpoint images generated in this way are displayed at the corresponding positions of the m pixels in the plurality of stereoscopic pixels as images captured from the positions of the virtual m cameras. Therefore, the light rays emitted from the m viewpoint images simultaneously enter the eyes of the observer, and the ray reproduction method reproduces the state in which the observer perceives a stereoscopic effect and a sense of depth from the object observed in nature. be able to.

このように、本発明の1つの観点によれば、広い範囲から立体画像を観察することが可能であり、どの位置から立体画像を観察しても逆視が発生することがなく、より自然で眼にも優しい立体画像を表示して、観察者の眼の衛生状態を向上させることが可能な裸眼式の立体画像表示装置を提供することができる。 As described above, according to one aspect of the present invention, it is possible to observe a stereoscopic image from a wide range, and no matter what position the stereoscopic image is observed, pseudoscopy does not occur and the stereoscopic image is more natural. It is possible to provide a naked-eye type stereoscopic image display device capable of displaying a stereoscopic image that is easy on the eyes and improving the hygiene of the eyes of the observer.

本発明の一実施形態に係る立体画像表示装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the stereo image display apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る立体画像表示装置における立体画像表示の手順を示す工程図である。FIG. 6 is a process diagram showing a procedure for displaying a stereoscopic image in the stereoscopic image display device according to the embodiment of the present invention. 人が対象物から放射される光を眼で受ける状況を説明するための図面である。6 is a diagram for explaining a situation in which a person receives light emitted from an object with his/her eyes. 図1に示す画像表示パネルにおけるサブピクセルとピクセルと立体画素との関係を説明するための図面である。3 is a diagram for explaining a relationship among subpixels, pixels, and stereoscopic pixels in the image display panel shown in FIG. 1. 図1に示す画像表示パネルにおける立体画素中のサブピクセルの別の配置例を示す図面である。9 is a diagram showing another example of arrangement of sub-pixels in a stereoscopic pixel in the image display panel shown in FIG. 1. 図1に示す画像表示パネルにおける立体画素中のサブピクセルのさらに別の配置例を示す図面である。9 is a view showing still another arrangement example of sub-pixels in a stereoscopic pixel in the image display panel shown in FIG. 1. 図1に示す画像表示パネルにおける立体画素中のサブピクセルのさらに別の配置例を示す図面である。9 is a view showing still another arrangement example of sub-pixels in a stereoscopic pixel in the image display panel shown in FIG. 1. 平行法で対象物を撮影したときの画像のずれを説明するための図面である。It is a figure for demonstrating the shift|offset|difference of the image when a target object is image|photographed by the parallel method. 交差法で対象物を撮影したときの画像のずれを説明するための図面である。It is drawing for demonstrating the shift|offset|difference of the image when a target object is image|photographed by the intersection method. 視点が6個の場合における視点画像とピクセルとの関係を説明するための概念図である。It is a conceptual diagram for demonstrating the relationship between a viewpoint image and a pixel in case there are six viewpoints. 本発明の一実施形態に係る立体画像表示装置の作用を説明するための概念図である。It is a conceptual diagram for explaining an operation of a stereoscopic image display device concerning one embodiment of the present invention. 固視微動による立体知覚の発生メカニズムを説明するための概念図である。It is a conceptual diagram for demonstrating the generation|occurrence|production mechanism of the stereoscopic perception by a microscopic fixation. 固視微動による立体知覚の発生メカニズムを説明するための概念図である。It is a conceptual diagram for demonstrating the generation|occurrence|production mechanism of the stereoscopic perception by a microscopic fixation. レンズアレーを使用する従来の3次元インテグラル方式の原理を説明するための図面である。6 is a diagram for explaining the principle of a conventional three-dimensional integral method using a lens array.

本発明の一実施形態に係る立体画像表示装置は、左右眼に視差を有する画像を与えることで奥行き知覚をもたらす従来装置に対して、立体知覚の原理に基づき、より自然で眼にも優しい裸眼式の立体画像表示を実現して、観察者の眼精疲労を解消するとともに、観察位置の制約を緩和するものである。以下、本発明の実施形態について、図面を参照しながら詳細に説明する。 The stereoscopic image display device according to an embodiment of the present invention is based on the principle of stereoscopic perception and is more natural and gentle to the naked eye, compared to a conventional device that provides depth perception by providing images with parallax to the left and right eyes. By realizing the stereoscopic image display of a formula, the eye strain of the observer is eliminated, and the restriction on the observation position is relaxed. Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態に係る立体画像表示装置の構成例を示すブロック図であり、図2は、本発明の一実施形態に係る立体画像表示装置において画像信号を入力してから立体画像を表示するまでの工程を示す工程図である。 FIG. 1 is a block diagram showing a configuration example of a stereoscopic image display device according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating a stereoscopic image display device according to an embodiment of the present invention after an image signal is input. It is a flowchart showing a process until a stereoscopic image is displayed.

図1に示す立体画像表示装置は、対象物から全方向に放射される光をm個(mは3以上の整数)の視点においてサンプリング(畳み込み)して得られたm個の光線で画像を表示する光線再生法を用いたもので、画像表示パネル100と、画像処理装置200と、表示制御装置300とを含んでいる。画像処理装置200及び表示制御装置300は、それぞれの信号処理プロセッサー又は一体の信号処理プロセッサーで構成して、画像信号の1フレームごとに一連の処理を可能にすることが好ましい。 The stereoscopic image display device shown in FIG. 1 displays an image with m light rays obtained by sampling (convoluting) light emitted from an object in all directions at m (m is an integer of 3 or more) viewpoints. It uses a light ray reproduction method for displaying, and includes an image display panel 100, an image processing device 200, and a display control device 300. It is preferable that the image processing device 200 and the display control device 300 are configured by respective signal processing processors or integrated signal processing processors to enable a series of processing for each frame of the image signal.

画像表示パネル100は、m個のピクセルを各々が含む複数の立体画素(ポリゴン)を水平方向及び垂直方向に並べて構成される。立体画素は、m個の視点画像(多視点画像)を1つの画面に重畳して表示するために用いられる。m個のピクセルの各々は、光の3原色を表示する複数のサブピクセルを含んでもよい。サブピクセルは、画像信号で変調される各色の光を放射する最小画素要素である。 The image display panel 100 is configured by arranging a plurality of stereoscopic pixels (polygons) each including m pixels in the horizontal direction and the vertical direction. The stereoscopic pixels are used to display m viewpoint images (multi-viewpoint images) in a superimposed manner on one screen. Each of the m pixels may include a plurality of sub-pixels that display the three primary colors of light. A subpixel is the smallest pixel element that emits light of each color that is modulated by the image signal.

例えば、画像表示パネル100として、透過型又は反射型の液晶や有機EL(OLED:Organic Light Emitting Diode)などの2D用表示パネル、特に、高精細テレビ用の表示パネルを利用することができる。あるいは、ランプと、画像表示パネル100と、投射レンズ部とを含み、ランプの光を画像表示パネル100及び投射レンズ部を介してスクリーンに向けて射出するビデオプロジェクターが、立体画像表示装置に設けられてもよい。 For example, as the image display panel 100, a 2D display panel such as a transmissive or reflective liquid crystal or an organic EL (OLED: Organic Light Emitting Diode), particularly a display panel for a high definition television can be used. Alternatively, a video projector that includes a lamp, an image display panel 100, and a projection lens unit, and that emits light of the lamp toward the screen via the image display panel 100 and the projection lens unit is provided in the stereoscopic image display device. May be.

画像表示パネル100が表示する画像は、視点数(m個)の視点画像を複合したものであり、各々の立体画素がm個のピクセルを含むので、2K、4K、又は、8Kテレビなどにも使用される高精細表示パネルを使うことが好ましい。画像表示パネル100においては、光の3原色RGBを表示する各色のサブピクセルが、表示領域の全面に亘って配置されている。 The image displayed by the image display panel 100 is a composite of viewpoint images of the number of viewpoints (m), and since each stereoscopic pixel includes m pixels, it can be used in a 2K, 4K, or 8K television or the like. It is preferable to use the high definition display panel used. In the image display panel 100, sub-pixels of each color that display the three primary colors of light RGB are arranged over the entire display area.

画像処理装置200は、画像信号の右眼用画像フレーム及び左眼用画像フレームから、画素ごとの奥行き情報として視差マトリックス(R−Lマトリックス)を求め、奥行き情報に基づいて、画素画像を水平方向に展開して表示するためのm個の視点画像フレームを生成する。画像処理装置200は、アナログ回路、デジタル回路、又は、CPUとソフトウェアで構成することができる。 The image processing apparatus 200 obtains a parallax matrix (RL matrix) as depth information for each pixel from the image frame for the right eye and the image frame for the left eye of the image signal, and the pixel image in the horizontal direction based on the depth information. To generate m viewpoint image frames to be expanded and displayed. The image processing device 200 can be configured by an analog circuit, a digital circuit, or a CPU and software.

図1に示すように、画像処理装置200は、機能ブロックとして、分配部1と、フレームメモリー2及び3と、列総和算定部4及び5と、列総和比較部6と、視差マトリックス生成部7と、視点画像生成部8と、重み付け関数発生部10とを含み、画像信号変換部11及びフレーム選択部12をさらに含んでも良い。 As illustrated in FIG. 1, the image processing apparatus 200 includes, as functional blocks, a distribution unit 1, frame memories 2 and 3, column sum calculation units 4 and 5, a column sum comparison unit 6, and a parallax matrix generation unit 7. , A viewpoint image generation unit 8 and a weighting function generation unit 10, and may further include an image signal conversion unit 11 and a frame selection unit 12.

例えば、画像処理装置200は、右眼用画像フレーム及び左眼用画像フレームを格納し、各フレームの画素値を列ごとに垂直方向に積算して列総和を求め、列総和を両フレーム間で比較することによって両フレームの画像中の重複領域を特定し、両フレームの画像の位置関係を調整する。 For example, the image processing apparatus 200 stores the right-eye image frame and the left-eye image frame, accumulates the pixel values of each frame in the vertical direction for each column to obtain a column sum, and calculates the column sum between both frames. By comparing, the overlapping area in the images of both frames is specified, and the positional relationship between the images of both frames is adjusted.

その後、画像処理装置200は、両フレームにおいて対応する画素画像の位置のずれに基づいて画素ごとの奥行き情報を求め、重み付けされた奥行き情報に基づいて一方のフレーム中の画素画像を水平方向に移動させることにより、一方のフレームを含めてm個の視点画像フレームを生成する。 After that, the image processing apparatus 200 obtains depth information for each pixel based on the displacement of the positions of the corresponding pixel images in both frames, and horizontally moves the pixel image in one frame based on the weighted depth information. By doing so, m viewpoint image frames including one frame are generated.

表示制御装置300は、画像表示パネル100の複数の立体画素において、m個の視点画像フレームによって表されるm個の視点画像をm個のピクセルにそれぞれ表示させる。そのために、表示制御装置300は、m個の視点画像フレームを格納する画像メモリー9を含み、デジタル回路等で構成される。 The display control device 300 causes the m viewpoint images represented by the m viewpoint image frames to be displayed on the m pixels among the plurality of stereoscopic pixels of the image display panel 100. Therefore, the display control device 300 includes an image memory 9 that stores m viewpoint image frames, and is configured by a digital circuit or the like.

図3は、人が対象物から放射される光を眼で受ける状況を説明するための図面である。自然界では、360度あらゆる方向から光が来る。しかし、人が対象物を注視するときには、1〜2度程度の視野角内の領域(注視点)しか見えない。注視点に輻輳される視線によって注視点視野内で見える奥行き情報により立体知覚がもたらされ、この視野外の画像は立体知覚に寄与しない。従って、1〜2度程度の視野角内に収まる複数の光線を画像表示パネル100(図1)の表示精度内で畳み込む(サンプリングする)ことにより、画像表示パネル100から放射される光線を自然の光線に似せることができる。なお、サンプル光の数が多いほど、違和感の少ない画像再現が可能になる。 FIG. 3 is a diagram for explaining a situation in which a person receives light emitted from an object with his/her eyes. In nature, light comes from all directions at 360 degrees. However, when a person looks at an object, only an area (gazing point) within a viewing angle of about 1 to 2 degrees can be seen. The depth information seen in the visual field of the gazing point brings about stereoscopic perception due to the line of sight converging to the gazing point, and images outside this visual field do not contribute to stereoscopic perception. Therefore, by convoluting (sampling) a plurality of light rays within a viewing angle of about 1 to 2 degrees within the display accuracy of the image display panel 100 (FIG. 1), the light rays emitted from the image display panel 100 are naturally It can resemble a ray of light. It should be noted that the larger the number of sample lights, the more possible the image reproduction with less discomfort becomes.

奥行き情報は、眼球に配置された6本の筋肉の内で、眼球を水平方向に回転させる内直筋及び外直筋の収縮・伸張情報からもたらされる。内直筋及び外直筋の収縮・伸張は、両眼球の輻輳・開散運動、随従眼球運動(パシュート)、及び、衝動的眼球運動(サッカード)で起こる。ここで注目されるものが、固視微動である。眼球は、それぞれ異なる周期を持った瞳孔揺動、微動調節運動、及び、固視微動などで常に動揺している。固視微動としては、マイクロサッカード、ドリフト、及び、トレモアなどが知られている。眼球が動揺すると、視線の奥行きが変化し、複数の視点画像を取得することができる。 The depth information is obtained from the contraction/extension information of the internal rectus muscle and the external rectus muscle that horizontally rotate the eyeball among the six muscles arranged in the eyeball. The contraction/extension of the internal rectus muscle and the external rectus muscle occurs in vergence/divergence movement of both eyes, compliant eye movement (pursuit), and impulsive eye movement (saccade). What is noted here is the involuntary eye movement. The eyeball is constantly swaying due to a pupil oscillating motion, a fine motion adjusting motion, and a fixation micromotion which have different cycles. Microsaccades, drifts, tremors, and the like are known as involuntary eye movements. When the eyeball sways, the depth of the line of sight changes, and a plurality of viewpoint images can be acquired.

立体知覚に特に関係が深いのは、不随意に発生する微弱な動揺であるマイクロサッカードであり、1〜3Hz程度の周期で眼球が動揺する。眼球の固視微動による回転角は、通常0.05度程度と計測されている。また、その速度は、10度/秒程度と計測されている。固視微動によって眼球が回転すると、対象物に対する観察者の視線も変化する。例えば、観察者における観察点A(i)から対象物における注視点Bに向かう視線L(i)が、観察点A(i)から距離Dだけ離れたもう1つの観察点A(i+1)から注視点Bに向かう視線L(i+1)に変化する。ここで、対象物が観察者に近いほど、視線L(i)と視線L(i+1)とがなす角が大きくなる。 Microsaccades, which are weak fluctuations that occur involuntarily, are particularly closely related to stereoscopic perception, and the eyeballs sway at a cycle of about 1 to 3 Hz. The rotation angle of the eyeball due to the involuntary eye movement is usually measured to be about 0.05 degree. The speed is measured at about 10 degrees/second. When the eyeball rotates due to the involuntary eye movement, the line of sight of the observer with respect to the object also changes. For example, the line-of-sight L(i) from the observation point A(i) of the observer to the gazing point B of the object is injected from another observation point A(i+1) that is a distance D away from the observation point A(i). The line of sight L(i+1) toward the viewpoint B changes. Here, the closer the object is to the observer, the larger the angle formed by the line of sight L(i) and the line of sight L(i+1).

視線が変化することによって観察者が認識する注視点Bの位置が変化すると仮定して、視線L(i)及びL(i+1)を平行移動することにより、観察点A(i)の位置と観察点A(i+1)の位置とが一致する状態を考える。そのような状態においては、注視点Bが、距離Dだけ離れた2つの注視点B(i)及びB(i+1)として見えることになる。固視微動は所定の周期で繰り返されるので、m個の注視点B(i)、B(i+1)、B(i+2)、・・・に対応するm個の視点画像を1つの画面に表示することにより、自然視における固視微動によって発生する注視点の移動を表示画面上に具現化することができる。ここで、対象物が観察者に近いほど、視点画像間の距離が大きくなる。 Assuming that the position of the gazing point B recognized by the observer changes due to the change of the line of sight, the lines of sight L(i) and L(i+1) are moved in parallel to determine the position of the observation point A(i) and the observation point A(i). Consider a state in which the position of point A(i+1) matches. In such a state, the gazing point B appears as two gazing points B(i) and B(i+1) separated by the distance D. Since the involuntary eye movement is repeated in a predetermined cycle, m viewpoint images corresponding to the m watching points B(i), B(i+1), B(i+2),... Are displayed on one screen. This makes it possible to embody the movement of the gazing point generated by the involuntary eye movement in the natural vision on the display screen. Here, the closer the object is to the observer, the larger the distance between the viewpoint images.

基本的に、身体の知覚センサーは、刺激が閾値を超えるときに着火するようにできている。固視微動により注視領域からの光の変化を検知し、脳に伝達することにより立体知覚が生まれる。なお、相対的な奥行きを弁別するための最小遅延時間は約160μ秒であり、両眼視差に換算して約2秒とされている。 Basically, the sensory sensor of the body is designed to ignite when the stimulus exceeds a threshold value. Stereoscopic perception is created by detecting a change in light from the gaze area by involuntary eye movement and transmitting it to the brain. The minimum delay time for discriminating the relative depth is about 160 μsec, which is about 2 sec in terms of binocular parallax.

次に、図4〜図7を参照しながら、対象物から放射される光を画像表示パネルの複数の立体画素に表示させる手法を説明する。
図4は、図1に示す画像表示パネルにおけるサブピクセルとピクセルと立体画素との関係を説明するための図面である。図4に示す画像表示パネルにおいては、同じ色を表示する複数のサブピクセルが、縦方向(垂直方向)に並ぶように配置されている。
Next, a method of displaying light emitted from an object on a plurality of three-dimensional pixels of the image display panel will be described with reference to FIGS. 4 to 7.
FIG. 4 is a diagram for explaining a relationship among subpixels, pixels, and stereoscopic pixels in the image display panel shown in FIG. In the image display panel shown in FIG. 4, a plurality of sub-pixels displaying the same color are arranged in the vertical direction (vertical direction).

図4には、赤を表示するサブピクセルRと、緑を表示するサブピクセルGと、青を表示するサブピクセルBとが、横方向(水平方向)に隣り合わせて繰り返し並んだストライプ型配置が示されている。各々のピクセルは、1個のサブピクセルRと、1個のサブピクセルGと、1個のサブピクセルBとで構成される。また、各々の立体画素は、視点数(m個)のピクセルで構成される。図4は、視点数が6の場合を例示するもので、1個の立体画素中に6個のピクセル、すなわち、18個のサブピクセルが含まれている。 FIG. 4 shows a striped arrangement in which a sub-pixel R that displays red, a sub-pixel G that displays green, and a sub-pixel B that displays blue are repeatedly arranged side by side in the horizontal direction. Has been done. Each pixel is composed of one sub-pixel R, one sub-pixel G, and one sub-pixel B. Further, each three-dimensional pixel is composed of pixels corresponding to the number of viewpoints (m). FIG. 4 exemplifies a case where the number of viewpoints is 6, and one stereoscopic pixel includes 6 pixels, that is, 18 sub-pixels.

一般的なテレビ受像機の表示パネルにおけるピクセルは、水平方向に並んだRGBサブピクセルで構成されるが、図4に示す画像表示パネルで利用されるピクセルは、立体画素の横幅を抑えるために、画像表示パネルにおいて隣り合う複数のライン(行)に配置された複数のサブピクセルを含んでいる。例えば、図中に線分でつないで示すように、隣の行かつ隣の列の互いに近い位置にあるサブピクセルが斜めに並ぶように選択される。 Pixels in a display panel of a general television receiver are composed of RGB sub-pixels arranged in a horizontal direction, but the pixels used in the image display panel shown in FIG. The image display panel includes a plurality of sub-pixels arranged in a plurality of adjacent lines. For example, as shown by connecting line segments in the figure, subpixels in adjacent rows and adjacent columns are selected to be diagonally arranged.

各々のピクセルに含まれている複数のサブピクセルがすべて点灯したときにピクセルの発光の中心として観察される位置を光重心と呼ぶと、図中に白丸で示すように、画像表示パネルの各々の立体画素において、m個のピクセルは、ピクセルの光重心が順次隣接して水平方向に並ぶように配置されていることが好ましい。なお、図4に示す例においては、ピクセルが右上がりに傾くようにサブピクセルを選択しているが、ピクセルが反対方向に傾くようにサブピクセルを選択してもよい。 The position observed as the center of light emission of the pixel when all the sub-pixels included in each pixel are lit is called the light center of gravity, and as shown by the white circles in the figure, In the three-dimensional pixel, it is preferable that the m pixels are arranged so that the optical centers of gravity of the pixels are sequentially adjacent and arranged in the horizontal direction. In the example shown in FIG. 4, the sub-pixels are selected so that the pixels incline upward to the right, but the sub-pixels may be selected so that the pixels incline in the opposite direction.

立体画素は、画像表示パネルの表示領域の全面に亘り水平方向及び垂直方向に繰り返し並んで、行列を形成している。例えば、2Kテレビ用の表示パネルの場合には、RGBサブピクセルが横に並んで構成されるピクセルが水平方向に1920個、垂直方向に1080個並んでいるので、立体画素は、水平方向に960個、垂直方向に360個配置された行列を形成する。立体画素の大きさを、視力1.0で画像表示パネルを見る観察者にとって視線の見込み角が1分程度以下になるようにすると、観察者は、立体画素内のピクセルを区別することができず、立体画素を点として認識することになる。 The three-dimensional pixels are repeatedly arranged in the horizontal direction and the vertical direction over the entire display area of the image display panel to form a matrix. For example, in the case of a display panel for a 2K television, 1920 pixels in the horizontal direction and 1080 pixels in the vertical direction are formed by horizontally arranging RGB sub-pixels. Therefore, the stereoscopic pixel is 960 in the horizontal direction. , A matrix of 360 arranged in the vertical direction is formed. When the size of the three-dimensional pixel is set so that the observer who views the image display panel with a visual acuity of 1.0 has an angle of sight of about 1 minute or less, the observer can distinguish the pixels in the three-dimensional pixel. Instead, the three-dimensional pixel is recognized as a point.

立体画素に対する視線の見込み角は、立体画素のサイズに応じて観察距離を選択することにより、適切に調整することができる。例えば、画像表示パネルの水平方向画素数が1920の場合に、画像表示パネルから距離2H〜3H(Hは画像表示パネルの縦幅)だけ離れて観察者が位置することにより、固視微動によって発生する視点の移動は、画像表示パネルの立体画素の3〜5個分に相当する。 The viewing angle of the line of sight with respect to the three-dimensional pixel can be appropriately adjusted by selecting the observation distance according to the size of the three-dimensional pixel. For example, in the case where the number of pixels in the horizontal direction of the image display panel is 1920, when the observer is located at a distance of 2H to 3H (H is the vertical width of the image display panel) from the image display panel, it is caused by the involuntary eye movement. The movement of the viewpoint is equivalent to 3 to 5 three-dimensional pixels of the image display panel.

パネルの精細度が上がれば、より多くの視点画像を表示することが可能になる。視点数が大きくなるほど、より自然な立体感が得られる。また、スクリーン中の立体画素の数が大きくなるほど、精細な画像を得ることができる。例えば、4Kテレビ用の表示パネルにおいては、水平方向に3840個、垂直方向に2160個のピクセルが並んでいるので、水平方向に並んだ9個のピクセルを用いて9個の視点画像を表示するようにしたものでも、立体画素が水平方向に1280個、垂直方向に720個配置された十分精細な立体画像表示パネルとなる。 The higher the definition of the panel, the more viewpoint images can be displayed. The larger the number of viewpoints, the more natural the three-dimensional effect can be obtained. Further, the larger the number of three-dimensional pixels in the screen, the finer the image can be obtained. For example, in a display panel for a 4K television, 3840 pixels are arranged in the horizontal direction and 2160 pixels are arranged in the vertical direction, so that nine viewpoint images are displayed using the nine pixels arranged in the horizontal direction. Even with such a configuration, a sufficiently fine stereoscopic image display panel in which 1280 stereoscopic pixels are arranged in the horizontal direction and 720 stereoscopic pixels are arranged in the vertical direction is obtained.

また、8Kテレビ用の表示パネルにおいては、水平方向に7680個、垂直方向に4320個のピクセルが並んでいるので、水平方向に並んだ12個のピクセルを用いて12個の視点画像を表示するようにしたものでも、立体画素が水平方向に1920個、垂直方向に1440個配置された高精細な立体画像表示パネルとなる。なお、視点数が多くなったときに立体画素の広がりを抑えたい場合には、各々の立体画素を構成する複数のサブピクセルを画像表示パネルにおいて隣り合う6ラインに配置することで、立体画素の横幅を半分にすることができる。 Further, in the display panel for the 8K television, 7680 pixels are arranged in the horizontal direction and 4320 pixels are arranged in the vertical direction, so that 12 viewpoint images are displayed using the 12 pixels arranged in the horizontal direction. Even with this configuration, a high-definition stereoscopic image display panel having 1920 horizontal pixels and 1440 vertical pixels is provided. In addition, when it is desired to suppress the spread of the three-dimensional pixel when the number of viewpoints increases, a plurality of sub-pixels forming each three-dimensional pixel are arranged in adjacent six lines in the image display panel, thereby The width can be halved.

図5は、図1に示す画像表示パネルにおける立体画素中のサブピクセルの別の配置例を示す図面である。図5に示す画像表示パネルで利用されるピクセルは、立体画素の横幅を半分にするために、画像表示パネルにおいて1ラインおきに複数のラインに配置された複数のサブピクセルを含んでいる。すなわち、第1段目と第3段目と第5段目のサブピクセルで構成されるピクセルと、第2段目と第4段目と第6段目のサブピクセルで構成されるピクセルとが、水平方向に交互に並んで立体画素を構成している。 FIG. 5 is a drawing showing another example of arrangement of sub-pixels in the three-dimensional pixel in the image display panel shown in FIG. The pixels used in the image display panel shown in FIG. 5 include a plurality of sub-pixels arranged in every other line in the image display panel in order to halve the horizontal width of the stereoscopic pixel. That is, a pixel composed of sub-pixels in the first tier, the third tier and the fifth tier, and a pixel composed of the sub-pixels in the second tier, the fourth tier and the sixth tier , Three-dimensional pixels are arranged alternately in the horizontal direction.

図5に示す例においては、各々の立体画素が24個のピクセルを含み、24個の視点画像を表示することができるが、水平方向における立体画素の広がりはサブピクセル12個分に抑えられている。ピクセルの光重心は、水平方向に一直線に並ぶのではなく、中央2段のサブピクセルの位置に交互に並んで幅を有するが、大きく見れば小さな幅の中でピクセルの光重心が水平方向に連なっているので許容できる。 In the example shown in FIG. 5, each stereoscopic pixel includes 24 pixels, and 24 viewpoint images can be displayed, but the spread of the stereoscopic pixel in the horizontal direction is suppressed to 12 sub-pixels. There is. The optical centers of gravity of the pixels are not arranged in a straight line in the horizontal direction, but have widths alternately arranged at the positions of the two sub-pixels in the center, but when viewed broadly, the optical centers of gravity of the pixels are arranged horizontally in a small width. It is acceptable because it is connected.

図6及び図7は、図1に示す画像表示パネルにおける立体画素中のサブピクセルのさらに別の配置例を示す図面である。
図6に示す画像表示パネルにおいては、同じ色を表示する複数のサブピクセルが、横方向(水平方向)に並ぶように配置されている。すなわち、サブピクセルR、G、Bが、それぞれ色ごとに水平方向に配置されて行を形成し、サブピクセルR、G、Bの行が、垂直方向に隣り合わせに繰り返して配置されるようにしてもよい。この場合には、図中に垂直方向の線分で示すように、各々のピクセルは、垂直方向に並んだ3色のサブピクセルで構成され、光重心が水平方向に並んだm個のピクセルで立体画素が構成される。
6 and 7 are views showing still another arrangement example of the sub-pixels in the stereoscopic pixels in the image display panel shown in FIG.
In the image display panel shown in FIG. 6, a plurality of subpixels displaying the same color are arranged side by side in the horizontal direction (horizontal direction). That is, the sub-pixels R, G, and B are arranged in the horizontal direction for each color to form a row, and the rows of the sub-pixels R, G, and B are repeatedly arranged side by side in the vertical direction. Good. In this case, as shown by vertical line segments in the figure, each pixel is composed of sub-pixels of three colors arranged in the vertical direction, and the light center of gravity is composed of m pixels arranged in the horizontal direction. Three-dimensional pixels are configured.

あるいは、図7に示すように、画像表示パネルのサブピクセルは、モザイク型配置であってもよい。この場合においても、各々のピクセルを構成する複数のサブピクセルを、垂直方向に隣り合う3ラインから選択すれば、光重心が水平方向に並んだm個のピクセルで横幅の狭い立体画素が構成される。 Alternatively, as shown in FIG. 7, the sub-pixels of the image display panel may have a mosaic arrangement. Also in this case, if a plurality of sub-pixels forming each pixel are selected from three lines that are vertically adjacent to each other, a stereoscopic pixel having a narrow width is formed by m pixels whose light centers of gravity are arranged in the horizontal direction. It

次に、図1及び図2を参照しながら、上記の画像表示パネルに多視点画像を表示する工程を説明する。
(ステップ1)
図1に示す立体画像表示装置に、右眼用画像及び左眼用画像を表す左右眼用画像信号RLが入力される場合に、分配部1は、入力される左右眼用画像信号RLから右眼用画像フレーム(Rフレーム)及び左眼用画像フレーム(Lフレーム)を抽出して、フレームレートに従って、それらをフレームマトリックス記憶部(Rフレーム用のフレームメモリー2及びLフレーム用のフレームメモリー3)に順次格納する。
Next, the process of displaying a multi-viewpoint image on the image display panel will be described with reference to FIGS. 1 and 2.
(Step 1)
When the right-and-left image signals RL representing the right-eye image and the left-eye image are input to the stereoscopic image display device illustrated in FIG. 1, the distribution unit 1 outputs the input right-and-left image signals RL to the right. An image frame for the eye (R frame) and an image frame for the left eye (L frame) are extracted, and are extracted according to the frame rate in a frame matrix storage unit (frame memory 2 for the R frame and frame memory 3 for the L frame). Sequentially store in.

それにより、フレームマトリックス記憶部において、Rフレーム及びLフレームとして、3原色(RGB)のサブピクセルごとに色彩強度を適宜の分解能で表す画素値が記憶される。例えば、各色の色彩強度を(0〜FF)の256値、(−1,0,+1)の3値、又は、(0,1)の2値などで表す画素値が記憶される。 As a result, in the frame matrix storage unit, pixel values representing the color intensity with appropriate resolution for each of the three primary color (RGB) subpixels are stored as the R frame and the L frame. For example, the pixel value representing the color intensity of each color by 256 values of (0 to FF), ternary value of (-1, 0, +1), or binary value of (0, 1) is stored.

また、輝度信号(Y信号)及び2つの色差信号(Pr信号、Pb信号)を用いるコンポーネント画像信号が入力される場合には、分配部1が、Y信号、Pr信号、Pb信号の画素値をRGBの画素値に変換することにより、RGBの画素値を用いてもよい。一方、サイドバイサイド形式(SbyS)、トップアンドボトム形式(Top&Bottom)、又は、フレームパッキング方式(FP)などの放送用の画像信号が入力される場合には、画像信号変換部11が、入力される画像信号における右眼用画像と左眼用画像とを分離することにより、入力される画像信号を左右眼用画像信号RLに変換して分配部1に供給する。 When a component image signal that uses a luminance signal (Y signal) and two color difference signals (Pr signal, Pb signal) is input, the distribution unit 1 determines the pixel values of the Y signal, Pr signal, and Pb signal. The pixel value of RGB may be used by converting into the pixel value of RGB. On the other hand, when a broadcast image signal such as a side-by-side format (SbyS), a top-and-bottom format (Top & Bottom), or a frame packing method (FP) is input, the image signal conversion unit 11 inputs the input image. By separating the image for the right eye and the image for the left eye in the signal, the input image signal is converted into the image signal RL for the left and right eyes and supplied to the distribution unit 1.

さらに、図1に示す立体画像表示装置は、従来型テレビ放送における2次元画像を加工して3次元画像化してから表示するために使用することもできる。この場合には、フレーム選択部12が、2次元画像信号(2D)のフレーム列から、基準フレームと該基準フレームに対して所定数のフレーム差を有する参照フレームとを選択し、基準フレーム及び参照フレームに基づいて、右眼用画像フレーム及び左眼用画像フレームを有する左右眼用画像信号RLを生成して分配部1に供給する。例えば、フレーム選択部12は、選択された基準フレームの画像を右眼用画像とし、これに対して所定数のフレーム差をおいて選択された参照フレームの画像を左眼用画像としてもよい。 Further, the stereoscopic image display device shown in FIG. 1 can also be used for processing a two-dimensional image in a conventional television broadcast to form a three-dimensional image and then displaying the image. In this case, the frame selection unit 12 selects the standard frame and the reference frame having a predetermined number of frame differences from the standard frame from the frame sequence of the two-dimensional image signal (2D), and the standard frame and the reference frame are selected. An image signal RL for the left and right eyes having an image frame for the right eye and an image frame for the left eye is generated based on the frame and supplied to the distribution unit 1. For example, the frame selection unit 12 may set the image of the selected reference frame as the image for the right eye, and the image of the reference frame selected with a predetermined number of frame differences to the image for the left eye.

通常のテレビ放送波が搬送するテレビ画像は2次元画像であり、被写体の奥行き情報を有していない。しかし、被写体がカメラに対して移動したり被写体に対してカメラが移動したりすると、2次元画像中の異なるフレームにおける被写体の位置が変化して、被写体の像に時間的ずれが生じる。被写体の像が水平方向にずれた2つの画像を左右の眼に振り分けて供給すると、2つの画像における被写体を両眼で見るときの輻輳角が、基準フレームの画像における被写体を両眼で見るときの輻輳角と異なるので、被写体の像が表示画面に対して奥行き方向に変位して見えるようになり、画像に立体感が付与される。このような原理に基づいて、2次元画像信号に基づいて左右眼用画像信号RLを生成することができる。 A television image carried by an ordinary television broadcast wave is a two-dimensional image and does not have depth information of the subject. However, when the subject moves with respect to the camera or the camera moves with respect to the subject, the position of the subject in different frames in the two-dimensional image changes, causing a time lag in the image of the subject. When two images in which the image of the subject is horizontally shifted are distributed to the left and right eyes and supplied, the convergence angle when viewing the subject in the two images with both eyes is the same as when viewing the subject in the image of the reference frame with both eyes. Is different from the convergence angle of the object, the image of the subject appears to be displaced in the depth direction with respect to the display screen, and a stereoscopic effect is given to the image. Based on such a principle, the left and right eye image signals RL can be generated based on the two-dimensional image signals.

(ステップ2)
画像処理装置200が、Rフレーム及びLフレームの撮影領域について水平方向のずれ量を算定し、左右の画像が重なる重複領域を特定する。本実施形態に係る立体画像表示装置は、例えば、左右の2台のカメラがそれぞれ撮影した左右の画像が重なる重複領域を検出し、重複領域における左右の画像の視差に基づいて画像に立体感を生じさせる。左右の画像においては、カメラの視野が一致するわけではない。しかし、視野中の重複領域では、左眼用画像と右眼用画像とが同じ対象物を表示するので、左右の画像において画素値がほぼ同じになることが期待される。
(Step 2)
The image processing apparatus 200 calculates the horizontal shift amount for the R frame and L frame shooting regions, and specifies the overlapping region where the left and right images overlap. The stereoscopic image display apparatus according to the present embodiment detects, for example, an overlapping area in which the left and right images captured by the two left and right cameras are overlapped, and gives a stereoscopic effect to the image based on the parallax between the left and right images in the overlapping area. Give rise to. The fields of view of the cameras do not match in the left and right images. However, in the overlapping region in the field of view, the left-eye image and the right-eye image display the same target object, so that it is expected that the pixel values in the left and right images will be substantially the same.

そこで、列総和算定部4及び5が、フレームマトリックスの画素値を列ごとに縦方向に積算して求めた列総和について、列総和比較部6が、Rフレームの列とLフレームの列とを水平方向にずらしながら比較していくと、左右の画像が重なっている領域(重複領域)においては列総和の差がゼロに近くなる。従って、列総和比較部6は、列総和の差が最も小さくなる列のペアを特定し、及び/又は、列総和の差が所定の値よりも小さくなる領域を特定することにより、左右の画像が重なっている領域と重なっていない領域とを判別することができる。列総和比較部6は、Rフレーム及びLフレームにおける重複領域の水平座標の差を左右の画像のずれ量として算定する。 Therefore, for the column sums obtained by vertically summing the pixel values of the frame matrix by the column sum total calculation units 4 and 5, the column sum total comparison unit 6 calculates the R frame columns and the L frame columns. When the comparison is performed while shifting in the horizontal direction, the difference between the column sums becomes close to zero in the region where the left and right images overlap (overlap region). Therefore, the column sum total comparison unit 6 identifies the pair of columns for which the difference between the column sums is the smallest, and/or identifies the region where the difference between the column sums is smaller than a predetermined value, so that the left and right images are displayed. It is possible to discriminate the area where the and the area do not overlap. The column sum comparison unit 6 calculates the difference between the horizontal coordinates of the overlapping areas in the R frame and the L frame as the amount of shift between the left and right images.

ここで、列総和を求めるために用いられるサブピクセルは、3原色全てのサブピクセルであってもよいが、3原色の内のいずれか1色のサブピクセルであってもよい。また、画像信号として輝度信号(Y信号)及び2つの色差信号(Pr信号、Pb信号)を用いるコンポーネント画像信号が立体画像表示装置に入力される場合には、輝度信号について列総和を求めて重複領域を特定してもよい。また、立体画像表示装置に入力する左右眼用画像信号は、対象物を平行法で撮影しても、交差法で撮影しても得ることができる。 Here, the sub-pixels used to obtain the column sum may be sub-pixels of all three primary colors, or may be sub-pixels of any one of the three primary colors. Further, when a component image signal using a luminance signal (Y signal) and two color difference signals (Pr signal, Pb signal) as image signals is input to the stereoscopic image display device, column summation is calculated for the luminance signals and duplication is performed. The area may be specified. Further, the left and right eye image signals input to the stereoscopic image display device can be obtained by shooting the object by the parallel method or the crossing method.

図8は、平行法で対象物を撮影したときの画像のずれを説明するための図面である。平行法は、2台のカメラL及びRを光軸が平行になるように配置して、左右のカメラが撮影した左右の画像をそれぞれ左右の眼に提供し、観察者が左右の画像中の注目点に左右の視線を合わせたときの輻輳角から奥行きを感知するようにしたものである。実際のカメラ間隔が眼の間隔より広ければ、観察者には奥行き量が大きく感じられて、立体感が誇張されることになる。 FIG. 8 is a diagram for explaining an image shift when an object is photographed by the parallel method. In the parallel method, the two cameras L and R are arranged so that the optical axes thereof are parallel to each other, and the left and right images captured by the left and right cameras are provided to the left and right eyes, respectively, and the observer The depth is sensed from the angle of convergence when the left and right eyes are aligned with the point of interest. If the actual camera interval is wider than the eye interval, the observer feels a large amount of depth and exaggerates the stereoscopic effect.

平行法では、右のカメラRの画像においては左の部分に、左のカメラLの画像においては右の部分に重複領域が現れる。例えば、右のカメラRを左のカメラLの位置までずらせば同じ画像を取得することになるので、左右の画像のずれΔはカメラ間隔に相当する。左右の画像がどれだけのカメラ間隔を伴って撮影されたものかは、画像信号からは分からないが、上記手順によれば、カメラ間隔によらずに、左右の画像のずれ量を高速で算定することができる。 In the parallel method, an overlapping area appears in the left part in the image of the right camera R and in the right part in the image of the left camera L. For example, if the right camera R is shifted to the position of the left camera L, the same image will be acquired, so the shift Δ between the left and right images corresponds to the camera interval. It is not known from the image signal how long the left and right images were taken with the camera interval, but according to the above procedure, the shift amount between the left and right images can be calculated at high speed regardless of the camera interval. can do.

図9は、交差法で対象物を撮影したときの画像のずれを説明するための図面である。交差法は、2台のカメラL及びRの光軸を輻輳させて配置して、左右のカメラが撮影した左右の画像をそれぞれ左右の眼に提供する。観察者は両眼の像を一致させる為に必要な輻輳角に基づいて奥行き感を得る。交差法による画像では、左右のカメラの光軸が交差するので、右のカメラRの画像は右の部分に、左のカメラLの画像は左の部分に重複領域が現れる。また、左右のカメラの光軸が交差する点(輻輳点)が遠くなるほど、画像中の重複領域が大きくなる。この場合においても、左右の画像がどれだけの輻輳角を伴って撮影されたものかは、画像信号からは分からないが、上記手順によれば、2台のカメラの輻輳角によらずに、左右の画像のずれ量を高速で算定することができる。 FIG. 9 is a diagram for explaining an image shift when an object is photographed by the intersection method. In the crossing method, the optical axes of the two cameras L and R are arranged so as to converge, and the left and right images captured by the left and right cameras are provided to the left and right eyes, respectively. The observer gets a sense of depth based on the angle of convergence required to match the images of both eyes. In the image obtained by the intersection method, the optical axes of the left and right cameras intersect with each other, so that the image of the right camera R has an overlapping region in the right portion, and the image of the left camera L has an overlapping region in the left portion. Further, the farther the point (convergence point) where the optical axes of the left and right cameras intersect becomes, the larger the overlapping area in the image becomes. Even in this case, it is not known from the image signal how much the left and right images were taken with the convergence angle, but according to the above procedure, regardless of the convergence angles of the two cameras, The amount of shift between the left and right images can be calculated at high speed.

このように、本実施形態に係る立体画像表示装置では、上記手順を用いて、入力された画像信号がどのような手段で取得されたものかによらず、同じ手順で高速に処理することができる。 As described above, in the stereoscopic image display device according to the present embodiment, it is possible to perform high-speed processing by the same procedure by using the procedure, regardless of the method by which the input image signal is acquired. it can.

(ステップ3)
図1に示す視差マトリックス生成部7が、ずれ量を補償したRフレーム及びLフレームにおける対象物の視差に基づき、画素ごとの奥行き情報である視差マトリックス(R−Lマトリックス)を生成する。Rフレーム及びLフレームについて、先に算定されたずれ量だけ位置を修正して画像を重ねると、左右の画像が重なった領域が中央部に位置し、左右の画像が重ならない領域が両端部に位置する画像マップが形成される。その上で、視差マトリックス生成部7は、2つのカメラが撮影した画像の内で同じ領域において取得した画像信号について、左右の画像の間で個々の画素が表す対象物の位置に変化がある部分の変位量を算定する。一方のカメラが撮影した画像しか存在しない領域の変位量は、0(ゼロ)とすればよい。
(Step 3)
The parallax matrix generation unit 7 illustrated in FIG. 1 generates a parallax matrix (RL matrix) that is depth information for each pixel based on the parallax of the object in the R frame and the L frame in which the displacement amount is compensated. For the R frame and the L frame, when the positions are corrected by the amount of displacement calculated previously and the images are overlapped, the area where the left and right images overlap is located in the center, and the areas where the left and right images do not overlap are at both ends. An image map of the position is formed. Then, the parallax matrix generation unit 7 is a portion in which the position of the object represented by each pixel is changed between the left and right images in the image signal acquired in the same region of the images captured by the two cameras. Calculate the displacement amount of. The displacement amount of the region where only the image captured by one camera exists may be 0 (zero).

視差マトリックス生成部7は、左右の画像の間における個々の画素の変位量に基づいて、視差マトリックスの要素値(視差値)を算定する。なお、左右の画像における対象物は、画像中で水平方向に変位するばかりでなく、垂直方向にも変位成分を有する場合がある。その場合に、変位はベクトルとして得られるので、変位ベクトルの長さを視差マトリックスの要素値としてもよい。人の眼が奥行きを認識するのは、水平方向の視差によるからである。 The parallax matrix generation unit 7 calculates the element value (parallax value) of the parallax matrix based on the displacement amount of each pixel between the left and right images. Note that the objects in the left and right images may not only be displaced in the horizontal direction in the images, but may also have displacement components in the vertical direction. In that case, since the displacement is obtained as a vector, the length of the displacement vector may be used as the element value of the parallax matrix. The human eye recognizes the depth because of the parallax in the horizontal direction.

視差マトリックスは、左右両画像中の対象物ごとの視差を示すもので、視差は、近くに存在する対象物ほど大きく、遠くに存在する対象物ほど小さく、画像中の対象物の奥行きを規定するものとなる。なお、視差マトリックスの要素値は、正負いずれの値も取ることができ、ある対象物を表示する画素について、輻輳点を基準として対象物を前方に見せるときはプラスの値、後方に見せるときはマイナスの値を要素値に持たせればよい。 The parallax matrix indicates the parallax of each of the objects in the left and right images, and the parallax is larger for an object that is nearer and smaller for an object that is far away, and defines the depth of the object in the image. Will be things. Note that the element value of the parallax matrix can be either positive or negative, and for pixels that display a certain object, a positive value when the object is viewed forward with the convergence point as a reference, and when viewed backward. The element value should have a negative value.

また、重み付け関数発生部10は、視差マトリックス生成部7が視差マトリックスを生成する際に、視差マトリックスの要素値に対して適宜な重み付けを行うことにより、撮影条件を調整したり対象物に関する奥行き視覚を調整したりすることができる。例えば、要素値に適宜な値を加算すれば輻輳点が手前に移動して対象物の像が近づき、要素値に適宜な値を減算すれば輻輳点が遠ざかって対象物の像が後退する。また、要素値に1より大きな適宜な値を乗じた領域は立体感が強調され、要素値に1より小さな値を乗じた場合は立体感が緩和される。さらに、視差マトリックスの要素値に上限や下限を設けたり、ガンマ関数などの適宜な関数を使用して要素値の大きさに応じて適宜な値を選択するようにしてもよい。 In addition, the weighting function generation unit 10 adjusts the shooting conditions and the depth vision regarding the object by appropriately weighting the element values of the parallax matrix when the parallax matrix generation unit 7 generates the parallax matrix. Can be adjusted. For example, if an appropriate value is added to the element value, the vergence point moves forward and the image of the object approaches, and if an appropriate value is subtracted from the element value, the vergence point moves away and the image of the object recedes. Also, the stereoscopic effect is emphasized in the area where the element value is multiplied by an appropriate value larger than 1, and the stereoscopic effect is reduced when the element value is multiplied by a value smaller than 1. Further, upper and lower limits may be set for the element values of the parallax matrix, or an appropriate function such as a gamma function may be used to select an appropriate value according to the magnitude of the element values.

(ステップ4)
視点画像生成部8が、視差マトリックスに基づいて、画素画像を水平方向に展開して表示するためのm個の視点画像フレームを、画像表示パネル100に表示する画像の1コマ(1画面)ごとに生成する。例えば、視点画像生成部8は、フレームマトリックス記憶部に格納されているRフレーム及びLフレームの内のいずれか一方(図1においてはRフレーム)を基準画像フレームとして、基準画像フレーム中の画素画像を視差マトリックスの要素値(視差値)だけ水平方向に移動させた参照画像フレームを生成する。
(Step 4)
For each frame (one screen) of an image displayed on the image display panel 100, the viewpoint image generation unit 8 generates m viewpoint image frames for horizontally expanding and displaying a pixel image based on the parallax matrix. To generate. For example, the viewpoint image generation unit 8 uses one of the R frame and the L frame (R frame in FIG. 1) stored in the frame matrix storage unit as the reference image frame, and the pixel image in the reference image frame. Is generated in the horizontal direction by the element value (parallax value) of the parallax matrix to generate a reference image frame.

さらに、視点画像生成部8は、基準画像フレームと視差マトリックスの要素値(視差値)とに基づいて、基準画像フレームと参照画像フレームとの間を補間する(m−2)個の補間画像フレームを生成する。例えば、視点画像生成部8は、視差マトリックスの要素値を(m−1)で割った値を視点画像ごとの水平移動量として、基準画像フレーム中の画素画像を水平方向に順次移動させることにより、基準画像フレームから順に(m−2)個の補間画像フレームを生成してもよい。 Further, the viewpoint image generation unit 8 interpolates between the standard image frame and the reference image frame based on the standard image frame and the element value (parallax value) of the parallax matrix (m-2) interpolated image frames. To generate. For example, the viewpoint image generation unit 8 uses the value obtained by dividing the element value of the parallax matrix by (m-1) as the horizontal movement amount for each viewpoint image, and sequentially moves the pixel images in the reference image frame in the horizontal direction. , (M−2) interpolated image frames may be sequentially generated from the reference image frame.

あるいは、視点画像生成部8は、参照画像フレームを生成することなく、基準画像フレームから順に(m−1)個の補間画像フレームを生成してもよい。ここで、m個の視点画像は、左右どちらか一方の画像を基準として生成される。他方の画像は、基準画像中の各画素に関する奥行き情報を取得するためだけに使用される。従って、基準画像から最も遠い視点画像は、右眼用画像を基準画像とした場合においても左眼用画像と同じものにはならず、基準画像から奥行き情報に基づいて生成される。 Alternatively, the viewpoint image generation unit 8 may generate (m-1) interpolated image frames in order from the standard image frame without generating the reference image frame. Here, the m viewpoint images are generated with reference to one of the left and right images. The other image is used only to obtain depth information for each pixel in the reference image. Therefore, the viewpoint image farthest from the reference image is not the same as the image for the left eye even when the image for the right eye is used as the reference image, and is generated from the reference image based on the depth information.

(ステップ5)
視点画像生成部8が、m個の視点画像を表すm個の視点画像フレームを、表示制御装置300の画像メモリー9に格納する。それにより、表示制御装置300が、画像表示パネル100の複数の立体画素において、m個の視点画像フレームによって表されるm個の視点画像をm個のピクセルにそれぞれ表示させる。画像メモリー9は、表示画面の全部のサブピクセルについて、その発色の強度を指定する画素値を記憶することができる。表示制御装置300は、画像メモリー9に格納されている画素値に従って、画像表示パネル100のサブピクセルを発色させる。
(Step 5)
The viewpoint image generation unit 8 stores m viewpoint image frames representing m viewpoint images in the image memory 9 of the display control device 300. Accordingly, the display control device 300 causes the m viewpoint images represented by the m viewpoint image frames to be displayed on the m pixels in the plurality of stereoscopic pixels of the image display panel 100. The image memory 9 can store pixel values that specify the intensity of color development for all subpixels on the display screen. The display control device 300 causes the sub-pixels of the image display panel 100 to develop colors in accordance with the pixel values stored in the image memory 9.

画像メモリー9において、m個の視点画像フレームは、1画面分の記憶領域に格納される。画像表示パネル100の各々の立体画素は、m個の視点画像中で同じ位置にある画素画像をほぼ同時に表示する。ただし、立体画素が画像表示パネル100の3〜6ラインに亘って配置される場合に、3〜6ラインを走査するための時間差は生じる。表示制御装置300は、画像表示パネル100の複数の立体画素において、m個の視点画像をm個のピクセルに割り当てて表示させる。各々のピクセル中の複数のサブピクセルは、それぞれ多段階で指定された強度の原色で発色し、3原色が光重心位置において混色して見えるので、指定された色を表示することができる。 In the image memory 9, m viewpoint image frames are stored in the storage area for one screen. Each of the three-dimensional pixels of the image display panel 100 displays the pixel images at the same position in the m viewpoint images almost at the same time. However, when the three-dimensional pixels are arranged over the 3 to 6 lines of the image display panel 100, there is a time difference for scanning the 3 to 6 lines. The display control device 300 assigns m viewpoint images to m pixels in a plurality of three-dimensional pixels of the image display panel 100 and displays them. A plurality of sub-pixels in each pixel are colored with primary colors having intensities designated in multiple stages, and the three primary colors appear to be mixed at the position of the optical center of gravity, so that the designated colors can be displayed.

このように、本実施形態に係る立体画像表示装置においては、画像表示パネル100に表示される1画面の画像がm個の視点画像で構成され、m個の視点画像は、画像表示パネル100の立体画素を構成するm種類のピクセルによってそれぞれ表示される。立体画素中の各々のピクセルは、例えば、斜め垂直方向に並んだ3個のサブピクセルからなり、m個のピクセルは、例えば、水平方向に整列している。m個のピクセルを各々が含む複数の立体画素がm個の視点画像を水平方向に展開して表示することにより、固視微動によって観察者に立体感や奥行き感を知覚させる。 As described above, in the stereoscopic image display device according to the present embodiment, one screen image displayed on the image display panel 100 is composed of m viewpoint images, and the m viewpoint images are displayed on the image display panel 100. Each is displayed by m types of pixels that form a three-dimensional pixel. Each pixel in the three-dimensional pixel is composed of, for example, three sub-pixels arranged obliquely in the vertical direction, and m pixels are arranged in the horizontal direction, for example. A plurality of stereoscopic pixels, each of which includes m pixels, develop and display m viewpoint images in the horizontal direction, thereby causing the observer to perceive a stereoscopic effect and a sense of depth due to the involuntary eye movement.

図10は、視点が6個の場合における視点画像とピクセルとの関係を説明するための概念図である。図10には、ある水平面で切った対象物の断面と視点画像の画素との位置関係が示されている。2つのカメラで撮影された対象物の画像は、奥行きに応じてずれを生じる。このずれの大きさを水平方向に取って視差Pとし、この間に水平方向に並んだA、B、C、D、E、Fの6個の視点画像が示されている。 FIG. 10 is a conceptual diagram for explaining the relationship between viewpoint images and pixels when there are six viewpoints. FIG. 10 shows the positional relationship between the cross section of the object cut along a horizontal plane and the pixels of the viewpoint image. The images of the object captured by the two cameras are displaced according to the depth. The magnitude of this shift is taken in the horizontal direction as parallax P, and six viewpoint images A, B, C, D, E, and F arranged in the horizontal direction are shown in the meantime.

6個の視点画像は1画面に表示されるので、画像メモリー9における1画面分の記憶領域には、対応する位置に投影されるべき6個の視点画像の画素情報が格納される。各々の立体画素中に水平方向に並んだ6個のピクセルは、対象物の視点画像A、B、C、D、E、Fに対応して画面上の視点画像a、b、c、d、e、fを表示する。これらの視点画像は、固視微動によって生成される複数の視点に対応するものである。 Since the six viewpoint images are displayed on one screen, the storage area for one screen in the image memory 9 stores the pixel information of the six viewpoint images to be projected at the corresponding positions. Six pixels lined up in the horizontal direction in each of the three-dimensional pixels correspond to the viewpoint images A, B, C, D, E, and F of the object, and the viewpoint images a, b, c, d on the screen, Display e and f. These viewpoint images correspond to a plurality of viewpoints generated by the involuntary eye movement.

それにより、画像表示パネル100は、自然界で対象物から全方位に放射される光線の内から適切なm個をサンプリングして光線再生した対象物の像を表示する。ここで、サンプリングとは、全方向から放出される光線を畳み込み(コンボルージョン)原理を用いて表示パネルの精細度に合わせて圧縮することをいう。観察者の眼には、m個の視点画像に係る複数の光線が同時に入射するので、自然界で感知するものと同等の自然な立体感が形成される。 As a result, the image display panel 100 displays an image of the target object reproduced by sampling appropriate m pieces of light rays emitted from the target object in all directions in the natural world. Here, “sampling” refers to compression of light rays emitted from all directions according to the definition of a display panel by using a convolution principle. Since a plurality of light rays relating to m viewpoint images are simultaneously incident on the observer's eyes, a natural stereoscopic effect equivalent to that sensed in the natural world is formed.

なお、人の眼が注視する点に対する視野角は1〜2度程度とされており、これより大きく広がる範囲においては画像すら知覚できないので(トロクスラー効果)、視点画像の広がりを1〜2度程度の範囲内に収めることが好ましい。すなわち、図10における視差Pを、観察者の位置からの視野角1〜2度程度の範囲内に収めることが好ましい。実際の画像において視差Pが大きすぎる場合には、適当な重み付け関数を用いて視差マトリックスの要素値を重み付けすることにより視差の値を調整することができる。 Note that the viewing angle with respect to the point where the human eye gazes is about 1 to 2 degrees, and even an image cannot be perceived in a wider range than this (Troxler effect), so the spread of the viewpoint image is about 1 to 2 degrees. It is preferable to set it within the range of. That is, it is preferable that the parallax P in FIG. 10 be within a range of a viewing angle of 1 to 2 degrees from the position of the observer. If the parallax P is too large in the actual image, the parallax value can be adjusted by weighting the element values of the parallax matrix using an appropriate weighting function.

そのために、重み付け関数発生部10は、視差マトリックスの要素値に対して加減算、乗除算、又は、適宜な関数の作用などを施して、2台のカメラの輻輳角を調整したり、視点画像の視差を調整したり、被写体の奥行き感を調整したりすることができる。例えば、要素値に正数を加算すると、視差が大きくなって立体感を強調することができる。これは、撮影条件を調整して、カメラの光軸をより傾け、輻輳位置を近づけたことと同じ効果を奏する。また、要素値に適宜な値を乗除することにより、画像全体の奥行き感を伸張したり圧縮したりすることができる。 Therefore, the weighting function generation unit 10 performs addition/subtraction, multiplication/division, or an operation of an appropriate function on the element values of the parallax matrix to adjust the vergence angle of the two cameras or to change the viewpoint image. It is possible to adjust the parallax and the depth feeling of the subject. For example, when a positive number is added to the element value, the parallax increases and the stereoscopic effect can be emphasized. This has the same effect as adjusting the shooting conditions, tilting the optical axis of the camera further, and bringing the convergence position closer. Further, by multiplying and dividing the element value by an appropriate value, the depth feeling of the entire image can be expanded or compressed.

さらに、飛びぬけて大きい視差や小さい視差の存在が、出力頻度の高い中間値を持つ視差における立体感を過度に抑制することがないように、ガンマ特性やS字トーンカーブを活用したフィルターなどを用いて、画像の奥行きに対応して輻輳角を調整することもできる。また、注目部分の立体感を強調する一方、近い部分と遠い部分との立体感を抑制するなどの機能を重み付け関数発生部10に持たせることができる。また、周囲の状況と相容れない極大値や極小値を検出した場合に、これらを異常値として除去することも可能である。変位量の偏差値σ、2σ、又は、3σから外れる変位を非線形的に圧縮したり、視差量を0とおいて無視したりすることもできる。 Furthermore, to prevent the presence of extraordinarily large parallax or small parallax from excessively suppressing the stereoscopic effect in parallax with a high output frequency, use a filter that utilizes the gamma characteristic or S-shaped tone curve. It can also be used to adjust the vergence angle according to the depth of the image. Further, the weighting function generating unit 10 can be provided with a function of emphasizing the stereoscopic effect of the attention portion while suppressing the stereoscopic effect of the near portion and the distant portion. Further, when a maximum value or a minimum value that is incompatible with the surrounding situation is detected, it is possible to remove these as an abnormal value. It is also possible to non-linearly compress a displacement that deviates from the deviation value σ, 2σ, or 3σ of the displacement amount, or ignore it by setting the parallax amount to 0.

図11は、本発明の一実施形態に係る立体画像表示装置の作用を説明するための概念図である。図11には、外界の対象物(被写体)を撮像する撮像装置の撮像光学系及び撮像面と、撮像装置によって得られた画像を表示する表示装置の光線再生表示スクリーンとが示されている。 FIG. 11 is a conceptual diagram for explaining the operation of the stereoscopic image display device according to the embodiment of the present invention. FIG. 11 shows an image pickup optical system and an image pickup surface of an image pickup apparatus which picks up an object (subject) in the external world, and a ray reproduction display screen of a display apparatus which displays an image obtained by the image pickup apparatus.

光線再生表示スクリーンには、設定された視点数m個だけサンプリングして得られた視点画像が表示され、光線再生表示スクリーンの立体画素からは、前方に光線が放射される。このとき、観察者の眼には1か所から放射されるm個の視点画像に係る複数の光線が同時に入射するので、固視微動による画像変化認識と相俟って、サンプリングによる光線再生法に基づく、より自然な立体感や奥行き感を感知することができる。それらの光線は、別アングルの視線によっても捉えることができる。 On the ray reproduction display screen, viewpoint images obtained by sampling the set number m of viewpoints are displayed, and light rays are emitted forward from the three-dimensional pixels of the ray reproduction display screen. At this time, since a plurality of light rays relating to m viewpoint images radiated from one location are simultaneously incident on the observer's eye, the light ray reproduction method by sampling is combined with the image change recognition due to the involuntary eye movement. It is possible to perceive a more natural stereoscopic effect and a sense of depth based on. Those rays can also be caught by the line of sight of another angle.

図12及び図13は、固視微動による立体知覚の発生メカニズムを説明するための概念図である。図12及び図13には、光線再生方式で画像がサンプリングされて画像表示パネルに表示された状況が示されているが、この状況は、自然光における知覚メカニズムを模擬するものとなっている。 12 and 13 are conceptual diagrams for explaining the mechanism of occurrence of stereoscopic perception due to involuntary eye movement. 12 and 13 show a situation in which an image is sampled by the light ray reproduction method and displayed on the image display panel. This situation simulates the perceptual mechanism in natural light.

図12は、立体画素中に6個のピクセルを設けた場合を例示している。1個の立体画素には視点Aから視点Fまでの画像に対応する6個のピクセル(視点ピクセル)が並んでおり、立体画素の集合によって6個の視点画像を表示する。図12においては、各画像のつながりを見やすく示すために、立体画素中のピクセルを垂直方向にずらして描いているが、表示面においてはピクセルがほぼ水平方向に並んでいてもよい。 FIG. 12 illustrates a case where six pixels are provided in the three-dimensional pixel. Six pixels (viewpoint pixels) corresponding to images from viewpoints A to F are arranged in one stereoscopic pixel, and six viewpoint images are displayed by a set of stereoscopic pixels. In FIG. 12, the pixels in the three-dimensional pixel are shifted in the vertical direction in order to show the connections of the images in an easy-to-see manner, but the pixels may be arranged substantially in the horizontal direction on the display surface.

このような状況において、固視微動により、網膜上に映り込む画像が、視線が微動した分だけ左右に幾何学的に移動する。図12の下側に示すように、網膜像は、基準とするステージ1の受像ピクセル(a1、b1、c1、d1、e1、f1)に対して、例えば、±0.05度微動して、ステージ2の左眼受像ピクセル(b1、c1、d1、e1、f1、a2)、及び、右眼受像ピクセル(f0、a1、b1、c1、d1、e1)のように変化する。なお、左眼と右眼とでは、画像のずれる方向が反対になる。 In such a situation, the involuntary eye movement causes the image reflected on the retina to move laterally geometrically by the amount of the slight movement of the line of sight. As shown in the lower side of FIG. 12, the retinal image slightly moves ±0.05 degrees with respect to the reference image receiving pixels (a1, b1, c1, d1, e1, f1) of the stage 1, It changes like the left eye image receiving pixel (b1, c1, d1, e1, f1, a2) and the right eye image receiving pixel (f0, a1, b1, c1, d1, e1) of the stage 2. Note that the left eye and the right eye have opposite image shift directions.

図13は、左眼と右眼の画像のずれから微動分に相当する奥行き知覚が発生する機構を説明するための概念図である。
ヒトの視神経は、脳の中で半交叉しており、右眼の網膜の鼻側の神経は交叉して左脳の一次視覚野につながり、左眼の網膜の耳側の神経は交叉しないで左脳の一次視覚野につながり、右眼の網膜の耳側の神経は交叉しないで右脳の一次視覚野につながり、左眼の網膜の鼻側の神経は交叉して右脳の一次視覚野につながっている。従って、視野の右半分の像は左脳で、視野の左半分の像は右脳で処理される。
FIG. 13 is a conceptual diagram for explaining a mechanism in which depth perception corresponding to a fine movement occurs due to a shift between images of the left eye and the right eye.
The human optic nerve is semi-crossed in the brain, the nasal nerve of the retina of the right eye crosses and connects to the primary visual cortex of the left brain, and the nerve of the left ear of the retina of the left eye does not cross Connected to the primary visual cortex of the right eye, the nerves on the ear side of the retina of the right eye do not cross and connect to the primary visual cortex of the right brain, and the nerves on the nasal side of the retina of the left eye cross and connect to the primary visual cortex of the right brain .. Therefore, the image in the right half of the visual field is processed by the left brain, and the image in the left half of the visual field is processed by the right brain.

それにより、ステージ2における左眼の画像と右眼の画像とのずれが検出され、そのずれ量に基づいて奥行き知覚が生じる。図13では、例えば、右脳で知覚されるb1の画像のずれと、左脳で知覚されるe1の画像のずれとによって、立体知覚を得ることになる。このずれは、注視点視野内で発生する固視微動で引き起こされる輻輳微動であり、対象物が遠い場合には小さくずれ、対象物が近い場合には大きくずれる運動視差となり、小さい注視点視野における立体知覚が得られる。 As a result, the shift between the left-eye image and the right-eye image on the stage 2 is detected, and depth perception occurs based on the shift amount. In FIG. 13, for example, stereoscopic perception is obtained by the shift of the b1 image perceived by the right brain and the shift of the e1 image perceived by the left brain. This shift is a vergence that is caused by involuntary eye movement that occurs within the visual field of the gazing point.When the object is distant, it shifts slightly, and when the object is close, it becomes a large parallax of movement, and in a small visual field of gaze. A stereoscopic perception is obtained.

例えば、10m先の対象物を自然視する場合に、視野角1.6度で直径28cmの範囲を見ることができ、固視微動による視点移動距離は1.78cmであり、奥行き移動距離は約3mとなる。また、3m先の対象物を自然視する場合には、同じ視野角で直径8.4cmの範囲を見ることができ、固視微動による視点移動距離は0.52cmであり、奥行き移動距離は約26cmとなる。これをピクセルに換算して移動速度に変換すると、運動視差が求められる。なお、固視微動の速度は約10度/秒とされている。ヒトの脳は、入力する情報に変化がないときは無視して、情報が変化したことをトリガーとして情報処理を開始するので、固視微動に伴って出入りする各視点画像の構成要素の変化を捉えて立体感や奥行き感を知覚する。 For example, when an object 10 m ahead is viewed naturally, a range of 28 cm in diameter can be seen at a viewing angle of 1.6 degrees, a viewpoint movement distance due to a microscopic fixation is 1.78 cm, and a depth movement distance is about It will be 3m. In addition, when an object 3 m ahead is viewed naturally, a range of 8.4 cm in diameter can be seen at the same viewing angle, the viewpoint movement distance due to the involuntary eye movement is 0.52 cm, and the depth movement distance is about It will be 26 cm. When this is converted into pixels and converted into moving speed, the motion parallax is obtained. The speed of the involuntary eye movement is about 10 degrees/second. The human brain ignores when there is no change in the input information and starts information processing using the change in information as a trigger, so changes in the constituent elements of each viewpoint image that come in and go out with the involuntary eye movement are fixed. Capture and perceive a sense of depth and depth.

本実施形態に係る立体画像表示装置は、自然視における固視微動により発生する注視対象物の移動を画像表示パネル上に具現化するものであり、水平方向に複数(少なくとも3個)の視点画像を等間隔で並べることによって実現される。なお、左右眼用画像を両端の視点画像に振り分けただけでは、自然視のシミュレーションにはならない。 The stereoscopic image display device according to the present embodiment embodies movement of a gaze target generated by fixational eye movements in natural vision on an image display panel, and includes a plurality of (at least three) viewpoint images in the horizontal direction. It is realized by arranging at equal intervals. It should be noted that allocating the left and right eye images to the viewpoint images at both ends does not result in a simulation of natural vision.

レンチキラー方式やパララックスバリヤー方式(光線の放出制御)などの二眼式では、左右眼用画像を左右の眼に振り分けて表示することにより得られる輻輳角によって立体視を実現する。しかし、従来から知られている裸眼式の立体画像表示装置は、光の方向に力点が置かれているので、光線再生による立体知覚がうまくできないという欠点を有している。 In a twin-lens system such as a lenticular system or a parallax barrier system (control of emission of light rays), stereoscopic vision is realized by a convergence angle obtained by distributing and displaying images for the left and right eyes. However, the conventionally known naked-eye type stereoscopic image display device has a drawback in that stereoscopic perception cannot be performed well by light ray reproduction because the focus is placed in the direction of light.

一方、本実施形態に係る立体画像表示装置は、二眼式とは異なる手法を用いて立体感や奥行き感を実現するものであり、二眼式に比べて立体感が弱いものの、自然視に近いという特徴を有している。本実施形態における光線再生は、自然視を十分に模擬できており、例えば、固視微動によって発生する視点の変化は立体画素の3〜5個分であって、この変化は、対象物における視点移動距離に換算して0.52〜1.78cm程度に相当し、この変化内に光を畳み込んでいる。 On the other hand, the stereoscopic image display apparatus according to the present embodiment realizes a stereoscopic effect and a sense of depth by using a method different from the twin-lens type, and although the stereoscopic effect is weaker than that of the twin-lens type, the stereoscopic image display is not natural. It has the characteristic of being close. The ray reproduction in the present embodiment can sufficiently simulate natural vision, and for example, the change in the viewpoint caused by the involuntary eye movement is 3 to 5 stereoscopic pixels, and the change is the viewpoint in the object. It corresponds to about 0.52 to 1.78 cm when converted to the moving distance, and the light is convoluted within this change.

本実施形態に係る立体画像表示装置は、左右どちらかの画像フレームにおいて視点を定め、複数の視点画像を生成する。その際に、画像中の各点から放射される多数の光線を視野角1〜2度の範囲内に収めることによって光線再生法が作用するので、観察位置による制約が緩く、観察者の顔位置が変化した場合でも、また、複数の観察者が同時に立体画像を観察する場合でも、自然な立体視が可能である。 The stereoscopic image display device according to the present embodiment determines a viewpoint in either the left or right image frame and generates a plurality of viewpoint images. At this time, the ray reproduction method works by keeping a large number of rays emitted from each point in the image within the range of the viewing angle of 1 to 2 degrees. Natural stereoscopic vision is possible even when the value changes, or when a plurality of observers simultaneously observe the stereoscopic image.

本発明は、立体画像表示装置、特に、光線再生方式を用いた裸眼式の立体画像表示装置において利用することが可能である。 INDUSTRIAL APPLICABILITY The present invention can be used in a stereoscopic image display device, particularly in a naked-eye type stereoscopic image display device using a light ray reproduction method.

1…分配部、2、3…フレームメモリー、4、5…列総和算定部、6…列総和比較部、7…視差マトリックス生成部、8…視点画像生成部、9…画像メモリー、10…重み付け関数発生部、11…画像信号変換部、12…フレーム選択部、100…画像表示パネル、200…画像処理装置、300…表示制御装置 1... Distributor, 2, 3... Frame memory, 4, 5... Column summation calculation unit, 6... Column summation comparison unit, 7... Parallax matrix generation unit, 8... Viewpoint image generation unit, 9... Image memory, 10... Weighting Function generating unit, 11... Image signal converting unit, 12... Frame selecting unit, 100... Image display panel, 200... Image processing device, 300... Display control device

Claims (10)

m個(mは3以上の整数)のピクセルを各々が含む複数の立体画素を水平方向及び垂直方向に並べて構成される画像表示パネルと、
画像信号の右眼用画像フレーム及び左眼用画像フレームから画素ごとの奥行き情報を求め、奥行き情報に基づいて、画素画像を水平方向に展開して表示するためのm個の視点画像フレームを生成する画像処理装置と、
前記画像表示パネルの複数の立体画素において、前記m個の視点画像フレームによって表されるm個の視点画像を前記m個のピクセルにそれぞれ表示させる表示制御装置と、
を備える立体画像表示装置。
An image display panel configured by arranging a plurality of stereoscopic pixels each including m (m is an integer of 3 or more) pixels in the horizontal direction and the vertical direction,
Depth information for each pixel is obtained from the image frame for the right eye and the image frame for the left eye of the image signal, and based on the depth information, m viewpoint image frames for horizontally expanding and displaying the pixel image are generated. An image processing device that
A display control device for displaying m viewpoint images represented by the m viewpoint image frames on the m pixels in a plurality of stereoscopic pixels of the image display panel;
A stereoscopic image display device.
前記画像表示パネルの各々の立体画素において、前記m個のピクセルは、光重心が水平方向に並ぶように配置されている、請求項1に記載の立体画像表示装置。 The stereoscopic image display device according to claim 1, wherein, in each stereoscopic pixel of the image display panel, the m pixels are arranged such that optical centers of gravity are arranged in a horizontal direction. 前記m個のピクセルの各々は、光の3原色を表示する複数のサブピクセルを含む、請求項1に記載の立体画像表示装置。 The stereoscopic image display apparatus according to claim 1, wherein each of the m pixels includes a plurality of sub-pixels that display three primary colors of light. 前記複数のサブピクセルは、前記画像表示パネルにおいて隣り合う複数のラインに配置されている、請求項3に記載の立体画像表示装置。 The stereoscopic image display device according to claim 3, wherein the plurality of sub-pixels are arranged in a plurality of adjacent lines in the image display panel. 前記複数のサブピクセルは、前記画像表示パネルにおいて1ラインおきに複数のラインに配置されている、請求項3に記載の立体画像表示装置。 The stereoscopic image display device according to claim 3, wherein the plurality of sub-pixels are arranged in a plurality of lines in every other line in the image display panel. 前記画像表示パネルにおいて、同じ色を表示する複数のサブピクセルが垂直方向に並ぶように配置されている、請求項3に記載の立体画像表示装置。 The three-dimensional image display device according to claim 3, wherein in the image display panel, a plurality of sub-pixels that display the same color are arranged so as to be aligned in the vertical direction. 前記画像表示パネルにおいて、同じ色を表示する複数のサブピクセルが水平方向に並ぶように配置されている、請求項3に記載の立体画像表示装置。 The three-dimensional image display device according to claim 3, wherein in the image display panel, a plurality of sub-pixels that display the same color are arranged side by side in the horizontal direction. 前記画像処理装置は、前記右眼用画像フレーム及び前記左眼用画像フレームを格納し、各フレームの画素値を列ごとに垂直方向に積算して列総和を求め、列総和を両フレーム間で比較することによって両フレームの画像中の重複領域を特定し、両フレームの画像の位置関係を調整した後に、両フレームにおいて対応する画素画像の位置のずれに基づいて画素ごとの奥行き情報を求め、重み付けされた奥行き情報に基づいて一方のフレーム中の画素画像を水平方向に移動させることにより、前記一方のフレームを含めてm個の視点画像フレームを生成する、請求項1〜7のいずれか1項に記載の立体画像表示装置。 The image processing device stores the right-eye image frame and the left-eye image frame, obtains a column sum by vertically accumulating pixel values of each frame for each column, and a column sum between both frames. After identifying the overlapping area in the images of both frames by comparing, adjusting the positional relationship of the images of both frames, determine the depth information for each pixel based on the displacement of the corresponding pixel image in both frames, 8. The m viewpoint image frames including the one frame are generated by moving a pixel image in the one frame in the horizontal direction based on the weighted depth information. The three-dimensional image display device according to the item. 前記画像処理装置は、2次元画像信号のフレーム列から、基準フレームと該基準フレームに対して所定数のフレーム差を有する参照フレームとを選択し、前記基準フレーム及び前記参照フレームに基づいて、前記右眼用画像フレーム及び前記左眼用画像フレームを有する画像信号を生成する、請求項1〜7のいずれか1項に記載の立体画像表示装置。 The image processing device selects a standard frame and a reference frame having a predetermined number of frame differences with respect to the standard frame from a frame sequence of a two-dimensional image signal, and based on the standard frame and the reference frame, The stereoscopic image display device according to any one of claims 1 to 7, which generates an image signal having an image frame for the right eye and an image frame for the left eye. 前記表示制御装置は、前記画像表示パネルの複数の立体画素において、前記m個の視点画像を前記m個のピクセルに割り当てて表示させる、請求項1〜7のいずれか1項に記載の立体画像表示装置。 The stereoscopic image according to any one of claims 1 to 7, wherein the display control device allocates the m viewpoint images to the m pixels in a plurality of stereoscopic pixels of the image display panel for display. Display device.
JP2019531009A 2017-07-20 2018-07-13 Stereoscopic image display device Pending JPWO2019017290A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017140480 2017-07-20
JP2017140480 2017-07-20
PCT/JP2018/026488 WO2019017290A1 (en) 2017-07-20 2018-07-13 Stereoscopic image display device

Publications (1)

Publication Number Publication Date
JPWO2019017290A1 true JPWO2019017290A1 (en) 2020-08-27

Family

ID=65015181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019531009A Pending JPWO2019017290A1 (en) 2017-07-20 2018-07-13 Stereoscopic image display device

Country Status (2)

Country Link
JP (1) JPWO2019017290A1 (en)
WO (1) WO2019017290A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111918052B (en) * 2020-08-14 2022-08-23 广东申义实业投资有限公司 Vertical rotary control device and method for converting plane picture into 3D image
CN115956214A (en) * 2020-08-20 2023-04-11 凸版印刷株式会社 Diffraction sheet and method for manufacturing same, three-dimensional display device, light beam reproduction device, three-dimensional space display system, light beam reproduction method, and program
CN117097879B (en) * 2023-08-28 2024-03-12 山东天竞电子科技有限公司 Pixelized naked eye 3D display method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3885077B2 (en) * 2004-03-26 2007-02-21 独立行政法人科学技術振興機構 3D display
JP5068391B2 (en) * 2009-10-30 2012-11-07 富士フイルム株式会社 Image processing device
JP2012134655A (en) * 2010-12-20 2012-07-12 Toshiba Corp Image processing device, image processing method, and image display device
JP2013045087A (en) * 2011-08-26 2013-03-04 Toshiba Corp Three-dimensional image display apparatus
KR20130080517A (en) * 2012-01-05 2013-07-15 삼성디스플레이 주식회사 Method of displaying stereoscopic image and display apparatus performing for the method
JP6381206B2 (en) * 2013-12-24 2018-08-29 キヤノン株式会社 Image processing apparatus, control method thereof, and program

Also Published As

Publication number Publication date
WO2019017290A1 (en) 2019-01-24

Similar Documents

Publication Publication Date Title
JP7094266B2 (en) Single-depth tracking-accommodation-binocular accommodation solution
US4723159A (en) Three dimensional television and video systems
TWI665905B (en) Method for generating three-dimensional image, imaging method and system
US20090066786A1 (en) Depth Illusion Digital Imaging
WO2006001361A1 (en) Stereoscopic image creating method and device
JPWO2019017290A1 (en) Stereoscopic image display device
JP2002223458A (en) Stereoscopic video image generator
WO2018010677A1 (en) Information processing method, wearable electric device, processing apparatus, and system
Lambooij et al. Emulating autostereoscopic lenticular designs
TWI491216B (en) Adaptation of 3d video content
Honda et al. Three-dimensional display technologies satisfying" super multiview condition"
TWI589150B (en) Three-dimensional auto-focusing method and the system thereof
KR101821141B1 (en) 3d imaging system and imaging display method for the same
KR20120025282A (en) Stereoscopic 3d display device
US20140268324A1 (en) Method of displaying 3d images from 2d source images using a barrier grid
JP2012244453A (en) Image display device, image display system, and three-dimensional spectacles
KR20120093693A (en) Stereoscopic 3d display device and method of driving the same
JPH11155154A (en) Stereoscopic video processing unit
JP6915368B2 (en) Multifocal visual output method, multifocal visual output device
JP2005175538A (en) Stereoscopic video display apparatus and video display method
JP2005175539A (en) Stereoscopic video display apparatus and video display method
KR20150091838A (en) Super multiview three dimensional display system
Emoto et al. Analysis of retinal images for retinal projection type super multi-view 3D head-mounted display
Mikšícek Causes of visual fatigue and its improvements in stereoscopy
Brooker et al. Operator performance evaluation of controlled depth of field in a stereographically displayed virtual environment

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200410