JP2018074463A - Image generation device, image display system and program - Google Patents

Image generation device, image display system and program Download PDF

Info

Publication number
JP2018074463A
JP2018074463A JP2016214195A JP2016214195A JP2018074463A JP 2018074463 A JP2018074463 A JP 2018074463A JP 2016214195 A JP2016214195 A JP 2016214195A JP 2016214195 A JP2016214195 A JP 2016214195A JP 2018074463 A JP2018074463 A JP 2018074463A
Authority
JP
Japan
Prior art keywords
image
display
pixel
virtual camera
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016214195A
Other languages
Japanese (ja)
Other versions
JP6846165B2 (en
Inventor
康仁 澤畠
Yasuhito Sawahata
康仁 澤畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2016214195A priority Critical patent/JP6846165B2/en
Publication of JP2018074463A publication Critical patent/JP2018074463A/en
Application granted granted Critical
Publication of JP6846165B2 publication Critical patent/JP6846165B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently enlarge a vision in which a stereoscopic image is visible.SOLUTION: Virtual camera image acquisition means acquires a virtual camera image at each of multiple view points. Observation position acquisition means acquires an observation position. Pixel value determination means calculates a displacement amount from a center point of a display part to an intersection of a straight line that passes the observation position and a center point of a lens plate of an image generation device, with the display part of the image generation device, identifies an element lens corresponding to a display pixel that is a pixel of a display image, combines a value that is obtained by multiplying a pixel value of a pixel of the virtual camera image at the same position as the display element by a weight coefficient based on a position of the display pixel and a position of the virtual camera image between the virtual camera images and calculates a pixel value of a display pixel at a position where a displacement amount from the display pixel becomes the calculated displacement amount.SELECTED DRAWING: Figure 2

Description

本発明は、画像生成装置、画像表示システム及びプログラムに関する。   The present invention relates to an image generation device, an image display system, and a program.

インテグラル方式立体ディスプレイ装置は、専用のメガネを用いずに自然な立体像を観察者に視認させることができる立体ディスプレイ装置の一種である。立体ディスプレイ装置は、表示面の前面における所定の視域内における観察者の左右両眼の位置に応じた像の光線を選択的に提示する仕組みを備える。この仕組みにより、観視者の左右両眼に提示される像の違い(両眼視差)及び観視位置に応じた見え方の変化(運動視差)が再現される。そのため、観視者は表示される被写体の立体像を知覚することができる。   The integral type stereoscopic display device is a kind of stereoscopic display device that allows an observer to visually recognize a natural stereoscopic image without using dedicated glasses. The stereoscopic display device has a mechanism for selectively presenting light rays of an image according to the positions of the left and right eyes of the observer within a predetermined viewing zone in front of the display surface. This mechanism reproduces the difference in images (binocular parallax) presented to the viewer's left and right eyes and changes in appearance according to the viewing position (motion parallax). Therefore, the viewer can perceive a stereoscopic image of the displayed subject.

インテグラル方式立体ディスプレイ装置は、レンズを備えた光学的な仕組みを有する立体ディスプレイ装置である。この仕組みにより、観視位置における光の選択的提示が実現される。より具体的には、インテグラル方式立体ディスプレイ装置は、レンズ板とディスプレイパネルを備える。レンズ板は、多数の微細な凸レンズを2次元アレイ状に配列してなる。レンズ板の主面は、レンズ板を構成する凸レンズの焦点距離に相当する距離だけ離れた位置にディスプレイパネルの表示面と平行に配置される。ディスプレイパネルは、レンズ板を構成する凸レンズよりもさらに微細な画素が2次元平面内に配列してなる。ディスプレイパネルは、例えば、液晶ディスプレイである。従って、各1個の凸レンズには複数の画素が割り当てられる。ディスプレイパネルは、レンズ板よりも観視者に対して奥に配置される。レンズ板の前面に所在する観視者は、レンズ板を構成する各1個の凸レンズに割り当てられた画素群から、1画素から発される光線を選択的に観察することになる。   The integral type stereoscopic display device is a stereoscopic display device having an optical mechanism including a lens. This mechanism realizes selective presentation of light at the viewing position. More specifically, the integral type stereoscopic display device includes a lens plate and a display panel. The lens plate is formed by arranging a number of fine convex lenses in a two-dimensional array. The main surface of the lens plate is arranged in parallel with the display surface of the display panel at a position that is separated by a distance corresponding to the focal length of the convex lens constituting the lens plate. The display panel is formed by arranging finer pixels in a two-dimensional plane than the convex lens constituting the lens plate. The display panel is a liquid crystal display, for example. Accordingly, a plurality of pixels are assigned to each one convex lens. The display panel is arranged behind the viewer rather than the lens plate. A viewer located in front of the lens plate selectively observes light rays emitted from one pixel from a group of pixels assigned to each one convex lens constituting the lens plate.

レンズ板よりも観視者に対して奥に配置されるディスプレイパネルに表示される画像を表示画像と呼ぶ。また、レンズ板を構成する個々の凸レンズを要素レンズと呼び、各1個の要素レンズについて提示される画像を要素画像と呼ぶ。1個の要素画像は、複数の画素からなる。つまり、表示画像は、複数の要素画像からなる要素画像群である。表示画像は、立体ディスプレイ装置の前面における所定の視域内の複数の視点において観察される像の情報を含んで構成される。従って、観視者は、ディスプレイパネルに表示された表示画像をレンズ板越しに観察することにより、立体像を認識することができる。   An image displayed on a display panel disposed behind the lens plate relative to the viewer is referred to as a display image. In addition, each convex lens constituting the lens plate is referred to as an element lens, and an image presented for each one element lens is referred to as an element image. One element image consists of a plurality of pixels. That is, the display image is an element image group including a plurality of element images. The display image is configured to include information on images observed at a plurality of viewpoints within a predetermined viewing area on the front surface of the stereoscopic display device. Therefore, the viewer can recognize the stereoscopic image by observing the display image displayed on the display panel through the lens plate.

しかしながら、観視者の位置が所定の視域から外れる場合には、立体像の乱れが視認されることがある。その位置において、ある要素レンズを通じて観察される画素が、その要素レンズに対面した要素画像内の画素ではなく、その要素レンズとは異なる要素レンズに対面した要素画像内の画素となることが一因として考えられる。図4に示す例では、観視位置Va3において要素レンズElを通じて観察される位置P上の画素は、要素レンズElの上方に隣接した要素レンズに対面している。その異なる要素レンズに対面する画素は、本来異なる観視位置から観察されるべき画素であるためである。例えば、観視者の位置が所定の視域の左端よりも左方である場合には、その位置で観察される像の一部を構成する画素が本来視域の右端の近傍で観察される像を構成する画素になることがある。この像の一部が像の乱れとして視認される。 However, when the viewer's position is out of the predetermined viewing area, the stereoscopic image may be disturbed. One reason is that at that position, a pixel observed through an element lens is not a pixel in the element image facing the element lens but a pixel in an element image facing an element lens different from the element lens. Is considered. In the example shown in FIG. 4, the pixel on the position Pn observed through the element lens El at the viewing position Va3 faces the element lens adjacent above the element lens El. This is because the pixels facing the different element lenses are pixels that should be observed from different viewing positions. For example, if the position of the viewer is to the left of the left end of a predetermined viewing area, the pixels that form part of the image observed at that position are originally observed near the right end of the viewing area It may be a pixel constituting an image. A part of this image is visually recognized as image disturbance.

視域拡大のために、観視者の位置を測定し、測定した位置に応じてレンズ板とディスプレイとの位置関係をサーボ機構により機械的に移動させることや、要素レンズの屈折率分布を変化させること、などが提案されている(特許文献1−3参照)。これらの手法は、いずれも観察される像の乱れを低減するための手法に過ぎず、所定の視域外で観察される像の乱れを根本的に解消することはできない。例えば、視域外である立体ディスプレイ装置の主面に対して斜め方向の観視位置から、正面視により視認される立体像に近い像が視認されることがある。従って、真に視域を拡大するためには、像の乱れを解消するだけではなく、拡大された視域内の視点において本来視認されるべき立体像が視認されることが望ましい。   In order to enlarge the viewing zone, the position of the viewer is measured, and the positional relationship between the lens plate and the display is mechanically moved by the servo mechanism according to the measured position, and the refractive index distribution of the element lens is changed. Have been proposed (see Patent Documents 1-3). Any of these methods is merely a method for reducing the disturbance of the observed image, and the disturbance of the image observed outside the predetermined viewing zone cannot be basically eliminated. For example, an image close to a stereoscopic image viewed by front view may be visually recognized from a viewing position obliquely with respect to the main surface of the stereoscopic display device that is outside the viewing area. Therefore, in order to truly enlarge the viewing zone, it is desirable not only to eliminate image disturbance but also to visually recognize a stereoscopic image that should be viewed at the viewpoint in the enlarged viewing zone.

なお、立体ディスプレイ方式には、インテグラル方式の他に、レンチキュラー方式、パララックスバリア方式などの方式がある。レンチキュラー方式、パララックスバリア方式ともに、専用のメガネが不要である立体ディスプレイ方式である。いずれも、共通の被写体の像を表し、相互間で視差を有する2枚の画像を、垂直方向に細長く切断されてなる要素画像を水平方向に交互に配列してなる表示画像をディスプレイパネルに表示させる方式である。但し、レンチキュラー方式立体ディスプレイ装置は、細長いかまぼこ型の複数の凸レンズの長手方向を垂直方向に向け、それらの凸レンズを水平方向に要素画像と同じ周期で配列してなるレンズ板をディスプレイの前面に配置してなる。パララックスバリア方式立体ディスプレイ装置は、垂直方向に細長い開口部を水平方向に要素画像と同じ周期で配列してなるスリットを配置してなる。従って、レンチキュラー方式、パララックスバリア方式の立体ディスプレイ装置では、視域拡大は、レンズ板もしくはスリットとディスプレイとの相対的な位置関係を制御することで実現される。これらの方式でも、所定の視域外となる視点から視認される像には乱れが生じないが、本来視認されるべき像とは異なってしまう。   In addition to the integral method, the three-dimensional display method includes methods such as a lenticular method and a parallax barrier method. Both the lenticular method and the parallax barrier method are three-dimensional display methods that do not require special glasses. Each of them represents a common subject image, and a display image is displayed on the display panel, in which two images having parallax between each other are alternately arranged in the horizontal direction into element images obtained by cutting the strips in the vertical direction. It is a method to make it. However, the lenticular three-dimensional display device has a lens plate in which the longitudinal direction of a plurality of long and semi-cylindrical convex lenses is oriented in the vertical direction and the convex lenses are arranged in the horizontal direction at the same cycle as the element image. Do it. The parallax barrier type stereoscopic display device is formed by arranging slits in which elongated openings are arranged in the vertical direction in the horizontal direction at the same cycle as the element image. Therefore, in the lenticular type and parallax barrier type stereoscopic display device, the viewing zone can be enlarged by controlling the relative positional relationship between the lens plate or slit and the display. Even with these methods, the image viewed from the viewpoint outside the predetermined viewing area is not disturbed, but is different from the image that should be visually recognized.

特許平7−38926号公報Japanese Patent No. 7-38926 特開2005−175973号公報JP 2005-175993 A 特開2014−112757号公報JP 2014-112757 A 特許第5522794号公報Japanese Patent No. 5522794

Athineos, Spyros S., et al. “Physical modeling of a microlens array setup for use in computer generated IP”, Proceedings of the SPIE, Vol. 5664, pp. 472-479, 2005Athineos, Spyros S., et al. “Physical modeling of a microlens array setup for use in computer generated IP”, Proceedings of the SPIE, Vol. 5664, pp. 472-479, 2005 Huy Hoang Tran, et al., “Interactive 3D Navigation System for Image-guided Surgery”, International Journal of Virtual Reality, 8(1), pp. 9-16, 2009Huy Hoang Tran, et al., “Interactive 3D Navigation System for Image-guided Surgery”, International Journal of Virtual Reality, 8 (1), pp. 9-16, 2009 中島勧, 他, “Integral Photographyの原理を用いた3次元ディスプレイの画像高速作成法”, 映像メディア学会誌, Vol. 54, No.3, pp. 420-425, 2000Nakajima, et al., “High-speed image creation method for 3D display using the principle of Integral Photography”, Journal of the Institute of Image Media Sciences, Vol. 54, No.3, pp. 420-425, 2000 小池崇文, “プログラマブルなグラフィックハードウェアを用いたインテグラルフォトグラフィ画像のレンダリング”,社団法人情報処理学会 研究報告, 2003-CG-113, pp. 70-74, 2003Takafumi Koike, “Rendering Integral Photography Images Using Programmable Graphics Hardware”, Information Processing Society of Japan Research Report, 2003-CG-113, pp. 70-74, 2003

所定の視域外となる視点から本来の像が視認されるには、観視位置に応じた表示画像をフラットディスプレイに表示させることが考えられる。フラットディスプレイに表示させる表示画像は、複数の視点においてそれぞれ取得される被写体の画像を合成して生成されうる。しかしながら、従来の表示画像の生成方式、例えば、非特許文献1〜4に記載の方式によれば多大な計算コストを要していた。このことは、都度変化しうる観視位置に対する実時間追従を困難にしていた。   In order to view the original image from a viewpoint outside the predetermined viewing area, it is conceivable to display a display image corresponding to the viewing position on the flat display. A display image to be displayed on the flat display can be generated by synthesizing images of subjects acquired at a plurality of viewpoints. However, according to the conventional display image generation method, for example, the methods described in Non-Patent Documents 1 to 4, a large calculation cost is required. This makes it difficult to follow the real time to the viewing position that can change from time to time.

本発明は上記の点に鑑みてなされたものであり、立体像が視認される視域を効率的に拡大することができる画像生成装置、画像表示システム及びプログラムを提供することを目的とする。   The present invention has been made in view of the above points, and an object thereof is to provide an image generation device, an image display system, and a program capable of efficiently expanding a viewing area where a stereoscopic image is visually recognized.

本発明は上記の課題を解決するためになされたものであり、[1]本発明の一態様は、画像を表示する表示部が複数の要素レンズを配列してなるレンズ板からの距離が前記要素レンズの焦点距離となる位置に対面して配置された画像表示装置に表示させる表示画像を生成する画像生成装置であって、複数の視点それぞれの仮想カメラ画像を取得する仮想カメラ画像取得手段と、観視位置を取得する観視位置取得手段と、前記観視位置と前記レンズ板の中心点を通る直線と前記表示部との交点までの前記表示部の中心点からの変位量を算出し、前記表示画像の画素である表示画素に対応する要素レンズを特定し、前記表示画素と同じ位置の前記仮想カメラ画像の画素の画素値を、前記表示画素の位置と前記仮想カメラ画像の位置に基づく重み係数を乗じて得られる値を前記仮想カメラ画像間で合成して前記表示画素からの変位量が算出した前記変位量となる位置の表示画素の画素値を算出する画素値決定手段と、を備える画像生成装置である。
[1]の構成によれば、表示画像を構成する表示画素と同じ位置の仮想カメラ画像の画素の画素値と、その表示画素に対応する要素レンズの位置を基準とする表示画像の位置と仮想カメラ画像の視点により定めた重み係数を用いて、もとの表示画素からの変位量が算出した変位量となる位置の表示画素の画素値が算出される。そのため、仮想カメラ画像のうち各要素レンズに対応する領域内の画像として、観視位置からレンズ板の中心点の方向に変位した領域の画像を仮想カメラ間で合成して要素画像が生成される。観視位置の移動量が個々の要素レンズの径よりも大きくなっても観視位置において各要素画像が対応する要素レンズを介して提示される。そのため、所期の立体像が視認される視域が拡大する。また、仮想カメラ画像に基づいて中間画像を生成せずに表示画像を直接生成することが可能となるので、メモリ利用効率を向上させることができる。表示画素の画素値が表示画素間で独立に算出されるので、これらの演算を並列に処理することで、表示画像の生成が高速化される。
The present invention has been made to solve the above-described problems. [1] In one aspect of the present invention, the distance from a lens plate in which a display unit for displaying an image is formed by arranging a plurality of element lenses is as described above. An image generation device that generates a display image to be displayed on an image display device that is disposed facing a position that is a focal length of an element lens, and a virtual camera image acquisition unit that acquires a virtual camera image of each of a plurality of viewpoints Viewing position acquisition means for acquiring a viewing position; and a displacement amount from the center point of the display unit to the intersection of the viewing position and a straight line passing through the center point of the lens plate and the display unit is calculated. The element lens corresponding to the display pixel that is the pixel of the display image is specified, and the pixel value of the pixel of the virtual camera image at the same position as the display pixel is set to the position of the display pixel and the position of the virtual camera image. Weighter based And a pixel value determining unit that calculates a pixel value of a display pixel at a position where the displacement amount is calculated by combining a value obtained by multiplying the virtual camera images between the virtual camera images. It is a generation device.
According to the configuration of [1], the pixel value of the pixel of the virtual camera image at the same position as the display pixel constituting the display image, the position of the display image based on the position of the element lens corresponding to the display pixel, and the virtual The pixel value of the display pixel at the position where the displacement amount from the original display pixel is the calculated displacement amount is calculated using the weighting coefficient determined by the viewpoint of the camera image. Therefore, as an image in the region corresponding to each element lens in the virtual camera image, an element image is generated by synthesizing the image of the region displaced from the viewing position toward the center point of the lens plate between the virtual cameras. . Even if the movement amount of the viewing position becomes larger than the diameter of each element lens, each element image is presented through the corresponding element lens at the viewing position. Therefore, the viewing area where the intended stereoscopic image is viewed is enlarged. Further, since it is possible to directly generate a display image without generating an intermediate image based on a virtual camera image, it is possible to improve memory utilization efficiency. Since the pixel value of the display pixel is calculated independently between the display pixels, the generation of the display image is speeded up by processing these operations in parallel.

[2]本発明の一態様は、上述の画像生成装置であって、前記複数の視点の中心点の位置が前記観視位置となるように前記複数の視点の位置を設定するカメラパラメータ記録手段を備える[1]の画像生成装置である。
[2]の構成によれば、観視位置を中心に分布する視点で観察される複数の仮想カメラ画像が表示画像の生成に用いられる。そのため、仮想カメラ画像を取得する視点の全体が観視位置に追従する。従って、各視点について取得される複数の仮想カメラ画像が表示画像の生成に有効に利用され、表示される表示画像について視認される立体像の画質が向上する。
[2] One aspect of the present invention is the above-described image generation device, wherein the camera parameter recording unit sets the positions of the plurality of viewpoints so that the positions of the center points of the plurality of viewpoints are the viewing positions. The image generating apparatus according to [1] including:
According to the configuration of [2], a plurality of virtual camera images observed from viewpoints distributed around the viewing position are used for generating a display image. Therefore, the entire viewpoint for acquiring the virtual camera image follows the viewing position. Therefore, a plurality of virtual camera images acquired for each viewpoint are effectively used for generating a display image, and the quality of a stereoscopic image visually recognized for the displayed display image is improved.

[3]本発明の一態様は、上述の画像生成装置であって、観視位置計測部と、前記画像表示装置と、[1]又は[2]の画像生成装置と、を備える画像表示システムであって、前記観視位置取得手段は、前記観視位置計測部が計測した前記観視位置を取得することを特徴とする画像表示システムである。
[3]の構成によれば、観視位置計測部が計測した観視位置に基づいて算出した変位量で変位した仮想カメラ画像を用いて表示画像が生成される。画像表示装置は、生成された表示画像を表示する。そのため、観視者は画像表示装置に表示される表示画像について観視位置に応じた立体像を視認することができる。
[3] One aspect of the present invention is the above-described image generation apparatus, which includes the viewing position measurement unit, the image display apparatus, and the image generation apparatus according to [1] or [2]. In the image display system, the viewing position acquisition unit acquires the viewing position measured by the viewing position measurement unit.
According to the configuration of [3], the display image is generated using the virtual camera image displaced by the displacement amount calculated based on the viewing position measured by the viewing position measurement unit. The image display device displays the generated display image. Therefore, the viewer can visually recognize a stereoscopic image corresponding to the viewing position for the display image displayed on the image display device.

[4]本発明の一態様は、画像を表示する表示部が複数の要素レンズを配列してなるレンズ板からの距離が前記要素レンズの焦点距離となる位置に対面して配置された画像表示装置に表示させる表示画像を生成する画像生成装置であって、複数の視点それぞれの仮想カメラ画像を取得する仮想カメラ画像取得手段と、観視位置を取得する観視位置取得手段と、前記観視位置と前記レンズ板の中心点を通る直線と前記表示部との交点までの前記表示部の中心点からの変位量を算出し、前記表示画像の画素である表示画素に対応する要素レンズを特定し、前記表示画素と同じ位置の前記仮想カメラ画像の画素の画素値を、前記表示画素の位置と前記仮想カメラ画像の位置に基づく重み係数を乗じて得られる値を前記仮想カメラ画像間で合成して前記表示画素からの変位量が算出した前記変位量となる位置の表示画素の画素値を算出する画素値決定手段と、を備える画像生成装置として、コンピュータに機能させるためのプログラムである。
[4]の構成によれば、表示画像を構成する表示画素と同じ位置の仮想カメラ画像の画素の画素値と、その表示画素に対応する要素レンズの位置を基準とする表示画像の位置と仮想カメラ画像の視点により定めた重み係数を用いて、もとの表示画素からの変位量が算出した変位量となる位置の表示画素の画素値が算出される。そのため、仮想カメラ画像のうち各要素レンズに対応する領域内の画像として、観視位置からレンズ板の中心点の方向に変位した領域の画像を仮想カメラ間で合成して要素画像が生成される。観視位置の移動量が個々の要素レンズの径よりも大きくなっても観視位置において各要素画像が対応する要素レンズを介して提示される。そのため、所期の立体像が視認される視域が拡大する。また、仮想カメラ画像に基づいて中間画像を生成せずに表示画像を直接生成することが可能となるので、メモリ利用効率を向上させることができる。表示画素の画素値が表示画素間で独立に算出されるので、これらの演算を並列に処理することで、表示画像の生成が高速化される。
[4] According to one aspect of the present invention, an image display in which a display unit that displays an image is arranged to face a position where a distance from a lens plate in which a plurality of element lenses are arranged is a focal length of the element lens An image generation apparatus that generates a display image to be displayed on the apparatus, the virtual camera image acquisition means for acquiring virtual camera images for each of a plurality of viewpoints, the viewing position acquisition means for acquiring a viewing position, and the viewing Calculate the amount of displacement from the center point of the display unit up to the intersection of the position and the straight line passing through the center point of the lens plate and the display unit, and identify the element lens corresponding to the display pixel that is the pixel of the display image Then, a value obtained by multiplying the pixel value of the pixel of the virtual camera image at the same position as the display pixel by a weighting factor based on the position of the display pixel and the position of the virtual camera image is synthesized between the virtual camera images. Before As an image generating apparatus and a pixel value determining means for calculating a pixel value of the display pixel position serving as the displacement amount of the displacement amount of the display pixel is calculated, a program for causing the computer.
According to the configuration of [4], the pixel value of the pixel of the virtual camera image at the same position as the display pixel constituting the display image, the position of the display image based on the position of the element lens corresponding to the display pixel, and the virtual The pixel value of the display pixel at the position where the displacement amount from the original display pixel is the calculated displacement amount is calculated using the weighting coefficient determined by the viewpoint of the camera image. Therefore, as an image in the region corresponding to each element lens in the virtual camera image, an element image is generated by synthesizing the image of the region displaced from the viewing position toward the center point of the lens plate between the virtual cameras. . Even if the movement amount of the viewing position becomes larger than the diameter of each element lens, each element image is presented through the corresponding element lens at the viewing position. Therefore, the viewing area where the intended stereoscopic image is viewed is enlarged. Further, since it is possible to directly generate a display image without generating an intermediate image based on a virtual camera image, it is possible to improve memory utilization efficiency. Since the pixel value of the display pixel is calculated independently between the display pixels, the generation of the display image is speeded up by processing these operations in parallel.

本発明によれば、立体像が観察される視域を効率的に拡大することができる。   According to the present invention, it is possible to efficiently expand the viewing zone in which a stereoscopic image is observed.

本発明の実施形態に係る画像表示システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the image display system which concerns on embodiment of this invention. 本発明の実施形態に係る画像生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image generation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る仮想カメラの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the virtual camera which concerns on embodiment of this invention. 表示画像と視点の位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship of a display image and a viewpoint. 表示画像と視点の位置関係の他の例を示す図である。It is a figure which shows the other example of the positional relationship of a display image and a viewpoint. 表示画像の一例を示す図である。It is a figure which shows an example of a display image. 表示画像の一部を示す拡大図である。It is an enlarged view which shows a part of display image. 要素レンズの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of an element lens. 表示画素に最も近接する要素レンズの特定方法の一例を示す説明図である。It is explanatory drawing which shows an example of the identification method of the element lens nearest to a display pixel. 仮想カメラ画像の例を示す図である。It is a figure which shows the example of a virtual camera image. 本発明の実施形態に係る画像生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the image generation process which concerns on embodiment of this invention. 本発明の実施形態に係る画素値決定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the pixel value determination process which concerns on embodiment of this invention.

以下、図面を参照しながら本発明の実施形態について説明する。
図1は、本実施形態に係る画像表示システム1の構成例を示す図である。
画像表示システム1は、画像生成装置10、観視位置計測部20及び画像表示装置30を含んで構成される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration example of an image display system 1 according to the present embodiment.
The image display system 1 includes an image generation device 10, a viewing position measurement unit 20, and an image display device 30.

画像生成装置10は、観視位置計測部20から観視位置Vpを示す観視位置信号と、複数の視点のそれぞれにおいて観察される仮想カメラ画像を示す仮想カメラ画像データを取得する。観視位置Vpは、画像表示装置30に表示される画像を1名の観視者が観視する位置である。画像生成装置10は、観視位置Vpに基づいて各視点の仮想カメラ画像を変位させ、変位させた仮想カメラ画像を仮想カメラ間で合成して表示画像を生成する。表示画像とは、画像表示装置30に表示される画像を指し示す。表示画像は、インテグラル画像とも呼ばれる。画像生成装置10は、生成した表示画像を示す表示画像データを画像表示装置30に出力し、画像表示装置30に表示画像を表示させる。   The image generation apparatus 10 acquires a viewing position signal indicating the viewing position Vp and virtual camera image data indicating a virtual camera image observed at each of a plurality of viewpoints from the viewing position measurement unit 20. The viewing position Vp is a position where one viewer views an image displayed on the image display device 30. The image generation device 10 displaces the virtual camera image at each viewpoint based on the viewing position Vp, and generates a display image by combining the displaced virtual camera images between the virtual cameras. The display image indicates an image displayed on the image display device 30. The display image is also called an integral image. The image generation device 10 outputs display image data indicating the generated display image to the image display device 30 and causes the image display device 30 to display the display image.

観視位置計測部20は、実空間において観視位置Vpを計測する。画像表示装置30が移動できる可搬型の場合(例えば、タブレット型の画像表示装置である場合)は、画像表示装置30の中心点Oの位置も計測する。一般には、観視位置計測部20と画像表示装置30との位置関係が一定していないためである。観視位置計測部20が画像表示装置30と一体化して構成されている場合には、画像表示装置30の中心点Oの位置は計測されなくてもよい。観視位置計測部20の形態は、据え置き型でもよいし、その一部が可搬型であってもよい。観視位置Vや画像表示装置30の中心点Oの位置の計測方式は、いかなる方式でもよい。計測方法には、例えば、光学式、磁気式がある。光学式の計測方法が用いられる場合には、観視位置計測部20は、例えば、撮像素子(イメージセンサ)を含んで構成される。撮像素子は、被写体からの可視光線又は赤外線で表される画像を撮像する。観視位置計測部20は、撮像された画像から観視者の頭部の中心点又は左右両眼の中点を観視位置Vとして計測する。観視位置計測部20は、撮影により得られる深度マップを示す画像データを参照し、互いに近接する座標間の深度値の差に基づいて像の輪郭を抽出する。観視位置計測部20は、抽出した輪郭と所定の人体モデルと照合して観視者の頭部の中心点の画像上の2次元座標と奥行値について座標変換を行って得られる被撮像空間の座標値で表される位置を観視位置Vpとして特定する。人体モデルは、人体を構成する各部位の中心点の位置を示すデータである。人体の部位には、頭部の他、上腕部、胸部、下肢部などが含まれる。観視位置計測部20は、撮影により得られる画像データについて画像認識処理を行い観視者の左眼、右眼とそれぞれの中心点の画像上の2次元座標値ならびに奥行値を特定してもよい。そして、観視位置計測部20は、特定した左眼、右眼それぞれの2次元座標値ならびに奥行値の平均値を算出し、算出した2次元座標値ならびに奥行値の平均値を被撮像空間の座標値で表される位置を観視位置Vとして特定する。 The viewing position measurement unit 20 measures the viewing position Vp in the real space. When the image display device 30 is movable (for example, a tablet-type image display device), the position of the center point O d of the image display device 30 is also measured. This is because the positional relationship between the viewing position measurement unit 20 and the image display device 30 is generally not constant. When the viewing position measurement unit 20 is configured integrally with the image display device 30, the position of the center point Od of the image display device 30 may not be measured. The viewing position measuring unit 20 may be a stationary type or a part thereof may be a portable type. Any method may be used for measuring the viewing position V p and the position of the center point O d of the image display device 30. Examples of the measuring method include an optical method and a magnetic method. When the optical measurement method is used, the viewing position measurement unit 20 includes, for example, an image sensor (image sensor). The imaging element captures an image represented by visible light or infrared light from the subject. Viewing position measurement unit 20 measures the midpoint of the center point or the left and right eyes of the viewer's head from the captured image as a viewing position V p. The viewing position measurement unit 20 refers to image data indicating a depth map obtained by photographing, and extracts the contour of the image based on a difference in depth value between coordinates close to each other. The viewing position measuring unit 20 collates the extracted contour with a predetermined human body model and performs coordinate conversion on the two-dimensional coordinates and the depth value on the image of the center point of the viewer's head, and is thus captured. The position represented by the coordinate value is specified as the viewing position Vp. The human body model is data indicating the position of the center point of each part constituting the human body. The human body region includes the upper arm, chest, lower limbs, etc. in addition to the head. Even if the viewing position measurement unit 20 performs image recognition processing on the image data obtained by shooting, the two-dimensional coordinate value and the depth value on the image of the left eye and right eye of the viewer and the respective center points are specified. Good. Then, the viewing position measurement unit 20 calculates the average value of the two-dimensional coordinate value and the depth value of each of the identified left eye and right eye, and calculates the calculated two-dimensional coordinate value and the average value of the depth value in the imaging space. identifying the position represented by the coordinate values as a viewing position V p.

磁気式の計測方法が用いられる場合には、観視位置計測部20は、例えば、位置が固定した磁場発生器と磁気センサを備える。磁気センサは、観視者の頭部に装着可能な固定具に固定され、磁場発生器から伝搬した磁場の大きさと向きを検出する。観視位置計測部20は、磁気センサが検出した磁場の大きさと向きに対応する観視者の頭部の位置を観視位置Vとして特定する。
観視位置計測部20は、特定した観視位置Vを示す観視位置信号を画像生成装置10に出力する。
以上、主に観視位置Vについて説明したが、画像表示装置30の中心点Oの位置も、観視位置Vと同様な手法で計測可能である。画像表示装置30の中心点Oの位置を計測する場合には、観視位置計測部20は、計測した画像表示装置30の中心点Oの位置を示す表示位置信号を画像生成装置10に出力する。
When the magnetic measurement method is used, the viewing position measurement unit 20 includes, for example, a magnetic field generator and a magnetic sensor whose positions are fixed. The magnetic sensor is fixed to a fixture that can be worn on the viewer's head, and detects the magnitude and direction of the magnetic field propagated from the magnetic field generator. Viewing position measuring unit 20 identifies the position of the head of the viewer corresponding to the magnitude and direction of the magnetic field by the magnetic sensor detects a viewing position V p.
Viewing position measurement unit 20 outputs the viewing position signal indicating the specified viewing position V p to the image generating apparatus 10.
Above, has been mainly described forceps position V p, the position of the center point O d of the image display device 30 can also be measured by viewing the position V p and similar techniques. When measuring the position of the center point O d of the image display device 30, the viewing position measurement unit 20 sends a display position signal indicating the measured position of the center point O d of the image display device 30 to the image generation device 10. Output.

画像表示装置30は、インテグラル方式立体ディスプレイ装置である。画像表示装置30は、ディスプレイパネル31(図5)とレンズ板32(図5)を含んで構成される。ディスプレイパネル31とレンズ板32は、それぞれの主面が互いに平行に対面して配置される。ディスプレイパネル31とレンズ板32それぞれの主面は、2次元平面であり、長方形の形状を有する。ディスプレイパネル31の主面には、複数の画素が水平方向、垂直方向のそれぞれについて等間隔に配置される。ディスプレイパネル31の水平方向、垂直方向の画素数は、それぞれ7680、4320である。画素が配列される領域が表示画像の表示領域に相当する。従って、ディスプレイパネル31は、表示画像を表示する表示部として機能する。レンズ板32の主面には、複数の要素レンズが所定の形式で配列される。要素レンズの配列形式は、例えば、デルタ配列である。複数の要素レンズは、互いに形状と大きさが共通である凸レンズである。要素レンズの焦点距離fは、ディスプレイパネル31とレンズ板32との間の距離に相当する。観視者は、ディスプレイパネル31に表示された表示画像を、レンズ板32を介して観察することにより、被写体の立体像を視認することができる。画像表示装置30は、例えば、テーブルトップ型またはタブレット型のインテグラル方式立体ディスプレイ装置として実現されてもよい。テーブルトップ型またはタブレット型のインテグラル方式立体ディスプレイ装置の大きさは、表示画像を一度に観視する観視者の数が1名である場合に適している。典型的なテーブルトップ型またはタブレット型のインテグラル方式立体ディスプレイ装置の大きさは、例えば、縦100mm×横150mm×奥行20mmから縦400mm×横560mm×奥行100mmまでの範囲である。   The image display device 30 is an integral type stereoscopic display device. The image display device 30 includes a display panel 31 (FIG. 5) and a lens plate 32 (FIG. 5). The display panel 31 and the lens plate 32 are arranged such that their main surfaces face each other in parallel. The main surfaces of the display panel 31 and the lens plate 32 are two-dimensional planes and have a rectangular shape. On the main surface of the display panel 31, a plurality of pixels are arranged at equal intervals in the horizontal direction and the vertical direction. The numbers of pixels in the horizontal direction and the vertical direction of the display panel 31 are 7680 and 4320, respectively. The area where the pixels are arranged corresponds to the display area of the display image. Therefore, the display panel 31 functions as a display unit that displays a display image. On the main surface of the lens plate 32, a plurality of element lenses are arranged in a predetermined format. The arrangement format of the element lenses is, for example, a delta arrangement. The plurality of element lenses are convex lenses having the same shape and size. The focal length f of the element lens corresponds to the distance between the display panel 31 and the lens plate 32. The viewer can visually recognize the stereoscopic image of the subject by observing the display image displayed on the display panel 31 through the lens plate 32. The image display device 30 may be realized as, for example, a table top type or tablet type integral type stereoscopic display device. The size of the table top type or tablet type integral type stereoscopic display device is suitable when the number of viewers viewing a display image at one time is one. The size of a typical table top type or tablet type integral type stereoscopic display device is, for example, in a range from 100 mm long × 150 mm wide × 20 mm deep to 400 mm × 560 mm wide × 100 mm deep.

(画像生成装置の構成例)
次に、本実施形態に係る画像生成装置10の構成例について説明する。
図2は、本実施形態に係る画像生成装置10の構成例を示すブロック図である。
画像生成装置10は、画像表示装置30に表示させる表示画像を生成する。画像生成装置10は、カメラパラメータ記録手段110、入力部120、カメラパラメータ・仮想カメラ画像関連付け手段130、画素値決定手段140及び出力部150を含んで構成される。
(Configuration example of image generation apparatus)
Next, a configuration example of the image generation apparatus 10 according to the present embodiment will be described.
FIG. 2 is a block diagram illustrating a configuration example of the image generation apparatus 10 according to the present embodiment.
The image generation device 10 generates a display image to be displayed on the image display device 30. The image generation apparatus 10 includes a camera parameter recording unit 110, an input unit 120, a camera parameter / virtual camera image association unit 130, a pixel value determination unit 140, and an output unit 150.

カメラパラメータ記録手段110は、画像生成装置10の外部から複数の仮想カメラのそれぞれに係るカメラパラメータを取得し、取得したカメラパラメータを記録する。仮想カメラとは、仮想的に3次元空間内に設置された画像取得手段を意味する。カメラパラメータは、仮想カメラによる画像の取得に係るパラメータである。カメラパラメータには、仮想カメラの光学中心の位置が含まれる。この位置は、視点の位置に相当し、所定の位置を基準とする相対的な位置として表されてもよい。基準とする所定の位置は、例えば、複数の仮想カメラの分布領域の重心点である。   The camera parameter recording unit 110 acquires camera parameters related to each of the plurality of virtual cameras from the outside of the image generation apparatus 10 and records the acquired camera parameters. The virtual camera means an image acquisition unit that is virtually installed in a three-dimensional space. The camera parameter is a parameter related to image acquisition by the virtual camera. The camera parameter includes the position of the optical center of the virtual camera. This position corresponds to the position of the viewpoint, and may be expressed as a relative position with a predetermined position as a reference. The predetermined position as a reference is, for example, the center of gravity of the distribution area of the plurality of virtual cameras.

なお、カメラパラメータ記録手段110は、複数の仮想カメラそれぞれの視点の中心点の座標を算出し、算出した中心点の座標が観視位置の座標と等しくなるように、それぞれの視点を定めてもよい。観視位置は、入力部120の観視位置取得手段121(後述)から入力される観視位置信号によりカメラパラメータ記録手段110に通知される。視点の設定において、カメラパラメータ記録手段110は、視点間の相対的な位置関係を変化させずに一定に保ってもよい。設定される各視点は、観視位置と画像表示装置30のレンズ板32の中心点を通る直線に垂直な2次元平面内に配置され、視点の中心点を基準とする各視点の相対的な座標が移動前後で変化せずに一定に保たれてもよい。   Note that the camera parameter recording unit 110 may calculate the coordinates of the center point of each viewpoint of the plurality of virtual cameras, and determine each viewpoint so that the calculated center point coordinates are equal to the coordinates of the viewing position. Good. The viewing position is notified to the camera parameter recording unit 110 by a viewing position signal input from a viewing position acquisition unit 121 (described later) of the input unit 120. In setting the viewpoint, the camera parameter recording unit 110 may keep the relative positional relationship between the viewpoints unchanged. The set viewpoints are arranged in a two-dimensional plane perpendicular to the viewing position and the straight line passing through the center point of the lens plate 32 of the image display device 30, and the relative viewpoints of the viewpoints with respect to the center point of the viewpoint. The coordinates may be kept constant without changing before and after the movement.

入力部120には、画像生成装置10の外部から各種のデータが入力される。入力部120は、観視位置取得手段121、仮想カメラ画像取得手段122、立体ディスプレイパラメータ入力手段123及び表示画像調整パラメータ入力手段124を含んで構成される。   Various data are input to the input unit 120 from the outside of the image generation apparatus 10. The input unit 120 includes a viewing position acquisition unit 121, a virtual camera image acquisition unit 122, a stereoscopic display parameter input unit 123, and a display image adjustment parameter input unit 124.

観視位置取得手段121には、観視位置計測部20から観視位置信号が入力される。観視位置取得手段121は、入力された観視位置信号をカメラパラメータ記録手段110と画素値決定手段140に出力する。
観視位置取得手段121には、観視位置計測部20から表示位置信号が入力される場合がある。その場合、観視位置取得手段121は、入力された表示位置信号を画素値決定手段140に出力する。
A viewing position signal is input from the viewing position measurement unit 20 to the viewing position acquisition unit 121. The viewing position acquisition unit 121 outputs the input viewing position signal to the camera parameter recording unit 110 and the pixel value determination unit 140.
The viewing position acquisition unit 121 may receive a display position signal from the viewing position measurement unit 20. In that case, the viewing position acquisition unit 121 outputs the input display position signal to the pixel value determination unit 140.

仮想カメラ画像取得手段122は、個々の仮想カメラが設置される視点において観察される共通の被写体の画像を示す画像データを取得する。取得される画像データは、現実にその視点において撮影された被写体の画像を示す画像データでもよいし、公知のCG技術を用いて合成され、その視点において観察されうる被写体の画像を示す画像データでもよい。また、カメラパラメータ記録手段110が各視点を移動させる場合、仮想カメラ画像取得手段122は、設定された各視点において観察される被写体の画像を示す画像データを取得してもよい。   The virtual camera image acquisition unit 122 acquires image data indicating an image of a common subject observed from a viewpoint where each virtual camera is installed. The acquired image data may be image data indicating an image of a subject actually taken at that viewpoint, or may be image data indicating an image of a subject that is synthesized using a known CG technique and can be observed at that viewpoint. Good. Further, when the camera parameter recording unit 110 moves each viewpoint, the virtual camera image acquisition unit 122 may acquire image data indicating an image of a subject observed at each set viewpoint.

以下の説明では、各仮想カメラについて取得される画像を仮想カメラ画像と呼び、その仮想カメラ画像を示すデータを仮想カメラ画像データと呼ぶ。仮想カメラ画像データは、画素毎の画素値を示すデータである。画素値は、画素毎の明るさを示す輝度値、色を示す色空間値のいずれでもよい。色空間値として、例えば、RGB表色系で色を表現するRGB値が利用可能である。仮想カメラ画像取得手段は、仮想カメラ毎に取得される仮想カメラ画像データをカメラパラメータ・仮想カメラ画像関連付け手段130に出力する。   In the following description, an image acquired for each virtual camera is referred to as a virtual camera image, and data indicating the virtual camera image is referred to as virtual camera image data. Virtual camera image data is data indicating a pixel value for each pixel. The pixel value may be either a luminance value indicating brightness for each pixel or a color space value indicating color. As the color space value, for example, an RGB value representing a color in the RGB color system can be used. The virtual camera image acquisition unit outputs the virtual camera image data acquired for each virtual camera to the camera parameter / virtual camera image association unit 130.

立体ディスプレイパラメータ入力手段123は、立体ディスプレイパラメータを取得する。立体ディスプレイパラメータは、立体ディスプレイ装置である画像表示装置30による表示画像の表示に係るパラメータである。立体ディスプレイパラメータには、例えば、画像表示装置30を構成するレンズ板32のパラメータと、ディスプレイパネル31のパラメータとが含まれる。レンズ板32のパラメータには、レンズ板32を構成する個々の要素レンズの直径、焦点距離、配置間隔(ピッチ)、水平方向ならびに垂直方向の要素レンズの個数などが含まれる。ディスプレイパネル31のパラメータには、上述した画像表示装置30の中心点としてレンズ板32の中心点Oの座標、ディスプレイパネル31の表示領域の中心点の座標、画像を表示する画素の画素ピッチ、水平方向ならびに垂直方向の画素の個数などが含まれる。立体ディスプレイパラメータ入力手段123は、取得した立体ディスプレイパラメータを画素値決定手段140に出力する。なお、観視位置取得手段121に観視位置計測部20からレンズ板32の中心点Oの座標を示す表示位置信号が入力される場合には、立体ディスプレイパラメータにレンズ板32の中心点Oの座標が含まれていなくてもよい。 The stereoscopic display parameter input unit 123 acquires a stereoscopic display parameter. The stereoscopic display parameter is a parameter related to display of a display image by the image display device 30 which is a stereoscopic display device. The stereoscopic display parameters include, for example, parameters of the lens plate 32 that constitutes the image display device 30 and parameters of the display panel 31. The parameters of the lens plate 32 include the diameter, focal length, arrangement interval (pitch) of the individual element lenses constituting the lens plate 32, the number of element lenses in the horizontal and vertical directions, and the like. The parameters of the display panel 31 include the coordinates of the center point Od of the lens plate 32 as the center point of the image display device 30 described above, the coordinates of the center point of the display area of the display panel 31, the pixel pitch of the pixels displaying the image, This includes the number of pixels in the horizontal and vertical directions. The stereoscopic display parameter input unit 123 outputs the acquired stereoscopic display parameter to the pixel value determination unit 140. When the display position signal indicating the coordinates of the center point Od of the lens plate 32 is input from the viewing position measurement unit 20 to the viewing position acquisition unit 121, the center point O of the lens plate 32 is included in the stereoscopic display parameter. The coordinates of d may not be included.

表示画像調整パラメータ入力手段124は、表示画像調整パラメータを取得する。表示画像調整パラメータは、立体ディスプレイ装置に表示させる表示画像の表示位置や向きを調整するためのパラメータである。表示画像調整パラメータには、レンズ板のディスプレイ装置への取り付け誤差を調整するための取付誤差調整パラメータ、例えば、所定の基準位置からの垂直方向の変位ならびに水平方向の変位、所定の基準方向からの回転角などが含まれる。表示画像調整パラメータ入力手段124は、取得した表示画像調整パラメータを画素値決定手段140に出力する。   The display image adjustment parameter input unit 124 acquires display image adjustment parameters. The display image adjustment parameter is a parameter for adjusting the display position and orientation of the display image displayed on the stereoscopic display device. The display image adjustment parameter includes an attachment error adjustment parameter for adjusting an attachment error of the lens plate to the display device, for example, a vertical displacement from a predetermined reference position, a horizontal displacement, and a predetermined reference direction. Includes rotation angle. The display image adjustment parameter input unit 124 outputs the acquired display image adjustment parameter to the pixel value determination unit 140.

カメラパラメータ・仮想カメラ画像関連付け手段130には、仮想カメラ画像取得手段122から仮想カメラ画像データが入力され、入力される仮想カメラ画像データに対応する仮想カメラに係るカメラパラメータをカメラパラメータ記録手段110から読み取る。カメラパラメータ・仮想カメラ画像関連付け手段130は、読み取ったカメラパラメータと入力された仮想カメラ画像データとを仮想カメラ、即ち視点毎に関連付け、カメラパラメータと仮想カメラ画像データのセットを形成する。カメラパラメータ・仮想カメラ画像関連付け手段130は、仮想カメラ毎に形成したカメラパラメータと仮想カメラ画像データのセットを画素値決定手段140に出力する。   Virtual camera image data is input from the virtual camera image acquisition unit 122 to the camera parameter / virtual camera image association unit 130, and camera parameters related to the virtual camera corresponding to the input virtual camera image data are input from the camera parameter recording unit 110. read. The camera parameter / virtual camera image associating unit 130 associates the read camera parameters with the input virtual camera image data for each virtual camera, that is, for each viewpoint, and forms a set of camera parameters and virtual camera image data. The camera parameter / virtual camera image association unit 130 outputs a set of camera parameters and virtual camera image data formed for each virtual camera to the pixel value determination unit 140.

画素値決定手段140には、カメラパラメータ・仮想カメラ画像関連付け手段130からカメラパラメータと仮想カメラ画像データのセットが仮想カメラ毎に入力される。また、画素値決定手段140には、観視位置取得手段121から観視位置信号が入力され、立体ディスプレイパラメータ入力手段123から立体ディスプレイパラメータが入力される。
画素値決定手段140は、ディスプレイパネル31の表示領域の中心点を通る当該表示領域の法線とレンズ板32の主面との交点の座標を、レンズ板32の中心点の座標として算出する。画素値決定手段140は、観視位置信号が示す観視位置と立体ディスプレイパラメータに含まれるレンズ板32の中心点を通る直線と、ディスプレイパネル31の表示領域との交点の座標を算出する。画素値決定手段140は、ディスプレイパネル31の表示領域の中心点の座標から算出した座標までの変位量(ずれ量)を算出する。変位量については、後述する。
A set of camera parameters and virtual camera image data is input to the pixel value determination unit 140 from the camera parameter / virtual camera image association unit 130 for each virtual camera. Further, the pixel value determination unit 140 receives a viewing position signal from the viewing position acquisition unit 121 and a stereoscopic display parameter from the stereoscopic display parameter input unit 123.
The pixel value determination unit 140 calculates the coordinates of the intersection point between the normal line of the display area passing through the center point of the display area of the display panel 31 and the main surface of the lens plate 32 as the coordinates of the center point of the lens plate 32. The pixel value determination unit 140 calculates the coordinates of the intersection of the viewing position indicated by the viewing position signal and the straight line passing through the center point of the lens plate 32 included in the stereoscopic display parameter and the display area of the display panel 31. The pixel value determining unit 140 calculates a displacement amount (displacement amount) from the coordinates of the center point of the display area of the display panel 31 to the calculated coordinates. The amount of displacement will be described later.

画素値決定手段140は、立体ディスプレイパラメータとカメラパラメータに基づいて、表示画像を表示するディスプレイパネル31と、そのディスプレイパネル31と平行に対面して配置されるレンズ板32を構成する要素レンズの位置関係を判定する。そして、画素値決定手段140は、表示画素毎に、その表示画素に対応する要素レンズを特定する。表示画像に対応する要素レンズは、中心点がその表示画素から最も近接した要素レンズである。立体ディスプレイ装置において、その表示画素に対面する要素レンズが存在する場合には、その対面する要素レンズが対応する要素レンズとなる。   The pixel value determining means 140 is based on the three-dimensional display parameter and the camera parameter, and the position of the element lens constituting the display panel 31 that displays the display image and the lens plate 32 that is arranged facing the display panel 31 in parallel. Determine the relationship. Then, the pixel value determination unit 140 specifies an element lens corresponding to the display pixel for each display pixel. The element lens corresponding to the display image is an element lens whose center point is closest to the display pixel. In the stereoscopic display device, when there is an element lens facing the display pixel, the facing element lens is a corresponding element lens.

画素値決定手段140は、入力された仮想カメラ画像データから、表示画素毎にその画像内の位置を示す座標値が等しい画素の画素値を抽出する。
画素値決定手段140は、表示画素毎に対応する要素レンズの位置を基準としたその表示画素の位置と、仮想カメラの位置とに基づいて、抽出した画素値に対する重み係数を定める。仮想カメラの位置は、対応する視点の位置に相当する。画素値決定手段140は、各表示画素からの変位量が算出した変位量と等しい位置にある表示画素を特定する。特定される表示画素は、もとの表示画素から算出した変位量だけ変位した位置に配置される表示画素に相当する。そして、画素値決定手段140は、抽出した画素値と定めた重み係数を乗じて得られる乗算値について仮想カメラ画像間で総和をとって得られる値を、特定した表示画素の画素値、つまり、算出した変位量で変位した位置における表示画素の画素値として定める。
The pixel value determination unit 140 extracts pixel values of pixels having the same coordinate value indicating the position in the image for each display pixel from the input virtual camera image data.
The pixel value determining unit 140 determines a weighting coefficient for the extracted pixel value based on the position of the display pixel with respect to the position of the element lens corresponding to each display pixel and the position of the virtual camera. The position of the virtual camera corresponds to the position of the corresponding viewpoint. The pixel value determination unit 140 specifies a display pixel at a position where the displacement amount from each display pixel is equal to the calculated displacement amount. The specified display pixel corresponds to a display pixel arranged at a position displaced by a displacement amount calculated from the original display pixel. Then, the pixel value determining means 140 determines the pixel value of the specified display pixel, that is, the value obtained by taking the sum between the virtual camera images for the multiplication value obtained by multiplying the extracted pixel value by the determined weight coefficient, that is, The pixel value of the display pixel at the position displaced by the calculated displacement amount is determined.

定めた画素値で表される画像は、もとの仮想カメラ画像を算出した変位量で変位した画像に基づいて生成される。そのため、変位した位置が画像表示装置30の表示領域外となる場合がある。画素値決定手段140は、表示領域外となる位置における表示画素の画素値を棄却する。また、変位した位置が表示領域内であっても変位前の位置が表示領域外である場合には、もとの表示画像が存在しない。そこで、画素値決定手段140は、変位前の位置が表示領域外である表示画素の画素値を予め定めた画素値に定めてもよい。予め定めた画素値は、例えば、ディスプレイパネル31が表示できる最低の輝度(基準黒輝度)に対応する画素値である。
画素値決定手段140は、定めた表示画素毎の画素値を示す表示画像データを生成し、生成した表示画像データを出力部150に出力する。
The image represented by the determined pixel value is generated based on the image displaced by the displacement amount calculated from the original virtual camera image. Therefore, the displaced position may be outside the display area of the image display device 30. Pixel value determining means 140 rejects the pixel value of the display pixel at a position outside the display area. Further, even if the displaced position is within the display area, if the position before the displacement is outside the display area, the original display image does not exist. Therefore, the pixel value determination unit 140 may set the pixel value of the display pixel whose position before the displacement is outside the display area to a predetermined pixel value. The predetermined pixel value is, for example, a pixel value corresponding to the lowest luminance (reference black luminance) that the display panel 31 can display.
The pixel value determination unit 140 generates display image data indicating the pixel value for each determined display pixel, and outputs the generated display image data to the output unit 150.

画素値決定手段140には、表示画像調整パラメータ入力手段124から表示画像調整パラメータがさらに入力されることがある。その場合には、画素値決定手段140は、所定のレンズ板の位置と向きを入力された表示画像調整パラメータを用いて、レンズ板の位置と向きを補正する。この補正によりレンズ板を構成する要素レンズ毎の位置と向きが補正される。画素値決定手段140は、位置と向きが補正された複数の要素レンズから、表示画素に対応する要素レンズを特定する。そのため、レンズ板の取付誤差の調整に伴って変更した取付誤差調整パラメータに対応する画素値で示される表示画像が得られる。表示画像に基づいて取付誤差調整パラメータを調整することができるため、取付誤差調整パラメータの校正に係る作業能率が向上する。画素値決定手段140において画素値を決定するより具体的な手法については、後述する。   The pixel value determining unit 140 may further receive a display image adjustment parameter from the display image adjustment parameter input unit 124. In that case, the pixel value determination unit 140 corrects the position and orientation of the lens plate using the display image adjustment parameter to which the position and orientation of the predetermined lens plate are input. This correction corrects the position and orientation of each element lens constituting the lens plate. The pixel value determining unit 140 specifies an element lens corresponding to the display pixel from the plurality of element lenses whose positions and orientations are corrected. Therefore, a display image indicated by the pixel value corresponding to the attachment error adjustment parameter that is changed along with the adjustment of the attachment error of the lens plate is obtained. Since the attachment error adjustment parameter can be adjusted based on the display image, the work efficiency related to the calibration of the attachment error adjustment parameter is improved. A more specific method for determining the pixel value in the pixel value determining means 140 will be described later.

出力部150は、画素値決定手段140から入力された表示画像データを、自部が備える出力バッファに一時的に記憶し、画像表示装置30のディスプレイパネル31に表示画像データを出力する。ディスプレイパネルは、出力部150から入力される表示画像データが示す表示画像を表示する。なお、表示画像データは、画像表示装置30以外の機器、例えば、画像データベースなどに出力されてもよい。   The output unit 150 temporarily stores the display image data input from the pixel value determination unit 140 in an output buffer included in the output unit 150, and outputs the display image data to the display panel 31 of the image display device 30. The display panel displays a display image indicated by display image data input from the output unit 150. The display image data may be output to a device other than the image display device 30, for example, an image database.

(仮想カメラの配置例)
次に、本実施形態に係る仮想カメラの配置例について説明する。図3は、本実施形態に係る仮想カメラの配置例を示す図である。表示画像の生成において複数の視点のそれぞれから観察される被写体Oを表す平面画像が用いられる。図3に示す例では、各視点に相当する仮想カメラの光学中心の位置が被写体に対面した2次元平面内にアレイ状に配置される。立体像の画質を確保するために、各一方向に配置される仮想カメラの個数は、レンズ板を構成する1つの要素レンズの領域内に収容可能な画素数以上になることが望ましい。例えば、要素レンズの直径、画素ピッチがそれぞれ1mm、0.05mmであるとき、仮想カメラの水平方向、垂直方向の個数は、それぞれ20個以上であることが望ましい。また、仮想カメラの分布は、要素レンズに対応した配列であってもよいし、要素レンズに対応付けられていなくてもよい。図3に示す例では、ほぼ円形の領域内に複数の仮想カメラが水平方向及び垂直方向に等間隔に配置される。
(Virtual camera placement example)
Next, an arrangement example of the virtual camera according to the present embodiment will be described. FIG. 3 is a diagram illustrating an arrangement example of the virtual cameras according to the present embodiment. Planar image representing a subject O b observed from each of the plurality of viewpoints in the generation of the display image is used. In the example shown in FIG. 3, the position of the optical center of the virtual camera corresponding to each viewpoint is arranged in an array in a two-dimensional plane facing the subject. In order to ensure the image quality of the stereoscopic image, it is desirable that the number of virtual cameras arranged in each direction is equal to or greater than the number of pixels that can be accommodated in the region of one element lens constituting the lens plate. For example, when the diameter of the element lens and the pixel pitch are 1 mm and 0.05 mm, respectively, it is desirable that the number of virtual cameras in the horizontal direction and the vertical direction is 20 or more, respectively. Further, the distribution of the virtual cameras may be an array corresponding to the element lenses, or may not be associated with the element lenses. In the example shown in FIG. 3, a plurality of virtual cameras are arranged at equal intervals in the horizontal direction and the vertical direction in a substantially circular area.

カメラパラメータとして用いられる各仮想カメラVの座標(cx,cy)は、それらの中心に配置された仮想カメラの座標を原点O(0,0)とした相対位置で表されてもよい。図3に対して、原点Oよりも左方に隣接する仮想カメラの座標は、(−p,0)となる。pは、仮想カメラのピッチ(間隔)を示す。水平方向の座標値cx、垂直方向の座標値cyは、複数の仮想カメラの水平方向、垂直方向の分布の幅をそれぞれ2Cとして正規化した値であってもよい。その場合、座標値cx、cyの最大値、最小値は、それぞれC、−Cである。従って、水平方向、垂直方向の仮想カメラの数である2×C/pは、画素ピッチに対する要素レンズの直径の比よりも大きければよい。要素レンズの半径を1とするとき、後述する画素値の算出において採用される補間法によっては、Cは1よりも大きい値であってもよい。例えば、C=1+2pと設定しておいてもよい。よって、座標値cx、cyがいずれも−1以上であって1以下となる仮想カメラに係る画素の画素値が確実に算出される。なお、仮想カメラ画像取得手段122は、複数の仮想カメラの全てについての仮想カメラ画像データを必ずしも一斉に取得しなくてもよい。仮想カメラ画像取得手段122は、移動する1つの仮想カメラに係る仮想カメラ画像データを取得してもよい。従って、それぞれ異なる時刻において異なる視点から観察される複数の画像を示す仮想カメラ画像データが取得される。 Coordinates of the virtual camera V c to be used as camera parameters (cx, cy) are the coordinates of the virtual camera arranged in their center may be represented by the relative position and the origin O (0,0). With respect to FIG. 3, the coordinates of the virtual camera adjacent to the left side from the origin O are (−p, 0). p indicates the pitch (interval) of the virtual camera. The horizontal coordinate value cx and the vertical coordinate value cy may be values normalized by setting the horizontal and vertical distribution widths of a plurality of virtual cameras to 2C. In that case, the maximum and minimum values of the coordinate values cx and cy are C and -C, respectively. Therefore, 2 × C / p, which is the number of virtual cameras in the horizontal and vertical directions, only needs to be larger than the ratio of the diameter of the element lens to the pixel pitch. When the radius of the element lens is 1, C may be a value larger than 1 depending on an interpolation method used in pixel value calculation described later. For example, C = 1 + 2p may be set. Therefore, the pixel values of the pixels related to the virtual camera whose coordinate values cx and cy are both −1 or more and 1 or less are reliably calculated. Note that the virtual camera image acquisition unit 122 does not necessarily need to acquire virtual camera image data for all of the plurality of virtual cameras all at once. The virtual camera image acquisition unit 122 may acquire virtual camera image data related to one moving virtual camera. Therefore, virtual camera image data indicating a plurality of images observed from different viewpoints at different times is acquired.

カメラパラメータ記録手段110は、上述したように、観視位置取得手段121から入力された観視位置信号が示す観視位置に基づいて、複数の仮想カメラ間の位置関係を保ちながら仮想カメラ毎の視点の座標を定めてもよい。図3に示す例では、カメラパラメータ記録手段110は、複数の仮想カメラ毎の視点の中心点Oを観視位置と定め、中心点Oと画像表示装置30のレンズ板32の中心点Oを通る直線(以下、O−O線と呼ぶ)を法線とする2次元平面内に、仮想カメラ毎の視点の位置を定める。カメラパラメータ記録手段110は、定めた各視点の2次元平面内の座標値として、もとの座標値(cx,cy)を設定する。これにより、視点間の相対的な位置関係が一定に保たれる。なお、カメラパラメータ記録手段110は、各視点と中心点Oを通る直線とO−O線とのなす角度が一定に保たれるように、各視点の位置を定めてもよい。
そして、仮想カメラ画像取得手段122は、定められた各視点において観察される被写体Oの画像を示す仮想カメラ画像データを取得する。仮想カメラ画像取得手段122は、例えば、CG技術を用いて、その仮想カメラ画像データを合成する。
As described above, the camera parameter recording unit 110 maintains the positional relationship between the plurality of virtual cameras based on the viewing position indicated by the viewing position signal input from the viewing position acquisition unit 121. The coordinates of the viewpoint may be determined. In the example illustrated in FIG. 3, the camera parameter recording unit 110 determines the center point O of the viewpoint for each of the plurality of virtual cameras as the viewing position, and sets the center point O and the center point O d of the lens plate 32 of the image display device 30. the straight line passing through (hereinafter, referred to as O-O d line) in a in a two-dimensional plane to normal, determining the position of the viewpoint of each virtual camera. The camera parameter recording unit 110 sets the original coordinate value (cx, cy) as the coordinate value in the two-dimensional plane of each determined viewpoint. Thereby, the relative positional relationship between viewpoints is kept constant. Note that the camera parameter recording unit 110 may determine the position of each viewpoint so that the angle formed between each viewpoint and the straight line passing through the center point Od and the O- Od line is kept constant.
Then, the virtual camera image obtaining means 122 obtains the virtual camera image data representing an image of an object O b observed in each viewpoint defined. The virtual camera image acquisition unit 122 synthesizes the virtual camera image data using, for example, CG technology.

(変位量)
次に、変位量について説明する。図4、図5は、それぞれ画像表示装置30に表示される表示画像と視点との位置関係の例を示す図である。図4に示す例では、ディスプレイパネル31の表示領域の垂直方向(x方向)、奥行方向(z方向)が、それぞれ下方、左方に表されている。ディスプレイパネル31の表示領域の水平方向(y方向)は、図面に対して奥行方向に相当する。ディスプレイパネル31の主面は、レンズ板32の主面とz方向に焦点距離fだけ離れた位置に配置されている。レンズ板32は、直径がdである主面の形状が円形の要素レンズがx−y平面内において垂直方向に間隔dで配列されてなる(図8、図9参照)。変位量が0であるとき、ディスプレイパネル31の表示領域のうち各要素レンズに対面した領域には、それぞれ要素画像が表示される。Va1、Va2、Va3は、それぞれ観視位置の例を示す。観視位置Va1は、ディスプレイパネル31の表示領域の中心点Oとレンズ板32の中心点Oを通る直線P上にある。要素レンズElの中心点は、レンズ板32の中心点Oと同じ位置に配置されている。そのため、観視位置Va1には、要素レンズElと対面した領域に表示される要素画像のうち中心点Oからの光線が要素レンズElを介して到来する。観視位置Va2は、観視位置Va1よりも垂直方向にずれた位置である。観視位置Va2は、要素レンズElに対応する要素画像の上端と要素レンズElの中心点を通る直線上にある。そのため、観視位置Va2には、要素レンズElと対面した領域に表示される要素画像の上端からの光線が要素レンズElを介して到来する。観視位置Va1、Va2では、要素レンズElに対面した要素画像内の画素からの光線が到来するので観察される立体像に乱れは生じない。これに対し、観視位置Va3は、観視位置Va2よりもさらに垂直方向にずれた位置となる。観視位置Va3には、要素レンズElの上隣の要素レンズEmと対面した領域に表示される要素画像内の一点Pと要素レンズElの中心点を通る直線上にある。そのため、観視位置Va3には、その要素画像内の点Pに配置された画素の光線が要素レンズElを介して到来する。図4に示す例では、点Pは、要素レンズElに対応する要素画像の上端よりも上方であるが、要素レンズEmに対応する要素画像の中心点よりも下方に位置している。そのため、観視位置Va3では、観視位置Va1、Va2とは異なり、本来観察されるべき立体像が観察されず、立体像の乱れが観察される。
(Displacement)
Next, the displacement amount will be described. 4 and 5 are diagrams showing examples of the positional relationship between the display image displayed on the image display device 30 and the viewpoint. In the example shown in FIG. 4, the vertical direction (x direction) and the depth direction (z direction) of the display area of the display panel 31 are shown on the lower side and the left side, respectively. The horizontal direction (y direction) of the display area of the display panel 31 corresponds to the depth direction with respect to the drawing. The main surface of the display panel 31 is disposed at a position separated from the main surface of the lens plate 32 by a focal length f in the z direction. The lens plate 32 is composed of element lenses whose diameters are d and whose main surface has a circular shape and are arranged at intervals d in the vertical direction in the xy plane (see FIGS. 8 and 9). When the displacement amount is 0, the element image is displayed in the area facing the element lens in the display area of the display panel 31. Va1, Va2, and Va3 indicate examples of viewing positions, respectively. Viewing position Va1 is on the straight line P d passing through the center point O d of the center point O e and the lens plate 32 in the display area of the display panel 31. The center point of the element lens El is disposed at the same position as the center point O d of the lens plate 32. Therefore, the viewing position Va1, light from the center point O e of the element images to be displayed in a region facing the element lenses El arrives via the element lens El. The viewing position Va2 is a position shifted in the vertical direction from the viewing position Va1. The viewing position Va2 is on a straight line passing through the upper end of the element image corresponding to the element lens El and the center point of the element lens El. Therefore, the light beam from the upper end of the element image displayed in the area facing the element lens El arrives at the viewing position Va2 via the element lens El. At the viewing positions Va1 and Va2, since the light rays from the pixels in the element image facing the element lens El arrive, the observed stereoscopic image is not disturbed. On the other hand, the viewing position Va3 is further shifted in the vertical direction than the viewing position Va2. The viewing position Va3 is on a straight line passing through one point Pn in the element image displayed in the area facing the element lens Em adjacent to the element lens El and the center point of the element lens El. Therefore, the light beam of the pixel arranged at the point Pn in the element image arrives at the viewing position Va3 via the element lens El. In the example shown in FIG. 4, the point P n is above the upper end of the element image corresponding to the element lens El, but is located below the center point of the element image corresponding to the element lens Em. Therefore, at the viewing position Va3, unlike the viewing positions Va1 and Va2, a stereoscopic image that should originally be observed is not observed, and a disorder of the stereoscopic image is observed.

これに対し、本実施形態では、画素値決定手段140は、観視位置Vaとレンズ板32の中心点Oを通る直線Pと、ディスプレイパネル31の表示領域との交点Oの座標を算出する。画素値決定手段140は、ディスプレイパネル31の表示領域の中心点Oの座標から算出した交点Oの座標までの変位量(ずれ量)を算出する。変位量は、x方向の変位量dx、y方向の変位量dyを要素として含む2次元のベクトル量である。x、y方向の変位量は、それぞれ式(1)に示す関係を用いて算出される。但し、図5では、y方向について図示が省略されている。 In contrast, in the present embodiment, the pixel value determining unit 140, and a straight line P d passing through the center point O d of viewing positions Va and the lens plate 32, the coordinates of the intersection point O f of the display area of the display panel 31 calculate. Pixel value determining means 140 calculates the displacement amount of up coordinates of the intersection point O f calculated from the center point O e of coordinates of the display area of the display panel 31 (shift amount). The displacement amount is a two-dimensional vector amount including the displacement amount dx in the x direction and the displacement amount dy in the y direction as elements. The displacement amounts in the x and y directions are calculated using the relationship shown in equation (1). However, in FIG. 5, illustration in the y direction is omitted.

式(1)において、Dx、Dyは、それぞれ中心点Oを原点とする観視位置Vaのx、y座標を示す。fは、各要素レンズの焦点距離を示す。zは、中心点Oを原点とする観視位置Vaの奥行方向の座標値(奥行値)を示す。即ち、x、y各方向の変位量Dx、Dyは、観視位置Vaのx座標Dx、y座標Dyに、焦点距離fの比を乗じて算出される。算出された変位量で変位した位置の画素を特定することで、変位前の画素に対応する要素レンズと特定した画素とが関連づけられる。図5に示す例では、中心点Oに存在する画素からのx方向の変位量がdxである位置Oの画素が特定され、その特定された画素と要素レンズElとが関連づけられる。観視位置Vaには関連付けられた要素画像内の位置Oの画素からの光線が要素レンズElを介して到来する。そのため、観視位置Vaでは、所望の立体像が観察される。 In Expression (1), Dx and Dy indicate the x and y coordinates of the viewing position Va with the center point Od as the origin. f indicates the focal length of each element lens. z represents the coordinate value (depth value) in the depth direction of the viewing position Va with the center point Od as the origin. That is, the displacement amounts Dx and Dy in the x and y directions are calculated by multiplying the x coordinate Dx and y coordinate Dy of the viewing position Va by the ratio of the focal length f. By specifying the pixel at the position displaced by the calculated displacement amount, the element lens corresponding to the pixel before displacement is associated with the specified pixel. In the example shown in FIG. 5, the displacement amount in the x direction from the pixel to be in the center point O e is identified pixel position O f is dx, and the identified pixels and element lens El is associated. Light from the pixel position O f in the associated image element in viewing position Va arrives via the element lens El. Therefore, a desired stereoscopic image is observed at the viewing position Va.

(表示画像)
次に、表示画像の例について説明する。図6は、表示画像の一例を示す図である。図6に示す表示画像は、図3に示す被写体Oを複数の仮想カメラの位置において観察される表示画像を、画素値決定手段140において集積ならびに合成して得られる。この表示画像は、出力部150から最終的に出力される表示画像データに基づいて画像表示装置のディスプレイパネル31により表示される二次元の画像である。レンズ板32を通過したこの表示画像を、観視者が観察することによって立体像を視認することができる。
図6において(u,v)は、表示画像内の画素の座標値を示す。原点は、表示画像の左下端の画素である。u、vは、それぞれ水平方向、垂直方向の座標値を示す値であって、0以上1以下に正規化された値をとる。例えば、表示画像の左下端、右上端の画素の座標は、それぞれ(0,0)、(1,1)となる。
(Display image)
Next, an example of a display image will be described. FIG. 6 is a diagram illustrating an example of a display image. Display image shown in FIG. 6, the display image observed at the positions of a plurality of virtual cameras subject O b shown in FIG. 3, obtained by integration and synthesized in the pixel value determining unit 140. This display image is a two-dimensional image displayed on the display panel 31 of the image display device based on the display image data finally output from the output unit 150. A viewer can visually recognize the stereoscopic image by observing the display image that has passed through the lens plate 32.
In FIG. 6, (u, v) indicates the coordinate value of the pixel in the display image. The origin is the lower left pixel of the display image. u and v are values indicating coordinate values in the horizontal direction and the vertical direction, respectively, and are values normalized to 0 or more and 1 or less. For example, the coordinates of the pixels at the lower left and upper right corners of the display image are (0, 0) and (1, 1), respectively.

図7は、図6に示す座標値(u,v)の周辺を拡大して表す拡大図である。表示画像を構成する要素画像は、その表示画素に対面するレンズ板の1つの要素レンズに対応付けられる。+印を中心とする円は、1つの要素レンズに対応する要素画像の領域を示す。画素値決定手段140は、表示画素の画素値を定めるために、その表示画素の座標値(u,v)に最も近接する要素レンズのディスプレイパネル上の中心点を特定する。画素値決定手段140は、座標値(u,v)をその中心点Oを原点(0,0)とするレンズ中心座標系の座標値(rx,ry)に変換する。 FIG. 7 is an enlarged view showing the periphery of the coordinate values (u, v) shown in FIG. The element image constituting the display image is associated with one element lens of the lens plate facing the display pixel. A circle centered on the + mark indicates a region of the element image corresponding to one element lens. In order to determine the pixel value of the display pixel, the pixel value determining unit 140 specifies the center point on the display panel of the element lens closest to the coordinate value (u, v) of the display pixel. The pixel value determining unit 140 converts the coordinate value (u, v) into a coordinate value (rx, ry) of the lens center coordinate system having the center point Or as the origin (0, 0).

より具体的には、画素値決定手段140は、座標値(u,v)を、式(2)に示す関係を用いて表示画素を単位とする座標値(Px,Py)に変換する。   More specifically, the pixel value determining unit 140 converts the coordinate value (u, v) into a coordinate value (Px, Py) with the display pixel as a unit using the relationship shown in Expression (2).

式(2)において、width、heightは、それぞれ要素画像の水平方向、垂直方向の画素数を示す。要素画像の水平方向、垂直方向の画素数は、通例、ディスプレイパネルの解像度に相当する。例えば、立体ディスプレイ装置のディスプレイパネルが、解像度が8Kである8Kディスプレイであるとき、そのディスプレイパネルの水平方向、垂直方向の画素数は、それぞれ7680、4320である。
なお、座標値(u,v)に代えて座標値(Px,Py)が取得されている場合には、画素値決定手段140は、座標値(u,v)から座標値(Px,Py)への変換を省略する。
In Expression (2), width and height indicate the number of pixels in the horizontal direction and the vertical direction of the element image, respectively. The number of pixels in the horizontal and vertical directions of the element image usually corresponds to the resolution of the display panel. For example, when the display panel of the stereoscopic display device is an 8K display having a resolution of 8K, the number of pixels in the horizontal direction and the vertical direction of the display panel is 7680 and 4320, respectively.
In addition, when the coordinate value (Px, Py) is acquired instead of the coordinate value (u, v), the pixel value determination unit 140 determines the coordinate value (Px, Py) from the coordinate value (u, v). The conversion to is omitted.

表示画像調整パラメータが入力される場合には、画素値決定手段140は、入力された表示画像調整パラメータを用いて座標値(Px,Py)を補正する。補正後の座標値(Px’,Py’)は、式(3)に示す関係を用いて算出される。   When the display image adjustment parameter is input, the pixel value determination unit 140 corrects the coordinate value (Px, Py) using the input display image adjustment parameter. The corrected coordinate values (Px ′, Py ′) are calculated using the relationship shown in Expression (3).

式(3)において、h、v、θは、それぞれ所定の基準点からの水平方向の変位(ずれ)、その基準点からの垂直方向の変位、所定の基準方向からの回転角を示す。   In Expression (3), h, v, and θ represent a horizontal displacement (displacement) from a predetermined reference point, a vertical displacement from the reference point, and a rotation angle from the predetermined reference direction, respectively.

画素値決定手段140は、式(4)に示すように座標値(Px’,Py’)で表される位置について、変位量(dx,dy)で変位した位置の座標値(Px’’,Py’’)を算出する。この演算により、もとの表示画素の位置から変位量(dx,dy)で変位した位置が特定される。   The pixel value determining means 140, for the position represented by the coordinate values (Px ′, Py ′) as shown in the equation (4), the coordinate values (Px ″, P) of the position displaced by the displacement amount (dx, dy). Py ″) is calculated. By this calculation, the position displaced by the displacement amount (dx, dy) from the position of the original display pixel is specified.

なお、表示画像調整パラメータが入力されない場合には、座標値(Px’,Py’)は得られない。そのため、画素値決定手段140は、式(4)において座標値(Px’,Py’)に代えて、座標値(Px,Py)を用いて座標値(Px’’,Py’’)を算出する。   If no display image adjustment parameter is input, the coordinate values (Px ′, Py ′) cannot be obtained. Therefore, the pixel value determination unit 140 calculates the coordinate values (Px ″, Py ″) using the coordinate values (Px, Py) instead of the coordinate values (Px ′, Py ′) in the equation (4). To do.

次に、画素値決定手段140は、表示画素の座標値(u,v)から最も近接する要素レンズの中心点を特定する。要素レンズの配置がデルタ配列である場合を例にして、最も近接する要素レンズの中心点を特定する手順を説明する。デルタ配列とは、各行について列方向に等間隔に配列対象物が配列され、ある行に配列された配列対象物の列方向の位置と、その行に隣接する行に配列された配列対象物の列方向の位置とのずれが、列方向の配列間隔の半分となる配列である。図8に示す例では、配列対象物が要素レンズであり、各要素レンズの中心点が三角格子の各頂点に配列されている。従って、列方向の要素レンズの位置について、隣接する行間のずれはd/2となり、要素レンズの列間の間隔はd√3/2となる。ここで、dは、各要素レンズの直径を示し、要素レンズの直径が列方向の配列間隔に等しいことを前提としている。なお、dは、実寸の要素レンズの直径dl(単位:mm)についてディスプレイパネルの画素ピッチpp(単位:mm/pix)で正規化された値(単位:pix)をとる。   Next, the pixel value determination unit 140 specifies the center point of the element lens that is closest to the coordinate value (u, v) of the display pixel. A procedure for specifying the center point of the closest element lens will be described by taking as an example a case where the arrangement of the element lenses is a delta arrangement. The delta arrangement is an array of objects arranged at equal intervals in the column direction for each row, the position of the array object arranged in a row in the column direction, and the arrangement object arranged in a row adjacent to the row. In this arrangement, the deviation from the position in the column direction is half the arrangement interval in the column direction. In the example shown in FIG. 8, the array target is an element lens, and the center point of each element lens is arrayed at each vertex of the triangular lattice. Accordingly, with respect to the position of the element lens in the column direction, the deviation between adjacent rows is d / 2, and the distance between the element lens columns is d√3 / 2. Here, d indicates the diameter of each element lens, and it is assumed that the diameter of the element lens is equal to the arrangement interval in the column direction. Note that d is a value (unit: pix) normalized by the pixel pitch pp (unit: mm / pix) of the display panel with respect to the diameter dl (unit: mm) of the actual element lens.

そして、画素値決定手段140は、各要素レンズを内接する正方形の領域のうち、表示画素の位置を含む領域を特定する。図8に破線で示す正方形は、その領域の1つを示す。特定される領域がレンズ板の最下行から第N行であるとして、画素値決定手段は、Nを、式(5)に示す関係を用いて算出する。   Then, the pixel value determination unit 140 identifies an area including the position of the display pixel among the square areas inscribed with the element lenses. A square indicated by a broken line in FIG. 8 indicates one of the regions. Assuming that the specified region is the Nth row from the bottom row of the lens plate, the pixel value determining means calculates N using the relationship shown in Expression (5).

式(5)において、(int)…は、実数…の小数点以下の値を切り捨てて得られる整数値を示す。画素値決定手段140は、特定される領域の列番号についても、その領域の行番号Nの算出と同様の手法を要素レンズの列に適用して定めることができる。
画素値決定手段140は、座標値(Px’’,Py’’)を特定される領域の左下端を原点とする座標値(Qx,Qy)に変換する。画素値決定手段140は、座標値(Qx,Qy)を、式(6)に示す関係を用いて算出する。
In the formula (5), (int)... Indicates an integer value obtained by rounding down values after the decimal point of the real numbers. The pixel value determining means 140 can determine the column number of the specified region by applying the same method as the calculation of the row number N of the region to the element lens column.
The pixel value determining unit 140 converts the coordinate value (Px ″, Py ″) into a coordinate value (Qx, Qy) having the origin at the lower left corner of the specified area. The pixel value determining unit 140 calculates the coordinate value (Qx, Qy) using the relationship shown in Expression (6).

式(6)において、eは、行番号Nが偶数行であるか奇数行であるかを示す変数である。具体的には、変数eは、式(7)に示すように、行番号Nを2で除算して得られる剰余として算出される。従って、行番号Nが偶数行を示すとき変数eは0であり、行番号Nが奇数行を示すとき変数eは1である。   In Equation (6), e is a variable indicating whether the row number N is an even row or an odd row. Specifically, the variable e is calculated as a remainder obtained by dividing the line number N by 2 as shown in Expression (7). Accordingly, the variable e is 0 when the line number N indicates an even line, and the variable e is 1 when the line number N indicates an odd line.

画素値決定手段140は、座標値(Qx,Qy)を、特定される正方形の領域の中心点を原点とする座標値(Qx’,Qy’)に変換する。座標値(Qx’,Qy’)は、式(8)に示す関係を用いて算出される。なお、以下の説明では、座標値(Qx’,Qy’)又はその座標値で表される位置の座標点をQ’と表すことがある。   The pixel value determining unit 140 converts the coordinate value (Qx, Qy) into a coordinate value (Qx ′, Qy ′) having the center point of the specified square area as the origin. The coordinate values (Qx ′, Qy ′) are calculated using the relationship shown in Expression (8). In the following description, the coordinate value (Qx ′, Qy ′) or the coordinate point at the position represented by the coordinate value may be expressed as Q ′.

次に、画素値決定手段140は、変換した座標値(Qx’,Qy’)でその位置が表される座標点Q’に最も近接する要素レンズの中心点を判定する。図9に示す例では、候補となる要素レンズの中心点は、特定される領域の中心点の座標値pl0と、その中心点からの距離がdである6個の隣接要素レンズの中心点である。これら7個の中心点の座標値pl0〜pl6は、式(9)で表される。この例では、座標点Q’の座標値(Qx’,Qy’)、pl0〜pl6は、それぞれ中心点pl0を原点とする座標系で表されている。   Next, the pixel value determining unit 140 determines the center point of the element lens closest to the coordinate point Q ′ whose position is represented by the converted coordinate values (Qx ′, Qy ′). In the example shown in FIG. 9, the center point of the candidate element lens is the coordinate point pl0 of the center point of the specified region and the center points of six adjacent element lenses whose distance from the center point is d. is there. The coordinate values pl0 to pl6 of these seven center points are expressed by Expression (9). In this example, the coordinate values (Qx ', Qy') and pl0 to pl6 of the coordinate point Q 'are represented by a coordinate system having the center point pl0 as the origin.

座標値Q’に最も近接する要素レンズの中心点の座標値plcは、式(10)に示す関係を用いて表される。   The coordinate value plc of the center point of the element lens closest to the coordinate value Q ′ is expressed using the relationship shown in Expression (10).

式(10)において、iは、0〜6のいずれかの値をとる中心点のインデックスである。argminpli…は、…を最小化する座標値pliを示す。
そして、画素値決定手段140は、座標値(Qx’,Qy’)を、その座標点Q’に最も近接する要素レンズの中心点plcを原点とする座標値Q’’に変換する。座標値Q’’は、式(11)に示す関係を用いて表される。
In Expression (10), i is an index of the center point taking any value from 0 to 6. argmin pri ... indicates a coordinate value pri that minimizes.
Then, the pixel value determining means 140 converts the coordinate value (Qx ′, Qy ′) into a coordinate value Q ″ having the origin at the center point plc of the element lens closest to the coordinate point Q ′. The coordinate value Q ″ is expressed using the relationship shown in Expression (11).

画素値決定手段140は、式(12)に示すように変換した座標値Q’’を要素レンズの半径d/2で正規化して座標値(rx,ry)を算出する。   The pixel value determination means 140 calculates the coordinate value (rx, ry) by normalizing the coordinate value Q ″ converted as shown in Expression (12) by the radius d / 2 of the element lens.

以上の処理により、表示画素の座標値(u,v)は、レンズ中心座標系の座標値(rx,ry)に変換され、もとの座標値(u,v)に最も近接する要素レンズと変換された座標値(rx,ry)とが対応付けられる。この変換には、上述した観視位置と表示画像補正パラメータに基づく補正が含まれる。   Through the above processing, the coordinate value (u, v) of the display pixel is converted into the coordinate value (rx, ry) of the lens center coordinate system, and the element lens closest to the original coordinate value (u, v) The converted coordinate values (rx, ry) are associated with each other. This conversion includes correction based on the above-described viewing position and display image correction parameters.

次に、画素値決定手段140は、補正される位置に配置される画素として、もとの仮想カメラ画像の座標値(u,v)で表わされる位置に配置された画素の画素値を各仮想カメラについて抽出する。画素値決定手段140は、抽出した画素値に、その画素値に対応する重み係数を乗じて得られる乗算値を仮想カメラ間で合成して得られる値を、その表示画素の画素値として定める。具体的には、画素値決定手段140は、式(13)に示す関係を用いて座標値(u,v)に配置された表示画素の画素値col(u,v)を算出する。 Next, the pixel value determining unit 140 sets each pixel value of the pixel arranged at the position represented by the coordinate value (u, v) of the original virtual camera image as the pixel arranged at the corrected position. Extract about the camera. The pixel value determining means 140 determines a value obtained by synthesizing between the virtual cameras a multiplication value obtained by multiplying the extracted pixel value by a weighting factor corresponding to the pixel value as a pixel value of the display pixel. Specifically, the pixel value determination unit 140 calculates the pixel value col (u, v) of the display pixel arranged at the coordinate value (u, v) using the relationship shown in Expression (13).

式(13)において、w(cx,cy,rx,ry,p)は、重み係数を示す。重み係数w(cx,cy,rx,ry,p)は、仮想カメラの位置を示す座標値(cx,cy)、レンズ中心座標系の座標値(rx,ry)及び仮想カメラのピッチpに依存する。式(16)においてΣは、総和を示す記号である。この記号に付された座標値(cx,cy)は、本来仮想カメラの座標値の中心点を原点とする視点の相対位置を示す。式(14)では、画素値col(u,v) (cx,cy)は、座標値(u,v)に配置された仮想カメラの仮想カメラ画像を構成する画素のうち、表示画像の座標値(u,v)で表される位置から補正された位置(rx,ry)に配置された画素の画素値を示す。総和は、仮想カメラを示す座標値(cx,cy)間で、表示画素毎に独立に演算される。 In Expression (13), w (cx, cy, rx, ry, p) represents a weighting coefficient. The weight coefficient w (cx, cy, rx, ry, p) depends on the coordinate value (cx, cy) indicating the position of the virtual camera, the coordinate value (rx, ry) of the lens center coordinate system, and the pitch p of the virtual camera. To do. In Equation (16), Σ is a symbol indicating the sum. The coordinate values (cx, cy) attached to this symbol indicate the relative position of the viewpoint that originally has the center point of the coordinate value of the virtual camera as the origin. In Expression (14), the pixel value col (u, v) (cx, cy) is the coordinate value of the display image among the pixels constituting the virtual camera image of the virtual camera arranged at the coordinate value (u, v). The pixel value of the pixel arrange | positioned in the position (rx, ry) corrected from the position represented by (u, v) is shown. The sum is calculated independently for each display pixel between coordinate values (cx, cy) indicating the virtual camera.

重み係数w(cx,cy,rx,ry,p)は、式(15)に示すよう水平方向と垂直方向のそれぞれの因子w’(cx,rx,p)、w’(cy,ry,p)の積として算出される。   The weighting factors w (cx, cy, rx, ry, p) are the factors w ′ (cx, rx, p), w ′ (cy, ry, p) in the horizontal direction and the vertical direction as shown in the equation (15). ).

各方向の因子w’(s,t,p)として公知の画像の補間法において用いられる補間係数が適用可能である。補間法の一例として、バイキュービック(bicubic)法を用いることができる。バイキュービック法は、式(15)に示す関係を用いて算出される因子w’(s,t,p)が重み係数として用いられる補間法である。   As a factor w ′ (s, t, p) for each direction, an interpolation coefficient used in a known image interpolation method is applicable. As an example of the interpolation method, a bicubic method can be used. The bicubic method is an interpolation method in which a factor w ′ (s, t, p) calculated using the relationship shown in Expression (15) is used as a weighting factor.

式(15)に示すxは、仮想カメラからの画像を構成する画素の要素レンズの中心点を基準とする座標値を要素レンズの間隔pで正規化して得られる。aは、因子w’(s,t,p)を調整するための調整係数を示す。調整係数aは、例えば、−0.5〜−1.0の範囲内の実数である。これにより、因子w’(s,t,p)は、所定の値域(この場合、−4/27〜1)内の値を有する。因子w’(s,t,p)は、xが0から2までの場合でx=1の場合を除き、正または負の値をとり、xが2以上である場合0となる。これにより、座標値(u,v)に最も近接する要素レンズの中心点から要素レンズの間隔pの2倍以上離れている領域外の画素については、表示画素の画素値の算出において無視され、その領域内の画素が表示画素の画素値の算出対象となる。また、因子w’(s,t,p)は、xの絶対値が小さい、つまり座標値(u,v)に最も近接する要素レンズの中心点から近い画素ほど大きく、その中心点から通り画素ほど小さくなる。これにより、表示画素間において算出される画素値に対する仮想カメラ画像の成分が平滑化される。そのため、空間エリアシングによる画質の劣化が緩和する。具体的には、不自然な線や二重像などのアーチファクトが軽減又は解消される。   X shown in Expression (15) is obtained by normalizing the coordinate value based on the center point of the element lens of the pixel constituting the image from the virtual camera with the interval p of the element lens. a represents an adjustment coefficient for adjusting the factor w ′ (s, t, p). The adjustment coefficient a is a real number within a range of −0.5 to −1.0, for example. Accordingly, the factor w ′ (s, t, p) has a value within a predetermined range (in this case, −4/27 to 1). The factor w ′ (s, t, p) takes a positive or negative value except when x is 0 to 2 and x = 1, and becomes 0 when x is 2 or more. As a result, pixels outside the region that is at least twice the element lens interval p from the center point of the element lens closest to the coordinate value (u, v) are ignored in the calculation of the pixel value of the display pixel. Pixels in the region are targets for calculation of pixel values of display pixels. Further, the factor w ′ (s, t, p) has a smaller absolute value of x, that is, a pixel closer to the center point of the element lens closest to the coordinate value (u, v), and is larger, and the pixel passes from the center point. It gets smaller. Thereby, the component of the virtual camera image with respect to the pixel value calculated between display pixels is smoothed. Therefore, image quality degradation due to spatial aliasing is alleviated. Specifically, artifacts such as unnatural lines and double images are reduced or eliminated.

補間法の他の例として、最近傍(nearest neighbor)補間法も適用可能である。最近傍補間法は、式(16)に示す関係を用いて算出される因子w’(s,t,p)が重み係数として用いられる補間法である。   As another example of the interpolation method, a nearest neighbor interpolation method is also applicable. The nearest neighbor interpolation method is an interpolation method in which a factor w ′ (s, t, p) calculated using the relationship shown in Expression (16) is used as a weighting factor.

式(16)において、xは、式(15)の下段に示すように画素の要素レンズの中心点を基準とする座標値を要素レンズの間隔pで正規化して得られる。従って、因子w’(s,t,p)は、xの絶対値が0.5以下、つまり要素レンズの中心点からその間隔の半分の距離p/2の範囲内の画素について1であり、その範囲外における画素について0であることを示す。これにより、座標値(u,v)に最も近接する要素レンズの中心点から要素レンズの間隔pの半分以下の領域外の画素については、表示画素の画素値の算出において無視され、その領域内の画素が表示画素の画素値の算出対象となる。   In Expression (16), x is obtained by normalizing the coordinate value based on the center point of the element lens of the pixel with the interval p of the element lens as shown in the lower part of Expression (15). Therefore, the factor w ′ (s, t, p) is 1 for pixels in which the absolute value of x is 0.5 or less, that is, within a range of a distance p / 2 that is half the distance from the center point of the element lens. A pixel outside the range is 0. As a result, pixels outside the area that is less than half of the distance p between the element lenses from the center point of the element lens that is closest to the coordinate value (u, v) are ignored in the calculation of the pixel value of the display pixel. This pixel is a calculation target of the pixel value of the display pixel.

図10は、表示画像の生成に係る仮想カメラ画像の例を示す。図10(a)、(b)、(c)は、それぞれ異なる位置に設置された仮想カメラから取得された画像を示す。図10(a)、(b)、(c)に示す例では、仮想カメラの座標値(cx,cy)は、それぞれ(1.1,−0.1)、(0.0,0.0)、(−1.1,0.1)である。即ち、図10(a)に示す画像は、図10(b)に示す画像よりも左下の視点から観察して得られる。図10(c)に示す画像は、図10(b)に示す画像よりも右上の視点から観察して得られる。座標値(u,v)における表示画素に対応する画素であって、図10(a)、(b)、(c)に示す画像の画素の画素値col(u,v) (cx,cy)は、それぞれcol(u,v) (1.1,―0.1)、col(u,v) (0,0)、col(u,v) (―1.1,0.1)と表される。また、座標値(u,v)における表示画素に対応する画素であって、図10(a)、(b)、(c)に示す画像の画素の画素値col(u,v) (cx,cy)に対する重み係数w(cx,cy,rx,ry,p)は、それぞれw(1.1,−0.1,rx,ry,p)、w(0,0,rx,ry,p)、w(−1.1,0.1,rx,ry,p)と表される。上述したように、座標値(u,v)において配置された表示画素の画素値col(u,v)は、画素値col(u,v) (1.1,―0.1)と重み係数w(1.1,−0.1,rx,ry,p)との積、画素値col(u,v) (0,0)と重み係数w(0,0,rx,ry,p)との積、画素値col(u,v) (−1.1,0。1)と重み係数w(−1.1,0.1,rx,ry,p)との積を仮想カメラ間で加算することによって算出される。 FIG. 10 shows an example of a virtual camera image related to generation of a display image. FIGS. 10A, 10B, and 10C show images acquired from virtual cameras installed at different positions. In the examples shown in FIGS. 10A, 10B, and 10C, the coordinate values (cx, cy) of the virtual camera are (1.1, −0.1), (0.0, 0.0), respectively. ), (−1.1, 0.1). That is, the image shown in FIG. 10A is obtained by observing from the lower left viewpoint than the image shown in FIG. The image shown in FIG. 10C is obtained by observing from the upper right viewpoint than the image shown in FIG. The pixel value col (u, v) (cx, cy) corresponding to the display pixel at the coordinate value (u, v) and the pixel of the image shown in FIGS. 10 (a), (b), and (c ) Are col (u, v) (1.1, -0.1) , col (u, v) (0 , 0) , col (u, v) (-1.1, 0.1) , respectively. Is done. In addition, the pixel value corresponding to the display pixel at the coordinate value (u, v) and the pixel value col (u, v) (cx, The weight coefficients w (cx, cy, rx, ry, p ) for cy) are w (1.1, -0.1, rx, ry, p) and w (0, 0, rx, ry, p), respectively. , W (−1.1, 0.1, rx, ry, p). As described above, the pixel value col (u, v) of the display pixel arranged at the coordinate value (u, v) is the pixel value col (u, v) (1.1, −0.1) and the weighting factor. The product of w (1.1, −0.1, rx, ry, p), the pixel value col (u, v) (0, 0) and the weighting factor w (0, 0, rx, ry, p) And the product of the pixel value col (u, v) (−1.1, 0.1) and the weight coefficient w (−1.1, 0.1, rx, ry, p) is added between the virtual cameras. It is calculated by doing.

各表示画素の画素値col(u,v)の計算は、中間画像バッファなどに計算途中のデータを保存せずに、各仮想カメラ画像を構成する画素の画素値のうち、必要とされる画素値を抽出して実行される。この計算は、表示画素毎に独立になされるため、それらを並列に行うことにより表示画像の生成に係る処理全体が高速化される。 The calculation of the pixel value col (u, v) of each display pixel does not store data in the middle of calculation in an intermediate image buffer or the like, and the required pixel among the pixel values of the pixels constituting each virtual camera image The value is extracted and executed. Since this calculation is performed independently for each display pixel, the entire processing relating to the generation of the display image is accelerated by performing them in parallel.

(画像生成処理)
次に、本実施形態に係る画像生成処理について説明する。図11は、本実施形態に係る画像生成処理の一例を示すフローチャートである。
(ステップS101)カメラパラメータ記録手段110は、3次元の仮想空間における複数の仮想カメラそれぞれの位置の情報を取得し、取得した情報を設定する。その後、ステップS102の処理に進む。
(ステップS102)観視位置計測部20は、実空間において観視位置を計測する。観視位置取得手段121は、観視位置計測部20が計測した観視位置を取得する。その後、ステップS103の処理に進む。
(Image generation processing)
Next, image generation processing according to the present embodiment will be described. FIG. 11 is a flowchart illustrating an example of image generation processing according to the present embodiment.
(Step S <b> 101) The camera parameter recording unit 110 acquires information on the position of each of a plurality of virtual cameras in a three-dimensional virtual space, and sets the acquired information. Thereafter, the process proceeds to step S102.
(Step S102) The viewing position measurement unit 20 measures the viewing position in real space. The viewing position acquisition unit 121 acquires the viewing position measured by the viewing position measurement unit 20. Thereafter, the process proceeds to step S103.

(ステップS103)カメラパラメータ記録手段110は、計測された観視位置に基づいて複数の仮想カメラそれぞれの視点の位置を設定する。ここで、カメラパラメータ記録手段110は、仮想空間における複数の仮想カメラの視点の中心点が観視位置となるように、各視点の位置を設定する。その後、ステップS104の処理に進む。
(ステップS104)カメラパラメータ記録手段110は、複数の仮想カメラそれぞれの視点の中心点を原点とする相対位置を算出し、算出した相対位置を示す相対位置情報をカメラパラメータの一部として記録する。その後、ステップS105の処理に進む。
(Step S103) The camera parameter recording unit 110 sets the viewpoint position of each of the plurality of virtual cameras based on the measured viewing position. Here, the camera parameter recording unit 110 sets the position of each viewpoint such that the center point of the viewpoints of the plurality of virtual cameras in the virtual space is the viewing position. Thereafter, the process proceeds to step S104.
(Step S104) The camera parameter recording unit 110 calculates a relative position with the center point of the viewpoint of each of the plurality of virtual cameras as the origin, and records relative position information indicating the calculated relative position as part of the camera parameter. Thereafter, the process proceeds to step S105.

(ステップS105)立体ディスプレイパラメータ入力手段123は、立体ディスプレイパラメータを取得する。表示画像調整パラメータ入力手段124は、表示画像調整パラメータを取得する。表示画像調整パラメータには、レンズ板の取付誤差調整パラメータが含まれる。その後、ステップS106の処理に進む。
(ステップS106)画素値決定手段140は、観視位置とレンズ板32の中心点を通る直線と、ディスプレイパネル31の表示領域との交点の座標を算出し、その表示領域の中心点の座標から算出した座標までの変位量を算出する。その後、ステップS107の処理に進む。
(Step S105) The three-dimensional display parameter input means 123 acquires a three-dimensional display parameter. The display image adjustment parameter input unit 124 acquires display image adjustment parameters. The display image adjustment parameter includes a lens plate attachment error adjustment parameter. Thereafter, the process proceeds to step S106.
(Step S106) The pixel value determining means 140 calculates the coordinates of the intersection of the viewing position and the straight line passing through the center point of the lens plate 32 and the display area of the display panel 31, and from the coordinates of the center point of the display area The amount of displacement up to the calculated coordinates is calculated. Thereafter, the process proceeds to step S107.

(ステップS107)画素値決定手段140は、算出した変位量、仮想カメラの相対位置情報と及び仮想カメラ毎の仮想カメラ画像データを用いて画素値決定処理を行って表示画像を示す表示画像データを生成する。画素値決定処理については、後述する。その後、ステップS108の処理に進む。
(ステップS108)出力部150は、画素値決定手段が生成した表示画像データを画像表示装置30のディスプレイパネル31に出力する。ディスプレイパネル31には出力部150から供給された表示画像データに基づく表示画像が表示される。その後、図11に示す処理を終了する。
(Step S107) The pixel value determination unit 140 performs display processing of pixel value determination processing using the calculated displacement amount, the relative position information of the virtual camera, and the virtual camera image data for each virtual camera to display the display image data. Generate. The pixel value determination process will be described later. Thereafter, the process proceeds to step S108.
(Step S <b> 108) The output unit 150 outputs the display image data generated by the pixel value determination unit to the display panel 31 of the image display device 30. A display image based on the display image data supplied from the output unit 150 is displayed on the display panel 31. Then, the process shown in FIG. 11 is complete | finished.

次に、本実施形態に係る画素値決定処理について説明する。
図12は、本実施形態に係る画素値決定処理の一例を示すフローチャートである。
図12に示す処理は、図11のステップS107において実行される。
(ステップS111)画素値決定手段140は、表示画像を構成する表示画素毎の座標値(u,v)を、画素を単位とする座標値(Px,Py)に変換する。その後、ステップS112の処理に進む。
(ステップS112)画素値決定手段140は、変換された表示画素の座標値(Px,Py)を、表示画像調整パラメータを用いて座標値(Px’,Py’)に補正する。その後、ステップS113の処理に進む。
Next, pixel value determination processing according to the present embodiment will be described.
FIG. 12 is a flowchart illustrating an example of a pixel value determination process according to the present embodiment.
The process shown in FIG. 12 is executed in step S107 in FIG.
(Step S111) The pixel value determining means 140 converts the coordinate value (u, v) for each display pixel constituting the display image into a coordinate value (Px, Py) in units of pixels. Thereafter, the process proceeds to step S112.
(Step S112) The pixel value determining means 140 corrects the coordinate values (Px, Py) of the converted display pixels to the coordinate values (Px ′, Py ′) using the display image adjustment parameters. Thereafter, the process proceeds to step S113.

(ステップS113)画素値決定手段140は、補正された表示画素の座標値(Px’,Py’)に観視位置に基づいて算出した変位量(dx,dy)を加算して座標値(Px’’,Py’’)に補正する。その後、ステップS114の処理に進む。
(ステップS114)画素値決定手段140は、補正された表示画素の座標値(Px’’,Py’’)で表される位置を、その領域に含む要素レンズを対応する要素レンズとして特定する。画素値決定手段140は、座標値(Px’’,Py’’)を特定した要素レンズの中心点を基準とするレンズ中心座標系の座標値(rx、ry)に変換する。その後、ステップS115の処理に進む。
(Step S113) The pixel value determining means 140 adds the displacement (dx, dy) calculated based on the viewing position to the corrected coordinate value (Px ′, Py ′) of the display pixel, thereby obtaining the coordinate value (Px '', Py ''). Thereafter, the process proceeds to step S114.
(Step S114) The pixel value determining unit 140 specifies the element lens including the position represented by the corrected coordinate value (Px ″, Py ″) of the display pixel as the corresponding element lens. The pixel value determining unit 140 converts the coordinate value (Px ″, Py ″) into the coordinate value (rx, ry) of the lens center coordinate system with the specified center point of the element lens as a reference. Thereafter, the process proceeds to step S115.

(ステップS115)画素値決定手段140は、各仮想カメラからの仮想カメラ画像のうち、表示画素の座標値(u,v)の位置に配置される画素の画素値を取得する。その後、ステップS116の処理に進む。
(ステップS116)画素値決定手段140は、各仮想カメラの相対位置(cx,cy)と表示画素の座標値(rx、ry)に基づいて、その仮想カメラの対応する画素に対する重み係数w(cx,cy,rx,ry,p)を定める。その後、ステップS117の処理に進む。
(Step S115) The pixel value determination means 140 acquires the pixel value of the pixel arranged at the position of the coordinate value (u, v) of the display pixel in the virtual camera image from each virtual camera. Thereafter, the process proceeds to step S116.
(Step S116) The pixel value determining means 140, based on the relative position (cx, cy) of each virtual camera and the coordinate value (rx, ry) of the display pixel, the weight coefficient w (cx) for the corresponding pixel of the virtual camera. , Cy, rx, ry, p). Thereafter, the process proceeds to step S117.

(ステップS117)画素値決定手段140は、各仮想カメラにおいて取得される画像のうち、表示画像の座標値(u、v)で表される位置に配置される画素の画素値col(u,v) (cx,cy)と、この画素に対する重み値w(cx,cy,rx,ry,p)との積を算出し、算出した積を仮想カメラ間で加算して、その表示画素の画素値col(u,v)を定める。画素値決定手段140は、表示画素毎に定めた画素値を表す表示画像データを生成する。その後、ステップS108(図11)の処理に進む。 (Step S117) The pixel value determining means 140 is the pixel value col (u, v ) of the pixel arranged at the position represented by the coordinate value (u, v) of the display image among the images acquired by each virtual camera. ) Calculate the product of (cx, cy) and the weight value w (cx, cy, rx, ry, p) for this pixel, add the calculated products between the virtual cameras, and obtain the pixel value of the display pixel col (u, v) is defined. The pixel value determining unit 140 generates display image data representing a pixel value determined for each display pixel. Thereafter, the process proceeds to step S108 (FIG. 11).

以上に説明したように、本実施形態に係る画像生成装置10は、画像表示装置30に表示させる表示画像を生成する。画像表示装置30は、画像を表示する表示部であるディスプレイパネル31が複数の要素レンズを配列してなるレンズ板32からの距離が前記要素レンズの焦点距離となる位置に対面して配置されてなる。画像生成装置10は、複数の視点それぞれの仮想カメラ画像を取得する仮想カメラ画像取得手段122と、観視位置を取得する観視位置取得手段121を備える。また、画像生成装置10は、観視位置とレンズ板32の中心点を通る直線とディスプレイパネル31との交点までのディスプレイパネル31の中心点からの変位量を算出し、表示画像の画素である表示画素に対応する要素レンズを特定し、表示画素と同じ位置における仮想カメラ画像の画素の画素値を、表示画素の位置と前記仮想カメラ画像の位置に基づく重み係数を乗じて得られる値を仮想カメラ画像間で合成してその表示画素からの変位量が算出した変位量となる位置における表示画素の画素値を算出する画素値決定手段140を備える。   As described above, the image generation device 10 according to the present embodiment generates a display image to be displayed on the image display device 30. The image display device 30 is disposed so as to face a position where a distance from a lens plate 32 in which a plurality of element lenses are arranged on a display panel 31 that is a display unit that displays an image is a focal length of the element lens. Become. The image generation apparatus 10 includes a virtual camera image acquisition unit 122 that acquires virtual camera images of a plurality of viewpoints, and a viewing position acquisition unit 121 that acquires a viewing position. Further, the image generation device 10 calculates the amount of displacement from the center point of the display panel 31 up to the intersection of the viewing position and the straight line passing through the center point of the lens plate 32 and the display panel 31, and is a pixel of the display image. The element lens corresponding to the display pixel is identified, and the value obtained by multiplying the pixel value of the pixel of the virtual camera image at the same position as the display pixel by the weighting coefficient based on the position of the display pixel and the position of the virtual camera image is virtually A pixel value determining unit 140 is provided that calculates a pixel value of a display pixel at a position where the displacement amount from the display pixel is calculated by combining the camera images.

この構成により、表示画像を構成する表示画素と同じ位置の仮想カメラ画像の画素の画素値と、その表示画素に対応する要素レンズの位置を基準とする表示画像の位置と仮想カメラ画像の視点により定めた重み係数を用いて、もとの表示画素からの変位量が算出した変位量となる位置の表示画素の画素値が算出される。そのため、仮想カメラ画像のうち各要素レンズに対応する領域内の画像として、観視位置からレンズ板32の中心点の方向に変位した領域の画像を仮想カメラ間で合成して要素画像が生成される。よって、変位量が要素レンズの径よりも大きくても観視位置において各要素画像が対応する要素レンズを介して提示されるので、立体像が視認される視域が拡大する。また、仮想カメラ画像に基づいて中間画像を生成せずに表示画像を直接生成することが可能となるので、表示画像の生成を高速化し、メモリ利用効率を向上させることができる。さらに、表示画素の画素値が表示画素間で独立に算出されるので、これらの演算を並列に処理することで、表示画像の生成をさらに高速化することができる。高速化に伴い仮想カメラの数の増加が許容されるので、仮想カメラ画像を取得する視点がより密に設定されることで視認される像の画質が向上する。そのため、通常のテレビジョン番組などの一方向的なメディアに限らず、コンピュータゲーム、ビデオ通信などインタラクティブメディアへの画像表示装置による立体像の応用が促進される。   With this configuration, the pixel value of the pixel of the virtual camera image at the same position as the display pixel constituting the display image, the position of the display image based on the position of the element lens corresponding to the display pixel, and the viewpoint of the virtual camera image The pixel value of the display pixel at the position where the displacement amount from the original display pixel becomes the calculated displacement amount is calculated using the determined weight coefficient. Therefore, as an image in the region corresponding to each element lens in the virtual camera image, an element image is generated by synthesizing the image of the region displaced from the viewing position toward the center point of the lens plate 32 between the virtual cameras. The Therefore, even if the displacement amount is larger than the diameter of the element lens, each element image is presented through the corresponding element lens at the viewing position, so that the viewing area where the stereoscopic image is visually recognized is enlarged. In addition, since it is possible to directly generate a display image without generating an intermediate image based on a virtual camera image, it is possible to increase the generation speed of the display image and improve the memory utilization efficiency. Furthermore, since the pixel value of the display pixel is calculated independently between the display pixels, the generation of the display image can be further speeded up by processing these operations in parallel. Since the increase in the number of virtual cameras is allowed with an increase in speed, the image quality of an image to be viewed is improved by setting the viewpoint for acquiring the virtual camera images more densely. Therefore, the application of a stereoscopic image by an image display device to an interactive medium such as a computer game and video communication is promoted as well as a unidirectional medium such as a normal television program.

画像生成装置10は、複数の視点の中心点の位置が観視位置となるように複数の視点の位置を設定するカメラパラメータ記録手段110を備える。
この構成により、観視位置を中心に分布する視点で観察される複数の仮想カメラ画像が表示画像の生成に用いられる。そのため、仮想カメラ画像を取得する視点の全体が観視位置に追従する。従って、各視点について取得される複数の仮想カメラ画像が表示画像の生成に有効に利用される。ひいては、表示画像について視認される立体像の画質が向上する。
The image generation apparatus 10 includes camera parameter recording means 110 that sets the positions of a plurality of viewpoints so that the positions of the center points of the plurality of viewpoints become viewing positions.
With this configuration, a plurality of virtual camera images observed from viewpoints distributed around the viewing position are used to generate a display image. Therefore, the entire viewpoint for acquiring the virtual camera image follows the viewing position. Therefore, a plurality of virtual camera images acquired for each viewpoint are effectively used for generating a display image. As a result, the image quality of the stereoscopic image visually recognized for the display image is improved.

また、画像表示システム1は、観視位置計測部20と、画像表示装置30と、画像生成装置10を備える。画像生成装置10の観視位置取得手段121は、観視位置計測部20が計測した観視位置を取得することを特徴とする。
この構成により、画像生成装置10は、観視位置計測部20が計測した観視位置に基づいて算出した変位量で変位した仮想カメラ画像を用いて表示画像を生成する。また、画像表示装置30は、生成された表示画像を表示する。そのため、観視者は、画像表示装置30に表示される表示画像に対して観視位置に応じた立体像を視認することができる。
The image display system 1 includes a viewing position measurement unit 20, an image display device 30, and an image generation device 10. The viewing position acquisition unit 121 of the image generation apparatus 10 acquires the viewing position measured by the viewing position measurement unit 20.
With this configuration, the image generation apparatus 10 generates a display image using the virtual camera image displaced by the displacement amount calculated based on the viewing position measured by the viewing position measurement unit 20. The image display device 30 displays the generated display image. Therefore, the viewer can visually recognize a stereoscopic image corresponding to the viewing position with respect to the display image displayed on the image display device 30.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。   As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to

例えば、画像生成装置10は、観視位置計測部20と画像表示装置30の一方又は両方と一体化した単一の装置として構成されてもよい。
上述したレンズ板32は、単位図形が正三角形である三角格子の各格子点上に、それぞれの要素レンズの中心点を配置して形成される場合を例にしたが、これには限られない。要素レンズの中心点は、所定の周期をもって空間的に繰り返される平行移動対称性を有する格子の各格子点に配置されればよい。そのような格子には、例えば、正方格子、矩形格子、二等辺三角格子などがある。各要素レンズの主面の形状は、円形に限られず、例えば、長方形、三角形などであってもよい。
For example, the image generation device 10 may be configured as a single device integrated with one or both of the viewing position measurement unit 20 and the image display device 30.
The above-described lens plate 32 is an example in which the center point of each element lens is arranged on each lattice point of a triangular lattice whose unit graphic is a regular triangle. However, the present invention is not limited to this. . The center point of the element lens may be arranged at each lattice point of a lattice having parallel movement symmetry that is spatially repeated with a predetermined period. Examples of such a lattice include a square lattice, a rectangular lattice, and an isosceles triangular lattice. The shape of the main surface of each element lens is not limited to a circle, and may be, for example, a rectangle or a triangle.

また、上述した画像生成装置10の一部又は全部は、GPU(Graphics Processing Unit)などのデータ処理、特に並列処理を実行可能な集積回路を備えたコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、画像生成装置10に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、上述した実施形態における画像生成装置10の一部又は全部をLSI(Large Scale Integration)等の集積回路として実現してもよい。画像生成装置10の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
Further, part or all of the image generation apparatus 10 described above may be realized by a computer including an integrated circuit capable of executing data processing such as GPU (Graphics Processing Unit), particularly parallel processing. In that case, the program for realizing the control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by the computer system and executed. Here, the “computer system” is a computer system built in the image generation apparatus 10 and includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In this case, a volatile memory inside a computer system that serves as a server or a client may be included that holds a program for a certain period of time. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
Further, a part or all of the image generation apparatus 10 in the above-described embodiment may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each functional block of the image generation apparatus 10 may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to the advancement of semiconductor technology, an integrated circuit based on the technology may be used.

1…画像表示システム、10…画像生成装置、20…観視位置計測部、30…画像表示装置、110…カメラパラメータ記録手段、120…入力部、121…観視位置取得手段、122…仮想カメラ画像取得手段、123…立体ディスプレイパラメータ入力手段、124…表示画像調整パラメータ入力手段、130…カメラパラメータ・仮想カメラ画像関連付け手段、140…画素値決定手段、150…出力部 DESCRIPTION OF SYMBOLS 1 ... Image display system, 10 ... Image generation apparatus, 20 ... Viewing position measurement part, 30 ... Image display apparatus, 110 ... Camera parameter recording means, 120 ... Input part, 121 ... Viewing position acquisition means, 122 ... Virtual camera Image acquisition means, 123 ... stereoscopic display parameter input means, 124 ... display image adjustment parameter input means, 130 ... camera parameter / virtual camera image association means, 140 ... pixel value determination means, 150 ... output unit

Claims (4)

画像を表示する表示部が複数の要素レンズを配列してなるレンズ板からの距離が前記要素レンズの焦点距離となる位置に対面して配置された画像表示装置に表示させる表示画像を生成する画像生成装置であって、
複数の視点それぞれの仮想カメラ画像を取得する仮想カメラ画像取得手段と、
観視位置を取得する観視位置取得手段と、
前記観視位置と前記レンズ板の中心点を通る直線と前記表示部との交点までの前記表示部の中心点からの変位量を算出し、
前記表示画像の画素である表示画素に対応する要素レンズを特定し、
前記表示画素と同じ位置の前記仮想カメラ画像の画素の画素値を、前記表示画素の位置と前記仮想カメラ画像の位置に基づく重み係数を乗じて得られる値を前記仮想カメラ画像間で合成して前記表示画素からの変位量が算出した前記変位量となる位置の表示画素の画素値を算出する画素値決定手段と、
を備える画像生成装置。
An image for generating a display image to be displayed on an image display device arranged so as to face a position where a distance from a lens plate in which a plurality of element lenses are arranged is a focal length of the element lens. A generating device,
Virtual camera image acquisition means for acquiring virtual camera images of a plurality of viewpoints;
Viewing position acquisition means for acquiring the viewing position;
Calculating the amount of displacement from the central point of the display unit up to the intersection of the viewing position and the straight line passing through the central point of the lens plate and the display unit;
Identifying an element lens corresponding to a display pixel that is a pixel of the display image;
A value obtained by multiplying the pixel value of the pixel of the virtual camera image at the same position as the display pixel by a weighting factor based on the position of the display pixel and the position of the virtual camera image is synthesized between the virtual camera images. Pixel value determining means for calculating a pixel value of a display pixel at a position where the displacement amount calculated from the display pixel is the displacement amount;
An image generation apparatus comprising:
前記複数の視点の中心点の位置が前記観視位置となるように前記複数の視点の位置を設定するカメラパラメータ記録手段
を備える請求項1に記載の画像生成装置。
The image generation device according to claim 1, further comprising camera parameter recording means configured to set positions of the plurality of viewpoints such that positions of center points of the plurality of viewpoints become the viewing positions.
観視位置計測部と、前記画像表示装置と、請求項1又は請求項2に記載の画像生成装置と、
を備える画像表示システムであって、
前記観視位置取得手段は、
前記観視位置計測部が計測した前記観視位置を取得することを特徴とする
画像表示システム。
Viewing position measurement unit, the image display device, the image generation device according to claim 1 or 2,
An image display system comprising:
The viewing position acquisition means includes
An image display system, wherein the viewing position measured by the viewing position measurement unit is acquired.
画像を表示する表示部が複数の要素レンズを配列してなるレンズ板からの距離が前記要素レンズの焦点距離となる位置に対面して配置された画像表示装置に表示させる表示画像を生成する画像生成装置であって、
複数の視点それぞれの仮想カメラ画像を取得する仮想カメラ画像取得手段と、
観視位置を取得する観視位置取得手段と、
前記観視位置と前記レンズ板の中心点を通る直線と前記表示部との交点までの前記表示部の中心点からの変位量を算出し、
前記表示画像の画素である表示画素に対応する要素レンズを特定し、
前記表示画素と同じ位置の前記仮想カメラ画像の画素の画素値を、前記表示画素の位置と前記仮想カメラ画像の位置に基づく重み係数を乗じて得られる値を前記仮想カメラ画像間で合成して前記表示画素からの変位量が算出した前記変位量となる位置の表示画素の画素値を算出する画素値決定手段と、
を備える画像生成装置として、コンピュータに機能させるためのプログラム。
An image for generating a display image to be displayed on an image display device arranged so as to face a position where a distance from a lens plate in which a plurality of element lenses are arranged is a focal length of the element lens. A generating device,
Virtual camera image acquisition means for acquiring virtual camera images of a plurality of viewpoints;
Viewing position acquisition means for acquiring the viewing position;
Calculating the amount of displacement from the central point of the display unit up to the intersection of the viewing position and the straight line passing through the central point of the lens plate and the display unit;
Identifying an element lens corresponding to a display pixel that is a pixel of the display image;
A value obtained by multiplying the pixel value of the pixel of the virtual camera image at the same position as the display pixel by a weighting factor based on the position of the display pixel and the position of the virtual camera image is synthesized between the virtual camera images. Pixel value determining means for calculating a pixel value of a display pixel at a position where the displacement amount calculated from the display pixel is the displacement amount;
A program for causing a computer to function as an image generation apparatus.
JP2016214195A 2016-11-01 2016-11-01 Image generator, image display system and program Active JP6846165B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016214195A JP6846165B2 (en) 2016-11-01 2016-11-01 Image generator, image display system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016214195A JP6846165B2 (en) 2016-11-01 2016-11-01 Image generator, image display system and program

Publications (2)

Publication Number Publication Date
JP2018074463A true JP2018074463A (en) 2018-05-10
JP6846165B2 JP6846165B2 (en) 2021-03-24

Family

ID=62115880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016214195A Active JP6846165B2 (en) 2016-11-01 2016-11-01 Image generator, image display system and program

Country Status (1)

Country Link
JP (1) JP6846165B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110264408A (en) * 2019-07-05 2019-09-20 芋头科技(杭州)有限公司 Measurement method, device, system and the controller and medium of near-eye display
JP2020170979A (en) * 2019-04-05 2020-10-15 日本放送協会 Stereoscopic image generation device and program of the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020006213A1 (en) * 2000-05-12 2002-01-17 Sergey Doudnikov Apparatus and method for displaying three-dimensional image
US20120081358A1 (en) * 2010-09-30 2012-04-05 Norihiro Nakamura Three-dimensional image display apparatus and image processing apparatus
JP2015104107A (en) * 2013-11-28 2015-06-04 日本放送協会 Ip stereoscopic video estimation device and program therefor
JP2016045644A (en) * 2014-08-21 2016-04-04 日本放送協会 Image generation device, image generation method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020006213A1 (en) * 2000-05-12 2002-01-17 Sergey Doudnikov Apparatus and method for displaying three-dimensional image
JP2002051359A (en) * 2000-05-12 2002-02-15 Lg Electronics Inc Three-dimensional video display device and its method
US20120081358A1 (en) * 2010-09-30 2012-04-05 Norihiro Nakamura Three-dimensional image display apparatus and image processing apparatus
JP2012080261A (en) * 2010-09-30 2012-04-19 Toshiba Corp Three-dimensional image display apparatus and image processing apparatus
JP2015104107A (en) * 2013-11-28 2015-06-04 日本放送協会 Ip stereoscopic video estimation device and program therefor
JP2016045644A (en) * 2014-08-21 2016-04-04 日本放送協会 Image generation device, image generation method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020170979A (en) * 2019-04-05 2020-10-15 日本放送協会 Stereoscopic image generation device and program of the same
JP7324605B2 (en) 2019-04-05 2023-08-10 日本放送協会 3D image generation device and its program
CN110264408A (en) * 2019-07-05 2019-09-20 芋头科技(杭州)有限公司 Measurement method, device, system and the controller and medium of near-eye display

Also Published As

Publication number Publication date
JP6846165B2 (en) 2021-03-24

Similar Documents

Publication Publication Date Title
US11928838B2 (en) Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display
KR101761751B1 (en) Hmd calibration with direct geometric modeling
TWI520576B (en) Method and system for converting 2d images to 3d images and computer-readable medium
US11825064B2 (en) Light field display method and system, storage medium and display panel
CN108885342A (en) Wide Baseline Stereo for low latency rendering
JP7182976B2 (en) Information processing device, information processing method, and program
JP2009175866A (en) Stereoscopic image generation device, its method, and its program
CN111954896A (en) Light field image generation system, image display system, shape information acquisition server, image generation server, display device, light field image generation method, and image display method
JP2018526726A (en) Virtual / augmented reality system with dynamic domain resolution
US9202305B2 (en) Image processing device, three-dimensional image display device, image processing method and computer program product
JP2017011520A (en) Stereoscopic image depth conversion device and program therefor
CN110969706B (en) Augmented reality device, image processing method, system and storage medium thereof
JP2012084105A (en) Stereoscopic image generation device and program therefor
JP7141833B2 (en) Image processing device and image processing program
US20150062119A1 (en) Image processing device, 3d-image display device, method of image processing and program product thereof
JP6846165B2 (en) Image generator, image display system and program
CN104887316A (en) Virtual three-dimensional endoscope displaying method based on active three-dimensional displaying technology
JP6768431B2 (en) Image generator and program
JP2001218231A (en) Device and method for displaying stereoscopic image
JP6073121B2 (en) 3D display device and 3D display system
KR101831978B1 (en) Generation method of elemental image contents for display system with rotated lenticular sheet
JP2014216719A (en) Image processing apparatus, stereoscopic image display device, image processing method and program
Hua et al. Calibration of an HMPD-based augmented reality system
KR101657373B1 (en) Multiple depth extraction method in integral imaging display
JP6823984B2 (en) Image generator and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210301

R150 Certificate of patent or registration of utility model

Ref document number: 6846165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250