JP2018088595A - Stereographic image measuring device, and stereographic image measuring method - Google Patents

Stereographic image measuring device, and stereographic image measuring method Download PDF

Info

Publication number
JP2018088595A
JP2018088595A JP2016230387A JP2016230387A JP2018088595A JP 2018088595 A JP2018088595 A JP 2018088595A JP 2016230387 A JP2016230387 A JP 2016230387A JP 2016230387 A JP2016230387 A JP 2016230387A JP 2018088595 A JP2018088595 A JP 2018088595A
Authority
JP
Japan
Prior art keywords
bright spot
marker
image
detector
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016230387A
Other languages
Japanese (ja)
Other versions
JP6748563B2 (en
Inventor
隼人 渡邉
Hayato Watanabe
隼人 渡邉
河北 真宏
Masahiro Kawakita
真宏 河北
直人 岡市
Naoto Okaichi
直人 岡市
久幸 佐々木
Hisayuki Sasaki
久幸 佐々木
三科 智之
Tomoyuki Mishina
智之 三科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2016230387A priority Critical patent/JP6748563B2/en
Publication of JP2018088595A publication Critical patent/JP2018088595A/en
Application granted granted Critical
Publication of JP6748563B2 publication Critical patent/JP6748563B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To simply and conveniently measure the error of a position of stereographic image reproduction in an integral stereographic display method.SOLUTION: A stereographic image measuring device 10 is a device for measurement of a stereographic screen image displayed by an integral stereoscopic display device 20. The stereographic image measuring device comprises: elemental image-producing means 12 for producing an elemental image so that a marker as a stereographic screen image is reproduced at a predetermined position; a detector 11 for detecting the position and brightness of a bright spot formed corresponding to an elemental lens 25 on a display screen of the integral stereoscopic display device 20; and error value measurement means 13 for using the position and brightness of a bright spot detected when white display is performed by the integral stereoscopic display device 20 to perform a computing operation for calibrating the detector 11, using the position and brightness of a bright spot detected when an elemental image is projected by the integral stereoscopic display device 20 to perform a computing operation to determine the position of brightness of a bright spot that the marker includes, and measuring a value of error of the position of reproduction of the marker with respect to the predetermined position.SELECTED DRAWING: Figure 1

Description

本発明は、立体映像測定装置及び立体映像測定方法に関し、特に、インテグラル立体表示方式で再生される立体像の誤差を測定する立体映像測定装置及び立体映像測定方法に関する。   The present invention relates to a stereoscopic image measuring apparatus and a stereoscopic image measuring method, and more particularly to a stereoscopic image measuring apparatus and a stereoscopic image measuring method for measuring an error of a stereoscopic image reproduced by an integral stereoscopic display method.

一般的にインテグラル立体表示方式では、ディスプレイ前面にレンズアレイを配置し、対応する要素画像をディスプレイに表示することで、水平及び垂直方向に視差のある裸眼立体映像を表示することができる。特に、輝点を表示画面の所定の位置に形成する方式では、複数の表示デバイスを用いることで、輝点の数を増やすなどして、表示特性を向上することが可能である(非特許文献1、2参照)。   In general, in the integral stereoscopic display method, a lens array is arranged on the front surface of the display, and a corresponding element image is displayed on the display, so that an autostereoscopic image with parallax in the horizontal and vertical directions can be displayed. In particular, in the method of forming a bright spot at a predetermined position on the display screen, it is possible to improve display characteristics by increasing the number of bright spots by using a plurality of display devices (Non-Patent Document). 1 and 2).

しかし、実際の表示装置では、要素画像とレンズアレイとの位置ずれや光学的な歪みにより、立体像の再生位置に誤差が生じる。そこで、立体像の再生位置に誤差が生じないように予め表示装置を補正調整する方法として、例えば、水平方向と垂直方向との2種類のグレイコードパターン(縞パターン)を投射し、観察者側から、カメラで撮影することで、要素画像の補正を行う方法(非特許文献3参照)が知られている。   However, in an actual display device, an error occurs in the reproduction position of the stereoscopic image due to a positional shift between the element image and the lens array and optical distortion. Therefore, as a method for correcting and adjusting the display device in advance so as not to cause an error in the reproduction position of the stereoscopic image, for example, two types of gray code patterns (stripe patterns) in the horizontal direction and the vertical direction are projected and the viewer side Therefore, a method of correcting an elemental image by photographing with a camera (see Non-Patent Document 3) is known.

渡邉隼人、外5名、「複数の高精細プロジェクターを用いたインテグラル立体表示」、映像情報メディア学会年次大会講演予稿集、2016年8月17日、34C-5Hitoshi Watanabe and five others, “Integral 3D display using multiple high-definition projectors”, Proceedings of the Annual Conference of the Institute of Image Information and Television Engineers, August 17, 2016, 34C-5 M. Yamasaki, et al., "High-density Light Field Reproduction Using Overlaid Multiple Projection Images", Proc. SPIE vol.7237, Stereoscopic Displays and Applications XX, 723709 (February 17, 2009)M. Yamasaki, et al., "High-density Light Field Reproduction Using Overlaid Multiple Projection Images", Proc.SPIE vol.7237, Stereoscopic Displays and Applications XX, 723709 (February 17, 2009) H. Liao, et. al, "Scalable High-resolution integral videography autostereoscopic display with a seamless multiprojection system", Applied Optics, Vol. 44, No. 3, 2005H. Liao, et. Al, "Scalable High-resolution integral videography autostereoscopic display with a seamless multiprojection system", Applied Optics, Vol. 44, No. 3, 2005

しかしながら、従来技術では、要素画像とレンズアレイとの位置ずれが要素レンズ直径より大きかったり、位置ずれが非線形に生じていたりした場合に、充分な精度で要素画像を補正することができず、立体像の再生位置に誤差が生じないようにすることが困難であった。そこで、再生された立体像の位置誤差を測定した結果を、逆に、表示装置の補正調整に利用することで精度を高める手法が考えられる。この手法では、立体像である位置検出用のマーカーが所望の3次元位置に再生されるように要素画像を生成することでマーカーを再生し、それをカメラ等の検出器で撮影(検出)することでマーカーの再生位置誤差を測定する。ただし、測定前に検出器をどのように校正すればよいのか、測定中にマーカーをどのように撮影すればよいのか自明ではない。   However, in the conventional technique, when the positional deviation between the element image and the lens array is larger than the diameter of the element lens, or when the positional deviation occurs nonlinearly, the element image cannot be corrected with sufficient accuracy. It was difficult to prevent an error from occurring in the image reproduction position. In view of this, it is conceivable to increase the accuracy by using the result of measuring the position error of the reproduced stereoscopic image for correction adjustment of the display device. In this technique, a marker is reproduced by generating an element image so that a position detection marker, which is a stereoscopic image, is reproduced at a desired three-dimensional position, and is photographed (detected) by a detector such as a camera. Thus, the reproduction position error of the marker is measured. However, it is not obvious how to calibrate the detector before the measurement and how to photograph the marker during the measurement.

検出器の位置校正の方法として、一般的には、キャリブレーションパターンの使用が考えられる。しかし、キャリブレーションパターンを設置する手間が掛かり、且つ、キャリブレーションパターンをディスプレイ自体に搭載したり、取り外したりするときの振動などの悪影響が問題となる。   As a method for calibrating the position of the detector, the use of a calibration pattern is generally considered. However, it takes time to install a calibration pattern, and adverse effects such as vibration when the calibration pattern is mounted on or removed from the display itself are problematic.

マーカーの撮影の方法として、拡散板をマーカーの結像位置に設置し、カメラのピント位置を拡散板に合わせて撮影する方法が考えられる。しかし、拡散板を設置する手間が掛かり、且つ、マーカーの表示位置を変更する場合には、カメラのピント位置の変更が必要になり、カメラの内部パラメーターが変化することで補正精度が悪化することが問題となる。   As a method for photographing the marker, a method in which a diffusing plate is installed at the image forming position of the marker and the camera is focused on the diffusing plate for photographing can be considered. However, it takes time to install the diffuser, and when changing the marker display position, it is necessary to change the focus position of the camera, and the correction accuracy deteriorates due to changes in the camera internal parameters. Is a problem.

本発明は、以上のような問題点に鑑みてなされたものであり、インテグラル立体表示方式において、立体像が再生される位置の誤差を簡便に測定することのできる立体映像測定装置及び立体映像測定方法を提供することを課題とする。   The present invention has been made in view of the above problems, and in an integral stereoscopic display system, a stereoscopic image measuring apparatus and a stereoscopic image capable of easily measuring an error in a position where a stereoscopic image is reproduced. It is an object to provide a measurement method.

前記課題を解決するために、本発明に係る立体映像測定装置は、複数の光学素子が2次元配列された光学素子アレイと、前記光学素子アレイに要素画像を投射する要素画像投射部と、を有するインテグラル立体表示装置により表示された立体映像を測定する立体映像測定装置であって、要素画像生成手段と、検出器と、誤差値測定手段と、を備えることとした。   In order to solve the above-described problem, a stereoscopic image measurement apparatus according to the present invention includes an optical element array in which a plurality of optical elements are two-dimensionally arranged, and an element image projection unit that projects an element image onto the optical element array. A stereoscopic image measuring device for measuring a stereoscopic image displayed by an integral stereoscopic display device having an element image generating means, a detector, and an error value measuring means.

かかる構成によれば、立体映像測定装置は、要素画像生成手段によって、前記インテグラル立体表示装置により所定位置に立体映像であるマーカーが再生されるように前記要素画像を生成する。
そして、立体映像測定装置は、検出器によって、前記インテグラル立体表示装置の表示画面に前記光学素子に対応して形成された輝点の位置と輝度とを検出する。
そして、立体映像測定装置は、誤差値測定手段によって、前記インテグラル立体表示装置で白表示を行ったときに検出された輝点の位置と輝度とを用いて前記検出器を校正する演算を行い、前記インテグラル立体表示装置において前記要素画像を投射したときに検出された輝点の位置と輝度とを用いて前記マーカーを構成する輝点の位置と輝度とを求める演算を行い、前記所定位置に対する前記マーカーが再生された位置の誤差値を測定する。
According to such a configuration, the stereoscopic image measuring device generates the element image by the element image generation means so that the marker that is a stereoscopic image is reproduced at a predetermined position by the integral stereoscopic display device.
Then, the stereoscopic image measuring device detects the position and brightness of the bright spot formed corresponding to the optical element on the display screen of the integral stereoscopic display device by the detector.
Then, the stereoscopic image measuring device performs an operation of calibrating the detector using the position and brightness of the bright spot detected when white display is performed on the integral stereoscopic display device by the error value measuring means. Performing calculation to obtain the position and brightness of the bright spot constituting the marker using the position and brightness of the bright spot detected when the element image is projected in the integral stereoscopic display device, and the predetermined position The error value of the position where the marker is reproduced is measured.

また、前記課題を解決するために、本発明に係る立体映像測定方法は、複数の光学素子が2次元配列された光学素子アレイと、前記光学素子アレイに要素画像を投射する要素画像投射部と、を有するインテグラル立体表示装置により表示された立体映像を測定する立体映像測定方法であって、要素画像生成手段と、検出器と、誤差値測定手段と、を備える立体映像測定装置によって、前記検出器の事前校正を実施する事前校正工程と、前記立体映像測定装置によって、立体映像であるマーカーが再生された位置の誤差値を測定する測定工程と、を有することとした。   In order to solve the above problems, a stereoscopic image measurement method according to the present invention includes an optical element array in which a plurality of optical elements are two-dimensionally arranged, and an element image projection unit that projects an element image onto the optical element array. A stereoscopic image measurement method for measuring a stereoscopic image displayed by an integral stereoscopic display device having an element image generation means, a detector, and an error value measurement means. A pre-calibration step of performing pre-calibration of the detector and a measurement step of measuring an error value at a position where a marker that is a stereoscopic image is reproduced by the stereoscopic image measuring device are included.

かかる手順によれば、立体映像測定方法は、事前校正工程に、前記インテグラル立体表示装置によって、白表示を行うことで前記インテグラル立体表示装置の表示画面に前記光学素子に対応した輝点を形成する第1表示工程と、前記検出器によって、前記表示画面を記録する記録工程と、前記表示画面に形成された輝点の位置と輝度とを検出する第1検出工程と、前記誤差値測定手段によって、前記検出器を校正する演算を行う演算工程と、を含む。
そして、立体映像測定方法は、測定工程に、前記要素画像生成手段によって、前記マーカーが所定位置に再生されるように前記要素画像を生成する生成工程と、前記インテグラル立体表示装置によって、前記要素画像を投射することで前記表示画面に輝点を形成して前記マーカーを所定位置に表示する第2表示工程と、前記検出器によって、前記表示画面に形成された輝点の位置と輝度とを検出する第2検出工程と、前記誤差値測定手段によって、前記検出された輝点の位置と輝度とを用いて前記マーカーを構成する輝点の位置と輝度とを求める演算を行い、前記所定位置に対する前記マーカーが再生された位置の誤差値を測定する演算工程と、を含む。
According to such a procedure, the stereoscopic image measuring method performs a white display by the integral stereoscopic display device in the pre-calibration step, thereby displaying a bright spot corresponding to the optical element on the display screen of the integral stereoscopic display device. A first display step to be formed; a recording step for recording the display screen by the detector; a first detection step for detecting the position and brightness of a bright spot formed on the display screen; and the error value measurement. And a calculation step of performing a calculation for calibrating the detector by means.
The stereoscopic image measuring method includes a generation step of generating the element image so that the marker is reproduced at a predetermined position by the element image generation means, and the integral stereoscopic display device. A second display step of projecting an image to form a bright spot on the display screen and displaying the marker at a predetermined position; and a position and brightness of the bright spot formed on the display screen by the detector. The second detection step to detect, and the error value measuring means performs a calculation to obtain the position and luminance of the bright spot that constitutes the marker using the detected position and luminance of the bright spot, and the predetermined position And calculating an error value of a position where the marker is reproduced.

本発明によれば、立体映像測定装置は、キャリブレーションパターンや拡散板を設置することなく表示画面を直接撮影することができる。そのため、立体像の再生位置誤差を簡便に測定することができる。   According to the present invention, the stereoscopic image measurement device can directly shoot a display screen without installing a calibration pattern or a diffusion plate. Therefore, the reproduction position error of the stereoscopic image can be easily measured.

本発明の第1実施形態に係る立体映像測定装置の構成を表す概略図である。1 is a schematic diagram illustrating a configuration of a stereoscopic video measurement device according to a first embodiment of the present invention. 側面視における輝点形成位置の説明図である。It is explanatory drawing of the bright spot formation position in side view. 正面視における輝点の説明図であり、(a)はレンズアレイ、(b)は図2に対応する輝点形成位置を示している。It is explanatory drawing of the luminescent point in front view, (a) is a lens array, (b) has shown the luminescent point formation position corresponding to FIG. マーカーの説明図であり、(a)は再生表示されるマーカー、(b)はその輝度分布、(c)はマーカーの画面内での配置例である。It is explanatory drawing of a marker, (a) is the marker reproduced and displayed, (b) is the luminance distribution, (c) is the example of arrangement | positioning in the screen of a marker. 輝点の投影位置の説明図である。It is explanatory drawing of the projection position of a bright spot. 検出された輝点の説明図であり、(a)はマーカーを構成する輝点、(b)は撮影画像中の輝点、(c)は(b)の一部拡大図を示している。It is explanatory drawing of the detected bright spot, (a) is the bright spot which comprises a marker, (b) is the bright spot in a picked-up image, (c) has shown the partially expanded view of (b). 再生位置誤差の説明図である。It is explanatory drawing of a reproduction position error. 本発明の第1実施形態に係る立体映像測定方法の流れを表すフローチャートである。It is a flowchart showing the flow of the stereoscopic image measuring method which concerns on 1st Embodiment of this invention. 図8に示す事前校正工程の流れを表すフローチャートである。It is a flowchart showing the flow of the prior calibration process shown in FIG. 図8に示す再生位置誤差算出処理の流れを表すフローチャートである。It is a flowchart showing the flow of the reproduction position error calculation process shown in FIG. ベクトルの最接位置を説明するための説明図である。It is explanatory drawing for demonstrating the closest position of a vector.

図1を参照し、本発明の実施形態に係る立体映像測定装置及び立体映像測定方法について、説明する。なお、各図面が示す部材の大きさや位置関係等は、説明を明確にするために誇張していることがある。   With reference to FIG. 1, a 3D image measurement apparatus and a 3D image measurement method according to an embodiment of the present invention will be described. Note that the size, positional relationship, and the like of the members shown in each drawing may be exaggerated for clarity of explanation.

[インテグラル立体表示装置の構成]
立体映像測定方法に用いるシステムは、インテグラル立体表示装置と、立体映像測定装置と、により構成される。まず、インテグラル立体表示装置について説明する。ここでは光学素子アレイとしてレンズアレイを用いた場合について説明する。図1に示すインテグラル立体表示装置20は、要素画像投射部21と、レンズアレイ(光学素子アレイ)22と、を備えている。
[Configuration of integral 3D display device]
A system used for the stereoscopic video measurement method includes an integral stereoscopic display device and a stereoscopic video measurement device. First, the integral stereoscopic display device will be described. Here, a case where a lens array is used as the optical element array will be described. The integral stereoscopic display device 20 illustrated in FIG. 1 includes an element image projection unit 21 and a lens array (optical element array) 22.

要素画像投射部21は、レンズアレイ22に要素画像を投射するものであり、ここでは、プロジェクタ23と、コリメーターレンズ24と、を備えている。
プロジェクタ23は、各要素レンズ(光学素子)25に1対1で対応した要素画像群を投射する。
コリメーターレンズ24は、プロジェクタ23とレンズアレイ22との間に配設され、プロジェクタ23からの光が入射し、入射光を平行光にして出射する。
The element image projection unit 21 projects an element image onto the lens array 22, and includes a projector 23 and a collimator lens 24 here.
The projector 23 projects an element image group corresponding to each element lens (optical element) 25 on a one-to-one basis.
The collimator lens 24 is disposed between the projector 23 and the lens array 22, and the light from the projector 23 enters, and the incident light is emitted as parallel light.

この立体映像測定方法では、位置を検出するマーカーを再生するための要素画像群を表示する。要素画像投射部21は、1回の表示で画面内に複数個のマーカーを表示する。なお、要素画像群は要素画像生成手段12により生成する。   In this stereoscopic video measurement method, an element image group for reproducing a marker for detecting a position is displayed. The element image projection unit 21 displays a plurality of markers on the screen in one display. The element image group is generated by the element image generation means 12.

レンズアレイ22には、プロジェクタ23からコリメーターレンズ24を介して投射された要素画像が入射する。これにより、インテグラル立体映像を再生することができる。このレンズアレイ22には、複数の要素レンズ25が2次元に配列されている。レンズアレイ22には、微小な要素レンズ25が密集した状態で配置されている。図1では、7個の要素レンズ25を一次元で図示したが、要素レンズの個数は任意であり、典型的には数万以上となる。   The element image projected from the projector 23 via the collimator lens 24 enters the lens array 22. Thereby, the integral stereoscopic video can be reproduced. In the lens array 22, a plurality of element lenses 25 are two-dimensionally arranged. In the lens array 22, minute element lenses 25 are densely arranged. In FIG. 1, the seven element lenses 25 are illustrated in a one-dimensional manner, but the number of element lenses is arbitrary and is typically tens of thousands or more.

本実施形態では、一例として、要素レンズ25が両凸レンズであるものとした。なお、要素レンズ25の形状は円形に限らず、正方形でもよい。また、要素レンズ25の配列は、正方格子状(グリッド構造)であるものとしたが、俵積状いわゆるラインオフセット状としてもよい。   In the present embodiment, as an example, the element lens 25 is a biconvex lens. The shape of the element lens 25 is not limited to a circle but may be a square. The arrangement of the element lenses 25 is a square lattice (grid structure), but may be a so-called line offset.

ここでは、インテグラル立体表示装置20が、表示画面内の所定の位置に輝点を形成する場合について説明する。例として、図2及び図3に、レンズアレイ22への入射光を平行光としたときに輝点が形成される位置を示す。図3(a)は、正面視におけるレンズアレイ22、図3(b)は正面視における輝点形成位置101を示している。   Here, a case where the integral stereoscopic display device 20 forms a bright spot at a predetermined position in the display screen will be described. As an example, FIGS. 2 and 3 show positions where bright spots are formed when the incident light to the lens array 22 is parallel light. FIG. 3A shows the lens array 22 in the front view, and FIG. 3B shows the bright spot formation position 101 in the front view.

図2では、レンズアレイ22を構成する要素レンズの焦点距離をfとして、レンズアレイ22をZ=−fの位置に設置しているものとする。このとき、輝点形成位置101は、表示画面、すなわち、Z=0(XY平面)に位置している。なお、インテグラル立体表示装置20の表示画面は、厳密には、レンズアレイ22から要素レンズ25の焦点距離と同様の距離(例えば数mm程度)離間している。
各輝点は、レンズアレイ22に所定の投射角度θで平行光102を入射したときに形成されたものである。図2において、符号103は、要素画像(要素レンズ25の1個分の画像)の投射光線を示している。
In FIG. 2, it is assumed that the focal length of the element lenses constituting the lens array 22 is f, and the lens array 22 is installed at a position of Z = −f. At this time, the bright spot formation position 101 is located on the display screen, that is, Z = 0 (XY plane). Strictly speaking, the display screen of the integral stereoscopic display device 20 is separated from the lens array 22 by the same distance (for example, about several mm) as the focal length of the element lens 25.
Each bright spot is formed when the parallel light 102 is incident on the lens array 22 at a predetermined projection angle θ. In FIG. 2, the code | symbol 103 has shown the projection light ray of the element image (the image for one element lens 25).

図2のようにレンズアレイ22に所定の角度θで平行光102を入射したとき、例えば要素レンズ25aの光軸104に対する輝点形成位置のシフト量gは、要素レンズ25aの焦点距離fと投射角度θとを用いて、次の式(1)で算出することができる。   When parallel light 102 is incident on the lens array 22 at a predetermined angle θ as shown in FIG. 2, for example, the shift amount g of the bright spot formation position with respect to the optical axis 104 of the element lens 25a is projected with the focal length f of the element lens 25a. It can be calculated by the following equation (1) using the angle θ.

g=f×tanθ … 式(1)   g = f × tan θ (1)

[立体映像測定装置の構成]
次に立体映像測定装置について説明する。図1に示す立体映像測定装置10は、インテグラル立体表示装置20により表示された立体映像を測定する装置であり、検出器11と、要素画像生成手段12と、誤差値測定手段13と、を備えている。
[Configuration of stereoscopic image measuring device]
Next, the stereoscopic image measuring device will be described. A stereoscopic video measurement device 10 shown in FIG. 1 is a device that measures a stereoscopic video displayed by an integral stereoscopic display device 20, and includes a detector 11, element image generation means 12, and error value measurement means 13. I have.

検出器11は、インテグラル立体表示装置20の表示画面に要素レンズ25に対応して形成された輝点の位置と輝度とを検出するものである。
この検出器11は、後記するように事前校正工程において(白表示を行ったときに)、表示画面に形成された全輝点の位置と輝度とを単一の視点で検出する。
また、検出器11は、後記するように測定工程において(要素画像を投射したときに)表示画面に形成された輝点の位置と輝度を、白表示を行ったときと同じ視点で検出する。
The detector 11 detects the position and brightness of the bright spot formed corresponding to the element lens 25 on the display screen of the integral stereoscopic display device 20.
As will be described later, the detector 11 detects the position and brightness of all the bright spots formed on the display screen from a single viewpoint in the pre-calibration step (when white display is performed).
Further, as will be described later, the detector 11 detects the position and brightness of the bright spot formed on the display screen in the measurement process (when the element image is projected) from the same viewpoint as when white display is performed.

検出器11は、例えばデジタルカメラ又はフォトディテクターである。本実施形態では、一例として検出器11は単一のデジタルカメラであるものとする。このように検出器11にカメラを使用する場合、ピント位置が、インテグラル立体表示装置20の表示画面、すなわち、図2のZ=0に形成された輝点の位置になるように制御する。また、一例として内部パラメーターが既知であり、撮影画像に対してはカメラ光学系の歪み補正を行うものとする。   The detector 11 is, for example, a digital camera or a photo detector. In this embodiment, the detector 11 is assumed to be a single digital camera as an example. When the camera is used for the detector 11 as described above, the focus position is controlled to be the display screen of the integral stereoscopic display device 20, that is, the position of the bright spot formed at Z = 0 in FIG. Further, as an example, it is assumed that internal parameters are known, and camera optical system distortion correction is performed on a captured image.

要素画像生成手段12は、インテグラル立体表示装置20により所定位置に立体映像であるマーカーが再生されるように要素画像を生成するものである。この要素画像生成手段12は、画像処理手段で構成され、要素画像の生成方法は特に限定されない。
ここで、所定位置とは、インテグラル立体表示装置20の表示画面から所定の奥行き距離だけ離間した3次元空間の位置である。所定位置については、この立体映像測定装置10の利用者が、マーカーを表示させたい所望の位置を決定することができる。なお、単一の検出器11で単一の視点でマーカーを検出する場合、マーカーの近似的な位置として、奥行きを除いた2次元の位置(画面内の位置)を検出する。
The element image generation means 12 generates an element image so that a marker that is a stereoscopic video is reproduced at a predetermined position by the integral stereoscopic display device 20. The element image generation means 12 is constituted by an image processing means, and the element image generation method is not particularly limited.
Here, the predetermined position is a position in a three-dimensional space separated from the display screen of the integral stereoscopic display device 20 by a predetermined depth distance. As for the predetermined position, the user of the stereoscopic image measuring apparatus 10 can determine a desired position where the marker is to be displayed. When a single detector 11 detects a marker from a single viewpoint, a two-dimensional position (position in the screen) excluding depth is detected as an approximate position of the marker.

ここで、再生されるマーカーについて図4(a)〜図4(c)を参照して説明する。
図4(a)は、再生表示されるマーカーの形状の一例である。本実施形態では、マーカーMが、正面視で例えば円形状であり、中心ほど高い輝度分布を有しているものとする。なお、円形の外側の黒色の部分は、表示画面の背景を表している。
Here, the marker to be reproduced will be described with reference to FIGS. 4 (a) to 4 (c).
FIG. 4A shows an example of the shape of a marker that is reproduced and displayed. In the present embodiment, it is assumed that the marker M is, for example, circular when viewed from the front, and has a higher luminance distribution toward the center. The black portion outside the circle represents the background of the display screen.

例えば、xy平面上で−π/2≦x≦π/2、−π/2≦y≦π/2としたときに、マーカーの輝度は例えばcosx×cosyのように表すことができる。図4(b)は、このマーカーMのx軸方向の輝度分布を示す。   For example, when −π / 2 ≦ x ≦ π / 2 and −π / 2 ≦ y ≦ π / 2 on the xy plane, the luminance of the marker can be expressed as, for example, cosx × cosy. FIG. 4B shows the luminance distribution of the marker M in the x-axis direction.

図4(c)はマーカーの画面内での配置例である。ここでは、レンズアレイ22を介して、一例として水平11個×垂直7個の合計77個のマーカーを再生表示した状態を模式的に示す。なお、マーカーの個数や3次元位置(個数と配置)はこれらに限定されるものではない。マーカーを画面全体に配置することで、マーカーの再生位置誤差について、画面全体の分布を算出することができる。   FIG. 4C shows an arrangement example of the markers on the screen. Here, a state in which a total of 77 markers of 11 horizontal x 7 vertical are reproduced and displayed as an example through the lens array 22 is schematically shown. The number of markers and the three-dimensional position (number and arrangement) are not limited to these. By arranging the markers over the entire screen, the distribution of the entire screen can be calculated for the reproduction position error of the markers.

なお、マーカーの再生可能な奥行き範囲は、インテグラル立体表示装置20の調整状態と検出器11の設置位置とにより決定する。もしも調整精度が低い状態で、奥行きのある位置にマーカーを表示すると、再生像に歪みや欠落が生じる。そこで、事前校正工程にて、最初は奥行き距離が短い位置にマーカーを表示してインテグラル立体表示装置20を粗調整し、その後、マーカーの位置を変化させながら、段階的にインテグラル立体表示装置20を微調整するなど、利用用途に応じて、適切に奥行き位置を決定することが好ましい。   Note that the reproducible depth range of the marker is determined by the adjustment state of the integral stereoscopic display device 20 and the installation position of the detector 11. If a marker is displayed at a deep position with a low adjustment accuracy, the reproduced image is distorted or missing. Therefore, in the pre-calibration step, first, the marker is displayed at a position where the depth distance is short to roughly adjust the integral stereoscopic display device 20, and then the integral stereoscopic display device is gradually changed while changing the position of the marker. It is preferable to appropriately determine the depth position according to the use application, such as fine adjustment of 20.

誤差値測定手段13は、立体映像測定装置10において要素画像の生成以外の計算処理を行うものであり、主として、立体像の再生位置に関して奥行きを除いた2次元の誤差値を測定する。
誤差値測定手段13は、後記する事前校正工程にて、インテグラル立体表示装置20で白表示を行ったときに検出された輝点の位置と輝度とを用いて検出器11を校正する演算を行うために、補正係数算出手段14と、位置校正手段15と、歪係数算出手段16と、内部パラメーター校正手段17と、を備えている。
また、誤差値測定手段13は、後記する測定工程にて、インテグラル立体表示装置20において要素画像を投射したときに検出された輝点の位置と輝度とを用いてマーカーを構成する輝点の位置と輝度とを求める演算を行い、所定位置に対するマーカーが再生された位置の誤差値を測定するために、誤差算出手段18を備えている。
The error value measuring means 13 performs calculation processing other than the generation of the element image in the stereoscopic image measuring apparatus 10, and mainly measures a two-dimensional error value excluding the depth with respect to the reproduction position of the stereoscopic image.
The error value measuring means 13 performs an operation for calibrating the detector 11 using the position and brightness of the bright spot detected when white display is performed by the integral stereoscopic display device 20 in the pre-calibration step described later. In order to perform this, a correction coefficient calculation means 14, a position calibration means 15, a distortion coefficient calculation means 16, and an internal parameter calibration means 17 are provided.
Further, the error value measuring means 13 uses the position and brightness of the bright spot detected when the element image is projected on the integral stereoscopic display device 20 in the measurement process described later. An error calculating means 18 is provided for performing an operation for obtaining the position and the luminance and measuring the error value at the position where the marker for the predetermined position is reproduced.

補正係数算出手段14は、事前校正工程にて白表示を行ったときに検出された全輝点の輝度に基づいて輝度値のばらつきを補正するための補正係数を輝点毎に算出するものである。なお、本実施形態では、事前校正工程において、補正係数算出手段14が、検出器11で捉えたデータを解析し、輝点の位置及び輝度を検出するものとした。検出器11では、輝点は輝度分布を有する微小な点群として捉えられるため、補正係数算出手段14は、撮影画像を二値化してラベリング処理するか、輝度勾配の頂点を算出することによって、各輝点の中心位置を、輝点形成位置101(図2)として検出する。インテグラル立体表示装置20の表示画面の全体における輝点形成位置101の分布については、前記した式(1)で示した例のように、レンズアレイ22の配列、各要素レンズ25の位置座標及び焦点距離、要素画像投射部21の構成(投射角度)から算出することができる。補正係数算出手段14は、輝点形成位置の分布と同一の分布の検出点群を輝点とみなし、それ以外の検出点はノイズとして除去する。なお、輝点の輝度値は、撮影画像における輝点の画素値の平均により求めることができる。   The correction coefficient calculation means 14 calculates a correction coefficient for correcting the luminance value variation for each bright spot based on the brightness of all bright spots detected when white display is performed in the pre-calibration step. is there. In the present embodiment, in the pre-calibration step, the correction coefficient calculation unit 14 analyzes the data captured by the detector 11 and detects the position and luminance of the bright spot. In the detector 11, since the bright spot is captured as a small point group having a luminance distribution, the correction coefficient calculating unit 14 binarizes the captured image and performs labeling processing or calculates the peak of the luminance gradient. The center position of each bright spot is detected as the bright spot forming position 101 (FIG. 2). As for the distribution of the bright spot forming positions 101 in the entire display screen of the integral stereoscopic display device 20, as in the example shown in the above-described equation (1), the arrangement of the lens array 22, the position coordinates of each element lens 25, and the like. It can be calculated from the focal length and the configuration (projection angle) of the element image projection unit 21. The correction coefficient calculation means 14 regards a detection point group having the same distribution as the distribution of bright spot formation positions as a bright spot, and removes other detection points as noise. Note that the luminance value of the bright spot can be obtained by averaging the pixel values of the bright spots in the captured image.

補正係数算出手段14で算出する補正係数は、レンズアレイ22を構成する各要素レンズ25の成形誤差によって生じる輝度値のばらつきを、後記する測定工程において補正(正規化)するための係数である。補正係数算出手段14は、白表示を行ったときに単一の視点で検出器11によって捉えたデータを解析することで検出した各輝点の輝度値に基づいて、全輝度値の平均値又は中央値を求め、それを基準値とする。補正係数算出手段14は、各輝点について、輝度値と基準値との比を求め、各輝点の輝度値の補正係数とする。なお、輝度値が極端に低い輝点については、要素レンズ25が不良であるものとみなし、計算対象から除去するようにしてもよい。   The correction coefficient calculated by the correction coefficient calculation means 14 is a coefficient for correcting (normalizing) a variation in luminance value caused by a molding error of each element lens 25 constituting the lens array 22 in a measurement process described later. The correction coefficient calculation means 14 calculates the average value of all the luminance values based on the luminance value of each bright spot detected by analyzing the data captured by the detector 11 from a single viewpoint when white display is performed. Find the median and use it as the reference value. The correction coefficient calculation means 14 obtains the ratio between the brightness value and the reference value for each bright spot, and sets it as the correction coefficient for the brightness value of each bright spot. Note that a bright spot with an extremely low luminance value may be regarded as a defective element lens 25 and removed from the calculation target.

位置校正手段15は、事前校正工程にて白表示を行ったときに検出された全輝点の位置に基づいて検出器11の位置及び姿勢についてキャリブレーションを行うものである。
位置校正手段15は、検出された輝点の位置に実座標を割り当て、下記の参考文献1などで記載されている一般的な校正手法を用いることで、検出器11の位置と姿勢を算出する。ここで、実座標の原点については、任意の位置を指定するか、画面中央の1つの輝点のみ異なる色となるように表示し、これを原点とする。
The position calibrating means 15 calibrates the position and orientation of the detector 11 based on the positions of all the bright spots detected when white display is performed in the preliminary calibration process.
The position calibration unit 15 assigns real coordinates to the position of the detected bright spot, and calculates the position and orientation of the detector 11 by using a general calibration method described in Reference Document 1 below. . Here, for the origin of the real coordinates, an arbitrary position is designated, or only one bright spot at the center of the screen is displayed in a different color, and this is set as the origin.

(参考文献1)Zhang, Zhengyou, "A flexible new technique for camera calibration" IEEE Transactions on pattern analysis and machine intelligence 22.11 (2000), 1330-1334 (Reference 1) Zhang, Zhengyou, "A flexible new technique for camera calibration" IEEE Transactions on pattern analysis and machine intelligence 22.11 (2000), 1330-1334

歪係数算出手段16は、事前校正工程にて白表示を行ったときに検出器11の位置を変えることにより多視点で検出された全輝点の位置に基づいて画像の位置歪みを補正するための歪み係数を算出するものである。これは、輝点形成位置の歪みを補正するための処理である。
インテグラル立体表示装置20の設計が理想的であれば歪は発生しないが、実際の表示装置では、要素レンズ25の成形誤差や、レンズアレイ22前段のコリメーターレンズ24のレンズ歪みにより、輝点形成位置に歪みが生じる場合がある。輝点形成位置の歪みは、立体像の再生位置誤差の測定精度低下の原因となる。
The distortion coefficient calculation means 16 corrects the positional distortion of the image based on the positions of all the bright spots detected from multiple viewpoints by changing the position of the detector 11 when white display is performed in the pre-calibration step. The distortion coefficient is calculated. This is a process for correcting the distortion of the bright spot forming position.
If the design of the integral stereoscopic display device 20 is ideal, distortion does not occur. However, in an actual display device, a bright spot is caused by a molding error of the element lens 25 or lens distortion of the collimator lens 24 in the front stage of the lens array 22. Distortion may occur at the formation position. The distortion of the bright spot forming position causes a decrease in measurement accuracy of the reproduction position error of the stereoscopic image.

歪係数算出手段16は、歪み係数の算出にあたっては、歪みモデルを考慮した透視投影変換モデルを作成する。歪みが放射方向に生じると仮定して、一般的な透視投影変換モデルに歪みモデルを加えた例を以下の式(2)〜式(7)に示す。   The distortion coefficient calculation means 16 creates a perspective projection conversion model considering the distortion model when calculating the distortion coefficient. Assuming that distortion occurs in the radial direction, an example in which a distortion model is added to a general perspective projection transformation model is shown in the following equations (2) to (7).


ただし、式(2)〜式(7)において、スモールx、y、zは、カメラ座標系である。Rは回転、tは平行移動を示す行列であり、これらによって検出器11の姿勢を示す。(u,v)は、画像座標(投影面座標)で表した、撮影画像中の輝点形成位置である。(X’,Y’,Z)は、ワールド座標で表した、理想的な(無歪の)輝点形成位置である。(X,Y,Z)は、ワールド座標で表した、歪みを含む輝点形成位置である。k1、k2、k3は、放射方向の歪み係数である。なお、カメラの内部パラメーターは既知(校正済)であるものとし、焦点距離fx、fyと画像中心cx、cyは既知とする。 However, in Formula (2)-Formula (7), small x, y, z is a camera coordinate system. R is a matrix indicating rotation and t is a translation indicating the attitude of the detector 11. (U, v) is a bright spot formation position in the captured image expressed in image coordinates (projection plane coordinates). (X ′, Y ′, Z) are ideal (undistorted) bright spot formation positions expressed in world coordinates. (X, Y, Z) is a bright spot forming position including distortion expressed in world coordinates. k 1 , k 2 and k 3 are radial distortion coefficients. The internal parameters of the camera is assumed to be known (already calibrated), the focal length f x, f y and the image center c x, c y is assumed to be known.

歪係数算出手段16は、前記した式(2)に基づいて作成した再投影誤差の評価関数に対して、レーベンバーグ・マーカート法などの最適化アルゴリズムを適用することで、歪み係数k1、k2、k3を含む未知数の算出を行う。なお、輝点形成位置の検出情報は、多視点で検出する必要がある。 The distortion coefficient calculation means 16 applies an optimization algorithm such as the Levenberg-Markert method to the evaluation function of the reprojection error created based on the above-described equation (2), whereby the distortion coefficients k 1 , k to calculate the unknowns, including 2, k 3. The detection information of the bright spot formation position needs to be detected from multiple viewpoints.

内部パラメーター校正手段17は、検出器11が内部パラメーター未校正のデジタルカメラであるときに、その内部パラメーターを校正するためのものである。この内部パラメーター校正手段17は、事前校正工程にて白表示を行ったときにデジタルカメラの位置を変えることにより多視点で検出された全輝点の位置に基づいて、デジタルカメラの内部パラメーターを校正する。内部パラメーター校正手段17は、前記した参考文献1などで記載されている一般的な校正手法を適用することで、内部パラメーターを算出する。なお、カメラの位置を変えると、前記した式(2)における姿勢R,tが変化することになる。   The internal parameter calibration means 17 is for calibrating the internal parameters when the detector 11 is a digital camera with no internal parameters calibrated. This internal parameter calibration means 17 calibrates the internal parameters of the digital camera based on the positions of all bright spots detected from multiple viewpoints by changing the position of the digital camera when white display was performed in the pre-calibration process. To do. The internal parameter calibration means 17 calculates the internal parameter by applying a general calibration method described in the above-mentioned reference 1 or the like. Note that when the position of the camera is changed, the postures R and t in Equation (2) described above change.

誤差算出手段18は、再生されたマーカーを構成する輝点の位置及び輝度を算出し、マーカーの理論的な輝度分布に近似させることで、マーカーが再生された位置の誤差値を算出するものである。なお、本実施形態では、測定工程において、誤差算出手段18が、検出器11で捉えたデータを解析し、輝点の位置及び輝度を検出するものとした。   The error calculation means 18 calculates the error value of the position where the marker is reproduced by calculating the position and luminance of the bright spot constituting the reproduced marker and approximating it to the theoretical luminance distribution of the marker. is there. In the present embodiment, in the measurement process, the error calculation means 18 analyzes the data captured by the detector 11 and detects the position and brightness of the bright spot.

誤差算出手段18は、測定工程にて要素画像を投射したときに検出された輝点をマーカーについての所定位置に投影することで、再生されたマーカーを構成する輝点の位置を検出する。ここで、輝点の投影位置について図5を参照して説明する。図5は、図2と同様な3次元空間を用いた輝点の投影位置の説明図である。図5において、図2と同様な構成には同様の符号を付して説明を省略する。   The error calculation means 18 detects the position of the bright spot constituting the reproduced marker by projecting the bright spot detected when the element image is projected in the measurement step to a predetermined position of the marker. Here, the projection position of the bright spot will be described with reference to FIG. FIG. 5 is an explanatory diagram of projection positions of bright spots using the same three-dimensional space as FIG. In FIG. 5, the same components as those in FIG.

マーカーMの所望の3次元の再生位置についての奥行き位置をZ=dの位置とする。つまり、マーカーの奥行き距離をdとする。なお、図5では、簡便のため、マーカーを構成する輝点は、Y軸に平行な一次元配列の4つの要素レンズから形成されているものとしているが、図6のように4×4の2次元配列の輝点を想定している。
図5に示すように、マーカーMを構成する要素画像の画素121,122,123,124はそれぞれ異なる輝点形成位置101を通過し、Z=dに設定された輝点の投影位置111において、マーカーの立体像を結像する。なお、マーカーの立体像は輝点間隔(=要素レンズ間隔)でサンプリングされ、要素画像は、輝点に対する視点に応じた輝度情報になる。このとき、検出器11は、ピント位置を輝点形成位置101に合わせており、誤差算出手段18は、検出器11で捉えたデータを解析し、次のようにして輝点形成位置101の輝点の位置及び輝度を検出する。
A depth position of a desired three-dimensional reproduction position of the marker M is set as a position of Z = d. That is, let d be the depth distance of the marker. In FIG. 5, for the sake of simplicity, the bright spots constituting the marker are assumed to be formed from four element lenses arranged in a one-dimensional array parallel to the Y axis. However, as shown in FIG. A bright spot of a two-dimensional array is assumed.
As shown in FIG. 5, the pixels 121, 122, 123, and 124 of the element image constituting the marker M pass through different bright spot formation positions 101, and at the bright spot projection position 111 set to Z = d, A three-dimensional image of the marker is formed. The three-dimensional image of the marker is sampled at the bright spot interval (= element lens interval), and the element image becomes luminance information corresponding to the viewpoint with respect to the bright spot. At this time, the detector 11 adjusts the focus position to the bright spot formation position 101, and the error calculation means 18 analyzes the data captured by the detector 11, and performs the following process. Detect the position and brightness of the points.

まず、輝点の位置に関しては、画像座標(投影面座標)で表した、撮影画像中の輝点形成位置を(u,v)、マーカーの奥行き距離をd、輝点の投影位置を(Xd,Yd,d)とすると、前記した式(2)においてXをXdに置き換えると共に、YをYdに置き換えた次の式(8)から、未知数Xd,Ydを求めることで、輝点の投影位置(Xd,Yd,d)を算出する。 First, regarding the position of the bright spot, the bright spot formation position in the captured image expressed by image coordinates (projection plane coordinates) is (u, v), the marker depth distance is d, and the bright spot projection position is (X d , Y d , d), X is replaced with X d in the above equation (2), and unknowns X d , Y d are obtained from the following equation (8) in which Y is replaced with Y d. The projection position (X d , Y d , d) of the bright spot is calculated.

次に、輝点の輝度の検出方法について、図6(a)〜図6(c)を参照(適宜図5参照)して説明する。ここでは、マーカーが4×4個の16個の輝点で構成されているものとする。なお、実際の表示装置では、人間が離れた距離で観察したときは、輝点間隔が目の分解能と比べて密な状態となり、輝点として識別されずに立体像が知覚されることになる。   Next, a method for detecting the brightness of the bright spot will be described with reference to FIGS. 6A to 6C (see FIG. 5 as appropriate). Here, it is assumed that the marker is composed of 4 × 4 16 bright spots. In an actual display device, when a human observes at a distance, the bright spot interval is denser than the eye resolution, and a stereoscopic image is perceived without being identified as a bright spot. .

図6(a)は概ね二点鎖線で示す外周を持つマーカーMにおいて、マーカーを構成する4×4個の輝点を示す。輝点131,132,133,134は、図5においてマーカーMを構成する要素画像の画素121,122,123,124により形成されたものである。   FIG. 6A shows 4 × 4 bright spots constituting the marker in the marker M having an outer periphery indicated by a two-dot chain line. The bright spots 131, 132, 133, and 134 are formed by the pixels 121, 122, 123, and 124 of the element image that constitutes the marker M in FIG.

図6(b)は、検出器11によって撮影された撮影画像140を示している。撮影画像140に記録された輝点141,142,143,144は、図5において投影位置111ではなく輝点形成位置101にピントを合わせて撮影された輝点である。
図6(c)は、図6(b)の撮影画像140において輝点141を含む領域140aの拡大図である。検出器11の解像度に応じて異なるが、撮影画像140において輝点141は例えば数十個の画素で形成される。よって、誤差算出手段18は、撮影画像140における輝点を構成する数十画素の画素値の平均として輝点の輝度値を検出することができる。
FIG. 6B shows a captured image 140 captured by the detector 11. The bright spots 141, 142, 143, and 144 recorded in the photographed image 140 are bright spots that are photographed while focusing on the bright spot formation position 101 instead of the projection position 111 in FIG. 5.
FIG. 6C is an enlarged view of a region 140a including the bright spot 141 in the captured image 140 of FIG. Although different depending on the resolution of the detector 11, the bright spot 141 in the captured image 140 is formed of, for example, several tens of pixels. Therefore, the error calculating unit 18 can detect the luminance value of the bright spot as an average of the pixel values of several tens of pixels constituting the bright spot in the captured image 140.

誤差算出手段18は、測定工程にて要素画像を投射したときに検出された輝度値に輝点毎の補正係数を乗じることで、再生されたマーカーを構成する輝点の輝度値を算出する。
本実施形態では、誤差算出手段18は、検出された輝度値に対して、補正係数算出手段14によって算出された輝点毎の補正係数を乗じることで、マーカーMを構成する輝点の輝度値を算出する。
The error calculating means 18 calculates the luminance value of the bright spot constituting the reproduced marker by multiplying the luminance value detected when the element image is projected in the measurement step by the correction coefficient for each bright spot.
In the present embodiment, the error calculation means 18 multiplies the detected luminance value by the correction coefficient for each bright spot calculated by the correction coefficient calculation means 14, thereby obtaining the brightness value of the bright spot that constitutes the marker M. Is calculated.

誤差算出手段18は、再生されたマーカーを構成する輝点の輝度分布をマーカーの理論的な輝度分布に近似させる演算によってマーカーが再生された位置の誤差値を算出する。
マーカーが再生された位置の誤差値(再生位置誤差)は、3次元の誤差値であるが、本実施形態では、近似的に、奥行きを除いた2次元の誤差値として扱う。この場合、投影面におけるx方向及びy方向の再生位置誤差をex、eyとする。
The error calculation means 18 calculates an error value at the position where the marker is reproduced by an operation for approximating the luminance distribution of the bright spots constituting the reproduced marker to the theoretical luminance distribution of the marker.
The error value (reproduction position error) at the position where the marker is reproduced is a three-dimensional error value, but in the present embodiment, it is handled as a two-dimensional error value excluding the depth. In this case, the reproduction position errors in the x direction and the y direction on the projection plane are denoted by e x and e y .

図7に示す例では、誤差算出手段18は、検出された再生位置150のマーカーを構成する輝点により算出された輝度値を、正しい位置である再生予定位置160のマーカーの理論的な輝度値に近似させることで、マーカーの再生位置誤差ex、eyを算出する。
具体的には、誤差算出手段18は、次の式(9)で表される評価関数Eが最小となるように、最小二乗法により、再生位置誤差ex、eyおよび調整係数aを算出する。
In the example shown in FIG. 7, the error calculation means 18 uses the luminance value calculated from the bright spot that constitutes the detected marker at the reproduction position 150 as the theoretical luminance value of the marker at the reproduction scheduled position 160 that is the correct position. To approximate the reproduction position errors e x and e y of the marker.
Specifically, the error calculation means 18 calculates the reproduction position errors e x and e y and the adjustment coefficient a by the least square method so that the evaluation function E expressed by the following equation (9) is minimized. To do.

ただし、(Xd,Yd,d)はマーカーを構成する輝点の投影位置、LIはマーカーを構成する輝点の輝度、LMはマーカーの輝度の理論値である。なお、マーカーの輝度の理論値としては、例えば、図4(b)に例示した輝度分布cosx×cosy等を用いることができる。 However, (X d, Y d, d) is the projected position, L I of the bright points constituting the marker luminance of the bright spot constituting the marker, the L M is the theoretical value of the brightness of the marker. As the theoretical value of the marker brightness, for example, the brightness distribution cosx × cosy exemplified in FIG. 4B can be used.

[立体映像測定方法の流れ]
次に、立体映像測定方法の流れについて図8を参照(適宜、図1参照)して説明する。立体映像測定方法は、立体映像測定装置10によって、検出器11の事前校正を実施する事前校正工程(ステップS11)と、立体映像測定装置10によって、立体映像であるマーカーが再生された位置の誤差値を測定する測定工程(ステップS13〜ステップS16)と、を有する。なお、本実施形態では、単一の検出器11を使用する。
[Flow of 3D image measurement method]
Next, the flow of the stereoscopic image measurement method will be described with reference to FIG. 8 (refer to FIG. 1 as appropriate). The three-dimensional image measurement method includes a pre-calibration step (step S11) in which the three-dimensional image measurement device 10 performs pre-calibration of the detector 11, and an error in a position where a marker that is a three-dimensional image is reproduced by the three-dimensional image measurement device 10. And a measuring step (step S13 to step S16) for measuring the value. In the present embodiment, a single detector 11 is used.

事前校正(ステップS11)では、主として検出器11の位置校正と輝点の輝度値の補正係数の算出を行う。この事前校正工程の詳細については後記する。そして、立体映像測定装置10は、例えば、要素画像生成手段12に開始指示が入力されるまで待機し(ステップS12:No)、開始指示が入力されたと判定した場合(ステップS12:Yes)、測定工程を開始する。   In the pre-calibration (step S11), the position calibration of the detector 11 and the calculation of the correction coefficient for the brightness value of the bright spot are mainly performed. Details of this pre-calibration process will be described later. Then, for example, the stereoscopic video measurement apparatus 10 stands by until a start instruction is input to the element image generation unit 12 (step S12: No), and when it is determined that the start instruction is input (step S12: Yes), the measurement is performed. Start the process.

そして、立体映像測定装置10は、要素画像生成手段12によって、マーカーを表示させようとする予め設定された所定位置に、マーカーが再生されるように要素画像群を生成する(ステップS13:生成工程)。また、インテグラル立体表示装置20は、ステップS13で生成された要素画像群を投射することで表示画面に輝点を形成してマーカーを所定位置に再生表示する(ステップS14:第2表示工程)。   Then, the stereoscopic image measuring device 10 generates an element image group by the element image generation unit 12 so that the marker is reproduced at a predetermined position where the marker is to be displayed (step S13: generation process). ). Further, the integral stereoscopic display device 20 projects the element image group generated in step S13 to form a bright spot on the display screen and reproduce and display the marker at a predetermined position (step S14: second display step). .

そして、立体映像測定装置10は、検出器11によって、再生されたマーカーを検出する。そして、人がマーカーを目視して、マーカーの再生像が検出可能かどうか確認する。マーカーの再生像に欠落があったり、再生像の歪みが大きかったりするなど、検出が不可能である場合(ステップS15:No)、ステップS13へ戻り、マーカーの奥行き距離を小さくした上で、再び要素画像の生成を行う。   Then, the stereoscopic image measuring device 10 detects the reproduced marker by the detector 11. Then, a person visually checks the marker to confirm whether or not a reproduced image of the marker can be detected. When detection is impossible, for example, when the reproduced image of the marker is missing or the distortion of the reproduced image is large (step S15: No), the process returns to step S13, and the depth distance of the marker is reduced and then again. Generate element images.

一方、再生像に欠落等の問題がなければ、再生位置誤差の算出指示を装置に入力する。そして、立体映像測定装置10は、例えば、誤差値測定手段13に再生位置誤差の算出指示が入力されたと判定した場合(ステップS15:Yes)、誤差値測定手段13は、マーカーを構成する輝点の位置と輝度に関する検出情報から再生位置誤差を算出する(ステップS16)。なお、再生位置誤差算出処理の詳細については後記するが、算出した再生位置誤差を、表示装置についての既存の補正調整手法などに適用するようにしてもよい。   On the other hand, if there is no problem such as missing in the reproduced image, a reproduction position error calculation instruction is input to the apparatus. For example, when the stereoscopic image measurement device 10 determines that the reproduction position error calculation instruction has been input to the error value measurement unit 13 (step S15: Yes), the error value measurement unit 13 determines that the bright spot constituting the marker The reproduction position error is calculated from the detection information relating to the position and the luminance (step S16). Although details of the reproduction position error calculation process will be described later, the calculated reproduction position error may be applied to an existing correction adjustment method for the display device.

そして、マーカーの再生位置を変化させたり、マーカーの配置を変更させたりして、更に再生位置誤差の測定を行う場合(ステップS17:No)、ステップS13に戻る。さらなる測定が必要ない場合、例えば、要素画像生成手段12に終了指示が入力されたと判定した場合(ステップS17:Yes)、立体映像測定装置10は、処理を終了する。   When the reproduction position error is further measured (step S17: No), the process returns to step S13. If no further measurement is required, for example, if it is determined that an end instruction has been input to the element image generation unit 12 (step S17: Yes), the stereoscopic video measurement device 10 ends the process.

次に、事前校正工程について図9を参照(適宜、図2及び図3参照)して説明する。事前校正工程(ステップS11)において、まず、図2及び図3(b)に示すように、インテグラル立体表示装置20は、白表示を行うことでインテグラル立体表示装置20の表示画面に要素レンズ25に対応した輝点を形成する。このとき、インテグラル立体表示装置20は、白を表示して全ての画素を発光し、全輝点を最大輝度で発光する(ステップS21:第1表示工程)。なお、全輝点の形成位置の分布は既知であるものとする。また、例えば、図2に示すように、レンズアレイ22への入射光を平行光102とする。   Next, the pre-calibration process will be described with reference to FIG. 9 (see FIGS. 2 and 3 as appropriate). In the pre-calibration step (step S11), first, as shown in FIG. 2 and FIG. 3B, the integral stereoscopic display device 20 displays the element lens on the display screen of the integral stereoscopic display device 20 by performing white display. A bright spot corresponding to 25 is formed. At this time, the integral stereoscopic display device 20 displays white, emits all pixels, and emits all bright spots with the maximum luminance (step S21: first display step). It is assumed that the distribution of all bright spot formation positions is known. Further, for example, as shown in FIG. 2, the incident light to the lens array 22 is assumed to be parallel light 102.

図9のステップS22は輝点形成位置の歪み補正に関する分岐処理であり、ステップS23はカメラの内部パラメーター校正に関する分岐処理である。ここでは、一連の処理の中で、必要に応じてステップS22及びステップS23のどちらか片方の分岐処理だけを実施している。
例えば、本実施形態のように、カメラの内部パラメーターが校正済みの前提で、さらに輝点形成位置の歪み補正が必要である場合(ステップS22:No)、ステップS28に進み、後記するように輝点形成位置の歪み係数を算出する。なお、輝点形成位置の歪み係数を算出するためには、カメラの内部パラメーターが既知である必要がある。
一方、カメラの内部パラメーターが未校正である場合(ステップS23:No)、ステップS29に進み、後記するように内部パラメーターを推定する。なお、カメラの内部パラメーターを校正するためには輝点形成位置の歪み補正が行われている必要がある。
Step S22 in FIG. 9 is a branching process related to distortion correction of the bright spot formation position, and step S23 is a branching process related to calibration of the internal parameters of the camera. Here, only one of the branch processes of step S22 and step S23 is performed as necessary in the series of processes.
For example, as in this embodiment, assuming that the internal parameters of the camera have already been calibrated and further correction of distortion of the bright spot formation position is necessary (step S22: No), the process proceeds to step S28, and the bright brightness is set as described later. A distortion coefficient at the point formation position is calculated. In order to calculate the distortion coefficient at the bright spot forming position, it is necessary to know the internal parameters of the camera.
On the other hand, if the internal parameters of the camera have not been calibrated (step S23: No), the process proceeds to step S29, and the internal parameters are estimated as described later. In order to calibrate the internal parameters of the camera, it is necessary to correct the distortion of the bright spot formation position.

そして、輝点形成位置の歪み補正が不要である場合(ステップS22:Yes)、且つ、カメラの内部パラメーターが校正済みである場合(ステップS23:Yes)、ステップS24に進み、検出器11で、インテグラル立体表示装置20の表示画面を撮影する。   And when distortion correction of a bright spot formation position is unnecessary (Step S22: Yes), and when an internal parameter of a camera has been calibrated (Step S23: Yes), it progresses to Step S24, and with detector 11, The display screen of the integral stereoscopic display device 20 is photographed.

ステップS24(記録工程)では、インテグラル立体表示装置20の視域内に検出器11を設置し、表示画面を捉える。本実施形態のように検出器11がデジタルカメラであるときは、ピント位置を輝点形成位置に合わせ、検出器11によって、表示画面を記録する。   In step S24 (recording step), the detector 11 is installed in the viewing zone of the integral stereoscopic display device 20, and the display screen is captured. When the detector 11 is a digital camera as in this embodiment, the focus position is aligned with the bright spot formation position, and the display screen is recorded by the detector 11.

そして、立体映像測定装置10の誤差値測定手段13は、補正係数算出手段14によって、白表示を行ったときに検出器11で捉えたデータを解析し、全ての輝点の位置と輝度を検出する(ステップS25:第1検出工程)。なお、検出精度を高めるために、事前に表示画面を黒表示した状態で撮影し、背景差分法を用いてもよい。   Then, the error value measuring means 13 of the stereoscopic image measuring apparatus 10 analyzes the data captured by the detector 11 when white display is performed by the correction coefficient calculating means 14, and detects the positions and luminances of all the bright spots. (Step S25: first detection step). In order to improve the detection accuracy, the background screen may be used by shooting in a state where the display screen is displayed in black.

そして、誤差値測定手段13は、補正係数算出手段14によって、輝度値の補正係数を算出する(ステップS26)。なお、輝度値の補正係数は、測定工程において輝度値のばらつきを補正するための係数であり、輝点毎に算出される。   Then, the error value measuring means 13 calculates the correction coefficient of the luminance value by the correction coefficient calculating means 14 (step S26). The luminance value correction coefficient is a coefficient for correcting variations in luminance values in the measurement process, and is calculated for each bright spot.

そして、誤差値測定手段13は、位置校正手段15によって、検出された全輝点の位置に基づいて検出器11を位置校正する演算を行う。すなわち、位置校正手段15は、検出された輝点の位置に実座標を割り当て、検出器11の位置と姿勢を算出する(ステップS27:演算工程)。   Then, the error value measuring means 13 performs an operation for calibrating the position of the detector 11 based on the positions of all the bright spots detected by the position calibrating means 15. That is, the position calibration means 15 assigns real coordinates to the detected bright spot position, and calculates the position and orientation of the detector 11 (step S27: calculation step).

前記したステップS22でNoの場合、誤差値測定手段13は、歪係数算出手段16によって、多視点で検出された全輝点の位置に基づいて、輝点形成位置の歪み係数を算出する(ステップS28)。具体的には、歪係数算出手段16は、前記した式(2)に基づいて作成した再投影誤差の評価関数に対して、レーベンバーグ・マーカート法などの最適化アルゴリズムを適用することで、歪み係数k1、k2、k3を含む未知数の算出を行う。その際に、表示画面の撮影処理(ステップS24に相当する処理)と、輝点の検出処理(ステップS25に相当する処理)とを、検出器11の位置を変化させながら複数回実施することで、表示画面に形成された全輝点の位置を多視点で検出する。なお、輝点の形成位置に歪みがない場合や、以前に歪み係数の算出を行っている場合、ステップS28を実施する必要はない。 In the case of No in step S22 described above, the error value measuring unit 13 calculates the distortion coefficient at the bright spot forming position based on the positions of all the bright spots detected from multiple viewpoints by the distortion coefficient calculating unit 16 (step). S28). Specifically, the distortion coefficient calculating means 16 applies an optimization algorithm such as the Levenberg-Marggart method to the evaluation function of the reprojection error created based on the above-described equation (2). Calculation of unknowns including coefficients k 1 , k 2 , and k 3 is performed. At that time, the display screen photographing process (a process corresponding to step S24) and the bright spot detection process (a process corresponding to step S25) are performed a plurality of times while changing the position of the detector 11. The position of all bright spots formed on the display screen is detected from multiple viewpoints. If there is no distortion at the bright spot formation position or if the distortion coefficient has been calculated before, step S28 need not be performed.

前記したステップS23でNoの場合、誤差値測定手段13は、内部パラメーター校正手段17によって、多視点で検出された全輝点の位置に基づいて内部パラメーターを推定する(ステップS29)。具体的には、内部パラメーター校正手段17は、検出した多視点での輝点形成位置(X,Y,Z)の検出情報に対し、前記参考文献1などで記載されている一般的な校正手法を適用することで、内部パラメーターを算出する。なお、輝点形成位置の検出情報が多視点で必要であるため、表示画面の撮影処理(ステップS24に相当する処理)と、輝点の検出処理(ステップS25に相当する処理)とを、検出器11の位置を変化させながら複数回実施する。   In the case of No in step S23 described above, the error value measurement unit 13 estimates the internal parameter based on the positions of all bright spots detected from multiple viewpoints by the internal parameter calibration unit 17 (step S29). Specifically, the internal parameter calibration means 17 is a general calibration method described in Reference 1 or the like with respect to the detected detection information of the bright spot formation position (X, Y, Z) from multiple viewpoints. To calculate the internal parameters. In addition, since the detection information of the bright spot formation position is necessary for multiple viewpoints, the display screen photographing process (process corresponding to step S24) and the bright spot detection process (process corresponding to step S25) are detected. This is performed a plurality of times while changing the position of the vessel 11.

次に、再生位置誤差算出処理について図10を参照(適宜、図1、図5〜7及び図9参照)して説明する。まず、インテグラル立体表示装置20の視域内に検出器11を設置し、表示画面を捉える。そして、インテグラル立体表示装置20は、要素画像群を投射することで表示画面に輝点を形成してマーカーMを所定位置に再生表示する(図8のステップS14:第2表示工程)。このとき、検出器11の設置位置は、事前校正工程のステップS24の処理のときと同じ視点で検出できるように同じ位置とする。そして、本実施形態のように検出器11がデジタルカメラであるときは、ピント位置を事前校正工程から変化させず輝点形成位置に合わせたままとし、検出器11によって、表示画面を撮影する(ステップS31)。これにより、表示画面に形成された輝点の位置が検出される。   Next, the reproduction position error calculation process will be described with reference to FIG. 10 (refer to FIG. 1, FIG. 5 to FIG. 7 and FIG. 9 as appropriate). First, the detector 11 is installed in the viewing zone of the integral stereoscopic display device 20, and the display screen is captured. Then, the integral stereoscopic display device 20 projects the element image group to form a bright spot on the display screen and reproduce and display the marker M at a predetermined position (step S14 in FIG. 8: second display step). At this time, the installation position of the detector 11 is set to the same position so that it can be detected from the same viewpoint as in the process of step S24 of the pre-calibration step. Then, when the detector 11 is a digital camera as in the present embodiment, the focus position is not changed from the pre-calibration step and is kept at the bright spot forming position, and the detector 11 captures the display screen ( Step S31). Thereby, the position of the bright spot formed on the display screen is detected.

そして、立体映像測定装置10の誤差値測定手段13は、誤差算出手段18によって、検出器11で捉えたデータを解析し、マーカーMを構成する輝点の位置と輝度を検出する(ステップS32:第2検出工程)。ここで、表示画面に形成される全輝点についての輝点形成位置101については、事前校正工程のステップS25の処理で算出しているため、マーカーMを構成する輝点の位置に関しては、その位置情報を利用する。そして、誤差算出手段18は、マーカーMを構成する各輝点(131〜134:図6(a)参照)の輝度値をそれぞれ算出する。ここで、輝点の輝度値は、輝点を構成する画素値の平均として検出することができる(図6(c)参照)。なお、輝度値が一定以上で隣接した輝点群を、マーカーMを構成する輝点群とみなす。   Then, the error value measuring means 13 of the stereoscopic image measuring apparatus 10 analyzes the data captured by the detector 11 by the error calculating means 18 and detects the position and brightness of the bright spot constituting the marker M (step S32: Second detection step). Here, since the bright spot formation positions 101 for all the bright spots formed on the display screen are calculated in the process of step S25 in the pre-calibration step, the bright spot positions constituting the marker M are Use location information. Then, the error calculation means 18 calculates the luminance value of each bright spot (131 to 134: see FIG. 6A) constituting the marker M. Here, the luminance value of the bright spot can be detected as an average of the pixel values constituting the bright spot (see FIG. 6C). Note that bright spot groups adjacent to each other with a luminance value equal to or higher than a certain value are regarded as bright spot groups constituting the marker M.

そして、誤差値測定手段13は、誤差算出手段18によって、輝度値の正規化を行う(ステップS33:演算工程)。すなわち、誤差算出手段18は、ステップS32にて検出された輝度値に対して、事前校正工程のステップS26の処理で算出した輝点毎の補正係数を乗じることで、マーカーMを構成する輝点の輝度値を算出する。   Then, the error value measuring unit 13 normalizes the luminance value by the error calculating unit 18 (step S33: calculation step). That is, the error calculation means 18 multiplies the luminance value detected in step S32 by the correction coefficient for each bright spot calculated in step S26 of the pre-calibration step, thereby forming the bright spot constituting the marker M. Is calculated.

そして、誤差値測定手段13は、誤差算出手段18によって、輝点をマーカーの所望の再生位置に投影する(図10のステップS34:演算工程、図5参照)。これにより、誤差値測定手段13は、マーカーMを構成する輝点の位置を算出する。   Then, the error value measuring means 13 projects the bright spot on the desired reproduction position of the marker by the error calculating means 18 (step S34 in FIG. 10: calculation step, see FIG. 5). Thereby, the error value measuring means 13 calculates the position of the bright spot constituting the marker M.

そして、誤差値測定手段13は、誤差算出手段18によって、マーカーMを構成する輝点の輝度分布を、マーカーの輝度分布の理論値に近似して再生位置誤差を算出する(図10のステップS35:演算工程、図7参照)。   Then, the error value measuring unit 13 calculates the reproduction position error by approximating the luminance distribution of the bright spots constituting the marker M to the theoretical value of the marker luminance distribution by the error calculating unit 18 (step S35 in FIG. 10). : Calculation process, see FIG.

本実施形態に係る立体映像測定装置10によれば、検出器11で捉えた輝点の位置と輝度情報とを利用して、検出器11の位置校正と立体像の再生位置誤差の測定を行うことができる。したがって、キャリブレーションパターンや拡散板を設置することなく表示画面を直接撮影することができるので、立体像の再生位置誤差を簡便に測定することができる。
また、立体像を撮影する際に、拡散板をマーカーの再生位置に設置する必要がないので、マーカーの再生位置を変化させるたびに拡散板を移動させる手間を省くことができる。
According to the stereoscopic image measuring apparatus 10 according to the present embodiment, the position of the bright spot captured by the detector 11 and the luminance information are used to calibrate the position of the detector 11 and measure the reproduction position error of the stereoscopic image. be able to. Accordingly, since the display screen can be directly photographed without installing a calibration pattern or a diffusion plate, the reproduction position error of the stereoscopic image can be easily measured.
Further, since it is not necessary to install the diffuser plate at the marker reproduction position when taking a three-dimensional image, it is possible to save the trouble of moving the diffuser plate each time the marker reproduction position is changed.

(第2実施形態)
以下、複数の検出器11を用いる形態を第2実施形態として説明する。なお、第1実施形態と同じ構成には同じ符号を付して適宜説明を省略する。
(Second Embodiment)
Hereinafter, an embodiment using a plurality of detectors 11 will be described as a second embodiment. In addition, the same code | symbol is attached | subjected to the same structure as 1st Embodiment, and description is abbreviate | omitted suitably.

例えば、マーカーの所望の再生位置(理論値)を(Cx,Cy,d)とおいて、前記したステップS35で算出する再生位置誤差ex、eyを併せて用いると、マーカー(再生像)の中心位置Pは、(Cx+ex,Cy+ey,d)と表すことができる。この前提の下、まず、誤差算出手段18は、各検出器11において、カメラの中心位置と再生像の中心位置とが成すベクトルを算出する。例えば、n個の検出器11のうちのi番目(i=1,2,…,n)のカメラの中心位置Aiを始点とし、各カメラで検出した再生像の中心位置Pi(Cx+exi,Cy+eyi,d)を終点とするベクトルを、カメラ毎に求める。 For example, when the desired reproduction position (theoretical value) of the marker is (C x , C y , d) and the reproduction position errors e x and e y calculated in step S35 are used together, the marker (reproduced image) is used. ) Center position P can be expressed as (C x + e x , C y + e y , d). Under this assumption, first, the error calculation means 18 calculates a vector formed by the center position of the camera and the center position of the reproduced image in each detector 11. For example, the center position A i of the i-th (i = 1, 2,..., N) camera among the n detectors 11 is set as the starting point, and the center position P i (C x of the reproduced image detected by each camera. A vector whose end point is + e xi , C y + e yi , d) is obtained for each camera.

そして、誤差算出手段18は、全ベクトルの最接位置を算出することで、3次元の再生位置誤差を測定できる。ここで、ベクトルの交点ではなくベクトルの最接位置を算出するのは、実際の測定では、測定値の誤差により、3次元空間内ではベクトルが交点を持たず、ねじれの関係になるからである。例えば2つのベクトル(ベクトルv1,ベクトルv2)から計算する場合、図11に示すように、1つの直線がベクトルv1,v2に直交するときの交点であるベクトルv1上の最近傍点aとベクトルv2上の最近傍点bとの中点mを、最小二乗法を用いて算出することになる。 Then, the error calculation means 18 can measure a three-dimensional reproduction position error by calculating the closest position of all vectors. Here, the reason why the closest position of the vector is calculated instead of the intersection of the vectors is that, in actual measurement, the vector does not have an intersection in the three-dimensional space due to an error in the measurement value, and is in a twisted relationship. . For example, when calculating from two vectors (vector v 1 , vector v 2 ), as shown in FIG. 11, the nearest neighbor point on vector v 1 , which is an intersection when one straight line is orthogonal to vectors v 1 and v 2 The midpoint m between a and the nearest point b on the vector v 2 is calculated using the least square method.

誤差算出手段18は、一般化すると、n個の各ベクトルとの距離の総和が最小となる一点を最接位置として求める。具体的には、再生位置をP=(Cx+ex,Cy+ey,d)、カメラ毎に求めた各ベクトルをvi、これら各ベクトルの単位ベクトルをvi′、各カメラの中心位置をAiとして、三平方の定理によりPと各ベクトルviとの距離を求めると、それらの二乗和Eは次の式(10)で表すことができる。 When generalized, the error calculation means 18 obtains a point at which the total sum of the distances from the n vectors is minimum as the closest position. Specifically, the playback position is P = (C x + e x , C y + e y , d), each vector obtained for each camera is v i , the unit vector of each vector is v i ′, and the center of each camera When the position is A i and the distance between P and each vector v i is obtained by the three-square theorem, the square sum E can be expressed by the following equation (10).

なお、式(10)の右辺において、PやAiは位置ベクトルであり、記号「・」はベクトルの内積である。この式(10)における二乗和Eが最小となるPを算出することで、再生位置誤差ex、eyおよびdを算出することができる。 In the right side of Expression (10), P and A i are position vectors, and the symbol “·” is an inner product of vectors. By calculating P that minimizes the sum of squares E in this equation (10), it is possible to calculate reproduction position errors e x , e y, and d.

本実施形態によれば、立体像の3次元の再生位置誤差を算出することができる。なお、複数の検出器11を用いることで複数の視点から立体像を撮影する場合について説明したが、これに限らず、単一の検出器11を移動させながら複数の視点から立体像を撮影するようにしても、立体像の3次元の再生位置誤差を算出することができる。   According to this embodiment, a three-dimensional reproduction position error of a stereoscopic image can be calculated. In addition, although the case where a three-dimensional image was image | photographed from several viewpoints using the some detector 11 was demonstrated, not only this but a three-dimensional image is image | photographed from a several viewpoint, moving the single detector 11. FIG. Even in such a case, the three-dimensional reproduction position error of the stereoscopic image can be calculated.

以上、本発明の各実施形態について説明したが、本発明はこれらに限定されるものではなく、その趣旨を変えない範囲で実施することができる。例えば、インテグラル立体表示装置20において、要素画像投射部21は、プロジェクタ23とコリメーターレンズ24の代わりにバックライトと液晶パネルを用いて構成してもよい。又は、コリメーターレンズを用いずに、プロジェクタ23の直接光をレンズアレイ22に入射することとしてもよい。   As mentioned above, although each embodiment of this invention was described, this invention is not limited to these, It can implement in the range which does not change the meaning. For example, in the integral stereoscopic display device 20, the element image projection unit 21 may be configured using a backlight and a liquid crystal panel instead of the projector 23 and the collimator lens 24. Alternatively, direct light from the projector 23 may be incident on the lens array 22 without using a collimator lens.

また、誤差値測定手段13の補正係数算出手段14や誤差算出手段18が、検出器11で捉えたデータを解析し、輝点の位置を検出するものとしたが、検出器11自体が、輝点の位置を測定して検出するようにしてもよい。
検出器11は、カメラであるものとしたが、検出器11に例えばフォトディテクターを使うようにしてもよい。
Further, the correction coefficient calculation means 14 and the error calculation means 18 of the error value measurement means 13 analyze the data captured by the detector 11 and detect the position of the bright spot. You may make it detect by measuring the position of a point.
Although the detector 11 is assumed to be a camera, for example, a photodetector may be used for the detector 11.

立体映像測定装置10では、全体処理の統括は、誤差値測定手段13又は要素画像生成手段12で行うことができるし、それらとは別に専用の統括処理手段を設けてもよい。立体映像測定装置10において、誤差値測定手段13と要素画像生成手段12とを分けて説明したが、これら2つの機能を1つのコンピュータで実現することもできる。   In the stereoscopic image measuring apparatus 10, the overall processing can be integrated by the error value measuring unit 13 or the element image generating unit 12, or a dedicated integrated processing unit may be provided separately from them. In the stereoscopic image measuring apparatus 10, the error value measuring means 13 and the element image generating means 12 have been described separately. However, these two functions can be realized by a single computer.

本発明は、複数の表示デバイスを用いた方式にも適用できる。たとえば、複数のプロジェクタを用いた表示装置の場合、1台のプロジェクタでマーカーを再生し、他のプロジェクタは非表示として測定を行う。各プロジェクタの視域が重複していれば、検出器は同じ位置に設置したままで構わない。視域が重複していない場合はプロジェクタごとに検出器の移動が必要になるが、各視点においてワールド座標の原点を共有して検出器の位置校正を行うことで、システム全体の補正調整が可能となる。   The present invention can also be applied to a system using a plurality of display devices. For example, in the case of a display device using a plurality of projectors, the marker is reproduced by one projector and measurement is performed while the other projectors are not displayed. As long as the viewing zones of the projectors overlap, the detector may remain installed at the same position. If the viewing zones do not overlap, it is necessary to move the detector for each projector. However, by correcting the position of the detector by sharing the origin of the world coordinates at each viewpoint, it is possible to adjust and correct the entire system. It becomes.

レンズアレイ22を使用して輝点を表示画面内の所定位置に形成する方式のインテグラル立体表示装置20を対象としていたが、ピンホールや点光源などを使用するその他のインテグラル方式においても適用できる。直視型のパネルを使った方式や、プロジェクタと拡散板を使った方式など、拡散光をレンズアレイに入射するインテグラル立体表示方式においても、図3(a)の要素レンズ25の位置を、図3(b)の輝点形成位置101とみなし、要素レンズ25の輝度を輝点の輝度とみなすことで、本発明を適用することが可能である。   Although the target is the integral three-dimensional display device 20 that uses the lens array 22 to form a bright spot at a predetermined position in the display screen, the present invention is also applicable to other integral methods that use pinholes or point light sources. it can. In the integral three-dimensional display system in which diffused light is incident on the lens array, such as a system using a direct view type panel or a system using a projector and a diffusion plate, the position of the element lens 25 in FIG. The present invention can be applied by regarding the brightness of the element lens 25 as the brightness of the bright spot, assuming the bright spot formation position 101 of 3 (b).

10 立体映像測定装置
11 検出器
12 要素画像生成手段
13 誤差値測定手段
14 補正係数算出手段
15 位置校正手段
16 誤差算出手段
17 歪係数算出手段
18 内部パラメーター校正手段
20 インテグラル立体表示装置
21 要素画像投射部
22 レンズアレイ(光学素子アレイ)
25 レンズ(光学素子)
101 輝点形成位置
M マーカー
DESCRIPTION OF SYMBOLS 10 Stereoscopic image measuring apparatus 11 Detector 12 Element image generation means 13 Error value measurement means 14 Correction coefficient calculation means 15 Position calibration means 16 Error calculation means 17 Distortion coefficient calculation means 18 Internal parameter calibration means 20 Integral stereoscopic display device 21 Element image Projection unit 22 Lens array (optical element array)
25 Lens (optical element)
101 Bright spot formation position M Marker

Claims (11)

複数の光学素子が2次元配列された光学素子アレイと、前記光学素子アレイに要素画像を投射する要素画像投射部と、を有するインテグラル立体表示装置により表示された立体映像を測定する立体映像測定装置であって、
前記インテグラル立体表示装置により所定位置に立体映像であるマーカーが再生されるように前記要素画像を生成する要素画像生成手段と、
前記インテグラル立体表示装置の表示画面に前記光学素子に対応して形成された輝点の位置と輝度とを検出する検出器と、
前記インテグラル立体表示装置で白表示を行ったときに検出された輝点の位置と輝度とを用いて前記検出器を校正する演算を行い、前記インテグラル立体表示装置において前記要素画像を投射したときに検出された輝点の位置と輝度とを用いて前記マーカーを構成する輝点の位置と輝度とを求める演算を行い、前記所定位置に対する前記マーカーが再生された位置の誤差値を測定する誤差値測定手段と、
を備えることを特徴とする立体映像測定装置。
3D image measurement for measuring a 3D image displayed by an integral 3D display device having an optical element array in which a plurality of optical elements are two-dimensionally arranged and an element image projection unit that projects an element image onto the optical element array A device,
Element image generation means for generating the element image so that a marker that is a stereoscopic image is reproduced at a predetermined position by the integral stereoscopic display device;
A detector for detecting the position and brightness of a bright spot formed corresponding to the optical element on the display screen of the integral stereoscopic display device;
The calculation is performed to calibrate the detector using the position and brightness of the bright spot detected when white display is performed on the integral stereoscopic display device, and the element image is projected on the integral stereoscopic display device. The calculation of the position and brightness of the bright spot constituting the marker is performed using the detected bright spot position and brightness, and the error value of the position where the marker is reproduced with respect to the predetermined position is measured. Error value measuring means;
A stereoscopic image measuring apparatus comprising:
前記検出器は、前記インテグラル立体表示装置で白表示を行ったときに前記表示画面に形成された全輝点の位置と輝度とを単一の視点で検出し、
前記誤差値測定手段は、
前記白表示を行ったときに検出された全輝点の輝度に基づいて輝度値のばらつきを補正するための補正係数を輝点毎に算出する補正係数算出手段と、
前記白表示を行ったときに検出された全輝点の位置に基づいて前記検出器の位置及び姿勢についてキャリブレーションを行う位置校正手段と、を備える請求項1に記載の立体映像測定装置。
The detector detects the position and brightness of all bright spots formed on the display screen when performing white display on the integral stereoscopic display device, from a single viewpoint,
The error value measuring means includes
Correction coefficient calculating means for calculating a correction coefficient for each bright spot for correcting variations in brightness values based on the brightness of all bright spots detected when performing the white display;
The stereoscopic image measurement apparatus according to claim 1, further comprising: a position calibration unit configured to calibrate the position and orientation of the detector based on the positions of all bright spots detected when the white display is performed.
前記検出器は、前記要素画像を投射したときに前記表示画面に形成された輝点の位置と輝度を前記単一の視点で検出し、
前記誤差値測定手段は、
前記要素画像を投射したときに検出された輝度値に前記輝点毎の補正係数を乗じることで、再生されたマーカーを構成する輝点の輝度値を算出し、前記要素画像を投射したときに検出された輝点を前記マーカーについての前記所定位置に投影することで、再生されたマーカーを構成する輝点の位置を算出し、前記再生されたマーカーを構成する輝点の輝度分布を前記マーカーの理論的な輝度分布に近似させる演算によって前記マーカーが再生された位置の誤差値を算出する誤差算出手段を備える請求項2に記載の立体映像測定装置。
The detector detects the position and brightness of a bright spot formed on the display screen when the element image is projected from the single viewpoint,
The error value measuring means includes
By multiplying the brightness value detected when the element image is projected by the correction coefficient for each bright spot, the brightness value of the bright spot constituting the reproduced marker is calculated, and when the element image is projected By projecting the detected bright spot to the predetermined position of the marker, the position of the bright spot constituting the reproduced marker is calculated, and the luminance distribution of the bright spot constituting the reproduced marker is calculated as the marker. The stereoscopic image measurement device according to claim 2, further comprising error calculation means for calculating an error value at a position where the marker is reproduced by an operation that approximates the theoretical luminance distribution.
前記誤差値測定手段は、
前記インテグラル立体表示装置で白表示を行ったときに前記検出器の位置を変えることにより多視点で検出された全輝点の位置に基づいて画像の位置歪みを補正するための歪み係数を算出する歪係数算出手段を備える請求項1から請求項3のいずれか一項に記載の立体映像測定装置。
The error value measuring means includes
Distortion coefficient for correcting the positional distortion of the image based on the positions of all bright spots detected from multiple viewpoints by changing the position of the detector when white display is performed on the integral stereoscopic display device The stereoscopic image measuring device according to any one of claims 1 to 3, further comprising: a distortion coefficient calculating unit that performs the calculation.
前記検出器は、デジタルカメラであり、
前記誤差値測定手段は、前記インテグラル立体表示装置で白表示を行ったときに前記デジタルカメラの位置を変えることにより多視点で検出された全輝点の位置に基づいて、前記デジタルカメラの内部パラメーターを校正する内部パラメーター校正手段を備える請求項1から請求項4のいずれか一項に記載の立体映像測定装置。
The detector is a digital camera;
The error value measuring means is based on the positions of all bright spots detected from multiple viewpoints by changing the position of the digital camera when white display is performed on the integral stereoscopic display device. The stereoscopic image measuring device according to any one of claims 1 to 4, further comprising an internal parameter calibration unit that calibrates a parameter.
前記検出器は、デジタルカメラ又はフォトディテクターであり、
前記誤差値測定手段は、奥行きを除いた2次元の誤差値又は3次元の誤差値を測定する、請求項1から請求項4のいずれか一項に記載の立体映像測定装置。
The detector is a digital camera or a photo detector,
The stereoscopic image measurement device according to any one of claims 1 to 4, wherein the error value measurement unit measures a two-dimensional error value or a three-dimensional error value excluding depth.
複数の光学素子が2次元配列された光学素子アレイと、前記光学素子アレイに要素画像を投射する要素画像投射部と、を有するインテグラル立体表示装置により表示された立体映像を測定する立体映像測定方法であって、
要素画像生成手段と、検出器と、誤差値測定手段と、を備える立体映像測定装置によって、前記検出器の事前校正を実施する事前校正工程と、
前記立体映像測定装置によって、立体映像であるマーカーが再生された位置の誤差値を測定する測定工程と、を有し、
前記事前校正工程は、
前記インテグラル立体表示装置によって、白表示を行うことで前記インテグラル立体表示装置の表示画面に前記光学素子に対応した輝点を形成する第1表示工程と、
前記検出器によって、前記表示画面を記録する記録工程と、
前記表示画面に形成された輝点の位置と輝度とを検出する第1検出工程と、
前記誤差値測定手段によって、前記検出器を校正する演算を行う演算工程と、を含み、
前記測定工程は、
前記要素画像生成手段によって、前記マーカーが所定位置に再生されるように前記要素画像を生成する生成工程と、
前記インテグラル立体表示装置によって、前記要素画像を投射することで前記表示画面に輝点を形成して前記マーカーを所定位置に表示する第2表示工程と、
前記検出器によって、前記表示画面に形成された輝点の位置と輝度とを検出する第2検出工程と、
前記誤差値測定手段によって、前記検出された輝点の位置と輝度とを用いて前記マーカーを構成する輝点の位置と輝度とを求める演算を行い、前記所定位置に対する前記マーカーが再生された位置の誤差値を測定する演算工程と、
を含むことを特徴とする立体映像測定方法。
3D image measurement for measuring a 3D image displayed by an integral 3D display device having an optical element array in which a plurality of optical elements are two-dimensionally arranged and an element image projection unit that projects an element image onto the optical element array A method,
A pre-calibration step of performing pre-calibration of the detector by means of a stereoscopic image measurement device comprising element image generation means, detector, and error value measurement means;
A measurement step of measuring an error value at a position where a marker that is a stereoscopic video is reproduced by the stereoscopic video measurement device,
The pre-calibration step includes
A first display step of forming a bright spot corresponding to the optical element on the display screen of the integral stereoscopic display device by performing white display by the integral stereoscopic display device;
A recording step of recording the display screen by the detector;
A first detection step of detecting a position and brightness of a bright spot formed on the display screen;
A calculation step of performing a calculation to calibrate the detector by the error value measuring means,
The measurement step includes
A generation step of generating the element image so that the marker is reproduced at a predetermined position by the element image generation means;
A second display step of forming a bright spot on the display screen by projecting the element image and displaying the marker at a predetermined position by the integral stereoscopic display device;
A second detection step of detecting a position and luminance of a bright spot formed on the display screen by the detector;
A position where the error value measuring unit calculates the position and luminance of the bright spot constituting the marker using the detected position and luminance of the bright spot, and the position where the marker is reproduced with respect to the predetermined position A calculation process for measuring the error value of
A stereoscopic image measuring method comprising:
前記事前校正工程は、
前記検出器によって、前記白表示を行うことで前記表示画面に形成された全輝点の位置と輝度とを、単一の視点で検出し、
前記誤差値測定手段によって、前記単一の視点で検出された全輝点の輝度に基づいて輝度値のばらつきを補正するための補正係数を輝点毎に算出する工程と、
前記白表示を行ったときに検出された全輝点の位置に基づいて前記検出器の位置及び姿勢についてキャリブレーションを行う工程と、を含む請求項7に記載の立体映像測定方法。
The pre-calibration step includes
The detector detects the position and brightness of all bright spots formed on the display screen by performing the white display, from a single viewpoint,
A step of calculating, for each luminescent spot, a correction coefficient for correcting variation in luminance value based on the luminance of all luminescent spots detected at the single viewpoint by the error value measuring means;
The stereoscopic image measuring method according to claim 7, further comprising a step of calibrating the position and orientation of the detector based on the positions of all bright spots detected when the white display is performed.
前記測定工程は、
前記検出器によって、前記要素画像が投射されたときに前記表示画面に形成された輝点の位置と輝度を、前記単一の視点で検出し、
前記誤差値測定手段によって、
前記検出された輝度値に前記輝点毎の補正係数を乗じることで、再生されたマーカーを構成する輝点の輝度値を算出する工程と、
前記検出され輝点を前記マーカーについての前記所定位置に投影することで、再生されたマーカーを構成する輝点の位置を算出する工程と、
前記再生されたマーカーを構成する輝点の輝度分布を前記マーカーの理論的な輝度分布に近似させる演算によって前記マーカーが再生された位置の誤差値を算出する工程と、を含む請求項8に記載の立体映像測定方法。
The measurement step includes
The detector detects the position and brightness of a bright spot formed on the display screen when the element image is projected, from the single viewpoint,
By the error value measuring means,
Multiplying the detected brightness value by a correction coefficient for each bright spot to calculate the brightness value of the bright spot constituting the reproduced marker;
Projecting the detected bright spot to the predetermined position of the marker to calculate the position of the bright spot constituting the reproduced marker;
The method of calculating the error value of the position where the marker was reproduced | regenerated by the calculation which approximates the luminance distribution of the luminescent spot which comprises the said reproduced | regenerated marker to the theoretical luminance distribution of the said marker. 3D image measurement method.
前記事前校正工程は、
前記検出器の位置を変えて前記記録工程と前記検出工程とを複数回行うことで、前記白表示を行うことにより前記表示画面に形成された全輝点の位置を多視点で検出し、
前記誤差値測定手段によって、前記多視点で検出された全輝点の位置に基づいて画像の位置歪みを補正するための歪み係数を算出する工程を含む請求項7に記載の立体映像測定方法。
The pre-calibration step includes
By changing the position of the detector and performing the recording step and the detection step a plurality of times, the positions of all bright spots formed on the display screen by performing the white display are detected from multiple viewpoints,
The stereoscopic image measuring method according to claim 7, further comprising: calculating a distortion coefficient for correcting positional distortion of the image based on the positions of all bright spots detected from the multiple viewpoints by the error value measuring unit.
前記検出器は、デジタルカメラであり、
前記事前校正工程は、
前記デジタルカメラの位置を変えて前記記録工程と前記検出工程とを複数回行うことで、前記白表示を行うことで前記表示画面に形成された全輝点の位置を多視点で検出し、
前記誤差値測定手段によって、前記多視点で検出された全輝点の位置に基づいて、前記デジタルカメラの内部パラメーターを校正する工程を含む請求項7に記載の立体映像測定方法。
The detector is a digital camera;
The pre-calibration step includes
By performing the recording step and the detection step a plurality of times by changing the position of the digital camera, the positions of all bright spots formed on the display screen by performing the white display are detected from multiple viewpoints,
The stereoscopic image measurement method according to claim 7, further comprising a step of calibrating internal parameters of the digital camera based on the positions of all bright spots detected from the multiple viewpoints by the error value measurement unit.
JP2016230387A 2016-11-28 2016-11-28 Stereoscopic image measuring device and stereoscopic image measuring method Active JP6748563B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016230387A JP6748563B2 (en) 2016-11-28 2016-11-28 Stereoscopic image measuring device and stereoscopic image measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016230387A JP6748563B2 (en) 2016-11-28 2016-11-28 Stereoscopic image measuring device and stereoscopic image measuring method

Publications (2)

Publication Number Publication Date
JP2018088595A true JP2018088595A (en) 2018-06-07
JP6748563B2 JP6748563B2 (en) 2020-09-02

Family

ID=62493903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016230387A Active JP6748563B2 (en) 2016-11-28 2016-11-28 Stereoscopic image measuring device and stereoscopic image measuring method

Country Status (1)

Country Link
JP (1) JP6748563B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020161994A (en) * 2019-03-27 2020-10-01 日本放送協会 Correction amount calculation device of positional deviation, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020161994A (en) * 2019-03-27 2020-10-01 日本放送協会 Correction amount calculation device of positional deviation, and program
JP7312585B2 (en) 2019-03-27 2023-07-21 日本放送協会 Positional deviation correction amount calculation device and its program

Also Published As

Publication number Publication date
JP6748563B2 (en) 2020-09-02

Similar Documents

Publication Publication Date Title
US8866902B2 (en) Correction information calculating device, image processing apparatus, image display system, and image correcting method
EP1861748B1 (en) Method of and apparatus for automatically adjusting alignement of a projector with respect to a projection screen
US10319111B2 (en) Image projection device for 3D measurement and calibration method for calibration of camera and projector
JP5535431B2 (en) System and method for automatic calibration and correction of display shape and color
US8711213B2 (en) Correction information calculating device, image processing apparatus, image display system, and image correcting method
US8730130B1 (en) System and method for automatically aligning immersive displays
US20130222776A1 (en) Image projector, method of image projection, and computer-readable storage medium storing program for causing computer to execute image projection
JP5687654B2 (en) Image processing apparatus, stereoscopic image display apparatus, image processing method, and image processing program
TWI484283B (en) Image measurement method, image measurement apparatus and image inspection apparatus
JP4131214B2 (en) Inclination angle detection apparatus and inclination angle detection method
KR20170089744A (en) Autostereoscopic display with efficient barrier parameter estimation method
JP2013131929A (en) Image processing device, method, program, and image display device
JP5313187B2 (en) Stereoscopic image correction apparatus and stereoscopic image correction method
JP2012085225A (en) Image quality adjustment system and image quality adjustment method
JP6626367B2 (en) Stereoscopic image adjustment device and stereoscopic image adjustment method
JP6748563B2 (en) Stereoscopic image measuring device and stereoscopic image measuring method
JP5906139B2 (en) Correction apparatus, program thereof, and stereoscopic imaging system
US10944944B2 (en) Automatically producing an optical blend mask individually adapted to a projector and its position to a projection surface of the projection system
JP2020182127A (en) Calibration device, calibration system, and calibration method of display device
JP2011002401A (en) Correction coefficient calculating method in luminance measuring apparatus, and luminance measuring apparatus
JP4695557B2 (en) Element image group correction apparatus, element image group acquisition system, element image group correction method, and element image group correction program
JP7312585B2 (en) Positional deviation correction amount calculation device and its program
JP2012186825A (en) Image quality adjustment device, image quality adjustment system, and image quality adjustment method
WO2020203236A1 (en) Image processing device, image processing method, and program
KR102591397B1 (en) Method and optical system for characterizing displays

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200807

R150 Certificate of patent or registration of utility model

Ref document number: 6748563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250