JP2018129826A - Stereoscopic image display device and stereoscopic image display method - Google Patents
Stereoscopic image display device and stereoscopic image display method Download PDFInfo
- Publication number
- JP2018129826A JP2018129826A JP2018043738A JP2018043738A JP2018129826A JP 2018129826 A JP2018129826 A JP 2018129826A JP 2018043738 A JP2018043738 A JP 2018043738A JP 2018043738 A JP2018043738 A JP 2018043738A JP 2018129826 A JP2018129826 A JP 2018129826A
- Authority
- JP
- Japan
- Prior art keywords
- observer
- stereoscopic
- stereoscopic image
- seat
- image display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 116
- 238000003384 imaging method Methods 0.000 claims abstract description 101
- 238000004364 calculation method Methods 0.000 claims abstract description 94
- 238000001514 detection method Methods 0.000 claims abstract description 90
- 238000012545 processing Methods 0.000 claims abstract description 79
- 238000013500 data storage Methods 0.000 claims description 69
- 230000008569 process Effects 0.000 claims description 46
- 238000009826 distribution Methods 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 7
- 230000002441 reversible effect Effects 0.000 abstract description 31
- 238000004321 preservation Methods 0.000 abstract 1
- 230000003287 optical effect Effects 0.000 description 90
- 239000004973 liquid crystal related substance Substances 0.000 description 65
- 230000001133 acceleration Effects 0.000 description 58
- 238000000926 separation method Methods 0.000 description 56
- 230000008859 change Effects 0.000 description 36
- 238000010586 diagram Methods 0.000 description 35
- 230000006870 function Effects 0.000 description 34
- 230000004888 barrier function Effects 0.000 description 31
- 238000009434 installation Methods 0.000 description 25
- 238000005304 joining Methods 0.000 description 23
- 230000000694 effects Effects 0.000 description 21
- 238000005259 measurement Methods 0.000 description 15
- 230000007246 mechanism Effects 0.000 description 11
- 230000003068 static effect Effects 0.000 description 9
- 230000007423 decrease Effects 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 101100397216 Arabidopsis thaliana ISE2 gene Proteins 0.000 description 1
- 101100301840 Arabidopsis thaliana RH47 gene Proteins 0.000 description 1
- 101100389672 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) ERG6 gene Proteins 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 201000009482 yaws Diseases 0.000 description 1
Images
Abstract
Description
本発明は、立体画像表示技術に係り、特に、座席背面部に設置した立体画像表示装置と観察者との相対距離が変化した際にも、観察者へ違和感を与えない立体画像を表示する立体画像表示装置,立体画像表示方法,及び立体画像表示プログラムに関する。 The present invention relates to a stereoscopic image display technique, and in particular, a stereoscopic display that displays a stereoscopic image that does not give the viewer a sense of incongruity even when the relative distance between the stereoscopic image display device installed on the back of the seat and the observer changes. The present invention relates to an image display device, a stereoscopic image display method, and a stereoscopic image display program.
近年、飛行機や長距離列車等の乗客席には、各々の背面部に中小型ディスプレイが設置されており、各乗客は、それぞれの前の座席の背面部に設けられたディスプレイを使用して、好みの番組内容を視聴することができる。 In recent years, in passenger seats such as airplanes and long-distance trains, small and medium displays are installed on the back of each passenger, each passenger uses the display provided on the back of each front seat, You can watch your favorite program content.
映画等に代表される乗客視聴用の番組内容には、立体画像表示用のコンテンツが多くあるため、座席背面部に設置されたディスプレイにて立体画像を表示することが望まれている。 Since there are many contents for displaying stereoscopic images in the program contents for viewing passengers represented by movies and the like, it is desired to display a stereoscopic image on a display installed on the back of the seat.
ここで、立体画像を表示するディスプレイを備えた立体画像表示装置には、眼鏡式のものと裸眼式のものとがある。 Here, a stereoscopic image display device provided with a display for displaying a stereoscopic image includes a glasses-type device and a naked-eye type device.
眼鏡式の立体画像表示装置では、観察者が立体画像表示用の眼鏡をかけることにより、左右の眼に視差の異なる画像を投影して観察者へ立体画像を表示する。しかしながら、立体画像表示用の眼鏡をかけることに不快感を持つ観察者は多く、眼鏡が不要である裸眼式の立体画像表示装置の方が望まれている。 In the glasses-type stereoscopic image display device, when an observer wears glasses for displaying a stereoscopic image, images with different parallax are projected on the left and right eyes to display a stereoscopic image to the observer. However, many observers are uncomfortable with wearing glasses for stereoscopic image display, and a naked-eye type stereoscopic image display device that does not require glasses is desired.
裸眼式の立体画像表示装置では、立体画像を投影する空間領域を分割し、分割した空間領域ごとに視差の異なる画像を投影することで、観察者の左右の眼に視差の異なる画像を投影する方式が一般的である。 In an autostereoscopic image display device, a spatial region in which a stereoscopic image is projected is divided, and an image with different parallax is projected for each divided spatial region, thereby projecting an image with different parallax to the left and right eyes of the observer. The method is common.
かかる方式では、立体画像表示装置の立体表示パネルに光学的な光線分離手段であるレンチキュラレンズやパララックスバリア等を備えることにより、空間領域ごとに投影する画像を分離して、複数の空間領域ごとに視差の異なる画像を投影するという手法をとる。 In such a method, the stereoscopic display panel of the stereoscopic image display device is provided with a lenticular lens, a parallax barrier, or the like, which is an optical beam separation unit, so that an image to be projected is separated for each spatial region, and a plurality of spatial regions are separated. The method of projecting images with different parallax is used.
このようなレンチキュラレンズやパララックスバリア等の光学的な光線分離手段を備えた立体画像表示装置は、立体画像表示用の眼鏡を装着する必要がなく、煩わしさがない点で優れている。 A stereoscopic image display device provided with such optical beam separation means such as a lenticular lens and a parallax barrier is superior in that it does not require wearing glasses for stereoscopic image display and is not bothered.
しかし、観察者が正常に立体画像を視認できる空間領域(正常立体視可能領域)は、観察者の左眼の位置が左眼用画像の投影される空間領域内にあり、観察者の右眼の位置が右眼用画像の投影される空間領域内にある場合に限定される。 However, the space area where the observer can visually recognize the stereoscopic image (normal stereoscopic view possible area) is located within the spatial area where the left eye position of the observer is projected, and the right eye of the observer Is located within the space area where the right-eye image is projected.
観察者の左右の眼の位置がこの正常立体視可能領域から外れると、左眼用画像と右眼用画像が重なって見えたり(いわゆる3Dクロストークによる2重像)、奥行き感が逆になった立体画像が見えたり(いわゆる逆視)するという問題が発生する。 If the left and right eye positions of the observer deviate from the normal stereoscopic viewable region, the left eye image and the right eye image appear to overlap (so-called 3D crosstalk double image), and the sense of depth is reversed. There is a problem that a stereoscopic image can be seen (so-called reverse viewing).
その他にも、裸眼式の立体画像表示装置においては、観察者の観察位置が正常立体視可能領域から外れると、立体表示パネル面上に輝度ムラ(輝度変動)が発生し、立体画像内で周辺の画像領域よりも一段と暗く表示される画像領域が現れる問題が知られている。 In addition, in an autostereoscopic image display device, if the observer's observation position deviates from the normal stereoscopic view possible region, luminance unevenness (brightness fluctuation) occurs on the surface of the stereoscopic display panel, and the periphery in the stereoscopic image There is a problem that an image area that is displayed darker than the image area appears.
この現象は3Dモアレと呼ばれ、各視点用の画素と画素との間の非表示領域(液晶パネルで一般にブラックマトリックスと呼ばれる遮光部)が、レンチキュラレンズやパララックスバリア等の光学的な光線分離手段と干渉して視認されることに起因する。すなわち、3Dモアレ(3D moire)とは、異なる角度方向に異なる画像を投影することに起因する、周期的な輝度のムラ(色のムラを指すこともある)のことである。 This phenomenon is called 3D moire, and the non-display area between pixels for each viewpoint (light-shielding part generally called a black matrix in a liquid crystal panel) is used for optical beam separation such as lenticular lenses and parallax barriers. This is caused by interference with the means. In other words, 3D moire is periodic luminance unevenness (sometimes referred to as color unevenness) caused by projecting different images in different angular directions.
3Dモアレは、輝度の角度方向における変動(Luminance Angular Fluctuation)であり、観察位置によっては問題とならない場合もあるが、この輝度の角度方向における変動が大きいと、立体画像の表示品質が低下し、観察者へ違和感を与えるといった問題が発生する。 3D moiré is a variation in luminance angular direction (Luminance Angular Fluctuation), which may not be a problem depending on the observation position, but if the luminance variation in the angular direction is large, the display quality of the stereoscopic image is reduced, There is a problem that the viewer feels uncomfortable.
これらの裸眼式の立体画像表示装置に特有である3Dクロストークによる2重像や逆視,3Dモアレによる問題(以下「3D表示における各問題」と称する。)は、立体画像表示装置と観察者との相対距離に依存する。 Problems caused by double images by 3D crosstalk, reverse viewing, and 3D moire (hereinafter referred to as “problems in 3D display”), which are peculiar to these autostereoscopic image display apparatuses, are a stereoscopic image display apparatus and an observer. Depends on the relative distance.
また、旅客機や旅客車等では、前座席の乗客の都合によって該前座席の背面部にある背もたれが倒れることがあり、これに伴って該背面部に設置された立体画像表示装置も移動することとなる。 Also, in passenger aircraft, passenger cars, etc., the backrest on the back part of the front seat may fall due to the convenience of the passenger in the front seat, and the stereoscopic image display device installed on the back part also moves accordingly It becomes.
したがって、座席背面部に立体画像表示装置が設置されている場合には、観察者が移動しなくても、前座席の乗客の都合によって立体画像表示装置と観察者との相対距離(観察距離)が急激に変化し、これにより3D表示における各問題が発生するため、立体画像の表示品質が著しく低下することとなる。この表示品質の低下は観察者に違和感を与えるため、観察距離が変化しても3D表示における各問題が発生しない立体画像表示装置が強く望まれている。 Therefore, when the stereoscopic image display device is installed on the seat back portion, even if the observer does not move, the relative distance (observation distance) between the stereoscopic image display device and the observer due to the convenience of the passenger in the front seat Changes abruptly, which causes various problems in 3D display, resulting in a significant reduction in the display quality of stereoscopic images. Since this deterioration in display quality makes the viewer feel uncomfortable, there is a strong demand for a stereoscopic image display device that does not cause problems in 3D display even when the observation distance changes.
こうした3D表示における各問題の影響を軽減するための手法としては、観察者の位置を計測して、立体画像表示装置と観察者との相対距離を表す観察距離や立体画像表示装置に対する観察者の相対位置を表す観察位置を算出し、この算出した観察距離又は観察位置に係る情報に応じて立体画像の表示設定を調整するという構成内容が考えられ、これを採用する場合には、観察距離情報又は観察位置情報を要するため、観察者の位置を計測する装置が必要となる。 As a technique for reducing the influence of each problem in such 3D display, an observer's position is measured, an observation distance indicating a relative distance between the stereoscopic image display apparatus and the observer, and an observer's position with respect to the stereoscopic image display apparatus. A configuration in which an observation position representing a relative position is calculated and the display setting of the stereoscopic image is adjusted in accordance with the calculated observation distance or information related to the observation position is conceivable. Alternatively, since observation position information is required, an apparatus for measuring the position of the observer is required.
特に、3Dクロストークによる2重像や逆視,3Dモアレの影響をより効果的に軽減するには、観察者と立体画像表示装置との奥行き方向の距離を表す観察距離を計測することが必要となり、この観察距離を計測する装置としては、奥行き方向の距離を計測して3次元空間上の位置を計測可能な計測装置(3次元位置計測装置)が知られている。 In particular, in order to more effectively reduce the effects of double images, reverse viewing, and 3D moire due to 3D crosstalk, it is necessary to measure the observation distance representing the distance in the depth direction between the observer and the stereoscopic image display device. Thus, as a device for measuring the observation distance, a measurement device (three-dimensional position measurement device) capable of measuring a distance in the depth direction and measuring a position in a three-dimensional space is known.
近年、こうした3次元位置計測装置の価格は低下しているが、それでも、観察者の位置を2次元平面上の撮像画像データとして撮影可能なUSBカメラ(モバイル機器の小型カメラモジュール)や座席の倒れ具合を計測する傾斜センサ等と比較すると、当該計測装置はまだまだ高価である。 In recent years, the price of such a three-dimensional position measurement device has decreased, but even so, a USB camera (a small camera module of a mobile device) that can take an observer's position as captured image data on a two-dimensional plane, or a fall of the seat Compared with an inclination sensor or the like that measures the condition, the measuring device is still expensive.
すなわち、このような高価な計測装置を立体画像表示装置に設置することは、全体的な装置コストの増加に繋がるため、座席背面部に設置する立体画像表示装置の普及を妨げる原因となっていた。 That is, installing such an expensive measuring device on a stereoscopic image display device leads to an increase in the overall device cost, which has hindered the widespread use of the stereoscopic image display device installed on the back of the seat. .
かかる問題の解決に関連する技術としては、例えば下記のような内容が知られている(特許文献1乃至9等)。
For example, the following contents are known as techniques related to the solution of such problems (
特許文献1には、ディスプレイ面を斜めから観察することによって生じる画像あおりによる歪みを補正するために、観察者の座席状態とバックミラーに取り付けた車内カメラによる撮影画像とから観察距離を含む観察位置を算出するという技術が開示されている。
特許文献2には、観察者の位置に合わせてディスプレイの位置や姿勢を調整するキャリブレーションシステムにおいて、ディスプレイから発光した赤外線を観察者の位置に設置した赤外線カメラで計測することにより、観察者のディスプレイに対する相対位置を算出するという技術が開示されている。
In
特許文献3には、観察者が移動しても違和感の無い立体画像を表示するために、カメラで撮影した撮像画像データから観察者の位置を計測する画像処理技術が開示されている。また、当該技術における処理方法としては、2次元平面上の撮像画像データから観察者の位置を計測する画像処理方法のほか、顔画像を任意の画像範囲で撮影するためにカメラの焦点距離を調整する方法が記載されている。
特許文献4には、観察者の位置が正常に立体画像を視認できる空間領域から外れた場合に、立体画像を視認できる空間領域内へ移動するように観察者へ報知する技術が開示されている。
特許文献5における立体画像表示装置には、観察者が移動しても違和感の無い立体画像を提供するために、加速度センサ等に代表される傾斜センサが立体画像表示装置に設置されている。すなわち、この傾斜センサによって立体画像表示装置の傾きを検出し、観察位置を計測するという技術内容が開示されている。
In the stereoscopic image display device in
特許文献6には、前座席の乗客のリクライニングの状態変化によって、前座席の背面部に設置されたディスプレイ面の表示方向が変化した場合でも、ディスプレイ面の表示方向と観察者の視線方向とを一致させるために、観察者の座席と前座席との傾斜角度を考慮してディスプレイ面の設置角度を調整するという技術が開示されている。
In
特許文献7乃至9における立体画像表示装置では、観察者の位置が移動しても、その位置に合わせて右眼用画像及び左眼用画像に画像変換処理を実施することで、3Dクロストークによる2重像や逆視,3Dモアレの影響を軽減し、違和感の無い立体画像を表示するという技術を採用している。
In the stereoscopic image display devices in
また、非特許文献1には、安価な計測装置だけで観察位置を計測するために、予め観察者の実際の瞳孔間距離を登録しておき、USBカメラ等で撮影した2次元平面の撮像画像データ内に映る観察者の瞳孔間距離と、上記予め登録した観察者の瞳孔間距離とを比較することで、立体画像表示装置と観察者との奥行き方向の距離を表す観察距離を算出するという技術が開示されている。
Further, in
しかしながら、特許文献1における観察位置の算出方法は、車内カメラとディスプレイとの設置位置が固定されていることを前提とした技術であるため、前座席の乗客の都合によって当該ディスプレイの設置位置が移動するような場合(例えば座席背面部に設置したディスプレイを使用するような場合)には適用することができないという課題がある。
However, since the calculation method of the observation position in
また、特許文献2に開示された技術では、観察者の位置に赤外線カメラを設置する必要があるため、計測装置の設置が困難であり、かつ装置コストが高価になるという不都合がある。
In addition, the technique disclosed in
ところで、より効果的に3Dクロストークによる2重像や逆視,3Dモアレの影響を軽減するためには、立体画像表示装置と観察者との奥行き方向の距離を表す観察距離を計測することが必要となるが、特許文献3には、撮影した顔画像から立体画像表示装置と観察者との奥行き方向の距離を計測する方法について何ら開示されていない。したがって、特許文献3に開示された技術を採用しても、違和感の無い良好な立体画像を表示することができないという問題がある。
By the way, in order to more effectively reduce the influence of double images, reverse viewing, and 3D moire due to 3D crosstalk, it is possible to measure an observation distance that represents the distance in the depth direction between the stereoscopic image display device and the observer. Although necessary,
特許文献4における技術では、観察距離の計測に測距センサを使用するため、計測装置のコストが増加するという課題がある。
In the technique in
また、特許文献5には、傾斜センサによって立体画像表示装置の傾斜角度を検出する手法についての記載はあるが、観察者の座席とその前にある座席の傾斜角度を使用して観察距離を計測するという方法については何ら開示されていない。したがって、特許文献5における技術を用いても、座席背面部に設置した立体画像表示装置と観察者との相対距離を、安価な計測装置のみで計測することができないという不都合がある。
In addition,
特許文献6における技術では、観察者の座席と前座席との傾斜角度からディスプレイ面の表示方向と観察者の視線方向との相対角度を算出するという手法を採っているものの、ディスプレイ面と観察者との奥行き方向の距離を算出するといった内容については、何ら開示されていない。
ここで、裸眼式の立体画像表示装置では、通常の画像表示装置(2次元画像を表示するディスプレイ)と異なり、相対角度が変化した場合のみならず、観察距離が変化した場合においても、3Dクロストークによる2重像や逆視,3Dモアレの影響によって立体画像の表示品質が著しく低下する。このため、特許文献6にかかる方法を用いても、裸眼式の立体画像表示装置に特有である3Dクロストークによる2重像や逆視,3Dモアレ等の影響を軽減することができないという問題がある。
Although the technique in
Here, unlike a normal image display device (a display that displays a two-dimensional image), the autostereoscopic image display device does not only have a 3D cross not only when the relative angle changes but also when the observation distance changes. The display quality of the stereoscopic image is remarkably deteriorated due to the influence of the double image, reverse viewing, and 3D moire due to the talk. For this reason, even if the method according to
特許文献7乃至9における技術では、立体画像表示装置と観察者との相対距離を表す観察位置を計測するに際して、観察者の座席と前座席の傾斜角度を使用するという構成を採っていない。このため、かかる技術を立体画像表示装置が座席背面部に設置されるという状況下に適用しても、安価な計測装置だけでは観察距離を計測することができないという不都合がある。
The techniques in
また、非特許文献1に記載の技術によれば、安価な計測装置のみによる観察距離の計測は可能であるが、当該計測に先立って、予め観察者の瞳孔間距離を立体画像表示装置に登録しておく必要がある。したがって、大勢の観察者が利用する公共性の高い立体画像表示装置等に当該技術を採用した場合には、観察者が変わるたびに瞳孔間距離の登録が必要となるため、処理が煩雑となってしまうという不都合がある。すなわち、大勢の観察者の瞳孔間距離を簡易に登録する方法について何ら開示されていない当該技術を、公共性の高い立体画像表示装置等に適用しても、その利点を活かすことができないという問題がある。
Further, according to the technique described in
(発明の目的)
そこで、本発明は上述した課題を解決し、特に、3Dクロストークによる2重像や逆視,3Dモアレの影響を安価な構成によって有効に軽減し、観察者に違和感を与えない有意な立体画像を表示する立体画像表示装置,その表示方法,及びその表示プログラムを提供することを目的とする。
(Object of invention)
Therefore, the present invention solves the above-described problems, and in particular, a significant three-dimensional image that effectively reduces the effects of double images, reverse viewing, and 3D moire due to 3D crosstalk with an inexpensive configuration and does not give the viewer a sense of incongruity. An object of the present invention is to provide a stereoscopic image display device for displaying the image, its display method, and its display program.
上記目的を達成するために、本発明にかかる立体画像表示装置は、移動物体に設置されて立体画像を表示する立体画像表示装置であって、隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段と、この立体表示パネルの表示面前方の観察者を撮影し、撮像画像データとして記録する撮像手段と、この撮像画像データを用いて前記立体表示パネル手段に対する前記観察者の相対位置を算出する相対位置算出手段と、前記立体表示パネル手段にかかるデバイス特性データを保存するデバイス特性データ保管手段と、前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整手段と、を有する、という構成を採っている。 In order to achieve the above object, a stereoscopic image display device according to the present invention is a stereoscopic image display device that is installed on a moving object and displays a stereoscopic image, and projects images having different parallax for each adjacent spatial region. Stereoscopic display panel means, imaging means for photographing an observer in front of the display surface of the stereoscopic display panel, and recording it as captured image data, and relative position of the observer with respect to the stereoscopic display panel means using the captured image data Relative position calculation means for calculating the device, device characteristic data storage means for storing device characteristic data relating to the stereoscopic display panel means, and adjustment of display settings of the stereoscopic image with reference to the relative position and the device characteristic data And a display setting adjusting means.
また、本発明にかかる立体画像表示方法は、隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段を有すると共に、移動物体に設置されて立体画像を表示する立体画像表示装置における立体画像表示方法であって、前記立体表示パネルの表示面前方の観察者を撮影し、撮像画像データとして記録する撮像工程と、この撮像画像データを用いて前記立体表示パネル手段に対する前記観察者の相対位置を算出する相対位置算出工程と、前記立体表示パネル手段にかかるデバイス特性データを受信するデバイス特性データ受信工程と、前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整工程と、この調整後の表示設定に基づいて、前記各空間領域それぞれに対し前記視差の異なる画像を投影することで前記立体画像を表示する立体画像表示工程と、を有することを特徴とする。 In addition, the stereoscopic image display method according to the present invention includes a stereoscopic display panel unit that projects an image having different parallax for each adjacent space region, and is a stereoscopic image display apparatus that displays a stereoscopic image installed on a moving object. An image display method, in which an observer in front of the display surface of the stereoscopic display panel is imaged and recorded as captured image data, and the observer's relative to the stereoscopic display panel means using the captured image data A relative position calculating step for calculating a position; a device characteristic data receiving step for receiving device characteristic data for the stereoscopic display panel; and a display setting for the stereoscopic image with reference to the relative position and the device characteristic data. Based on the display setting adjustment process to be adjusted and the display setting after the adjustment, the parallax is different for each of the spatial regions. And having a three-dimensional image display step of displaying the stereoscopic image by projecting the image.
さらに、本発明にかかる立体画像表示プログラムは、隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段を有すると共に、移動物体に設置されて立体画像を表示する立体画像表示装置に適用する立体画像表示プログラムであって、前記立体表示パネルの表示面前方を観察者と共に撮影し、撮像画像データとして記録する撮像機能、この撮像画像データを用いて前記立体表示パネル手段に対する前記観察者の相対位置を算出する相対位置算出機能、前記立体表示パネル手段にかかるデバイス特性データを受信するデバイス特性データ受信機能、前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整機能、この調整後の表示設定に基づいて、前記各空間領域それぞれに対し前記視差の異なる画像を投影することで前記立体画像を表示する立体画像表示機能、を前記立体画像表示装置内に予め設けられたコンピュータに実現させることを特徴とする。 Furthermore, the stereoscopic image display program according to the present invention has a stereoscopic display panel means for projecting images with different parallax for each adjacent spatial region, and is applied to a stereoscopic image display device that is installed on a moving object and displays a stereoscopic image. A stereoscopic image display program for capturing an image of the front of the display surface of the stereoscopic display panel together with an observer and recording the captured image data as captured image data; A relative position calculating function for calculating a relative position, a device characteristic data receiving function for receiving device characteristic data relating to the stereoscopic display panel means, and adjusting the display setting of the stereoscopic image with reference to the relative position and the device characteristic data The display setting adjustment function to be performed, and the display setting after this adjustment Characterized in that to realize the stereoscopic image displaying function of displaying the stereoscopic image by projecting images having different parallaxes to previously provided a computer on the stereoscopic image display apparatus.
本発明では、上記の通り、安価な計測装置のみを用いて、座席背面部に設置された立体画像表示装置と観察者との奥行き方向の距離(観察距離)を算出し、その観察距離に合わせて立体画像の表示設定を調整するという構成を採ったため、特に、3Dクロストークによる2重像や逆視,3Dモアレの影響を安価な構成によって有効に軽減し、観察者に違和感を与えない有意な立体画像を表示する立体画像表示装置,その表示方法,及びその表示プログラムの提供が可能となる。 In the present invention, as described above, the distance in the depth direction (observation distance) between the stereoscopic image display device installed on the back of the seat and the observer is calculated using only an inexpensive measurement device, and is adjusted to the observation distance. 3D image display settings are adjusted to reduce the effects of double images, reverse vision, and 3D moire caused by 3D crosstalk with an inexpensive configuration, and it does not give the viewer a sense of incongruity. It is possible to provide a stereoscopic image display device that displays a stereoscopic image, a display method thereof, and a display program thereof.
以下、添付図面を参照しながら、本発明を実施するための形態(以下「実施形態」という。)について説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the accompanying drawings.
〔第1実施形態〕
本発明における立体画像表示装置の第1実施形態を図1乃至図37に基づいて説明する。ここで、本第1実施形態の立体画像表示装置には、以下の各説明中において、適宜各構成部材の付加又は変更等がなされるが、これらを含む総称として共通の符号(11)を用いるものとする。
[First Embodiment]
A first embodiment of a stereoscopic image display apparatus according to the present invention will be described with reference to FIGS. Here, in the stereoscopic image display apparatus according to the first embodiment, each component is appropriately added or changed in the following descriptions, and the common reference numeral (11) is used as a generic name including these components. Shall.
(全体的構成)
図1に示すように、本第1実施形態における立体画像表示装置11は、移動物体の状態(位置状態)を検出する移動物体状態検出手段110と、隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段120と、各種情報にかかる演算処理を実施する演算処理部131と、を備えている。
(Overall configuration)
As shown in FIG. 1, the stereoscopic
演算処理部131は、移動物体状態検出手段110による検出結果である状態情報に基づいて立体表示パネル手段120とその表示面側に位置する特定の観察者との相対距離を表す観察距離を算出する観察距離算出手段(相対距離算出手段)140と、画像データを保存し又は受信する画像データ保管手段150と、立体表示パネル手段120の光学特性(表示特性)表すデバイス特性データを保管するデバイス特性データ保管手段160と、観察距離算出手段140にて算出した観察距離とデバイス特性データ保管手段160に保存されたデバイス特性データとに基づいて立体画像の表示設定を調整する表示設定調整手段170と、を有している。なお、本明細書で記述している相対距離とは、立体画像表示装置と観察者との奥行き方向の距離を言っており、観察距離と同義である。
The
すなわち、表示設定調整手段170による表示設定調整後に立体表示パネル手段120が、画像データを右眼用画像と左眼用画像とに分離すると共に、これらを観察者の右眼と左眼とに向けて投影する、という構成を採っている。
That is, after the display setting adjustment by the display setting
また、図2の外観図に示すように、立体画像表示装置11では、立体表示パネル手段120と演算処理部131とを内包する装置本体10と移動物体状態検出手段110とが有線で接続されている。
As shown in the external view of FIG. 2, in the stereoscopic
ここで、本第1実施形態では、上記移動物体として、飛行機や長距離列車等の座席を想定し、この座席の背もたれ部は可動式であるものとする。このため、移動物体状態検出手段110は、対応する装置本体10を設置する座席に接着等により設けられている。
Here, in the first embodiment, a seat such as an airplane or a long-distance train is assumed as the moving object, and the backrest portion of the seat is movable. For this reason, the moving object state detection means 110 is provided by bonding or the like on the seat where the corresponding apparatus
すなわち、移動物体状態検出手段110は、座席の倒れ具合などの座席状態を検出し、その座席状態の情報(状態情報)を演算処理部131にある観察距離算出手段140へ送信する。
That is, the moving object
ところで、図2では、装置本体10と移動物体状態検出手段110とが有線で接続された例を示し、これを参照して上記説明を行ったが、この有線接続に代えて、装置本体10と移動物体状態検出手段110との無線通信を可能とする構成を採用してもよい。すなわち、移動物体状態検出手段110に、座席状態の情報を無線通信によって送信する機能を設けると共に、上記有線接続を無くすという構成を採ってもよい。
2 shows an example in which the apparatus
演算処理部131は、図2に示すように、立体表示パネル手段120の後方部に配置され、移動物体状態検出手段110から入力される状態情報を活用して、各種の演算処理を実施するように構成されている。
As shown in FIG. 2, the
立体表示パネル手段120は、少なくとも第1視点用の画像を表示するサブ画素及び第2視点用の画像を表示するサブ画素を含む画素がマトリクス状に複数配列された電気光学手段としての画像表示パネルと、上記各々の視点用の画像を所定の異なる方向に分離可能な光線分離手段としての光線分離パネルとから構成される。
The stereoscopic
すなわち、電気光学手段としては、液晶方式,有機EL方式,プラズマ方式などを採用した画像表示パネルを用いることができ、光線分離手段としては、レンチキュラレンズ,液晶レンズ,パララックスバリア等から成る光線分離パネルを用いることができる。
このうち、レンチキュラレンズは、レンズの屈折率が不変であるが、液晶レンズは、電圧制御によってレンズの屈折率の分布を変更することができる。
That is, an image display panel employing a liquid crystal method, an organic EL method, a plasma method, or the like can be used as the electro-optical means, and the light beam separation means includes a lenticular lens, a liquid crystal lens, a parallax barrier, or the like. Panels can be used.
Among these, the refractive index of the lens is unchanged for the lenticular lens, but the distribution of the refractive index of the lens can be changed by voltage control for the liquid crystal lens.
立体表示パネル手段120の一例を拡大して示す図3では、電気光学手段として液晶表示パネルを,光学分離手段としてレンチキュラレンズをそれぞれ採用し、これらを組合せるという構成を採っている。 In FIG. 3, which shows an example of the stereoscopic display panel means 120 in an enlarged manner, a liquid crystal display panel is employed as the electro-optical means, a lenticular lens is employed as the optical separation means, and these are combined.
図3において、液晶表示パネル内にある左眼用画素4Lは、立体表示パネル手段120から観察者の左眼へ投影する左眼用画像を表示するサブ画素を表し、同様に右眼用画素4Rは、観察者の右眼へ投影する右眼用画像を表示するサブ画素を表す。この左眼用画素4Lと右眼用画素4Rとは、交互に並ぶように配列されている。
In FIG. 3, a left-
次に、立体表示パネル手段120の光線分離手段によって分割される空間領域について、レンチキュラレンズ方式の光学モデルにかかる図4乃至図7を参照して説明する。これら各図は、観察者の頭上側から見た該観察者及び立体画像表示装置11の周辺にかかる断面図である。
Next, the spatial region divided by the light beam separating means of the stereoscopic display panel means 120 will be described with reference to FIGS. 4 to 7 according to the lenticular lens type optical model. Each of these figures is a cross-sectional view of the observer and the periphery of the stereoscopic
まず、図4に、レンチキュラレンズ方式を採用した立体画像表示装置11において、観察者の左右の眼へ視差の異なる画像を投影する光学モデルの一例を示す。
First, FIG. 4 shows an example of an optical model for projecting images with different parallaxes to the left and right eyes of the observer in the stereoscopic
この図4では、観察者の両眼(右眼55Rと左眼55L)が立体表示パネル手段120の表示面40から最適視認距離(最適観察距離)OD程度離れた観察面30に位置し、かつ観察者の両眼中心と表示パネルの中心とが一致する位置関係となっている。
In FIG. 4, the viewer's eyes (
画像表示パネル(図示せず)は、マトリックス状に配列された画素となる光変調素子群から構成されており(例えば液晶パネル)、図4には、交互に並ぶ右眼用画素4R及び左眼用画素4L(画素群4)のうち、画像表示パネルの両端及び中心部に位置する各画素のみを図示している。
The image display panel (not shown) is composed of a light modulation element group (for example, a liquid crystal panel) that becomes pixels arranged in a matrix. FIG. 4 shows the right-
空間領域を分割して画像を投影する手段として機能するレンチキュラレンズ3は、観察者から見て画像表示パネルの手前側に配置されている。
このレンチキュラレンズ3は、細長い蒲鉾状の多数の凸型のシリンドリカルレンズ(以降、単にレンズと呼ぶ:レンズ幅L)3aから形成された光学素子であり、画像表示パネルの左眼用画素4Lと右眼用画素4Rとが交互に並ぶ方向(画素の配列方向:X軸方向)に対して、レンズ3aの長手方向(Y軸方向)が直交するように配置されている。
The
The
また、画像表示パネルの奥には、光源(図示せず:いわゆるバックライト)が設置され、この光源から出た光は、画像表示パネル内の画素を通過し、その後にレンズ3aを通過して観察者に向けて投影される。右眼用画素4Rの投影方向及び左眼用画素4Lの投影方向は、レンズ3aの存在により制限される。
Further, a light source (not shown: so-called backlight) is installed in the back of the image display panel, and light emitted from this light source passes through the pixels in the image display panel and then passes through the lens 3a. Projected toward the observer. The projection direction of the right-
ここで、図4に示すように、各レンズ3aから出た光のうち、各々のレンズ3aから最も近い画素を通る光の軌跡を光線20とすると、これに対応する全ての右眼用画素4Rの投影像が重なる右眼領域70R(右眼用画像の投影される空間領域)と、同じく対応する全ての左眼用画素4Lの投影像が重なる左眼領域70L(左眼用画像の投影される空間領域)とが得られる。すなわち、右眼領域70Rでは右眼用画素4Rからの投影像しか観察できず、また左眼領域70Lでは左眼用画素4Lからの投影像しか観察できないという状態にある。
Here, as shown in FIG. 4, if the locus of the light passing through the pixel closest to each lens 3a out of the light emitted from each lens 3a is a
このため、観察者の右眼55Rが右眼領域70R内に位置し、同左眼55Lが左眼領域70L内に位置しているときに、立体表示パネル手段120から視差画像を投影すると、該観察者は立体画像を視認することができる。換言すれば、観察者は、右眼55Rが右眼領域70R内に位置し、かつ左眼55Lが左眼領域70L内に位置しているときに、所望の立体画像を観察することができる。
Therefore, when a parallax image is projected from the stereoscopic
ここで、観察者と立体表示パネル手段120(表示面40)との距離が、最短視認距離(最短観察距離)NDよりも短くなると、観察者の右眼55Rが右眼領域70R外になり、同左眼55Lが左眼領域70L外になるため、該観察者は立体画像を視認することができない。
また、観察者と立体表示パネル手段120(表示面40)との距離が、最長視認距離(最長観察距離)FDよりも長くなると、観察者の右眼55Rが右眼領域70R外になり、同左眼55Lが左眼領域70L外になるため、同様に該観察者は立体画像を視認することができない。
Here, when the distance between the observer and the stereoscopic display panel unit 120 (display surface 40) is shorter than the shortest viewing distance (shortest observation distance) ND, the observer's
When the distance between the observer and the stereoscopic display panel unit 120 (display surface 40) is longer than the longest viewing distance (longest observation distance) FD, the observer's
図4の立体表示パネル手段120は、観察面30において、右眼領域70R,左眼領域70Lの幅が最大となるように、最適視認距離ODの位置における各右眼用画素4R及び左眼用画素4L(画素幅P)の各投影像(幅P')が全て重なるように設計されている。
すなわち、各右眼用画素4Rの投影像と各左眼用画素4Lの投影像とが、最適視認距離ODの位置において隔たりなく連続するという構成を採っている。
The stereoscopic
That is, a configuration is adopted in which the projected image of each right-
この投影像の幅(観察面に投影された画素幅)P'は、主にレンズ3aの主点と画素との距離h,画素ピッチP,最適視認距離ODにより決定される。
この幅P'を広げれば、右眼領域70R及び左眼領域70Lの幅は広がるが、観察者の両眼間隔を表す瞳孔間距離は一定であり、該観察者の両眼双方が対応する領域に位置できる範囲は不変であるため、立体画像を視認可能な空間領域(立体視域)は必ずしも広がるわけではない。
The width (pixel width projected on the observation surface) P ′ of the projected image is mainly determined by the distance h between the principal point of the lens 3a and the pixel, the pixel pitch P, and the optimum viewing distance OD.
If the width P ′ is widened, the width of the right eye region 70R and the
図4に示すように、両眼間隔をeとすると、幅P'は両眼間隔eと等しくなるように設計することが好ましい。これは、幅P'が両眼間隔eよりも小さな場合には、立体視が行える領域は幅P'に制限され、一方で幅P'が両眼間隔eよりも大きな場合には、両眼位置が2つとも右眼領域70R又は左眼領域70Lに位置し、立体画像が視認不可能な領域が増える、といった不都合が生じるためである。
As shown in FIG. 4, it is preferable that the width P ′ is designed to be equal to the binocular distance e, where b is the distance between the eyes. This is because when the width P ′ is smaller than the binocular interval e, the region where stereoscopic vision can be performed is limited to the width P ′, while when the width P ′ is larger than the binocular interval e, both eyes This is because the two positions are located in the right eye region 70R or the
次いで、図5に、立体表示パネル手段120の光線分離手段として、レンチキュラレンズの代わりにパララックスバリアを用いたときに分割される空間領域を示す。すなわち、この図5に示す構成は、レンチキュラレンズ3に代えてパララックスバリア6を採用した点のみが図4の場合と相違する。
Next, FIG. 5 shows a spatial region that is divided when a parallax barrier is used instead of the lenticular lens as the light beam separating means of the stereoscopic display panel means 120. That is, the configuration shown in FIG. 5 is different from the configuration shown in FIG. 4 only in that a
パララックスバリア6は、細い縦縞状の多数のスリット6aが形成されたバリア(遮光板)であり、画像表示パネルの左眼用画素4Lと右眼用画素4Rとが並ぶ方向に対して、バリアの長手方向が直交するように配置されている。図5の断面図では、バリア幅Sのバリア6bとスリット6aとが交互に配置された様子を示す。
The
バックライト等の光源から出た光は、画像表示パネル内の画素において強度が変調され、その後にスリット6aを通過して観察者に向けて投影される。右眼用画素4Rの投影方向及び左眼用画素4Lの投影方向は、スリット6aの存在により制限される。
The intensity of light emitted from a light source such as a backlight is modulated in the pixels in the image display panel, and then passes through the slit 6a and is projected toward the observer. The projection direction of the right-
ここで、図5に示すように、スリット6aから出た光のうち、各々のスリット6aから最も近い画素を通る光の軌跡を光線20とすると、図4の場合と同様に、全ての右眼用画素4Rの投影像が重なる右眼領域70Rと、全ての左眼用画素4Lの投影像が重なる左眼領域70Lとが得られる。
Here, as shown in FIG. 5, assuming that the light trajectory passing through the pixel closest to each slit 6 a among the light emitted from the slits 6 a is a
次に、観察者が正常に立体画像を視認可能な空間領域(正視領域)から外れて、立体画像の飛び出し方向と奥行き方向が逆になって視認される空間領域(逆視領域)に位置する場合について、図6を参照して説明する。 Next, it is located in a space region (backward viewing region) where the viewer can see the stereoscopic image normally and deviate from the spatial region (normal viewing region) where the projection direction and depth direction of the stereoscopic image are reversed. The case will be described with reference to FIG.
この図6は、観察者が右へ移動したため、右眼55Rが右眼領域70R外に移動して左眼領域72L内に位置し、左眼55Lが左眼領域70L外に移動して右眼領域70R内に位置したときの観察者の頭上側から見た断面図である。
In FIG. 6, since the observer has moved to the right, the
このとき、観察者の右眼55Rの位置には、左眼用画素4L及び右眼用画素4Rから出た光の中で、最も近いシリンドリカルレンズ3aの主点(頂点)を通る光線20は届かない。しかし、左眼用画素4Lから出た光の中で2番目に近いシリンドリカルレンズ3bの主点(頂点)を通る光に着目し、これを光線21(図6の一点鎖線)とすると、この光線21によって第2の左眼領域72Lが得られることが分かる。
At this time, the
このように、図6においては、観察者は右眼55Rで左眼用画素4Lからの投影像を観察し、左眼55Lで右眼用画素4Rからの投影像を観察することとなり、立体画像を観察すると飛び出し方向と奥行き方向が反対となるため(いわゆる逆視)、所望の立体画像を視認することができない。
In this way, in FIG. 6, the observer observes the projection image from the
ここで、右眼55Rにとっては、右眼領域70Rが正視領域となり、左眼領域70L,72Lが逆視領域となる。また、左眼55Lにとっては、左眼領域70L,72Lが正視領域となり、右眼領域70Rが逆視領域となる。
Here, for the
続いて、観察者が正視領域から外れて3Dクロストーク領域に位置する場合について、図7を参照して説明する。 Next, a case where the observer is out of the normal viewing area and positioned in the 3D crosstalk area will be described with reference to FIG.
この図7は、観察者と立体表示パネル手段120との距離が最短視認距離NDよりも短くなったため、右眼55Rが右眼領域70Rの境界線付近に位置し、左眼55Lが左眼領域70Lの境界線付近に位置したときの、観察者の頭上側から見た断面図である。
In FIG. 7, since the distance between the observer and the stereoscopic
このとき、観察者の右眼55Rの位置には、液晶表示パネルの右端にある右眼用画素4Rから出た光の中で、最も近いシリンドリカルレンズ3aの主点(頂点)を通る光線22と、左眼用画素4Lから出た光の中で2番目に近いシリンドリカルレンズ3bの主点を通る光線23(二点鎖線で図示)との両方が投影される。
At this time, a
したがって、この図7に示す状況では、観察者が立体画像を観察すると、右眼55Rで右眼用画素4Rと左眼用画素4Lとの両方からの投影像を観察することとなり、すなわち、右眼55Rに映る像が、右眼用画像と左眼用画像とが重なった2重像となるため(いわゆる3Dクロストーク)、所望の立体画像を視認することができない。
ここでは、右眼領域70Rと左眼領域70L又は左眼領域72Lとの境界線付近の空間領域が、3Dクロストーク領域となる。
Therefore, in the situation shown in FIG. 7, when the observer observes the stereoscopic image, the
Here, a spatial region near the boundary line between the right eye region 70R and the
また、観察者の左眼55Lの位置にも、液晶表示パネルの左端にある左眼用画素4Lから出た光の中で、最も近いシリンドリカルレンズ3cの主点(頂点)を通る光線24と、右眼用画素4Rから出た光の中で2番目に近いシリンドリカルレンズ3dの主点を通る光線25(二点鎖線で図示)との両方が投影されるため、この左眼55Lに映る像も、右眼用画像と左眼用画像とが重なった2重像となり、所望の立体画像を視認することができない。
A
このように、裸眼式の立体画像表示装置においては、観察距離が変化して、観察者が正視領域から外れると、3Dクロストークによる2重像や逆視の影響が現われ、立体画像の表示品質が著しく低下するという問題が生じ得る。 As described above, in the autostereoscopic image display device, when the observation distance is changed and the observer deviates from the normal viewing area, the effect of double image or reverse vision due to 3D crosstalk appears, and the display quality of the stereoscopic image is displayed. Can cause a problem of significant decrease in
次に、移動物体としての座席の背面部に立体画像表示装置11を設置した場合の外観を示す図8を参照して、座席と立体画像表示装置11との位置関係等を説明する。
Next, the positional relationship between the seat and the stereoscopic
図8に示す状況において、立体画像表示装置11は、接合部材61Aを介して座席61の座席背面部61Bに設置されている。この座席背面部61Bとの間に介在する接合部材61Aの回転機構により、立体画像表示装置11は、Y軸-Z軸平面上での回転移動(X軸周りの回転移動)が可能となっている。
In the situation illustrated in FIG. 8, the stereoscopic
接合部材61Aの回転機構が無ければ、座席背面部61Bが傾斜した場合に、立体表示パネル手段120の表示面が下向きの状態で維持されるため、座席の座面部(着座部)61Cに着座している観察者に好適な画像を視認させることができない。すなわち、ここでは表示面が下向きになるのを回避するために該回転機構を設け、これにより立体表示パネル手段120の表示面の向きを変更するという構成を採っている。 Without the rotation mechanism of the joining member 61A, when the seat back surface portion 61B is inclined, the display surface of the stereoscopic display panel means 120 is maintained in a downward state, so that the seating surface portion (sitting portion) 61C of the seat is seated. A suitable image cannot be viewed by a viewer who is viewing. That is, here, the rotation mechanism is provided in order to avoid the display surface from being directed downward, and thereby the orientation of the display surface of the stereoscopic display panel means 120 is changed.
また、立体画像表示装置11の表示座標系は、図8に示すように定義する。
すなわち、該表示座標系の原点位置を立体表示パネル手段120の表示面の中心位置とし、立体表示パネル手段120の表示面上の横方向(ここでは長手方向)をX軸方向,表示面上の縦方向(ここでは短手方向)をY軸方向,立体表示パネル手段120の表示面に対して垂直な方向をZ軸方向とする。
Further, the display coordinate system of the stereoscopic
That is, the origin position of the display coordinate system is the center position of the display surface of the stereoscopic display panel means 120, the horizontal direction (here, the longitudinal direction) on the display surface of the stereoscopic display panel means 120 is the X-axis direction, and the display surface The vertical direction (the short direction here) is the Y-axis direction, and the direction perpendicular to the display surface of the stereoscopic display panel means 120 is the Z-axis direction.
以降の各図においては、立体画像表示装置11と観察者との間の奥行き方向における距離を表す観察距離(立体画像表示装置11と観察者との相対距離)を、立体画像表示装置11の表示座標系で記述し、これに基づいて各説明を行う。
例えば、後述する図10に示すように、Z軸方向における立体表示パネル手段120の表示面の中心位置から観察者までの距離が観察距離ZODとなる。ここで、図10等(図11,図18)においては、観察者の両眼の位置を、便宜上、観察者(O)の右目の位置として示すものとする。
In the subsequent drawings, the observation distance (relative distance between the stereoscopic
For example, as shown in FIG. 10 described later, the distance from the center position of the display surface of the stereoscopic
続いて、立体画像表示装置11を座席背面部に設置した他の一例を、図9に示す外観図を参照して説明する。
Next, another example in which the stereoscopic
この図9に示す立体画像表示装置11には、接合部材62Aを介して立体表示パネル手段120と一体化した外枠部62Dが座席62に設けられており、この外枠部62Dは、座席背面部61Bに固定され設置された状態にある。また、外枠部62Dに設けられた第1移動物体状態検出手段111は、座席背面部61Bの傾斜角度を検出するための構成部材であり、上述した移動物体状態検出手段110と同様の機能を有する。
In the stereoscopic
すなわち、図8で示した移動物体状態検出手段110を座席背面部61Bに設置するという構成に限定されず、これと同様の構成部材である第1移動物体状態検出手段111を外枠部62Dに設置するようにしてもよい。
That is, the moving object
このように、座席背面部61Bと一体的に動く外枠部62Dに第1移動物体状態検出手段111を設けるという構成を採った場合には、座席背面部61Bが傾斜した際に、立体画像表示装置11の外枠部62Dで検出された傾斜角度が、座席背面部61Bの傾斜角度と一致する。
As described above, when the first moving object state detection unit 111 is provided in the outer frame portion 62D that moves integrally with the seat back portion 61B, a stereoscopic image display is performed when the seat back portion 61B is inclined. The inclination angle detected by the outer frame portion 62D of the
また、立体表示パネル手段120は、図9のような接合部材62Aを用いた回転機構により、Y軸-Z軸平面上での回転移動(X軸を回転軸とした回転移動)が可能となり、観察者がパネル表示面に対して垂直となるように位置調整をすることができる。 Further, the stereoscopic display panel means 120 can be rotated on the Y-axis / Z-axis plane (rotational movement with the X axis as the rotation axis) by a rotation mechanism using the joining member 62A as shown in FIG. The position can be adjusted so that the observer is perpendicular to the panel display surface.
さらに、図9に示すように、回転機構による立体表示パネルの回転角度を検出する第2移動物体状態検出手段112を立体表示パネル手段120にも付加するという構成を採ってもよい。このようにすれば、座席背面部61B(背もたれ部)と立体表示パネル手段120との位置関係をも勘案した観察距離の算出処理が可能となる。 Further, as shown in FIG. 9, a configuration may be adopted in which second moving object state detection means 112 for detecting the rotation angle of the stereoscopic display panel by the rotation mechanism is also added to the stereoscopic display panel means 120. In this way, it is possible to perform an observation distance calculation process that also takes into account the positional relationship between the seat back portion 61B (backrest portion) and the stereoscopic display panel means 120.
次に、観察者が座席に着座した状態で、その前座席の背面部にある立体画像表示装置11を観察する場合の模式図を図10に示す。この図10では、観察者の座席63と前座席64との双方が通常の傾斜角度である状態を示す。
Next, FIG. 10 shows a schematic diagram when observing the stereoscopic
ここで、観察者の座席63の鉛直方向(図のY軸方向)からの傾斜角度をθSOとおき、観察者(O)の前座席64の鉛直方向(図のY軸方向)からの傾斜角度をθSPとおく。また、この状態における立体画像表示装置11の立体表示パネル手段120の表示面と観察者(O)との奥行き方向(図のZ軸方向)の距離を表す観察距離をZODとする。
Here, the inclination angle of the observer's
次いで、図10の状態から、前座席64の背もたれ部が傾斜した場合(傾斜角度がθSPからθSP’へと変化した場合)の模式図を図11に示す。
Then, from the state of FIG. 10 shows a schematic view of a backrest of the
前座席64の座席背面部に設置した立体画像表示装置11は、この前座席64の背もたれ部の傾斜に伴って、その設置位置が移動する。
すなわち、かかる状況下における立体画像表示装置11は、観察者(O)が移動しなくても、前座席64の乗客の都合によってその背もたれ部が傾斜した場合に、観察距離ZODが急激に変化する。図11では、観察距離が変化してZOD’となった状態を示す。
The stereoscopic
In other words, the stereoscopic
続いて、図12に、観察者(O)の位置と、立体表示パネル手段120の光学特性から規定される正視領域との位置関係を示す。 Next, FIG. 12 shows the positional relationship between the position of the observer (O) and the normal viewing area defined by the optical characteristics of the stereoscopic display panel means 120.
観察者(O)の両眼が正視領域内に位置する場合を示す図12(A)の状況では、観察者(O)は正常な立体画像を視認することができる。
一方、前座席64の傾斜に伴い観察距離が急激に変化(ZODからZOD’へ変化)した場合を示す図12(B)の状況では、観察者(O)の両眼の位置が正視領域外となるため、3Dクロストークによる2重像や逆視が出現することになり、観察者(O)は正常な立体画像が視認することができない。
In the situation of FIG. 12A showing a case where both eyes of the observer (O) are located in the normal vision region, the observer (O) can visually recognize a normal stereoscopic image.
On the other hand, in the situation of FIG. 12B showing a case where the observation distance changes rapidly (changes from Z OD to Z OD ′) with the inclination of the
かかる状況の変化を考慮して、本第1実施形態における立体画像表示装置11には、前座席64の傾斜に起因した観察距離ZODからの変化量を算出すると共に、該変化後の観察距離ZOD’に合わせて立体画像の表示設定を調整するための構成を採用した。
In consideration of such a change in the situation, the stereoscopic
下記に、観察距離(観察距離ZODからの変化量)の算出方法を記載する。
観察距離の算出に際しては、まず、観察者(O)の座席63の傾斜角度θSOとその前の座席(前座席)64の傾斜角度θSPとを表す座席状態情報(状態情報)を、移動物体状態検出手段110にて検出するように構成されている。
The calculation method of observation distance (change amount from observation distance ZOD ) is described below.
In calculating the observation distance, first, the seat state information (state information) representing the inclination angle θ SO of the
すなわち、移動物体状態検出手段110は、観察者(O)の座席63及び前座席64の双方の背面部(座席背面部)に設置されているが、まず図13乃至図16を参照して、これら座席の総称としての座席60の傾斜角度を算出する方法について説明する。
That is, the moving object state detection means 110 is installed on the back surface (seat back surface) of both the
図13は、座席60の背面部に、背もたれ部の傾斜角度θSを検出する傾斜センサ110Aを設置した例を示す。この傾斜センサ110Aの一例としては、2軸の加速度センサが挙げられ、図13では、該加速度センサを傾斜センサ110Aとして座席背面部に設置した例を示している。すなわち、装置本体10に対し有線又は無線にて接続された移動物体状態検出手段110は、この傾斜センサ110Aによる検出値(検出データ)をもとに移動物体である座席60の状態を検出するように構成されている。
FIG. 13 shows an example in which a
ここで、図14に、傾斜センサ110Aとしての2軸の加速度センサの拡大図を示す。
2軸の加速度センサは、加速度座標系に対するYA軸方向とZA軸方向の加速度を検出する構成である。ここで、加速度座標系とは、加速度センサに対して任意の方向をYA軸方向として規定し、そのYA軸方向と垂直な任意の方向をZA軸方向として規定した座標系である。また、このとき、加速度座標系のYA軸とZA軸とに直交するXA軸(図示せず)の方向は、表示座標系のX軸方向と一致する設定である。
Here, FIG. 14 shows an enlarged view of a biaxial acceleration sensor as the
Biaxial acceleration sensor is configured to detect the acceleration of Y A-axis direction and Z A-axis direction with respect to the acceleration coordinate system. Here, the acceleration coordinate system is any direction defined as Y A-axis direction, the coordinate system which defines the Y A-axis direction and any direction perpendicular as Z A-axis direction with respect to the acceleration sensor. At this time, the direction of X A axis perpendicular to the Y A-axis and Z A-axis of the acceleration coordinate system (not shown) is set to coincide with the X-axis direction of the display coordinate system.
重力加速度方向と加速度座標系のYA軸方向が等価である例を示す図14(A)に対し、図14(B)では、重力加速度方向と加速度座標系のYA軸方向が不等価である例を示す。 To FIG. 14 (A) to Y A-axis direction of the gravitational acceleration direction and the acceleration coordinate system showing an example is equivalent, in FIG. 14 (B), Y A-axis direction of the gravitational acceleration direction and the acceleration coordinate system with unequal Here is an example.
加速度センサは重力加速度Gを検出する機能を有するため、その検出値からYA軸とZA軸平面上における重力加速度方向に対する傾斜角度θAを算出することができる。すなわち、重力加速度Gに対する傾斜角度θAは、下記の式(1)から算出するように構成されている。 Acceleration sensor because it has a function of detecting a gravitational acceleration G, it is possible to calculate the inclination angle theta A relative to the direction of the gravitational acceleration from the detected values on the Y A-axis and Z A axis plane. That is, the inclination angle θ A with respect to the gravitational acceleration G is configured to be calculated from the following equation (1).
この式(1)において、YAは加速度センサで検出したYA軸方向の加速度を示し、ZAはZA軸方向の加速度を示す。 In this equation (1), Y A represents the acceleration in the Y A axis direction detected by the acceleration sensor, and Z A represents the acceleration in the Z A axis direction.
重力加速度方向と座席の座面部の垂直方向とが一致する場合には、座席背面部の傾斜角度θSは重力加速度に対する加速度センサの傾斜角度θAと一致する。 When the gravitational acceleration direction and the vertical direction of the seat surface portion of the seat coincide with each other, the inclination angle θ S of the seat back portion coincides with the inclination angle θ A of the acceleration sensor with respect to the gravitational acceleration.
ただし、飛行機等の座席では、飛行中に機体が傾くため、重力加速度方向と座席の座面に垂直な方向とが一致しないことが想定され、この場合には、座席背面部の傾斜角度θSが重力加速度に対する加速度センサの傾斜角度θAと一致しない。 However, in the seat of such aircraft, because the aircraft is tilted in flight, that the direction perpendicular to the seating surface of the gravitational acceleration direction and the seat do not coincide is assumed, in this case, the inclination angle of the seat back portion theta S Does not coincide with the inclination angle θ A of the acceleration sensor with respect to the gravitational acceleration.
そこで、重力加速度方向と座面に垂直な方向とが一致しない場合における傾斜角度の検出方法を、図15に基づいて説明する。ここでは、機体がピッチングして斜めに傾いている状況を想定する。
すなわち、機体がピッチングして傾く状況を考慮して、図15に示す場合では、傾斜センサを、座席背面部だけではなく(傾斜センサ110A(第1傾斜センサ))、座席の座面部にも設置する(傾斜センサ110B(第2傾斜センサ))という構成を採っている。
Therefore, a method for detecting the tilt angle in the case where the gravitational acceleration direction and the direction perpendicular to the seat surface do not coincide will be described with reference to FIG. Here, it is assumed that the aircraft is pitched and tilted obliquely.
That is, in consideration of the situation in which the fuselage is pitched and tilted, in the case shown in FIG. 15, the tilt sensor is installed not only on the seat back portion (
このように、機体が傾く飛行機等の座席に立体画像表示装置11を搭載する場合には、これら2つの傾斜センサを設けると共に、移動物体状態検出手段110に、座席の座面部に設置した傾斜センサ110Bが検出した傾斜角度と、座席背面部に設置した傾斜センサ110Aが検出した傾斜角度との差分値を算出する機能を設け、この機能により座席背面部の傾斜角度θSを算出するようにしてもよい。
As described above, when the stereoscopic
一方で、観察者が着座する座席背面部の傾斜角度(θSO:図10)、その前の座席背面部の傾斜角度(θSP:図10)の角度差分値の算出のみであれば、図13に示すように、座席背面部だけに傾斜センサを設置し、この傾斜センサで検出した傾斜角度の差分値を移動物体状態検出手段110が求めるという構成を採ればよい。 On the other hand, if only the calculation of the angle difference value of the inclination angle (θ SO : FIG. 10) of the seat back portion on which the observer is seated and the inclination angle (θ SP : FIG. 10) of the front seat rear portion is shown, As shown in FIG. 13, a configuration may be adopted in which a tilt sensor is installed only in the seat back portion, and the moving object state detection means 110 obtains the difference value of the tilt angle detected by the tilt sensor.
なお、機体がヨーイングした場合には、座席の座面部の垂直方向と重力加速度方向との関係は変化しない。加えて、機体がローリングした場合には、座席の座面部の垂直方向と重力加速度方向との関係は変化するが、YA軸方向とZA軸方向で検出される重力加速度の比率は変化しないため、上記式(1)より傾斜角度θAを算出することができる。(ただし、ローリングによって機体が90°傾斜した場合には、YA軸方向とZA軸方向で検出される重力加速度が0になるため、傾斜角度θAは算出不能となる。) When the aircraft yaws, the relationship between the vertical direction of the seat surface portion of the seat and the direction of gravity acceleration does not change. In addition, when the aircraft is rolling, the relationship between the vertical direction and the gravitational acceleration direction of the seat surface portion of the seat is changed, but the ratio of the gravitational acceleration detected by the Y A-axis direction and Z A-axis direction does not change Therefore, the inclination angle θ A can be calculated from the above equation (1). (However, if the aircraft is tilted 90 ° by rolling, since the gravitational acceleration detected by the Y A-axis direction and Z A-axis direction is 0, the inclination angle theta A becomes impossible calculated.)
また、上記のように傾斜センサとして加速度センサを使用した場合には、加速度の変化量を検出することで、座席背面部が倒れたタイミングを検出することも可能である。 In addition, when an acceleration sensor is used as the tilt sensor as described above, it is possible to detect the timing at which the seat back portion falls down by detecting the amount of change in acceleration.
ここで、一例として、座席背面部に設置した加速度センサが検出した加速度ZAの時間変動を図16に示す。ここでは、縦軸がZA軸方向の加速度ZAを表し、横軸が加速度ZAの検出時間を表す。 Here, as an example, the time variation of the acceleration Z A of the acceleration sensor installed in the seat back portion is detected in FIG. 16. Here, the vertical axis represents the acceleration Z A in the Z A axis direction, and the horizontal axis represents the detection time of the acceleration Z A.
加速度センサは、座席背面部が静止している場合には、主に重力加速度のみを検出する。しかし、座席背面部が倒れて移動した場合には、重力加速度以外にも座席背面部の移動に対する加速度を検出するため、加速度ZAが上昇する。したがって、かかる状況にも対応するために、予め任意の閾値ZA0を設定しておき、加速度ZAが閾値ZA0を超過した場合には、座席背面部が倒れて移動したと判定するように構成してもよい。 The acceleration sensor mainly detects only gravitational acceleration when the seat back is stationary. However, if the seat back portion is moved collapsed, because in addition to the gravitational acceleration to detect the acceleration with respect to movement of the seat back portion, the acceleration Z A is increased. Therefore, in order to cope with such a situation, an arbitrary threshold value Z A0 is set in advance, and when the acceleration Z A exceeds the threshold value Z A0 , it is determined that the seat back portion has fallen and moved. It may be configured.
以上の処理により、移動物体状態検出手段110は、座席背面部が倒れたタイミングを検出することができる。
With the above processing, the moving object
また、飛行機自体の加速・減速によっても、加速度ZAには変化が生じるが、飛行機自体の加速・減速による加速度ZAの変化は、飛行機内の全座席に影響する。
したがって、全座席の加速度センサが検出する加速度ZAが一斉に変化した場合には、飛行機自体の加速・減速に起因すると判定し、任意の閾値ZAOを超過した場合でも座席背面部は倒れていないと判定するように移動物体状態検出手段110を構成してもよい。
Further, by acceleration and deceleration of the aircraft itself, but changes in acceleration Z A occurs, a change in acceleration Z A due to acceleration and deceleration of the aircraft itself, affects the entire seat in the airplane.
Therefore, when the acceleration Z A of the acceleration sensor of the entire seat is detected is changed all at once, it is determined that due to the acceleration and deceleration of the aircraft itself, have fallen seat back portion, even if in excess of the arbitrary threshold Z AO The moving object
上記の説明では、座席の背もたれ部の傾斜角度θSを検出する傾斜センサとして、加速度センサを使用する一例を示したが、これに限定されるものではなく、加速度センサに代えてギア回転検出センサや電動モータ回転検出センサなどを使用するように構成してもよい。 In the above description, an example in which an acceleration sensor is used as the inclination sensor that detects the inclination angle θ S of the seat back portion is not limited to this, but a gear rotation detection sensor is used instead of the acceleration sensor. Alternatively, an electric motor rotation detection sensor or the like may be used.
ここで、図17に、ギア回転検出センサを座席の座面部と背もたれ部との接合部分に設置した例を示す。図17(A)は、座席の背もたれ部の傾斜角度がθS1である場合を、図17(B)は、座席の背もたれ部の傾斜角度がθS2である場合をそれぞれ示す。 Here, FIG. 17 shows an example in which the gear rotation detection sensor is installed at the joint portion between the seat surface portion and the backrest portion of the seat. 17A shows a case where the inclination angle of the seat back portion is θ S1 , and FIG. 17B shows a case where the inclination angle of the seat back portion is θ S2 .
ギア回転検出センサは、座席の背もたれ部の傾斜角度θSによって、ギアの位置(歯車のかみ合わせ位置)が変化する。したがって、予めギアの位置と傾斜角度θSとの関係を登録しておくことにより、ギアの値から傾斜角度θSを検出することができる。 In the gear rotation detection sensor, the gear position (gear meshing position) changes depending on the inclination angle θ S of the seat back portion. Therefore, by previously registering the relationship between the gear position and the inclination angle θ S , the inclination angle θ S can be detected from the gear value.
また、座席の背もたれ部が傾斜した際に伴うギアの回転数(歯車のかみ合わせ位置の移動回数)を計測し、その回転数から座席の背もたれ部の傾斜角度θSを検出するようにしてもよい。 Alternatively, the rotational speed of the gear (the number of movements of the meshing position of the gear) when the seat back is tilted is measured, and the tilt angle θ S of the seat back is detected from the rotational speed. .
次に、観察距離算出手段140は、移動物体状態検出手段110で検出した座席背面部の傾斜角度θSと、観察距離算出手段140に予め登録された座席基準情報とから、観察距離ZODを算出する機能を有している。
ここで、予め登録された座席基準情報には、観察者の座席とその前の座席との設置間隔の距離情報ZSS(図18参照)と、座席背面部に設置した立体画像表示装置11の設置位置情報(図19参照)とが含まれる。
Next, the observation
Here, the pre-registered seat reference information includes distance information Z SS (see FIG. 18) of the installation interval between the observer's seat and the preceding seat, and the three-dimensional
図18では、一例として、設置間隔の距離情報ZSSを、観察者の座席63の後部脚の位置から、前座席64の後部脚の位置までの距離とする。
In FIG. 18, as an example, the distance information Z SS of the installation interval is a distance from the position of the rear leg of the observer's
また、設置位置情報を示す図19のうち、図19(A)は座席の後方から座席背面部を見たときの外観図であり、図19(B)は座席の横方向から座席側面部を見たときの外観図である。 Further, in FIG. 19 showing the installation position information, FIG. 19A is an external view when the back of the seat is viewed from the back of the seat, and FIG. 19B is a side view of the seat from the lateral direction of the seat. It is an external view when seen.
設置位置情報は、背もたれ部の可動部の支点位置から座席背面部と接合部材との取り付け位置までの長さを示す接合部材取付長さLSPと、Y軸方向についての接合部材の取付位置における、立体表示パネル手段120の表示面のZ軸方向の位置から座席の背もたれ部の前面のZ軸方向の位置までの距離を示す背もたれ幅ZSP(接合部材の取付位置のY軸方向の位置と等しいY軸方向の位置における立体表示パネル手段106の表示面のZ軸方向の位置から、接合部材の取付位置のY軸方向の位置と等しいY軸方向の位置における座席の背もたれ部の前面のZ軸方向の位置までの距離を示す背もたれ幅ZSP)とから構成される。 The installation position information includes the joining member attachment length L SP indicating the length from the fulcrum position of the movable part of the backrest part to the attachment position of the seat back part and the joining member, and the attachment position of the joining member in the Y-axis direction. , The backrest width Z SP indicating the distance from the position of the display surface of the stereoscopic display panel means 120 in the Z-axis direction to the position of the front surface of the seat backrest in the Z-axis direction (the position of the attachment position of the joining member in the Y-axis direction) From the position in the Z-axis direction of the display surface of the stereoscopic display panel means 106 at the same position in the Y-axis direction, the front Z of the seat back portion at the position in the Y-axis direction equal to the position in the Y-axis direction of the attachment position of the joining member A backrest width Z SP ) indicating the distance to the position in the axial direction.
本第1実施形態の立体画像表示装置11において、観察距離算出手段140は、予め登録された座席基準情報ZSS,接合部材取付長さLSP,及び背もたれ幅ZSPと、各座席背面部の傾斜角度θS(θSO,θSP)とを用いて、下記式(2)により観察距離ZODを算出するように構成できる。ここで、θSOは観察者の座席63の傾斜角度を示し、θSPは前座席の傾斜角度をそれぞれ示す。
In the stereoscopic
ただし、この式(2)より算出した観察距離ZODは、観察者(O)の前にある座席背面部に設置した立体画像表示装置11+の立体表示パネル手段120の表示面から、観察者の座席63の背もたれ部の前面位置までの距離となる。
すなわち、この観察距離ZODには、観察者(O)が着座する座席の背もたれ部の前面位置から観察者(O)の両眼位置までの距離ZOOが考慮されていない。
However, the observation distance Z OD calculated from this equation (2) is obtained from the display surface of the stereoscopic display panel means 120 of the stereoscopic
That is, the distance ZOO from the front position of the backrest portion of the seat on which the observer (O) is seated to the position of the eyes of the observer (O) is not considered in the observation distance ZOD .
ところで、この距離ZOOは、観察者(O)の後頭部から両眼位置までの長さとほぼ一致する。社団法人人間生活工学研究センターが経済産業省の委託事業として計測した2006年度の人体計測データの報告資料によると、一般的な観察者の後頭部から両眼位置(眉間部)までの長さ(頭長)の平均値は約19cmであるとされている。 By the way, this distance ZOO substantially coincides with the length from the back of the observer (O) to the binocular position. According to the 2006 human anthropometric data reported by the Human Life Engineering Research Center as a commissioned project by the Ministry of Economy, Trade and Industry, the length from the back of the general observer to the binocular position (brows) The average value of (long) is about 19 cm.
したがって、観察者が着座する座席の背もたれ部の前面位置から該観察者の両眼位置までの距離ZOOを約19cmと仮定し(距離ZOOとして19cmを採用し)、上記式(2)より算出した観察距離ZODから距離ZOOを減算した値を、観察距離算出手段140が観察距離として算出するようにしてもよい。
これにより、上記図10における観察距離ZOD又は図11におけるZOD’に相当する算出値を得ることができる。
Therefore, the distance ZOO from the front position of the back portion of the seat on which the observer sits to the binocular position of the observer is assumed to be about 19 cm (19 cm is adopted as the distance ZOO ), and the above equation (2) the calculated viewing distance Z OD value obtained by subtracting the distance Z OO from, may be observed
Thereby, a calculated value corresponding to the observation distance Z OD in FIG. 10 or Z OD ′ in FIG. 11 can be obtained.
また、上記式(2)では、観察者(O)の眼の高さ(Y軸方向の位置)が、立体画像表示装置11の接合部材の取り付け位置の高さ(Y軸方向の位置)と一致すると仮定し、観察距離ZODを算出した。
In the above formula (2), the eye height (position in the Y-axis direction) of the observer (O) is the height (position in the Y-axis direction) of the attachment position of the joining member of the stereoscopic
以上の処理により、観察距離算出手段140は、観察者と立体画像表示装置11との奥行き方向の距離を表す観察距離(立体表示パネル手段120と観察者との相対距離)の算出を実現する。
With the above processing, the observation
表示設定調整手段170は、観察距離算出手段140で算出した観察距離ZODと、デバイス特性データ保管手段160に保管されたデバイス特性データとを参照し、座席背面部の傾斜に伴って出現する3Dクロストークや逆視の影響を軽減するように、立体画像の表示設定を調整する構成部材である。
The display setting
ここで、デバイス特性データ保管手段160内のデバイス特性データは、上述の通り、立体表示パネル手段120の光学特性を表すものであり、このデバイス特性データの一例としては、図20に示す3Dクロストーク特性データが挙げられる。
Here, the device characteristic data in the device characteristic
この図20において、横軸は視野角θP [度]を表し、縦軸は3Dクロストーク量[%]を表す。3Dクロストーク量は、右眼用画像に左眼用画像が混合する割合と、左眼用画像に右眼用画像が混合する割合を示す。 In FIG. 20, the horizontal axis represents the viewing angle θ P [degree], and the vertical axis represents the 3D crosstalk amount [%]. The 3D crosstalk amount indicates a ratio at which the left-eye image is mixed with the right-eye image and a ratio at which the right-eye image is mixed with the left-eye image.
3Dクロストーク特性データは、立体表示パネル手段120の光学特性によって異なる値をとり、立体表示パネル手段120の設計時に決定される。また、3Dクロストーク用の評価装置で立体表示パネル手段120を計測することによっても、3Dクロストーク特性データを得ることができる。
The 3D crosstalk characteristic data takes different values depending on the optical characteristics of the stereoscopic
立体画像表示装置11では、3Dクロストーク特性データに依存して、右眼領域・左眼領域・3Dクロストーク領域が決定される。一例として、観察者が立体画像を正常に視認できる3Dクロストーク量の閾値をβ2以下と定義すれば(図20の二点鎖線参照)、視野角θP-2〜θP2の領域が右目領域、視野角θP2〜θP4の領域までが3Dクロストーク領域、視野角θP4〜θP8の領域が左眼領域となる。
In the stereoscopic
ここで、図20に対応づけた、観察者の両眼位置に向けて右眼用画像及び左眼用画像を投影する光学モデルを図21に示す。 Here, FIG. 21 shows an optical model that projects the image for the right eye and the image for the left eye toward the observer's binocular position corresponding to FIG.
図21では視野角θP2〜θP4の部分が3Dクロストーク領域となるため、図6の場合と比較すると、右眼領域80Rと左眼領域80L及び82Lのように、形成される右眼領域と左眼領域が狭くなる。右眼55Rにとっては、右眼領域80Rが正視領域,左眼領域80Lと82Lが逆視領域であり、それ以外の領域が3Dクロストーク領域となる。
In FIG. 21, the portions of the viewing angles θ P2 to θ P4 are 3D crosstalk regions. Therefore, compared to the case of FIG. 6, the right eye region to be formed as in the right eye region 80R and the left eye regions 80L and 82L. And the left eye area becomes narrower. For the
その他の一例として、上記3Dクロストーク量の閾値をβ1以下と定義した場合には(図20の一点鎖線参照)、視野角θP1〜θP5の領域までが3Dクロストーク領域となり、それ以外の視野角θPは右眼領域又は左眼領域となる。かかる場合の立体画像表示装置11の光学モデルを図22に示す。
Other examples of, the 3D crosstalk amount threshold when defined as beta 1 or less (see the one-dot chain lines in FIG. 20), to the region of the viewing angle theta P1 through? P5 becomes 3D crosstalk area, otherwise The viewing angle θ P is the right eye region or the left eye region. An optical model of the stereoscopic
この図22では、視野角θP1〜θP5の部分が3Dクロストーク領域となるため、右眼領域及び左眼領域として、図21の場合よりも一段と狭まった右眼領域90Rと左眼領域90L,92Lが形成される設定となる。右眼55Rにとっては、図6の場合と同様に、右眼領域90Rが正視領域であり、左眼領域90Lと92Lが逆視領域で、それ以外の領域が3Dクロストーク領域となる。
In FIG. 22, the viewing angle θ P1 to θ P5 is a 3D crosstalk region. Therefore, the right eye region 90R and the left eye region 90L are narrower than the case of FIG. 21 as the right eye region and the left eye region. , 92L is formed. For the
以上のように、正視領域・逆視領域・3Dクロストーク領域は、3Dクロストーク特性データに依存して決定される。 As described above, the normal viewing region, the reverse viewing region, and the 3D crosstalk region are determined depending on the 3D crosstalk characteristic data.
なお、3Dクロストーク量の閾値については、立体画像表示装置11の光学測定と主観評価から決定することができる。
Note that the threshold value of the 3D crosstalk amount can be determined from optical measurement and subjective evaluation of the stereoscopic
また、3Dクロストークを光学的に測定できる装置としては、例えばコノスコープ方式やゴニオメータ方式,フーリエ方式などの各種方式を採用した測定装置がある。こうした測定装置によれば、視野角度に対する輝度分布を測定すると共に、以下の式(3)より3Dクロストーク量を算出することができる。 In addition, as an apparatus capable of optically measuring 3D crosstalk, there are measurement apparatuses that employ various systems such as a conoscope system, a goniometer system, and a Fourier system. According to such a measuring apparatus, the luminance distribution with respect to the viewing angle can be measured, and the 3D crosstalk amount can be calculated from the following equation (3).
ここで、3D-CT(θP)は、視野角θPに対する3Dクロストーク量を表す。また、Y(LBRW)とY(LBRB)とY(LWRB)は、視野角θPに対する輝度値を表す。Y(LBRW)は左眼用画像を黒とし右眼用画像を白としたときの輝度値,Y(LBRB)は左眼用画像を黒とし右眼用画像を黒としたときの輝度値,Y(LWRB)は左眼用画像を白とし右眼用画像を黒としたときの輝度値をそれぞれ表す。 Here, 3D-CT (θ P ) represents the 3D crosstalk amount with respect to the viewing angle θ P. Further, Y and (LBRW) Y and (LBRB) Y (LWRB) represents the luminance value with respect to the viewing angle theta P. Y (LBRW) is a luminance value when the left-eye image is black and the right-eye image is white; Y (LBRB) is a luminance value when the left-eye image is black and the right-eye image is black; Y (LWRB) represents a luminance value when the left-eye image is white and the right-eye image is black.
上記いずれ方式を採用した測定装置を用いて測定した場合でも、定性的結果には大きな差は見られないが、定量的な数値については測定方式や装置仕様によって異なる。一般的な測定結果と主観的な立体視域の評価結果を照合すると、3Dクロストークが概ね10%以下であれば立体画像が視認可能であり、この値を上記3Dクロストーク量の閾値として用いることができる。 Even when measurement is performed using a measurement apparatus employing any of the above-mentioned methods, a large difference is not seen in the qualitative results, but quantitative numerical values differ depending on the measurement method and apparatus specifications. When a general measurement result and a subjective stereoscopic viewing evaluation result are collated, a stereoscopic image can be visually recognized if 3D crosstalk is approximately 10% or less, and this value is used as a threshold value for the 3D crosstalk amount. be able to.
図21の光学モデルよると、観察距離ZODが最適視認距離ODと等しい場合には、観察者は正常な立体画像を視認できるが、座席背面部の傾斜によって、観察距離ZODが最短視認距離NDよりも短くなると観察者は3Dクロストークによる2重像を視認するため、正常な立体画像が視認不可能となる。 According to the optical model of FIG. 21, when the observation distance Z OD is equal to the optimal viewing distance OD, the observer can visually recognize a normal stereoscopic image, but the observation distance Z OD is the shortest viewing distance due to the inclination of the seat back portion. If it becomes shorter than ND, an observer visually recognizes a double image by 3D crosstalk, and thus a normal stereoscopic image becomes invisible.
ところで、立体表示パネル手段120は、製造時のばらつきによって、光学特性を示すデバイス特性データに個体差が生じる。製造時のばらつきは、主に立体表示パネル手段120の電気光学手段となる液晶表示パネルと光学分離手段となるレンチキュラレンズとを貼り合せる際の位置ズレに起因する。 By the way, the 3D display panel means 120 has individual differences in device characteristic data indicating optical characteristics due to variations in manufacturing. The variation at the time of manufacture is mainly caused by a positional deviation when the liquid crystal display panel serving as the electro-optic means of the stereoscopic display panel means 120 and the lenticular lens serving as the optical separation means are bonded.
しかし、この位置ズレ量が所定の許容値(±ΔθLIM)以下であれば、立体表示パネル手段120に特有のデバイス特性データと同一でなくても、同等すなわち代表的なデバイス特性データで代用することが可能である。ここで、本第1実施形態及び以下の各実施形態において採用できる、立体表示パネル手段120及びこれと同等のデバイスに対応したデバイス特性データを、「立体表示パネル手段120にかかるデバイス特性データ」と称する。 However, if the amount of positional deviation is equal to or less than a predetermined allowable value (± Δθ LIM ), equivalent or representative device characteristic data is substituted even if it is not the same as the device characteristic data unique to the stereoscopic display panel means 120. It is possible. Here, the device characteristic data corresponding to the stereoscopic display panel means 120 and a device equivalent thereto, which can be adopted in the first embodiment and each of the following embodiments, is referred to as “device characteristic data relating to the stereoscopic display panel means 120”. Called.
一例として、図23に、製造時のばらつきによって、立体表示パネル手段120の中心位置から投影される光線向きが傾斜する光学モデル図を示す。 As an example, FIG. 23 shows an optical model diagram in which the direction of light rays projected from the center position of the stereoscopic display panel means 120 is inclined due to variations in manufacturing.
図23(A)は、上記位置ズレが無く、光線向きが正面方向(Δθ=0°)に投影された場合の光学モデル図を示し、図23(B)は、位置ズレにより、光線向きが所定の許容値である-ΔθLIMまで傾斜(Δθ=-ΔθLIM)した場合の光学モデル図を示し、図23(C)は、光線向きΔθが反対方向となる所定の許容値であるΔθLIMまで傾斜(Δθ=ΔθLIM)した場合の光学モデル図を示す。 FIG. 23A shows an optical model diagram when the light beam direction is projected in the front direction (Δθ = 0 °) without the positional deviation, and FIG. 23B shows the light beam direction due to the positional deviation. FIG. 23C shows an optical model diagram when tilting to a predetermined allowable value -Δθ LIM (Δθ = −Δθ LIM ), and FIG. 23C shows Δθ LIM which is a predetermined allowable value in which the light direction Δθ is in the opposite direction. An optical model diagram in the case of tilting up to (Δθ = Δθ LIM ) is shown.
また、図23(D)は、図23(A),(B),(C)の結果を重ね合わせた光学モデル図を示す。図23(D)より、製造時のばらつきが所定の許容値(±ΔθLIM)以下であれば、立体表示パネル手段120の最適視認距離OD及び立体視域はほぼ等価となる。この許容値となる±ΔθLIMの値は、立体ディスプレイサイズや立体視域の大きさ、適用するアプリケーションの種類に応じた主観的な評価により任意に設定することができる。
FIG. 23D shows an optical model diagram in which the results of FIGS. 23A, 23B, and 23C are overlaid. As shown in FIG. 23D, when the manufacturing variation is equal to or smaller than a predetermined allowable value (± Δθ LIM ), the optimal viewing distance OD and the stereoscopic viewing area of the stereoscopic
従って、デバイス特性データ保管手段160に、例えば図23(A)の結果のような代表的な立体表示パネル手段120のデバイス特性データを保管しておけば、そのデバイス特性データを、同一機種となるその他の立体表示パネル手段120にも使用することができる。
Therefore, if the device characteristic data of the typical stereoscopic
画像データ保管手段150は、画像データを保存または受信する機能を有する。
ここで、図24に、画像データ保管手段150に保管する画像データの一例を示す。
The image
Here, FIG. 24 shows an example of image data stored in the image
この例では、画像データ保管手段150に、立体画像コンテンツの画像データとして、L画像とR画像とが保管されている。L画像は、左眼領域に投影される左眼用画像であり、R画像は、右眼領域に投影される右眼用画像である。LR画像(L画像とR画像の両方)にかかる各画素の値としては、輝度値(RGB値)が保持されており、このLR画像が立体表示パネル120上に表示される。
ここで、画像データのu軸方向は、立体画像表示装置11の表示座標系のX軸方向と一致し、同v軸方向は、表示座標系のY軸方向と一致する。
In this example, an L image and an R image are stored in the image
Here, the u-axis direction of the image data matches the X-axis direction of the display coordinate system of the stereoscopic
上記の例では、画像データ保管手段150に、L画像,R画像を保管する例を示したが、これらの画像に加えて、L画像とR画像との間の視差値を表す視差画像を追加して保管するという構成を採ってもよい。そこで、図25に、視差画像と視差値との関係を示す。
In the above example, the L image and the R image are stored in the image
図25の右図は、視差画像(図25の左図)からv軸上の任意値v1の画素列を取り出し、その画素列に対する視差値PAを表した図である。ここで、視差値PAは、L画像を基準にとり、L画像の画素の位置に対応するR画像の画素の位置の位置ずれ量を示す。 The right diagram in FIG. 25 is a diagram showing a parallax value PA for the pixel column extracted from the parallax image (the left diagram in FIG. 25) from the pixel column of the arbitrary value v 1 on the v-axis. Here, the parallax value PA indicates a positional shift amount of the pixel position of the R image corresponding to the pixel position of the L image with reference to the L image.
具体例として、図26に、視差値とLR画像との関係図を示す。
視差画像の位置(u1,v2)の視差値PAは、下記の式(4)に示すように、L画像の画素の位置 (u1,v2)と、これに対応するR画像の画素の位置(u2,v2)との差分値となる。
As a specific example, FIG. 26 shows a relationship diagram between parallax values and LR images.
Disparity value PA of the position of the parallax image (u 1, v 2), as shown in equation (4) below, the position of the pixels of the L image and the (u 1, v 2), the R image corresponding thereto This is a difference value from the pixel position (u 2 , v 2 ).
ここで、視差画像は、L画像とR画像の特徴点を検出し、L画像の特徴点に対応するR画像の特徴点のマッチングをとり、特徴点同士の位置ずれ量から視差値を算出し、その視差値に基づいて生成するようにしてもよい。
また、視差画像の代わりにデプス画像を使用するようにしてもよい。このデプス画像は、各画素の値が立体画像コンテンツの奥行き距離を表す画像となる。
Here, the parallax image detects the feature points of the L image and the R image, matches the feature points of the R image corresponding to the feature points of the L image, and calculates the parallax value from the amount of positional deviation between the feature points. Alternatively, it may be generated based on the parallax value.
Further, a depth image may be used instead of the parallax image. This depth image is an image in which the value of each pixel represents the depth distance of the stereoscopic image content.
加えて、画像データ保管手段150に、予め様々な視差値を持つLR画像を複数枚保管しておくようにしてもよい。そこで、画像データ保管手段150に保管した様々な視差値を持つLR画像群の一例を図27に示す。
In addition, a plurality of LR images having various parallax values may be stored in the image
図27の最上部にあるLR画像は、立体画像コンテンツが元々保持していた視差値を持つLR画像を表し、図27の最下部にあるLR画像は視差値が0であるLR画像(LR画像は同じ画像であり、平面画像となる)を表す。また、図27の中間部分にあるLR画像群は、任意の視差値に調整されたLR画像群である。
画像データ保管手段150に、予め様々な視差値を持つLR画像群を保管することにより、任意の視差値を持つLR画像を即時に表示することが可能となる。
The LR image at the top of FIG. 27 represents an LR image having a parallax value originally held in the stereoscopic image content, and the LR image at the bottom of FIG. 27 is an LR image (LR image) having a parallax value of 0. Are the same image and become a planar image). In addition, the LR image group in the middle part of FIG. 27 is an LR image group adjusted to an arbitrary parallax value.
By storing LR image groups having various parallax values in the image
表示設定調整手段170は、座席背面部の傾斜に伴って出現する3Dクロストークや逆視の影響を軽減し、立体表示パネル手段120の表示面上に良好な立体画像が表示できるようにするため、観察距離算出手段140で算出した観察距離ZODとデバイス特性データ保管手段160に保管されたデバイス特性データを参照して、立体画像表示装置11の表示設定を調整する構成部材である。
The display setting
本第1実施形態では、立体表示パネル手段120が有する光学分離手段の光学分離特性が動的に変更可能である場合と、光学分離特性が静的であり変更不可能な場合とで、異なる表示設定の調整処理を実施する。
In the first embodiment, the display is different between the case where the optical separation characteristic of the optical separation unit included in the stereoscopic
ここで、図28に、光線分離特性の変更が可能又は不可能な場合において採用できる調整方法の分類表(分類表I)を示す。立体表示パネル手段120の光学分離手段の光学分離特性を動的に変更可能にする素子をアクティブ素子と呼び、光線分離特性が静的で変更不可能である素子をスタティック素子と呼ぶ。 Here, FIG. 28 shows a classification table (classification table I) of adjustment methods that can be adopted when the change of the light separation characteristics is possible or impossible. An element capable of dynamically changing the optical separation characteristics of the optical separation means of the stereoscopic display panel means 120 is called an active element, and an element whose light separation characteristics are static and cannot be changed is called a static element.
立体表示パネル手段120の光学分離手段の光学分離特性が動的に変更可能である場合には、表示設定調整手段170にて光学分離特性を変更して最適視認距離ODを変更することで、観察距離ZODに合わせた表示設定の調整処理を実施することができる。 When the optical separation characteristic of the optical separation means of the stereoscopic display panel means 120 can be dynamically changed, the display setting adjustment means 170 changes the optical separation characteristic to change the optimum viewing distance OD, thereby observing. It is possible to perform display setting adjustment processing according to the distance Z OD .
アクティブ素子を使用した光学分離手段の一例としては、液晶レンズが挙げられる。液晶レンズは、電圧の制御によって、該液晶レンズ内の屈折率の分布を制御することが可能であり、これによりレンズパワーを変更することができる。すなわち、表示設定調整手段170は、電圧を制御することにより、立体表示パネル手段120が形成する光学モデルを変更し、最適視認距離ODを任意に変更することができる。
An example of the optical separation means using an active element is a liquid crystal lens. The liquid crystal lens can control the refractive index distribution in the liquid crystal lens by controlling the voltage, thereby changing the lens power. In other words, the display
ここで、レンズパワーとは、光学素子が光線を集光または発散させる度合いを表し、レンズが光線の進行方向を曲げる屈折力を意味する。レンズパワーが強力な場合には、光線が大きく屈折するため、レンズの焦点距離は短くなる。
このように、表示設定調整手段170は、レンズパワーを変化させることで、最適視認距離ODを変更し、観察距離ZODに合わせた表示設定の調整処理を実施するように構成されている。
Here, the lens power represents the degree to which the optical element collects or diverges the light beam, and means the refractive power by which the lens bends the traveling direction of the light beam. When the lens power is strong, the light beam is greatly refracted, so that the focal length of the lens is shortened.
As described above, the display setting
この様子を、液晶レンズ120Aと表示パネル120Bを備えた立体表示パネル手段120を例示する図29及び図30に基づいて説明する。 This state will be described with reference to FIGS. 29 and 30 exemplifying the stereoscopic display panel means 120 including the liquid crystal lens 120A and the display panel 120B.
これら各図に示す例では、液晶レンズ120Aの上面に制御電極E1〜E4が設置され、下面に共通電極E0が設置されている。 In the examples shown in these drawings, the control electrodes E 1 to E 4 are installed on the upper surface of the liquid crystal lens 120A, and the common electrode E 0 is installed on the lower surface.
ここで、上面の制御電極E1〜E4と下面の共通電極E0とは、上下面を反対に入れ換えるようにしてもよい。すなわち、液晶レンズ120Aの上面に共通電極E0を設置し、下面に制御電極E1〜E4を設置するという構成を採ってもよい。
Here, the control electrodes E 1 to E 4 on the upper surface and the common electrode E 0 on the lower surface may be interchanged in the upper and lower surfaces. That is, set up a common electrode E 0 to the upper surface of the liquid crystal lens 120A, may be adopted a configuration that placing the
制御電極は、図29及び図30に示す通り、4種類の電極(E1,E2,E3,E4)から構成されており、それぞれの電極(E1〜E4)に対して異なる電圧を印加することができるように構成されている。液晶レンズは、印加電圧値に応じて屈折率が変化するため、表示設定調整手段170が、制御電極E1〜E4への印加電圧値を制御し、液晶レンズの屈折率の分布を制御することで、レンズパワーの変更処理を実現する。
The control electrode is composed of four types of electrodes (E 1 , E 2 , E 3 , E 4 ) as shown in FIGS. 29 and 30, and is different for each of the electrodes (E 1 to E 4 ). It is comprised so that a voltage can be applied. Since the refractive index of the liquid crystal lens changes according to the applied voltage value, the display setting
図29と図30とでは、制御電極への電圧印加条件が異なっており、図29に比べて図30の方が制御電極に印加される電圧値が高くなっている。また、これら各図それぞれの下の図は、立体表示パネル120の断面構造を示し、同じく各図それぞれの上の図は、液晶レンズ120AのX軸方向における屈折率分布を示す。
In FIG. 29 and FIG. 30, the voltage application conditions to the control electrode are different, and the voltage value applied to the control electrode is higher in FIG. 30 than in FIG. Also, the lower figure of each of these figures shows the cross-sectional structure of the
まず図29では、電圧V1が電圧V2よりも高い条件(電圧V1>電圧V2)、すなわち、制御電極E1と制御電極E4に対して電圧V1を,制御電極E2と制御電極E3に対して電圧V2をそれぞれ印加した場合の立体表示パネル手段120における光線の様子(下方の図)と、X軸方向の屈折率分布(上の図)とを示している。 First, in FIG. 29, a high condition even the voltages V 1 than the voltage V 2 (voltages V 1> Voltage V 2), i.e., the voltages V 1 to the control electrode E 1 and the control electrode E 4, a control electrode E 2 The state of light rays in the stereoscopic display panel means 120 when the voltage V 2 is applied to the control electrode E 3 (lower diagram) and the refractive index distribution in the X-axis direction (upper diagram) are shown.
レンズ頂点部(上の図の位置X2)に相当する最大屈折率と、レンズ谷部(上の図の位置X1,X3)に相当する最小屈折率との差異が、レンズパワーに相当し、この図29ではΔn1の値となる。
また、単位レンズとは、レンズ谷部に相当する位置から次のレンズ谷部に相当する位置まで(例えば位置X1から位置X3まで)のレンズ部分を表す。
The difference between the maximum refractive index corresponding to the lens apex (position X 2 in the above diagram) and the minimum refractive index corresponding to the lens valley (positions X 1 and X 3 in the above diagram) corresponds to the lens power. In FIG. 29, the value is Δn 1 .
Also, the unit lenses, representing the position corresponding to the lens valley to a position corresponding to the next lens valley lens portion (e.g., from position X 1 to position X 3).
次に、図30では、制御電極E1及び制御電極E4に対して電圧V1(図29)よりも高い電圧V3を,制御電極E2と制御電極E3に対して電圧V2をそれぞれ印加した場合の立体表示パネル手段120における光線の様子(下方の図)と、X軸方向の屈折率分布(上の図)とを示している。 Next, in FIG. 30, the voltages V 1 higher voltage V 3 than (Fig. 29) to the control electrode E 1 and the control electrode E 4, the voltage V 2 to the control electrode E 2 and the control electrode E 3 The state of light rays in the stereoscopic display panel means 120 when applied respectively (lower diagram) and the refractive index distribution in the X-axis direction (upper diagram) are shown.
かかる条件下での最大屈折率と最小屈折率との差異であるレンズパワーは、図29で示したΔn1よりも大きいΔn2の値を有している。
このように電圧の制御によってレンズパワーを大きくさせ、下の断面図に示すように光線20を大きく屈折させることにより、最適視認距離ODを短くすることが可能となる。
The lens power, which is the difference between the maximum refractive index and the minimum refractive index under such conditions, has a value of Δn2 that is larger than Δn1 shown in FIG.
As described above, the lens power is increased by controlling the voltage and the
液晶レンズの電圧制御に対応した光学モデルの一例を図31に示す。
図31(A)は、立体表示パネル手段120の最適視認距離ODがOD1となる場合の光学モデルを表す。また、図31(B)は、図30で説明したような液晶レンズの電圧制御によってレンズパワーを上昇させ、最適視認距離をOD1からOD2へ縮小させた場合の光学モデルを表す。ただし、電圧制御による液晶レンズのレンズパワーの調整範囲は有限であるために、最適視認距離ODの調整範囲も有限の値をとる。
An example of an optical model corresponding to the voltage control of the liquid crystal lens is shown in FIG.
FIG. 31 (A) represents the optical model when the optimum viewing distance OD of the stereoscopic
次いで、図32に、最適視認距離ODの調整範囲の一例を示す。
この図32において、最適視認距離(ODMIN)は、電圧制御によって液晶レンズのレンズパワーを最大限まで上昇させ、最適視認距離ODを最短にした際の距離を表す。また、最適視認距離(ODMAX)は、電圧制御によってレンズパワーを低下させ、最適視認距離ODを最長にした際の距離を表す。
Next, FIG. 32 shows an example of the adjustment range of the optimum viewing distance OD.
In FIG. 32, the optimum viewing distance (OD MIN ) represents the distance when the lens power of the liquid crystal lens is increased to the maximum by voltage control and the optimum viewing distance OD is minimized. The optimum viewing distance (OD MAX ) represents the distance when the lens power is reduced by voltage control and the optimum viewing distance OD is maximized.
したがって、最適視認距離ODの調整範囲は、図32に示す通り、最短の最適視認距離(ODMIN)から最長の最適視認距離(ODMAX)までの範囲となる。 Therefore, the adjustment range of the optimum viewing distance OD is a range from the shortest optimum viewing distance (OD MIN ) to the longest optimum viewing distance (OD MAX ), as shown in FIG.
表示設定調整手段170による表示設定の調整処理では、観察距離算出手段140にて算出した観察距離ZODと、最適視認距離ODとが一致するように、電圧制御によって液晶レンズのレンズパワーを変更する。
In the display setting adjustment process by the display setting
ここで、立体表示パネル手段120に使用する液晶レンズとしては、予め座席背面部の傾斜に伴う観察距離ZODの変動範囲を算出し、その変動範囲内で観察距離ZODが変化しても、立体表示パネル手段120の最適視認距離ODが調整可能であるレンズパワーを有する液晶レンズを選定することが望ましい。
Here, the liquid crystal lens used for stereoscopic
このように、液晶レンズの屈折率分布を制御することによって、光線の屈折を調整することができ、最適視認距離を調節することができる。そして、光線の屈折の調節と最適視認距離の調節とにより、立体視域範囲を調節することが可能となる。 Thus, by controlling the refractive index distribution of the liquid crystal lens, the refraction of the light beam can be adjusted, and the optimum viewing distance can be adjusted. Then, the stereoscopic viewing range can be adjusted by adjusting the refraction of the light beam and adjusting the optimum viewing distance.
上記の一例では、立体表示パネル手段120の光学分離手段に液晶レンズを用いて最適視認距離ODを変更する例を示したが、液晶レンズの代わりに、バリアピッチが可変なパララックスバリアを用いて光学分離特性を動的に変更する、という構成を採ってもよい。
例えば、パララックバリアに画素ピッチよりも十分小さなバリアピッチのバリア(遮光板)を設け、光線を遮光するバリアの位置を選択し、図5に示したスリット6aの位置を変更することで、最適視認距離ODを変更する。
In the above example, an example in which the optimal viewing distance OD is changed by using a liquid crystal lens as the optical separation means of the stereoscopic display panel means 120 is shown, but instead of the liquid crystal lens, a parallax barrier with a variable barrier pitch is used. A configuration in which the optical separation characteristic is dynamically changed may be adopted.
For example, a parallax barrier is provided with a barrier (light-shielding plate) having a barrier pitch sufficiently smaller than the pixel pitch, the position of the barrier that blocks light is selected, and the position of the slit 6a shown in FIG. Change the viewing distance OD.
以上、光学分離特性が動的に変更可能な液晶レンズやパララックバリア等を用いた表示設定の調整処理では、立体表示パネル手段120の光学分離特性を変更し、最適視認距離ODを変更することで、観察距離ZODに合わせて立体画像の表示設定を調整した。
As described above, in the display setting adjustment process using a liquid crystal lens or a parallax barrier whose optical separation characteristics can be dynamically changed, the optical separation characteristics of the stereoscopic
次に、立体表示パネル手段120の光学分離手段の光学分離特性が静的で変更不可能である場合には、表示設定調整手段170によって立体表示パネル手段120に表示する画像データ(L画像とR画像)の視差値PAを変更することで、観察距離ZODに合わせて表示設定を調整するという構成を採る。 Next, when the optical separation characteristic of the optical separation means of the stereoscopic display panel means 120 is static and cannot be changed, the image data (L image and R) displayed on the stereoscopic display panel means 120 by the display setting adjustment means 170. by changing the disparity value PA of the image), it employs a configuration of adjusting the display settings in accordance with the viewing distance Z OD.
光学分離特性が静的で変更不可能なスタティック素子を使用した光学分離手段としては、レンズパワーが変更不可能なレンチキュラレンズやバリアピッチが不変なパララックスバリアなどが挙げられる。 Examples of the optical separation means using a static element whose optical separation characteristics are static and cannot be changed include a lenticular lens whose lens power cannot be changed and a parallax barrier whose barrier pitch is not changed.
表示設定調整手段170による具体的な視差値PAの変更処理は、観察距離算出手段140で算出した観察距離ZODと、デバイス特性データ保管手段160に保管された3Dクロストーク特性データを参照して、立体画像が表示可能である視差の限界値(視差許容値PAth)を算出し、画像データの視差値PAが視差許容値PAth以下となるように変更するという内容である。
The specific parallax value PA changing process by the display
ここで、観察距離ZODに対応した視差許容値PAthの変化の一例を図33に示す。
観察距離ZODが最適視認距離ODの付近であれば視差許容値PAthの値は増大し、反対に観察距離ZODが最適視認距離ODから離れれば視差許容値PAthの値は減少する。したがって、この視差許容値PAthの変化に合わせて立体表示パネル手段120に送信する画像データの視差値PAを変化させるように構成する。
Here, an example of a change in the parallax allowable value PA th corresponding to the observation distance Z OD is shown in FIG.
If the observation distance Z OD is near the optimum visual recognition distance OD, the value of the parallax allowable value PA th increases. Conversely, if the observation distance Z OD is away from the optimal visual recognition distance OD, the value of the parallax allowable value PA th decreases. Therefore, the parallax value PA of the image data transmitted to the stereoscopic
具体的には、まず初めに視差許容値PAthと画像データの視差最大値PAmaxとを比較し、視差許容値PAthよりも画像データの視差最大値PAmaxの方が大きい場合には、視差調整値PACを下記式(5)により算出する。 Specifically, first compares the parallax maximum value PA max of the parallax allowable value PA th image data, when the larger parallax maximum value PA max of the image data than the parallax allowable value PA th is a parallax adjustment value PA C is calculated by the following equation (5).
次に、算出した視差調整値PACを画像データの視差値PAに乗算することで、画像データの視差最大値PAmaxが視差許容値PAth以下となるように画像データの視差値PAを変更する。 Then, the calculated parallax adjustment value PA C by multiplying the disparity value PA of the image data, the disparity maximum value PA max of the image data is changed disparity value PA of the image data to be equal to or less than the parallax allowable value PA th To do.
これより、観察距離ZODが最適視認距離ODから乖離するほど、立体表示パネル手段120には視差値PAが減少した画像データが表示される、といったように、観察距離ZODの変化に合わせて算出した視差調整値PACを用いて、表示する立体画像データの視差値PAを調節することできる。 Accordingly, as the observation distance Z OD deviates from the optimum viewing distance OD, the stereoscopic display panel means 120 displays image data with a reduced parallax value PA, so that the observation distance Z OD changes. using the calculated parallax adjustment value PA C, it may be to adjust the disparity value PA of the stereoscopic image data to be displayed.
なお、3Dクロストーク特性データと観察位置を参照して、画像データの視差値PAを変更する表示設定調整処理の詳細については、上記特許文献7に技術開示されている。
The details of the display setting adjustment processing for changing the parallax value PA of the image data with reference to the 3D crosstalk characteristic data and the observation position are disclosed in the above-mentioned
ここで、図28の分類表に示した通り、画像データの視差値PAを変更する表示設定の調整処理は、光学分離特性が動的に変更可能な光学分離手段(液晶レンズ等)を用いた場合にも適用可能である。 Here, as shown in the classification table of FIG. 28, the display setting adjustment process for changing the parallax value PA of the image data uses an optical separation means (liquid crystal lens or the like) whose optical separation characteristics can be dynamically changed. It is also applicable to cases.
このように、観察位置に合わせて立体画像データの視差値を変更することで、3Dクロストークや逆視の影響を軽減し、観察者への違和感を低減することができる。 In this way, by changing the parallax value of the stereoscopic image data in accordance with the observation position, it is possible to reduce the influence of 3D crosstalk and reverse viewing, and to reduce discomfort to the observer.
続いて、3Dモアレが発生する状況について、図34及び図35を参照して説明する。 Next, a situation where 3D moire occurs will be described with reference to FIGS. 34 and 35. FIG.
まず、立体表示パネル手段120の輝度-視野角特性データの一例を図34に示す。
この輝度-視野角特性データにおいて、横軸は視野角θPを、縦軸は立体表示パネル手段120の表示面上の輝度値Yを表す。
First, an example of luminance-viewing angle characteristic data of the stereoscopic
The brightness - in the viewing angle characteristic data, the horizontal axis represents the viewing angle theta P, the vertical axis represents luminance value Y on the display surface of the stereoscopic
この図34でのY(LWRB)とY(LBRW)の輝度分布は、立体表示パネル手段120の正面位置となる視野角θP3付近において、点(X1,Y1)で交わる。また、これらは、視野角θP6付近において点(XR2,YR2)で交わり、視野角θP0付近において点(XL2,YL2)で交わる。点(X1,Y1)と点(XR2,YR2)とのθ方向における間隔は、右眼用画像の投影幅である幅PR’に対応し、点(X1,Y1)と点(XL2,YL2)とのθP方向における間隔は、左眼用画像の投影幅である幅PL’に対応する。 The luminance distributions of Y (LWRB) and Y (LBRW) in FIG. 34 intersect at a point (X1, Y1) in the vicinity of the viewing angle θ P3 that is the front position of the stereoscopic display panel means 120. They also meet at a point (XR2, YR2) in the vicinity of viewing angle theta P6, intersect at a point (XL2, YL2) in the vicinity of viewing angle theta P0. The spacing in the θ direction of the point and (X1, Y1) and a point (XR2, YR2), corresponds to the width P R 'is a projected width of the right-eye image, a point (X1, Y1) and a point (XL2, YL2 ) spacing in the theta P direction and corresponds to the width P L 'is the projection width of the left-eye image.
ここでは、点(X0,Y0)付近で輝度の低下が見られるが、この輝度低下が3Dモアレと呼ばれる。左眼がθP1〜θP2、右眼がθP4〜θP5の範囲に位置している場合は、3Dモアレを視認することは困難であるが、左右眼の一方もしくは両方がそれ以外の範囲(θP2〜θP3〜θP4の範囲など)に存在する場合には、3Dモアレが視認される。 Here, although a decrease in luminance is observed near the point (X0, Y0), this luminance decrease is called 3D moire. When the left eye is in the range of θ P1 to θ P2 and the right eye is in the range of θ P4 to θ P5 , it is difficult to visually recognize the 3D moire, but one or both of the left and right eyes are in the other range. when present in (theta such as in the range of P2 ~θ P3 ~θ P4) is, 3D moire is visible.
この3Dモアレは、観察者が3Dクロストーク領域内に移動した場合に視認されやすく、3Dモアレの影響は、観察者と立体画像表示装置11との奥行き方向の距離を表す観察距離に依存する。3Dモアレによる輝度ムラの出現位置は、図34に示した輝度-視野角特性データから算出することができる。
This 3D moire is easily visible when the observer moves into the 3D crosstalk region, and the influence of the 3D moire depends on the observation distance representing the distance in the depth direction between the observer and the stereoscopic
ここで、輝度-視野角特性データから算出した立体表示パネル手段120の表示面上の輝度変動値を図35に示す。また、図35(A:A‐1,A‐2,A‐3)には、立体画像が正常に視認可能な状況を示し、図35(B:B‐1,B‐2,B‐3)には、3Dモアレによる輝度ムラの出現により立体画像を正常に視認できない状況を示す。 Here, the luminance fluctuation value on the display surface of the stereoscopic display panel means 120 calculated from the luminance-viewing angle characteristic data is shown in FIG. FIG. 35 (A: A-1, A-2, A-3) shows a situation in which a stereoscopic image is normally visible, and FIG. 35 (B: B-1, B-2, B-3). ) Shows a situation where a stereoscopic image cannot be normally visually recognized due to the appearance of luminance unevenness due to 3D moire.
図35(A‐1)は、観察距離ZODが最適視認距離ODと一致する場合における観察者(O)の観察位置と立体表示パネル手段120の正視領域との位置関係を示す。図32(B−1)は座席背面部の傾斜により観察距離ZODが変化してZOD’となり、最短視認距離NDよりも短くなって、3Dモアレによる輝度ムラが出現した場合における観察者(O)の観察位置と立体表示パネル手段120の正視領域との位置関係を示す。 FIG. 35 (A-1) shows the positional relationship between the observation position of the observer (O) and the normal viewing area of the stereoscopic display panel means 120 when the observation distance Z OD matches the optimal viewing distance OD. FIG. 32 (B-1) shows an observer when the unevenness of brightness due to 3D moire appears when the observation distance Z OD changes due to the inclination of the seat back portion to become Z OD ′, becomes shorter than the shortest viewing distance ND. The positional relationship between the observation position of O) and the normal viewing area of the stereoscopic display panel means 120 is shown.
図35(A‐2)及び図35(B−2)は、立体表示パネル手段120の表示面上の特定のY位置における水平方向(X軸方向)の位置に対応する輝度変動値を示す。これら各図では、縦軸が表示面上の輝度値を表し、横軸が立体表示パネル手段120の表示面のX軸方向の位置を表す。図35(A−2)では、X軸方向に対して輝度値が変動しないのに対し、図35(B−2)では、X軸方向に対して輝度値が変動する。 35A-2 and FIG. 35B-2 show luminance fluctuation values corresponding to positions in the horizontal direction (X-axis direction) at specific Y positions on the display surface of the stereoscopic display panel means 120. FIG. In each of these drawings, the vertical axis represents the luminance value on the display surface, and the horizontal axis represents the position of the display surface of the stereoscopic display panel means 120 in the X-axis direction. In FIG. 35A-2, the luminance value does not vary with respect to the X-axis direction, whereas in FIG. 35B-2, the luminance value varies with respect to the X-axis direction.
図35(A−3)及び図35(B−3)は、白色画像を表示した場合における立体表示パネル手段120の表示面上の画像表示状態を表す。図35(A−3)の立体表示パネル手段120の表示面には、輝度ムラの無い立体画像が表示される。一方、図35(B−3)では、輝度値が低下するX軸位置において、立体表示パネル手段120の表示面に直線状の輝度ムラが出現した立体画像が表示される。
FIGS. 35A-3 and 35B-3 show the image display state on the display surface of the stereoscopic
観察距離ZODが最適視認距離ODから乖離することで出現する3Dモアレの対策としては、3Dクロストークの対策と同様に、立体画像表示装置11の表示設定を調整する構成を採ることが考えられる。
この表示設定の調整処理では、立体表示パネル手段120の光学分離手段の光学分離特性が動的に変更可能である場合と、光学分離特性が静的で変更不可能な場合とで、異なる表示設定の調整処理を実施する。
As a countermeasure against 3D moire that appears when the observation distance Z OD deviates from the optimum viewing distance OD, it is conceivable to adopt a configuration in which the display setting of the stereoscopic
In this display setting adjustment process, different display settings are used depending on whether the optical separation characteristic of the optical separation means of the stereoscopic display panel means 120 can be changed dynamically or when the optical separation characteristic is static and cannot be changed. Perform the adjustment process.
ここで、図36に、光線分離特性の変更が可能又は不可能な場合において採用できる調整方法の分類表(分類表II)を示す。 Here, FIG. 36 shows a classification table (classification table II) of adjustment methods that can be adopted when the change of the light separation characteristics is possible or impossible.
光学分離特性が動的に変更可能な場合には、上述した3Dクロストークの対策と同様に、光学分離特性を変更し、最適視認距離ODを変更することで、観察距離ZODに合わせた表示設定の調整処理を実施する。
光学分離手段に液晶レンズを使用した場合には、レンズパワーを完全にOFFにして、平面画像を表示することで、3Dモアレの対策を行うようにしてもよい。
When the optical separation characteristics can be dynamically changed, the display is adjusted to the observation distance Z OD by changing the optical separation characteristics and changing the optimum viewing distance OD in the same manner as the 3D crosstalk countermeasure described above. Perform setting adjustment processing.
When a liquid crystal lens is used as the optical separating means, the 3D moire countermeasure may be taken by completely turning off the lens power and displaying a planar image.
また、光学分離特性が静的で変更不可能な場合には、立体表示パネル手段120に表示する画像データの輝度値を変更することで、観察距離ZODに合わせて表示設定を調整する。この輝度値の変更処理では、輝度-視野角特性データを参照して、立体表示パネル手段120の表示面上に出現する3Dモアレの輝度変動値を算出するという構成を採る。3Dモアレの輝度変動値の算出は、観察距離ZOD(Z軸方向)だけでなく、X軸方向の位置も含む観察位置を考慮した方がより好適である。
If the optical separation characteristic is static and cannot be changed, the display setting is adjusted according to the observation distance Z OD by changing the luminance value of the image data displayed on the stereoscopic
ただし、本第1実施形態では、観察距離ZODを計測しているため、X軸方向の位置は常に一定であると仮定し、輝度-視野角特性データと観察距離ZODのみから3Dモアレによる輝度変動値を算出するように構成されている。そして、3Dモアレによる輝度変動値が平坦となるように画像データの輝度値を調整することで、3Dモアレの影響を軽減することができる。
However, in the first embodiment, the viewing distance because it measures the Z OD, the position of the X-axis direction is always assumed to be constant, the luminance - the viewing angle characteristic data and
なお、輝度-視野角特性データと観察位置を参照して、画像データの輝度値を変更する表示設定調整処理の詳細については、特許文献7に技術開示されている。
The details of the display setting adjustment processing for changing the luminance value of the image data with reference to the luminance-viewing angle characteristic data and the observation position are disclosed in
このように、観察位置に合わせて立体画像データの輝度値を変更することで、3Dモアレの影響を軽減し、観察者への違和感を低減することができる。 In this way, by changing the luminance value of the stereoscopic image data in accordance with the observation position, it is possible to reduce the influence of 3D moire and to reduce discomfort to the observer.
また、図36(分類表II)に示したように、画像データの輝度値を変更する表示設定の調整処理は、光学分離特性が動的に変更可能な光学分離手段(液晶レンズ等)を用いた場合においても適用可能である。 As shown in FIG. 36 (Classification Table II), the display setting adjustment process for changing the luminance value of the image data uses an optical separation means (liquid crystal lens or the like) whose optical separation characteristics can be dynamically changed. It can be applied even if
(動作説明)
次に、立体画像表示装置11における画像処理動作の内容(立体画像処理方法)を、図37に示すフローチャートに基づいて説明する。
(Description of operation)
Next, the contents of the image processing operation (stereoscopic image processing method) in the stereoscopic
観察者の操作等により、立体画像表示にかかる指令信号を入力した立体画像表示装置11は、まず移動物体状態検出手段110によって、観察者の座席状態と、その前座席の座席状態とを検出する。ここでの各座席状態とは、座席背面部の傾斜角度のことである。(図37:ステップS101)。
The stereoscopic
次いで、観察距離算出手段140によって、観察者の位置と立体画像表示装置11との奥行き方向の距離を表す観察距離(観察者と立体画像表示装置11との相対距離)を算出する。より具体的には、移動物体状態検出手段110にて検出した観察者の座席背面部の傾斜角度(座席状態)及びその前の座席背面部の傾斜角度(座席状態)を参照すると共に観察距離算出手段140が、自身に登録された座席基準情報(座席の設置間隔の距離情報,設置位置情報)を用いて観察距離を算出する。(図37:ステップS102)。
Next, the observation
次に、表示設定調整手段170によって、デバイス特性データ保管手段160から3Dクロストーク特性データ又は輝度-視野角特性データをデバイス特性データとして取得する。
上述の通り、3Dクロストーク特性データの一例は図20に、輝度-視野角特性データの一例は図34にそれぞれ示す(図37:ステップS103)。
Next, the display setting
As described above, an example of 3D crosstalk characteristic data is shown in FIG. 20, and an example of luminance-viewing angle characteristic data is shown in FIG. 34 (FIG. 37: step S103).
併せて、画像データ保管手段150から、表示設定調整手段170によって立体画像コンテンツである画像データを取得する(図37:ステップS104)。
At the same time, the display setting
そして、立体画像表示装置11は表示設定調整手段170により、観察距離算出手段140にて算出した観察距離(上記ステップS102)と、デバイス特性データ保管手段160から取得したデバイス特性データ(上記ステップS103)とを参照して、観察距離に合わせた表示設定の調整処理を実施する(図37:ステップS105)。
The stereoscopic
表示設定の調整処理としては、観察距離と最適視認距離が一致するように立体表示パネル手段120の光学分離手段を制御する方法や、画像データ保管手段150から取得した画像データ(上記ステップS104)の視差値及び輝度値を、観察距離とデバイス特性データに合わせて変更する方法等を採用することができる。
As the display setting adjustment processing, a method of controlling the optical separation unit of the stereoscopic
続いて、上記ステップS105で調整した表示設定に従って表示設定調整手段170により、画像データ保管手段150から取得した画像データ(上記ステップS104)を立体表示パネル手段120の画像表示パネルに表示する。すなわち、表示設定の調整処理を終えた立体画像を表示して観察者に提供する(図37:ステップS106)。
Subsequently, the image data acquired from the image data storage unit 150 (step S104) is displayed on the image display panel of the stereoscopic
次に、立体画像表示処理を中止するか、連続的に実行するかを設定する(図37:ステップS107)。
例えば、立体画像表示装置11の電源がOFFされたときや、観察者によって立体画像表示の中断が指示されたときには、立体画像表示処理を中止する(図37:ステップS107/Yes)。
一方で、立体画像表示処理を中止するイベントが無ければ、立体画像表示処理を連続的に実行するために上記ステップS101の処理へ戻り、上述した一連の処理内容(ステップS101〜S107)を繰り返し実行する。
Next, it is set whether the stereoscopic image display process is to be stopped or continuously executed (FIG. 37: step S107).
For example, when the power of the stereoscopic
On the other hand, if there is no event for stopping the stereoscopic image display process, the process returns to step S101 to continuously execute the stereoscopic image display process, and the above-described series of processing contents (steps S101 to S107) are repeatedly executed. To do.
以上のフローチャート処理により、座席の背もたれ部が傾斜し、立体画像表示装置11の表示位置が移動しても、座席背面部の傾斜角度を検出し、座席背面部に設置した立体画像表示装置11と観察者との相対距離(観察距離)を算出することができるため、安価な計測装置だけで3Dクロストークによる2重像や逆視,3Dモアレの影響を軽減して観察者へ違和感を与えない立体画像表示装置の提供が可能となる。
With the above flowchart processing, even if the back portion of the seat is inclined and the display position of the stereoscopic
また、本第1実施形態の立体表示パネル手段120の光学モデル(図21,図22)では、立体表示パネル手段120から2つの異なる視点画像(L画像及びR画像)を投影する例を示したが、本第1実施形態における立体画像表示装置11は、視点数が2つである構成に限定されるものではなく、多視点画像を投影する立体表示パネル手段120にも適用可能である。
In the optical model (FIGS. 21 and 22) of the stereoscopic
ここで、上記各ステップS101〜S107(図37)における各工程の実行内容をプログラム化すると共に、この一連の各制御プログラムを立体画像表示装置11内に予め設けられたコンピュータによって実現するように構成してもよい。
Here, the execution contents of each step in the above steps S101 to S107 (FIG. 37) are programmed, and this series of each control program is realized by a computer provided in advance in the stereoscopic
(第1実施形態の効果)
本第1実施形態では、移動物体としての座席の位置状態(背もたれ部の傾斜状態及び前後の位置)にかかる状態情報を検出すると共に、この状態情報に基づいて算出した観察距離を用いて立体画像の表示設定を調整するという構成を採ったため、これにより、3Dクロストークによる2重像や逆視,3Dモアレの影響を安価な構成によって有効に軽減することができ、観察者に違和感を与えない有意な立体画像の表示が可能となる。
(Effect of 1st Embodiment)
In the first embodiment, the state information relating to the position state of the seat as the moving object (the tilted state of the backrest portion and the front and back positions) is detected, and a stereoscopic image is obtained using the observation distance calculated based on the state information. Therefore, it is possible to effectively reduce the effects of double image, reverse viewing, and 3D moire caused by 3D crosstalk with an inexpensive configuration, and the viewer does not feel uncomfortable. A significant stereoscopic image can be displayed.
〔第2実施形態〕
本発明における立体画像表示装置の第2実施形態を図38乃至図57に基づいて説明する。ここで、前述した第1実施形態と同等の構成部材については同一の符号を用いるものとし、本第2実施形態における立体画像表示装置についても共通の符号(12)を総称として用いるものとする。
[Second Embodiment]
A second embodiment of the stereoscopic image display apparatus according to the present invention will be described with reference to FIGS. Here, the same reference numerals are used for the same components as those in the first embodiment described above, and the same reference numeral (12) is also used as a generic name for the stereoscopic image display apparatus in the second embodiment.
(全体的構成)
本第2実施形態では、安価な画像入力装置(撮像装置)を用いることで、座席背面部に設置した立体画像表示装置の立体表示パネル手段120の表示面から観察者までの観察距離ZODだけでなく、立体表示パネル手段120の表示面の中心位置に対する観察者の観察位置の相対位置(X軸方向及びY軸方向の相対位置まで含む)を示す観察位置PODを算出し、その観察位置PODに合わせて立体画像表示装置の表示設定を調整するという構成を採った点に特徴がある。
(Overall configuration)
In the second embodiment, by using an inexpensive image input device (imaging device), only the observation distance Z OD from the display surface of the stereoscopic
本第2実施形態における立体画像表示装置12は、図38に示すように、移動物体状態検出手段110及び立体表示パネル手段120の他に、各種演算処理を実施する演算処理部132と、観察者を撮影してその画像データを記録する撮像手段280と、を有している。
As shown in FIG. 38, the stereoscopic image display device 12 according to the second embodiment includes an
また、演算処理部132は、画像データ保管手段150及びデバイス特性データ保管手段160を有すると共に、立体表示パネル手段120の表示面の中心位置に対する観察者の観察位置の相対位置を示す観察位置PODを算出する観察位置算出手段(相対位置算出手段)290と、この観察位置算出手段290にて算出した観察位置とデバイス特性データ保管手段160に保管されたデバイス特性データとに基づいて立体画像の表示設定を調整する表示設定調整手段270と、を有している。
The
以下に、立体画像表示装置12に含まれる各手段の機能を説明する。ここで、移動物体状態検出手段110,立体表示パネル手段120,画像データ保管手段150,及びデバイス特性データ保管手段160については、前述の第1実施形態にて同一の符号を付した各手段と同様の構成である。
Hereinafter, functions of each unit included in the stereoscopic image display device 12 will be described. Here, the moving object
撮像手段280は、観察者を撮影して、2次元平面上の撮像画像データとして記録する機能を有する。撮像手段280のハードウェア機器の一例としては、USBカメラやモバイル機器内の小型カメラモジュール等に代表される安価な撮像装置が挙げられる。
The
前述した第1実施形態では、観察者の両眼の高さが、接合部材の取り付け位置の高さと一致すると仮定して観察距離ZODを算出するという構成を採ったが、本第2実施形態では、撮像手段280を採用し、その撮像画像データを用いて観察位置算出手段290が、観察者の両眼の高さを検出すると共に、その高さ情報を使用して観察距離ZODを算出するという構成を採用した。また、観察位置算出手段290は、撮像手段280で撮影した撮影画像データと観察距離ZODとから、X軸方向及びY軸方向の相対位置を含む観察位置PODを算出するように構成されている。
In the first embodiment described above, the observation distance Z OD is calculated on the assumption that the height of both eyes of the observer coincides with the height of the attachment position of the joining member. Then, the
撮像手段280は、立体画像表示装置12の外観図を示す図39のように、立体画像表示装置12の前面上部に設置されており、立体画像表示装置12の前方にいる観察者を撮影する。
The
次いで、図40(A)及び図41(A)に、撮像手段280で観察者(O)を撮影した撮像画像データの一例を示す。
また、図40(B)は、図40(A)の撮影画像データを撮像した際の観察者(O)と座席の背もたれ部の状態を、図41(B)は、図41(A)の撮影画像データを撮影した際の観察者(O)と座席の背もたれ部の状態を示す。
Next, FIG. 40 (A) and FIG. 41 (A) show an example of captured image data obtained by photographing the observer (O) with the
40B shows the state of the back of the observer (O) and the seat when the captured image data of FIG. 40A is captured, and FIG. 41B shows the state of FIG. The state of the observer (O) and the backrest of the seat when the captured image data is captured is shown.
すなわち、図40は、観察者(O)の両眼の高さに対応する座席の背もたれ部の長さLSE1が、座席の背もたれ部全体の長さLSBの中心位置に相当する例であり、図41は、観察者(O)の両眼の高さに対応する座席の背もたれ部の長さLSE2が座席の背もたれ部全体の長さLSBの7割の位置に相当する例である。 That is, FIG. 40 is an example in which the length L SE1 of the seat back portion corresponding to the height of both eyes of the observer (O) corresponds to the center position of the length L SB of the entire seat back portion. FIG. 41 is an example in which the length L SE2 of the seat back corresponding to the height of both eyes of the observer (O) corresponds to 70% of the length L SB of the entire seat back. .
なお、図40(B)と図41(B)は、座席の傾斜角度θSが0°であり、座席の背もたれ部の前面と撮像手段280の撮像面とは平行な状態にある。撮像画像データの横軸方向を表すu軸は、立体画像表示装置12の表示座標系におけるX軸方向と一致し、撮像画像データの縦軸方向を表すv軸は、表示座標系におけるY軸方向と一致する。 In FIGS. 40B and 41B, the seat inclination angle θ S is 0 °, and the front surface of the seat back portion and the imaging surface of the imaging means 280 are in parallel. The u axis representing the horizontal axis direction of the captured image data matches the X axis direction in the display coordinate system of the stereoscopic image display device 12, and the v axis representing the vertical axis direction of the captured image data is the Y axis direction in the display coordinate system. Matches.
図40(A)と図41(A)の撮像画像データには、観察者(O)と座席の背もたれ部が撮影されている。この撮像画像データから観察者(O)の顔画像領域と、座席の背もたれ部の画像領域を検出し、座席の背もたれ部全体の長さLSBから観察者(O)の両眼の高さに対応する座席の背もたれ部の長さLSE(本第2実施形態では、座面部の下面から観察者(O)の両眼までの背もたれに沿った長さ)を検出する。この長さLSEは、図40(B)では長さLSE1となり、図41(B)では長さLSE2となる。 In the captured image data of FIGS. 40A and 41A, the observer (O) and the backrest portion of the seat are photographed. A face image area of the observer from the captured image data (O), detects an image area of the backrest of the seat, the height of the eyes of the observer (O) from the back portion total length L SB seat The length L SE of the corresponding seat back portion (the length along the back back from the lower surface of the seat surface portion to the eyes of the observer (O) in the second embodiment) is detected. This length L SE is the length L SE1 in FIG. 40B , and the length L SE2 in FIG. 41B .
撮像画像データから観察者の顔画像領域を検出する処理は、予め顔画像の特徴量(目や鼻,口,顎など)からテンプレートデータを生成しておき、撮像画像データと該テンプレートデータとをマッチングすることによって観察位置算出手段290が行う。 In the process of detecting the face image area of the observer from the captured image data, template data is generated in advance from the feature amount (eyes, nose, mouth, jaw, etc.) of the facial image, and the captured image data and the template data are used. The observation position calculation means 290 performs the matching.
この検出処理において観察位置算出手段290は、観察者(O)の両眼の画像位置(u軸位置及びv軸位置)も併せて検出する。また、テンプレートデータは、観察者(O)の顔画像からサポートベクターマシン(SVM)やベクトル量子化などの機械学習手法を利用して生成する。 In this detection process, the observation position calculation means 290 also detects the image positions (u-axis position and v-axis position) of both eyes of the observer (O). The template data is generated from the face image of the observer (O) using a machine learning method such as support vector machine (SVM) or vector quantization.
撮像画像データから座席の背もたれ部全体の画像領域を検出する処理についても同様に、観察位置算出手段290は、予め座席の背もたれ部の特徴量(背もたれ部の輪郭・色・模様情報など)からテンプレートデータを生成しておき、撮像画像データと該テンプレートデータとをマッチングすることによって行う。 Similarly, in the process of detecting the image area of the entire seat back portion from the captured image data, the observation position calculation means 290 uses the feature amount of the seat back portion (contour, color, pattern information, etc. of the back portion) in advance as a template. This is performed by generating data and matching the captured image data with the template data.
さらに観察位置算出手段290は、座席の背もたれ部全体の画像領域から座席の背もたれ部全体の画像領域の長さLISBを検出し、顔画像領域から観察者の眼の画像位置(v軸位置)を検出して、観察者の両眼の高さに対応する画像領域の長さLISE(図40(B)では長さLISE1となり、図41(B)では長さLISE2となる)を検出するように構成されている。 Further, the observation position calculation means 290 detects the length L ISB of the image area of the entire seat back from the image area of the entire seat back, and the image position (v-axis position) of the observer's eyes from the face image area. And the length L ISE of the image region corresponding to the height of both eyes of the observer (the length L ISE1 in FIG. 40B and the length L ISE2 in FIG. 41B ). Configured to detect.
そして、下記式(6)により観察位置算出手段290は、座席の背もたれ部全体の画像領域の長さLISBと、観察者の両眼の高さに対応する画像領域の長さLISEとの割合RSを算出する。 Then, the observation position calculation means 290 uses the following equation (6) to calculate the length L ISB of the image area of the entire seat back and the length L ISE of the image area corresponding to the height of both eyes of the observer. The ratio R S is calculated.
ここで、座席の背もたれ部全体の長さLSBは一定であるため、これを予め座席基準情報として登録しておくように構成することで、観察位置算出手段290は、観察者の両眼の高さに対応する座席の背もたれ部の長さLSEを、割合RSと座席の背もたれ部全体の長さLSBとから下記式(7)により算出することができる。
Here, since the length L SB of the entire seat back portion is constant, the observation
また、観察位置算出手段290は、上記により算出した観察者の両眼の高さに対応する座席の背もたれ部の長さLSEを使用して、座席背面部の傾斜に伴う観察距離ZODの変化量ZODCを算出するように構成されている。 For the viewing position calculating means 290 uses the length L SE of the back portion of the seat corresponding to the height of the eyes of the observer calculated by the above, the viewing distance Z OD with the inclination of the seat back portion The change amount Z ODC is configured to be calculated.
ここで、観察距離の変化量ZODCが観察者の両眼の高さに依存する一例を図42に示す。
図42(A)では、観察者(O)の両眼の高さに対応する座席の背もたれ部の長さ(座面部の下面から観察者(O)の両眼までの背もたれに沿った長さ)が図40と同様にLSE1となり、図42(B)では、観察者(O)の両眼の高さに対応する座席の背もたれ部の長さが図41と同様にLSE2となる例である。
Here, FIG. 42 shows an example in which the change amount Z ODC of the observation distance depends on the height of both eyes of the observer.
42A, the length of the seat back portion corresponding to the height of both eyes of the observer (O) (the length along the back from the lower surface of the seat surface portion to both eyes of the observer (O)). ) Becomes L SE1 as in FIG. 40, and in FIG. 42B , the length of the seat back corresponding to the height of both eyes of the observer (O) becomes L SE2 as in FIG. It is.
座席背面部の傾斜によって、傾斜角度θSが0°からθS2へ変更された場合における観察距離の変化量ZODCは、下記式(8)に示す値(図42(A)の場合はLSE1sinθS2,42(B)の場合はLSE2sinθS2)となる。 The observation distance change amount Z ODC when the inclination angle θ S is changed from 0 ° to θ S2 due to the inclination of the back surface of the seat is a value shown in the following equation (8) (L in the case of FIG. 42A). In the case of SE1 sinθ S2 , 42 (B), L SE2 sinθ S2 ).
ここで、観察者の両眼の高さに対応する座席の背もたれ部の長さLSEは、図42(A)と図42(B)とで異なる値をとる。 Here, the length L SE of the back portion of the seat corresponding to the height of the eyes of the observer, take different values de 42 (A) and FIG. 42 (B).
より具体的には、図42(A)における観察者(O)の両眼の高さに対応する座席の背もたれ部の長さLSE1は、座席の背もたれ部全体の長さLSBの中心位置に当たるため、上記式(7)に割合RS(0.5)の値を代入して下記式(9)となる。また、図42(B)における観察者(O)の両眼の高さに対応する座席の背もたれ部の長さをLSE2は、座席の背もたれ部全体の長さLSBの7割の位置に当たるため、同様に下記式(10)となる。 More specifically, the length L SE1 of the seat back portion corresponding to the height of both eyes of the observer (O) in FIG. 42A is the center position of the length L SB of the entire seat back portion. Therefore, the following formula (9) is obtained by substituting the value of the ratio R S (0.5) into the above formula (7). Further, in FIG. 42B, the length of the seat back portion corresponding to the height of both eyes of the observer (O) is L SE2, which is 70% of the total length L SB of the seat back portion. Therefore, the following equation (10) is similarly obtained.
以上のように、観察位置算出手段290は、撮像手段280による撮影画像データを用いて、観察者の両眼の高さに対応する座席の背もたれ部の長さLSEを検出することにより、この長さLSEに依存する観察距離の変化量ZODCを算出することができる。
As described above, the observation position calculating means 290, by using the captured image data by the
次いで、図43の外観図に示すように、座席背面部61Bに設置した立体画像表示装置12は、座席背面部61Bにある接合部材61Aの回転機構によって、表示座標系のY軸-Z軸平面上を回転して移動するように構成されている。 Next, as shown in the external view of FIG. 43, the stereoscopic image display device 12 installed on the seat back surface portion 61B has a Y coordinate-Z axis plane of the display coordinate system by the rotation mechanism of the joining member 61A on the seat back surface portion 61B. It is configured to move by rotating on the top.
この回転機構により、座席背面部61Bの傾斜に伴って立体画像表示装置12の表示面が下向きに傾斜しても、後述する立体画像表示装置12の設置傾斜角度θSD(図45乃至図47参照)を変更することで、表示面の向きを調節することができる。 With this rotation mechanism, even if the display surface of the stereoscopic image display device 12 is inclined downward as the seat back surface portion 61B is inclined, the installation inclination angle θ SD of the stereoscopic image display device 12 described later (see FIGS. 45 to 47). ) Can be changed to adjust the orientation of the display surface.
ここで、設置傾斜角度θSDの調整は、観察者が手動で行うようにしてもよいし、座席背面部の傾斜角度に合わせて自動的に立体画像表示装置12の設置傾斜角度θSDを変更するという構成を採ってもよい。 Here, the adjustment of the installation angle of inclination theta SD is to the viewer may be performed manually, automatically changing the installation angle of inclination theta SD of the three-dimensional image display device 12 in accordance with the inclination angle of the seat back portion You may take the structure of doing.
また、図43では、撮像手段280を立体画像表示装置12の前面上部に設置した例を記載したが、図44に示すように、撮像手段280を立体画像表示装置12から分離させ、座席へ直に設置するようにしてもよい。ただし、かかる構成を採る場合は、立体画像表示装置12の前方にいる観察者を撮影可能な位置に撮像手段280を設置し、撮像手段280に対する立体画像表示装置12の相対位置が既知であることが前提となる。
In FIG. 43, an example in which the
図43に示すように、撮像手段280と立体画像表示装置12が一体化している場合には、接合部材の回転機構によって立体画像表示装置12の設置傾斜角度θSDが変更されても、撮像手段280に対する立体画像表示装置12の相対位置は常に一定に保たれる。
As shown in FIG. 43, when the
しかしながら、図44に示すように、撮像手段280を立体画像表示装置12と分離し、座席背面部へ直に設置した場合には、接合部材の回転機構によって立体画像表示装置12の設置傾斜角度θSDが変更されると、撮像手段280に対する立体画像表示装置12の相対位置が変化する。このため、接合部材の回転機構による立体画像表示装置12の設置傾斜角度θSDを検出し、撮像手段280と立体画像表示装置12との相対位置PSDを算出する必要が生じる。
However, as shown in FIG. 44, when the
そこで、座席背面部と立体画像表示装置12のそれぞれに傾斜センサ(110A,110C)を設置した例を示す図45及び図46を参照して、立体画像表示装置12の設置傾斜角度θSDを検出する例を説明する。 Therefore, the installation inclination angle θ SD of the stereoscopic image display device 12 is detected with reference to FIGS. 45 and 46 showing examples in which inclination sensors (110A, 110C) are installed on the seat back portion and the stereoscopic image display device 12, respectively. An example will be described.
座席背面部の表面方向と立体画像表示装置12の表示面方向が平行であるときの設置傾斜角度θSDの角度を0°とすると、立体画像表示装置12の設置傾斜角度θSDは、図45に示す通り、座席背面部に設置した傾斜センサ110Aで検出した座席背面部の傾斜角度θSと立体画像表示装置12に設置した傾斜センサ110Cで検出した立体画像表示装置12の傾斜角度θDとの加算値となる。
When the installation angle of inclination theta SD of angle when the display surface direction of the seat back portion surface direction and the stereoscopic image display apparatus 12 of a parallel to 0 °, the installation angle of inclination theta SD of the three-dimensional image display device 12, FIG. 45 As shown in FIG. 4, the inclination angle θ S of the back of the seat detected by the
すなわち、観察位置算出手段290は、各傾斜センサで検出した座席背面部の傾斜角度θSと立体画像表示装置12の傾斜角度θDとから、撮像手段280に対する立体画像表示装置12の相対位置PSDを算出する。
In other words, the observation
この相対位置PSDは、撮像手段280の撮像位置Tから接合部材の回転中心位置Qまでの相対位置PSQと、接合部材の回転中心位置Qから立体表示パネル手段120の表示面の中心位置Dまでの相対位置PQDとを加算したものとなる。 The relative position P SD includes a relative position P SQ from the imaging position T of the imaging means 280 to the rotation center position Q of the joining member, and a center position D of the display surface of the stereoscopic display panel means 120 from the rotation center position Q of the joining member. Up to the relative position PQD .
ここでは、図45及び図46に示すように、撮像手段280の撮像位置Tから接合部材の回転中心位置Qまでの距離は常に一定であり、この距離をLSQとおく。また、接合部材の回転中心位置Qから立体表示パネル手段120の表示面の中心位置Dまでの距離も常に一定であり、この距離をLQDとおく。 Here, as shown in FIGS. 45 and 46, the distance from the imaging position T of the imaging means 280 to the rotation center position Q of the joining member is always constant, and this distance is set to L SQ . The distance from the rotation center position Q of the joining member to the center position D of the display surface of the stereoscopic display panel means 120 is always constant, and this distance is set to L QD .
距離LSQと距離LQDは既知の値であるため、座席背面部の傾斜角度θSと立体画像表示装置12の傾斜角度θDとから、撮像手段280に対する立体画像表示装置12の相対位置PSDを、観察位置算出手段290は下記式(11)より算出するように構成されている。
Since the distance L SQ and the distance L QD are known values, the relative position P of the stereoscopic image display device 12 with respect to the
ここで、PSD(x)は相対位置PSDのX軸方向の位置を,PSD(y)は相対位置PSDのZ軸方向の位置を,PSD(z)は相対位置PSDのZ軸方向の位置をそれぞれ示す。
PSD(x)は、立体画像表示装置12の設置傾斜角度θSDに依存せず、常に一定となる。上記式(11)では、撮像手段280の撮影位置Tと立体表示パネル手段120の表示面の中心位置DとのX軸方向の位置が一致するものと仮定して、PSD(x)の値を0とした。
Here, P SD (x) is the position of the relative position P SD in the X-axis direction, P SD (y) is the position of the relative position P SD in the Z-axis direction, and P SD (z) is the relative position P SD . Each position in the Z-axis direction is shown.
P SD (x) does not depend on the installation inclination angle θ SD of the stereoscopic image display device 12 and is always constant. In the above equation (11), the value of P SD (x) is assumed on the assumption that the photographing position T of the imaging means 280 and the center position D of the display surface of the stereoscopic display panel means 120 coincide with each other in the X-axis direction. Was set to 0.
その他にも、かかる構成では、立体画像表示装置12の設置傾斜角度θSDの変化に伴い、撮像手段280のカメラのワールド座標系と、立体画像表示装置12の表示座標系との関係が変化する。
In addition, in such a configuration, the relationship between the world coordinate system of the camera of the
そこで図47に、撮像手段280のカメラのワールド座標系と立体画像表示装置12の表示座標系とを示し、座標系の変換処理にかかる構成を説明する。カメラのワールド座標系は、CX軸,CY軸,CZ軸による直交座標で表し、表示座標系は、X軸,Y軸,Z軸による直交座標で表す。また、撮像手段280のワールド座標系は、立体画像表示装置12の表示座標系のY軸-Z軸平面上を回転する。
Therefore, FIG. 47 shows the world coordinate system of the camera of the imaging means 280 and the display coordinate system of the stereoscopic image display device 12, and the configuration related to the coordinate system conversion processing will be described. The world coordinate system of the camera is represented by orthogonal coordinates by the C X axis, the CY axis, and the C Z axis, and the display coordinate system is represented by orthogonal coordinates by the X axis, the Y axis, and the Z axis. The world coordinate system of the
立体画像表示装置12の設置傾斜角度θSDより、Y軸-Z軸平面上での回転行列が求まることから、カメラのワールド座標系の任意位置(cX、cY、cZ)を表示座標系へと変換するには、下記式(12)を用いて算出すれば良い。 Since the rotation matrix on the Y-axis / Z-axis plane is obtained from the installation inclination angle θ SD of the stereoscopic image display device 12, the arbitrary position (c X , c Y , c Z ) of the world coordinate system of the camera is displayed. In order to convert to a system, the following equation (12) may be used for calculation.
ここで、(x, y, z)はカメラのワールド座標系の任意位置(cX、cY、cZ)を表示座標系に変換した後の位置を示す。 Here, (x, y, z) indicates a position after an arbitrary position (c X , c Y , c Z ) in the world coordinate system of the camera is converted into a display coordinate system.
以上の処理を実施することで、接合部材の回転機構によって立体画像表示装置12の設置傾斜角度θSDが変更され、撮像手段280に対する立体画像表示装置12の相対位置PSDが変化しても、変化後の相対位置PSDを算出し、撮像手段280で撮影したカメラのワールド座標系の位置を立体画像表示装置12の表示座標系の位置へ変換することができる。
By performing the above processing, even if the installation inclination angle θ SD of the stereoscopic image display device 12 is changed by the rotation mechanism of the joining member and the relative position P SD of the stereoscopic image display device 12 with respect to the
そして、観察位置算出手段290は、移動物体状態検出手段110で検出した座席背面部の傾斜角度θSと、撮像手段280で撮影した撮像画像データ内に映る観察者の顔画像領域とを参照して、観察位置PODを算出するように構成されている。
Then, the observation
ところで、観察距離ZODについては、前述の第1実施形態と同様に、移動物体状態検出手段110にて検出した観察者の座席背面部の傾斜角度θSOとその前の座席の傾斜角度θSPとを用いて観察位置算出手段290が算出するという構成を採っている。ただし、本第2実施形態では、観察者の両眼の高さに対応する座席の背もたれ部の長さLSEを使用するため、観察距離ZODの算出式は、上記式(2)ではなく、下記式(13)となる。
By the way, as for the observation distance Z OD , as in the first embodiment described above, the inclination angle θ SO of the back of the viewer's seat detected by the moving object
観察位置ZODの算出に関連する観察者の座席とその前の座席との位置関係を図48に示す。前述した通り、一般的な観察者の後頭部から両眼位置(眉間部)までの長さ(頭長)の平均値は約19cmであることから(人体計測データの報告資料)、第1実施形態と同様、座席の背もたれ部の前面位置から観察者の両眼位置までの距離ZOOを約19cmと仮定し、上記式(13)で算出した観察距離ZODから距離ZOOを減算した値(ZOD−ZOO)を図48のように観察距離として採用するようにしてもよい。 FIG. 48 shows the positional relationship between the observer's seat and the front seat related to the calculation of the observation position ZOD . As described above, since the average value of the length (head length) from the back of the head of a general observer to the binocular position (brow between the eyebrows) is about 19 cm (report data of anthropometric data), the first embodiment the same, the value assumed from the front position of the backrest portion of the seat a distance Z OO to binocular observer position approximately 19cm, by subtracting the distance Z OO from viewing distance Z OD calculated by the above formula (13) ( Z OD −Z OO ) may be adopted as the observation distance as shown in FIG.
次いで、観察位置PODを算出するために、観察位置算出手段290は、撮像手段280で撮影した撮像画像データからX軸方向の観察位置POD(X)とY軸方向の観察位置POD(Y)とを算出するように構成されている。
一例として、撮像手段280の撮像面と立体表示パネル手段120の表示面が平行である場合の撮影環境を図49に示す。撮像手段280は、3次元空間上にある物体を2次元平面上の撮像面に投影し、撮像画像データとして記録する機能を有している。
Then, in order to calculate the observation position P OD, observation position calculating means 290, the observation position of the X-axis direction from the captured image data captured by the imaging means 280 P OD (X) and Y-axis direction of the observation position P OD ( Y) is calculated.
As an example, FIG. 49 shows an imaging environment when the imaging surface of the
Y軸方向の任意位置Y1に物体を置き、撮像手段280から物体までの距離(Z軸方向)を観察距離ZOD1から観察距離ZOD2へ移動させた際に、撮像手段280で物体を撮影した撮像画像データを図50に示す。
Place the object in an arbitrary position Y 1 of the Y-axis direction, when moving the distance (Z-axis direction) from the
図50(A)は、観察距離ZOD1にある物体を撮影した際の撮像画像データを示し、図50(B)は、観察距離ZOD2にある物体を撮影した際の撮像画像データを示す。各図に示す通り、撮像画像データのu軸方向はX軸方向と一致し、v軸方向はY軸方向と一致する。 FIG. 50A shows captured image data when an object at the observation distance Z OD1 is photographed, and FIG. 50B shows captured image data when an object at the observation distance Z OD2 is photographed. As shown in each figure, the u-axis direction of the captured image data matches the X-axis direction, and the v-axis direction matches the Y-axis direction.
撮像手段280は、3次元空間上にある物体を2次元平面の撮像面へ投影するため、同じY軸方向の任意値Y1にある物体であっても、観察距離ZODの違いによって、撮像画像データ内に投影される物体のv軸位置が変化する。
Since the
3次元空間上の物体の位置(X1、Y1、Z1)は、撮像手段280の焦点距離fと観察距離ZODを用いて、観察位置算出手段290が下記式(14),式(15),式(16)により算出する。 The position (X 1 , Y 1 , Z 1 ) of the object in the three-dimensional space is determined by the observation position calculation means 290 using the focal length f and the observation distance Z OD of the image pickup means 280 by the following formulas (14) and ( 15) and calculation by equation (16).
ここで、u1は撮像画像データのu軸方向における物体の画像位置を示し、v1はv軸方向における物体の画像位置を示す。したがって、X軸方向の観察位置POD(X)とY軸方向の観察位置POD(Y)とは、下記式(17),式(18)により算出する。 Here, u 1 indicates the image position of the object in the u-axis direction of the captured image data, and v 1 indicates the image position of the object in the v-axis direction. Therefore, the observation position P OD (X) in the X-axis direction and the observation position P OD (Y) in the Y-axis direction are calculated by the following formulas (17) and (18).
これら各式において、uEはu軸方向における撮像画像データ内に撮影された観察者の両眼の画像位置を示し、vEはv軸方向における撮像画像データ内に撮影された観察者の両眼の画像位置を示す。また、各PSDは、上記式(11)で算出した撮像手段280に対する立体画像表示装置12の相対位置を示す。
In each of these equations, u E indicates the image position of the observer's eyes captured in the captured image data in the u-axis direction, and v E indicates both of the observer images captured in the captured image data in the v-axis direction. Indicates the image position of the eye. Each P SD indicates the relative position of the stereoscopic image display device 12 with respect to the
以上により、観察位置算出手段290は、移動物体状態検出手段110で検出した座席背面部の傾斜角度と、撮像手段280で撮影した撮像画像データから、観察位置PODを算出することができる。
As described above, the observation
表示設定調整手段270は、観察位置算出手段290で算出した観察位置と、デバイス特性データ保管手段160に保管されたデバイス特性データとを参照し、座席背面部の傾斜に伴って出現する3Dクロストークや逆視の影響を軽減して、立体表示パネル手段120の表示面上に良好な立体画像が表示できるように、立体画像表示装置12の表示設定を調整するように構成されている。
The display setting
前述した第1実施形態では、X軸方向における観察者の位置は常に一定であると仮定して、表示設定の調整処理を実施したが、本第2実施形態では、観察位置算出手段290にて算出した観察位置PODを参照して、X軸方向における観察者の移動にも対応して表示設定の調整処理を実施する。
In the first embodiment described above, the display setting adjustment process is performed on the assumption that the position of the observer in the X-axis direction is always constant. However, in the second embodiment, the observation
立体表示パネル手段120の光学分離手段の光学分離特性が動的に変更可能である場合には、光学分離特性を変更することで、観察位置PODに合わせた表示設定の調整処理を実施するという構成を採用できる。 When the optical separation characteristics of the optical separation means of the stereoscopic display panel means 120 can be changed dynamically, the display setting adjustment process is performed according to the observation position POD by changing the optical separation characteristics. Configuration can be adopted.
光学分離特性が動的に変更可能な光学分離手段として、液晶レンズを用いた場合には、液晶レンズのレンズパワーを局所的に変更することで、観察者が正常に立体画像を視認できる領域(正視領域)を観察位置PODに合わせて移動させるように構成する。 In the case where a liquid crystal lens is used as an optical separation means whose optical separation characteristics can be dynamically changed, an area where an observer can visually recognize a stereoscopic image normally by changing the lens power of the liquid crystal lens locally ( the combined stereoscopic viewing space) in the observation position P OD configured to move.
液晶レンズの電圧制御によって、液晶レンズのレンズパワーを局所的に変更し、正視領域の位置を変更した一例を図51に示す。
図51(A)は、立体表示パネル手段120の表示面の中央正面位置に正視領域が形成された光学モデルを表し、図51(B)は、立体表示パネル手段120の表示面の中央正面位置から右方向(X軸方向)へ移動した位置に正視領域が形成された光学モデルを表す。
FIG. 51 shows an example in which the lens power of the liquid crystal lens is locally changed by changing the voltage of the liquid crystal lens and the position of the normal viewing region is changed.
51A shows an optical model in which a normal viewing area is formed at the center front position of the display surface of the stereoscopic
前述の第1実施形態では、液晶レンズのレンズパワーを変更して立体表示パネル手段120の最適視認距離ODを変更したが、本第2実施形態では、液晶レンズのレンズパワーを局所的に変更することで、最適視認距離ODだけでなく、正視領域の位置をX軸方向へ移動させる、という構成を採っている。
In the first embodiment, the lens power of the liquid crystal lens is changed to change the optimum viewing distance OD of the stereoscopic
この様子を、液晶レンズ120Aと表示パネル120Bを備えた立体表示パネル手段120の一例を示す図52及び図53に基づいて説明する。 This will be described with reference to FIGS. 52 and 53 showing an example of the stereoscopic display panel means 120 including the liquid crystal lens 120A and the display panel 120B.
図52及び図53における基本的な構成は、上述した図29及び図30の下の図(断面図)で示した構成と同様である。また、この図52及び図53における屈折率分布の大きさは、図29の上の図に示した場合と同様の値が得られるものとする。 The basic configuration in FIGS. 52 and 53 is the same as the configuration shown in the lower view (cross-sectional view) of FIGS. 29 and 30 described above. 52 and 53, the refractive index distribution has the same value as that shown in the upper diagram of FIG.
まず、図52では、電圧V1が電圧V2よりも高い条件(電圧V1>電圧V2)で、制御電極E1と制御電極E4に対して電圧V1を、制御電極E2と制御電極E3に対して電圧V2をそれぞれ印加することにより、単位レンズ内において光線20が集光するX軸方向の位置が、制御電極E2と制御電極E3の境界位置(右眼用画素と左眼用画素との境界線位置)となる。
First, in FIG. 52, at the voltages V 1 higher than the voltage V 2 conditions (voltages V 1> the voltage V 2), the voltages V 1 to the control electrode E 1 and the control electrode E 4, a control electrode E 2 By applying the voltage V 2 to the control electrode E 3 , the position in the X-axis direction where the
ここで、図52と図53とでは、単位画素位置に対する単位レンズのX軸方向の位置が制御電極一つ分相当の幅だけ異なることに留意されたい。 52 and 53, it should be noted that the position of the unit lens in the X-axis direction with respect to the unit pixel position differs by a width corresponding to one control electrode.
すなわち、図53では、制御電極E2と制御電極E1へ電圧V1を、制御電極E3と制御電極E4へ電圧V2を印加すると共に、単位レンズの位置をX軸のプラス方向(左方向)に制御電極一つの幅分移動させることにより、光線20が集光するX軸方向の位置が、制御電極E3と制御電極E4の境界位置(右眼用画素の中央位置)となり、光線20がX軸のマイナス方向(右方向)にずれて出射されている。
That is, in FIG. 53, the voltage V 1 is applied to the control electrode E 2 and the control electrode E 1 , the voltage V 2 is applied to the control electrode E 3 and the control electrode E 4, and the position of the unit lens is set in the positive direction of the X axis ( by moving the control electrode a wide width to the left), the position of the
ここで、図52の状態に制御された液晶レンズ120Aによって形成される立体表示パネル手段120の光学モデルを図54に示し、図53の状態に制御された液晶レンズ120Aによる光学モデルを図55に示す。 Here, FIG. 54 shows an optical model of the stereoscopic display panel means 120 formed by the liquid crystal lens 120A controlled to the state of FIG. 52, and FIG. 55 shows an optical model of the liquid crystal lens 120A controlled to the state of FIG. Show.
図54の場合は、液晶レンズによって、光線20が集光するX軸方向の位置が右眼用画素と左眼用画素の境界位置となるため、正視領域は立体表示パネル手段120の中央正面位置に形成される。
In the case of FIG. 54, since the position in the X-axis direction where the
これに対し、図55の場合は、液晶レンズによって、光線20が集光するX軸方向の位置が右眼用画素の中央位置となるため、正視領域は立体表示パネル手段120の中央正面位置より右側(X軸のマイナス方向)へ制御電極一つの幅分移動した位置に形成される。
On the other hand, in the case of FIG. 55, the position in the X-axis direction where the
上記のように、それぞれの制御電極E1〜E4への印加電圧を変更し、液晶レンズのレンズパワーを局所的に制御するという構成を採ることで、正視領域の位置を、Z軸方向だけでなく、X軸方向にも移動することが可能となる。
また、正視領域のX軸方向への移動量は、制御電極の本数の増減やピッチを調整することによっても変更することができる。
As described above, by changing the applied voltage to each of the control electrodes E 1 to E 4 and locally controlling the lens power of the liquid crystal lens, the position of the normal vision region can be set only in the Z-axis direction. In addition, it is possible to move in the X-axis direction.
Further, the amount of movement of the normal viewing region in the X-axis direction can also be changed by increasing or decreasing the number of control electrodes and adjusting the pitch.
その他にも、電圧V1が電圧V2よりも高く、電圧V2が電圧V3よりも高い条件(電圧V1>電圧V2>電圧V3)で、制御電極E1と制御電極E4に対して電圧V1を,制御電極E2に対して電圧V2を,制御電極E3に対して電圧V3をそれぞれ印加して液晶レンズを制御するようにしてもよい。
かかる構成を採れば、制御電極E2と制御電極E3への印加電圧は異なるため、液晶の配向分布が非対称性を持ち、液晶レンズを通過する光線20の屈折方向も非対称となることから、液晶レンズの光軸が傾斜する。すなわち、この光軸の傾斜によって正視領域の形成位置を移動する、という構成を採ってもよい。
Besides, high voltages V 1 than the voltage V 2, at higher conditions than the voltage V 2 is the voltage V 3 (voltages V 1> Voltage V 2> Voltage V 3), the control electrodes E 1 and the control electrode E 4 The liquid crystal lens may be controlled by applying the voltage V 1 to the control electrode E 2 , the voltage V 2 to the control electrode E 2 , and the voltage V 3 to the control electrode E 3 .
Taking such a configuration, since the voltage applied to the control electrode E 2 and the control electrode E 3 is different from the orientation distribution of the liquid crystal has an asymmetry, it becomes asymmetrical refraction direction of the
このように、光学分離素子の屈折率の分布を制御可能な構成を採ることで、正視領域の位置ならびに立体視域範囲を調節することが可能となる。 As described above, by adopting a configuration capable of controlling the refractive index distribution of the optical separation element, it is possible to adjust the position of the normal viewing region and the stereoscopic viewing region range.
上記の一例では、立体表示パネル手段120の光学分離手段に液晶レンズを用いた例を示したが、液晶レンズに代えて、バリア位置が可変なパララックスバリアを用いてもよい。この場合も、パララックスバリア制御電極を単位画素内に複数本設け、制御電極に所定の電圧を印加し、バリア位置を制御するという構成を採ることで、正視領域を観察位置PODに合わせて移動させることができる。
In the above example, an example in which a liquid crystal lens is used as the optical separation unit of the stereoscopic
以上のように、液晶レンズやバリア位置が可変なパララックバリア等を用いた表示設定の調整処理では、表示設定調整手段270が立体表示パネル手段120の光学分離手段を制御し、視領域の位置を変更するという構成により、観察位置に合わせた表示設定の調整処理を実現した。
As described above, in the display setting adjustment process using a liquid crystal lens, a parallax barrier having a variable barrier position, or the like, the display setting
次に、立体表示パネル手段120の光学分離手段の光学分離特性が静的で変更不可能である場合における表示設定の調整処理について記載する。 Next, display setting adjustment processing when the optical separation characteristic of the optical separation means of the stereoscopic display panel means 120 is static and cannot be changed will be described.
この場合は、立体表示パネル手段120の正視領域の位置が不変であるため、立体表示パネル手段120に表示する画像データ(L画像とR画像)の視差値を変更することで、観察位置PODに合わせて表示設定を調整するように構成する。
In this case, since the position of the normal viewing area of the stereoscopic
観察位置PODが正視領域から外れることで出現する3Dクロストークによる2重像の対策としては、画像データの視差値PAを調整して2重像の影響を軽減することが挙げられる。
具体的には、観察位置算出手段290で算出した観察位置PODと、デバイス特性データ保管手段160に保管された3Dクロストーク特性データを参照して表示設定調整手段270が、立体画像が表示可能である視差の限界値(視差許容値PAth)を算出し、視差値PAが視差許容値PAth以下となるように調整するという構成を採る。
As a measure of the double image by the 3D crosstalk observation position P OD appears in departing from the stereoscopic viewing space, and the like to reduce and adjust the disparity value PA by effect of double image of the image data.
Specifically, the display setting
ここで、図56に、観察位置PODから算出する立体表示パネル手段120の視野角θPに対応する視差許容値PAthの一例を示す。 Here, FIG. 56 shows an example of the parallax allowable value PA th corresponding to the viewing angle θ P of the stereoscopic display panel means 120 calculated from the observation position P OD .
この図56の通り、視野角θPが正視領域内であれば視差許容値PAthの値は増大し、反対に視野角θPが3Dクロストーク領域内であれば視差許容値PAthの値は減少する。したがって、この視差許容値PAthの変化に合わせて立体表示パネル手段120に送信する画像データの視差値PAを変化させるように構成する。
これより、観察位置PODが3Dクロストーク領域内であれば、立体表示パネル手段120には、視差値PAが減少した画像データが表示される。
As shown in FIG. 56, if the viewing angle θ P is within the normal viewing area, the value of the parallax allowable value PA th increases. Conversely, if the viewing angle θ P is within the 3D crosstalk area, the value of the parallax allowable value PA th is Decrease. Therefore, the parallax value PA of the image data transmitted to the stereoscopic
Thus, if the observation position POD is within the 3D crosstalk area, the stereoscopic
なお、3Dクロストーク特性データと観察位置PODを参照して、画像データの視差値を変更する表示設定調整処理の詳細については、上記特許文献7に技術開示されている。また、前述の第1実施形態にて参照した図28(分類表I)と同様に、画像データの視差値を変更する表示設定の調整処理は、光学分離特性が動的に変更可能な光学分離手段(液晶レンズ等)を用いた場合にも適用可能である。
The details of the display setting adjustment process for changing the parallax value of the image data with reference to the 3D crosstalk characteristic data and the observation position POD are disclosed in the above-mentioned
観察位置PODが正視領域から外れることで出現する3Dモアレの対策としては、画像データの輝度調整処理を実施して3Dモアレの影響を軽減することが挙げられる。前述の第1実施形態では、X軸方向の観察位置POD(X)は常に一定であると仮定して立体表示パネル手段120の表示面上の輝度変動値を算出したが、本第2実施形態では、観察位置算出手段290にて算出した観察位置PODを参照して、表示設定調整手段270が輝度変動値を算出する、という構成を採っている。
As a measure of 3D moire observation position P OD appears in departing from the stereoscopic viewing space, and the like to reduce the influence of 3D moire performed brightness adjustment processing of the image data. In the first embodiment described above, the luminance fluctuation value on the display surface of the stereoscopic
この輝度変動値の算出処理では、観察位置PODと輝度-視野角特性データとを参照して、立体表示パネル手段120の表示面上に出現する3Dモアレの輝度変動値を算出する。そして、この算出値に基づいて表示設定調整手段270が、3Dモアレによる輝度変動値が平坦となるように画像データの輝度値を調整することで、3Dモアレの影響を軽減することが可能となる。
In this luminance fluctuation value calculation process, the luminance fluctuation value of 3D moire appearing on the display surface of the stereoscopic display panel means 120 is calculated with reference to the observation position POD and the luminance-viewing angle characteristic data. Then, the display setting
なお、輝度-視野角特性データと観察位置PODとを参照して、画像データの輝度値を変更する表示設定調整処理の詳細については、上記特許文献7に技術開示されている。
また、前述の第1実施形態にて参照した図36(分類表II)と同様に、画像データの輝度値を変更する表示設定の調整処理は、光学分離特性が動的に変更可能な光学分離手段(液晶レンズ等)を用いた場合にも適用可能である。
The details of the display setting adjustment process for changing the luminance value of the image data with reference to the luminance-viewing angle characteristic data and the observation position POD are disclosed in the above-mentioned
Similarly to FIG. 36 (classification table II) referred to in the first embodiment, the display setting adjustment process for changing the luminance value of the image data is an optical separation whose optical separation characteristics can be dynamically changed. The present invention is also applicable when using means (liquid crystal lens or the like).
このように、観察位置に合わせて立体画像データの輝度値を変更するという構成を採ることで、3Dモアレの影響を軽減し、観察者への違和感を低減することが可能となる。 As described above, by adopting a configuration in which the luminance value of the stereoscopic image data is changed in accordance with the observation position, it is possible to reduce the influence of 3D moire and to reduce discomfort to the observer.
(動作説明)
次に、立体画像表示装置12における画像処理動作の内容(立体画像表示方法)を、図57に示すフローチャートに基づいて説明する。
(Description of operation)
Next, the content of the image processing operation (stereoscopic image display method) in the stereoscopic image display device 12 will be described based on the flowchart shown in FIG.
ユーザの操作等により、立体画像表示にかかる指令信号を入力した立体画像表示装置11は、前述の第1実施形態と同様に、移動物体状態検出手段110によって、観察者の座席状態と、その前座席の座席状態とを検出する(図57:ステップS201)。
As in the first embodiment, the stereoscopic
次に、撮像手段280を使用して、立体画像表示装置12の前方にいる観察者を含む2D画像を撮影し、2次元平面上の撮像画像データを観察位置算出手段290が取得する(図57:ステップS202)。
この撮像画像データを用いて観察位置算出手段290は、観察者の顔画像領域と座席の背もたれ部の画像領域とを検出する(図57:ステップS203)。
Next, a 2D image including an observer in front of the stereoscopic image display device 12 is captured using the
Using this captured image data, the observation position calculation means 290 detects the face image area of the observer and the image area of the seat back (FIG. 57: step S203).
次いで、観察位置算出手段290は、観察者の立体画像表示装置12に対する相対位置を表す観察位置を算出する。その際、ステップS201で検出された各座席の傾斜角度と、ステップS202で記憶された撮像画像データとを参照すると共に、自身に予め登録された座席基準情報を用いて観察位置を算出する(図57:ステップS204)。
Next, the observation
次に、前述の第1実施形態におけるステップS103及びS104と同様に、表示設定調整手段270によって、デバイス特性データ保管手段160からデバイス特性データを取得し(図57:ステップS205)、画像データ保管手段150から立体画像コンテンツである画像データを取得する(図57:ステップS206)。
Next, as in steps S103 and S104 in the first embodiment described above, device characteristic data is acquired from the device characteristic
次いで、表示設定調整手段270により、ステップS203で算出した観察位置とステップS204で取得したデバイス特性データとを参照して、観察位置に合わせた表示設定の調整処理を実施する。表示設定の調整処理としては、立体表示パネル手段120の光学分離手段を制御して正視領域を観察位置に合わせて移動させる方法や、S205で取得した画像データの視差値及び輝度値を、観察位置とデバイス特性データに合わせて変更する方法が挙げられる(図57:ステップS207)。
Next, the display setting
そして、前述の第1実施形態(ステップS106,ステップ107)と同様に、表示設定調整手段270により、上記ステップS206で調整した表示設定に従って画像データ保管手段150から取得した画像データを立体表示パネル手段120の画像表示パネルに表示し(図57:ステップS208)、次いで立体画像表示処理を中止するか否かを設定する(図57:ステップS209)。
As in the first embodiment (steps S106 and 107), the display
以上のフローチャートにかかる処理により、座席背面部の傾斜に伴って立体画像表示装置の表示位置が移動しても、座席背面部の傾斜角度と撮影した撮像画像データとを参照し、座席背面部に設置した立体画像表示装置に対する観察者の相対位置(観察位置)を算出すると共に、これを用いて表示設定の調整処理を行うため、安価な計測装置だけで3Dクロストークによる2重像や逆視,3Dモアレの影響を軽減することができ、観察者へ違和感を与えない立体画像を提供することが可能となる。 Even if the display position of the stereoscopic image display device is moved with the inclination of the back of the seat, the processing according to the above flowchart refers to the inclination angle of the back of the seat and the captured image data, and Since the relative position (observation position) of the observer with respect to the installed stereoscopic image display device is calculated and the display setting adjustment processing is performed using this, the double image or reverse view by 3D crosstalk can be performed only with an inexpensive measurement device. The effect of 3D moire can be reduced, and a stereoscopic image that does not give the viewer a sense of incongruity can be provided.
また、本第2実施形態においても、視点数は2つに限定されるものではなく、多視点画像を投影する立体表示パネル手段120にも適用可能である。 Also in the second embodiment, the number of viewpoints is not limited to two, and the present invention can also be applied to the stereoscopic display panel means 120 that projects a multi-viewpoint image.
ここで、上記各ステップS201〜S208(図57)における各工程の実行内容をプログラム化すると共に、この一連の各制御プログラムをコンピュータによって実現するように構成してもよい。 Here, the execution contents of each step in the above steps S201 to S208 (FIG. 57) may be programmed, and the series of control programs may be realized by a computer.
(第2実施形態の効果)
本第2実施形態では、撮像手段による撮像画像データを、移動物体の状態情報と共に使用して、立体表示パネル手段120に対する観察者の相対位置(観察位置)を算出し、これを用いて立体画像の表示設定を調整するという構成を採ったことから、観察者の両眼の高さをも考慮した立体画像の表示設定の調整処理を実現することができるため、より精度よく有効な立体画像を表示することが可能となる。
その他の構成及び動作については、第1実施形態で示したものと同様であり、他に生じる作用効果も同様である。
(Effect of 2nd Embodiment)
In the second embodiment, the relative position (observation position) of the observer with respect to the stereoscopic display panel means 120 is calculated using the imaged image data obtained by the imaging means together with the state information of the moving object, and this is used to calculate the stereoscopic image. Since the configuration of adjusting the display settings of the three-dimensional images can be realized, it is possible to realize the adjustment processing of the display settings of the three-dimensional images in consideration of the height of both eyes of the observer. It is possible to display.
About another structure and operation | movement, it is the same as that of what was shown in 1st Embodiment, and the effect which arises elsewhere is also the same.
〔第3実施形態〕
本発明における立体画像表示装置の第3実施形態を図58乃至図64に基づいて説明する。上述した第1及び第2実施形態と同等の構成部材については、同一の符号を用いるものとする。
[Third Embodiment]
A third embodiment of the stereoscopic image display apparatus according to the present invention will be described with reference to FIGS. Constituent members equivalent to those in the first and second embodiments described above are denoted by the same reference numerals.
(全体的構成)
本第3実施形態では、立体画像表示装置の前方にいる観察者の身体の大きさを表すサイズ情報(観察者データ)を登録し、その観察者データを用いて、観察者の観察位置の立体表示パネルの表示面の中心位置に対する相対位置を表す観察位置PODを算出し、その観察位置PODに合わせて立体画像表示装置の表示設定の調整処理を実施するという構成を採用した。
(Overall configuration)
In the third embodiment, size information (observer data) indicating the size of the body of the observer in front of the stereoscopic image display device is registered, and the stereoscopic data of the observer's observation position is registered using the observer data. A configuration is adopted in which an observation position P OD representing a relative position with respect to the center position of the display surface of the display panel is calculated, and a display setting adjustment process of the stereoscopic image display device is performed in accordance with the observation position P OD .
すなわち、上述の第1及び第2実施形態では、観察者が座席の背もたれ部に寄り掛かっていることを想定して、観察距離ZOD及び観察位置PODを算出したが、本第3実施形態では、観察者が座席の背もたれ部に寄り掛かった状態だけでなく、座席の背もたれ部から離れた状態であっても、観察者データを用いて観察位置PODを算出するように構成した点に特徴がある。 That is, in the first and second embodiments described above, the observation distance Z OD and the observation position P OD are calculated on the assumption that the observer is leaning on the seat back portion. in not only the state in which the observer leaning against the backrest of the seat, even when away from the backrest portion of the seat, to a point that is configured to calculate the observation position P OD using observer data There are features.
本第3実施形態における立体画像表示装置13は、図58に示すように、移動物体状態検出手段110,立体表示パネル手段120,撮像手段280の他に、各種演算処理を実施する演算処理部133と、観察者が座席の背もたれ部と密接した状態にあるか否かを表す観察者状態情報を検出する観察者状態検出手段310と、を有している。
As shown in FIG. 58, the stereoscopic image display device 13 in the third embodiment includes an
また、演算処理部133は、画像データ保管手段150,デバイス特性データ保管手段160,及び表示設定調整手段270を有すると共に、観察者状態検出手段310にて検出した観察者状態情報と撮像手段280による撮像画像データとを参照して観察者データを検出し保管する観察者データ保管処理手段350と、立体表示パネル手段120の表示面の中心位置に対する観察者の観察位置の相対位置を示す観察位置PODを算出する観察位置算出手段(相対位置算出手段)390と、を有している。
The
さらに、観察位置算出手段390は、上記撮像画像データから観察者の顔画像領域を検出する検出手段390Aと、上記観察者状態情報に基づいて観察者が座席の背もたれ部に密接した状態にあるか否かを判定する判定手段390Bと、を有すると共に、この判定手段390Bにて、密接した状態にある旨判定した場合には、移動物体状態検出手段110にて検出した状態情報と上記顔画像領域とを用いて観察位置PODを算出し、観察者が座席の背もたれ部から離れた状態にある旨判定した場合には、上記観察者データと上記顔画像領域とを用いて観察位置PODを算出するように構成されている。 Furthermore, the observation position calculation means 390 is in a state in which the observer is in close contact with the backrest portion of the seat based on the detection means 390A for detecting the face image area of the observer from the captured image data and the observer state information. A determination means 390B for determining whether or not the object is in close contact with the determination means 390B, and the state information detected by the moving object state detection means 110 and the face image area calculating an observation position P OD with bets, when the observer determines that in a state away from the backrest portion of the seat, the observation position P OD by using the above observer data and the face image area It is configured to calculate.
以下に、立体画像表示装置13に含まれる各手段の機能を説明する。ここで、移動物体状態検出手段110,立体表示パネル手段120,画像データ保管手段150,デバイス特性データ保管手段160,表示設定調整手段270,及び撮像手段280については、上述した第1又は第2実施形態にて同一の符号を付した各手段と同様の構成である。
Hereinafter, functions of each unit included in the stereoscopic image display device 13 will be described. Here, the moving object
観察者状態検出手段310は、観察者が座席の背もたれ部と密接した状態であるか、離れた状態であるかを表す観察者状態情報を検出するように構成されている。この観察者状態情報は、例えば座席の背もたれ部に感圧センサを設置しておき、該感圧センサを用いて観察者状態検出手段310が検出するように構成できる。
The observer state detecting means 310 is configured to detect observer state information indicating whether the observer is in a state of being in close contact with the backrest portion of the seat or in a separated state. This observer state information can be configured so that, for example, a pressure sensor is installed on the backrest portion of the seat, and the
感圧センサを設置した座席の一例を示す図59において、図59(A)は観察者(O)が座席の背もたれ部と密接した状態を示し、図59(B)は観察者(O)が座席の背もたれ部から離れた状態を示す。 In FIG. 59 showing an example of a seat provided with a pressure-sensitive sensor, FIG. 59 (A) shows a state where the observer (O) is in close contact with the backrest portion of the seat, and FIG. 59 (B) shows that the observer (O) It shows the state away from the seat back.
図59(A)では、観察者(O)の体重によって、座席の背もたれ部に設置した感圧センサ310Aに圧力がかかるため、感圧センサ310Aの出力電圧値が上昇する。一方、図59(B)では、感圧センサ310Aに圧力がかからないため、感圧センサ310Aの出力電圧値は上昇しない。
このように、観察者と座席との位置関係によって変化する感圧センサ310Aの出力電圧値を計測することで、観察者状態情報を検出することができる。
In FIG. 59A, pressure is applied to the pressure-sensitive sensor 310A installed on the backrest portion of the seat depending on the weight of the observer (O), so that the output voltage value of the pressure-sensitive sensor 310A increases. On the other hand, in FIG. 59B, since pressure is not applied to the pressure sensor 310A, the output voltage value of the pressure sensor 310A does not increase.
Thus, the observer state information can be detected by measuring the output voltage value of the pressure-sensitive sensor 310A that changes depending on the positional relationship between the observer and the seat.
観察者データ保管処理手段350は、観察者状態検出手段310で検出した観察者状態情報と撮像手段280による撮像で得た撮像画像データとを参照して、観察者の顔画像領域のサイズを示す観察者データを検出・保管するように構成されている。
The observer data
観察者データの検出処理において観察者データ保管処理手段350は、初めに観察者状態検出手段310で検出した観察者状態情報を参照して、観察者が座席の背もたれ部と密接した状態であるときに、撮像手段280で観察者を撮影し、撮像画像データを取得する。次いで、観察者データ保管処理手段350は、この撮像画像データから前述の第1実施形態と同様に観察者の顔画像領域を検出し、この顔画像領域のサイズを観察者データとして検出する。
In the observer data detection process, the observer data
ここで、図60に、撮像手段280で撮影した撮像画像データの一例を示す。
この図60は、観察者の顔画像領域の輪郭位置から観察者データ保管処理手段350が検出するu軸方向における顔画像領域の幅FIWを示す。
Here, FIG. 60 shows an example of captured image data captured by the imaging means 280.
FIG. 60 shows the width F IW of the face image area in the u-axis direction detected by the observer data
観察者が座席の背もたれ部に密接した状態であれば、前述の第2実施形態と同様に観察距離ZODを算出することができる。また、実際の観察者の顔幅FWは、上記算出した観察距離ZOD及び撮像画像データから検出した顔画像領域の幅FIWを使用して、下記式(19)より算出するように構成する。 If the observer is in close contact with the seat back, the observation distance Z OD can be calculated in the same manner as in the second embodiment. The actual observer's face width FW is calculated from the following equation (19) using the calculated observation distance Z OD and the face image area width F IW detected from the captured image data. To do.
ここで、上記fは、撮像手段280の焦点距離を示す。
観察者データ保管処理手段350は、算出した実際の観察者の顔幅FWを観察者データとして保管する。
Here, f represents the focal length of the imaging means 280.
The observer data
また、実際の観察者の顔幅FWは、座席の背もたれ部の画像領域に占める顔画像領域の割合から算出するように構成してもよい。
この場合は、上記顔画像領域の幅FIWの他に、座席の背もたれ部の輪郭情報から座席の画像領域幅SIWを検出するという構成を採る。実際の座席の背もたれ部の幅SWは一定であるため、これを座席基準情報として予め登録しておくことにより、実際の観察者の顔幅FWは下記式(20)から算出できる。
The actual observer's face width FW may be calculated from the ratio of the face image area to the image area of the seat back portion.
In this case, in addition to the face image area width FIW , the seat image area width SIW is detected from the contour information of the seat back portion. The actual width S W of the backrest of the seat is fixed, by previously registered as a seat reference information, the actual observer's face width F W can be calculated from the following equation (20).
なお、上記の一例では、観察者データとして観察者の顔幅FWを保管したが、観察者データは観察者の身体の大きさを表すサイズ情報であればよく、観察者の顔幅FWだけに特定されるものではない。
例えば、観察者の両眼の瞳孔間隔を観察者データとして保管するようにしてもよい。
In the above example, the observer's face width FW is stored as the observer data, but the observer data may be size information indicating the size of the observer's body, and the observer's face width FW. It is not just specific.
For example, the pupil distance between both eyes of the observer may be stored as observer data.
また、上記には観察者データの検出処理時に、観察者状態検出手段310で検出した観察者状態情報を参照し、観察者データ算出用の撮影画像データを取得する一例を示したが、観察者状態情報を参照する代わりに、立体画像表示装置13から観察者データを検出することを観察者へ報知し、その報知後に撮影画像データを取得するようにしてもよい。
Further, in the above, an example is shown in which the observer state information detected by the observer
観察者への報知方法の一例としては、図61に示すような通知画面を立体画像表示装置13へ表示することが挙げられる。例えば、該画面上に準備完了を通知するための確認ボタン等を設け(立体画像表示装置13等に予め設けられた操作ボタン等を代用してもよい)、観察者の押圧に起因する信号を受けて撮影画像データの取得を実行するという構成を採ってもよい。
また、飛行機の乗客者は、安全のため、離陸時に座席の背もたれに寄り掛かることを指示されるので、その際に撮影画像データを取得し、観察者データを保管するように構成してもよい。
One example of a method for notifying the observer is to display a notification screen as shown in FIG. 61 on the stereoscopic image display device 13. For example, a confirmation button or the like for notifying the completion of preparation is provided on the screen (an operation button or the like provided in advance on the stereoscopic image display device 13 or the like may be substituted), and a signal resulting from an observer's press is provided. A configuration may be adopted in which the acquisition of captured image data is executed.
In addition, for the sake of safety, the passenger of the airplane is instructed to lean on the back of the seat at the time of takeoff. At that time, the photographed image data may be acquired and the observer data may be stored. .
観察位置算出手段390は、撮像手段280で撮影した撮像画像データから、検出手段390Aにより観察者の顔画像領域を検出し、また、観察者状態検出手段310で検出した観察者状態情報に基づいて、判定手段390Bにより観察者が背もたれ部に密接した状態にあるか否かを判定する。
The observation
そして、観察者が座席の背もたれ部に密接している場合に観察位置算出手段390は、前述の第2実施形態と同様に、移動物体状態検出手段110で検出した座席状態情報と撮像手段280で撮影した撮像画像データとを参照して観察位置PODを算出するように構成されている。
When the observer is in close contact with the seat back, the observation
一方で、観察者が座席の背もたれ部から離れている場合に観察位置算出手段390は、観察者データ保管処理手段350に保管した観察者データと、撮像手段280で撮影した撮像画像データとを参照して観察位置PODを算出するように構成されている。
On the other hand, when the observer is away from the seat back, the observation
ここで、異なる観察距離ZODで撮影された撮像画像データの例を示す図62を参照して、観察者の位置変動に起因した顔画像領域の幅の変化を説明する。図62(A)は観察者が座席の背もたれ部に密接した場合の撮像画像データを示し、図62(B)は観察者が座席の背もたれ部から離れた場合(観察者が前座席に近づいた場合)の撮像画像データを示す。 Here, with reference to FIG. 62 showing an example of captured image data photographed at different observation distances ZOD , a change in the width of the face image area due to the position variation of the observer will be described. FIG. 62 (A) shows captured image data when the observer is in close contact with the seat back, and FIG. 62 (B) is when the observer is away from the seat back (the observer approaches the front seat). ) Shows captured image data.
観察者が座席の背もたれ部から離れ、撮像手段280に近接するほど、観察者の顔画像領域の幅FIWは増加する。例えば、図62(A)の場合は幅FIW1であるが、観察者が撮像手段280に近接した図62(B)の場合では幅FIW2にまで増加している。
The width F IW of the face image area of the observer increases as the observer moves away from the backrest portion of the seat and approaches the
実際の観察者の顔幅FWは観察者データとして保管されているため、観察位置算出手段390は、下記式(21)によって観察距離ZODを算出することができる。 Since the actual observer's face width FW is stored as observer data, the observation position calculation means 390 can calculate the observation distance Z OD by the following equation (21).
そして、X軸方向の観察位置POD(X)とY軸方向の観察位置POD(Y)を、前述の第2実施形態と同様に観察位置算出手段390が算出するように構成されている。
The observation
本第3実施形態では、上記のような構成を採ったため、観察者が座席の背もたれ部から離れた状態であっても、観察者の観察位置PODを算出することができる。
また、この算出した観察者の観察位置PODに合わせて、表示設定調整手段170が立体画像表示装置13の表示設定調整処理を実施することで、観察者が座席の背もたれ部から離れた状態であっても、安価な計測装置だけで3Dクロストークによる2重像や逆視,3Dモアレの影響を軽減することができるため、結果として、観察者へ違和感を与えない立体画像表示装置の提供が可能となる。
In the third embodiment, since the configuration as described above is adopted, it is possible to calculate the observation position POD of the observer even when the observer is away from the backrest portion of the seat.
Further, the display setting
(動作説明)
次に、立体画像表示装置13における画像処理動作の内容(立体画像表示方法)を、図63及び図64に示すフローチャートに基づいて説明する。
(Description of operation)
Next, the content of the image processing operation (stereoscopic image display method) in the stereoscopic image display device 13 will be described based on the flowcharts shown in FIGS. 63 and 64.
〈観察者データの登録処理〉
まず、観察者状態検出手段310により、観察者が座席の背もたれ部に密接しているか否かを表す観察者状態を検出する(図63:ステップS301)。
<Observer data registration process>
First, the observer
次いで、ステップS301で検出した観察者状態を参照して観察者データ保管処理手段350が、観察者が背もたれ部に密接しているか否かを判定する(図63:ステップS302)。
Next, the observer data
その際、観察者が背もたれ部に密接していなければ(図63:ステップS302/いいえ)、ステップS301に戻り、改めて観察者状態を検出する。ここで、該検出に先立って、観察者に対し観察者データを検出する旨を報知し、観察者が背もたれ部に密接することを促すようにしてもよい。 At this time, if the observer is not in close contact with the backrest (FIG. 63: Step S302 / No), the process returns to Step S301, and the observer state is detected again. Here, prior to the detection, the observer may be notified that the observer data is to be detected, and urge the observer to be in close contact with the backrest portion.
一方で、観察者が背もたれ部に密接していれば(図63:ステップS302/はい)、撮像手段280を使用して、立体画像表示装置13の前方にいる観察者を2D画像として撮影し、撮像画像データを記憶する(図63:ステップS303)。 On the other hand, if the observer is in close contact with the backrest (FIG. 63: Step S302 / Yes), the imaging means 280 is used to photograph the observer in front of the stereoscopic image display device 13 as a 2D image, The captured image data is stored (FIG. 63: step S303).
次に、観察者データ保管処理手段350は、ステップS303で記憶した撮像画像データを取得すると共に、この撮像画像データ内に撮影された観察者の顔画像領域を検出する(図63:ステップS304)。
Next, the observer data
このステップS304で検出した顔画像領域を参照して、観察者データ保管処理手段350は、実際の観察者の顔サイズを表す観察者データを算出すると共に(図63:ステップS305)、これを保管する(図63:ステップS306)。
観察者データの一例としては、観察者の顔幅FWが挙げられる。
With reference to the face image area detected in step S304, the observer data
An example of the observer data is the face width FW of the observer.
以上のフローチャート処理により、観察者データを登録することができる。 The observer data can be registered by the above flowchart processing.
〈立体画像表示処理〉
図64に示す立体画像表示処理方法のフローチャートによると、まず、観察者状態検出手段310により、観察者が座席の背もたれ部に密接しているか否かを表す観察者状態を検出する(図64:ステップS401)。
<Stereoscopic image display processing>
According to the flowchart of the stereoscopic image display processing method shown in FIG. 64, first, the observer state detection means 310 detects an observer state indicating whether or not the observer is in close contact with the backrest part of the seat (FIG. 64: Step S401).
このステップS401で検出した観察者状態を参照して(図64:ステップS402)、観察者が背もたれ部に密接していれば(図64:ステップS402/はい)、観察者状態検出手段310にて各座席状態の検出を行い(ステップS403へ進み)、観察者が背もたれ部に密接していなければ(図64:ステップS402/はい)、観察者データ保管処理手段350に保管された観察者データを取得する(ステップS412へ進む)。
With reference to the observer state detected in step S401 (FIG. 64: step S402), if the observer is in close contact with the backrest (FIG. 64: step S402 / yes), the observer state detection means 310 Each seat state is detected (proceeding to step S403), and if the observer is not in close contact with the backrest (FIG. 64: step S402 / yes), the observer data stored in the observer data
図64におけるステップS403からステップS411までの処理内容は、前述の第2実施形態におけるステップS201からステップS209まで(図57)の処理内容と同様であるため、ここでは省略する。 The processing content from step S403 to step S411 in FIG. 64 is the same as the processing content from step S201 to step S209 (FIG. 57) in the second embodiment described above, and is therefore omitted here.
観察者データ保管手段310に保管された観察者データを取得した観察位置算出手段390は(図64:ステップS412)、ステップS404と同様に撮像手段280を使用して、立体画像表示装置13の前方にいる観察者を撮影し、撮像画像データを取得する(図64:ステップS413)。 The observation position calculation means 390 that acquired the observer data stored in the observer data storage means 310 (FIG. 64: step S412) uses the image pickup means 280 in the same manner as in step S404, and uses the imaging means 280 in front of the stereoscopic image display device 13. The observer is photographed, and captured image data is acquired (FIG. 64: step S413).
次いで、観察位置算出手段390は、ステップS412で取得した観察者データと、ステップS412で取得した撮像画像データとを参照して、観察位置を算出する(図64:ステップS414)。
Next, the observation
そして、図64に示すように、前述の第2実施形態におけるステップS205からステップS209まで(図57)の処理内容と同様であるステップS407からステップS411までの処理内容を実行する。 Then, as shown in FIG. 64, the processing contents from step S407 to step S411 that are the same as the processing contents from step S205 to step S209 (FIG. 57) in the second embodiment described above are executed.
以上の処理により、観察者が座席の背もたれ部と密接した状態である場合の観察者データを予め算出し登録しておくことで、観察者が座席の背もたれ部から離れた状態であっても、安価な計測装置だけを使用して、観察者の観察位置PODを算出することができる。また、算出した観察者の観察位置PODに合わせて表示設定の調整処理を実施することで、安価な計測装置だけで3Dクロストークによる2重像や逆視,3Dモアレの影響を軽減し、これにより、観察者へ違和感を与えない立体画像表示装置を提供することが可能となる。 By the above process, by calculating and registering in advance the observer data when the observer is in close contact with the seat back, even if the observer is away from the seat back, The observation position POD of the observer can be calculated using only an inexpensive measuring device. In addition, by adjusting the display settings according to the calculated observation position POD of the observer, the influence of double images, reverse vision, and 3D moire due to 3D crosstalk can be reduced with only an inexpensive measurement device, As a result, it is possible to provide a stereoscopic image display device that does not give the viewer a sense of discomfort.
本第3実施形態においても、視点数は2つに限定されるものではなく、多視点画像を投影する立体表示パネル手段120にも適用可能である。 Also in the third embodiment, the number of viewpoints is not limited to two, and can be applied to the stereoscopic display panel means 120 that projects a multi-viewpoint image.
(第3実施形態の効果)
本第3実施形態では、観察者が座席の背もたれ部に密接した状態における観察者データを基準として参照すると共に、立体画像の表示設定の調整処理に際しても、観察者と該背もたれ部との位置関係を勘案するという構成を採ったため、これにより、観察者の状態に応じたより柔軟な観察位置を算出することができ、これを用いた高精度な調整処理に基づく立体画像表示を実現することが可能となる。
その他の構成及び動作については、上述した第1及び第2実施形態で示したものと同様であり、他に生じる作用効果も同様である。
(Effect of the third embodiment)
In the third embodiment, the observer refers to the observer data in a state in which the observer is in close contact with the backrest portion of the seat as a reference, and the positional relationship between the observer and the backrest portion also in the adjustment processing of the stereoscopic image display setting Therefore, it is possible to calculate a more flexible observation position according to the state of the observer, and to realize a stereoscopic image display based on highly accurate adjustment processing using this. It becomes.
About another structure and operation | movement, it is the same as that of what was shown by 1st and 2nd embodiment mentioned above, and the effect which arises similarly is also the same.
〔第4実施形態〕
本発明における立体画像表示装置の第2実施形態を図65乃至図69に基づいて説明する。ここで、上述した第1乃至第3実施形態と同等の構成部材については、同一の符号を用いるものとする。
[Fourth Embodiment]
A second embodiment of the stereoscopic image display apparatus according to the present invention will be described with reference to FIGS. Here, the same code | symbol shall be used about the structural member equivalent to 1st thru | or 3rd embodiment mentioned above.
(全体的構成)
本第4実施形態では、撮像手段280で撮影した撮像画像データから、座席背面部の傾斜角度θSを表す座席状態を検出することで、姿勢センサ等の移動物体状態検出手段を使用せずに、観察位置PODを算出し、その観察位置PODに合わせて立体画像表示装置の表示設定の調整処理を実施するという構成を採った点に特徴がある。
(Overall configuration)
In the fourth embodiment, by detecting the seat state representing the tilt angle θ S of the seat back surface from the captured image data captured by the
図65に示すように、立体画像表示装置14は、立体表示パネル手段120と,撮像手段280と、各種演算処理を実施する演算処理部134と、を有している。
また、演算処理部134は、画像データ保管手段150,デバイス特性データ保管手段160,及び表示設定調整手段270と共に、立体表示パネル手段120に対する観察者の相対位置を示す観察位置を算出する観察位置算出手段(相対位置算出手段)490を有している。
As shown in FIG. 65, the stereoscopic
In addition, the
以下に、立体画像表示装置14に含まれる各手段の機能を説明する。ここで、立体表示パネル手段120,画像データ保管手段150,デバイス特性データ保管手段160,表示設定調整手段270,及び撮像手段280については、上述した第1乃至第3実施形態にて同一の符号を付した各手段と同様の構成である。
Hereinafter, functions of each unit included in the stereoscopic
観察位置算出手段490は、撮像手段280で撮影した撮像画像データを参照して、観察位置PODを算出する。また、本第4実施形態の観察位置算出手段490では、撮像画像データを参照して座席背面部の傾斜角度θSを表す座席状態を検出する。
The observation
ここで、図66に、座席背面部の傾斜角度θSに伴って変化する撮像手段280から座席の背もたれ部までの距離(Z軸方向)を示す。
座席上部から座席下部までの背もたれ部の長さLSUDは一定であるため、予め座席基準情報として登録しておけば、下記式(22)より、座席背面部の傾斜角度θSは、撮像手段280から座席上部までのZ軸方向の距離ZSDと、撮像手段280から座席下部までのZ軸方向の距離ZSUとを用いて算出できる。
Here, FIG. 66 shows the distance (Z-axis direction) from the imaging means 280 to the seat back portion that changes with the inclination angle θ S of the seat back portion.
Since the length L SUD of the backrest part from the upper part of the seat to the lower part of the seat is constant, if it is registered in advance as seat reference information, the inclination angle θ S of the rear part of the seat can be calculated from the following equation (22) It can be calculated using the distance Z SD in the Z-axis direction to the seat upper 280, and a distance Z SU in the Z-axis direction from the imaging means 280 to the seat bottom.
撮像手段280から座席上部までの距離ZSDと、撮像手段280から座席下部までの距離ZSUとは、撮像手段280で立体画像表示装置14の前方にある観察者の座席を撮影した撮像画像データを用いて観察位置算出手段490が算出する。
The distance Z SD from the imaging means 280 to the upper part of the seat and the distance Z SU from the imaging means 280 to the lower part of the seat are taken image data obtained by photographing the observer's seat in front of the stereoscopic
図67(A)に、観察者の座席を撮影した撮影画像データの一例を示す。図68(A)には、座席背面部の傾斜角度θSが図67の場合よりも傾斜した際に、観察者の座席を撮影した撮像画像データを示す。また、図67(B)は、図67(A)の撮影画像データを撮影したときの座席状態を示し、図68(B)は、図68(A)の撮影画像データを撮影したときの座席状態を示す。 FIG. 67 (A) shows an example of photographed image data obtained by photographing the observer's seat. FIG. 68 (A) shows captured image data obtained by photographing the observer's seat when the inclination angle θ S of the seat back portion is inclined as compared with the case of FIG. 67B shows a seat state when the photographed image data of FIG. 67A is photographed, and FIG. 68B shows a seat when the photographed image data of FIG. 68A is photographed. Indicates the state.
ここでは、図67に示す座席背面部の傾斜角度をθS1とし、図68に示す座席背面部の傾斜角度をθS2とする(θS1<θS2)。また、座席下部の画像領域幅をWISDとおき、座席上部の画像領域幅をWISUとする。 Here, the inclination angle of the seat back portion shown in FIG. 67 is θ S1, and the inclination angle of the seat back portion shown in FIG. 68 is θ S2 (θ S1 <θ S2 ). Further, the image area width of the seat lower W ISD Distant, an image area width of the seat upper and W ISU.
図67と図68と比較すると、座席背面部の傾斜角度θSが大きくなることにより、撮像手段280から座席の背もたれ部までの距離が変化するため、これに伴って座席下部の画像領域幅WISDと座席上部の画像領域幅WISUとが変化する。(これら各図に示す通り、特にWISUが大きく変化する。) 67 and 68, since the distance from the image pickup means 280 to the seat back portion changes as the inclination angle θ S of the seat back portion increases, the image area width W of the lower portion of the seat accordingly. The ISD and the image area width W ISU above the seat change. (As shown in these figures, the WISU changes particularly greatly.)
ここで、実際の座席上部の幅WSUと座席下部の幅WSDは一定であり、既知の値なので、座席基準情報として予め登録しておく。これにより、撮像手段280から座席上部までの距離(Z軸方向)ZSUは、撮影画像データから座席上部の画像領域幅WISUを検出して用いることで、下記式(23)をもとに算出できる。 Here, the actual width W SU of the upper part of the seat and the width W SD of the lower part of the seat are constant and are known values, and are registered in advance as seat reference information. Thereby, the distance (Z-axis direction) Z SU from the imaging means 280 to the upper part of the seat is detected based on the following formula (23) by using the image area width W ISU of the upper part of the seat from the photographed image data. It can be calculated.
また、撮像手段280から座席下部までの距離ZSDも同様に、撮影画像データから座席下部の画像領域幅WISDを検出して用いることで、下記式(24)をもとに算出できる。 Similarly, the distance Z SD from the imaging means 280 to the lower part of the seat can be calculated based on the following formula (24) by detecting and using the image area width WISD of the lower part of the seat from the captured image data.
これら各式におけるfは、撮像手段280の焦点距離を示す。
以上より、撮像手段280によって座席上部と座席下部の画像領域幅WISU,WISDが検出可能である状況においては、傾斜センサ等の移動物体状態検出手段を使用することなく、撮像手段280で取得した撮像画像データから座席背面部の傾斜角度θSを表す座席状態が検出できる。
F in each of these equations indicates the focal length of the image pickup means 280.
As described above, in the situation where the image area widths W ISU and W ISD of the upper and lower seats can be detected by the
上記の例では、撮像画像データから座席の背もたれ部の輪郭情報を検出し、座席上部及び下部の画像領域幅WISU及びWISDを検出することで、座席背面部の傾斜角度θSを算出するという構成を採ったが、撮像画像データから検出する画像情報は、その他の画像情報であってもよい。
一例としては、予め登録したマークを座席の柄として座席の背もたれ部に印字し、そのマークを撮像画像データから検出することで、座席背面部の傾斜角度θSを算出する、という構成と採ることができる。
In the above example, the seat backrest contour information is detected from the captured image data, and the seat upper and lower image area widths W ISU and W ISD are detected to calculate the seat back portion inclination angle θ S. The image information detected from the captured image data may be other image information.
As an example, a configuration is adopted in which a pre-registered mark is printed on the seat back as a seat pattern, and the mark is detected from the captured image data to calculate the inclination angle θ S of the seat back portion. Can do.
なお、観察位置PODは、撮像画像データから算出した座席背面部の傾斜角度θSを参照して、観察位置算出手段390が、上述した第2実施形態と同様の算出方法により求めるように構成されている。 Note that the observation position P OD is configured to be obtained by the observation position calculation means 390 by the same calculation method as that of the second embodiment described above with reference to the inclination angle θ S of the seat back portion calculated from the captured image data. Has been.
(動作説明)
次に、立体画像表示装置14における画像処理動作の内容(立体画像表示方法)を、図69に示すフローチャートに基づいて説明する。
(Description of operation)
Next, the content of the image processing operation (stereoscopic image display method) in the stereoscopic
まず、撮像手段280を使用して、立体画像表示装置14の前方にいる観察者を含む2D画像を撮影し、撮像画像データを取得した観察位置算出手段490が(図69:ステップS501)、この撮像画像データから観察者の顔画像領域と座席の背もたれ部の画像領域を検出する(図69:ステップS502)。
First, an observation
次に、ステップS502で検出した座席の背もたれ部の画像領域情報から、観察位置算出手段490が座席背面部の傾斜角度を算出する(図69:ステップS503)。
Next, the observation
ステップS504からステップS509までの処理内容は、上述した第2実施形態におけるステップS204からステップS209までの処理内容と同様である。 The processing content from step S504 to step S509 is the same as the processing content from step S204 to step S209 in the second embodiment described above.
以上のフローチャート処理により、撮像画像データから座席背面部の傾斜角度θSを算出し、立体画像表示装置に対する観察者の相対位置を表す観察位置PODを算出することで、傾斜センサ等の移動物体状態検出手段が無くても、安価な計測装置だけで3Dクロストークによる2重像や逆視,3Dモアレの影響を軽減することができ、観察者へ違和感を与えない立体画像表示装置を提供することが可能となる。
また、本第4実施形態においても、視点数は2つに限定されるものではなく、多視点画像を投影する立体表示パネル手段120にも適用可能である。
By the above flowchart processing, the tilt angle θ S of the seat back portion is calculated from the captured image data, and the observation position P OD representing the relative position of the observer with respect to the stereoscopic image display device is calculated, thereby moving the moving object such as the tilt sensor. Provided is a stereoscopic image display device that can reduce the effects of double images, reverse viewing, and 3D moire caused by 3D crosstalk, and does not give a sense of incongruity to an observer, even if there is no state detection means. It becomes possible.
Also in the fourth embodiment, the number of viewpoints is not limited to two, and can be applied to the stereoscopic display panel means 120 that projects a multi-viewpoint image.
(第4実施形態の効果)
本第4実施形態では、撮像手段で撮影した撮像画像データから座席背面部の傾斜角度θS(座席状態)を検出するという構成を採ったことから、姿勢センサ等の移動物体状態検出手段を使用せずに算出した観察位置PODに合わせて立体画像の表示設定の調整処理を実施することが可能となり、このため、3Dクロストークによる2重像や逆視,3Dモアレの影響を安価な構成によって有効に軽減することができ、立体画像を観察者に違和感を与えることなく表示することが可能となる。
その他の構成及び動作については、上述した第1乃至第3実施形態で示したものと同様であり、他に生じる作用効果も同様である。
(Effect of 4th Embodiment)
The fourth embodiment employs a configuration in which the inclination angle θ S (seat state) of the seat back portion is detected from the captured image data captured by the imaging unit, and therefore the moving object state detection unit such as a posture sensor is used. It is possible to adjust the display setting of the stereoscopic image in accordance with the calculated observation position POD without performing this, so that the effects of double image due to 3D crosstalk, reverse viewing, and 3D moire can be reduced. Therefore, the stereoscopic image can be effectively reduced and the stereoscopic image can be displayed without giving the viewer a sense of incongruity.
About another structure and operation | movement, it is the same as that of what was shown in the 1st thru | or 3rd embodiment mentioned above, and the effect which arises similarly is also the same.
上述した各実施形態は、立体画像表示装置、立体画像表示方法、及びそのプログラムにおける好適な具体例であり、技術的に好ましい種々の限定を付している場合もある。しかし、本発明の技術範囲は、特に本発明を限定する記載がない限り、これらの態様に限定されるものではない。 Each embodiment mentioned above is a suitable concrete example in a stereoscopic image display device, a stereoscopic image display method, and its program, and may have various technically desirable limits. However, the technical scope of the present invention is not limited to these embodiments unless specifically described to limit the present invention.
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、本発明は以下の構成に限定されるものではない。 Although part or all of the above-described embodiments can be described as in the following supplementary notes, the present invention is not limited to the following configurations.
(付記1:第1実施形態)
移動物体に設置された立体画像表示装置において、
前記移動物体の状態を検出する移動物体状態検出手段(110)と、
立体画像を投影する空間領域を分割し、この分割後の各空間領域それぞれに視差の異なる画像を投影することで、観察者の左右の眼に前記視差の異なる画像を投影する立体表示パネル手段(120)と、
前記移動物体状態検出手段(110)で検出した前記移動物体の状態情報から前記立体表示パネル手段(120)と前記観察者との観察距離を算出する観察距離算出手段(140)と、
前記観察距離に対応する前記立体表示パネル手段(120)の表示特性を含むデバイス特性データを保存するデバイス特性データ保管手段(160)と、
前記観察距離と前記デバイス特性データとを参照して、前記立体画像の表示設定を調整する表示設定調整手段(170)と、を有することを特徴とした立体画像表示装置(11)。
(Supplementary note 1: first embodiment)
In a stereoscopic image display device installed on a moving object,
Moving object state detection means (110) for detecting the state of the moving object;
Three-dimensional display panel means for projecting images with different parallax to the left and right eyes of an observer by dividing a spatial region for projecting a stereoscopic image and projecting images with different parallax to each of the divided spatial regions. 120)
Observation distance calculation means (140) for calculating the observation distance between the stereoscopic display panel means (120) and the observer from the state information of the moving object detected by the moving object state detection means (110),
Device characteristic data storage means (160) for storing device characteristic data including display characteristics of the stereoscopic display panel means (120) corresponding to the observation distance;
A stereoscopic image display device (11) comprising display setting adjustment means (170) for adjusting display settings of the stereoscopic image with reference to the observation distance and the device characteristic data.
(付記2:第2実施形態)
移動物体に設置された立体画像表示装置において、
前記移動物体の状態を検出する移動物体状態検出手段(110)と、
立体画像を投影する空間領域を分割し、この分割後の各空間領域それぞれに視差の異なる画像を投影することで、観察者の左右の眼に前記視差の異なる画像を投影する立体表示パネル手段(120)と、
前記観察者を撮影し、撮影画像を撮像する撮像手段(280)と、
前記移動物体状態検出手段(120)で検出した前記移動物体の状態情報と前記撮像手段(280)で撮影した前記撮影画像から前記立体表示パネル手段(120)に対する前記観察者の相対位置を表す観察位置を算出する観察位置算出手段(290)と、
前記観察位置に対する前記立体表示パネル手段(120)の表示特性を含むデバイス特性データを保存するデバイス特性データ保管手段(160)と、
前記観察位置と前記デバイス特性データとを参照して、前記立体画像の表示設定を調整する表示設定調整手段(270)と、を有することを特徴とした立体画像表示装置(12)。
(Supplementary Note 2: Second Embodiment)
In a stereoscopic image display device installed on a moving object,
Moving object state detection means (110) for detecting the state of the moving object;
Three-dimensional display panel means for projecting images with different parallax to the left and right eyes of an observer by dividing a spatial region for projecting a stereoscopic image and projecting images with different parallax to each of the divided spatial regions. 120)
Imaging means (280) for capturing images of the observer and capturing a captured image;
Observation representing the relative position of the observer with respect to the stereoscopic display panel means (120) from the state information of the moving object detected by the moving object state detection means (120) and the captured image taken by the imaging means (280) Observation position calculation means (290) for calculating the position;
Device characteristic data storage means (160) for storing device characteristic data including display characteristics of the stereoscopic display panel means (120) for the observation position;
A stereoscopic image display device (12) comprising display setting adjustment means (270) for adjusting display settings of the stereoscopic image with reference to the observation position and the device characteristic data.
(付記3:第3実施形態)
移動物体である座席の可動式背もたれ部に設置された立体画像表示装置において、
前記移動物体の状態を検出する移動物体状態検出手段(110)と、
立体画像を投影する空間領域を分割し、この分割後の各空間領域それぞれに視差の異なる画像を投影することで、観察者の左右の眼に前記視差の異なる画像を投影する立体表示パネル手段(120)と、
前記観察者を撮影し、撮影画像を撮像する撮像手段(280)と、
前記移動物体は座席であり、該座席の背もたれ部が可動式であり、前記観察者が着座する前記座席への前記観察者の着座状態を検出する観察者状態検出手段(310)と、
前記観察者のサイズ情報を表す観察者データを保管する観察者データ保管手段(350)と、
前記立体表示パネル手段(120)に対する前記観察者の相対位置を表す観察位置を算出する観察位置算出手段(390)と、
前記観察位置に対応する前記立体表示パネル手段の表示特性を含むデバイス特性データを保存するデバイス特性データ保管手段(160)と、
前記観察位置と前記デバイス特性データとを参照して、前記立体画像の表示設定を調整する表示設定調整手段(270)と、を備え、
前記観察位置算出手段(390)は、前記撮像手段(280)で撮影した前記撮影画像から前記観察者が着座する座席の背もたれ部の画像領域に対する前記観察者の顔画像領域の割合を検出し、
前記観察者が前記観察者の着座する座席の背もたれ部に密接した状態では、前記移動物体状態検出手段(110)で検出した前記座席の状態情報と前記顔画像領域の割合とから前記観察位置を算出し、
前記観察者が着座する座席の背もたれ部から離れた状態では、前記観察者データと前記顔画像領域の割合とから前記観察位置を算出することを特徴とする立体画像表示装置(13)。
(Supplementary Note 3: Third Embodiment)
In the stereoscopic image display device installed on the movable backrest of the seat, which is a moving object,
Moving object state detection means (110) for detecting the state of the moving object;
Three-dimensional display panel means for projecting images with different parallax to the left and right eyes of an observer by dividing a spatial region for projecting a stereoscopic image and projecting images with different parallax to each of the divided spatial regions. 120)
Imaging means (280) for capturing images of the observer and capturing a captured image;
The moving object is a seat, a backrest portion of the seat is movable, and an observer state detecting means (310) for detecting a seating state of the observer on the seat on which the observer is seated,
Observer data storage means (350) for storing observer data representing the size information of the observer;
An observation position calculating means (390) for calculating an observation position representing a relative position of the observer with respect to the stereoscopic display panel means (120);
Device characteristic data storage means (160) for storing device characteristic data including display characteristics of the stereoscopic display panel means corresponding to the observation position;
With reference to the observation position and the device characteristic data, display setting adjustment means (270) for adjusting the display setting of the stereoscopic image, and
The observation position calculation means (390) detects the ratio of the face image area of the observer to the image area of the backrest portion of the seat on which the observer is seated from the photographed image photographed by the imaging means (280),
When the observer is in close contact with the backrest of the seat on which the observer is seated, the observation position is determined from the seat state information detected by the moving object state detection means (110) and the ratio of the face image area. Calculate
The stereoscopic image display device (13), wherein the observation position is calculated from the observer data and a ratio of the face image area in a state away from a backrest portion of a seat on which the observer is seated.
(付記4:第4実施形態)
移動物体に設置された立体画像表示装置において、
立体画像を投影する空間領域を分割し、この分割後の各空間領域それぞれに視差の異なる画像を投影することで、観察者の左右の眼に前記視差の異なる画像を投影する立体表示パネル手段(120)と、
観察者を撮影し、撮影画像を撮像する撮像手段(280)と、
前記撮像手段で撮影した前記撮影画像から前記移動物体の状態を検出し、前記移動物体の状態情報と前記撮影画像とを用いて、前記立体表示パネル手段に対する前記観察者の相対位置を表す観察位置を算出する観察位置算出手段(490)と、
前記観察位置に対する前記立体表示パネル手段の表示特性を含むデバイス特性データを保存するデバイス特性データ保管手段(160)と、
前記観察位置と前記デバイス特性データを参照して、前記立体表示パネル手段の表示設定を調整する表示設定調整手段(270)と、を有することを特徴とした立体画像表示装置(14)。
(Supplementary Note 4: Fourth Embodiment)
In a stereoscopic image display device installed on a moving object,
Three-dimensional display panel means for projecting images with different parallax to the left and right eyes of an observer by dividing a spatial region for projecting a stereoscopic image and projecting images with different parallax to each of the divided spatial regions. 120)
An imaging means (280) for capturing an image of the observer and capturing the captured image;
An observation position representing a relative position of the observer with respect to the stereoscopic display panel means by detecting the state of the moving object from the photographed image photographed by the imaging means and using the state information of the moving object and the photographed image. Observation position calculation means (490) for calculating
Device characteristic data storage means (160) for storing device characteristic data including display characteristics of the stereoscopic display panel means for the observation position;
A stereoscopic image display device (14) comprising display setting adjustment means (270) for adjusting display settings of the stereoscopic display panel means with reference to the observation position and the device characteristic data.
(付記5)
移動物体に設置されて立体画像を表示する立体画像表示装置であって、
隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段(120)と、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出手段(110)と、
この状態情報から前記立体表示パネル手段(120)とその表示面側に位置する特定の観察者との相対距離を算出する相対距離算出手段(140)と、
前記立体表示パネル手段(120)にかかるデバイス特性データを保存するデバイス特性データ保管手段(160)と、
前記相対距離と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整手段(170)と、を有することを特徴とした立体画像表示装置。
(Appendix 5)
A stereoscopic image display device that is installed on a moving object and displays a stereoscopic image,
Stereoscopic display panel means (120) for projecting images with different parallax for each adjacent spatial region;
Moving object state detection means (110) for detecting state information related to the position state of the moving object;
Relative distance calculating means (140) for calculating the relative distance between the stereoscopic display panel means (120) and a specific observer located on the display surface side from this state information;
Device characteristic data storage means (160) for storing device characteristic data applied to the stereoscopic display panel means (120);
A stereoscopic image display device, comprising: display setting adjustment means (170) for adjusting display settings of the stereoscopic image with reference to the relative distance and the device characteristic data.
(付記6)
前記付記5に記載の立体画像表示装置において、
前記移動物体は前記観察者用の座席であり、該座席の背もたれ部は可動式であり、
前記移動物体状態検出手段(110)は、前記座席の背もたれ部に設置されると共に、該背もたれ部の傾斜状態にかかる情報を前記状態情報として検出することを特徴とした立体画像表示装置。
(Appendix 6)
In the stereoscopic image display device according to
The moving object is a seat for the observer, and a back portion of the seat is movable;
The moving object state detection means (110) is installed on a backrest portion of the seat, and detects information relating to an inclination state of the backrest portion as the state information.
(付記7)
前記付記5に記載の立体画像表示装置において、
前記移動物体は前記観察者用の座席であり、該座席の背もたれ部は可動式であり、
前記移動物体状態検出手段(110)は、前記観察者が着座する座席及び該座席の前座席の各々が有する背もたれ部の傾斜情報に基づいて前記状態情報を検出することを特徴とした立体画像表示装置。
(Appendix 7)
In the stereoscopic image display device according to
The moving object is a seat for the observer, and a back portion of the seat is movable;
The moving object state detection means (110) detects the state information based on inclination information of a seat on which the observer is seated and a backrest portion of each of the front seats of the seat. apparatus.
(付記8)
前記付記5に記載の立体画像表示装置において、
前記移動物体は前記観察者用の座席であり、該座席の背もたれ部は可動式であり、
前記移動物体状態検出手段(110)は、前記座席の背もたれ部に設置した第1傾斜センサの出力値と前記座席の着座部に設置した第2傾斜センサの出力値とに基づいて前記状態情報を検出することを特徴とした立体画像表示装置。
(Appendix 8)
In the stereoscopic image display device according to
The moving object is a seat for the observer, and a back portion of the seat is movable;
The moving object state detection means (110) determines the state information based on an output value of a first inclination sensor installed on a backrest portion of the seat and an output value of a second inclination sensor installed on a seating portion of the seat. A stereoscopic image display device characterized by detecting.
(付記9)
前記付記5乃至8の何れか1つに記載の立体画像表示装置において、
前記相対距離算出手段(140)は、前後に並ぶ2つの座席間の設置位置情報を保有すると共に、この設置位置情報と前記状態情報とを用いて前記相対距離を算出することを特徴とした立体画像表示装置。
(Appendix 9)
In the stereoscopic image display device according to any one of the
The relative distance calculation means (140) has installation position information between two seats arranged in front and rear, and calculates the relative distance using the installation position information and the state information. Image display device.
(付記10)
前記付記5乃至9の何れか1つに記載の立体画像表示装置において、
前記立体表示パネル手段は、
少なくとも第1視点用の画像を表示する第1のサブ画素及び第2視点用の画像を表示する第2のサブ画素を含む画素がマトリクス状に複数配列された表示パネルと、
前記各サブ画素から出射した光線を相互に異なる方向に振り分ける光線分離手段と、を含むことを特徴とした立体画像表示装置。
(Appendix 10)
In the stereoscopic image display device according to any one of the
The stereoscopic display panel means includes:
A display panel in which a plurality of pixels including at least a first sub-pixel that displays an image for a first viewpoint and a second sub-pixel that displays an image for a second viewpoint are arranged in a matrix;
3D image display apparatus, comprising: light beam separating means for distributing light beams emitted from the sub-pixels in different directions.
(付記11)
前記付記10に記載の立体画像表示装置において、
前記光線分離手段は、光線分離方向が変更可能なアクティブ素子からなり、
前記表示設定調整手段(170)は、前記相対距離に合わせて前記光線分離手段の屈折率の分布を制御することで立体視域範囲を調整することを特徴とした立体画像表示装置。
(Appendix 11)
In the stereoscopic image display device according to
The light beam separating means comprises an active element whose light beam separating direction can be changed,
The stereoscopic image display device, wherein the display setting adjusting means (170) adjusts the stereoscopic viewing area range by controlling the refractive index distribution of the light beam separating means in accordance with the relative distance.
(付記12)
前記付記5乃至11の何れか1つに記載の立体画像表示装置において、
前記表示設定調整手段(170)は、前記相対距離に合わせて前記立体画像の視差値又は輝度値を変更することを特徴とした立体画像表示装置。
(Appendix 12)
In the stereoscopic image display device according to any one of the
The stereoscopic image display device, wherein the display setting adjusting means (170) changes a parallax value or a luminance value of the stereoscopic image in accordance with the relative distance.
(付記13)
移動物体に設置されて立体画像を表示する立体画像表示装置であって、
隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段(120)と、
この立体表示パネル(120)の表示面前方を観察者と共に撮影し、撮像画像データとして記録する撮像手段(280)と、
この撮像画像データを用いて前記立体表示パネル手段(120)に対する前記観察者の相対位置を算出する相対位置算出手段(観察位置算出手段:290,390,490)と、
前記立体表示パネル手段(120)にかかるデバイス特性データを保存するデバイス特性データ保管手段(160)と、
前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整手段(270)と、を有することを特徴とした立体画像表示装置。
(Appendix 13)
A stereoscopic image display device that is installed on a moving object and displays a stereoscopic image,
Stereoscopic display panel means (120) for projecting images with different parallax for each adjacent spatial region;
The front of the display surface of the stereoscopic display panel (120) is imaged together with an observer, and imaging means (280) for recording as captured image data,
Relative position calculating means (observation position calculating means: 290, 390, 490) for calculating the relative position of the observer with respect to the stereoscopic display panel means (120) using the captured image data;
Device characteristic data storage means (160) for storing device characteristic data applied to the stereoscopic display panel means (120);
A stereoscopic image display apparatus comprising: a display setting adjustment unit (270) that adjusts display settings of the stereoscopic image with reference to the relative position and the device characteristic data.
(付記14)
前記付記13に記載の立体画像表示装置において、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出手段(110)をさらに有し、
前記相対位置算出手段(290,390)は、前記相対位置の算出に際して前記撮像画像データと前記状態情報とを用いることを特徴とした立体画像表示装置。
(Appendix 14)
In the stereoscopic image display device according to appendix 13,
A moving object state detecting means (110) for detecting state information related to the position state of the moving object;
The relative position calculation means (290, 390) uses the captured image data and the state information when calculating the relative position.
(付記15)
前記付記14に記載の立体画像表示装置において、
前記移動物体は前記観察者用の座席であり、該座席の背もたれ部は可動式であり、
前記移動物体状態検出手段(110)は、前記座席の背もたれ部に設置されると共に、該背もたれ部の傾斜状態にかかる情報を前記状態情報として検出することを特徴とした立体画像表示装置。
(Appendix 15)
In the stereoscopic image display device according to
The moving object is a seat for the observer, and a back portion of the seat is movable;
The moving object state detection means (110) is installed on a backrest portion of the seat, and detects information relating to an inclination state of the backrest portion as the state information.
(付記16)
前記付記15に記載の立体画像表示装置において、
前記相対位置算出手段(290,390)は、前記撮像画像データから前記観察者が着座する座席の背もたれ部の画像領域に対する前記観察者の顔画像領域の割合を検出すると共に、この割合に係る情報と前記状態情報とを用いて前記相対位置を算出することを特徴とした立体画像表示装置。
(Appendix 16)
In the stereoscopic image display device according to appendix 15,
The relative position calculation means (290, 390) detects a ratio of the face image area of the observer to an image area of a backrest portion of a seat on which the observer is seated from the captured image data, and information related to the ratio and the information A stereoscopic image display device that calculates the relative position using state information.
(付記17)
前記付記15に記載の立体画像表示装置において、
前記観察者の着座状態にかかる観察者状態情報を検出する観察者状態検出手段(310)と、
この観察者状態情報と前記撮像画像データとを用いて観察者のサイズ情報を示す観察者データを検出し保管する観察者データ保管処理手段(350)と、を有し、
前記相対位置算出手段(390)は、
前記撮像画像データから前記観察者の顔画像領域を検出する検出手段(390A)と、前記観察者状態情報に基づいて前記観察者が前記背もたれ部に密接した状態にあるか否かを判定する判定手段(390B)と、を有すると共に、
この判定手段(390B)にて、密接した状態にある旨判定した場合には、前記状態情報と前記顔画像領域とを用いて前記相対位置を算出し、前記観察者が前記背もたれ部から離れた状態にある旨判定した場合には、前記観察者データと前記顔画像領域とを用いて前記相対位置を算出することを特徴とした立体画像表示装置。
(Appendix 17)
In the stereoscopic image display device according to appendix 15,
Observer state detection means (310) for detecting observer state information on the sitting state of the observer;
Observer data storage processing means (350) for detecting and storing observer data indicating the size information of the observer using the observer state information and the captured image data, and
The relative position calculating means (390)
Detection means (390A) for detecting the observer's face image area from the captured image data, and determination for determining whether the observer is in close contact with the backrest based on the observer state information Means (390B), and
When it is determined by the determination means (390B) that the subject is in a close state, the relative position is calculated using the state information and the face image region, and the observer moves away from the backrest portion. A stereoscopic image display device characterized by calculating the relative position using the observer data and the face image area when it is determined that the state is in a state.
(付記18)
前記付記17に記載の立体画像表示装置において、
観察者データ保管処理手段(350)は、前記観察者データを検出するに際して、前記観察者が前記背もたれ部に密接した状態にあるときの前記撮影画像データを用いることを特徴とした立体画像表示装置。
(Appendix 18)
In the stereoscopic image display device according to appendix 17,
The observer data storage processing means (350) uses the photographed image data when the observer is in close contact with the backrest portion when detecting the observer data. .
(付記19)
前記付記13に記載の立体画像表示装置において、
前記相対位置算出手段(490)は、前記撮像画像データを用いて前記移動物体の位置状態にかかる状態情報を検出すると共に、これに基づいて前記相対位置を算出することを特徴とした立体画像表示装置。
(Appendix 19)
In the stereoscopic image display device according to appendix 13,
The relative position calculation means (490) detects state information related to the position state of the moving object using the captured image data, and calculates the relative position based on the detected state information. apparatus.
(付記20)
前記付記13に記載の立体画像表示装置において、
前記移動物体は前記観察者用の座席であり、該座席の背もたれ部は可動式であり、
前記相対位置算出手段(490)は、前記撮像画像データから前記観察者が着座する座席の背もたれ部の画像領域に対する前記観察者の顔画像領域の割合を検出すると共に、この割合に係る情報を用いて前記相対位置を算出することを特徴とした立体画像表示装置。
(Appendix 20)
In the stereoscopic image display device according to appendix 13,
The moving object is a seat for the observer, and a back portion of the seat is movable;
The relative position calculation means (490) detects a ratio of the face image area of the observer to an image area of a backrest portion of a seat on which the observer is seated from the captured image data, and uses information related to the ratio. And calculating the relative position.
(付記21)
前記付記13乃至20の何れか1つに記載の立体画像表示装置において、
前記立体表示パネル手段は、
少なくとも第1視点用の画像を表示する第1のサブ画素及び第2視点用の画像を表示する第2のサブ画素を含む画素がマトリクス状に複数配列された表示パネルと、
前記各サブ画素から出射した光線を相互に異なる方向に振り分ける光線分離手段と、を含むことを特徴とした立体画像表示装置。
(Appendix 21)
In the stereoscopic image display device according to any one of the supplementary notes 13 to 20,
The stereoscopic display panel means includes:
A display panel in which a plurality of pixels including at least a first sub-pixel that displays an image for a first viewpoint and a second sub-pixel that displays an image for a second viewpoint are arranged in a matrix;
3D image display apparatus, comprising: light beam separating means for distributing light beams emitted from the sub-pixels in different directions.
(付記22)
前記付記21に記載の立体画像表示装置において、
前記光線分離手段は、光線分離方向が変更可能なアクティブ素子からなり、
前記表示設定調整手段(270)は、前記相対位置に合わせて前記光線分離手段の屈折率の分布を制御することで立体視域範囲を調整することを特徴とした立体画像表示装置。
(Appendix 22)
In the stereoscopic image display device according to appendix 21,
The light beam separating means comprises an active element whose light beam separating direction can be changed,
The stereoscopic image display device, wherein the display setting adjusting means (270) adjusts the stereoscopic viewing area range by controlling the refractive index distribution of the light beam separating means in accordance with the relative position.
(付記23)
前記付記13乃至22の何れか1つに記載の立体画像表示装置において、
前記表示設定調整手段(270)は、前記相対位置に合わせて前記立体画像の視差値又は輝度値を変更することを特徴とした立体画像表示装置。
(Appendix 23)
In the stereoscopic image display device according to any one of the supplementary notes 13 to 22,
The stereoscopic image display device, wherein the display setting adjusting means (270) changes a parallax value or a luminance value of the stereoscopic image in accordance with the relative position.
(付記24)
前記付記5乃至12に記載の立体画像表示装置において、
前記デバイス特性データは、前記相対距離に対応する情報であることを特徴とした立体画像表示装置。
(Appendix 24)
In the stereoscopic image display device according to the above
The device characteristic data is information corresponding to the relative distance.
(付記25)
前記付記13乃至23に記載の立体画像表示装置において、
前記デバイス特性データは、前記相対位置に対応する情報であることを特徴とした立体画像表示装置。
(Appendix 25)
In the stereoscopic image display device according to the supplementary notes 13 to 23,
The device characteristic data is information corresponding to the relative position.
(付記26)
隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段(120)を有すると共に、移動物体に設置されて立体画像を表示する立体画像表示装置における立体画像表示方法であって、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出工程と、
この状態情報から前記立体表示パネル手段(120)とその表示面側に位置する特定の観察者との相対距離を算出する相対距離算出工程と、
前記立体表示パネル手段(120)にかかるデバイス特性データを受信するデバイス特性データ受信工程と、
前記相対距離と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整工程と、
この調整後の表示設定に基づいて、前記各空間領域それぞれに対し前記視差の異なる画像を投影することで前記立体画像を表示する立体画像表示工程と、を有することを特徴とした立体画像表示方法。
(Appendix 26)
A stereoscopic image display method in a stereoscopic image display device that has a stereoscopic display panel means (120) for projecting images with different parallax for each adjacent spatial region and displays a stereoscopic image installed on a moving object,
A moving object state detection step of detecting state information relating to the position state of the moving object;
A relative distance calculating step of calculating a relative distance between the stereoscopic display panel means (120) and a specific observer located on the display surface side from this state information;
A device characteristic data receiving step for receiving device characteristic data according to the stereoscopic display panel means (120);
A display setting adjustment step of adjusting display settings of the stereoscopic image with reference to the relative distance and the device characteristic data;
A stereoscopic image display method for displaying the stereoscopic image by projecting images with different parallaxes to the respective spatial regions based on the display settings after adjustment. .
(付記27)
隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段(120)を有すると共に、移動物体に設置されて立体画像を表示する立体画像表示装置における立体画像表示方法であって、
前記立体表示パネル(120)の表示面前方を観察者と共に撮影し、撮像画像データとして記録する撮像工程と、
この撮像画像データを用いて前記立体表示パネル手段(120)に対する前記観察者の相対位置を算出する相対位置算出工程と、
前記立体表示パネル手段(120)にかかるデバイス特性データを受信するデバイス特性データ受信工程と、
前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整工程と、
この調整後の表示設定に基づいて、前記各空間領域それぞれに対し前記視差の異なる画像を投影することで前記立体画像を表示する立体画像表示工程と、を有することを特徴とした立体画像表示方法。
(Appendix 27)
A stereoscopic image display method in a stereoscopic image display device that has a stereoscopic display panel means (120) for projecting images with different parallax for each adjacent spatial region and displays a stereoscopic image installed on a moving object,
The front of the display surface of the stereoscopic display panel (120) is imaged together with an observer, and an imaging process for recording as captured image data;
A relative position calculating step of calculating the relative position of the observer with respect to the stereoscopic display panel means (120) using the captured image data;
A device characteristic data receiving step for receiving device characteristic data according to the stereoscopic display panel means (120);
A display setting adjustment step of adjusting display settings of the stereoscopic image with reference to the relative position and the device characteristic data;
A stereoscopic image display method for displaying the stereoscopic image by projecting images with different parallaxes to the respective spatial regions based on the display settings after adjustment. .
(付記28)
前記付記27に記載の立体画像表示方法において、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出工程をさらに有し、
前記相対位置算出工程では、この状態情報を前記撮像画像データと共に参照して前記相対位置を算出することを特徴とした立体画像表示方法。
(Appendix 28)
In the stereoscopic image display method according to appendix 27,
A moving object state detection step of detecting state information related to the position state of the moving object;
In the relative position calculating step, the relative position is calculated by referring to the state information together with the captured image data.
(付記29)
前記付記27に記載の立体画像表示方法において、
前記移動物体が前記観察者用の座席であり、該座席の背もたれ部が可動式である場合に、
前記相対位置算出工程に先立って、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出工程と、
前記観察者の着座状態にかかる観察者状態情報を検出する観察者状態検出工程と、
前記相対位置算出工程では、
前記撮像画像データから前記観察者の顔画像領域を検出すると共に、前記観察者状態情報に基づいて前記観察者が前記背もたれ部に密接した状態にあるか否かを判定し、密接した状態にある旨判定した場合には前記状態情報と前記顔画像領域とを用いて前記相対位置を算出することを特徴とした立体画像表示方法。
(Appendix 29)
In the stereoscopic image display method according to appendix 27,
In the case where the moving object is a seat for the observer and a backrest portion of the seat is movable,
Prior to the relative position calculation step,
A moving object state detection step of detecting state information relating to the position state of the moving object;
An observer state detecting step of detecting observer state information relating to the sitting state of the observer;
In the relative position calculating step,
The face image area of the observer is detected from the captured image data, and it is determined whether or not the observer is in close contact with the backrest based on the observer state information, and is in close contact When the determination is made, the three-dimensional image display method is characterized in that the relative position is calculated using the state information and the face image area.
(付記30)
前記付記27に記載の立体画像表示方法において、
前記移動物体が前記観察者用の座席であり、該座席の背もたれ部が可動式である場合に、
前記相対位置算出工程に先立って、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出工程と、
前記観察者の着座状態にかかる観察者状態情報を検出する観察者状態検出工程と、
この観察者状態情報と前記撮像画像データとを用いて観察者のサイズ情報を示す観察者データを検出し保管する観察者データ保管処理工程と、を有し、
前記相対位置算出工程では、
前記撮像画像データから前記観察者の顔画像領域を検出すると共に、前記観察者状態情報に基づいて前記観察者が前記背もたれ部に密接した状態にあるか否かを判定し、前記観察者が前記背もたれ部から離れた状態にある旨判定した場合には、前記観察者データと前記顔画像領域とを用いて前記相対位置を算出する判定算出工程と、を含むことを特徴とした立体画像表示方法。
(Appendix 30)
In the stereoscopic image display method according to appendix 27,
In the case where the moving object is a seat for the observer and a backrest portion of the seat is movable,
Prior to the relative position calculation step,
A moving object state detection step of detecting state information relating to the position state of the moving object;
An observer state detecting step of detecting observer state information relating to the sitting state of the observer;
An observer data storage process for detecting and storing observer data indicating the size information of the observer using the observer state information and the captured image data, and
In the relative position calculating step,
The face image area of the observer is detected from the captured image data, and it is determined whether or not the observer is in close contact with the backrest based on the observer state information. A determination calculation step of calculating the relative position using the observer data and the face image area when it is determined that the object is separated from the backrest part. .
(付記31)
前記付記27に記載の立体画像表示方法において、
前記移動物体が前記観察者用の座席であり、該座席の背もたれ部が可動式である場合に、
前記相対位置算出工程に先立って、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出工程と、
前記観察者の着座状態にかかる観察者状態情報を検出する観察者状態検出工程と、
この観察者状態情報と前記撮像画像データとを用いて観察者のサイズ情報を示す観察者データを検出し保管する観察者データ保管処理工程と、を有し、
前記相対位置算出工程では、
前記撮像画像データから前記観察者の顔画像領域を検出すると共に、前記観察者状態情報に基づいて前記観察者が前記背もたれ部に密接した状態にあるか否かを判定し、
密接した状態にある旨判定した場合には前記状態情報と前記顔画像領域とを用いて前記相対位置を算出し、前記観察者が前記背もたれ部から離れた状態にある旨判定した場合には、前記観察者データと前記顔画像領域とを用いて前記相対位置を算出することを特徴とした立体画像表示方法。
(Appendix 31)
In the stereoscopic image display method according to appendix 27,
In the case where the moving object is a seat for the observer and a backrest portion of the seat is movable,
Prior to the relative position calculation step,
A moving object state detection step of detecting state information relating to the position state of the moving object;
An observer state detecting step of detecting observer state information relating to the sitting state of the observer;
An observer data storage process for detecting and storing observer data indicating the size information of the observer using the observer state information and the captured image data, and
In the relative position calculating step,
Detecting the face image area of the observer from the captured image data, and determining whether the observer is in close contact with the backrest based on the observer state information;
When it is determined that it is in a close state, the relative position is calculated using the state information and the face image region, and when it is determined that the observer is away from the backrest portion, A stereoscopic image display method, wherein the relative position is calculated using the observer data and the face image area.
(付記32)
前記付記27に記載の立体画像表示方法において、
前記相対位置算出工程では、前記撮像画像データに基づいて前記移動物体の位置状態にかかる状態情報を検出すると共に、これに基づいて前記相対位置を算出することを特徴とした立体画像表示方法。
(Appendix 32)
In the stereoscopic image display method according to appendix 27,
In the relative position calculating step, state information relating to the position state of the moving object is detected based on the captured image data, and the relative position is calculated based on the state information.
(付記33)
前記付記27に記載の立体画像表示方法において、
前記相対位置算出工程では、前記撮像画像データから前記観察者が着座する座席の背もたれ部の画像領域に対する前記観察者の顔画像領域の割合を検出すると共に、この割合に係る情報を用いて前記相対位置を算出することを特徴とした立体画像表示方法。
(Appendix 33)
In the stereoscopic image display method according to appendix 27,
In the relative position calculating step, a ratio of the face image area of the observer to an image area of a backrest portion of a seat on which the observer is seated is detected from the captured image data, and the relative position is detected using information on the ratio. A three-dimensional image display method characterized by calculating a position.
(付記34)
隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段(120)を有すると共に、移動物体に設置されて立体画像を表示する立体画像表示装置に適用する立体画像表示プログラムであって、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出機能、
この状態情報から前記立体表示パネル手段(120)とその表示面側に位置する特定の観察者との相対距離を算出する相対距離算出機能、
前記立体表示パネル手段(120)にかかるデバイス特性データを受信するデバイス特性データ受信機能、
前記相対距離と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整機能、
この調整後の表示設定に基づいて、前記各空間領域それぞれに対し前記視差の異なる画像を投影することで前記立体画像を表示する立体画像表示機能、
を前記立体画像表示装置内に予め設けられたコンピュータに実現させることを特徴とした立体画像表示プログラム。
(Appendix 34)
A stereoscopic image display program to be applied to a stereoscopic image display device that has a stereoscopic display panel means (120) for projecting images with different parallax for each adjacent spatial region and displays a stereoscopic image installed on a moving object,
A moving object state detection function for detecting state information related to the position state of the moving object;
A relative distance calculation function for calculating a relative distance between the stereoscopic display panel means (120) and a specific observer located on the display surface side from this state information,
Device characteristic data receiving function for receiving device characteristic data according to the stereoscopic display panel means (120),
A display setting adjustment function for adjusting display settings of the stereoscopic image with reference to the relative distance and the device characteristic data;
A stereoscopic image display function for displaying the stereoscopic image by projecting the images having different parallaxes to the respective spatial regions based on the display settings after adjustment;
Is realized by a computer provided in advance in the stereoscopic image display device.
(付記35)
隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段(120)を有すると共に、移動物体に設置されて立体画像を表示する立体画像表示装置に適用する立体画像表示プログラムであって、
前記立体表示パネル(120)の表示面前方を観察者と共に撮影し、撮像画像データとして記録する撮像機能、
この撮像画像データを用いて前記立体表示パネル手段(120)に対する前記観察者の相対位置を算出する相対位置算出機能、
前記立体表示パネル手段(120)にかかるデバイス特性データを受信するデバイス特性データ受信機能、
前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整機能、
この調整後の表示設定に基づいて、前記各空間領域それぞれに対し前記視差の異なる画像を投影することで前記立体画像を表示する立体画像表示機能、
を前記立体画像表示装置内に予め設けられたコンピュータに実現させることを特徴とした立体画像表示プログラム。
(Appendix 35)
A stereoscopic image display program to be applied to a stereoscopic image display device that has a stereoscopic display panel means (120) for projecting images with different parallax for each adjacent spatial region and displays a stereoscopic image installed on a moving object,
An imaging function for photographing the front of the display surface of the stereoscopic display panel (120) together with an observer and recording it as captured image data,
A relative position calculation function for calculating the relative position of the observer with respect to the stereoscopic display panel means (120) using the captured image data;
Device characteristic data receiving function for receiving device characteristic data according to the stereoscopic display panel means (120),
A display setting adjustment function for adjusting display settings of the stereoscopic image with reference to the relative position and the device characteristic data;
A stereoscopic image display function for displaying the stereoscopic image by projecting the images having different parallaxes to the respective spatial regions based on the display settings after adjustment;
Is realized by a computer provided in advance in the stereoscopic image display device.
(付記36)
前記付記35に記載の立体画像表示プログラムにおいて、
前記移動物体が前記観察者用の座席であり、該座席の背もたれ部が可動式である場合に、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出機能、
前記観察者の着座状態にかかる観察者状態情報を検出する観察者状態検出機能、
前記撮像画像データから前記観察者の顔画像領域を検出する顔画像領域検出機能、
前記観察者状態情報に基づいて前記観察者が前記背もたれ部に密接した状態にあるか否かを判定する密接状態判定機能、
この密接状態判定機能にて、密接した状態にある旨判定した場合に前記状態情報と前記顔画像領域とを用いて前記相対位置を算出し、前記観察者が前記背もたれ部から離れた状態にある旨判定した場合に前記観察者データと前記顔画像領域とを用いて前記相対位置を算出する密接状態依拠算出機能、
を前記コンピュータに実現させることを特徴とした立体画像表示プログラム。
(Appendix 36)
In the stereoscopic image display program according to attachment 35,
In the case where the moving object is a seat for the observer and a backrest portion of the seat is movable,
A moving object state detection function for detecting state information related to the position state of the moving object;
An observer state detection function for detecting observer state information according to the sitting state of the observer;
A face image area detection function for detecting the face image area of the observer from the captured image data;
A close state determination function for determining whether or not the observer is in close contact with the backrest based on the observer state information,
The close position determination function calculates the relative position using the state information and the face image area when it is determined that the close state is present, and the observer is in a state away from the backrest portion. A close state dependence calculation function that calculates the relative position using the observer data and the face image area when it is determined
3D image display program characterized by causing the computer to realize the above.
本発明は、立体画像表示装置に立体画像コンテンツを表示する機能を有する立体画像処理システム及び立体画像表示システムに適用可能である。また、本発明は、上記各実施形態等の内容に限られたものではなく、その趣旨を逸脱しない範囲で適宜変更することができる。 The present invention is applicable to a stereoscopic image processing system and a stereoscopic image display system having a function of displaying stereoscopic image content on a stereoscopic image display device. Further, the present invention is not limited to the contents of the above-described embodiments and the like, and can be appropriately changed without departing from the gist thereof.
3 レンチキュラレンズ
3a,3b,3c,3d シリンドリカルレンズ(レンズ)
4 画素群
4L 左眼用画素
4R 右眼用画素
6 バリア(パララックスバリア)
6a スリット(パララックスバリア)
11,12,13,14 立体画像表示装置
20,21,22,23、24、25 光線
30 観察面
40 表示面(立体表示パネル手段の表示面)
55L 左眼
55R 右眼
60,61,62 座席
61A,62A 接合部材
61B 座席背面部
61C 座席の座面部
62D 外枠部
63 観察者の座席
64 前座席
70R,70R’,80R,90R 右眼領域
70L,70L’,72L,80L,82L,90L,92L 左眼領域
110 移動物体状態検出手段
110A,110B,110C 傾斜センサ
111 第1移動物体状態検出手段
112 第2移動物体状態検出手段
120 立体表示パネル手段
120A 液晶レンズ
120B 表示パネル
131,132,133,134 演算処理部
140 観察距離算出手段(相対距離算出手段)
150 画像データ保管手段
160 デバイス特性データ保管手段
170,270 表示設定調整手段
280 撮像手段
290,390,490 観察位置算出手段(相対位置算出手段)
310 観察者状態検出手段
310A 感圧センサ
350 観察者データ保管処理手段
E0 共通電極
E1、E2、E3、E4 制御電極
P 画素ピッチ(画素幅)
P’ 投影像の幅(観察面に投影された画素幅)
e 両眼間隔
OD 最適視認距離(最適観察距離)
ND 最短視認距離(最短観察距離)
FD 最長視認距離(最長観察距離)
L レンズ幅(シリンドリカルレンズ幅)
S バリア幅
h 画像表示パネルから光線分離手段までの距離(レンズの主点と画素との距離)
3 Lenticular lens 3a, 3b, 3c, 3d Cylindrical lens (lens)
4
6a Slit (Parallax Barrier)
11, 12, 13, 14 Stereoscopic
150 Image data storage means 160 Device characteristic data storage means 170, 270 Display setting adjustment means 280 Imaging means 290, 390, 490 Observation position calculation means (relative position calculation means)
310 observer state detector
P 'Projected image width (pixel width projected on the observation surface)
e Binocular OD Optimal viewing distance (optimal observation distance)
ND Shortest viewing distance (shortest observation distance)
FD Longest viewing distance (longest viewing distance)
L Lens width (Cylindrical lens width)
S Barrier width h Distance from the image display panel to the light separation means (distance between the main point of the lens and the pixel)
Claims (15)
隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段と、
この立体表示パネルの表示面前方の観察者を撮影し、撮像画像データとして記録する撮像手段と、
この撮像画像データを用いて前記立体表示パネル手段に対する前記観察者の相対位置を算出する相対位置算出手段と、
前記立体表示パネル手段にかかるデバイス特性データを保存するデバイス特性データ保管手段と、
前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整手段と、を有することを特徴とした立体画像表示装置。 A stereoscopic image display device that is installed on a moving object and displays a stereoscopic image,
Stereoscopic display panel means for projecting images with different parallax for each adjacent spatial region;
Imaging means for photographing an observer in front of the display surface of the stereoscopic display panel and recording it as captured image data;
A relative position calculating means for calculating a relative position of the observer with respect to the stereoscopic display panel means using the captured image data;
Device characteristic data storage means for storing device characteristic data according to the stereoscopic display panel means;
A stereoscopic image display device comprising: display setting adjustment means for adjusting display settings of the stereoscopic image with reference to the relative position and the device characteristic data.
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出手段をさらに有し、
前記相対位置算出手段は、前記相対位置の算出に際して前記撮像画像データと前記状態情報とを用いることを特徴とした立体画像表示装置。 The stereoscopic image display device according to claim 1,
A moving object state detecting means for detecting state information related to the position state of the moving object;
The relative position calculation means uses the captured image data and the state information when calculating the relative position.
前記移動物体は座席であり、該座席の背もたれ部は可動式であり、
前記移動物体状態検出手段は、前記座席の背もたれ部に設置されると共に、該背もたれ部の傾斜状態にかかる情報を前記状態情報として検出することを特徴とした立体画像表示装置。 The stereoscopic image display device according to claim 2,
The moving object is a seat, and the back portion of the seat is movable;
The moving object state detection means is installed on a backrest portion of the seat, and detects information relating to an inclined state of the backrest portion as the state information.
前記相対位置算出手段は、前記撮像画像データから前記観察者が着座する座席の背もたれ部の画像領域に対する前記観察者の顔画像領域の割合を検出すると共に、この割合に係る情報と前記状態情報とを用いて前記相対位置を算出することを特徴とした立体画像表示装置。 The stereoscopic image display device according to claim 3,
The relative position calculating means detects a ratio of the face image area of the observer to an image area of a backrest portion of a seat on which the observer is seated from the captured image data, and information related to the ratio and the state information A stereoscopic image display device, wherein the relative position is calculated using
前記観察者の着座状態にかかる観察者状態情報を検出する観察者状態検出手段と、
この観察者状態情報と前記撮像画像データとを用いて観察者のサイズ情報を示す観察者データを検出し保管する観察者データ保管処理手段と、を有し、
前記相対位置算出手段は、
前記撮像画像データから前記観察者の顔画像領域を検出する検出手段と、前記観察者状態情報に基づいて前記観察者が前記背もたれ部に密接した状態にあるか否かを判定する判定手段と、を有すると共に、
この判定手段にて、密接した状態にある旨判定した場合には、前記状態情報と前記顔画像領域とを用いて前記相対位置を算出し、前記観察者が前記背もたれ部から離れた状態にある旨判定した場合には、前記観察者データと前記顔画像領域とを用いて前記相対位置を算出することを特徴とした立体画像表示装置。 The stereoscopic image display device according to claim 4,
Observer state detection means for detecting observer state information relating to the sitting state of the observer;
Observer data storage processing means for detecting and storing observer data indicating the size information of the observer using the observer state information and the captured image data,
The relative position calculating means includes
Detecting means for detecting a face image area of the observer from the captured image data; and determining means for determining whether the observer is in close contact with the backrest based on the observer state information; And having
When the determination means determines that the state is close, the relative position is calculated using the state information and the face image area, and the observer is in a state away from the backrest part. When the determination is made, the stereoscopic image display apparatus calculates the relative position using the observer data and the face image area.
観察者データ保管処理手段は、前記観察者データを検出するに際して、前記観察者が前記背もたれ部に密接した状態にあるときの前記撮影画像データを用いることを特徴とした立体画像表示装置。 The stereoscopic image display device according to claim 5,
The observer data storage processing means uses the captured image data when the observer is in close contact with the backrest portion when detecting the observer data.
前記相対位置算出手段は、前記撮像画像データを用いて前記移動物体の位置状態にかかる状態情報を検出すると共に、これに基づいて前記相対位置を算出することを特徴とした立体画像表示装置。 The stereoscopic image display device according to claim 1,
The relative position calculation means detects state information concerning the position state of the moving object using the captured image data, and calculates the relative position based on the state information.
前記移動物体は座席であり、該座席の背もたれ部は可動式であり、
前記相対位置算出手段は、前記撮像画像データから前記観察者が着座する座席の背もたれ部の画像領域に対する前記観察者の顔画像領域の割合を検出すると共に、この割合に係る情報を用いて前記相対位置を算出することを特徴とした立体画像表示装置。 The stereoscopic image display device according to claim 1,
The moving object is a seat, and the back portion of the seat is movable;
The relative position calculation means detects a ratio of the face image area of the observer to an image area of a backrest portion of a seat on which the observer is seated from the captured image data, and uses the information relating to the ratio to calculate the relative position. A stereoscopic image display device characterized by calculating a position.
前記立体表示パネル手段は、
少なくとも第1視点用の画像を表示する第1のサブ画素及び第2視点用の画像を表示する第2のサブ画素を含む画素がマトリクス状に複数配列された表示パネルと、
前記各サブ画素から出射した光線を相互に異なる方向に振り分ける光線分離手段と、を含むことを特徴とした立体画像表示装置。 The stereoscopic image display device according to any one of claims 1 to 8,
The stereoscopic display panel means includes:
A display panel in which a plurality of pixels including at least a first sub-pixel that displays an image for a first viewpoint and a second sub-pixel that displays an image for a second viewpoint are arranged in a matrix;
3D image display apparatus, comprising: light beam separating means for distributing light beams emitted from the sub-pixels in different directions.
前記光線分離手段は、光線分離方向が変更可能なアクティブ素子からなり、
前記表示設定調整手段は、前記相対位置に合わせて前記光線分離手段の屈折率の分布を制御することで立体視域範囲を調整することを特徴とした立体画像表示装置。 The stereoscopic image display device according to claim 9,
The light beam separating means comprises an active element whose light beam separating direction can be changed,
The stereoscopic image display apparatus, wherein the display setting adjusting unit adjusts a stereoscopic viewing range by controlling a refractive index distribution of the light beam separating unit in accordance with the relative position.
前記表示設定調整手段は、前記相対位置に合わせて前記立体画像の視差値又は輝度値を変更することを特徴とした立体画像表示装置。 In the three-dimensional image display device according to any one of claims 1 to 10,
The display setting adjustment unit changes a parallax value or a luminance value of the stereoscopic image in accordance with the relative position.
前記立体表示パネルの表示面前方の観察者を撮影し、撮像画像データとして記録する撮像工程と、
この撮像画像データを用いて前記立体表示パネル手段に対する前記観察者の相対位置を算出する相対位置算出工程と、
前記立体表示パネル手段にかかるデバイス特性データを受信するデバイス特性データ受信工程と、
前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整工程と、
この調整後の表示設定に基づいて、前記各空間領域それぞれに対し前記視差の異なる画像を投影することで前記立体画像を表示する立体画像表示工程と、を有することを特徴とした立体画像表示方法。 A stereoscopic image display method in a stereoscopic image display device that has stereoscopic display panel means for projecting images with different parallax for each adjacent spatial region and displays a stereoscopic image installed on a moving object,
An imaging step of photographing an observer in front of the display surface of the stereoscopic display panel and recording it as captured image data;
A relative position calculating step of calculating a relative position of the observer with respect to the stereoscopic display panel means using the captured image data;
A device characteristic data receiving step of receiving device characteristic data according to the stereoscopic display panel means;
A display setting adjustment step of adjusting display settings of the stereoscopic image with reference to the relative position and the device characteristic data;
A stereoscopic image display method for displaying the stereoscopic image by projecting images with different parallaxes to the respective spatial regions based on the display settings after adjustment. .
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出工程をさらに有し、
前記相対位置算出工程では、この状態情報を前記撮像画像データと共に参照して前記相対位置を算出することを特徴とした立体画像表示方法。 In the three-dimensional image display method according to claim 12,
A moving object state detection step of detecting state information related to the position state of the moving object;
In the relative position calculating step, the relative position is calculated by referring to the state information together with the captured image data.
前記移動物体が座席であり、該座席の背もたれ部が可動式である場合に、
前記相対位置算出工程に先立って、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出工程と、
前記観察者の着座状態にかかる観察者状態情報を検出する観察者状態検出工程と、
この観察者状態情報と前記撮像画像データとを用いて観察者のサイズ情報を示す観察者データを検出し保管する観察者データ保管処理工程と、を有し、
前記相対位置算出工程では、
前記撮像画像データから前記観察者の顔画像領域を検出すると共に、前記観察者状態情報に基づいて前記観察者が前記背もたれ部に密接した状態にあるか否かを判定し、
密接した状態にある旨判定した場合には前記状態情報と前記顔画像領域とを用いて前記相対位置を算出し、前記観察者が前記背もたれ部から離れた状態にある旨判定した場合には、前記観察者データと前記顔画像領域とを用いて前記相対位置を算出することを特徴とした立体画像表示方法。 In the three-dimensional image display method according to claim 12,
When the moving object is a seat and the back portion of the seat is movable,
Prior to the relative position calculation step,
A moving object state detection step of detecting state information relating to the position state of the moving object;
An observer state detecting step of detecting observer state information relating to the sitting state of the observer;
An observer data storage process for detecting and storing observer data indicating the size information of the observer using the observer state information and the captured image data, and
In the relative position calculating step,
Detecting the face image area of the observer from the captured image data, and determining whether the observer is in close contact with the backrest based on the observer state information;
When it is determined that it is in a close state, the relative position is calculated using the state information and the face image region, and when it is determined that the observer is away from the backrest portion, A stereoscopic image display method, wherein the relative position is calculated using the observer data and the face image area.
前記相対位置算出工程では、前記撮像画像データに基づいて前記移動物体の位置状態にかかる状態情報を検出することを特徴とした立体画像表示方法。 In the three-dimensional image display method according to claim 12,
In the relative position calculating step, state information relating to the position state of the moving object is detected based on the captured image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018043738A JP6677387B2 (en) | 2018-03-12 | 2018-03-12 | Stereoscopic image display device and stereoscopic image display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018043738A JP6677387B2 (en) | 2018-03-12 | 2018-03-12 | Stereoscopic image display device and stereoscopic image display method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014089883A Division JP6516234B2 (en) | 2014-04-24 | 2014-04-24 | Stereoscopic display |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018129826A true JP2018129826A (en) | 2018-08-16 |
JP6677387B2 JP6677387B2 (en) | 2020-04-08 |
Family
ID=63173226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018043738A Active JP6677387B2 (en) | 2018-03-12 | 2018-03-12 | Stereoscopic image display device and stereoscopic image display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6677387B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110610454A (en) * | 2019-09-18 | 2019-12-24 | 上海云绅智能科技有限公司 | Method and device for calculating perspective projection matrix, terminal device and storage medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005332218A (en) * | 2004-05-20 | 2005-12-02 | Nissan Motor Co Ltd | Driving support device |
JP2007047735A (en) * | 2005-07-11 | 2007-02-22 | Nissan Motor Co Ltd | Visual information display device and visual information display method |
JP2008209916A (en) * | 2007-01-30 | 2008-09-11 | Kyocera Corp | Optical multiplexer/demultiplexer and optical transceiver using the same |
JP2010089651A (en) * | 2008-10-08 | 2010-04-22 | Honda Motor Co Ltd | Monitor position adjustment device |
JP2010285118A (en) * | 2009-06-15 | 2010-12-24 | Panasonic Corp | Image display system |
JP2011020538A (en) * | 2009-07-15 | 2011-02-03 | Panasonic Corp | Seatback display angle control device |
JP2013121031A (en) * | 2011-12-07 | 2013-06-17 | Sony Corp | Display device, method and program |
JP2014045474A (en) * | 2012-07-31 | 2014-03-13 | Nlt Technologies Ltd | Stereoscopic image display device, image processing apparatus, and stereoscopic image processing method |
-
2018
- 2018-03-12 JP JP2018043738A patent/JP6677387B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005332218A (en) * | 2004-05-20 | 2005-12-02 | Nissan Motor Co Ltd | Driving support device |
JP2007047735A (en) * | 2005-07-11 | 2007-02-22 | Nissan Motor Co Ltd | Visual information display device and visual information display method |
JP2008209916A (en) * | 2007-01-30 | 2008-09-11 | Kyocera Corp | Optical multiplexer/demultiplexer and optical transceiver using the same |
JP2010089651A (en) * | 2008-10-08 | 2010-04-22 | Honda Motor Co Ltd | Monitor position adjustment device |
JP2010285118A (en) * | 2009-06-15 | 2010-12-24 | Panasonic Corp | Image display system |
JP2011020538A (en) * | 2009-07-15 | 2011-02-03 | Panasonic Corp | Seatback display angle control device |
JP2013121031A (en) * | 2011-12-07 | 2013-06-17 | Sony Corp | Display device, method and program |
JP2014045474A (en) * | 2012-07-31 | 2014-03-13 | Nlt Technologies Ltd | Stereoscopic image display device, image processing apparatus, and stereoscopic image processing method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110610454A (en) * | 2019-09-18 | 2019-12-24 | 上海云绅智能科技有限公司 | Method and device for calculating perspective projection matrix, terminal device and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6677387B2 (en) | 2020-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6516234B2 (en) | Stereoscopic display | |
US9880395B2 (en) | Display device, terminal device, and display method | |
US9280951B2 (en) | Stereoscopic image display device, image processing device, and stereoscopic image processing method | |
US9398290B2 (en) | Stereoscopic image display device, image processing device, and stereoscopic image processing method | |
US11109015B2 (en) | Display apparatus, display apparatus driving method, and electronic instrument | |
US8708498B2 (en) | Display apparatus for vehicle and display method | |
JP6410167B2 (en) | Display device and display method thereof | |
CN103595986A (en) | Stereoscopic image display device, image processing device, and image processing method | |
JPH09105885A (en) | Head mount type stereoscopic image display device | |
JP5834177B2 (en) | Stereoscopic image display system and stereoscopic glasses | |
US20190035364A1 (en) | Display apparatus, method of driving display apparatus, and electronic apparatus | |
US9684166B2 (en) | Motor vehicle and display of a three-dimensional graphical object | |
JPWO2018008577A1 (en) | Head-mounted display device | |
JP2018203245A (en) | Display system, electronic mirror system, and mobile body | |
JP6677387B2 (en) | Stereoscopic image display device and stereoscopic image display method | |
JP2007047735A (en) | Visual information display device and visual information display method | |
JP2021067909A (en) | Stereoscopic display device and head-up display apparatus | |
JP3425402B2 (en) | Apparatus and method for displaying stereoscopic image | |
JP7354846B2 (en) | heads up display device | |
WO2020031549A1 (en) | Virtual image display device | |
WO2019188581A1 (en) | Display control device, and head-up display device | |
WO2023228770A1 (en) | Image display device | |
US20230097378A1 (en) | Head mounted display and cross reality system | |
JP7121349B2 (en) | Display method and display device | |
WO2019240230A1 (en) | Virtual image display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190625 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190806 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20191105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200123 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200302 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6677387 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |