JP2018129826A - Stereoscopic image display device and stereoscopic image display method - Google Patents

Stereoscopic image display device and stereoscopic image display method Download PDF

Info

Publication number
JP2018129826A
JP2018129826A JP2018043738A JP2018043738A JP2018129826A JP 2018129826 A JP2018129826 A JP 2018129826A JP 2018043738 A JP2018043738 A JP 2018043738A JP 2018043738 A JP2018043738 A JP 2018043738A JP 2018129826 A JP2018129826 A JP 2018129826A
Authority
JP
Japan
Prior art keywords
observer
stereoscopic
stereoscopic image
seat
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018043738A
Other languages
Japanese (ja)
Other versions
JP6677387B2 (en
Inventor
長谷川 雄史
Yushi Hasegawa
雄史 長谷川
幸治 重村
Koji Shigemura
幸治 重村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianma Japan Ltd
Original Assignee
Tianma Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianma Japan Ltd filed Critical Tianma Japan Ltd
Priority to JP2018043738A priority Critical patent/JP6677387B2/en
Publication of JP2018129826A publication Critical patent/JP2018129826A/en
Application granted granted Critical
Publication of JP6677387B2 publication Critical patent/JP6677387B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To display a significant stereoscopic image not giving an observer any discomfort, by reducing the impact of double image, reverse view, and 3D Moire due to 3D crosstalk effectively by an inexpensive configuration.SOLUTION: In addition to mobile object state detection means 110 and stereoscopic display panel means 120, a stereoscopic image display device 12 has an arithmetic processing section 132 performing various arithmetic processing, and imaging means 280 for imaging an observer and recording the image data thereof. The arithmetic processing section 132 has image data preservation means 150 and device characteristic data holding means 160, and also has observation position calculation means 290 for calculating the observation position Pindicating the relative position of the observation position of the observer for the center position of the display surface of the stereoscopic display panel means 120, and display setting adjustment means 270 for adjusting display setting of the stereoscopic image based on the observation position calculated by the observation position calculation means 290 and the device characteristic data preserved in the device characteristic data holding means 160.SELECTED DRAWING: Figure 38

Description

本発明は、立体画像表示技術に係り、特に、座席背面部に設置した立体画像表示装置と観察者との相対距離が変化した際にも、観察者へ違和感を与えない立体画像を表示する立体画像表示装置,立体画像表示方法,及び立体画像表示プログラムに関する。   The present invention relates to a stereoscopic image display technique, and in particular, a stereoscopic display that displays a stereoscopic image that does not give the viewer a sense of incongruity even when the relative distance between the stereoscopic image display device installed on the back of the seat and the observer changes. The present invention relates to an image display device, a stereoscopic image display method, and a stereoscopic image display program.

近年、飛行機や長距離列車等の乗客席には、各々の背面部に中小型ディスプレイが設置されており、各乗客は、それぞれの前の座席の背面部に設けられたディスプレイを使用して、好みの番組内容を視聴することができる。   In recent years, in passenger seats such as airplanes and long-distance trains, small and medium displays are installed on the back of each passenger, each passenger uses the display provided on the back of each front seat, You can watch your favorite program content.

映画等に代表される乗客視聴用の番組内容には、立体画像表示用のコンテンツが多くあるため、座席背面部に設置されたディスプレイにて立体画像を表示することが望まれている。   Since there are many contents for displaying stereoscopic images in the program contents for viewing passengers represented by movies and the like, it is desired to display a stereoscopic image on a display installed on the back of the seat.

ここで、立体画像を表示するディスプレイを備えた立体画像表示装置には、眼鏡式のものと裸眼式のものとがある。   Here, a stereoscopic image display device provided with a display for displaying a stereoscopic image includes a glasses-type device and a naked-eye type device.

眼鏡式の立体画像表示装置では、観察者が立体画像表示用の眼鏡をかけることにより、左右の眼に視差の異なる画像を投影して観察者へ立体画像を表示する。しかしながら、立体画像表示用の眼鏡をかけることに不快感を持つ観察者は多く、眼鏡が不要である裸眼式の立体画像表示装置の方が望まれている。   In the glasses-type stereoscopic image display device, when an observer wears glasses for displaying a stereoscopic image, images with different parallax are projected on the left and right eyes to display a stereoscopic image to the observer. However, many observers are uncomfortable with wearing glasses for stereoscopic image display, and a naked-eye type stereoscopic image display device that does not require glasses is desired.

裸眼式の立体画像表示装置では、立体画像を投影する空間領域を分割し、分割した空間領域ごとに視差の異なる画像を投影することで、観察者の左右の眼に視差の異なる画像を投影する方式が一般的である。   In an autostereoscopic image display device, a spatial region in which a stereoscopic image is projected is divided, and an image with different parallax is projected for each divided spatial region, thereby projecting an image with different parallax to the left and right eyes of the observer. The method is common.

かかる方式では、立体画像表示装置の立体表示パネルに光学的な光線分離手段であるレンチキュラレンズやパララックスバリア等を備えることにより、空間領域ごとに投影する画像を分離して、複数の空間領域ごとに視差の異なる画像を投影するという手法をとる。   In such a method, the stereoscopic display panel of the stereoscopic image display device is provided with a lenticular lens, a parallax barrier, or the like, which is an optical beam separation unit, so that an image to be projected is separated for each spatial region, and a plurality of spatial regions are separated. The method of projecting images with different parallax is used.

このようなレンチキュラレンズやパララックスバリア等の光学的な光線分離手段を備えた立体画像表示装置は、立体画像表示用の眼鏡を装着する必要がなく、煩わしさがない点で優れている。   A stereoscopic image display device provided with such optical beam separation means such as a lenticular lens and a parallax barrier is superior in that it does not require wearing glasses for stereoscopic image display and is not bothered.

しかし、観察者が正常に立体画像を視認できる空間領域(正常立体視可能領域)は、観察者の左眼の位置が左眼用画像の投影される空間領域内にあり、観察者の右眼の位置が右眼用画像の投影される空間領域内にある場合に限定される。   However, the space area where the observer can visually recognize the stereoscopic image (normal stereoscopic view possible area) is located within the spatial area where the left eye position of the observer is projected, and the right eye of the observer Is located within the space area where the right-eye image is projected.

観察者の左右の眼の位置がこの正常立体視可能領域から外れると、左眼用画像と右眼用画像が重なって見えたり(いわゆる3Dクロストークによる2重像)、奥行き感が逆になった立体画像が見えたり(いわゆる逆視)するという問題が発生する。   If the left and right eye positions of the observer deviate from the normal stereoscopic viewable region, the left eye image and the right eye image appear to overlap (so-called 3D crosstalk double image), and the sense of depth is reversed. There is a problem that a stereoscopic image can be seen (so-called reverse viewing).

その他にも、裸眼式の立体画像表示装置においては、観察者の観察位置が正常立体視可能領域から外れると、立体表示パネル面上に輝度ムラ(輝度変動)が発生し、立体画像内で周辺の画像領域よりも一段と暗く表示される画像領域が現れる問題が知られている。   In addition, in an autostereoscopic image display device, if the observer's observation position deviates from the normal stereoscopic view possible region, luminance unevenness (brightness fluctuation) occurs on the surface of the stereoscopic display panel, and the periphery in the stereoscopic image There is a problem that an image area that is displayed darker than the image area appears.

この現象は3Dモアレと呼ばれ、各視点用の画素と画素との間の非表示領域(液晶パネルで一般にブラックマトリックスと呼ばれる遮光部)が、レンチキュラレンズやパララックスバリア等の光学的な光線分離手段と干渉して視認されることに起因する。すなわち、3Dモアレ(3D moire)とは、異なる角度方向に異なる画像を投影することに起因する、周期的な輝度のムラ(色のムラを指すこともある)のことである。   This phenomenon is called 3D moire, and the non-display area between pixels for each viewpoint (light-shielding part generally called a black matrix in a liquid crystal panel) is used for optical beam separation such as lenticular lenses and parallax barriers. This is caused by interference with the means. In other words, 3D moire is periodic luminance unevenness (sometimes referred to as color unevenness) caused by projecting different images in different angular directions.

3Dモアレは、輝度の角度方向における変動(Luminance Angular Fluctuation)であり、観察位置によっては問題とならない場合もあるが、この輝度の角度方向における変動が大きいと、立体画像の表示品質が低下し、観察者へ違和感を与えるといった問題が発生する。   3D moiré is a variation in luminance angular direction (Luminance Angular Fluctuation), which may not be a problem depending on the observation position, but if the luminance variation in the angular direction is large, the display quality of the stereoscopic image is reduced, There is a problem that the viewer feels uncomfortable.

これらの裸眼式の立体画像表示装置に特有である3Dクロストークによる2重像や逆視,3Dモアレによる問題(以下「3D表示における各問題」と称する。)は、立体画像表示装置と観察者との相対距離に依存する。   Problems caused by double images by 3D crosstalk, reverse viewing, and 3D moire (hereinafter referred to as “problems in 3D display”), which are peculiar to these autostereoscopic image display apparatuses, are a stereoscopic image display apparatus and an observer. Depends on the relative distance.

また、旅客機や旅客車等では、前座席の乗客の都合によって該前座席の背面部にある背もたれが倒れることがあり、これに伴って該背面部に設置された立体画像表示装置も移動することとなる。   Also, in passenger aircraft, passenger cars, etc., the backrest on the back part of the front seat may fall due to the convenience of the passenger in the front seat, and the stereoscopic image display device installed on the back part also moves accordingly It becomes.

したがって、座席背面部に立体画像表示装置が設置されている場合には、観察者が移動しなくても、前座席の乗客の都合によって立体画像表示装置と観察者との相対距離(観察距離)が急激に変化し、これにより3D表示における各問題が発生するため、立体画像の表示品質が著しく低下することとなる。この表示品質の低下は観察者に違和感を与えるため、観察距離が変化しても3D表示における各問題が発生しない立体画像表示装置が強く望まれている。   Therefore, when the stereoscopic image display device is installed on the seat back portion, even if the observer does not move, the relative distance (observation distance) between the stereoscopic image display device and the observer due to the convenience of the passenger in the front seat Changes abruptly, which causes various problems in 3D display, resulting in a significant reduction in the display quality of stereoscopic images. Since this deterioration in display quality makes the viewer feel uncomfortable, there is a strong demand for a stereoscopic image display device that does not cause problems in 3D display even when the observation distance changes.

こうした3D表示における各問題の影響を軽減するための手法としては、観察者の位置を計測して、立体画像表示装置と観察者との相対距離を表す観察距離や立体画像表示装置に対する観察者の相対位置を表す観察位置を算出し、この算出した観察距離又は観察位置に係る情報に応じて立体画像の表示設定を調整するという構成内容が考えられ、これを採用する場合には、観察距離情報又は観察位置情報を要するため、観察者の位置を計測する装置が必要となる。   As a technique for reducing the influence of each problem in such 3D display, an observer's position is measured, an observation distance indicating a relative distance between the stereoscopic image display apparatus and the observer, and an observer's position with respect to the stereoscopic image display apparatus. A configuration in which an observation position representing a relative position is calculated and the display setting of the stereoscopic image is adjusted in accordance with the calculated observation distance or information related to the observation position is conceivable. Alternatively, since observation position information is required, an apparatus for measuring the position of the observer is required.

特に、3Dクロストークによる2重像や逆視,3Dモアレの影響をより効果的に軽減するには、観察者と立体画像表示装置との奥行き方向の距離を表す観察距離を計測することが必要となり、この観察距離を計測する装置としては、奥行き方向の距離を計測して3次元空間上の位置を計測可能な計測装置(3次元位置計測装置)が知られている。   In particular, in order to more effectively reduce the effects of double images, reverse viewing, and 3D moire due to 3D crosstalk, it is necessary to measure the observation distance representing the distance in the depth direction between the observer and the stereoscopic image display device. Thus, as a device for measuring the observation distance, a measurement device (three-dimensional position measurement device) capable of measuring a distance in the depth direction and measuring a position in a three-dimensional space is known.

近年、こうした3次元位置計測装置の価格は低下しているが、それでも、観察者の位置を2次元平面上の撮像画像データとして撮影可能なUSBカメラ(モバイル機器の小型カメラモジュール)や座席の倒れ具合を計測する傾斜センサ等と比較すると、当該計測装置はまだまだ高価である。   In recent years, the price of such a three-dimensional position measurement device has decreased, but even so, a USB camera (a small camera module of a mobile device) that can take an observer's position as captured image data on a two-dimensional plane, or a fall of the seat Compared with an inclination sensor or the like that measures the condition, the measuring device is still expensive.

すなわち、このような高価な計測装置を立体画像表示装置に設置することは、全体的な装置コストの増加に繋がるため、座席背面部に設置する立体画像表示装置の普及を妨げる原因となっていた。   That is, installing such an expensive measuring device on a stereoscopic image display device leads to an increase in the overall device cost, which has hindered the widespread use of the stereoscopic image display device installed on the back of the seat. .

かかる問題の解決に関連する技術としては、例えば下記のような内容が知られている(特許文献1乃至9等)。   For example, the following contents are known as techniques related to the solution of such problems (Patent Documents 1 to 9, etc.).

特許文献1には、ディスプレイ面を斜めから観察することによって生じる画像あおりによる歪みを補正するために、観察者の座席状態とバックミラーに取り付けた車内カメラによる撮影画像とから観察距離を含む観察位置を算出するという技術が開示されている。   Patent Document 1 discloses an observation position including an observation distance from an observer's seat state and an image taken by an in-vehicle camera attached to a rearview mirror in order to correct distortion caused by image tilt caused by observing the display surface from an oblique direction. A technique for calculating the value is disclosed.

特許文献2には、観察者の位置に合わせてディスプレイの位置や姿勢を調整するキャリブレーションシステムにおいて、ディスプレイから発光した赤外線を観察者の位置に設置した赤外線カメラで計測することにより、観察者のディスプレイに対する相対位置を算出するという技術が開示されている。   In Patent Document 2, in a calibration system that adjusts the position and orientation of the display in accordance with the position of the observer, the infrared light emitted from the display is measured by an infrared camera installed at the position of the observer, thereby A technique of calculating a relative position with respect to a display is disclosed.

特許文献3には、観察者が移動しても違和感の無い立体画像を表示するために、カメラで撮影した撮像画像データから観察者の位置を計測する画像処理技術が開示されている。また、当該技術における処理方法としては、2次元平面上の撮像画像データから観察者の位置を計測する画像処理方法のほか、顔画像を任意の画像範囲で撮影するためにカメラの焦点距離を調整する方法が記載されている。   Patent Document 3 discloses an image processing technique for measuring the position of an observer from captured image data captured by a camera in order to display a stereoscopic image that does not feel strange even when the observer moves. In addition to the image processing method for measuring the position of the observer from captured image data on a two-dimensional plane, the processing method in the art adjusts the focal length of the camera to capture a face image in an arbitrary image range. How to do is described.

特許文献4には、観察者の位置が正常に立体画像を視認できる空間領域から外れた場合に、立体画像を視認できる空間領域内へ移動するように観察者へ報知する技術が開示されている。   Patent Document 4 discloses a technique for notifying an observer to move into a space area where a stereoscopic image can be visually recognized when the position of the observer deviates from a space area where the stereoscopic image can be normally visually recognized. .

特許文献5における立体画像表示装置には、観察者が移動しても違和感の無い立体画像を提供するために、加速度センサ等に代表される傾斜センサが立体画像表示装置に設置されている。すなわち、この傾斜センサによって立体画像表示装置の傾きを検出し、観察位置を計測するという技術内容が開示されている。   In the stereoscopic image display device in Patent Document 5, an inclination sensor typified by an acceleration sensor or the like is installed in the stereoscopic image display device in order to provide a stereoscopic image that does not feel strange even when the observer moves. That is, the technical content of detecting the tilt of the stereoscopic image display device by this tilt sensor and measuring the observation position is disclosed.

特許文献6には、前座席の乗客のリクライニングの状態変化によって、前座席の背面部に設置されたディスプレイ面の表示方向が変化した場合でも、ディスプレイ面の表示方向と観察者の視線方向とを一致させるために、観察者の座席と前座席との傾斜角度を考慮してディスプレイ面の設置角度を調整するという技術が開示されている。   In Patent Document 6, even if the display direction of the display surface installed on the back part of the front seat changes due to the reclining state of the passenger in the front seat, the display direction of the display surface and the viewing direction of the observer In order to make them coincide, a technique is disclosed in which the installation angle of the display surface is adjusted in consideration of the inclination angle between the observer's seat and the front seat.

特許文献7乃至9における立体画像表示装置では、観察者の位置が移動しても、その位置に合わせて右眼用画像及び左眼用画像に画像変換処理を実施することで、3Dクロストークによる2重像や逆視,3Dモアレの影響を軽減し、違和感の無い立体画像を表示するという技術を採用している。   In the stereoscopic image display devices in Patent Documents 7 to 9, even if the position of the observer moves, the image conversion processing is performed on the right-eye image and the left-eye image according to the position, thereby performing 3D crosstalk. The technology of reducing the influence of double images, reverse viewing, and 3D moire and displaying a stereoscopic image without a sense of incongruity is adopted.

また、非特許文献1には、安価な計測装置だけで観察位置を計測するために、予め観察者の実際の瞳孔間距離を登録しておき、USBカメラ等で撮影した2次元平面の撮像画像データ内に映る観察者の瞳孔間距離と、上記予め登録した観察者の瞳孔間距離とを比較することで、立体画像表示装置と観察者との奥行き方向の距離を表す観察距離を算出するという技術が開示されている。   Further, in Non-Patent Document 1, in order to measure the observation position only with an inexpensive measuring device, the actual interpupillary distance of the observer is registered in advance, and a two-dimensional plane captured image captured by a USB camera or the like. By comparing the distance between the pupils of the observer reflected in the data and the distance between the pupils of the observer registered in advance, the observation distance representing the distance in the depth direction between the stereoscopic image display device and the observer is calculated. Technology is disclosed.

特開2009−75842号公報JP 2009-75842 A WO2012−023509号公報WO2012-023509 特開2000−152285号公報JP 2000-152285 A 特開2012−170502号公報JP 2012-170502 A 特開2008−15188号公報JP 2008-15188 A 特開2008−279155号公報JP 2008-279155 A 特開2014−45474号公報JP 2014-45474 A 特開2014−45473号公報JP 2014-45473 A 特開2014−44396号公報JP 2014-44396 A

S-H. Ju, et al, “Viewer's Eye Position Estimation Using Camera” 2013 International Symposium Digest of Technical Papers, 48.3, pp 671-674S-H. Ju, et al, “Viewer's Eye Position Estimation Using Camera” 2013 International Symposium Digest of Technical Papers, 48.3, pp 671-674

しかしながら、特許文献1における観察位置の算出方法は、車内カメラとディスプレイとの設置位置が固定されていることを前提とした技術であるため、前座席の乗客の都合によって当該ディスプレイの設置位置が移動するような場合(例えば座席背面部に設置したディスプレイを使用するような場合)には適用することができないという課題がある。   However, since the calculation method of the observation position in Patent Document 1 is a technique based on the premise that the installation position of the in-vehicle camera and the display is fixed, the installation position of the display moves according to the convenience of the passenger in the front seat. In such a case (for example, in the case of using a display installed on the back of the seat), there is a problem that it cannot be applied.

また、特許文献2に開示された技術では、観察者の位置に赤外線カメラを設置する必要があるため、計測装置の設置が困難であり、かつ装置コストが高価になるという不都合がある。   In addition, the technique disclosed in Patent Document 2 has a disadvantage that it is difficult to install a measuring apparatus and the apparatus cost is high because an infrared camera needs to be installed at the position of the observer.

ところで、より効果的に3Dクロストークによる2重像や逆視,3Dモアレの影響を軽減するためには、立体画像表示装置と観察者との奥行き方向の距離を表す観察距離を計測することが必要となるが、特許文献3には、撮影した顔画像から立体画像表示装置と観察者との奥行き方向の距離を計測する方法について何ら開示されていない。したがって、特許文献3に開示された技術を採用しても、違和感の無い良好な立体画像を表示することができないという問題がある。   By the way, in order to more effectively reduce the influence of double images, reverse viewing, and 3D moire due to 3D crosstalk, it is possible to measure an observation distance that represents the distance in the depth direction between the stereoscopic image display device and the observer. Although necessary, Patent Document 3 does not disclose any method for measuring the distance in the depth direction between the stereoscopic image display device and the observer from the captured face image. Therefore, even if the technique disclosed in Patent Document 3 is adopted, there is a problem that it is not possible to display a good stereoscopic image without a sense of incongruity.

特許文献4における技術では、観察距離の計測に測距センサを使用するため、計測装置のコストが増加するという課題がある。   In the technique in Patent Document 4, since a distance measuring sensor is used for measuring the observation distance, there is a problem that the cost of the measuring device increases.

また、特許文献5には、傾斜センサによって立体画像表示装置の傾斜角度を検出する手法についての記載はあるが、観察者の座席とその前にある座席の傾斜角度を使用して観察距離を計測するという方法については何ら開示されていない。したがって、特許文献5における技術を用いても、座席背面部に設置した立体画像表示装置と観察者との相対距離を、安価な計測装置のみで計測することができないという不都合がある。   In addition, Patent Document 5 describes a method for detecting the tilt angle of the stereoscopic image display device using a tilt sensor, but the observation distance is measured using the tilt angle of the observer's seat and the seat in front of it. There is no disclosure of how to do this. Therefore, even if the technique in Patent Document 5 is used, there is an inconvenience that the relative distance between the stereoscopic image display device installed on the back of the seat and the observer cannot be measured only with an inexpensive measuring device.

特許文献6における技術では、観察者の座席と前座席との傾斜角度からディスプレイ面の表示方向と観察者の視線方向との相対角度を算出するという手法を採っているものの、ディスプレイ面と観察者との奥行き方向の距離を算出するといった内容については、何ら開示されていない。
ここで、裸眼式の立体画像表示装置では、通常の画像表示装置(2次元画像を表示するディスプレイ)と異なり、相対角度が変化した場合のみならず、観察距離が変化した場合においても、3Dクロストークによる2重像や逆視,3Dモアレの影響によって立体画像の表示品質が著しく低下する。このため、特許文献6にかかる方法を用いても、裸眼式の立体画像表示装置に特有である3Dクロストークによる2重像や逆視,3Dモアレ等の影響を軽減することができないという問題がある。
Although the technique in Patent Document 6 employs a method of calculating a relative angle between the display direction of the display surface and the viewing direction of the observer from the inclination angle between the observer's seat and the front seat, the display surface and the observer The content of calculating the distance in the depth direction is not disclosed at all.
Here, unlike a normal image display device (a display that displays a two-dimensional image), the autostereoscopic image display device does not only have a 3D cross not only when the relative angle changes but also when the observation distance changes. The display quality of the stereoscopic image is remarkably deteriorated due to the influence of the double image, reverse viewing, and 3D moire due to the talk. For this reason, even if the method according to Patent Document 6 is used, there is a problem that it is not possible to reduce the influence of double images, reverse viewing, 3D moire, and the like due to 3D crosstalk, which are peculiar to autostereoscopic image display devices. is there.

特許文献7乃至9における技術では、立体画像表示装置と観察者との相対距離を表す観察位置を計測するに際して、観察者の座席と前座席の傾斜角度を使用するという構成を採っていない。このため、かかる技術を立体画像表示装置が座席背面部に設置されるという状況下に適用しても、安価な計測装置だけでは観察距離を計測することができないという不都合がある。   The techniques in Patent Documents 7 to 9 do not employ a configuration in which the inclination angle between the observer's seat and the front seat is used when measuring the observation position representing the relative distance between the stereoscopic image display device and the observer. For this reason, even when such a technique is applied in a situation where the stereoscopic image display device is installed on the back of the seat, there is an inconvenience that the observation distance cannot be measured only with an inexpensive measurement device.

また、非特許文献1に記載の技術によれば、安価な計測装置のみによる観察距離の計測は可能であるが、当該計測に先立って、予め観察者の瞳孔間距離を立体画像表示装置に登録しておく必要がある。したがって、大勢の観察者が利用する公共性の高い立体画像表示装置等に当該技術を採用した場合には、観察者が変わるたびに瞳孔間距離の登録が必要となるため、処理が煩雑となってしまうという不都合がある。すなわち、大勢の観察者の瞳孔間距離を簡易に登録する方法について何ら開示されていない当該技術を、公共性の高い立体画像表示装置等に適用しても、その利点を活かすことができないという問題がある。   Further, according to the technique described in Non-Patent Document 1, it is possible to measure the observation distance using only an inexpensive measuring device, but prior to the measurement, the distance between the pupils of the observer is registered in the stereoscopic image display device in advance. It is necessary to keep it. Therefore, when the technology is applied to a highly public stereoscopic image display device used by a large number of observers, it is necessary to register the interpupillary distance every time the observer changes, and the processing becomes complicated. There is an inconvenience. That is, there is a problem that even if the technique that is not disclosed at all about a method for easily registering the interpupillary distances of many observers is applied to a highly public stereoscopic image display device or the like, the advantage cannot be utilized. There is.

(発明の目的)
そこで、本発明は上述した課題を解決し、特に、3Dクロストークによる2重像や逆視,3Dモアレの影響を安価な構成によって有効に軽減し、観察者に違和感を与えない有意な立体画像を表示する立体画像表示装置,その表示方法,及びその表示プログラムを提供することを目的とする。
(Object of invention)
Therefore, the present invention solves the above-described problems, and in particular, a significant three-dimensional image that effectively reduces the effects of double images, reverse viewing, and 3D moire due to 3D crosstalk with an inexpensive configuration and does not give the viewer a sense of incongruity. An object of the present invention is to provide a stereoscopic image display device for displaying the image, its display method, and its display program.

上記目的を達成するために、本発明にかかる立体画像表示装置は、移動物体に設置されて立体画像を表示する立体画像表示装置であって、隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段と、この立体表示パネルの表示面前方の観察者を撮影し、撮像画像データとして記録する撮像手段と、この撮像画像データを用いて前記立体表示パネル手段に対する前記観察者の相対位置を算出する相対位置算出手段と、前記立体表示パネル手段にかかるデバイス特性データを保存するデバイス特性データ保管手段と、前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整手段と、を有する、という構成を採っている。   In order to achieve the above object, a stereoscopic image display device according to the present invention is a stereoscopic image display device that is installed on a moving object and displays a stereoscopic image, and projects images having different parallax for each adjacent spatial region. Stereoscopic display panel means, imaging means for photographing an observer in front of the display surface of the stereoscopic display panel, and recording it as captured image data, and relative position of the observer with respect to the stereoscopic display panel means using the captured image data Relative position calculation means for calculating the device, device characteristic data storage means for storing device characteristic data relating to the stereoscopic display panel means, and adjustment of display settings of the stereoscopic image with reference to the relative position and the device characteristic data And a display setting adjusting means.

また、本発明にかかる立体画像表示方法は、隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段を有すると共に、移動物体に設置されて立体画像を表示する立体画像表示装置における立体画像表示方法であって、前記立体表示パネルの表示面前方の観察者を撮影し、撮像画像データとして記録する撮像工程と、この撮像画像データを用いて前記立体表示パネル手段に対する前記観察者の相対位置を算出する相対位置算出工程と、前記立体表示パネル手段にかかるデバイス特性データを受信するデバイス特性データ受信工程と、前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整工程と、この調整後の表示設定に基づいて、前記各空間領域それぞれに対し前記視差の異なる画像を投影することで前記立体画像を表示する立体画像表示工程と、を有することを特徴とする。   In addition, the stereoscopic image display method according to the present invention includes a stereoscopic display panel unit that projects an image having different parallax for each adjacent space region, and is a stereoscopic image display apparatus that displays a stereoscopic image installed on a moving object. An image display method, in which an observer in front of the display surface of the stereoscopic display panel is imaged and recorded as captured image data, and the observer's relative to the stereoscopic display panel means using the captured image data A relative position calculating step for calculating a position; a device characteristic data receiving step for receiving device characteristic data for the stereoscopic display panel; and a display setting for the stereoscopic image with reference to the relative position and the device characteristic data. Based on the display setting adjustment process to be adjusted and the display setting after the adjustment, the parallax is different for each of the spatial regions. And having a three-dimensional image display step of displaying the stereoscopic image by projecting the image.

さらに、本発明にかかる立体画像表示プログラムは、隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段を有すると共に、移動物体に設置されて立体画像を表示する立体画像表示装置に適用する立体画像表示プログラムであって、前記立体表示パネルの表示面前方を観察者と共に撮影し、撮像画像データとして記録する撮像機能、この撮像画像データを用いて前記立体表示パネル手段に対する前記観察者の相対位置を算出する相対位置算出機能、前記立体表示パネル手段にかかるデバイス特性データを受信するデバイス特性データ受信機能、前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整機能、この調整後の表示設定に基づいて、前記各空間領域それぞれに対し前記視差の異なる画像を投影することで前記立体画像を表示する立体画像表示機能、を前記立体画像表示装置内に予め設けられたコンピュータに実現させることを特徴とする。   Furthermore, the stereoscopic image display program according to the present invention has a stereoscopic display panel means for projecting images with different parallax for each adjacent spatial region, and is applied to a stereoscopic image display device that is installed on a moving object and displays a stereoscopic image. A stereoscopic image display program for capturing an image of the front of the display surface of the stereoscopic display panel together with an observer and recording the captured image data as captured image data; A relative position calculating function for calculating a relative position, a device characteristic data receiving function for receiving device characteristic data relating to the stereoscopic display panel means, and adjusting the display setting of the stereoscopic image with reference to the relative position and the device characteristic data The display setting adjustment function to be performed, and the display setting after this adjustment Characterized in that to realize the stereoscopic image displaying function of displaying the stereoscopic image by projecting images having different parallaxes to previously provided a computer on the stereoscopic image display apparatus.

本発明では、上記の通り、安価な計測装置のみを用いて、座席背面部に設置された立体画像表示装置と観察者との奥行き方向の距離(観察距離)を算出し、その観察距離に合わせて立体画像の表示設定を調整するという構成を採ったため、特に、3Dクロストークによる2重像や逆視,3Dモアレの影響を安価な構成によって有効に軽減し、観察者に違和感を与えない有意な立体画像を表示する立体画像表示装置,その表示方法,及びその表示プログラムの提供が可能となる。   In the present invention, as described above, the distance in the depth direction (observation distance) between the stereoscopic image display device installed on the back of the seat and the observer is calculated using only an inexpensive measurement device, and is adjusted to the observation distance. 3D image display settings are adjusted to reduce the effects of double images, reverse vision, and 3D moire caused by 3D crosstalk with an inexpensive configuration, and it does not give the viewer a sense of incongruity. It is possible to provide a stereoscopic image display device that displays a stereoscopic image, a display method thereof, and a display program thereof.

本発明の第1実施形態における立体画像表示装置の構成図である。It is a block diagram of the three-dimensional image display apparatus in 1st Embodiment of this invention. 図1に開示した立体画像表示装置の外観図である。FIG. 2 is an external view of the stereoscopic image display device disclosed in FIG. 1. 図2に開示した立体表示パネル手段の拡大図である。It is an enlarged view of the three-dimensional display panel means disclosed in FIG. 図1等の立体表示パネル手段にレンチキュラレンズを適用した構成において、該立体表示パネル手段により形成される光学モデルを例示する概略図である。FIG. 2 is a schematic view illustrating an optical model formed by the stereoscopic display panel means in a configuration in which a lenticular lens is applied to the stereoscopic display panel means of FIG. 1 and the like. 図1等の立体表示パネル手段にパララックスバリアを適用した構成において、該立体表示パネル手段により形成される光学モデルを例示する概略図である。FIG. 2 is a schematic view illustrating an optical model formed by the stereoscopic display panel means in a configuration in which a parallax barrier is applied to the stereoscopic display panel means of FIG. 1 and the like. 図4と同様の立体表示パネル手段によって形成される光学モデルを示す図のうち、逆視を説明する概略図である。It is the schematic explaining reverse view among the figures which show the optical model formed by the same three-dimensional display panel means as FIG. 図4と同様の立体表示パネル手段によって形成される光学モデルを示す図のうち、3Dクロストークを説明する概略図である。It is the schematic explaining 3D crosstalk among the figures which show the optical model formed by the same three-dimensional display panel means as FIG. 図1等に開示した立体画像表示装置が座席背面部に設置された状態を示す外観図である。It is an external view which shows the state by which the stereo image display apparatus disclosed by FIG. 1 etc. was installed in the seat back part. 図1等に開示した立体画像表示装置に外枠を設けて座席背面部に設置した状態を示す外観図である。It is an external view which shows the state which provided the outer frame in the stereoscopic image display apparatus disclosed in FIG. 1 etc., and installed in the seat back part. 座席背面部に設置された図1等における立体画像表示装置と観察者との位置関係を示す模式図である。It is a schematic diagram which shows the positional relationship of the stereoscopic image display apparatus in FIG. 1 etc. and the observer which were installed in the seat back part. 図10に示す状況から、観察者の前の座席が傾斜した際の立体画像表示装置と観察者との位置関係を示す模式図である。FIG. 11 is a schematic diagram illustrating a positional relationship between the stereoscopic image display device and the observer when the seat in front of the observer is tilted from the situation illustrated in FIG. 10. 図1等に開示した立体画像表示装置が前座席の傾斜によって移動する様子を示す模式図のうち、図12(a)は観察者の位置が正視領域内である場合の位置関係を、図12(b)は観察者の位置が正視領域外である場合の位置関係それぞれ示す。Among the schematic diagrams showing the manner in which the stereoscopic image display device disclosed in FIG. 1 and the like moves due to the inclination of the front seat, FIG. 12A shows the positional relationship when the position of the observer is within the normal vision region. (B) shows the positional relationship when the position of the observer is outside the normal viewing region. 図1等における移動物体状態検出手段内の傾斜センサを設置した座席の外観図である。It is an external view of the seat which installed the inclination sensor in the moving object state detection means in FIG. 図13における傾斜センサによる傾斜角度の算出処理の説明図のうち、図14(A)は重力加速度方向と加速度座標系のY軸方向が等価である例を示し、図14(B)は重力加速度方向と加速度座標系のY軸方向が不等価である例を示す。Among illustration of calculation of the inclination angle by the inclination sensor shown in FIG. 13, FIG. 14 (A) shows an example Y A-axis direction is equivalent gravitational acceleration direction and the acceleration coordinate system, FIG. 14 (B) gravity Y a-axis direction of the acceleration direction and the acceleration coordinate system showing an example in which inequality. 2つの傾斜センサを設置した座席の外観図である。It is an external view of the seat which installed two inclination sensors. 座席の背もたれ部の傾斜による加速度の時間変化を示す図である。It is a figure which shows the time change of the acceleration by the inclination of the backrest part of a seat. ギア回転検出センサを設置した座席の外観図であり、該座席の背もたれ部の傾斜角度について、図17(A)はθS1である場合,図17(B)はθS1よりも大きいθS2である場合をそれぞれ示す図である。Is an external view of a seat installed the gear rotation sensor, the inclination angle of the backrest portion of the seat's seat, when FIG. 17 (A) is a theta S1, FIG. 17 (B) is larger theta S2 than theta S1 It is a figure which shows each case. 座席背面部に設置された図1等に示す立体画像表示装置と観察者との位置関係を示す概略図である。It is the schematic which shows the positional relationship of the three-dimensional image display apparatus shown in FIG. 1 etc. installed in the seat back part, and an observer. 図1等の立体画像表示装置と座席背面部との接合関係を示す概略図のうち、図19(A)は座席の後方から座席背面部を見た場合の外観図であり、図19(B)は座席の横方向から座席側面部を見た場合の外観図である。Among the schematic views showing the joining relationship between the stereoscopic image display device and the seat back portion in FIG. 1 and the like, FIG. 19A is an external view when the seat back portion is viewed from the rear of the seat, and FIG. ) Is an external view when the side surface portion of the seat is viewed from the lateral direction of the seat. 3Dクロストーク特性データを示す図である。It is a figure which shows 3D crosstalk characteristic data. 図1等の立体画像表示装置が有する立体表示パネル手段により形成される光学モデル図のうち、高めに設定した閾値に対応する3Dクロストーク領域を示す説明図である。It is explanatory drawing which shows 3D crosstalk area | region corresponding to the threshold value set high among the optical model figures formed by the stereoscopic display panel means which the stereoscopic image display apparatus of FIG. 1 etc. has. 図1等の立体画像表示装置が有する立体表示パネル手段により形成される光学モデル図のうち、低めに設定した閾値に対応する3Dクロストーク領域を示す説明図である。It is explanatory drawing which shows the 3D crosstalk area | region corresponding to the threshold value set low rather than the optical model figure formed by the stereoscopic display panel means which the stereoscopic image display apparatus of FIG. 1 etc. has. 図1等の立体画像表示装置が有する立体表示パネル手段の個体差に起因した光学モデルの変化を示す図のうち、図23(A)は立体表示パネル手段の中心位置の光線向きが正面方向である場合,図23(B)は光線向きが製造誤差の許容値-ΔθLIMほど傾斜した場合,図23(C)は光線向きが反対方向へ製造誤差の許容値ΔθLIMほど傾斜した場合をそれぞれ示し、図23(D)は上記(A),(B),(C)の光学モデルを重ね合わせた図である。Of the diagrams showing changes in the optical model due to individual differences of the stereoscopic display panel means included in the stereoscopic image display apparatus of FIG. 1 and the like, FIG. 23A shows the direction of the light beam at the center position of the stereoscopic display panel means in the front direction. In some cases, FIG. 23 (B) shows a case where the light beam direction is inclined by an allowable value of manufacturing error −Δθ LIM , and FIG. 23 (C) shows a case where the light beam direction is inclined in the opposite direction by an allowable value of manufacturing error Δθ LIM. FIG. 23D is a diagram in which the optical models (A), (B), and (C) are superimposed. 図1等の立体画像表示装置が内包する画像データ保管手段に保管された画像データのサンプルを示す図である。It is a figure which shows the sample of the image data stored in the image data storage means which the stereoscopic image display apparatus of FIG. 1 etc. includes. 視差画像にかかる説明図である。It is explanatory drawing concerning a parallax image. 画像データと視差値との関係図である。It is a relationship diagram of image data and a parallax value. 様々な視差値の画像データ群のサンプルを示す図である。It is a figure which shows the sample of the image data group of various parallax values. 立体表示パネル手段の光学分離特性の違いによる表示設定の調整方法にかかる、3Dクロストークや逆視に対応する分類表である。It is a classification table corresponding to 3D crosstalk and reverse viewing according to a display setting adjustment method according to a difference in optical separation characteristics of the stereoscopic display panel means. 液晶レンズの電圧制御の効果を示す図のうち、制御電極への印加電圧が低い場合の立体表示パネル手段の断面と液晶レンズのX軸方向の屈折率分布を示す図である。Among the figures showing the effect of voltage control of the liquid crystal lens, it is a figure showing the cross section of the stereoscopic display panel means and the refractive index distribution in the X-axis direction of the liquid crystal lens when the applied voltage to the control electrode is low. 液晶レンズの電圧制御の効果を示す図のうち、制御電極への印加電圧が高い場合の立体表示パネル手段の断面と液晶レンズのX軸方向の屈折率分布を示す図である。Among the figures showing the effect of voltage control of the liquid crystal lens, it is a figure showing the cross section of the stereoscopic display panel means and the refractive index distribution in the X-axis direction of the liquid crystal lens when the applied voltage to the control electrode is high. 液晶レンズの屈折率変更による最適視認距離の変更を示す説明図である。It is explanatory drawing which shows the change of the optimal visual recognition distance by the refractive index change of a liquid crystal lens. 液晶レンズの屈折率変更による最適視認距離の調整範囲を示した図である。It is the figure which showed the adjustment range of the optimal visual recognition distance by the refractive index change of a liquid crystal lens. 観察距離に対する視差許容値の関係図である。It is a relationship figure of parallax tolerance with respect to observation distance. 立体表示パネル手段の輝度-視野角特性データを示す図である。It is a figure which shows the luminance-viewing angle characteristic data of a three-dimensional display panel means. 前座席の背もたれ部の傾斜による3Dモアレの出現を示す説明図である。It is explanatory drawing which shows appearance of 3D moire by the inclination of the backrest part of a front seat. 立体表示パネル手段の光学分離特性の違いによる表示設定の調整方法にかかる、3Dモアレに対応する分類表である。It is a classification table corresponding to 3D moire concerning the adjustment method of the display setting by the difference in the optical separation characteristic of a three-dimensional display panel means. 図1等に開示した立体画像表示装置における画像処理動作のフローチャートである。2 is a flowchart of an image processing operation in the stereoscopic image display device disclosed in FIG. 1 and the like. 本発明の第2実施形態における立体画像表示装置の構成図である。It is a block diagram of the stereo image display apparatus in 2nd Embodiment of this invention. 図38に開示した立体画像表示装置の外観図である。FIG. 39 is an external view of the stereoscopic image display device disclosed in FIG. 38. 図38の立体画像表示装置が撮像手段にて撮影した撮像画像データと座席状態との関係図である。FIG. 39 is a relationship diagram between captured image data captured by the imaging unit and the seat state in the stereoscopic image display device of FIG. 38. 図40と同様に撮影した撮像画像データと座席状態との関係図である。It is a related figure of the picked-up image data imaged similarly to FIG. 40, and a seat state. 観察距離の変化量が観察者の両眼の高さに依存する一例を示す図である。It is a figure which shows an example in which the variation | change_quantity of observation distance is dependent on the height of both eyes of an observer. 撮像手段をその前面上部に搭載した立体画像表示装置が座席背面部に設置された状態を示す外観図である。It is an external view which shows the state by which the stereo image display apparatus which mounts an imaging means on the front upper part was installed in the seat back part. 立体画像表示装置が座席背面部に設置された状態のうち、撮像手段を座席に設置した場合を示す外観図である。It is an external view which shows the case where an imaging means is installed in a seat among the states with which the three-dimensional image display apparatus was installed in the seat back part. 傾斜センサを設置した座席と立体画像表示装置を示す基本外観図である。It is a basic external view which shows the seat which installed the inclination sensor, and a three-dimensional image display apparatus. 座席及び立体画像表示装置に傾斜センサを設置した場合において、図45の状態から座席背面部を傾斜させた様子を示す外観図である。FIG. 46 is an external view showing a state in which the seat back portion is tilted from the state of FIG. 45 in the case where a tilt sensor is installed in the seat and the stereoscopic image display device. 立体画像表示装置の表示座標系と撮像手段のカメラ座標系との関係図である。It is a relationship figure of the display coordinate system of a stereoscopic image display apparatus, and the camera coordinate system of an imaging means. 座席背面部に設置された立体画像表示装置と観察者との位置関係を示す図である。It is a figure which shows the positional relationship of the stereoscopic image display apparatus installed in the seat back part, and an observer. 撮像手段にて異なる観察距離の物体を撮影した撮影環境を示す図である。It is a figure which shows the imaging environment which image | photographed the object of different observation distance with an imaging means. 異なる観察距離の物体を撮影した撮像画像データのサンプルを示す図である。It is a figure which shows the sample of the captured image data which image | photographed the object of a different observation distance. 液晶レンズの屈折率変更による正視領域の位置変更を示す図である。It is a figure which shows the position change of the normal vision area | region by the refractive index change of a liquid crystal lens. 液晶レンズの電圧制御の効果を示す図であり、制御電極Eと制御電極Eに対して同じ電圧を印加した場合の立体表示パネル手段にかかる断面図である。It is a diagram showing the effect of voltage control of the liquid crystal lens is a sectional view according to the stereoscopic display panel unit in the case of applying the same voltage to the control electrode E 1 and the control electrode E 4. 液晶レンズの電圧制御の効果を示す図であり、制御電極Eと制御電極Eに対して同じ電圧を印加した場合の立体表示パネル手段にかかる断面図である。It is a diagram showing the effect of voltage control of the liquid crystal lens is a sectional view according to the stereoscopic display panel unit in the case of applying the same voltage to the control electrode E 2 and the control electrode E 1. 立体表示パネル手段により形成される光学モデル図であり、液晶レンズの制御による正視領域の形成位置の変化を説明する図である。It is an optical model diagram formed by the stereoscopic display panel means, and is a diagram for explaining a change in the formation position of the normal viewing region by the control of the liquid crystal lens. 立体表示パネル手段により形成される光学モデル図であり、レンズパワーを局所的な変更による正視領域の形成位置の変化を説明する図である。It is an optical model figure formed by a stereoscopic display panel means, and is a figure explaining the change of the formation position of the normal vision area | region by local change of lens power. 視野角に対する視差許容値の関係図である。It is a relationship figure of the parallax tolerance with respect to a viewing angle. 図38等に開示した立体画像表示装置における画像処理動作のフローチャートである。39 is a flowchart of an image processing operation in the stereoscopic image display device disclosed in FIG. 38 and the like. 本発明の第3実施形態における立体画像表示装置の構成図である。It is a block diagram of the stereo image display apparatus in 3rd Embodiment of this invention. 感圧センサを設置した座席の外観図である。It is an external view of the seat which installed the pressure sensor. 撮像手段で撮影した撮像画像データを例示する図である。It is a figure which illustrates the picked-up image data image | photographed with the imaging means. 観察者データの登録時に、立体画像表示装置へ表示する通知画面を示す図である。It is a figure which shows the notification screen displayed on a stereo image display apparatus at the time of registration of observer data. 撮像手段で撮影した撮像画像データの変化を示す図である。It is a figure which shows the change of the captured image data image | photographed with the imaging means. 図58に開示した立体画像表示装置による観察者データの登録処理にかかるフローチャートである。59 is a flowchart according to observer data registration processing by the stereoscopic image display device disclosed in FIG. 58. 図58に開示した立体画像表示装置による立体画像表示処理にかかるフローチャートである。59 is a flowchart according to stereoscopic image display processing by the stereoscopic image display device disclosed in FIG. 58. 本発明の第4実施形態における立体画像表示装置の構成図である。It is a block diagram of the stereo image display apparatus in 4th Embodiment of this invention. 座席の背もたれ部の傾斜と撮像手段から座席の背もたれ部までの距離との関係図である。FIG. 6 is a relationship diagram between the inclination of the seat back and the distance from the imaging means to the seat back. 撮像手段で撮影した撮像画像データと座席の背もたれ部の傾斜との関係図である。It is a relationship diagram between the captured image data imaged by the imaging means and the inclination of the seat back portion. 撮像手段で撮影した撮像画像データと座席の背もたれ部の傾斜との関係図であり、座席の背もたれ部が図67の状態よりも大きく傾斜した様子を示す図である。FIG. 68 is a relationship diagram between captured image data captured by the imaging unit and the inclination of the seat back portion, and shows a state in which the seat back portion is inclined more than the state of FIG. 67. 図65に開示した立体画像表示装置における画像処理動作のフローチャートである。66 is a flowchart of an image processing operation in the stereoscopic image display device disclosed in FIG. 65.

以下、添付図面を参照しながら、本発明を実施するための形態(以下「実施形態」という。)について説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the accompanying drawings.

〔第1実施形態〕
本発明における立体画像表示装置の第1実施形態を図1乃至図37に基づいて説明する。ここで、本第1実施形態の立体画像表示装置には、以下の各説明中において、適宜各構成部材の付加又は変更等がなされるが、これらを含む総称として共通の符号(11)を用いるものとする。
[First Embodiment]
A first embodiment of a stereoscopic image display apparatus according to the present invention will be described with reference to FIGS. Here, in the stereoscopic image display apparatus according to the first embodiment, each component is appropriately added or changed in the following descriptions, and the common reference numeral (11) is used as a generic name including these components. Shall.

(全体的構成)
図1に示すように、本第1実施形態における立体画像表示装置11は、移動物体の状態(位置状態)を検出する移動物体状態検出手段110と、隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段120と、各種情報にかかる演算処理を実施する演算処理部131と、を備えている。
(Overall configuration)
As shown in FIG. 1, the stereoscopic image display apparatus 11 according to the first embodiment includes a moving object state detection unit 110 that detects a state (position state) of a moving object, and images with different parallax for each adjacent space region. 3D display panel means 120 for projecting, and an arithmetic processing unit 131 for performing arithmetic processing related to various types of information.

演算処理部131は、移動物体状態検出手段110による検出結果である状態情報に基づいて立体表示パネル手段120とその表示面側に位置する特定の観察者との相対距離を表す観察距離を算出する観察距離算出手段(相対距離算出手段)140と、画像データを保存し又は受信する画像データ保管手段150と、立体表示パネル手段120の光学特性(表示特性)表すデバイス特性データを保管するデバイス特性データ保管手段160と、観察距離算出手段140にて算出した観察距離とデバイス特性データ保管手段160に保存されたデバイス特性データとに基づいて立体画像の表示設定を調整する表示設定調整手段170と、を有している。なお、本明細書で記述している相対距離とは、立体画像表示装置と観察者との奥行き方向の距離を言っており、観察距離と同義である。   The arithmetic processing unit 131 calculates an observation distance representing a relative distance between the stereoscopic display panel unit 120 and a specific observer located on the display surface side based on state information that is a detection result by the moving object state detection unit 110. Device characteristic data for storing observation characteristic calculation means (relative distance calculation means) 140, image data storage means 150 for storing or receiving image data, and device characteristic data representing optical characteristics (display characteristics) of the stereoscopic display panel means 120 A storage unit 160; and a display setting adjustment unit 170 that adjusts the display setting of the stereoscopic image based on the observation distance calculated by the observation distance calculation unit 140 and the device characteristic data stored in the device characteristic data storage unit 160. Have. Note that the relative distance described in this specification refers to the distance in the depth direction between the stereoscopic image display device and the observer, and is synonymous with the observation distance.

すなわち、表示設定調整手段170による表示設定調整後に立体表示パネル手段120が、画像データを右眼用画像と左眼用画像とに分離すると共に、これらを観察者の右眼と左眼とに向けて投影する、という構成を採っている。   That is, after the display setting adjustment by the display setting adjustment unit 170, the stereoscopic display panel unit 120 separates the image data into a right eye image and a left eye image, and directs these to the observer's right eye and left eye. To project.

また、図2の外観図に示すように、立体画像表示装置11では、立体表示パネル手段120と演算処理部131とを内包する装置本体10と移動物体状態検出手段110とが有線で接続されている。   As shown in the external view of FIG. 2, in the stereoscopic image display device 11, the apparatus main body 10 including the stereoscopic display panel unit 120 and the arithmetic processing unit 131 and the moving object state detection unit 110 are connected by wire. Yes.

ここで、本第1実施形態では、上記移動物体として、飛行機や長距離列車等の座席を想定し、この座席の背もたれ部は可動式であるものとする。このため、移動物体状態検出手段110は、対応する装置本体10を設置する座席に接着等により設けられている。   Here, in the first embodiment, a seat such as an airplane or a long-distance train is assumed as the moving object, and the backrest portion of the seat is movable. For this reason, the moving object state detection means 110 is provided by bonding or the like on the seat where the corresponding apparatus main body 10 is installed.

すなわち、移動物体状態検出手段110は、座席の倒れ具合などの座席状態を検出し、その座席状態の情報(状態情報)を演算処理部131にある観察距離算出手段140へ送信する。   That is, the moving object state detection unit 110 detects a seat state such as a seat fall state and transmits information on the seat state (state information) to the observation distance calculation unit 140 in the arithmetic processing unit 131.

ところで、図2では、装置本体10と移動物体状態検出手段110とが有線で接続された例を示し、これを参照して上記説明を行ったが、この有線接続に代えて、装置本体10と移動物体状態検出手段110との無線通信を可能とする構成を採用してもよい。すなわち、移動物体状態検出手段110に、座席状態の情報を無線通信によって送信する機能を設けると共に、上記有線接続を無くすという構成を採ってもよい。   2 shows an example in which the apparatus main body 10 and the moving object state detection means 110 are connected by wire, and the above description has been made with reference to this, but instead of this wired connection, the apparatus main body 10 and A configuration that enables wireless communication with the moving object state detection unit 110 may be employed. That is, the moving object state detection unit 110 may be provided with a function of transmitting seat state information by wireless communication, and the wired connection may be eliminated.

演算処理部131は、図2に示すように、立体表示パネル手段120の後方部に配置され、移動物体状態検出手段110から入力される状態情報を活用して、各種の演算処理を実施するように構成されている。   As shown in FIG. 2, the arithmetic processing unit 131 is arranged at the rear of the stereoscopic display panel unit 120, and performs various types of arithmetic processing using state information input from the moving object state detection unit 110. It is configured.

立体表示パネル手段120は、少なくとも第1視点用の画像を表示するサブ画素及び第2視点用の画像を表示するサブ画素を含む画素がマトリクス状に複数配列された電気光学手段としての画像表示パネルと、上記各々の視点用の画像を所定の異なる方向に分離可能な光線分離手段としての光線分離パネルとから構成される。   The stereoscopic display panel unit 120 is an image display panel as an electro-optical unit in which a plurality of pixels including at least a sub-pixel that displays an image for a first viewpoint and a sub-pixel that displays an image for a second viewpoint are arranged in a matrix. And a light beam separating panel as a light beam separating means capable of separating the respective viewpoint images in predetermined different directions.

すなわち、電気光学手段としては、液晶方式,有機EL方式,プラズマ方式などを採用した画像表示パネルを用いることができ、光線分離手段としては、レンチキュラレンズ,液晶レンズ,パララックスバリア等から成る光線分離パネルを用いることができる。
このうち、レンチキュラレンズは、レンズの屈折率が不変であるが、液晶レンズは、電圧制御によってレンズの屈折率の分布を変更することができる。
That is, an image display panel employing a liquid crystal method, an organic EL method, a plasma method, or the like can be used as the electro-optical means, and the light beam separation means includes a lenticular lens, a liquid crystal lens, a parallax barrier, or the like. Panels can be used.
Among these, the refractive index of the lens is unchanged for the lenticular lens, but the distribution of the refractive index of the lens can be changed by voltage control for the liquid crystal lens.

立体表示パネル手段120の一例を拡大して示す図3では、電気光学手段として液晶表示パネルを,光学分離手段としてレンチキュラレンズをそれぞれ採用し、これらを組合せるという構成を採っている。   In FIG. 3, which shows an example of the stereoscopic display panel means 120 in an enlarged manner, a liquid crystal display panel is employed as the electro-optical means, a lenticular lens is employed as the optical separation means, and these are combined.

図3において、液晶表示パネル内にある左眼用画素4Lは、立体表示パネル手段120から観察者の左眼へ投影する左眼用画像を表示するサブ画素を表し、同様に右眼用画素4Rは、観察者の右眼へ投影する右眼用画像を表示するサブ画素を表す。この左眼用画素4Lと右眼用画素4Rとは、交互に並ぶように配列されている。   In FIG. 3, a left-eye pixel 4L in the liquid crystal display panel represents a sub-pixel that displays an image for the left eye that is projected from the stereoscopic display panel means 120 onto the left eye of the observer, and similarly, a right-eye pixel 4R. Represents a sub-pixel that displays an image for the right eye to be projected onto the right eye of the observer. The left-eye pixels 4L and the right-eye pixels 4R are arranged so as to be alternately arranged.

次に、立体表示パネル手段120の光線分離手段によって分割される空間領域について、レンチキュラレンズ方式の光学モデルにかかる図4乃至図7を参照して説明する。これら各図は、観察者の頭上側から見た該観察者及び立体画像表示装置11の周辺にかかる断面図である。   Next, the spatial region divided by the light beam separating means of the stereoscopic display panel means 120 will be described with reference to FIGS. 4 to 7 according to the lenticular lens type optical model. Each of these figures is a cross-sectional view of the observer and the periphery of the stereoscopic image display device 11 as viewed from above the observer.

まず、図4に、レンチキュラレンズ方式を採用した立体画像表示装置11において、観察者の左右の眼へ視差の異なる画像を投影する光学モデルの一例を示す。   First, FIG. 4 shows an example of an optical model for projecting images with different parallaxes to the left and right eyes of the observer in the stereoscopic image display apparatus 11 employing the lenticular lens method.

この図4では、観察者の両眼(右眼55Rと左眼55L)が立体表示パネル手段120の表示面40から最適視認距離(最適観察距離)OD程度離れた観察面30に位置し、かつ観察者の両眼中心と表示パネルの中心とが一致する位置関係となっている。   In FIG. 4, the viewer's eyes (right eye 55R and left eye 55L) are located on the observation surface 30 that is separated from the display surface 40 of the stereoscopic display panel means 120 by an optimal viewing distance (optimal observation distance) OD, and The positional relationship is such that the center of both eyes of the observer coincides with the center of the display panel.

画像表示パネル(図示せず)は、マトリックス状に配列された画素となる光変調素子群から構成されており(例えば液晶パネル)、図4には、交互に並ぶ右眼用画素4R及び左眼用画素4L(画素群4)のうち、画像表示パネルの両端及び中心部に位置する各画素のみを図示している。   The image display panel (not shown) is composed of a light modulation element group (for example, a liquid crystal panel) that becomes pixels arranged in a matrix. FIG. 4 shows the right-eye pixels 4R and the left-eye arranged alternately. Of the pixels 4L (pixel group 4), only the pixels located at both ends and the center of the image display panel are shown.

空間領域を分割して画像を投影する手段として機能するレンチキュラレンズ3は、観察者から見て画像表示パネルの手前側に配置されている。
このレンチキュラレンズ3は、細長い蒲鉾状の多数の凸型のシリンドリカルレンズ(以降、単にレンズと呼ぶ:レンズ幅L)3aから形成された光学素子であり、画像表示パネルの左眼用画素4Lと右眼用画素4Rとが交互に並ぶ方向(画素の配列方向:X軸方向)に対して、レンズ3aの長手方向(Y軸方向)が直交するように配置されている。
The lenticular lens 3 that functions as means for projecting an image by dividing a spatial region is disposed on the front side of the image display panel as viewed from the observer.
The lenticular lens 3 is an optical element formed from a number of elongated cylindrical cylindrical convex lenses (hereinafter simply referred to as “lens: lens width L”) 3a, and the left eye pixel 4L and the right of the image display panel. The lens 3a is arranged so that the longitudinal direction (Y-axis direction) is orthogonal to the direction in which the ophthalmic pixels 4R are alternately arranged (pixel arrangement direction: X-axis direction).

また、画像表示パネルの奥には、光源(図示せず:いわゆるバックライト)が設置され、この光源から出た光は、画像表示パネル内の画素を通過し、その後にレンズ3aを通過して観察者に向けて投影される。右眼用画素4Rの投影方向及び左眼用画素4Lの投影方向は、レンズ3aの存在により制限される。   Further, a light source (not shown: so-called backlight) is installed in the back of the image display panel, and light emitted from this light source passes through the pixels in the image display panel and then passes through the lens 3a. Projected toward the observer. The projection direction of the right-eye pixel 4R and the projection direction of the left-eye pixel 4L are limited by the presence of the lens 3a.

ここで、図4に示すように、各レンズ3aから出た光のうち、各々のレンズ3aから最も近い画素を通る光の軌跡を光線20とすると、これに対応する全ての右眼用画素4Rの投影像が重なる右眼領域70R(右眼用画像の投影される空間領域)と、同じく対応する全ての左眼用画素4Lの投影像が重なる左眼領域70L(左眼用画像の投影される空間領域)とが得られる。すなわち、右眼領域70Rでは右眼用画素4Rからの投影像しか観察できず、また左眼領域70Lでは左眼用画素4Lからの投影像しか観察できないという状態にある。   Here, as shown in FIG. 4, if the locus of the light passing through the pixel closest to each lens 3a out of the light emitted from each lens 3a is a light ray 20, all the right-eye pixels 4R corresponding thereto are shown. The right eye region 70R where the projected images of the left eye overlap (the space region where the image for the right eye is projected) and the left eye region 70L where the projected images of all corresponding left eye pixels 4L overlap (the projected image for the left eye Space area). That is, only the projected image from the right eye pixel 4R can be observed in the right eye region 70R, and only the projected image from the left eye pixel 4L can be observed in the left eye region 70L.

このため、観察者の右眼55Rが右眼領域70R内に位置し、同左眼55Lが左眼領域70L内に位置しているときに、立体表示パネル手段120から視差画像を投影すると、該観察者は立体画像を視認することができる。換言すれば、観察者は、右眼55Rが右眼領域70R内に位置し、かつ左眼55Lが左眼領域70L内に位置しているときに、所望の立体画像を観察することができる。   Therefore, when a parallax image is projected from the stereoscopic display panel unit 120 when the right eye 55R of the observer is located in the right eye region 70R and the left eye 55L is located in the left eye region 70L, the observation is performed. A person can visually recognize a stereoscopic image. In other words, the observer can observe a desired stereoscopic image when the right eye 55R is located in the right eye region 70R and the left eye 55L is located in the left eye region 70L.

ここで、観察者と立体表示パネル手段120(表示面40)との距離が、最短視認距離(最短観察距離)NDよりも短くなると、観察者の右眼55Rが右眼領域70R外になり、同左眼55Lが左眼領域70L外になるため、該観察者は立体画像を視認することができない。
また、観察者と立体表示パネル手段120(表示面40)との距離が、最長視認距離(最長観察距離)FDよりも長くなると、観察者の右眼55Rが右眼領域70R外になり、同左眼55Lが左眼領域70L外になるため、同様に該観察者は立体画像を視認することができない。
Here, when the distance between the observer and the stereoscopic display panel unit 120 (display surface 40) is shorter than the shortest viewing distance (shortest observation distance) ND, the observer's right eye 55R is outside the right eye region 70R, Since the left eye 55L is outside the left eye region 70L, the observer cannot visually recognize a stereoscopic image.
When the distance between the observer and the stereoscopic display panel unit 120 (display surface 40) is longer than the longest viewing distance (longest observation distance) FD, the observer's right eye 55R is outside the right eye region 70R, and the left Since the eye 55L is outside the left eye region 70L, the observer cannot similarly view the stereoscopic image.

図4の立体表示パネル手段120は、観察面30において、右眼領域70R,左眼領域70Lの幅が最大となるように、最適視認距離ODの位置における各右眼用画素4R及び左眼用画素4L(画素幅P)の各投影像(幅P')が全て重なるように設計されている。
すなわち、各右眼用画素4Rの投影像と各左眼用画素4Lの投影像とが、最適視認距離ODの位置において隔たりなく連続するという構成を採っている。
The stereoscopic display panel unit 120 in FIG. 4 has the right-eye pixel 4R and the left-eye pixel at the optimum viewing distance OD so that the width of the right-eye region 70R and the left-eye region 70L is maximized on the observation surface 30. The projection images (width P ′) of the pixel 4L (pixel width P) are all designed to overlap.
That is, a configuration is adopted in which the projected image of each right-eye pixel 4R and the projected image of each left-eye pixel 4L are continuous without separation at the optimum viewing distance OD.

この投影像の幅(観察面に投影された画素幅)P'は、主にレンズ3aの主点と画素との距離h,画素ピッチP,最適視認距離ODにより決定される。
この幅P'を広げれば、右眼領域70R及び左眼領域70Lの幅は広がるが、観察者の両眼間隔を表す瞳孔間距離は一定であり、該観察者の両眼双方が対応する領域に位置できる範囲は不変であるため、立体画像を視認可能な空間領域(立体視域)は必ずしも広がるわけではない。
The width (pixel width projected on the observation surface) P ′ of the projected image is mainly determined by the distance h between the principal point of the lens 3a and the pixel, the pixel pitch P, and the optimum viewing distance OD.
If the width P ′ is widened, the width of the right eye region 70R and the left eye region 70L is widened, but the interpupillary distance indicating the observer's binocular distance is constant, and the both eyes of the observer correspond to each other. Since the range that can be positioned at the position is unchanged, the space area (stereoscopic viewing area) in which the stereoscopic image can be visually recognized does not necessarily expand.

図4に示すように、両眼間隔をeとすると、幅P'は両眼間隔eと等しくなるように設計することが好ましい。これは、幅P'が両眼間隔eよりも小さな場合には、立体視が行える領域は幅P'に制限され、一方で幅P'が両眼間隔eよりも大きな場合には、両眼位置が2つとも右眼領域70R又は左眼領域70Lに位置し、立体画像が視認不可能な領域が増える、といった不都合が生じるためである。   As shown in FIG. 4, it is preferable that the width P ′ is designed to be equal to the binocular distance e, where b is the distance between the eyes. This is because when the width P ′ is smaller than the binocular interval e, the region where stereoscopic vision can be performed is limited to the width P ′, while when the width P ′ is larger than the binocular interval e, both eyes This is because the two positions are located in the right eye region 70R or the left eye region 70L, resulting in an increase in the number of regions in which a stereoscopic image cannot be visually recognized.

次いで、図5に、立体表示パネル手段120の光線分離手段として、レンチキュラレンズの代わりにパララックスバリアを用いたときに分割される空間領域を示す。すなわち、この図5に示す構成は、レンチキュラレンズ3に代えてパララックスバリア6を採用した点のみが図4の場合と相違する。   Next, FIG. 5 shows a spatial region that is divided when a parallax barrier is used instead of the lenticular lens as the light beam separating means of the stereoscopic display panel means 120. That is, the configuration shown in FIG. 5 is different from the configuration shown in FIG. 4 only in that a parallax barrier 6 is used instead of the lenticular lens 3.

パララックスバリア6は、細い縦縞状の多数のスリット6aが形成されたバリア(遮光板)であり、画像表示パネルの左眼用画素4Lと右眼用画素4Rとが並ぶ方向に対して、バリアの長手方向が直交するように配置されている。図5の断面図では、バリア幅Sのバリア6bとスリット6aとが交互に配置された様子を示す。   The parallax barrier 6 is a barrier (light-shielding plate) in which a number of thin vertical stripe-like slits 6a are formed. The parallax barrier 6 has a barrier against the direction in which the left-eye pixels 4L and the right-eye pixels 4R are arranged on the image display panel. Are arranged so that their longitudinal directions are orthogonal to each other. The cross-sectional view of FIG. 5 shows a state in which the barriers 6b and the slits 6a having the barrier width S are alternately arranged.

バックライト等の光源から出た光は、画像表示パネル内の画素において強度が変調され、その後にスリット6aを通過して観察者に向けて投影される。右眼用画素4Rの投影方向及び左眼用画素4Lの投影方向は、スリット6aの存在により制限される。   The intensity of light emitted from a light source such as a backlight is modulated in the pixels in the image display panel, and then passes through the slit 6a and is projected toward the observer. The projection direction of the right-eye pixel 4R and the projection direction of the left-eye pixel 4L are limited by the presence of the slit 6a.

ここで、図5に示すように、スリット6aから出た光のうち、各々のスリット6aから最も近い画素を通る光の軌跡を光線20とすると、図4の場合と同様に、全ての右眼用画素4Rの投影像が重なる右眼領域70Rと、全ての左眼用画素4Lの投影像が重なる左眼領域70Lとが得られる。   Here, as shown in FIG. 5, assuming that the light trajectory passing through the pixel closest to each slit 6 a among the light emitted from the slits 6 a is a light ray 20, all the right eyes are similar to the case of FIG. 4. A right eye region 70R where the projection images of the pixels 4R for use overlap and a left eye region 70L where the projection images of all the left eye pixels 4L overlap are obtained.

次に、観察者が正常に立体画像を視認可能な空間領域(正視領域)から外れて、立体画像の飛び出し方向と奥行き方向が逆になって視認される空間領域(逆視領域)に位置する場合について、図6を参照して説明する。   Next, it is located in a space region (backward viewing region) where the viewer can see the stereoscopic image normally and deviate from the spatial region (normal viewing region) where the projection direction and depth direction of the stereoscopic image are reversed. The case will be described with reference to FIG.

この図6は、観察者が右へ移動したため、右眼55Rが右眼領域70R外に移動して左眼領域72L内に位置し、左眼55Lが左眼領域70L外に移動して右眼領域70R内に位置したときの観察者の頭上側から見た断面図である。   In FIG. 6, since the observer has moved to the right, the right eye 55R moves out of the right eye region 70R and is positioned in the left eye region 72L, and the left eye 55L moves out of the left eye region 70L and moves to the right eye. It is sectional drawing seen from the observer's upper side when located in the area | region 70R.

このとき、観察者の右眼55Rの位置には、左眼用画素4L及び右眼用画素4Rから出た光の中で、最も近いシリンドリカルレンズ3aの主点(頂点)を通る光線20は届かない。しかし、左眼用画素4Lから出た光の中で2番目に近いシリンドリカルレンズ3bの主点(頂点)を通る光に着目し、これを光線21(図6の一点鎖線)とすると、この光線21によって第2の左眼領域72Lが得られることが分かる。   At this time, the light beam 20 that passes through the principal point (vertex) of the cylindrical lens 3a that is closest among the light emitted from the left-eye pixel 4L and the right-eye pixel 4R reaches the position of the observer's right eye 55R. Absent. However, paying attention to light passing through the principal point (vertex) of the second closest cylindrical lens 3b in the light emitted from the left-eye pixel 4L, and assuming that this is the light beam 21 (the one-dot chain line in FIG. 6), this light beam 21 that the second left eye region 72L is obtained.

このように、図6においては、観察者は右眼55Rで左眼用画素4Lからの投影像を観察し、左眼55Lで右眼用画素4Rからの投影像を観察することとなり、立体画像を観察すると飛び出し方向と奥行き方向が反対となるため(いわゆる逆視)、所望の立体画像を視認することができない。   In this way, in FIG. 6, the observer observes the projection image from the left eye pixel 4L with the right eye 55R, and observes the projection image from the right eye pixel 4R with the left eye 55L. Since the pop-out direction and the depth direction are opposite (so-called reverse view), a desired stereoscopic image cannot be visually recognized.

ここで、右眼55Rにとっては、右眼領域70Rが正視領域となり、左眼領域70L,72Lが逆視領域となる。また、左眼55Lにとっては、左眼領域70L,72Lが正視領域となり、右眼領域70Rが逆視領域となる。   Here, for the right eye 55R, the right eye region 70R is a normal viewing region, and the left eye regions 70L and 72L are reverse viewing regions. For the left eye 55L, the left eye regions 70L and 72L are normal vision regions, and the right eye region 70R is a reverse vision region.

続いて、観察者が正視領域から外れて3Dクロストーク領域に位置する場合について、図7を参照して説明する。   Next, a case where the observer is out of the normal viewing area and positioned in the 3D crosstalk area will be described with reference to FIG.

この図7は、観察者と立体表示パネル手段120との距離が最短視認距離NDよりも短くなったため、右眼55Rが右眼領域70Rの境界線付近に位置し、左眼55Lが左眼領域70Lの境界線付近に位置したときの、観察者の頭上側から見た断面図である。   In FIG. 7, since the distance between the observer and the stereoscopic display panel unit 120 is shorter than the shortest viewing distance ND, the right eye 55R is positioned near the boundary of the right eye region 70R, and the left eye 55L is the left eye region. It is sectional drawing seen from the observer's head upper side when located in the boundary line of 70L.

このとき、観察者の右眼55Rの位置には、液晶表示パネルの右端にある右眼用画素4Rから出た光の中で、最も近いシリンドリカルレンズ3aの主点(頂点)を通る光線22と、左眼用画素4Lから出た光の中で2番目に近いシリンドリカルレンズ3bの主点を通る光線23(二点鎖線で図示)との両方が投影される。   At this time, a light beam 22 passing through the principal point (vertex) of the closest cylindrical lens 3a among the light emitted from the right-eye pixel 4R at the right end of the liquid crystal display panel is located at the position of the right eye 55R of the observer. Both the light beam 23 (shown by a two-dot chain line) passing through the principal point of the second closest cylindrical lens 3b in the light emitted from the left-eye pixel 4L is projected.

したがって、この図7に示す状況では、観察者が立体画像を観察すると、右眼55Rで右眼用画素4Rと左眼用画素4Lとの両方からの投影像を観察することとなり、すなわち、右眼55Rに映る像が、右眼用画像と左眼用画像とが重なった2重像となるため(いわゆる3Dクロストーク)、所望の立体画像を視認することができない。
ここでは、右眼領域70Rと左眼領域70L又は左眼領域72Lとの境界線付近の空間領域が、3Dクロストーク領域となる。
Therefore, in the situation shown in FIG. 7, when the observer observes the stereoscopic image, the right eye 55R observes the projection image from both the right eye pixel 4R and the left eye pixel 4L, that is, the right eye 55R. Since the image reflected on the eye 55R is a double image in which the image for the right eye and the image for the left eye are overlapped (so-called 3D crosstalk), a desired stereoscopic image cannot be visually recognized.
Here, a spatial region near the boundary line between the right eye region 70R and the left eye region 70L or the left eye region 72L is a 3D crosstalk region.

また、観察者の左眼55Lの位置にも、液晶表示パネルの左端にある左眼用画素4Lから出た光の中で、最も近いシリンドリカルレンズ3cの主点(頂点)を通る光線24と、右眼用画素4Rから出た光の中で2番目に近いシリンドリカルレンズ3dの主点を通る光線25(二点鎖線で図示)との両方が投影されるため、この左眼55Lに映る像も、右眼用画像と左眼用画像とが重なった2重像となり、所望の立体画像を視認することができない。   A light beam 24 passing through the principal point (vertex) of the closest cylindrical lens 3c among the light emitted from the left-eye pixel 4L at the left end of the liquid crystal display panel also at the position of the left eye 55L of the observer; Since both the light beam 25 (shown by a two-dot chain line) passing through the principal point of the second closest cylindrical lens 3d in the light emitted from the right-eye pixel 4R is projected, the image reflected in the left eye 55L is also The right-eye image and the left-eye image are overlapped, and a desired stereoscopic image cannot be visually recognized.

このように、裸眼式の立体画像表示装置においては、観察距離が変化して、観察者が正視領域から外れると、3Dクロストークによる2重像や逆視の影響が現われ、立体画像の表示品質が著しく低下するという問題が生じ得る。   As described above, in the autostereoscopic image display device, when the observation distance is changed and the observer deviates from the normal viewing area, the effect of double image or reverse vision due to 3D crosstalk appears, and the display quality of the stereoscopic image is displayed. Can cause a problem of significant decrease in

次に、移動物体としての座席の背面部に立体画像表示装置11を設置した場合の外観を示す図8を参照して、座席と立体画像表示装置11との位置関係等を説明する。   Next, the positional relationship between the seat and the stereoscopic image display device 11 will be described with reference to FIG. 8 showing the appearance when the stereoscopic image display device 11 is installed on the back surface of the seat as a moving object.

図8に示す状況において、立体画像表示装置11は、接合部材61Aを介して座席61の座席背面部61Bに設置されている。この座席背面部61Bとの間に介在する接合部材61Aの回転機構により、立体画像表示装置11は、Y軸-Z軸平面上での回転移動(X軸周りの回転移動)が可能となっている。   In the situation illustrated in FIG. 8, the stereoscopic image display device 11 is installed on the seat back surface portion 61 </ b> B of the seat 61 via the joining member 61 </ b> A. By the rotation mechanism of the joining member 61A interposed between the seat back portion 61B, the stereoscopic image display device 11 can be rotated and moved on the Y-axis-Z-axis plane (rotated around the X axis). Yes.

接合部材61Aの回転機構が無ければ、座席背面部61Bが傾斜した場合に、立体表示パネル手段120の表示面が下向きの状態で維持されるため、座席の座面部(着座部)61Cに着座している観察者に好適な画像を視認させることができない。すなわち、ここでは表示面が下向きになるのを回避するために該回転機構を設け、これにより立体表示パネル手段120の表示面の向きを変更するという構成を採っている。   Without the rotation mechanism of the joining member 61A, when the seat back surface portion 61B is inclined, the display surface of the stereoscopic display panel means 120 is maintained in a downward state, so that the seating surface portion (sitting portion) 61C of the seat is seated. A suitable image cannot be viewed by a viewer who is viewing. That is, here, the rotation mechanism is provided in order to avoid the display surface from being directed downward, and thereby the orientation of the display surface of the stereoscopic display panel means 120 is changed.

また、立体画像表示装置11の表示座標系は、図8に示すように定義する。
すなわち、該表示座標系の原点位置を立体表示パネル手段120の表示面の中心位置とし、立体表示パネル手段120の表示面上の横方向(ここでは長手方向)をX軸方向,表示面上の縦方向(ここでは短手方向)をY軸方向,立体表示パネル手段120の表示面に対して垂直な方向をZ軸方向とする。
Further, the display coordinate system of the stereoscopic image display device 11 is defined as shown in FIG.
That is, the origin position of the display coordinate system is the center position of the display surface of the stereoscopic display panel means 120, the horizontal direction (here, the longitudinal direction) on the display surface of the stereoscopic display panel means 120 is the X-axis direction, and the display surface The vertical direction (the short direction here) is the Y-axis direction, and the direction perpendicular to the display surface of the stereoscopic display panel means 120 is the Z-axis direction.

以降の各図においては、立体画像表示装置11と観察者との間の奥行き方向における距離を表す観察距離(立体画像表示装置11と観察者との相対距離)を、立体画像表示装置11の表示座標系で記述し、これに基づいて各説明を行う。
例えば、後述する図10に示すように、Z軸方向における立体表示パネル手段120の表示面の中心位置から観察者までの距離が観察距離ZODとなる。ここで、図10等(図11,図18)においては、観察者の両眼の位置を、便宜上、観察者(O)の右目の位置として示すものとする。
In the subsequent drawings, the observation distance (relative distance between the stereoscopic image display device 11 and the observer) representing the distance in the depth direction between the stereoscopic image display device 11 and the observer is displayed on the stereoscopic image display device 11. It is described in a coordinate system, and each explanation is given based on this.
For example, as shown in FIG. 10 described later, the distance from the center position of the display surface of the stereoscopic display panel unit 120 to the observer in the Z-axis direction is the observation distance Z OD . Here, in FIG. 10 etc. (FIGS. 11 and 18), the position of the observer's eyes is shown as the position of the right eye of the observer (O) for convenience.

続いて、立体画像表示装置11を座席背面部に設置した他の一例を、図9に示す外観図を参照して説明する。   Next, another example in which the stereoscopic image display device 11 is installed on the seat back portion will be described with reference to an external view shown in FIG.

この図9に示す立体画像表示装置11には、接合部材62Aを介して立体表示パネル手段120と一体化した外枠部62Dが座席62に設けられており、この外枠部62Dは、座席背面部61Bに固定され設置された状態にある。また、外枠部62Dに設けられた第1移動物体状態検出手段111は、座席背面部61Bの傾斜角度を検出するための構成部材であり、上述した移動物体状態検出手段110と同様の機能を有する。   In the stereoscopic image display device 11 shown in FIG. 9, an outer frame portion 62D integrated with the stereoscopic display panel means 120 is provided on the seat 62 via a joining member 62A. The outer frame portion 62D is provided on the back of the seat. The unit 61B is fixed and installed. The first moving object state detection unit 111 provided in the outer frame part 62D is a component for detecting the inclination angle of the seat back surface part 61B, and has the same function as the moving object state detection unit 110 described above. Have.

すなわち、図8で示した移動物体状態検出手段110を座席背面部61Bに設置するという構成に限定されず、これと同様の構成部材である第1移動物体状態検出手段111を外枠部62Dに設置するようにしてもよい。   That is, the moving object state detection unit 110 shown in FIG. 8 is not limited to the configuration in which the moving object state detection unit 110 is installed in the seat back surface part 61B. You may make it install.

このように、座席背面部61Bと一体的に動く外枠部62Dに第1移動物体状態検出手段111を設けるという構成を採った場合には、座席背面部61Bが傾斜した際に、立体画像表示装置11の外枠部62Dで検出された傾斜角度が、座席背面部61Bの傾斜角度と一致する。   As described above, when the first moving object state detection unit 111 is provided in the outer frame portion 62D that moves integrally with the seat back portion 61B, a stereoscopic image display is performed when the seat back portion 61B is inclined. The inclination angle detected by the outer frame portion 62D of the device 11 matches the inclination angle of the seat back portion 61B.

また、立体表示パネル手段120は、図9のような接合部材62Aを用いた回転機構により、Y軸-Z軸平面上での回転移動(X軸を回転軸とした回転移動)が可能となり、観察者がパネル表示面に対して垂直となるように位置調整をすることができる。   Further, the stereoscopic display panel means 120 can be rotated on the Y-axis / Z-axis plane (rotational movement with the X axis as the rotation axis) by a rotation mechanism using the joining member 62A as shown in FIG. The position can be adjusted so that the observer is perpendicular to the panel display surface.

さらに、図9に示すように、回転機構による立体表示パネルの回転角度を検出する第2移動物体状態検出手段112を立体表示パネル手段120にも付加するという構成を採ってもよい。このようにすれば、座席背面部61B(背もたれ部)と立体表示パネル手段120との位置関係をも勘案した観察距離の算出処理が可能となる。   Further, as shown in FIG. 9, a configuration may be adopted in which second moving object state detection means 112 for detecting the rotation angle of the stereoscopic display panel by the rotation mechanism is also added to the stereoscopic display panel means 120. In this way, it is possible to perform an observation distance calculation process that also takes into account the positional relationship between the seat back portion 61B (backrest portion) and the stereoscopic display panel means 120.

次に、観察者が座席に着座した状態で、その前座席の背面部にある立体画像表示装置11を観察する場合の模式図を図10に示す。この図10では、観察者の座席63と前座席64との双方が通常の傾斜角度である状態を示す。   Next, FIG. 10 shows a schematic diagram when observing the stereoscopic image display device 11 on the back surface of the front seat while the observer is seated on the seat. FIG. 10 shows a state where both the observer's seat 63 and the front seat 64 are at a normal inclination angle.

ここで、観察者の座席63の鉛直方向(図のY軸方向)からの傾斜角度をθSOとおき、観察者(O)の前座席64の鉛直方向(図のY軸方向)からの傾斜角度をθSPとおく。また、この状態における立体画像表示装置11の立体表示パネル手段120の表示面と観察者(O)との奥行き方向(図のZ軸方向)の距離を表す観察距離をZODとする。 Here, the inclination angle of the observer's seat 63 from the vertical direction (Y-axis direction in the figure) is set as θ SO , and the inclination of the observer's (O) front seat 64 from the vertical direction (Y-axis direction in the figure). the angle is denoted by θ SP. In this state, the observation distance representing the distance in the depth direction (Z-axis direction in the figure) between the display surface of the stereoscopic display panel unit 120 of the stereoscopic image display device 11 and the observer (O) is defined as Z OD .

次いで、図10の状態から、前座席64の背もたれ部が傾斜した場合(傾斜角度がθSPからθSP’へと変化した場合)の模式図を図11に示す。 Then, from the state of FIG. 10 shows a schematic view of a backrest of the front seat 64 is inclined (if the inclination angle is changed to theta SP 'from theta SP) in FIG. 11.

前座席64の座席背面部に設置した立体画像表示装置11は、この前座席64の背もたれ部の傾斜に伴って、その設置位置が移動する。
すなわち、かかる状況下における立体画像表示装置11は、観察者(O)が移動しなくても、前座席64の乗客の都合によってその背もたれ部が傾斜した場合に、観察距離ZODが急激に変化する。図11では、観察距離が変化してZOD’となった状態を示す。
The stereoscopic image display device 11 installed on the seat back portion of the front seat 64 moves with the inclination of the back portion of the front seat 64.
In other words, the stereoscopic image display device 11 under such a situation has an abrupt change in the observation distance Z OD even when the observer (O) does not move and the backrest portion of the front seat 64 is inclined due to the convenience of the passenger. To do. FIG. 11 shows a state in which the observation distance changes to become Z OD ′.

続いて、図12に、観察者(O)の位置と、立体表示パネル手段120の光学特性から規定される正視領域との位置関係を示す。   Next, FIG. 12 shows the positional relationship between the position of the observer (O) and the normal viewing area defined by the optical characteristics of the stereoscopic display panel means 120.

観察者(O)の両眼が正視領域内に位置する場合を示す図12(A)の状況では、観察者(O)は正常な立体画像を視認することができる。
一方、前座席64の傾斜に伴い観察距離が急激に変化(ZODからZOD’へ変化)した場合を示す図12(B)の状況では、観察者(O)の両眼の位置が正視領域外となるため、3Dクロストークによる2重像や逆視が出現することになり、観察者(O)は正常な立体画像が視認することができない。
In the situation of FIG. 12A showing a case where both eyes of the observer (O) are located in the normal vision region, the observer (O) can visually recognize a normal stereoscopic image.
On the other hand, in the situation of FIG. 12B showing a case where the observation distance changes rapidly (changes from Z OD to Z OD ′) with the inclination of the front seat 64, the position of both eyes of the observer (O) is normal. Since it is outside the region, a double image or reverse view due to 3D crosstalk appears, and the observer (O) cannot visually recognize a normal stereoscopic image.

かかる状況の変化を考慮して、本第1実施形態における立体画像表示装置11には、前座席64の傾斜に起因した観察距離ZODからの変化量を算出すると共に、該変化後の観察距離ZOD’に合わせて立体画像の表示設定を調整するための構成を採用した。 In consideration of such a change in the situation, the stereoscopic image display apparatus 11 according to the first embodiment calculates the amount of change from the observation distance Z OD due to the inclination of the front seat 64, and the observation distance after the change. A configuration for adjusting the display setting of the stereoscopic image in accordance with Z OD 'was adopted.

下記に、観察距離(観察距離ZODからの変化量)の算出方法を記載する。
観察距離の算出に際しては、まず、観察者(O)の座席63の傾斜角度θSOとその前の座席(前座席)64の傾斜角度θSPとを表す座席状態情報(状態情報)を、移動物体状態検出手段110にて検出するように構成されている。
The calculation method of observation distance (change amount from observation distance ZOD ) is described below.
In calculating the observation distance, first, the seat state information (state information) representing the inclination angle θ SO of the seat 63 of the observer (O) and the inclination angle θ SP of the front seat (front seat) 64 is moved. The object state detection means 110 is configured to detect.

すなわち、移動物体状態検出手段110は、観察者(O)の座席63及び前座席64の双方の背面部(座席背面部)に設置されているが、まず図13乃至図16を参照して、これら座席の総称としての座席60の傾斜角度を算出する方法について説明する。   That is, the moving object state detection means 110 is installed on the back surface (seat back surface) of both the seat 63 and the front seat 64 of the observer (O). First, referring to FIGS. A method of calculating the inclination angle of the seat 60 as a generic name of these seats will be described.

図13は、座席60の背面部に、背もたれ部の傾斜角度θを検出する傾斜センサ110Aを設置した例を示す。この傾斜センサ110Aの一例としては、2軸の加速度センサが挙げられ、図13では、該加速度センサを傾斜センサ110Aとして座席背面部に設置した例を示している。すなわち、装置本体10に対し有線又は無線にて接続された移動物体状態検出手段110は、この傾斜センサ110Aによる検出値(検出データ)をもとに移動物体である座席60の状態を検出するように構成されている。 FIG. 13 shows an example in which a tilt sensor 110 </ b> A for detecting the tilt angle θ S of the backrest portion is installed on the back surface portion of the seat 60. An example of the tilt sensor 110A is a biaxial acceleration sensor. FIG. 13 shows an example in which the acceleration sensor is installed on the back of the seat as the tilt sensor 110A. That is, the moving object state detection means 110 connected to the apparatus main body 10 by wire or wirelessly detects the state of the seat 60 that is a moving object based on the detection value (detection data) by the inclination sensor 110A. It is configured.

ここで、図14に、傾斜センサ110Aとしての2軸の加速度センサの拡大図を示す。
2軸の加速度センサは、加速度座標系に対するY軸方向とZ軸方向の加速度を検出する構成である。ここで、加速度座標系とは、加速度センサに対して任意の方向をY軸方向として規定し、そのY軸方向と垂直な任意の方向をZ軸方向として規定した座標系である。また、このとき、加速度座標系のY軸とZ軸とに直交するX軸(図示せず)の方向は、表示座標系のX軸方向と一致する設定である。
Here, FIG. 14 shows an enlarged view of a biaxial acceleration sensor as the tilt sensor 110A.
Biaxial acceleration sensor is configured to detect the acceleration of Y A-axis direction and Z A-axis direction with respect to the acceleration coordinate system. Here, the acceleration coordinate system is any direction defined as Y A-axis direction, the coordinate system which defines the Y A-axis direction and any direction perpendicular as Z A-axis direction with respect to the acceleration sensor. At this time, the direction of X A axis perpendicular to the Y A-axis and Z A-axis of the acceleration coordinate system (not shown) is set to coincide with the X-axis direction of the display coordinate system.

重力加速度方向と加速度座標系のY軸方向が等価である例を示す図14(A)に対し、図14(B)では、重力加速度方向と加速度座標系のY軸方向が不等価である例を示す。 To FIG. 14 (A) to Y A-axis direction of the gravitational acceleration direction and the acceleration coordinate system showing an example is equivalent, in FIG. 14 (B), Y A-axis direction of the gravitational acceleration direction and the acceleration coordinate system with unequal Here is an example.

加速度センサは重力加速度Gを検出する機能を有するため、その検出値からY軸とZ軸平面上における重力加速度方向に対する傾斜角度θを算出することができる。すなわち、重力加速度Gに対する傾斜角度θは、下記の式(1)から算出するように構成されている。 Acceleration sensor because it has a function of detecting a gravitational acceleration G, it is possible to calculate the inclination angle theta A relative to the direction of the gravitational acceleration from the detected values on the Y A-axis and Z A axis plane. That is, the inclination angle θ A with respect to the gravitational acceleration G is configured to be calculated from the following equation (1).

Figure 2018129826
Figure 2018129826

この式(1)において、Yは加速度センサで検出したY軸方向の加速度を示し、ZはZ軸方向の加速度を示す。 In this equation (1), Y A represents the acceleration in the Y A axis direction detected by the acceleration sensor, and Z A represents the acceleration in the Z A axis direction.

重力加速度方向と座席の座面部の垂直方向とが一致する場合には、座席背面部の傾斜角度θは重力加速度に対する加速度センサの傾斜角度θと一致する。 When the gravitational acceleration direction and the vertical direction of the seat surface portion of the seat coincide with each other, the inclination angle θ S of the seat back portion coincides with the inclination angle θ A of the acceleration sensor with respect to the gravitational acceleration.

ただし、飛行機等の座席では、飛行中に機体が傾くため、重力加速度方向と座席の座面に垂直な方向とが一致しないことが想定され、この場合には、座席背面部の傾斜角度θが重力加速度に対する加速度センサの傾斜角度θと一致しない。 However, in the seat of such aircraft, because the aircraft is tilted in flight, that the direction perpendicular to the seating surface of the gravitational acceleration direction and the seat do not coincide is assumed, in this case, the inclination angle of the seat back portion theta S Does not coincide with the inclination angle θ A of the acceleration sensor with respect to the gravitational acceleration.

そこで、重力加速度方向と座面に垂直な方向とが一致しない場合における傾斜角度の検出方法を、図15に基づいて説明する。ここでは、機体がピッチングして斜めに傾いている状況を想定する。
すなわち、機体がピッチングして傾く状況を考慮して、図15に示す場合では、傾斜センサを、座席背面部だけではなく(傾斜センサ110A(第1傾斜センサ))、座席の座面部にも設置する(傾斜センサ110B(第2傾斜センサ))という構成を採っている。
Therefore, a method for detecting the tilt angle in the case where the gravitational acceleration direction and the direction perpendicular to the seat surface do not coincide will be described with reference to FIG. Here, it is assumed that the aircraft is pitched and tilted obliquely.
That is, in consideration of the situation in which the fuselage is pitched and tilted, in the case shown in FIG. 15, the tilt sensor is installed not only on the seat back portion (tilt sensor 110A (first tilt sensor)) but also on the seat surface portion of the seat. (Inclination sensor 110B (second inclination sensor)).

このように、機体が傾く飛行機等の座席に立体画像表示装置11を搭載する場合には、これら2つの傾斜センサを設けると共に、移動物体状態検出手段110に、座席の座面部に設置した傾斜センサ110Bが検出した傾斜角度と、座席背面部に設置した傾斜センサ110Aが検出した傾斜角度との差分値を算出する機能を設け、この機能により座席背面部の傾斜角度θを算出するようにしてもよい。 As described above, when the stereoscopic image display device 11 is mounted on a seat of an airplane or the like in which the aircraft is tilted, these two tilt sensors are provided, and the tilt sensor installed on the seat surface portion of the seat is provided in the moving object state detection unit 110. A function of calculating a difference value between the inclination angle detected by 110B and the inclination angle detected by the inclination sensor 110A installed on the back surface of the seat is provided, and the inclination angle θ S of the back surface of the seat is calculated by this function. Also good.

一方で、観察者が着座する座席背面部の傾斜角度(θSO:図10)、その前の座席背面部の傾斜角度(θSP:図10)の角度差分値の算出のみであれば、図13に示すように、座席背面部だけに傾斜センサを設置し、この傾斜センサで検出した傾斜角度の差分値を移動物体状態検出手段110が求めるという構成を採ればよい。 On the other hand, if only the calculation of the angle difference value of the inclination angle (θ SO : FIG. 10) of the seat back portion on which the observer is seated and the inclination angle (θ SP : FIG. 10) of the front seat rear portion is shown, As shown in FIG. 13, a configuration may be adopted in which a tilt sensor is installed only in the seat back portion, and the moving object state detection means 110 obtains the difference value of the tilt angle detected by the tilt sensor.

なお、機体がヨーイングした場合には、座席の座面部の垂直方向と重力加速度方向との関係は変化しない。加えて、機体がローリングした場合には、座席の座面部の垂直方向と重力加速度方向との関係は変化するが、Y軸方向とZ軸方向で検出される重力加速度の比率は変化しないため、上記式(1)より傾斜角度θを算出することができる。(ただし、ローリングによって機体が90°傾斜した場合には、Y軸方向とZ軸方向で検出される重力加速度が0になるため、傾斜角度θは算出不能となる。) When the aircraft yaws, the relationship between the vertical direction of the seat surface portion of the seat and the direction of gravity acceleration does not change. In addition, when the aircraft is rolling, the relationship between the vertical direction and the gravitational acceleration direction of the seat surface portion of the seat is changed, but the ratio of the gravitational acceleration detected by the Y A-axis direction and Z A-axis direction does not change Therefore, the inclination angle θ A can be calculated from the above equation (1). (However, if the aircraft is tilted 90 ° by rolling, since the gravitational acceleration detected by the Y A-axis direction and Z A-axis direction is 0, the inclination angle theta A becomes impossible calculated.)

また、上記のように傾斜センサとして加速度センサを使用した場合には、加速度の変化量を検出することで、座席背面部が倒れたタイミングを検出することも可能である。   In addition, when an acceleration sensor is used as the tilt sensor as described above, it is possible to detect the timing at which the seat back portion falls down by detecting the amount of change in acceleration.

ここで、一例として、座席背面部に設置した加速度センサが検出した加速度Zの時間変動を図16に示す。ここでは、縦軸がZ軸方向の加速度Zを表し、横軸が加速度Zの検出時間を表す。 Here, as an example, the time variation of the acceleration Z A of the acceleration sensor installed in the seat back portion is detected in FIG. 16. Here, the vertical axis represents the acceleration Z A in the Z A axis direction, and the horizontal axis represents the detection time of the acceleration Z A.

加速度センサは、座席背面部が静止している場合には、主に重力加速度のみを検出する。しかし、座席背面部が倒れて移動した場合には、重力加速度以外にも座席背面部の移動に対する加速度を検出するため、加速度Zが上昇する。したがって、かかる状況にも対応するために、予め任意の閾値ZA0を設定しておき、加速度Zが閾値ZA0を超過した場合には、座席背面部が倒れて移動したと判定するように構成してもよい。 The acceleration sensor mainly detects only gravitational acceleration when the seat back is stationary. However, if the seat back portion is moved collapsed, because in addition to the gravitational acceleration to detect the acceleration with respect to movement of the seat back portion, the acceleration Z A is increased. Therefore, in order to cope with such a situation, an arbitrary threshold value Z A0 is set in advance, and when the acceleration Z A exceeds the threshold value Z A0 , it is determined that the seat back portion has fallen and moved. It may be configured.

以上の処理により、移動物体状態検出手段110は、座席背面部が倒れたタイミングを検出することができる。   With the above processing, the moving object state detection unit 110 can detect the timing at which the seat back portion falls.

また、飛行機自体の加速・減速によっても、加速度Zには変化が生じるが、飛行機自体の加速・減速による加速度Zの変化は、飛行機内の全座席に影響する。
したがって、全座席の加速度センサが検出する加速度Zが一斉に変化した場合には、飛行機自体の加速・減速に起因すると判定し、任意の閾値ZAOを超過した場合でも座席背面部は倒れていないと判定するように移動物体状態検出手段110を構成してもよい。
Further, by acceleration and deceleration of the aircraft itself, but changes in acceleration Z A occurs, a change in acceleration Z A due to acceleration and deceleration of the aircraft itself, affects the entire seat in the airplane.
Therefore, when the acceleration Z A of the acceleration sensor of the entire seat is detected is changed all at once, it is determined that due to the acceleration and deceleration of the aircraft itself, have fallen seat back portion, even if in excess of the arbitrary threshold Z AO The moving object state detection unit 110 may be configured to determine that there is no.

上記の説明では、座席の背もたれ部の傾斜角度θを検出する傾斜センサとして、加速度センサを使用する一例を示したが、これに限定されるものではなく、加速度センサに代えてギア回転検出センサや電動モータ回転検出センサなどを使用するように構成してもよい。 In the above description, an example in which an acceleration sensor is used as the inclination sensor that detects the inclination angle θ S of the seat back portion is not limited to this, but a gear rotation detection sensor is used instead of the acceleration sensor. Alternatively, an electric motor rotation detection sensor or the like may be used.

ここで、図17に、ギア回転検出センサを座席の座面部と背もたれ部との接合部分に設置した例を示す。図17(A)は、座席の背もたれ部の傾斜角度がθS1である場合を、図17(B)は、座席の背もたれ部の傾斜角度がθS2である場合をそれぞれ示す。 Here, FIG. 17 shows an example in which the gear rotation detection sensor is installed at the joint portion between the seat surface portion and the backrest portion of the seat. 17A shows a case where the inclination angle of the seat back portion is θ S1 , and FIG. 17B shows a case where the inclination angle of the seat back portion is θ S2 .

ギア回転検出センサは、座席の背もたれ部の傾斜角度θによって、ギアの位置(歯車のかみ合わせ位置)が変化する。したがって、予めギアの位置と傾斜角度θとの関係を登録しておくことにより、ギアの値から傾斜角度θを検出することができる。 In the gear rotation detection sensor, the gear position (gear meshing position) changes depending on the inclination angle θ S of the seat back portion. Therefore, by previously registering the relationship between the gear position and the inclination angle θ S , the inclination angle θ S can be detected from the gear value.

また、座席の背もたれ部が傾斜した際に伴うギアの回転数(歯車のかみ合わせ位置の移動回数)を計測し、その回転数から座席の背もたれ部の傾斜角度θを検出するようにしてもよい。 Alternatively, the rotational speed of the gear (the number of movements of the meshing position of the gear) when the seat back is tilted is measured, and the tilt angle θ S of the seat back is detected from the rotational speed. .

次に、観察距離算出手段140は、移動物体状態検出手段110で検出した座席背面部の傾斜角度θと、観察距離算出手段140に予め登録された座席基準情報とから、観察距離ZODを算出する機能を有している。
ここで、予め登録された座席基準情報には、観察者の座席とその前の座席との設置間隔の距離情報ZSS(図18参照)と、座席背面部に設置した立体画像表示装置11の設置位置情報(図19参照)とが含まれる。
Next, the observation distance calculation unit 140 calculates the observation distance Z OD from the inclination angle θ S of the seat back portion detected by the moving object state detection unit 110 and the seat reference information registered in the observation distance calculation unit 140 in advance. It has a function to calculate.
Here, the pre-registered seat reference information includes distance information Z SS (see FIG. 18) of the installation interval between the observer's seat and the preceding seat, and the three-dimensional image display device 11 installed on the back of the seat. Installation position information (see FIG. 19) is included.

図18では、一例として、設置間隔の距離情報ZSSを、観察者の座席63の後部脚の位置から、前座席64の後部脚の位置までの距離とする。 In FIG. 18, as an example, the distance information Z SS of the installation interval is a distance from the position of the rear leg of the observer's seat 63 to the position of the rear leg of the front seat 64.

また、設置位置情報を示す図19のうち、図19(A)は座席の後方から座席背面部を見たときの外観図であり、図19(B)は座席の横方向から座席側面部を見たときの外観図である。   Further, in FIG. 19 showing the installation position information, FIG. 19A is an external view when the back of the seat is viewed from the back of the seat, and FIG. 19B is a side view of the seat from the lateral direction of the seat. It is an external view when seen.

設置位置情報は、背もたれ部の可動部の支点位置から座席背面部と接合部材との取り付け位置までの長さを示す接合部材取付長さLSPと、Y軸方向についての接合部材の取付位置における、立体表示パネル手段120の表示面のZ軸方向の位置から座席の背もたれ部の前面のZ軸方向の位置までの距離を示す背もたれ幅ZSP(接合部材の取付位置のY軸方向の位置と等しいY軸方向の位置における立体表示パネル手段106の表示面のZ軸方向の位置から、接合部材の取付位置のY軸方向の位置と等しいY軸方向の位置における座席の背もたれ部の前面のZ軸方向の位置までの距離を示す背もたれ幅ZSP)とから構成される。 The installation position information includes the joining member attachment length L SP indicating the length from the fulcrum position of the movable part of the backrest part to the attachment position of the seat back part and the joining member, and the attachment position of the joining member in the Y-axis direction. , The backrest width Z SP indicating the distance from the position of the display surface of the stereoscopic display panel means 120 in the Z-axis direction to the position of the front surface of the seat backrest in the Z-axis direction (the position of the attachment position of the joining member in the Y-axis direction) From the position in the Z-axis direction of the display surface of the stereoscopic display panel means 106 at the same position in the Y-axis direction, the front Z of the seat back portion at the position in the Y-axis direction equal to the position in the Y-axis direction of the attachment position of the joining member A backrest width Z SP ) indicating the distance to the position in the axial direction.

本第1実施形態の立体画像表示装置11において、観察距離算出手段140は、予め登録された座席基準情報ZSS,接合部材取付長さLSP,及び背もたれ幅ZSPと、各座席背面部の傾斜角度θ(θSO,θSP)とを用いて、下記式(2)により観察距離ZODを算出するように構成できる。ここで、θSOは観察者の座席63の傾斜角度を示し、θSPは前座席の傾斜角度をそれぞれ示す。 In the stereoscopic image display apparatus 11 according to the first embodiment, the observation distance calculation unit 140 includes the seat reference information Z SS , the joining member attachment length L SP , and the backrest width Z SP registered in advance, and the back of each seat. By using the inclination angle θ SSO , θ SP ), the observation distance Z OD can be calculated by the following equation (2). Here, θ SO indicates the inclination angle of the seat 63 of the observer, and θ SP indicates the inclination angle of the front seat.

Figure 2018129826
Figure 2018129826

ただし、この式(2)より算出した観察距離ZODは、観察者(O)の前にある座席背面部に設置した立体画像表示装置11+の立体表示パネル手段120の表示面から、観察者の座席63の背もたれ部の前面位置までの距離となる。
すなわち、この観察距離ZODには、観察者(O)が着座する座席の背もたれ部の前面位置から観察者(O)の両眼位置までの距離ZOOが考慮されていない。
However, the observation distance Z OD calculated from this equation (2) is obtained from the display surface of the stereoscopic display panel means 120 of the stereoscopic image display device 11+ installed on the back of the seat in front of the observer (O). This is the distance to the front position of the backrest portion of the seat 63.
That is, the distance ZOO from the front position of the backrest portion of the seat on which the observer (O) is seated to the position of the eyes of the observer (O) is not considered in the observation distance ZOD .

ところで、この距離ZOOは、観察者(O)の後頭部から両眼位置までの長さとほぼ一致する。社団法人人間生活工学研究センターが経済産業省の委託事業として計測した2006年度の人体計測データの報告資料によると、一般的な観察者の後頭部から両眼位置(眉間部)までの長さ(頭長)の平均値は約19cmであるとされている。 By the way, this distance ZOO substantially coincides with the length from the back of the observer (O) to the binocular position. According to the 2006 human anthropometric data reported by the Human Life Engineering Research Center as a commissioned project by the Ministry of Economy, Trade and Industry, the length from the back of the general observer to the binocular position (brows) The average value of (long) is about 19 cm.

したがって、観察者が着座する座席の背もたれ部の前面位置から該観察者の両眼位置までの距離ZOOを約19cmと仮定し(距離ZOOとして19cmを採用し)、上記式(2)より算出した観察距離ZODから距離ZOOを減算した値を、観察距離算出手段140が観察距離として算出するようにしてもよい。
これにより、上記図10における観察距離ZOD又は図11におけるZOD’に相当する算出値を得ることができる。
Therefore, the distance ZOO from the front position of the back portion of the seat on which the observer sits to the binocular position of the observer is assumed to be about 19 cm (19 cm is adopted as the distance ZOO ), and the above equation (2) the calculated viewing distance Z OD value obtained by subtracting the distance Z OO from, may be observed distance calculating unit 140 calculates the viewing distance.
Thereby, a calculated value corresponding to the observation distance Z OD in FIG. 10 or Z OD ′ in FIG. 11 can be obtained.

また、上記式(2)では、観察者(O)の眼の高さ(Y軸方向の位置)が、立体画像表示装置11の接合部材の取り付け位置の高さ(Y軸方向の位置)と一致すると仮定し、観察距離ZODを算出した。 In the above formula (2), the eye height (position in the Y-axis direction) of the observer (O) is the height (position in the Y-axis direction) of the attachment position of the joining member of the stereoscopic image display device 11. The observation distance ZOD was calculated on the assumption that they coincided.

以上の処理により、観察距離算出手段140は、観察者と立体画像表示装置11との奥行き方向の距離を表す観察距離(立体表示パネル手段120と観察者との相対距離)の算出を実現する。   With the above processing, the observation distance calculation unit 140 realizes calculation of an observation distance (relative distance between the stereoscopic display panel unit 120 and the observer) that represents the distance in the depth direction between the observer and the stereoscopic image display device 11.

表示設定調整手段170は、観察距離算出手段140で算出した観察距離ZODと、デバイス特性データ保管手段160に保管されたデバイス特性データとを参照し、座席背面部の傾斜に伴って出現する3Dクロストークや逆視の影響を軽減するように、立体画像の表示設定を調整する構成部材である。 The display setting adjustment unit 170 refers to the observation distance Z OD calculated by the observation distance calculation unit 140 and the device characteristic data stored in the device characteristic data storage unit 160, and appears as the seat back portion tilts. It is a structural member that adjusts the display setting of a stereoscopic image so as to reduce the influence of crosstalk and reverse viewing.

ここで、デバイス特性データ保管手段160内のデバイス特性データは、上述の通り、立体表示パネル手段120の光学特性を表すものであり、このデバイス特性データの一例としては、図20に示す3Dクロストーク特性データが挙げられる。   Here, the device characteristic data in the device characteristic data storage unit 160 represents the optical characteristics of the stereoscopic display panel unit 120 as described above. As an example of the device characteristic data, 3D crosstalk shown in FIG. Characteristic data can be listed.

この図20において、横軸は視野角θ [度]を表し、縦軸は3Dクロストーク量[%]を表す。3Dクロストーク量は、右眼用画像に左眼用画像が混合する割合と、左眼用画像に右眼用画像が混合する割合を示す。 In FIG. 20, the horizontal axis represents the viewing angle θ P [degree], and the vertical axis represents the 3D crosstalk amount [%]. The 3D crosstalk amount indicates a ratio at which the left-eye image is mixed with the right-eye image and a ratio at which the right-eye image is mixed with the left-eye image.

3Dクロストーク特性データは、立体表示パネル手段120の光学特性によって異なる値をとり、立体表示パネル手段120の設計時に決定される。また、3Dクロストーク用の評価装置で立体表示パネル手段120を計測することによっても、3Dクロストーク特性データを得ることができる。   The 3D crosstalk characteristic data takes different values depending on the optical characteristics of the stereoscopic display panel unit 120 and is determined when the stereoscopic display panel unit 120 is designed. Further, 3D crosstalk characteristic data can also be obtained by measuring the stereoscopic display panel means 120 with an evaluation device for 3D crosstalk.

立体画像表示装置11では、3Dクロストーク特性データに依存して、右眼領域・左眼領域・3Dクロストーク領域が決定される。一例として、観察者が立体画像を正常に視認できる3Dクロストーク量の閾値をβ以下と定義すれば(図20の二点鎖線参照)、視野角θP-2〜θP2の領域が右目領域、視野角θP2〜θP4の領域までが3Dクロストーク領域、視野角θP4〜θP8の領域が左眼領域となる。 In the stereoscopic image display device 11, the right eye region, the left eye region, and the 3D crosstalk region are determined depending on the 3D crosstalk characteristic data. As an example, if the viewer is defined as: 2 the threshold value of 3D crosstalk amount can successfully visually recognize the stereoscopic image beta (see the two-dot chain lines in FIG. 20), the region of the viewing angle theta P2 through? P2 right eye The region up to the region of viewing angles θ P2 to θ P4 is the 3D crosstalk region, and the region of viewing angles θ P4 to θ P8 is the left eye region.

ここで、図20に対応づけた、観察者の両眼位置に向けて右眼用画像及び左眼用画像を投影する光学モデルを図21に示す。   Here, FIG. 21 shows an optical model that projects the image for the right eye and the image for the left eye toward the observer's binocular position corresponding to FIG.

図21では視野角θP2〜θP4の部分が3Dクロストーク領域となるため、図6の場合と比較すると、右眼領域80Rと左眼領域80L及び82Lのように、形成される右眼領域と左眼領域が狭くなる。右眼55Rにとっては、右眼領域80Rが正視領域,左眼領域80Lと82Lが逆視領域であり、それ以外の領域が3Dクロストーク領域となる。 In FIG. 21, the portions of the viewing angles θ P2 to θ P4 are 3D crosstalk regions. Therefore, compared to the case of FIG. 6, the right eye region to be formed as in the right eye region 80R and the left eye regions 80L and 82L. And the left eye area becomes narrower. For the right eye 55R, the right eye region 80R is a normal viewing region, the left eye regions 80L and 82L are reverse viewing regions, and the other regions are 3D crosstalk regions.

その他の一例として、上記3Dクロストーク量の閾値をβ以下と定義した場合には(図20の一点鎖線参照)、視野角θP1〜θP5の領域までが3Dクロストーク領域となり、それ以外の視野角θは右眼領域又は左眼領域となる。かかる場合の立体画像表示装置11の光学モデルを図22に示す。 Other examples of, the 3D crosstalk amount threshold when defined as beta 1 or less (see the one-dot chain lines in FIG. 20), to the region of the viewing angle theta P1 through? P5 becomes 3D crosstalk area, otherwise The viewing angle θ P is the right eye region or the left eye region. An optical model of the stereoscopic image display device 11 in such a case is shown in FIG.

この図22では、視野角θP1〜θP5の部分が3Dクロストーク領域となるため、右眼領域及び左眼領域として、図21の場合よりも一段と狭まった右眼領域90Rと左眼領域90L,92Lが形成される設定となる。右眼55Rにとっては、図6の場合と同様に、右眼領域90Rが正視領域であり、左眼領域90Lと92Lが逆視領域で、それ以外の領域が3Dクロストーク領域となる。 In FIG. 22, the viewing angle θ P1 to θ P5 is a 3D crosstalk region. Therefore, the right eye region 90R and the left eye region 90L are narrower than the case of FIG. 21 as the right eye region and the left eye region. , 92L is formed. For the right eye 55R, as in the case of FIG. 6, the right eye region 90R is a normal viewing region, the left eye regions 90L and 92L are reverse viewing regions, and the other regions are 3D crosstalk regions.

以上のように、正視領域・逆視領域・3Dクロストーク領域は、3Dクロストーク特性データに依存して決定される。   As described above, the normal viewing region, the reverse viewing region, and the 3D crosstalk region are determined depending on the 3D crosstalk characteristic data.

なお、3Dクロストーク量の閾値については、立体画像表示装置11の光学測定と主観評価から決定することができる。   Note that the threshold value of the 3D crosstalk amount can be determined from optical measurement and subjective evaluation of the stereoscopic image display device 11.

また、3Dクロストークを光学的に測定できる装置としては、例えばコノスコープ方式やゴニオメータ方式,フーリエ方式などの各種方式を採用した測定装置がある。こうした測定装置によれば、視野角度に対する輝度分布を測定すると共に、以下の式(3)より3Dクロストーク量を算出することができる。   In addition, as an apparatus capable of optically measuring 3D crosstalk, there are measurement apparatuses that employ various systems such as a conoscope system, a goniometer system, and a Fourier system. According to such a measuring apparatus, the luminance distribution with respect to the viewing angle can be measured, and the 3D crosstalk amount can be calculated from the following equation (3).

Figure 2018129826
Figure 2018129826

ここで、3D-CT(θ)は、視野角θに対する3Dクロストーク量を表す。また、Y(LBRW)とY(LBRB)とY(LWRB)は、視野角θに対する輝度値を表す。Y(LBRW)は左眼用画像を黒とし右眼用画像を白としたときの輝度値,Y(LBRB)は左眼用画像を黒とし右眼用画像を黒としたときの輝度値,Y(LWRB)は左眼用画像を白とし右眼用画像を黒としたときの輝度値をそれぞれ表す。 Here, 3D-CT (θ P ) represents the 3D crosstalk amount with respect to the viewing angle θ P. Further, Y and (LBRW) Y and (LBRB) Y (LWRB) represents the luminance value with respect to the viewing angle theta P. Y (LBRW) is a luminance value when the left-eye image is black and the right-eye image is white; Y (LBRB) is a luminance value when the left-eye image is black and the right-eye image is black; Y (LWRB) represents a luminance value when the left-eye image is white and the right-eye image is black.

上記いずれ方式を採用した測定装置を用いて測定した場合でも、定性的結果には大きな差は見られないが、定量的な数値については測定方式や装置仕様によって異なる。一般的な測定結果と主観的な立体視域の評価結果を照合すると、3Dクロストークが概ね10%以下であれば立体画像が視認可能であり、この値を上記3Dクロストーク量の閾値として用いることができる。   Even when measurement is performed using a measurement apparatus employing any of the above-mentioned methods, a large difference is not seen in the qualitative results, but quantitative numerical values differ depending on the measurement method and apparatus specifications. When a general measurement result and a subjective stereoscopic viewing evaluation result are collated, a stereoscopic image can be visually recognized if 3D crosstalk is approximately 10% or less, and this value is used as a threshold value for the 3D crosstalk amount. be able to.

図21の光学モデルよると、観察距離ZODが最適視認距離ODと等しい場合には、観察者は正常な立体画像を視認できるが、座席背面部の傾斜によって、観察距離ZODが最短視認距離NDよりも短くなると観察者は3Dクロストークによる2重像を視認するため、正常な立体画像が視認不可能となる。 According to the optical model of FIG. 21, when the observation distance Z OD is equal to the optimal viewing distance OD, the observer can visually recognize a normal stereoscopic image, but the observation distance Z OD is the shortest viewing distance due to the inclination of the seat back portion. If it becomes shorter than ND, an observer visually recognizes a double image by 3D crosstalk, and thus a normal stereoscopic image becomes invisible.

ところで、立体表示パネル手段120は、製造時のばらつきによって、光学特性を示すデバイス特性データに個体差が生じる。製造時のばらつきは、主に立体表示パネル手段120の電気光学手段となる液晶表示パネルと光学分離手段となるレンチキュラレンズとを貼り合せる際の位置ズレに起因する。   By the way, the 3D display panel means 120 has individual differences in device characteristic data indicating optical characteristics due to variations in manufacturing. The variation at the time of manufacture is mainly caused by a positional deviation when the liquid crystal display panel serving as the electro-optic means of the stereoscopic display panel means 120 and the lenticular lens serving as the optical separation means are bonded.

しかし、この位置ズレ量が所定の許容値(±ΔθLIM)以下であれば、立体表示パネル手段120に特有のデバイス特性データと同一でなくても、同等すなわち代表的なデバイス特性データで代用することが可能である。ここで、本第1実施形態及び以下の各実施形態において採用できる、立体表示パネル手段120及びこれと同等のデバイスに対応したデバイス特性データを、「立体表示パネル手段120にかかるデバイス特性データ」と称する。 However, if the amount of positional deviation is equal to or less than a predetermined allowable value (± Δθ LIM ), equivalent or representative device characteristic data is substituted even if it is not the same as the device characteristic data unique to the stereoscopic display panel means 120. It is possible. Here, the device characteristic data corresponding to the stereoscopic display panel means 120 and a device equivalent thereto, which can be adopted in the first embodiment and each of the following embodiments, is referred to as “device characteristic data relating to the stereoscopic display panel means 120”. Called.

一例として、図23に、製造時のばらつきによって、立体表示パネル手段120の中心位置から投影される光線向きが傾斜する光学モデル図を示す。   As an example, FIG. 23 shows an optical model diagram in which the direction of light rays projected from the center position of the stereoscopic display panel means 120 is inclined due to variations in manufacturing.

図23(A)は、上記位置ズレが無く、光線向きが正面方向(Δθ=0°)に投影された場合の光学モデル図を示し、図23(B)は、位置ズレにより、光線向きが所定の許容値である-ΔθLIMまで傾斜(Δθ=-ΔθLIM)した場合の光学モデル図を示し、図23(C)は、光線向きΔθが反対方向となる所定の許容値であるΔθLIMまで傾斜(Δθ=ΔθLIM)した場合の光学モデル図を示す。 FIG. 23A shows an optical model diagram when the light beam direction is projected in the front direction (Δθ = 0 °) without the positional deviation, and FIG. 23B shows the light beam direction due to the positional deviation. FIG. 23C shows an optical model diagram when tilting to a predetermined allowable value -Δθ LIM (Δθ = −Δθ LIM ), and FIG. 23C shows Δθ LIM which is a predetermined allowable value in which the light direction Δθ is in the opposite direction. An optical model diagram in the case of tilting up to (Δθ = Δθ LIM ) is shown.

また、図23(D)は、図23(A),(B),(C)の結果を重ね合わせた光学モデル図を示す。図23(D)より、製造時のばらつきが所定の許容値(±ΔθLIM)以下であれば、立体表示パネル手段120の最適視認距離OD及び立体視域はほぼ等価となる。この許容値となる±ΔθLIMの値は、立体ディスプレイサイズや立体視域の大きさ、適用するアプリケーションの種類に応じた主観的な評価により任意に設定することができる。 FIG. 23D shows an optical model diagram in which the results of FIGS. 23A, 23B, and 23C are overlaid. As shown in FIG. 23D, when the manufacturing variation is equal to or smaller than a predetermined allowable value (± Δθ LIM ), the optimal viewing distance OD and the stereoscopic viewing area of the stereoscopic display panel unit 120 are substantially equivalent. The value of ± Δθ LIM serving as the allowable value can be arbitrarily set by subjective evaluation according to the stereoscopic display size, the stereoscopic viewing area size, and the type of application to be applied.

従って、デバイス特性データ保管手段160に、例えば図23(A)の結果のような代表的な立体表示パネル手段120のデバイス特性データを保管しておけば、そのデバイス特性データを、同一機種となるその他の立体表示パネル手段120にも使用することができる。   Therefore, if the device characteristic data of the typical stereoscopic display panel unit 120 such as the result of FIG. 23A is stored in the device characteristic data storage unit 160, for example, the device characteristic data becomes the same model. It can also be used for other stereoscopic display panel means 120.

画像データ保管手段150は、画像データを保存または受信する機能を有する。
ここで、図24に、画像データ保管手段150に保管する画像データの一例を示す。
The image data storage unit 150 has a function of storing or receiving image data.
Here, FIG. 24 shows an example of image data stored in the image data storage unit 150.

この例では、画像データ保管手段150に、立体画像コンテンツの画像データとして、L画像とR画像とが保管されている。L画像は、左眼領域に投影される左眼用画像であり、R画像は、右眼領域に投影される右眼用画像である。LR画像(L画像とR画像の両方)にかかる各画素の値としては、輝度値(RGB値)が保持されており、このLR画像が立体表示パネル120上に表示される。
ここで、画像データのu軸方向は、立体画像表示装置11の表示座標系のX軸方向と一致し、同v軸方向は、表示座標系のY軸方向と一致する。
In this example, an L image and an R image are stored in the image data storage unit 150 as image data of stereoscopic image content. The L image is an image for the left eye projected on the left eye region, and the R image is an image for the right eye projected on the right eye region. As a value of each pixel relating to the LR image (both L image and R image), a luminance value (RGB value) is held, and this LR image is displayed on the stereoscopic display panel 120.
Here, the u-axis direction of the image data matches the X-axis direction of the display coordinate system of the stereoscopic image display device 11, and the v-axis direction matches the Y-axis direction of the display coordinate system.

上記の例では、画像データ保管手段150に、L画像,R画像を保管する例を示したが、これらの画像に加えて、L画像とR画像との間の視差値を表す視差画像を追加して保管するという構成を採ってもよい。そこで、図25に、視差画像と視差値との関係を示す。   In the above example, the L image and the R image are stored in the image data storage unit 150. However, in addition to these images, a parallax image representing a parallax value between the L image and the R image is added. And may be stored. FIG. 25 shows the relationship between the parallax image and the parallax value.

図25の右図は、視差画像(図25の左図)からv軸上の任意値v1の画素列を取り出し、その画素列に対する視差値PAを表した図である。ここで、視差値PAは、L画像を基準にとり、L画像の画素の位置に対応するR画像の画素の位置の位置ずれ量を示す。 The right diagram in FIG. 25 is a diagram showing a parallax value PA for the pixel column extracted from the parallax image (the left diagram in FIG. 25) from the pixel column of the arbitrary value v 1 on the v-axis. Here, the parallax value PA indicates a positional shift amount of the pixel position of the R image corresponding to the pixel position of the L image with reference to the L image.

具体例として、図26に、視差値とLR画像との関係図を示す。
視差画像の位置(u1,v2)の視差値PAは、下記の式(4)に示すように、L画像の画素の位置 (u1,v2)と、これに対応するR画像の画素の位置(u2,v2)との差分値となる。
As a specific example, FIG. 26 shows a relationship diagram between parallax values and LR images.
Disparity value PA of the position of the parallax image (u 1, v 2), as shown in equation (4) below, the position of the pixels of the L image and the (u 1, v 2), the R image corresponding thereto This is a difference value from the pixel position (u 2 , v 2 ).

Figure 2018129826
Figure 2018129826

ここで、視差画像は、L画像とR画像の特徴点を検出し、L画像の特徴点に対応するR画像の特徴点のマッチングをとり、特徴点同士の位置ずれ量から視差値を算出し、その視差値に基づいて生成するようにしてもよい。
また、視差画像の代わりにデプス画像を使用するようにしてもよい。このデプス画像は、各画素の値が立体画像コンテンツの奥行き距離を表す画像となる。
Here, the parallax image detects the feature points of the L image and the R image, matches the feature points of the R image corresponding to the feature points of the L image, and calculates the parallax value from the amount of positional deviation between the feature points. Alternatively, it may be generated based on the parallax value.
Further, a depth image may be used instead of the parallax image. This depth image is an image in which the value of each pixel represents the depth distance of the stereoscopic image content.

加えて、画像データ保管手段150に、予め様々な視差値を持つLR画像を複数枚保管しておくようにしてもよい。そこで、画像データ保管手段150に保管した様々な視差値を持つLR画像群の一例を図27に示す。   In addition, a plurality of LR images having various parallax values may be stored in the image data storage unit 150 in advance. An example of LR image groups having various parallax values stored in the image data storage unit 150 is shown in FIG.

図27の最上部にあるLR画像は、立体画像コンテンツが元々保持していた視差値を持つLR画像を表し、図27の最下部にあるLR画像は視差値が0であるLR画像(LR画像は同じ画像であり、平面画像となる)を表す。また、図27の中間部分にあるLR画像群は、任意の視差値に調整されたLR画像群である。
画像データ保管手段150に、予め様々な視差値を持つLR画像群を保管することにより、任意の視差値を持つLR画像を即時に表示することが可能となる。
The LR image at the top of FIG. 27 represents an LR image having a parallax value originally held in the stereoscopic image content, and the LR image at the bottom of FIG. 27 is an LR image (LR image) having a parallax value of 0. Are the same image and become a planar image). In addition, the LR image group in the middle part of FIG. 27 is an LR image group adjusted to an arbitrary parallax value.
By storing LR image groups having various parallax values in the image data storage unit 150 in advance, it becomes possible to immediately display LR images having arbitrary parallax values.

表示設定調整手段170は、座席背面部の傾斜に伴って出現する3Dクロストークや逆視の影響を軽減し、立体表示パネル手段120の表示面上に良好な立体画像が表示できるようにするため、観察距離算出手段140で算出した観察距離ZODとデバイス特性データ保管手段160に保管されたデバイス特性データを参照して、立体画像表示装置11の表示設定を調整する構成部材である。 The display setting adjustment unit 170 reduces the effects of 3D crosstalk and reverse viewing that appear with the inclination of the back of the seat so that a good 3D image can be displayed on the display surface of the 3D display panel unit 120. This is a component that adjusts the display setting of the stereoscopic image display device 11 with reference to the observation distance Z OD calculated by the observation distance calculation means 140 and the device characteristic data stored in the device characteristic data storage means 160.

本第1実施形態では、立体表示パネル手段120が有する光学分離手段の光学分離特性が動的に変更可能である場合と、光学分離特性が静的であり変更不可能な場合とで、異なる表示設定の調整処理を実施する。   In the first embodiment, the display is different between the case where the optical separation characteristic of the optical separation unit included in the stereoscopic display panel unit 120 can be dynamically changed and the case where the optical separation characteristic is static and cannot be changed. Perform setting adjustment processing.

ここで、図28に、光線分離特性の変更が可能又は不可能な場合において採用できる調整方法の分類表(分類表I)を示す。立体表示パネル手段120の光学分離手段の光学分離特性を動的に変更可能にする素子をアクティブ素子と呼び、光線分離特性が静的で変更不可能である素子をスタティック素子と呼ぶ。   Here, FIG. 28 shows a classification table (classification table I) of adjustment methods that can be adopted when the change of the light separation characteristics is possible or impossible. An element capable of dynamically changing the optical separation characteristics of the optical separation means of the stereoscopic display panel means 120 is called an active element, and an element whose light separation characteristics are static and cannot be changed is called a static element.

立体表示パネル手段120の光学分離手段の光学分離特性が動的に変更可能である場合には、表示設定調整手段170にて光学分離特性を変更して最適視認距離ODを変更することで、観察距離ZODに合わせた表示設定の調整処理を実施することができる。 When the optical separation characteristic of the optical separation means of the stereoscopic display panel means 120 can be dynamically changed, the display setting adjustment means 170 changes the optical separation characteristic to change the optimum viewing distance OD, thereby observing. It is possible to perform display setting adjustment processing according to the distance Z OD .

アクティブ素子を使用した光学分離手段の一例としては、液晶レンズが挙げられる。液晶レンズは、電圧の制御によって、該液晶レンズ内の屈折率の分布を制御することが可能であり、これによりレンズパワーを変更することができる。すなわち、表示設定調整手段170は、電圧を制御することにより、立体表示パネル手段120が形成する光学モデルを変更し、最適視認距離ODを任意に変更することができる。   An example of the optical separation means using an active element is a liquid crystal lens. The liquid crystal lens can control the refractive index distribution in the liquid crystal lens by controlling the voltage, thereby changing the lens power. In other words, the display setting adjusting unit 170 can change the optical model formed by the stereoscopic display panel unit 120 and arbitrarily change the optimum viewing distance OD by controlling the voltage.

ここで、レンズパワーとは、光学素子が光線を集光または発散させる度合いを表し、レンズが光線の進行方向を曲げる屈折力を意味する。レンズパワーが強力な場合には、光線が大きく屈折するため、レンズの焦点距離は短くなる。
このように、表示設定調整手段170は、レンズパワーを変化させることで、最適視認距離ODを変更し、観察距離ZODに合わせた表示設定の調整処理を実施するように構成されている。
Here, the lens power represents the degree to which the optical element collects or diverges the light beam, and means the refractive power by which the lens bends the traveling direction of the light beam. When the lens power is strong, the light beam is greatly refracted, so that the focal length of the lens is shortened.
As described above, the display setting adjustment unit 170 is configured to change the optimum viewing distance OD by changing the lens power, and to perform a display setting adjustment process in accordance with the observation distance ZOD .

この様子を、液晶レンズ120Aと表示パネル120Bを備えた立体表示パネル手段120を例示する図29及び図30に基づいて説明する。   This state will be described with reference to FIGS. 29 and 30 exemplifying the stereoscopic display panel means 120 including the liquid crystal lens 120A and the display panel 120B.

これら各図に示す例では、液晶レンズ120Aの上面に制御電極E〜Eが設置され、下面に共通電極Eが設置されている。 In the examples shown in these drawings, the control electrodes E 1 to E 4 are installed on the upper surface of the liquid crystal lens 120A, and the common electrode E 0 is installed on the lower surface.

ここで、上面の制御電極E〜Eと下面の共通電極Eとは、上下面を反対に入れ換えるようにしてもよい。すなわち、液晶レンズ120Aの上面に共通電極Eを設置し、下面に制御電極E〜Eを設置するという構成を採ってもよい。 Here, the control electrodes E 1 to E 4 on the upper surface and the common electrode E 0 on the lower surface may be interchanged in the upper and lower surfaces. That is, set up a common electrode E 0 to the upper surface of the liquid crystal lens 120A, may be adopted a configuration that placing the control electrodes E 1 to E 4 on the lower surface.

制御電極は、図29及び図30に示す通り、4種類の電極(E,E,E,E)から構成されており、それぞれの電極(E〜E)に対して異なる電圧を印加することができるように構成されている。液晶レンズは、印加電圧値に応じて屈折率が変化するため、表示設定調整手段170が、制御電極E〜Eへの印加電圧値を制御し、液晶レンズの屈折率の分布を制御することで、レンズパワーの変更処理を実現する。 The control electrode is composed of four types of electrodes (E 1 , E 2 , E 3 , E 4 ) as shown in FIGS. 29 and 30, and is different for each of the electrodes (E 1 to E 4 ). It is comprised so that a voltage can be applied. Since the refractive index of the liquid crystal lens changes according to the applied voltage value, the display setting adjustment unit 170 controls the applied voltage value to the control electrodes E 1 to E 4 to control the refractive index distribution of the liquid crystal lens. Thus, the lens power changing process is realized.

図29と図30とでは、制御電極への電圧印加条件が異なっており、図29に比べて図30の方が制御電極に印加される電圧値が高くなっている。また、これら各図それぞれの下の図は、立体表示パネル120の断面構造を示し、同じく各図それぞれの上の図は、液晶レンズ120AのX軸方向における屈折率分布を示す。   In FIG. 29 and FIG. 30, the voltage application conditions to the control electrode are different, and the voltage value applied to the control electrode is higher in FIG. 30 than in FIG. Also, the lower figure of each of these figures shows the cross-sectional structure of the stereoscopic display panel 120, and the upper figure of each figure shows the refractive index distribution in the X-axis direction of the liquid crystal lens 120A.

まず図29では、電圧Vが電圧Vよりも高い条件(電圧V>電圧V)、すなわち、制御電極Eと制御電極Eに対して電圧Vを,制御電極Eと制御電極Eに対して電圧Vをそれぞれ印加した場合の立体表示パネル手段120における光線の様子(下方の図)と、X軸方向の屈折率分布(上の図)とを示している。 First, in FIG. 29, a high condition even the voltages V 1 than the voltage V 2 (voltages V 1> Voltage V 2), i.e., the voltages V 1 to the control electrode E 1 and the control electrode E 4, a control electrode E 2 The state of light rays in the stereoscopic display panel means 120 when the voltage V 2 is applied to the control electrode E 3 (lower diagram) and the refractive index distribution in the X-axis direction (upper diagram) are shown.

レンズ頂点部(上の図の位置X)に相当する最大屈折率と、レンズ谷部(上の図の位置X,X)に相当する最小屈折率との差異が、レンズパワーに相当し、この図29ではΔnの値となる。
また、単位レンズとは、レンズ谷部に相当する位置から次のレンズ谷部に相当する位置まで(例えば位置Xから位置Xまで)のレンズ部分を表す。
The difference between the maximum refractive index corresponding to the lens apex (position X 2 in the above diagram) and the minimum refractive index corresponding to the lens valley (positions X 1 and X 3 in the above diagram) corresponds to the lens power. In FIG. 29, the value is Δn 1 .
Also, the unit lenses, representing the position corresponding to the lens valley to a position corresponding to the next lens valley lens portion (e.g., from position X 1 to position X 3).

次に、図30では、制御電極E及び制御電極Eに対して電圧V(図29)よりも高い電圧Vを,制御電極Eと制御電極Eに対して電圧Vをそれぞれ印加した場合の立体表示パネル手段120における光線の様子(下方の図)と、X軸方向の屈折率分布(上の図)とを示している。 Next, in FIG. 30, the voltages V 1 higher voltage V 3 than (Fig. 29) to the control electrode E 1 and the control electrode E 4, the voltage V 2 to the control electrode E 2 and the control electrode E 3 The state of light rays in the stereoscopic display panel means 120 when applied respectively (lower diagram) and the refractive index distribution in the X-axis direction (upper diagram) are shown.

かかる条件下での最大屈折率と最小屈折率との差異であるレンズパワーは、図29で示したΔn1よりも大きいΔn2の値を有している。
このように電圧の制御によってレンズパワーを大きくさせ、下の断面図に示すように光線20を大きく屈折させることにより、最適視認距離ODを短くすることが可能となる。
The lens power, which is the difference between the maximum refractive index and the minimum refractive index under such conditions, has a value of Δn2 that is larger than Δn1 shown in FIG.
As described above, the lens power is increased by controlling the voltage and the light ray 20 is largely refracted as shown in the cross-sectional view below, whereby the optimum viewing distance OD can be shortened.

液晶レンズの電圧制御に対応した光学モデルの一例を図31に示す。
図31(A)は、立体表示パネル手段120の最適視認距離ODがODとなる場合の光学モデルを表す。また、図31(B)は、図30で説明したような液晶レンズの電圧制御によってレンズパワーを上昇させ、最適視認距離をODからODへ縮小させた場合の光学モデルを表す。ただし、電圧制御による液晶レンズのレンズパワーの調整範囲は有限であるために、最適視認距離ODの調整範囲も有限の値をとる。
An example of an optical model corresponding to the voltage control of the liquid crystal lens is shown in FIG.
FIG. 31 (A) represents the optical model when the optimum viewing distance OD of the stereoscopic display panel unit 120 is OD 1. FIG. 31B shows an optical model when the lens power is increased by the voltage control of the liquid crystal lens as described in FIG. 30 and the optimum viewing distance is reduced from OD 1 to OD 2 . However, since the adjustment range of the lens power of the liquid crystal lens by voltage control is finite, the adjustment range of the optimum viewing distance OD also takes a finite value.

次いで、図32に、最適視認距離ODの調整範囲の一例を示す。
この図32において、最適視認距離(ODMIN)は、電圧制御によって液晶レンズのレンズパワーを最大限まで上昇させ、最適視認距離ODを最短にした際の距離を表す。また、最適視認距離(ODMAX)は、電圧制御によってレンズパワーを低下させ、最適視認距離ODを最長にした際の距離を表す。
Next, FIG. 32 shows an example of the adjustment range of the optimum viewing distance OD.
In FIG. 32, the optimum viewing distance (OD MIN ) represents the distance when the lens power of the liquid crystal lens is increased to the maximum by voltage control and the optimum viewing distance OD is minimized. The optimum viewing distance (OD MAX ) represents the distance when the lens power is reduced by voltage control and the optimum viewing distance OD is maximized.

したがって、最適視認距離ODの調整範囲は、図32に示す通り、最短の最適視認距離(ODMIN)から最長の最適視認距離(ODMAX)までの範囲となる。 Therefore, the adjustment range of the optimum viewing distance OD is a range from the shortest optimum viewing distance (OD MIN ) to the longest optimum viewing distance (OD MAX ), as shown in FIG.

表示設定調整手段170による表示設定の調整処理では、観察距離算出手段140にて算出した観察距離ZODと、最適視認距離ODとが一致するように、電圧制御によって液晶レンズのレンズパワーを変更する。 In the display setting adjustment process by the display setting adjustment unit 170, the lens power of the liquid crystal lens is changed by voltage control so that the observation distance ZOD calculated by the observation distance calculation unit 140 matches the optimum viewing distance OD. .

ここで、立体表示パネル手段120に使用する液晶レンズとしては、予め座席背面部の傾斜に伴う観察距離ZODの変動範囲を算出し、その変動範囲内で観察距離ZODが変化しても、立体表示パネル手段120の最適視認距離ODが調整可能であるレンズパワーを有する液晶レンズを選定することが望ましい。 Here, the liquid crystal lens used for stereoscopic display panel unit 120, calculates a variation range of viewing distance Z OD with the slope of the advance seat back portion, even after changing the viewing distance Z OD within the variation range, It is desirable to select a liquid crystal lens having a lens power with which the optimum viewing distance OD of the stereoscopic display panel means 120 can be adjusted.

このように、液晶レンズの屈折率分布を制御することによって、光線の屈折を調整することができ、最適視認距離を調節することができる。そして、光線の屈折の調節と最適視認距離の調節とにより、立体視域範囲を調節することが可能となる。   Thus, by controlling the refractive index distribution of the liquid crystal lens, the refraction of the light beam can be adjusted, and the optimum viewing distance can be adjusted. Then, the stereoscopic viewing range can be adjusted by adjusting the refraction of the light beam and adjusting the optimum viewing distance.

上記の一例では、立体表示パネル手段120の光学分離手段に液晶レンズを用いて最適視認距離ODを変更する例を示したが、液晶レンズの代わりに、バリアピッチが可変なパララックスバリアを用いて光学分離特性を動的に変更する、という構成を採ってもよい。
例えば、パララックバリアに画素ピッチよりも十分小さなバリアピッチのバリア(遮光板)を設け、光線を遮光するバリアの位置を選択し、図5に示したスリット6aの位置を変更することで、最適視認距離ODを変更する。
In the above example, an example in which the optimal viewing distance OD is changed by using a liquid crystal lens as the optical separation means of the stereoscopic display panel means 120 is shown, but instead of the liquid crystal lens, a parallax barrier with a variable barrier pitch is used. A configuration in which the optical separation characteristic is dynamically changed may be adopted.
For example, a parallax barrier is provided with a barrier (light-shielding plate) having a barrier pitch sufficiently smaller than the pixel pitch, the position of the barrier that blocks light is selected, and the position of the slit 6a shown in FIG. Change the viewing distance OD.

以上、光学分離特性が動的に変更可能な液晶レンズやパララックバリア等を用いた表示設定の調整処理では、立体表示パネル手段120の光学分離特性を変更し、最適視認距離ODを変更することで、観察距離ZODに合わせて立体画像の表示設定を調整した。 As described above, in the display setting adjustment process using a liquid crystal lens or a parallax barrier whose optical separation characteristics can be dynamically changed, the optical separation characteristics of the stereoscopic display panel unit 120 are changed, and the optimum viewing distance OD is changed. Then, the display setting of the stereoscopic image was adjusted according to the observation distance ZOD .

次に、立体表示パネル手段120の光学分離手段の光学分離特性が静的で変更不可能である場合には、表示設定調整手段170によって立体表示パネル手段120に表示する画像データ(L画像とR画像)の視差値PAを変更することで、観察距離ZODに合わせて表示設定を調整するという構成を採る。 Next, when the optical separation characteristic of the optical separation means of the stereoscopic display panel means 120 is static and cannot be changed, the image data (L image and R) displayed on the stereoscopic display panel means 120 by the display setting adjustment means 170. by changing the disparity value PA of the image), it employs a configuration of adjusting the display settings in accordance with the viewing distance Z OD.

光学分離特性が静的で変更不可能なスタティック素子を使用した光学分離手段としては、レンズパワーが変更不可能なレンチキュラレンズやバリアピッチが不変なパララックスバリアなどが挙げられる。   Examples of the optical separation means using a static element whose optical separation characteristics are static and cannot be changed include a lenticular lens whose lens power cannot be changed and a parallax barrier whose barrier pitch is not changed.

表示設定調整手段170による具体的な視差値PAの変更処理は、観察距離算出手段140で算出した観察距離ZODと、デバイス特性データ保管手段160に保管された3Dクロストーク特性データを参照して、立体画像が表示可能である視差の限界値(視差許容値PAth)を算出し、画像データの視差値PAが視差許容値PAth以下となるように変更するという内容である。 The specific parallax value PA changing process by the display setting adjusting unit 170 is performed by referring to the observation distance ZOD calculated by the observation distance calculating unit 140 and the 3D crosstalk characteristic data stored in the device characteristic data storage unit 160. The parallax limit value (parallax allowable value PA th ) at which a stereoscopic image can be displayed is calculated, and the parallax value PA of the image data is changed to be equal to or smaller than the parallax allowable value PA th .

ここで、観察距離ZODに対応した視差許容値PAthの変化の一例を図33に示す。
観察距離ZODが最適視認距離ODの付近であれば視差許容値PAthの値は増大し、反対に観察距離ZODが最適視認距離ODから離れれば視差許容値PAthの値は減少する。したがって、この視差許容値PAthの変化に合わせて立体表示パネル手段120に送信する画像データの視差値PAを変化させるように構成する。
Here, an example of a change in the parallax allowable value PA th corresponding to the observation distance Z OD is shown in FIG.
If the observation distance Z OD is near the optimum visual recognition distance OD, the value of the parallax allowable value PA th increases. Conversely, if the observation distance Z OD is away from the optimal visual recognition distance OD, the value of the parallax allowable value PA th decreases. Therefore, the parallax value PA of the image data transmitted to the stereoscopic display panel unit 120 is changed in accordance with the change in the parallax allowable value PAth .

具体的には、まず初めに視差許容値PAthと画像データの視差最大値PAmaxとを比較し、視差許容値PAthよりも画像データの視差最大値PAmaxの方が大きい場合には、視差調整値PAを下記式(5)により算出する。 Specifically, first compares the parallax maximum value PA max of the parallax allowable value PA th image data, when the larger parallax maximum value PA max of the image data than the parallax allowable value PA th is a parallax adjustment value PA C is calculated by the following equation (5).

Figure 2018129826
Figure 2018129826

次に、算出した視差調整値PAを画像データの視差値PAに乗算することで、画像データの視差最大値PAmaxが視差許容値PAth以下となるように画像データの視差値PAを変更する。 Then, the calculated parallax adjustment value PA C by multiplying the disparity value PA of the image data, the disparity maximum value PA max of the image data is changed disparity value PA of the image data to be equal to or less than the parallax allowable value PA th To do.

これより、観察距離ZODが最適視認距離ODから乖離するほど、立体表示パネル手段120には視差値PAが減少した画像データが表示される、といったように、観察距離ZODの変化に合わせて算出した視差調整値PAを用いて、表示する立体画像データの視差値PAを調節することできる。 Accordingly, as the observation distance Z OD deviates from the optimum viewing distance OD, the stereoscopic display panel means 120 displays image data with a reduced parallax value PA, so that the observation distance Z OD changes. using the calculated parallax adjustment value PA C, it may be to adjust the disparity value PA of the stereoscopic image data to be displayed.

なお、3Dクロストーク特性データと観察位置を参照して、画像データの視差値PAを変更する表示設定調整処理の詳細については、上記特許文献7に技術開示されている。   The details of the display setting adjustment processing for changing the parallax value PA of the image data with reference to the 3D crosstalk characteristic data and the observation position are disclosed in the above-mentioned Patent Document 7.

ここで、図28の分類表に示した通り、画像データの視差値PAを変更する表示設定の調整処理は、光学分離特性が動的に変更可能な光学分離手段(液晶レンズ等)を用いた場合にも適用可能である。   Here, as shown in the classification table of FIG. 28, the display setting adjustment process for changing the parallax value PA of the image data uses an optical separation means (liquid crystal lens or the like) whose optical separation characteristics can be dynamically changed. It is also applicable to cases.

このように、観察位置に合わせて立体画像データの視差値を変更することで、3Dクロストークや逆視の影響を軽減し、観察者への違和感を低減することができる。   In this way, by changing the parallax value of the stereoscopic image data in accordance with the observation position, it is possible to reduce the influence of 3D crosstalk and reverse viewing, and to reduce discomfort to the observer.

続いて、3Dモアレが発生する状況について、図34及び図35を参照して説明する。   Next, a situation where 3D moire occurs will be described with reference to FIGS. 34 and 35. FIG.

まず、立体表示パネル手段120の輝度-視野角特性データの一例を図34に示す。
この輝度-視野角特性データにおいて、横軸は視野角θを、縦軸は立体表示パネル手段120の表示面上の輝度値Yを表す。
First, an example of luminance-viewing angle characteristic data of the stereoscopic display panel unit 120 is shown in FIG.
The brightness - in the viewing angle characteristic data, the horizontal axis represents the viewing angle theta P, the vertical axis represents luminance value Y on the display surface of the stereoscopic display panel unit 120.

この図34でのY(LWRB)とY(LBRW)の輝度分布は、立体表示パネル手段120の正面位置となる視野角θP3付近において、点(X1,Y1)で交わる。また、これらは、視野角θP6付近において点(XR2,YR2)で交わり、視野角θP0付近において点(XL2,YL2)で交わる。点(X1,Y1)と点(XR2,YR2)とのθ方向における間隔は、右眼用画像の投影幅である幅P’に対応し、点(X1,Y1)と点(XL2,YL2)とのθ方向における間隔は、左眼用画像の投影幅である幅P’に対応する。 The luminance distributions of Y (LWRB) and Y (LBRW) in FIG. 34 intersect at a point (X1, Y1) in the vicinity of the viewing angle θ P3 that is the front position of the stereoscopic display panel means 120. They also meet at a point (XR2, YR2) in the vicinity of viewing angle theta P6, intersect at a point (XL2, YL2) in the vicinity of viewing angle theta P0. The spacing in the θ direction of the point and (X1, Y1) and a point (XR2, YR2), corresponds to the width P R 'is a projected width of the right-eye image, a point (X1, Y1) and a point (XL2, YL2 ) spacing in the theta P direction and corresponds to the width P L 'is the projection width of the left-eye image.

ここでは、点(X0,Y0)付近で輝度の低下が見られるが、この輝度低下が3Dモアレと呼ばれる。左眼がθP1〜θP2、右眼がθP4〜θP5の範囲に位置している場合は、3Dモアレを視認することは困難であるが、左右眼の一方もしくは両方がそれ以外の範囲(θP2〜θP3〜θP4の範囲など)に存在する場合には、3Dモアレが視認される。 Here, although a decrease in luminance is observed near the point (X0, Y0), this luminance decrease is called 3D moire. When the left eye is in the range of θ P1 to θ P2 and the right eye is in the range of θ P4 to θ P5 , it is difficult to visually recognize the 3D moire, but one or both of the left and right eyes are in the other range. when present in (theta such as in the range of P2 ~θ P3 P4) is, 3D moire is visible.

この3Dモアレは、観察者が3Dクロストーク領域内に移動した場合に視認されやすく、3Dモアレの影響は、観察者と立体画像表示装置11との奥行き方向の距離を表す観察距離に依存する。3Dモアレによる輝度ムラの出現位置は、図34に示した輝度-視野角特性データから算出することができる。   This 3D moire is easily visible when the observer moves into the 3D crosstalk region, and the influence of the 3D moire depends on the observation distance representing the distance in the depth direction between the observer and the stereoscopic image display device 11. The appearance position of luminance unevenness due to 3D moire can be calculated from the luminance-viewing angle characteristic data shown in FIG.

ここで、輝度-視野角特性データから算出した立体表示パネル手段120の表示面上の輝度変動値を図35に示す。また、図35(A:A‐1,A‐2,A‐3)には、立体画像が正常に視認可能な状況を示し、図35(B:B‐1,B‐2,B‐3)には、3Dモアレによる輝度ムラの出現により立体画像を正常に視認できない状況を示す。   Here, the luminance fluctuation value on the display surface of the stereoscopic display panel means 120 calculated from the luminance-viewing angle characteristic data is shown in FIG. FIG. 35 (A: A-1, A-2, A-3) shows a situation in which a stereoscopic image is normally visible, and FIG. 35 (B: B-1, B-2, B-3). ) Shows a situation where a stereoscopic image cannot be normally visually recognized due to the appearance of luminance unevenness due to 3D moire.

図35(A‐1)は、観察距離ZODが最適視認距離ODと一致する場合における観察者(O)の観察位置と立体表示パネル手段120の正視領域との位置関係を示す。図32(B−1)は座席背面部の傾斜により観察距離ZODが変化してZOD’となり、最短視認距離NDよりも短くなって、3Dモアレによる輝度ムラが出現した場合における観察者(O)の観察位置と立体表示パネル手段120の正視領域との位置関係を示す。 FIG. 35 (A-1) shows the positional relationship between the observation position of the observer (O) and the normal viewing area of the stereoscopic display panel means 120 when the observation distance Z OD matches the optimal viewing distance OD. FIG. 32 (B-1) shows an observer when the unevenness of brightness due to 3D moire appears when the observation distance Z OD changes due to the inclination of the seat back portion to become Z OD ′, becomes shorter than the shortest viewing distance ND. The positional relationship between the observation position of O) and the normal viewing area of the stereoscopic display panel means 120 is shown.

図35(A‐2)及び図35(B−2)は、立体表示パネル手段120の表示面上の特定のY位置における水平方向(X軸方向)の位置に対応する輝度変動値を示す。これら各図では、縦軸が表示面上の輝度値を表し、横軸が立体表示パネル手段120の表示面のX軸方向の位置を表す。図35(A−2)では、X軸方向に対して輝度値が変動しないのに対し、図35(B−2)では、X軸方向に対して輝度値が変動する。   35A-2 and FIG. 35B-2 show luminance fluctuation values corresponding to positions in the horizontal direction (X-axis direction) at specific Y positions on the display surface of the stereoscopic display panel means 120. FIG. In each of these drawings, the vertical axis represents the luminance value on the display surface, and the horizontal axis represents the position of the display surface of the stereoscopic display panel means 120 in the X-axis direction. In FIG. 35A-2, the luminance value does not vary with respect to the X-axis direction, whereas in FIG. 35B-2, the luminance value varies with respect to the X-axis direction.

図35(A−3)及び図35(B−3)は、白色画像を表示した場合における立体表示パネル手段120の表示面上の画像表示状態を表す。図35(A−3)の立体表示パネル手段120の表示面には、輝度ムラの無い立体画像が表示される。一方、図35(B−3)では、輝度値が低下するX軸位置において、立体表示パネル手段120の表示面に直線状の輝度ムラが出現した立体画像が表示される。   FIGS. 35A-3 and 35B-3 show the image display state on the display surface of the stereoscopic display panel unit 120 when a white image is displayed. A stereoscopic image having no luminance unevenness is displayed on the display surface of the stereoscopic display panel unit 120 of FIG. On the other hand, in FIG. 35 (B-3), a stereoscopic image in which linear luminance unevenness appears on the display surface of the stereoscopic display panel means 120 is displayed at the X-axis position where the luminance value decreases.

観察距離ZODが最適視認距離ODから乖離することで出現する3Dモアレの対策としては、3Dクロストークの対策と同様に、立体画像表示装置11の表示設定を調整する構成を採ることが考えられる。
この表示設定の調整処理では、立体表示パネル手段120の光学分離手段の光学分離特性が動的に変更可能である場合と、光学分離特性が静的で変更不可能な場合とで、異なる表示設定の調整処理を実施する。
As a countermeasure against 3D moire that appears when the observation distance Z OD deviates from the optimum viewing distance OD, it is conceivable to adopt a configuration in which the display setting of the stereoscopic image display device 11 is adjusted, similarly to the countermeasure against 3D crosstalk. .
In this display setting adjustment process, different display settings are used depending on whether the optical separation characteristic of the optical separation means of the stereoscopic display panel means 120 can be changed dynamically or when the optical separation characteristic is static and cannot be changed. Perform the adjustment process.

ここで、図36に、光線分離特性の変更が可能又は不可能な場合において採用できる調整方法の分類表(分類表II)を示す。   Here, FIG. 36 shows a classification table (classification table II) of adjustment methods that can be adopted when the change of the light separation characteristics is possible or impossible.

光学分離特性が動的に変更可能な場合には、上述した3Dクロストークの対策と同様に、光学分離特性を変更し、最適視認距離ODを変更することで、観察距離ZODに合わせた表示設定の調整処理を実施する。
光学分離手段に液晶レンズを使用した場合には、レンズパワーを完全にOFFにして、平面画像を表示することで、3Dモアレの対策を行うようにしてもよい。
When the optical separation characteristics can be dynamically changed, the display is adjusted to the observation distance Z OD by changing the optical separation characteristics and changing the optimum viewing distance OD in the same manner as the 3D crosstalk countermeasure described above. Perform setting adjustment processing.
When a liquid crystal lens is used as the optical separating means, the 3D moire countermeasure may be taken by completely turning off the lens power and displaying a planar image.

また、光学分離特性が静的で変更不可能な場合には、立体表示パネル手段120に表示する画像データの輝度値を変更することで、観察距離ZODに合わせて表示設定を調整する。この輝度値の変更処理では、輝度-視野角特性データを参照して、立体表示パネル手段120の表示面上に出現する3Dモアレの輝度変動値を算出するという構成を採る。3Dモアレの輝度変動値の算出は、観察距離ZOD(Z軸方向)だけでなく、X軸方向の位置も含む観察位置を考慮した方がより好適である。 If the optical separation characteristic is static and cannot be changed, the display setting is adjusted according to the observation distance Z OD by changing the luminance value of the image data displayed on the stereoscopic display panel unit 120. In this luminance value changing process, the luminance variation value of 3D moire appearing on the display surface of the stereoscopic display panel unit 120 is calculated with reference to the luminance-viewing angle characteristic data. The calculation of the luminance fluctuation value of 3D moire is more preferable in consideration of not only the observation distance Z OD (Z-axis direction) but also the observation position including the position in the X-axis direction.

ただし、本第1実施形態では、観察距離ZODを計測しているため、X軸方向の位置は常に一定であると仮定し、輝度-視野角特性データと観察距離ZODのみから3Dモアレによる輝度変動値を算出するように構成されている。そして、3Dモアレによる輝度変動値が平坦となるように画像データの輝度値を調整することで、3Dモアレの影響を軽減することができる。 However, in the first embodiment, the viewing distance because it measures the Z OD, the position of the X-axis direction is always assumed to be constant, the luminance - the viewing angle characteristic data and viewing distance Z OD 3D moire only The brightness fluctuation value is calculated. Then, by adjusting the luminance value of the image data so that the luminance fluctuation value due to the 3D moire becomes flat, the influence of the 3D moire can be reduced.

なお、輝度-視野角特性データと観察位置を参照して、画像データの輝度値を変更する表示設定調整処理の詳細については、特許文献7に技術開示されている。   The details of the display setting adjustment processing for changing the luminance value of the image data with reference to the luminance-viewing angle characteristic data and the observation position are disclosed in Patent Document 7.

このように、観察位置に合わせて立体画像データの輝度値を変更することで、3Dモアレの影響を軽減し、観察者への違和感を低減することができる。   In this way, by changing the luminance value of the stereoscopic image data in accordance with the observation position, it is possible to reduce the influence of 3D moire and to reduce discomfort to the observer.

また、図36(分類表II)に示したように、画像データの輝度値を変更する表示設定の調整処理は、光学分離特性が動的に変更可能な光学分離手段(液晶レンズ等)を用いた場合においても適用可能である。   As shown in FIG. 36 (Classification Table II), the display setting adjustment process for changing the luminance value of the image data uses an optical separation means (liquid crystal lens or the like) whose optical separation characteristics can be dynamically changed. It can be applied even if

(動作説明)
次に、立体画像表示装置11における画像処理動作の内容(立体画像処理方法)を、図37に示すフローチャートに基づいて説明する。
(Description of operation)
Next, the contents of the image processing operation (stereoscopic image processing method) in the stereoscopic image display device 11 will be described based on the flowchart shown in FIG.

観察者の操作等により、立体画像表示にかかる指令信号を入力した立体画像表示装置11は、まず移動物体状態検出手段110によって、観察者の座席状態と、その前座席の座席状態とを検出する。ここでの各座席状態とは、座席背面部の傾斜角度のことである。(図37:ステップS101)。   The stereoscopic image display apparatus 11 that has received a command signal for displaying a stereoscopic image by an observer's operation or the like first detects the seat state of the observer and the seat state of the front seat by the moving object state detection unit 110. . Each seat state here refers to the inclination angle of the seat back portion. (FIG. 37: Step S101).

次いで、観察距離算出手段140によって、観察者の位置と立体画像表示装置11との奥行き方向の距離を表す観察距離(観察者と立体画像表示装置11との相対距離)を算出する。より具体的には、移動物体状態検出手段110にて検出した観察者の座席背面部の傾斜角度(座席状態)及びその前の座席背面部の傾斜角度(座席状態)を参照すると共に観察距離算出手段140が、自身に登録された座席基準情報(座席の設置間隔の距離情報,設置位置情報)を用いて観察距離を算出する。(図37:ステップS102)。   Next, the observation distance calculation unit 140 calculates an observation distance (relative distance between the observer and the stereoscopic image display device 11) that represents the distance in the depth direction between the position of the observer and the stereoscopic image display device 11. More specifically, while referring to the inclination angle (seat state) of the back of the seat of the observer detected by the moving object state detection means 110 and the inclination angle (seat state) of the back of the seat in front of the observer, the observation distance is calculated. The means 140 calculates the observation distance using the seat reference information (seat installation interval distance information, installation position information) registered in itself. (FIG. 37: Step S102).

次に、表示設定調整手段170によって、デバイス特性データ保管手段160から3Dクロストーク特性データ又は輝度-視野角特性データをデバイス特性データとして取得する。
上述の通り、3Dクロストーク特性データの一例は図20に、輝度-視野角特性データの一例は図34にそれぞれ示す(図37:ステップS103)。
Next, the display setting adjustment unit 170 acquires 3D crosstalk characteristic data or luminance-viewing angle characteristic data from the device characteristic data storage unit 160 as device characteristic data.
As described above, an example of 3D crosstalk characteristic data is shown in FIG. 20, and an example of luminance-viewing angle characteristic data is shown in FIG. 34 (FIG. 37: step S103).

併せて、画像データ保管手段150から、表示設定調整手段170によって立体画像コンテンツである画像データを取得する(図37:ステップS104)。   At the same time, the display setting adjustment unit 170 obtains image data as stereoscopic image content from the image data storage unit 150 (FIG. 37: step S104).

そして、立体画像表示装置11は表示設定調整手段170により、観察距離算出手段140にて算出した観察距離(上記ステップS102)と、デバイス特性データ保管手段160から取得したデバイス特性データ(上記ステップS103)とを参照して、観察距離に合わせた表示設定の調整処理を実施する(図37:ステップS105)。   The stereoscopic image display apparatus 11 uses the display setting adjustment unit 170 to observe the observation distance calculated by the observation distance calculation unit 140 (step S102) and the device characteristic data acquired from the device characteristic data storage unit 160 (step S103). With reference to Fig. 37, the display setting adjustment process according to the observation distance is performed (Fig. 37: step S105).

表示設定の調整処理としては、観察距離と最適視認距離が一致するように立体表示パネル手段120の光学分離手段を制御する方法や、画像データ保管手段150から取得した画像データ(上記ステップS104)の視差値及び輝度値を、観察距離とデバイス特性データに合わせて変更する方法等を採用することができる。   As the display setting adjustment processing, a method of controlling the optical separation unit of the stereoscopic display panel unit 120 so that the observation distance and the optimum viewing distance coincide with each other, or the image data acquired from the image data storage unit 150 (step S104 above). For example, a method of changing the parallax value and the luminance value according to the observation distance and the device characteristic data can be employed.

続いて、上記ステップS105で調整した表示設定に従って表示設定調整手段170により、画像データ保管手段150から取得した画像データ(上記ステップS104)を立体表示パネル手段120の画像表示パネルに表示する。すなわち、表示設定の調整処理を終えた立体画像を表示して観察者に提供する(図37:ステップS106)。   Subsequently, the image data acquired from the image data storage unit 150 (step S104) is displayed on the image display panel of the stereoscopic display panel unit 120 by the display setting adjustment unit 170 according to the display settings adjusted in step S105. That is, the stereoscopic image that has been subjected to the display setting adjustment processing is displayed and provided to the observer (FIG. 37: step S106).

次に、立体画像表示処理を中止するか、連続的に実行するかを設定する(図37:ステップS107)。
例えば、立体画像表示装置11の電源がOFFされたときや、観察者によって立体画像表示の中断が指示されたときには、立体画像表示処理を中止する(図37:ステップS107/Yes)。
一方で、立体画像表示処理を中止するイベントが無ければ、立体画像表示処理を連続的に実行するために上記ステップS101の処理へ戻り、上述した一連の処理内容(ステップS101〜S107)を繰り返し実行する。
Next, it is set whether the stereoscopic image display process is to be stopped or continuously executed (FIG. 37: step S107).
For example, when the power of the stereoscopic image display device 11 is turned off or when the observer instructs to interrupt the stereoscopic image display, the stereoscopic image display process is stopped (FIG. 37: Yes in Step S107).
On the other hand, if there is no event for stopping the stereoscopic image display process, the process returns to step S101 to continuously execute the stereoscopic image display process, and the above-described series of processing contents (steps S101 to S107) are repeatedly executed. To do.

以上のフローチャート処理により、座席の背もたれ部が傾斜し、立体画像表示装置11の表示位置が移動しても、座席背面部の傾斜角度を検出し、座席背面部に設置した立体画像表示装置11と観察者との相対距離(観察距離)を算出することができるため、安価な計測装置だけで3Dクロストークによる2重像や逆視,3Dモアレの影響を軽減して観察者へ違和感を与えない立体画像表示装置の提供が可能となる。   With the above flowchart processing, even if the back portion of the seat is inclined and the display position of the stereoscopic image display device 11 is moved, the inclination angle of the seat rear portion is detected, and the stereoscopic image display device 11 installed on the seat rear portion Since the relative distance (observation distance) with the observer can be calculated, the influence of double images, reverse viewing, and 3D moire due to 3D crosstalk can be reduced with only an inexpensive measurement device, and the observer does not feel uncomfortable. A stereoscopic image display device can be provided.

また、本第1実施形態の立体表示パネル手段120の光学モデル(図21,図22)では、立体表示パネル手段120から2つの異なる視点画像(L画像及びR画像)を投影する例を示したが、本第1実施形態における立体画像表示装置11は、視点数が2つである構成に限定されるものではなく、多視点画像を投影する立体表示パネル手段120にも適用可能である。   In the optical model (FIGS. 21 and 22) of the stereoscopic display panel unit 120 of the first embodiment, an example in which two different viewpoint images (L image and R image) are projected from the stereoscopic display panel unit 120 is shown. However, the stereoscopic image display device 11 in the first embodiment is not limited to the configuration having two viewpoints, and can also be applied to the stereoscopic display panel unit 120 that projects multi-viewpoint images.

ここで、上記各ステップS101〜S107(図37)における各工程の実行内容をプログラム化すると共に、この一連の各制御プログラムを立体画像表示装置11内に予め設けられたコンピュータによって実現するように構成してもよい。   Here, the execution contents of each step in the above steps S101 to S107 (FIG. 37) are programmed, and this series of each control program is realized by a computer provided in advance in the stereoscopic image display device 11. May be.

(第1実施形態の効果)
本第1実施形態では、移動物体としての座席の位置状態(背もたれ部の傾斜状態及び前後の位置)にかかる状態情報を検出すると共に、この状態情報に基づいて算出した観察距離を用いて立体画像の表示設定を調整するという構成を採ったため、これにより、3Dクロストークによる2重像や逆視,3Dモアレの影響を安価な構成によって有効に軽減することができ、観察者に違和感を与えない有意な立体画像の表示が可能となる。
(Effect of 1st Embodiment)
In the first embodiment, the state information relating to the position state of the seat as the moving object (the tilted state of the backrest portion and the front and back positions) is detected, and a stereoscopic image is obtained using the observation distance calculated based on the state information. Therefore, it is possible to effectively reduce the effects of double image, reverse viewing, and 3D moire caused by 3D crosstalk with an inexpensive configuration, and the viewer does not feel uncomfortable. A significant stereoscopic image can be displayed.

〔第2実施形態〕
本発明における立体画像表示装置の第2実施形態を図38乃至図57に基づいて説明する。ここで、前述した第1実施形態と同等の構成部材については同一の符号を用いるものとし、本第2実施形態における立体画像表示装置についても共通の符号(12)を総称として用いるものとする。
[Second Embodiment]
A second embodiment of the stereoscopic image display apparatus according to the present invention will be described with reference to FIGS. Here, the same reference numerals are used for the same components as those in the first embodiment described above, and the same reference numeral (12) is also used as a generic name for the stereoscopic image display apparatus in the second embodiment.

(全体的構成)
本第2実施形態では、安価な画像入力装置(撮像装置)を用いることで、座席背面部に設置した立体画像表示装置の立体表示パネル手段120の表示面から観察者までの観察距離ZODだけでなく、立体表示パネル手段120の表示面の中心位置に対する観察者の観察位置の相対位置(X軸方向及びY軸方向の相対位置まで含む)を示す観察位置PODを算出し、その観察位置PODに合わせて立体画像表示装置の表示設定を調整するという構成を採った点に特徴がある。
(Overall configuration)
In the second embodiment, by using an inexpensive image input device (imaging device), only the observation distance Z OD from the display surface of the stereoscopic display panel unit 120 of the stereoscopic image display device installed on the back of the seat to the observer is used. Instead of calculating the observation position POD indicating the relative position of the observer's observation position with respect to the center position of the display surface of the stereoscopic display panel means 120 (including the relative position in the X-axis direction and the Y-axis direction). it is characterized in accordance with the P OD in that employs a configuration of adjusting the display settings of the three-dimensional image display device.

本第2実施形態における立体画像表示装置12は、図38に示すように、移動物体状態検出手段110及び立体表示パネル手段120の他に、各種演算処理を実施する演算処理部132と、観察者を撮影してその画像データを記録する撮像手段280と、を有している。   As shown in FIG. 38, the stereoscopic image display device 12 according to the second embodiment includes an arithmetic processing unit 132 that performs various arithmetic processes in addition to the moving object state detection unit 110 and the stereoscopic display panel unit 120, and an observer. And imaging means 280 for recording the image data and recording the image data.

また、演算処理部132は、画像データ保管手段150及びデバイス特性データ保管手段160を有すると共に、立体表示パネル手段120の表示面の中心位置に対する観察者の観察位置の相対位置を示す観察位置PODを算出する観察位置算出手段(相対位置算出手段)290と、この観察位置算出手段290にて算出した観察位置とデバイス特性データ保管手段160に保管されたデバイス特性データとに基づいて立体画像の表示設定を調整する表示設定調整手段270と、を有している。 The arithmetic processing unit 132 includes an image data storage unit 150 and a device characteristic data storage unit 160, and an observation position P OD indicating the relative position of the observer's observation position with respect to the center position of the display surface of the stereoscopic display panel unit 120. Based on the observation position calculation means (relative position calculation means) 290 for calculating the image, the observation position calculated by the observation position calculation means 290, and the device characteristic data stored in the device characteristic data storage means 160 Display setting adjusting means 270 for adjusting the setting.

以下に、立体画像表示装置12に含まれる各手段の機能を説明する。ここで、移動物体状態検出手段110,立体表示パネル手段120,画像データ保管手段150,及びデバイス特性データ保管手段160については、前述の第1実施形態にて同一の符号を付した各手段と同様の構成である。   Hereinafter, functions of each unit included in the stereoscopic image display device 12 will be described. Here, the moving object state detection unit 110, the stereoscopic display panel unit 120, the image data storage unit 150, and the device characteristic data storage unit 160 are the same as the units denoted by the same reference numerals in the first embodiment. It is the composition.

撮像手段280は、観察者を撮影して、2次元平面上の撮像画像データとして記録する機能を有する。撮像手段280のハードウェア機器の一例としては、USBカメラやモバイル機器内の小型カメラモジュール等に代表される安価な撮像装置が挙げられる。   The imaging unit 280 has a function of capturing an image of the observer and recording it as captured image data on a two-dimensional plane. As an example of the hardware device of the imaging unit 280, an inexpensive imaging device represented by a USB camera, a small camera module in a mobile device, or the like can be given.

前述した第1実施形態では、観察者の両眼の高さが、接合部材の取り付け位置の高さと一致すると仮定して観察距離ZODを算出するという構成を採ったが、本第2実施形態では、撮像手段280を採用し、その撮像画像データを用いて観察位置算出手段290が、観察者の両眼の高さを検出すると共に、その高さ情報を使用して観察距離ZODを算出するという構成を採用した。また、観察位置算出手段290は、撮像手段280で撮影した撮影画像データと観察距離ZODとから、X軸方向及びY軸方向の相対位置を含む観察位置PODを算出するように構成されている。 In the first embodiment described above, the observation distance Z OD is calculated on the assumption that the height of both eyes of the observer coincides with the height of the attachment position of the joining member. Then, the imaging unit 280 is employed, and the observation position calculation unit 290 detects the height of both eyes of the observer using the captured image data, and calculates the observation distance Z OD using the height information. The configuration is to be adopted. The observation position calculation unit 290 is configured to calculate an observation position P OD including a relative position in the X-axis direction and the Y-axis direction from the captured image data captured by the imaging unit 280 and the observation distance Z OD. Yes.

撮像手段280は、立体画像表示装置12の外観図を示す図39のように、立体画像表示装置12の前面上部に設置されており、立体画像表示装置12の前方にいる観察者を撮影する。   The imaging unit 280 is installed at the upper front of the stereoscopic image display device 12 as shown in FIG. 39 which shows an external view of the stereoscopic image display device 12, and images an observer in front of the stereoscopic image display device 12.

次いで、図40(A)及び図41(A)に、撮像手段280で観察者(O)を撮影した撮像画像データの一例を示す。
また、図40(B)は、図40(A)の撮影画像データを撮像した際の観察者(O)と座席の背もたれ部の状態を、図41(B)は、図41(A)の撮影画像データを撮影した際の観察者(O)と座席の背もたれ部の状態を示す。
Next, FIG. 40 (A) and FIG. 41 (A) show an example of captured image data obtained by photographing the observer (O) with the imaging unit 280. FIG.
40B shows the state of the back of the observer (O) and the seat when the captured image data of FIG. 40A is captured, and FIG. 41B shows the state of FIG. The state of the observer (O) and the backrest of the seat when the captured image data is captured is shown.

すなわち、図40は、観察者(O)の両眼の高さに対応する座席の背もたれ部の長さLSE1が、座席の背もたれ部全体の長さLSBの中心位置に相当する例であり、図41は、観察者(O)の両眼の高さに対応する座席の背もたれ部の長さLSE2が座席の背もたれ部全体の長さLSBの7割の位置に相当する例である。 That is, FIG. 40 is an example in which the length L SE1 of the seat back portion corresponding to the height of both eyes of the observer (O) corresponds to the center position of the length L SB of the entire seat back portion. FIG. 41 is an example in which the length L SE2 of the seat back corresponding to the height of both eyes of the observer (O) corresponds to 70% of the length L SB of the entire seat back. .

なお、図40(B)と図41(B)は、座席の傾斜角度θが0°であり、座席の背もたれ部の前面と撮像手段280の撮像面とは平行な状態にある。撮像画像データの横軸方向を表すu軸は、立体画像表示装置12の表示座標系におけるX軸方向と一致し、撮像画像データの縦軸方向を表すv軸は、表示座標系におけるY軸方向と一致する。 In FIGS. 40B and 41B, the seat inclination angle θ S is 0 °, and the front surface of the seat back portion and the imaging surface of the imaging means 280 are in parallel. The u axis representing the horizontal axis direction of the captured image data matches the X axis direction in the display coordinate system of the stereoscopic image display device 12, and the v axis representing the vertical axis direction of the captured image data is the Y axis direction in the display coordinate system. Matches.

図40(A)と図41(A)の撮像画像データには、観察者(O)と座席の背もたれ部が撮影されている。この撮像画像データから観察者(O)の顔画像領域と、座席の背もたれ部の画像領域を検出し、座席の背もたれ部全体の長さLSBから観察者(O)の両眼の高さに対応する座席の背もたれ部の長さLSE(本第2実施形態では、座面部の下面から観察者(O)の両眼までの背もたれに沿った長さ)を検出する。この長さLSEは、図40(B)では長さLSE1となり、図41(B)では長さLSE2となる。 In the captured image data of FIGS. 40A and 41A, the observer (O) and the backrest portion of the seat are photographed. A face image area of the observer from the captured image data (O), detects an image area of the backrest of the seat, the height of the eyes of the observer (O) from the back portion total length L SB seat The length L SE of the corresponding seat back portion (the length along the back back from the lower surface of the seat surface portion to the eyes of the observer (O) in the second embodiment) is detected. This length L SE is the length L SE1 in FIG. 40B , and the length L SE2 in FIG. 41B .

撮像画像データから観察者の顔画像領域を検出する処理は、予め顔画像の特徴量(目や鼻,口,顎など)からテンプレートデータを生成しておき、撮像画像データと該テンプレートデータとをマッチングすることによって観察位置算出手段290が行う。   In the process of detecting the face image area of the observer from the captured image data, template data is generated in advance from the feature amount (eyes, nose, mouth, jaw, etc.) of the facial image, and the captured image data and the template data are used. The observation position calculation means 290 performs the matching.

この検出処理において観察位置算出手段290は、観察者(O)の両眼の画像位置(u軸位置及びv軸位置)も併せて検出する。また、テンプレートデータは、観察者(O)の顔画像からサポートベクターマシン(SVM)やベクトル量子化などの機械学習手法を利用して生成する。   In this detection process, the observation position calculation means 290 also detects the image positions (u-axis position and v-axis position) of both eyes of the observer (O). The template data is generated from the face image of the observer (O) using a machine learning method such as support vector machine (SVM) or vector quantization.

撮像画像データから座席の背もたれ部全体の画像領域を検出する処理についても同様に、観察位置算出手段290は、予め座席の背もたれ部の特徴量(背もたれ部の輪郭・色・模様情報など)からテンプレートデータを生成しておき、撮像画像データと該テンプレートデータとをマッチングすることによって行う。   Similarly, in the process of detecting the image area of the entire seat back portion from the captured image data, the observation position calculation means 290 uses the feature amount of the seat back portion (contour, color, pattern information, etc. of the back portion) in advance as a template. This is performed by generating data and matching the captured image data with the template data.

さらに観察位置算出手段290は、座席の背もたれ部全体の画像領域から座席の背もたれ部全体の画像領域の長さLISBを検出し、顔画像領域から観察者の眼の画像位置(v軸位置)を検出して、観察者の両眼の高さに対応する画像領域の長さLISE(図40(B)では長さLISE1となり、図41(B)では長さLISE2となる)を検出するように構成されている。 Further, the observation position calculation means 290 detects the length L ISB of the image area of the entire seat back from the image area of the entire seat back, and the image position (v-axis position) of the observer's eyes from the face image area. And the length L ISE of the image region corresponding to the height of both eyes of the observer (the length L ISE1 in FIG. 40B and the length L ISE2 in FIG. 41B ). Configured to detect.

そして、下記式(6)により観察位置算出手段290は、座席の背もたれ部全体の画像領域の長さLISBと、観察者の両眼の高さに対応する画像領域の長さLISEとの割合Rを算出する。 Then, the observation position calculation means 290 uses the following equation (6) to calculate the length L ISB of the image area of the entire seat back and the length L ISE of the image area corresponding to the height of both eyes of the observer. The ratio R S is calculated.

Figure 2018129826
Figure 2018129826

ここで、座席の背もたれ部全体の長さLSBは一定であるため、これを予め座席基準情報として登録しておくように構成することで、観察位置算出手段290は、観察者の両眼の高さに対応する座席の背もたれ部の長さLSEを、割合Rと座席の背もたれ部全体の長さLSBとから下記式(7)により算出することができる。 Here, since the length L SB of the entire seat back portion is constant, the observation position calculation unit 290 is configured to register the information as the seat reference information in advance, so that the observation position calculation means 290 can be used for both eyes of the observer. The length L SE of the seat back portion corresponding to the height can be calculated from the ratio R S and the length L SB of the entire seat back portion by the following formula (7).

Figure 2018129826
Figure 2018129826

また、観察位置算出手段290は、上記により算出した観察者の両眼の高さに対応する座席の背もたれ部の長さLSEを使用して、座席背面部の傾斜に伴う観察距離ZODの変化量ZODCを算出するように構成されている。 For the viewing position calculating means 290 uses the length L SE of the back portion of the seat corresponding to the height of the eyes of the observer calculated by the above, the viewing distance Z OD with the inclination of the seat back portion The change amount Z ODC is configured to be calculated.

ここで、観察距離の変化量ZODCが観察者の両眼の高さに依存する一例を図42に示す。
図42(A)では、観察者(O)の両眼の高さに対応する座席の背もたれ部の長さ(座面部の下面から観察者(O)の両眼までの背もたれに沿った長さ)が図40と同様にLSE1となり、図42(B)では、観察者(O)の両眼の高さに対応する座席の背もたれ部の長さが図41と同様にLSE2となる例である。
Here, FIG. 42 shows an example in which the change amount Z ODC of the observation distance depends on the height of both eyes of the observer.
42A, the length of the seat back portion corresponding to the height of both eyes of the observer (O) (the length along the back from the lower surface of the seat surface portion to both eyes of the observer (O)). ) Becomes L SE1 as in FIG. 40, and in FIG. 42B , the length of the seat back corresponding to the height of both eyes of the observer (O) becomes L SE2 as in FIG. It is.

座席背面部の傾斜によって、傾斜角度θが0°からθS2へ変更された場合における観察距離の変化量ZODCは、下記式(8)に示す値(図42(A)の場合はLSE1sinθS2,42(B)の場合はLSE2sinθS2)となる。 The observation distance change amount Z ODC when the inclination angle θ S is changed from 0 ° to θ S2 due to the inclination of the back surface of the seat is a value shown in the following equation (8) (L in the case of FIG. 42A). In the case of SE1 sinθ S2 , 42 (B), L SE2 sinθ S2 ).

Figure 2018129826
Figure 2018129826

ここで、観察者の両眼の高さに対応する座席の背もたれ部の長さLSEは、図42(A)と図42(B)とで異なる値をとる。 Here, the length L SE of the back portion of the seat corresponding to the height of the eyes of the observer, take different values de 42 (A) and FIG. 42 (B).

より具体的には、図42(A)における観察者(O)の両眼の高さに対応する座席の背もたれ部の長さLSE1は、座席の背もたれ部全体の長さLSBの中心位置に当たるため、上記式(7)に割合R(0.5)の値を代入して下記式(9)となる。また、図42(B)における観察者(O)の両眼の高さに対応する座席の背もたれ部の長さをLSE2は、座席の背もたれ部全体の長さLSBの7割の位置に当たるため、同様に下記式(10)となる。 More specifically, the length L SE1 of the seat back portion corresponding to the height of both eyes of the observer (O) in FIG. 42A is the center position of the length L SB of the entire seat back portion. Therefore, the following formula (9) is obtained by substituting the value of the ratio R S (0.5) into the above formula (7). Further, in FIG. 42B, the length of the seat back portion corresponding to the height of both eyes of the observer (O) is L SE2, which is 70% of the total length L SB of the seat back portion. Therefore, the following equation (10) is similarly obtained.

Figure 2018129826
Figure 2018129826

Figure 2018129826
Figure 2018129826

以上のように、観察位置算出手段290は、撮像手段280による撮影画像データを用いて、観察者の両眼の高さに対応する座席の背もたれ部の長さLSEを検出することにより、この長さLSEに依存する観察距離の変化量ZODCを算出することができる。 As described above, the observation position calculating means 290, by using the captured image data by the imaging unit 280, by detecting the length L SE of the backrest of the corresponding seat to the height of the eyes of the observer, this variation Z ODC viewing distance which depends on the length L SE can be calculated.

次いで、図43の外観図に示すように、座席背面部61Bに設置した立体画像表示装置12は、座席背面部61Bにある接合部材61Aの回転機構によって、表示座標系のY軸-Z軸平面上を回転して移動するように構成されている。   Next, as shown in the external view of FIG. 43, the stereoscopic image display device 12 installed on the seat back surface portion 61B has a Y coordinate-Z axis plane of the display coordinate system by the rotation mechanism of the joining member 61A on the seat back surface portion 61B. It is configured to move by rotating on the top.

この回転機構により、座席背面部61Bの傾斜に伴って立体画像表示装置12の表示面が下向きに傾斜しても、後述する立体画像表示装置12の設置傾斜角度θSD(図45乃至図47参照)を変更することで、表示面の向きを調節することができる。 With this rotation mechanism, even if the display surface of the stereoscopic image display device 12 is inclined downward as the seat back surface portion 61B is inclined, the installation inclination angle θ SD of the stereoscopic image display device 12 described later (see FIGS. 45 to 47). ) Can be changed to adjust the orientation of the display surface.

ここで、設置傾斜角度θSDの調整は、観察者が手動で行うようにしてもよいし、座席背面部の傾斜角度に合わせて自動的に立体画像表示装置12の設置傾斜角度θSDを変更するという構成を採ってもよい。 Here, the adjustment of the installation angle of inclination theta SD is to the viewer may be performed manually, automatically changing the installation angle of inclination theta SD of the three-dimensional image display device 12 in accordance with the inclination angle of the seat back portion You may take the structure of doing.

また、図43では、撮像手段280を立体画像表示装置12の前面上部に設置した例を記載したが、図44に示すように、撮像手段280を立体画像表示装置12から分離させ、座席へ直に設置するようにしてもよい。ただし、かかる構成を採る場合は、立体画像表示装置12の前方にいる観察者を撮影可能な位置に撮像手段280を設置し、撮像手段280に対する立体画像表示装置12の相対位置が既知であることが前提となる。   In FIG. 43, an example in which the imaging unit 280 is installed on the upper front of the stereoscopic image display device 12 is described. However, as shown in FIG. 44, the imaging unit 280 is separated from the stereoscopic image display device 12 and directly to the seat. You may make it install in. However, when such a configuration is adopted, the imaging unit 280 is installed at a position where the observer in front of the stereoscopic image display device 12 can be photographed, and the relative position of the stereoscopic image display device 12 with respect to the imaging unit 280 is known. Is the premise.

図43に示すように、撮像手段280と立体画像表示装置12が一体化している場合には、接合部材の回転機構によって立体画像表示装置12の設置傾斜角度θSDが変更されても、撮像手段280に対する立体画像表示装置12の相対位置は常に一定に保たれる。 As shown in FIG. 43, when the imaging unit 280 and the stereoscopic image display device 12 are integrated, the imaging unit even if the installation inclination angle θ SD of the stereoscopic image display device 12 is changed by the rotating mechanism of the joining member. The relative position of the stereoscopic image display device 12 with respect to 280 is always kept constant.

しかしながら、図44に示すように、撮像手段280を立体画像表示装置12と分離し、座席背面部へ直に設置した場合には、接合部材の回転機構によって立体画像表示装置12の設置傾斜角度θSDが変更されると、撮像手段280に対する立体画像表示装置12の相対位置が変化する。このため、接合部材の回転機構による立体画像表示装置12の設置傾斜角度θSDを検出し、撮像手段280と立体画像表示装置12との相対位置PSDを算出する必要が生じる。 However, as shown in FIG. 44, when the imaging unit 280 is separated from the stereoscopic image display device 12 and installed directly on the seat back portion, the installation inclination angle θ of the stereoscopic image display device 12 by the rotating mechanism of the joining member. When the SD is changed, the relative position of the stereoscopic image display device 12 with respect to the imaging unit 280 changes. Therefore, it is necessary to detect the installation inclination angle θ SD of the stereoscopic image display device 12 by the rotating mechanism of the joining member and calculate the relative position P SD between the imaging unit 280 and the stereoscopic image display device 12.

そこで、座席背面部と立体画像表示装置12のそれぞれに傾斜センサ(110A,110C)を設置した例を示す図45及び図46を参照して、立体画像表示装置12の設置傾斜角度θSDを検出する例を説明する。 Therefore, the installation inclination angle θ SD of the stereoscopic image display device 12 is detected with reference to FIGS. 45 and 46 showing examples in which inclination sensors (110A, 110C) are installed on the seat back portion and the stereoscopic image display device 12, respectively. An example will be described.

座席背面部の表面方向と立体画像表示装置12の表示面方向が平行であるときの設置傾斜角度θSDの角度を0°とすると、立体画像表示装置12の設置傾斜角度θSDは、図45に示す通り、座席背面部に設置した傾斜センサ110Aで検出した座席背面部の傾斜角度θと立体画像表示装置12に設置した傾斜センサ110Cで検出した立体画像表示装置12の傾斜角度θとの加算値となる。 When the installation angle of inclination theta SD of angle when the display surface direction of the seat back portion surface direction and the stereoscopic image display apparatus 12 of a parallel to 0 °, the installation angle of inclination theta SD of the three-dimensional image display device 12, FIG. 45 As shown in FIG. 4, the inclination angle θ S of the back of the seat detected by the inclination sensor 110A installed on the back of the seat and the inclination angle θ D of the stereoscopic image display device 12 detected by the inclination sensor 110C installed on the stereoscopic image display device 12 The added value of

すなわち、観察位置算出手段290は、各傾斜センサで検出した座席背面部の傾斜角度θと立体画像表示装置12の傾斜角度θとから、撮像手段280に対する立体画像表示装置12の相対位置PSDを算出する。 In other words, the observation position calculation unit 290 determines the relative position P of the stereoscopic image display device 12 with respect to the imaging unit 280 from the inclination angle θ S of the seat back portion detected by each inclination sensor and the inclination angle θ D of the stereoscopic image display device 12. SD is calculated.

この相対位置PSDは、撮像手段280の撮像位置Tから接合部材の回転中心位置Qまでの相対位置PSQと、接合部材の回転中心位置Qから立体表示パネル手段120の表示面の中心位置Dまでの相対位置PQDとを加算したものとなる。 The relative position P SD includes a relative position P SQ from the imaging position T of the imaging means 280 to the rotation center position Q of the joining member, and a center position D of the display surface of the stereoscopic display panel means 120 from the rotation center position Q of the joining member. Up to the relative position PQD .

ここでは、図45及び図46に示すように、撮像手段280の撮像位置Tから接合部材の回転中心位置Qまでの距離は常に一定であり、この距離をLSQとおく。また、接合部材の回転中心位置Qから立体表示パネル手段120の表示面の中心位置Dまでの距離も常に一定であり、この距離をLQDとおく。 Here, as shown in FIGS. 45 and 46, the distance from the imaging position T of the imaging means 280 to the rotation center position Q of the joining member is always constant, and this distance is set to L SQ . The distance from the rotation center position Q of the joining member to the center position D of the display surface of the stereoscopic display panel means 120 is always constant, and this distance is set to L QD .

距離LSQと距離LQDは既知の値であるため、座席背面部の傾斜角度θと立体画像表示装置12の傾斜角度θとから、撮像手段280に対する立体画像表示装置12の相対位置PSDを、観察位置算出手段290は下記式(11)より算出するように構成されている。 Since the distance L SQ and the distance L QD are known values, the relative position P of the stereoscopic image display device 12 with respect to the imaging unit 280 is determined from the inclination angle θ S of the seat back portion and the inclination angle θ D of the stereoscopic image display device 12. The observation position calculation means 290 is configured to calculate SD from the following equation (11).

Figure 2018129826
Figure 2018129826

ここで、PSD(x)は相対位置PSDのX軸方向の位置を,PSD(y)は相対位置PSDのZ軸方向の位置を,PSD(z)は相対位置PSDのZ軸方向の位置をそれぞれ示す。
SD(x)は、立体画像表示装置12の設置傾斜角度θSDに依存せず、常に一定となる。上記式(11)では、撮像手段280の撮影位置Tと立体表示パネル手段120の表示面の中心位置DとのX軸方向の位置が一致するものと仮定して、PSD(x)の値を0とした。
Here, P SD (x) is the position of the relative position P SD in the X-axis direction, P SD (y) is the position of the relative position P SD in the Z-axis direction, and P SD (z) is the relative position P SD . Each position in the Z-axis direction is shown.
P SD (x) does not depend on the installation inclination angle θ SD of the stereoscopic image display device 12 and is always constant. In the above equation (11), the value of P SD (x) is assumed on the assumption that the photographing position T of the imaging means 280 and the center position D of the display surface of the stereoscopic display panel means 120 coincide with each other in the X-axis direction. Was set to 0.

その他にも、かかる構成では、立体画像表示装置12の設置傾斜角度θSDの変化に伴い、撮像手段280のカメラのワールド座標系と、立体画像表示装置12の表示座標系との関係が変化する。 In addition, in such a configuration, the relationship between the world coordinate system of the camera of the imaging unit 280 and the display coordinate system of the stereoscopic image display device 12 changes as the installation inclination angle θ SD of the stereoscopic image display device 12 changes. .

そこで図47に、撮像手段280のカメラのワールド座標系と立体画像表示装置12の表示座標系とを示し、座標系の変換処理にかかる構成を説明する。カメラのワールド座標系は、C軸,C軸,C軸による直交座標で表し、表示座標系は、X軸,Y軸,Z軸による直交座標で表す。また、撮像手段280のワールド座標系は、立体画像表示装置12の表示座標系のY軸-Z軸平面上を回転する。 Therefore, FIG. 47 shows the world coordinate system of the camera of the imaging means 280 and the display coordinate system of the stereoscopic image display device 12, and the configuration related to the coordinate system conversion processing will be described. The world coordinate system of the camera is represented by orthogonal coordinates by the C X axis, the CY axis, and the C Z axis, and the display coordinate system is represented by orthogonal coordinates by the X axis, the Y axis, and the Z axis. The world coordinate system of the imaging unit 280 rotates on the Y-axis / Z-axis plane of the display coordinate system of the stereoscopic image display device 12.

立体画像表示装置12の設置傾斜角度θSDより、Y軸-Z軸平面上での回転行列が求まることから、カメラのワールド座標系の任意位置(c、c、c)を表示座標系へと変換するには、下記式(12)を用いて算出すれば良い。 Since the rotation matrix on the Y-axis / Z-axis plane is obtained from the installation inclination angle θ SD of the stereoscopic image display device 12, the arbitrary position (c X , c Y , c Z ) of the world coordinate system of the camera is displayed. In order to convert to a system, the following equation (12) may be used for calculation.

Figure 2018129826
Figure 2018129826

ここで、(x, y, z)はカメラのワールド座標系の任意位置(c、c、c)を表示座標系に変換した後の位置を示す。 Here, (x, y, z) indicates a position after an arbitrary position (c X , c Y , c Z ) in the world coordinate system of the camera is converted into a display coordinate system.

以上の処理を実施することで、接合部材の回転機構によって立体画像表示装置12の設置傾斜角度θSDが変更され、撮像手段280に対する立体画像表示装置12の相対位置PSDが変化しても、変化後の相対位置PSDを算出し、撮像手段280で撮影したカメラのワールド座標系の位置を立体画像表示装置12の表示座標系の位置へ変換することができる。 By performing the above processing, even if the installation inclination angle θ SD of the stereoscopic image display device 12 is changed by the rotation mechanism of the joining member and the relative position P SD of the stereoscopic image display device 12 with respect to the imaging unit 280 changes, calculating the relative position P SD after the change, it is possible to convert the position of the world coordinate system of the camera taken by the image pickup means 280 to the position of the display coordinate system of the three-dimensional image display device 12.

そして、観察位置算出手段290は、移動物体状態検出手段110で検出した座席背面部の傾斜角度θと、撮像手段280で撮影した撮像画像データ内に映る観察者の顔画像領域とを参照して、観察位置PODを算出するように構成されている。 Then, the observation position calculation unit 290 refers to the inclination angle θ S of the back of the seat detected by the moving object state detection unit 110 and the face image area of the observer reflected in the captured image data captured by the imaging unit 280. Thus, the observation position POD is calculated.

ところで、観察距離ZODについては、前述の第1実施形態と同様に、移動物体状態検出手段110にて検出した観察者の座席背面部の傾斜角度θSOとその前の座席の傾斜角度θSPとを用いて観察位置算出手段290が算出するという構成を採っている。ただし、本第2実施形態では、観察者の両眼の高さに対応する座席の背もたれ部の長さLSEを使用するため、観察距離ZODの算出式は、上記式(2)ではなく、下記式(13)となる。 By the way, as for the observation distance Z OD , as in the first embodiment described above, the inclination angle θ SO of the back of the viewer's seat detected by the moving object state detection unit 110 and the inclination angle θ SP of the seat in front of it are detected. The observation position calculating means 290 calculates using the above. However, in this second embodiment, in order to use the length L SE of the back portion of the seat corresponding to the height of the eyes of the observer, calculation formula of the viewing distance Z OD, rather than the equation (2) The following formula (13) is obtained.

Figure 2018129826
Figure 2018129826

観察位置ZODの算出に関連する観察者の座席とその前の座席との位置関係を図48に示す。前述した通り、一般的な観察者の後頭部から両眼位置(眉間部)までの長さ(頭長)の平均値は約19cmであることから(人体計測データの報告資料)、第1実施形態と同様、座席の背もたれ部の前面位置から観察者の両眼位置までの距離ZOOを約19cmと仮定し、上記式(13)で算出した観察距離ZODから距離ZOOを減算した値(ZOD−ZOO)を図48のように観察距離として採用するようにしてもよい。 FIG. 48 shows the positional relationship between the observer's seat and the front seat related to the calculation of the observation position ZOD . As described above, since the average value of the length (head length) from the back of the head of a general observer to the binocular position (brow between the eyebrows) is about 19 cm (report data of anthropometric data), the first embodiment the same, the value assumed from the front position of the backrest portion of the seat a distance Z OO to binocular observer position approximately 19cm, by subtracting the distance Z OO from viewing distance Z OD calculated by the above formula (13) ( Z OD −Z OO ) may be adopted as the observation distance as shown in FIG.

次いで、観察位置PODを算出するために、観察位置算出手段290は、撮像手段280で撮影した撮像画像データからX軸方向の観察位置POD(X)とY軸方向の観察位置POD(Y)とを算出するように構成されている。
一例として、撮像手段280の撮像面と立体表示パネル手段120の表示面が平行である場合の撮影環境を図49に示す。撮像手段280は、3次元空間上にある物体を2次元平面上の撮像面に投影し、撮像画像データとして記録する機能を有している。
Then, in order to calculate the observation position P OD, observation position calculating means 290, the observation position of the X-axis direction from the captured image data captured by the imaging means 280 P OD (X) and Y-axis direction of the observation position P OD ( Y) is calculated.
As an example, FIG. 49 shows an imaging environment when the imaging surface of the imaging unit 280 and the display surface of the stereoscopic display panel unit 120 are parallel. The imaging unit 280 has a function of projecting an object in a three-dimensional space onto an imaging surface on a two-dimensional plane and recording it as captured image data.

Y軸方向の任意位置Yに物体を置き、撮像手段280から物体までの距離(Z軸方向)を観察距離ZOD1から観察距離ZOD2へ移動させた際に、撮像手段280で物体を撮影した撮像画像データを図50に示す。 Place the object in an arbitrary position Y 1 of the Y-axis direction, when moving the distance (Z-axis direction) from the imaging unit 280 to the object from the viewing distance Z OD1 to viewing distance Z OD2, photographing an object by the image pickup means 280 The obtained captured image data is shown in FIG.

図50(A)は、観察距離ZOD1にある物体を撮影した際の撮像画像データを示し、図50(B)は、観察距離ZOD2にある物体を撮影した際の撮像画像データを示す。各図に示す通り、撮像画像データのu軸方向はX軸方向と一致し、v軸方向はY軸方向と一致する。 FIG. 50A shows captured image data when an object at the observation distance Z OD1 is photographed, and FIG. 50B shows captured image data when an object at the observation distance Z OD2 is photographed. As shown in each figure, the u-axis direction of the captured image data matches the X-axis direction, and the v-axis direction matches the Y-axis direction.

撮像手段280は、3次元空間上にある物体を2次元平面の撮像面へ投影するため、同じY軸方向の任意値Yにある物体であっても、観察距離ZODの違いによって、撮像画像データ内に投影される物体のv軸位置が変化する。 Since the imaging unit 280 projects an object in a three-dimensional space onto a two-dimensional plane imaging surface, even if the object is an arbitrary value Y 1 in the same Y-axis direction, imaging is performed depending on the difference in the observation distance Z OD. The v-axis position of the object projected in the image data changes.

3次元空間上の物体の位置(X、Y、Z)は、撮像手段280の焦点距離fと観察距離ZODを用いて、観察位置算出手段290が下記式(14),式(15),式(16)により算出する。 The position (X 1 , Y 1 , Z 1 ) of the object in the three-dimensional space is determined by the observation position calculation means 290 using the focal length f and the observation distance Z OD of the image pickup means 280 by the following formulas (14) and ( 15) and calculation by equation (16).

Figure 2018129826
Figure 2018129826

Figure 2018129826
Figure 2018129826

Figure 2018129826
Figure 2018129826

ここで、u1は撮像画像データのu軸方向における物体の画像位置を示し、v1はv軸方向における物体の画像位置を示す。したがって、X軸方向の観察位置POD(X)とY軸方向の観察位置POD(Y)とは、下記式(17),式(18)により算出する。 Here, u 1 indicates the image position of the object in the u-axis direction of the captured image data, and v 1 indicates the image position of the object in the v-axis direction. Therefore, the observation position P OD (X) in the X-axis direction and the observation position P OD (Y) in the Y-axis direction are calculated by the following formulas (17) and (18).

Figure 2018129826
Figure 2018129826

Figure 2018129826
Figure 2018129826

これら各式において、uEはu軸方向における撮像画像データ内に撮影された観察者の両眼の画像位置を示し、vEはv軸方向における撮像画像データ内に撮影された観察者の両眼の画像位置を示す。また、各PSDは、上記式(11)で算出した撮像手段280に対する立体画像表示装置12の相対位置を示す。 In each of these equations, u E indicates the image position of the observer's eyes captured in the captured image data in the u-axis direction, and v E indicates both of the observer images captured in the captured image data in the v-axis direction. Indicates the image position of the eye. Each P SD indicates the relative position of the stereoscopic image display device 12 with respect to the imaging unit 280 calculated by the above formula (11).

以上により、観察位置算出手段290は、移動物体状態検出手段110で検出した座席背面部の傾斜角度と、撮像手段280で撮影した撮像画像データから、観察位置PODを算出することができる。 As described above, the observation position calculation unit 290 can calculate the observation position P OD from the tilt angle of the seat back portion detected by the moving object state detection unit 110 and the captured image data captured by the imaging unit 280.

表示設定調整手段270は、観察位置算出手段290で算出した観察位置と、デバイス特性データ保管手段160に保管されたデバイス特性データとを参照し、座席背面部の傾斜に伴って出現する3Dクロストークや逆視の影響を軽減して、立体表示パネル手段120の表示面上に良好な立体画像が表示できるように、立体画像表示装置12の表示設定を調整するように構成されている。   The display setting adjustment unit 270 refers to the observation position calculated by the observation position calculation unit 290 and the device characteristic data stored in the device characteristic data storage unit 160, and 3D crosstalk that appears as the seat back portion tilts. The display setting of the stereoscopic image display device 12 is adjusted so that a favorable stereoscopic image can be displayed on the display surface of the stereoscopic display panel means 120 while reducing the influence of reverse viewing.

前述した第1実施形態では、X軸方向における観察者の位置は常に一定であると仮定して、表示設定の調整処理を実施したが、本第2実施形態では、観察位置算出手段290にて算出した観察位置PODを参照して、X軸方向における観察者の移動にも対応して表示設定の調整処理を実施する。 In the first embodiment described above, the display setting adjustment process is performed on the assumption that the position of the observer in the X-axis direction is always constant. However, in the second embodiment, the observation position calculation unit 290 performs the display setting adjustment process. With reference to the calculated observation position P OD , display setting adjustment processing is performed corresponding to the movement of the observer in the X-axis direction.

立体表示パネル手段120の光学分離手段の光学分離特性が動的に変更可能である場合には、光学分離特性を変更することで、観察位置PODに合わせた表示設定の調整処理を実施するという構成を採用できる。 When the optical separation characteristics of the optical separation means of the stereoscopic display panel means 120 can be changed dynamically, the display setting adjustment process is performed according to the observation position POD by changing the optical separation characteristics. Configuration can be adopted.

光学分離特性が動的に変更可能な光学分離手段として、液晶レンズを用いた場合には、液晶レンズのレンズパワーを局所的に変更することで、観察者が正常に立体画像を視認できる領域(正視領域)を観察位置PODに合わせて移動させるように構成する。 In the case where a liquid crystal lens is used as an optical separation means whose optical separation characteristics can be dynamically changed, an area where an observer can visually recognize a stereoscopic image normally by changing the lens power of the liquid crystal lens locally ( the combined stereoscopic viewing space) in the observation position P OD configured to move.

液晶レンズの電圧制御によって、液晶レンズのレンズパワーを局所的に変更し、正視領域の位置を変更した一例を図51に示す。
図51(A)は、立体表示パネル手段120の表示面の中央正面位置に正視領域が形成された光学モデルを表し、図51(B)は、立体表示パネル手段120の表示面の中央正面位置から右方向(X軸方向)へ移動した位置に正視領域が形成された光学モデルを表す。
FIG. 51 shows an example in which the lens power of the liquid crystal lens is locally changed by changing the voltage of the liquid crystal lens and the position of the normal viewing region is changed.
51A shows an optical model in which a normal viewing area is formed at the center front position of the display surface of the stereoscopic display panel unit 120, and FIG. 51B shows the center front position of the display surface of the stereoscopic display panel unit 120. 3 represents an optical model in which a normal vision region is formed at a position moved from the right to the right (X-axis direction).

前述の第1実施形態では、液晶レンズのレンズパワーを変更して立体表示パネル手段120の最適視認距離ODを変更したが、本第2実施形態では、液晶レンズのレンズパワーを局所的に変更することで、最適視認距離ODだけでなく、正視領域の位置をX軸方向へ移動させる、という構成を採っている。   In the first embodiment, the lens power of the liquid crystal lens is changed to change the optimum viewing distance OD of the stereoscopic display panel unit 120. However, in the second embodiment, the lens power of the liquid crystal lens is locally changed. Thus, not only the optimal viewing distance OD but also the position of the normal viewing area is moved in the X-axis direction.

この様子を、液晶レンズ120Aと表示パネル120Bを備えた立体表示パネル手段120の一例を示す図52及び図53に基づいて説明する。   This will be described with reference to FIGS. 52 and 53 showing an example of the stereoscopic display panel means 120 including the liquid crystal lens 120A and the display panel 120B.

図52及び図53における基本的な構成は、上述した図29及び図30の下の図(断面図)で示した構成と同様である。また、この図52及び図53における屈折率分布の大きさは、図29の上の図に示した場合と同様の値が得られるものとする。   The basic configuration in FIGS. 52 and 53 is the same as the configuration shown in the lower view (cross-sectional view) of FIGS. 29 and 30 described above. 52 and 53, the refractive index distribution has the same value as that shown in the upper diagram of FIG.

まず、図52では、電圧Vが電圧Vよりも高い条件(電圧V>電圧V)で、制御電極Eと制御電極Eに対して電圧Vを、制御電極Eと制御電極Eに対して電圧Vをそれぞれ印加することにより、単位レンズ内において光線20が集光するX軸方向の位置が、制御電極Eと制御電極Eの境界位置(右眼用画素と左眼用画素との境界線位置)となる。 First, in FIG. 52, at the voltages V 1 higher than the voltage V 2 conditions (voltages V 1> the voltage V 2), the voltages V 1 to the control electrode E 1 and the control electrode E 4, a control electrode E 2 By applying the voltage V 2 to the control electrode E 3 , the position in the X-axis direction where the light beam 20 is condensed in the unit lens is the boundary position between the control electrode E 2 and the control electrode E 3 (for the right eye). Boundary line position between the pixel and the pixel for the left eye).

ここで、図52と図53とでは、単位画素位置に対する単位レンズのX軸方向の位置が制御電極一つ分相当の幅だけ異なることに留意されたい。   52 and 53, it should be noted that the position of the unit lens in the X-axis direction with respect to the unit pixel position differs by a width corresponding to one control electrode.

すなわち、図53では、制御電極Eと制御電極Eへ電圧Vを、制御電極Eと制御電極Eへ電圧Vを印加すると共に、単位レンズの位置をX軸のプラス方向(左方向)に制御電極一つの幅分移動させることにより、光線20が集光するX軸方向の位置が、制御電極Eと制御電極Eの境界位置(右眼用画素の中央位置)となり、光線20がX軸のマイナス方向(右方向)にずれて出射されている。 That is, in FIG. 53, the voltage V 1 is applied to the control electrode E 2 and the control electrode E 1 , the voltage V 2 is applied to the control electrode E 3 and the control electrode E 4, and the position of the unit lens is set in the positive direction of the X axis ( by moving the control electrode a wide width to the left), the position of the X-axis direction beam 20 is focused is, control electrodes E 3 and control boundary position of the electrode E 4 (center position of the right-eye pixels) and , The light beam 20 is emitted while being shifted in the minus direction (right direction) of the X axis.

ここで、図52の状態に制御された液晶レンズ120Aによって形成される立体表示パネル手段120の光学モデルを図54に示し、図53の状態に制御された液晶レンズ120Aによる光学モデルを図55に示す。   Here, FIG. 54 shows an optical model of the stereoscopic display panel means 120 formed by the liquid crystal lens 120A controlled to the state of FIG. 52, and FIG. 55 shows an optical model of the liquid crystal lens 120A controlled to the state of FIG. Show.

図54の場合は、液晶レンズによって、光線20が集光するX軸方向の位置が右眼用画素と左眼用画素の境界位置となるため、正視領域は立体表示パネル手段120の中央正面位置に形成される。   In the case of FIG. 54, since the position in the X-axis direction where the light beam 20 is collected by the liquid crystal lens is the boundary position between the right-eye pixel and the left-eye pixel, the normal viewing area is the central front position of the stereoscopic display panel means 120. Formed.

これに対し、図55の場合は、液晶レンズによって、光線20が集光するX軸方向の位置が右眼用画素の中央位置となるため、正視領域は立体表示パネル手段120の中央正面位置より右側(X軸のマイナス方向)へ制御電極一つの幅分移動した位置に形成される。   On the other hand, in the case of FIG. 55, the position in the X-axis direction where the light beam 20 is collected by the liquid crystal lens is the center position of the right-eye pixel. It is formed at a position moved by the width of one control electrode to the right (minus direction of the X axis).

上記のように、それぞれの制御電極E〜Eへの印加電圧を変更し、液晶レンズのレンズパワーを局所的に制御するという構成を採ることで、正視領域の位置を、Z軸方向だけでなく、X軸方向にも移動することが可能となる。
また、正視領域のX軸方向への移動量は、制御電極の本数の増減やピッチを調整することによっても変更することができる。
As described above, by changing the applied voltage to each of the control electrodes E 1 to E 4 and locally controlling the lens power of the liquid crystal lens, the position of the normal vision region can be set only in the Z-axis direction. In addition, it is possible to move in the X-axis direction.
Further, the amount of movement of the normal viewing region in the X-axis direction can also be changed by increasing or decreasing the number of control electrodes and adjusting the pitch.

その他にも、電圧Vが電圧Vよりも高く、電圧Vが電圧Vよりも高い条件(電圧V>電圧V>電圧V)で、制御電極Eと制御電極Eに対して電圧Vを,制御電極Eに対して電圧Vを,制御電極Eに対して電圧Vをそれぞれ印加して液晶レンズを制御するようにしてもよい。
かかる構成を採れば、制御電極Eと制御電極Eへの印加電圧は異なるため、液晶の配向分布が非対称性を持ち、液晶レンズを通過する光線20の屈折方向も非対称となることから、液晶レンズの光軸が傾斜する。すなわち、この光軸の傾斜によって正視領域の形成位置を移動する、という構成を採ってもよい。
Besides, high voltages V 1 than the voltage V 2, at higher conditions than the voltage V 2 is the voltage V 3 (voltages V 1> Voltage V 2> Voltage V 3), the control electrodes E 1 and the control electrode E 4 The liquid crystal lens may be controlled by applying the voltage V 1 to the control electrode E 2 , the voltage V 2 to the control electrode E 2 , and the voltage V 3 to the control electrode E 3 .
Taking such a configuration, since the voltage applied to the control electrode E 2 and the control electrode E 3 is different from the orientation distribution of the liquid crystal has an asymmetry, it becomes asymmetrical refraction direction of the light beam 20 passing through the liquid crystal lens, The optical axis of the liquid crystal lens is tilted. That is, a configuration may be adopted in which the formation position of the normal viewing region is moved by the inclination of the optical axis.

このように、光学分離素子の屈折率の分布を制御可能な構成を採ることで、正視領域の位置ならびに立体視域範囲を調節することが可能となる。   As described above, by adopting a configuration capable of controlling the refractive index distribution of the optical separation element, it is possible to adjust the position of the normal viewing region and the stereoscopic viewing region range.

上記の一例では、立体表示パネル手段120の光学分離手段に液晶レンズを用いた例を示したが、液晶レンズに代えて、バリア位置が可変なパララックスバリアを用いてもよい。この場合も、パララックスバリア制御電極を単位画素内に複数本設け、制御電極に所定の電圧を印加し、バリア位置を制御するという構成を採ることで、正視領域を観察位置PODに合わせて移動させることができる。 In the above example, an example in which a liquid crystal lens is used as the optical separation unit of the stereoscopic display panel unit 120 is shown, but a parallax barrier with a variable barrier position may be used instead of the liquid crystal lens. Again, a plurality of provided a parallax barrier control electrode in the unit pixel, a predetermined voltage is applied to the control electrode, by employing a configuration of controlling the barrier position, the combined stereoscopic viewing space the observation position P OD Can be moved.

以上のように、液晶レンズやバリア位置が可変なパララックバリア等を用いた表示設定の調整処理では、表示設定調整手段270が立体表示パネル手段120の光学分離手段を制御し、視領域の位置を変更するという構成により、観察位置に合わせた表示設定の調整処理を実現した。   As described above, in the display setting adjustment process using a liquid crystal lens, a parallax barrier having a variable barrier position, or the like, the display setting adjustment unit 270 controls the optical separation unit of the stereoscopic display panel unit 120 to determine the position of the viewing region. By changing the configuration, the display setting adjustment process according to the observation position was realized.

次に、立体表示パネル手段120の光学分離手段の光学分離特性が静的で変更不可能である場合における表示設定の調整処理について記載する。   Next, display setting adjustment processing when the optical separation characteristic of the optical separation means of the stereoscopic display panel means 120 is static and cannot be changed will be described.

この場合は、立体表示パネル手段120の正視領域の位置が不変であるため、立体表示パネル手段120に表示する画像データ(L画像とR画像)の視差値を変更することで、観察位置PODに合わせて表示設定を調整するように構成する。 In this case, since the position of the normal viewing area of the stereoscopic display panel unit 120 is unchanged, the observation position P OD is changed by changing the parallax value of the image data (L image and R image) displayed on the stereoscopic display panel unit 120. Configure to adjust the display settings to match.

観察位置PODが正視領域から外れることで出現する3Dクロストークによる2重像の対策としては、画像データの視差値PAを調整して2重像の影響を軽減することが挙げられる。
具体的には、観察位置算出手段290で算出した観察位置PODと、デバイス特性データ保管手段160に保管された3Dクロストーク特性データを参照して表示設定調整手段270が、立体画像が表示可能である視差の限界値(視差許容値PAth)を算出し、視差値PAが視差許容値PAth以下となるように調整するという構成を採る。
As a measure of the double image by the 3D crosstalk observation position P OD appears in departing from the stereoscopic viewing space, and the like to reduce and adjust the disparity value PA by effect of double image of the image data.
Specifically, the display setting adjustment unit 270 can display a stereoscopic image with reference to the observation position POD calculated by the observation position calculation unit 290 and the 3D crosstalk characteristic data stored in the device characteristic data storage unit 160. The parallax limit value (parallax allowable value PA th ) is calculated, and the parallax value PA is adjusted to be equal to or smaller than the parallax allowable value PA th .

ここで、図56に、観察位置PODから算出する立体表示パネル手段120の視野角θに対応する視差許容値PAthの一例を示す。 Here, FIG. 56 shows an example of the parallax allowable value PA th corresponding to the viewing angle θ P of the stereoscopic display panel means 120 calculated from the observation position P OD .

この図56の通り、視野角θが正視領域内であれば視差許容値PAthの値は増大し、反対に視野角θが3Dクロストーク領域内であれば視差許容値PAthの値は減少する。したがって、この視差許容値PAthの変化に合わせて立体表示パネル手段120に送信する画像データの視差値PAを変化させるように構成する。
これより、観察位置PODが3Dクロストーク領域内であれば、立体表示パネル手段120には、視差値PAが減少した画像データが表示される。
As shown in FIG. 56, if the viewing angle θ P is within the normal viewing area, the value of the parallax allowable value PA th increases. Conversely, if the viewing angle θ P is within the 3D crosstalk area, the value of the parallax allowable value PA th is Decrease. Therefore, the parallax value PA of the image data transmitted to the stereoscopic display panel unit 120 is changed in accordance with the change in the parallax allowable value PAth .
Thus, if the observation position POD is within the 3D crosstalk area, the stereoscopic display panel unit 120 displays image data with a reduced parallax value PA.

なお、3Dクロストーク特性データと観察位置PODを参照して、画像データの視差値を変更する表示設定調整処理の詳細については、上記特許文献7に技術開示されている。また、前述の第1実施形態にて参照した図28(分類表I)と同様に、画像データの視差値を変更する表示設定の調整処理は、光学分離特性が動的に変更可能な光学分離手段(液晶レンズ等)を用いた場合にも適用可能である。 The details of the display setting adjustment process for changing the parallax value of the image data with reference to the 3D crosstalk characteristic data and the observation position POD are disclosed in the above-mentioned Patent Document 7. Similarly to FIG. 28 (classification table I) referred to in the first embodiment, the display setting adjustment process for changing the parallax value of the image data is an optical separation whose optical separation characteristics can be dynamically changed. The present invention is also applicable when using means (liquid crystal lens or the like).

観察位置PODが正視領域から外れることで出現する3Dモアレの対策としては、画像データの輝度調整処理を実施して3Dモアレの影響を軽減することが挙げられる。前述の第1実施形態では、X軸方向の観察位置POD(X)は常に一定であると仮定して立体表示パネル手段120の表示面上の輝度変動値を算出したが、本第2実施形態では、観察位置算出手段290にて算出した観察位置PODを参照して、表示設定調整手段270が輝度変動値を算出する、という構成を採っている。 As a measure of 3D moire observation position P OD appears in departing from the stereoscopic viewing space, and the like to reduce the influence of 3D moire performed brightness adjustment processing of the image data. In the first embodiment described above, the luminance fluctuation value on the display surface of the stereoscopic display panel unit 120 is calculated on the assumption that the observation position P OD (X) in the X-axis direction is always constant. In the embodiment, a configuration is adopted in which the display setting adjustment unit 270 calculates the luminance fluctuation value with reference to the observation position POD calculated by the observation position calculation unit 290.

この輝度変動値の算出処理では、観察位置PODと輝度-視野角特性データとを参照して、立体表示パネル手段120の表示面上に出現する3Dモアレの輝度変動値を算出する。そして、この算出値に基づいて表示設定調整手段270が、3Dモアレによる輝度変動値が平坦となるように画像データの輝度値を調整することで、3Dモアレの影響を軽減することが可能となる。 In this luminance fluctuation value calculation process, the luminance fluctuation value of 3D moire appearing on the display surface of the stereoscopic display panel means 120 is calculated with reference to the observation position POD and the luminance-viewing angle characteristic data. Then, the display setting adjustment unit 270 adjusts the luminance value of the image data based on the calculated value so that the luminance fluctuation value due to the 3D moire becomes flat, thereby reducing the influence of the 3D moire. .

なお、輝度-視野角特性データと観察位置PODとを参照して、画像データの輝度値を変更する表示設定調整処理の詳細については、上記特許文献7に技術開示されている。
また、前述の第1実施形態にて参照した図36(分類表II)と同様に、画像データの輝度値を変更する表示設定の調整処理は、光学分離特性が動的に変更可能な光学分離手段(液晶レンズ等)を用いた場合にも適用可能である。
The details of the display setting adjustment process for changing the luminance value of the image data with reference to the luminance-viewing angle characteristic data and the observation position POD are disclosed in the above-mentioned Patent Document 7.
Similarly to FIG. 36 (classification table II) referred to in the first embodiment, the display setting adjustment process for changing the luminance value of the image data is an optical separation whose optical separation characteristics can be dynamically changed. The present invention is also applicable when using means (liquid crystal lens or the like).

このように、観察位置に合わせて立体画像データの輝度値を変更するという構成を採ることで、3Dモアレの影響を軽減し、観察者への違和感を低減することが可能となる。   As described above, by adopting a configuration in which the luminance value of the stereoscopic image data is changed in accordance with the observation position, it is possible to reduce the influence of 3D moire and to reduce discomfort to the observer.

(動作説明)
次に、立体画像表示装置12における画像処理動作の内容(立体画像表示方法)を、図57に示すフローチャートに基づいて説明する。
(Description of operation)
Next, the content of the image processing operation (stereoscopic image display method) in the stereoscopic image display device 12 will be described based on the flowchart shown in FIG.

ユーザの操作等により、立体画像表示にかかる指令信号を入力した立体画像表示装置11は、前述の第1実施形態と同様に、移動物体状態検出手段110によって、観察者の座席状態と、その前座席の座席状態とを検出する(図57:ステップS201)。   As in the first embodiment, the stereoscopic image display device 11 that has input a command signal related to stereoscopic image display by a user operation or the like uses the moving object state detection unit 110 to determine the seat state of the observer and The seat state of the seat is detected (FIG. 57: step S201).

次に、撮像手段280を使用して、立体画像表示装置12の前方にいる観察者を含む2D画像を撮影し、2次元平面上の撮像画像データを観察位置算出手段290が取得する(図57:ステップS202)。
この撮像画像データを用いて観察位置算出手段290は、観察者の顔画像領域と座席の背もたれ部の画像領域とを検出する(図57:ステップS203)。
Next, a 2D image including an observer in front of the stereoscopic image display device 12 is captured using the imaging unit 280, and the observation position calculation unit 290 acquires captured image data on a two-dimensional plane (FIG. 57). : Step S202).
Using this captured image data, the observation position calculation means 290 detects the face image area of the observer and the image area of the seat back (FIG. 57: step S203).

次いで、観察位置算出手段290は、観察者の立体画像表示装置12に対する相対位置を表す観察位置を算出する。その際、ステップS201で検出された各座席の傾斜角度と、ステップS202で記憶された撮像画像データとを参照すると共に、自身に予め登録された座席基準情報を用いて観察位置を算出する(図57:ステップS204)。   Next, the observation position calculation unit 290 calculates an observation position representing a relative position of the observer with respect to the stereoscopic image display device 12. At that time, while referring to the inclination angle of each seat detected in step S201 and the captured image data stored in step S202, the observation position is calculated using seat reference information registered in advance (see FIG. 57: Step S204).

次に、前述の第1実施形態におけるステップS103及びS104と同様に、表示設定調整手段270によって、デバイス特性データ保管手段160からデバイス特性データを取得し(図57:ステップS205)、画像データ保管手段150から立体画像コンテンツである画像データを取得する(図57:ステップS206)。   Next, as in steps S103 and S104 in the first embodiment described above, device characteristic data is acquired from the device characteristic data storage unit 160 by the display setting adjustment unit 270 (FIG. 57: step S205), and image data storage unit is obtained. Image data that is stereoscopic image content is acquired from 150 (FIG. 57: step S206).

次いで、表示設定調整手段270により、ステップS203で算出した観察位置とステップS204で取得したデバイス特性データとを参照して、観察位置に合わせた表示設定の調整処理を実施する。表示設定の調整処理としては、立体表示パネル手段120の光学分離手段を制御して正視領域を観察位置に合わせて移動させる方法や、S205で取得した画像データの視差値及び輝度値を、観察位置とデバイス特性データに合わせて変更する方法が挙げられる(図57:ステップS207)。   Next, the display setting adjustment unit 270 refers to the observation position calculated in step S203 and the device characteristic data acquired in step S204, and performs display setting adjustment processing according to the observation position. As the display setting adjustment process, the optical separation unit of the stereoscopic display panel unit 120 is controlled to move the normal viewing area according to the observation position, and the parallax value and the luminance value of the image data acquired in S205 are used as the observation position. And a method of changing according to the device characteristic data (FIG. 57: step S207).

そして、前述の第1実施形態(ステップS106,ステップ107)と同様に、表示設定調整手段270により、上記ステップS206で調整した表示設定に従って画像データ保管手段150から取得した画像データを立体表示パネル手段120の画像表示パネルに表示し(図57:ステップS208)、次いで立体画像表示処理を中止するか否かを設定する(図57:ステップS209)。   As in the first embodiment (steps S106 and 107), the display setting adjusting unit 270 obtains the image data acquired from the image data storage unit 150 according to the display setting adjusted in step S206. 120 is displayed on the image display panel 120 (FIG. 57: step S208), and then whether or not to stop the stereoscopic image display process is set (FIG. 57: step S209).

以上のフローチャートにかかる処理により、座席背面部の傾斜に伴って立体画像表示装置の表示位置が移動しても、座席背面部の傾斜角度と撮影した撮像画像データとを参照し、座席背面部に設置した立体画像表示装置に対する観察者の相対位置(観察位置)を算出すると共に、これを用いて表示設定の調整処理を行うため、安価な計測装置だけで3Dクロストークによる2重像や逆視,3Dモアレの影響を軽減することができ、観察者へ違和感を与えない立体画像を提供することが可能となる。   Even if the display position of the stereoscopic image display device is moved with the inclination of the back of the seat, the processing according to the above flowchart refers to the inclination angle of the back of the seat and the captured image data, and Since the relative position (observation position) of the observer with respect to the installed stereoscopic image display device is calculated and the display setting adjustment processing is performed using this, the double image or reverse view by 3D crosstalk can be performed only with an inexpensive measurement device. The effect of 3D moire can be reduced, and a stereoscopic image that does not give the viewer a sense of incongruity can be provided.

また、本第2実施形態においても、視点数は2つに限定されるものではなく、多視点画像を投影する立体表示パネル手段120にも適用可能である。   Also in the second embodiment, the number of viewpoints is not limited to two, and the present invention can also be applied to the stereoscopic display panel means 120 that projects a multi-viewpoint image.

ここで、上記各ステップS201〜S208(図57)における各工程の実行内容をプログラム化すると共に、この一連の各制御プログラムをコンピュータによって実現するように構成してもよい。   Here, the execution contents of each step in the above steps S201 to S208 (FIG. 57) may be programmed, and the series of control programs may be realized by a computer.

(第2実施形態の効果)
本第2実施形態では、撮像手段による撮像画像データを、移動物体の状態情報と共に使用して、立体表示パネル手段120に対する観察者の相対位置(観察位置)を算出し、これを用いて立体画像の表示設定を調整するという構成を採ったことから、観察者の両眼の高さをも考慮した立体画像の表示設定の調整処理を実現することができるため、より精度よく有効な立体画像を表示することが可能となる。
その他の構成及び動作については、第1実施形態で示したものと同様であり、他に生じる作用効果も同様である。
(Effect of 2nd Embodiment)
In the second embodiment, the relative position (observation position) of the observer with respect to the stereoscopic display panel means 120 is calculated using the imaged image data obtained by the imaging means together with the state information of the moving object, and this is used to calculate the stereoscopic image. Since the configuration of adjusting the display settings of the three-dimensional images can be realized, it is possible to realize the adjustment processing of the display settings of the three-dimensional images in consideration of the height of both eyes of the observer. It is possible to display.
About another structure and operation | movement, it is the same as that of what was shown in 1st Embodiment, and the effect which arises elsewhere is also the same.

〔第3実施形態〕
本発明における立体画像表示装置の第3実施形態を図58乃至図64に基づいて説明する。上述した第1及び第2実施形態と同等の構成部材については、同一の符号を用いるものとする。
[Third Embodiment]
A third embodiment of the stereoscopic image display apparatus according to the present invention will be described with reference to FIGS. Constituent members equivalent to those in the first and second embodiments described above are denoted by the same reference numerals.

(全体的構成)
本第3実施形態では、立体画像表示装置の前方にいる観察者の身体の大きさを表すサイズ情報(観察者データ)を登録し、その観察者データを用いて、観察者の観察位置の立体表示パネルの表示面の中心位置に対する相対位置を表す観察位置PODを算出し、その観察位置PODに合わせて立体画像表示装置の表示設定の調整処理を実施するという構成を採用した。
(Overall configuration)
In the third embodiment, size information (observer data) indicating the size of the body of the observer in front of the stereoscopic image display device is registered, and the stereoscopic data of the observer's observation position is registered using the observer data. A configuration is adopted in which an observation position P OD representing a relative position with respect to the center position of the display surface of the display panel is calculated, and a display setting adjustment process of the stereoscopic image display device is performed in accordance with the observation position P OD .

すなわち、上述の第1及び第2実施形態では、観察者が座席の背もたれ部に寄り掛かっていることを想定して、観察距離ZOD及び観察位置PODを算出したが、本第3実施形態では、観察者が座席の背もたれ部に寄り掛かった状態だけでなく、座席の背もたれ部から離れた状態であっても、観察者データを用いて観察位置PODを算出するように構成した点に特徴がある。 That is, in the first and second embodiments described above, the observation distance Z OD and the observation position P OD are calculated on the assumption that the observer is leaning on the seat back portion. in not only the state in which the observer leaning against the backrest of the seat, even when away from the backrest portion of the seat, to a point that is configured to calculate the observation position P OD using observer data There are features.

本第3実施形態における立体画像表示装置13は、図58に示すように、移動物体状態検出手段110,立体表示パネル手段120,撮像手段280の他に、各種演算処理を実施する演算処理部133と、観察者が座席の背もたれ部と密接した状態にあるか否かを表す観察者状態情報を検出する観察者状態検出手段310と、を有している。   As shown in FIG. 58, the stereoscopic image display device 13 in the third embodiment includes an arithmetic processing unit 133 that performs various arithmetic processes in addition to the moving object state detection unit 110, the stereoscopic display panel unit 120, and the imaging unit 280. And observer state detecting means 310 for detecting observer state information indicating whether or not the observer is in close contact with the seat back portion.

また、演算処理部133は、画像データ保管手段150,デバイス特性データ保管手段160,及び表示設定調整手段270を有すると共に、観察者状態検出手段310にて検出した観察者状態情報と撮像手段280による撮像画像データとを参照して観察者データを検出し保管する観察者データ保管処理手段350と、立体表示パネル手段120の表示面の中心位置に対する観察者の観察位置の相対位置を示す観察位置PODを算出する観察位置算出手段(相対位置算出手段)390と、を有している。 The arithmetic processing unit 133 includes an image data storage unit 150, a device characteristic data storage unit 160, and a display setting adjustment unit 270, and the observer state information detected by the observer state detection unit 310 and the imaging unit 280. An observer data storage processing unit 350 that detects and stores observer data with reference to the captured image data, and an observation position P that indicates a relative position of the observer's observation position with respect to the center position of the display surface of the stereoscopic display panel unit 120. Observation position calculation means (relative position calculation means) 390 for calculating OD .

さらに、観察位置算出手段390は、上記撮像画像データから観察者の顔画像領域を検出する検出手段390Aと、上記観察者状態情報に基づいて観察者が座席の背もたれ部に密接した状態にあるか否かを判定する判定手段390Bと、を有すると共に、この判定手段390Bにて、密接した状態にある旨判定した場合には、移動物体状態検出手段110にて検出した状態情報と上記顔画像領域とを用いて観察位置PODを算出し、観察者が座席の背もたれ部から離れた状態にある旨判定した場合には、上記観察者データと上記顔画像領域とを用いて観察位置PODを算出するように構成されている。 Furthermore, the observation position calculation means 390 is in a state in which the observer is in close contact with the backrest portion of the seat based on the detection means 390A for detecting the face image area of the observer from the captured image data and the observer state information. A determination means 390B for determining whether or not the object is in close contact with the determination means 390B, and the state information detected by the moving object state detection means 110 and the face image area calculating an observation position P OD with bets, when the observer determines that in a state away from the backrest portion of the seat, the observation position P OD by using the above observer data and the face image area It is configured to calculate.

以下に、立体画像表示装置13に含まれる各手段の機能を説明する。ここで、移動物体状態検出手段110,立体表示パネル手段120,画像データ保管手段150,デバイス特性データ保管手段160,表示設定調整手段270,及び撮像手段280については、上述した第1又は第2実施形態にて同一の符号を付した各手段と同様の構成である。   Hereinafter, functions of each unit included in the stereoscopic image display device 13 will be described. Here, the moving object state detection unit 110, the stereoscopic display panel unit 120, the image data storage unit 150, the device characteristic data storage unit 160, the display setting adjustment unit 270, and the imaging unit 280 are described in the first or second embodiment. It is the structure similar to each means which attached | subjected the same code | symbol in the form.

観察者状態検出手段310は、観察者が座席の背もたれ部と密接した状態であるか、離れた状態であるかを表す観察者状態情報を検出するように構成されている。この観察者状態情報は、例えば座席の背もたれ部に感圧センサを設置しておき、該感圧センサを用いて観察者状態検出手段310が検出するように構成できる。   The observer state detecting means 310 is configured to detect observer state information indicating whether the observer is in a state of being in close contact with the backrest portion of the seat or in a separated state. This observer state information can be configured so that, for example, a pressure sensor is installed on the backrest portion of the seat, and the observer state detector 310 detects the pressure state sensor using the pressure sensor.

感圧センサを設置した座席の一例を示す図59において、図59(A)は観察者(O)が座席の背もたれ部と密接した状態を示し、図59(B)は観察者(O)が座席の背もたれ部から離れた状態を示す。   In FIG. 59 showing an example of a seat provided with a pressure-sensitive sensor, FIG. 59 (A) shows a state where the observer (O) is in close contact with the backrest portion of the seat, and FIG. 59 (B) shows that the observer (O) It shows the state away from the seat back.

図59(A)では、観察者(O)の体重によって、座席の背もたれ部に設置した感圧センサ310Aに圧力がかかるため、感圧センサ310Aの出力電圧値が上昇する。一方、図59(B)では、感圧センサ310Aに圧力がかからないため、感圧センサ310Aの出力電圧値は上昇しない。
このように、観察者と座席との位置関係によって変化する感圧センサ310Aの出力電圧値を計測することで、観察者状態情報を検出することができる。
In FIG. 59A, pressure is applied to the pressure-sensitive sensor 310A installed on the backrest portion of the seat depending on the weight of the observer (O), so that the output voltage value of the pressure-sensitive sensor 310A increases. On the other hand, in FIG. 59B, since pressure is not applied to the pressure sensor 310A, the output voltage value of the pressure sensor 310A does not increase.
Thus, the observer state information can be detected by measuring the output voltage value of the pressure-sensitive sensor 310A that changes depending on the positional relationship between the observer and the seat.

観察者データ保管処理手段350は、観察者状態検出手段310で検出した観察者状態情報と撮像手段280による撮像で得た撮像画像データとを参照して、観察者の顔画像領域のサイズを示す観察者データを検出・保管するように構成されている。   The observer data storage processing unit 350 refers to the observer state information detected by the observer state detection unit 310 and the captured image data obtained by imaging by the imaging unit 280, and indicates the size of the face image area of the observer. It is configured to detect and store observer data.

観察者データの検出処理において観察者データ保管処理手段350は、初めに観察者状態検出手段310で検出した観察者状態情報を参照して、観察者が座席の背もたれ部と密接した状態であるときに、撮像手段280で観察者を撮影し、撮像画像データを取得する。次いで、観察者データ保管処理手段350は、この撮像画像データから前述の第1実施形態と同様に観察者の顔画像領域を検出し、この顔画像領域のサイズを観察者データとして検出する。   In the observer data detection process, the observer data storage processing unit 350 refers to the observer state information first detected by the observer state detection unit 310, and when the observer is in close contact with the seat back portion. Then, the observer is photographed by the imaging means 280, and captured image data is acquired. Next, the observer data storage processing unit 350 detects the face image area of the observer from the captured image data as in the first embodiment described above, and detects the size of the face image area as the observer data.

ここで、図60に、撮像手段280で撮影した撮像画像データの一例を示す。
この図60は、観察者の顔画像領域の輪郭位置から観察者データ保管処理手段350が検出するu軸方向における顔画像領域の幅FIWを示す。
Here, FIG. 60 shows an example of captured image data captured by the imaging means 280.
FIG. 60 shows the width F IW of the face image area in the u-axis direction detected by the observer data storage processing unit 350 from the contour position of the face image area of the observer.

観察者が座席の背もたれ部に密接した状態であれば、前述の第2実施形態と同様に観察距離ZODを算出することができる。また、実際の観察者の顔幅Fは、上記算出した観察距離ZOD及び撮像画像データから検出した顔画像領域の幅FIWを使用して、下記式(19)より算出するように構成する。 If the observer is in close contact with the seat back, the observation distance Z OD can be calculated in the same manner as in the second embodiment. The actual observer's face width FW is calculated from the following equation (19) using the calculated observation distance Z OD and the face image area width F IW detected from the captured image data. To do.

Figure 2018129826
Figure 2018129826

ここで、上記fは、撮像手段280の焦点距離を示す。
観察者データ保管処理手段350は、算出した実際の観察者の顔幅Fを観察者データとして保管する。
Here, f represents the focal length of the imaging means 280.
The observer data storage processing unit 350 stores the calculated actual observer face width FW as observer data.

また、実際の観察者の顔幅Fは、座席の背もたれ部の画像領域に占める顔画像領域の割合から算出するように構成してもよい。
この場合は、上記顔画像領域の幅FIWの他に、座席の背もたれ部の輪郭情報から座席の画像領域幅SIWを検出するという構成を採る。実際の座席の背もたれ部の幅Sは一定であるため、これを座席基準情報として予め登録しておくことにより、実際の観察者の顔幅Fは下記式(20)から算出できる。
The actual observer's face width FW may be calculated from the ratio of the face image area to the image area of the seat back portion.
In this case, in addition to the face image area width FIW , the seat image area width SIW is detected from the contour information of the seat back portion. The actual width S W of the backrest of the seat is fixed, by previously registered as a seat reference information, the actual observer's face width F W can be calculated from the following equation (20).

Figure 2018129826
Figure 2018129826

なお、上記の一例では、観察者データとして観察者の顔幅Fを保管したが、観察者データは観察者の身体の大きさを表すサイズ情報であればよく、観察者の顔幅Fだけに特定されるものではない。
例えば、観察者の両眼の瞳孔間隔を観察者データとして保管するようにしてもよい。
In the above example, the observer's face width FW is stored as the observer data, but the observer data may be size information indicating the size of the observer's body, and the observer's face width FW. It is not just specific.
For example, the pupil distance between both eyes of the observer may be stored as observer data.

また、上記には観察者データの検出処理時に、観察者状態検出手段310で検出した観察者状態情報を参照し、観察者データ算出用の撮影画像データを取得する一例を示したが、観察者状態情報を参照する代わりに、立体画像表示装置13から観察者データを検出することを観察者へ報知し、その報知後に撮影画像データを取得するようにしてもよい。   Further, in the above, an example is shown in which the observer state information detected by the observer state detection unit 310 is referred to at the time of the observer data detection process to acquire the captured image data for calculating the observer data. Instead of referring to the state information, the observer may be notified that the observer data is detected from the stereoscopic image display device 13, and the captured image data may be acquired after the notification.

観察者への報知方法の一例としては、図61に示すような通知画面を立体画像表示装置13へ表示することが挙げられる。例えば、該画面上に準備完了を通知するための確認ボタン等を設け(立体画像表示装置13等に予め設けられた操作ボタン等を代用してもよい)、観察者の押圧に起因する信号を受けて撮影画像データの取得を実行するという構成を採ってもよい。
また、飛行機の乗客者は、安全のため、離陸時に座席の背もたれに寄り掛かることを指示されるので、その際に撮影画像データを取得し、観察者データを保管するように構成してもよい。
One example of a method for notifying the observer is to display a notification screen as shown in FIG. 61 on the stereoscopic image display device 13. For example, a confirmation button or the like for notifying the completion of preparation is provided on the screen (an operation button or the like provided in advance on the stereoscopic image display device 13 or the like may be substituted), and a signal resulting from an observer's press is provided. A configuration may be adopted in which the acquisition of captured image data is executed.
In addition, for the sake of safety, the passenger of the airplane is instructed to lean on the back of the seat at the time of takeoff. At that time, the photographed image data may be acquired and the observer data may be stored. .

観察位置算出手段390は、撮像手段280で撮影した撮像画像データから、検出手段390Aにより観察者の顔画像領域を検出し、また、観察者状態検出手段310で検出した観察者状態情報に基づいて、判定手段390Bにより観察者が背もたれ部に密接した状態にあるか否かを判定する。   The observation position calculation unit 390 detects the observer's face image area from the captured image data photographed by the imaging unit 280 and based on the observer state information detected by the observer state detection unit 310. The determination means 390B determines whether or not the observer is in close contact with the backrest.

そして、観察者が座席の背もたれ部に密接している場合に観察位置算出手段390は、前述の第2実施形態と同様に、移動物体状態検出手段110で検出した座席状態情報と撮像手段280で撮影した撮像画像データとを参照して観察位置PODを算出するように構成されている。 When the observer is in close contact with the seat back, the observation position calculation unit 390 uses the seat state information detected by the moving object state detection unit 110 and the imaging unit 280 as in the second embodiment described above. The observation position POD is calculated with reference to the taken captured image data.

一方で、観察者が座席の背もたれ部から離れている場合に観察位置算出手段390は、観察者データ保管処理手段350に保管した観察者データと、撮像手段280で撮影した撮像画像データとを参照して観察位置PODを算出するように構成されている。 On the other hand, when the observer is away from the seat back, the observation position calculation unit 390 refers to the observer data stored in the observer data storage processing unit 350 and the captured image data captured by the imaging unit 280. Thus, the observation position POD is calculated.

ここで、異なる観察距離ZODで撮影された撮像画像データの例を示す図62を参照して、観察者の位置変動に起因した顔画像領域の幅の変化を説明する。図62(A)は観察者が座席の背もたれ部に密接した場合の撮像画像データを示し、図62(B)は観察者が座席の背もたれ部から離れた場合(観察者が前座席に近づいた場合)の撮像画像データを示す。 Here, with reference to FIG. 62 showing an example of captured image data photographed at different observation distances ZOD , a change in the width of the face image area due to the position variation of the observer will be described. FIG. 62 (A) shows captured image data when the observer is in close contact with the seat back, and FIG. 62 (B) is when the observer is away from the seat back (the observer approaches the front seat). ) Shows captured image data.

観察者が座席の背もたれ部から離れ、撮像手段280に近接するほど、観察者の顔画像領域の幅FIWは増加する。例えば、図62(A)の場合は幅FIW1であるが、観察者が撮像手段280に近接した図62(B)の場合では幅FIW2にまで増加している。 The width F IW of the face image area of the observer increases as the observer moves away from the backrest portion of the seat and approaches the imaging unit 280. For example, in the case of FIG. 62 (A), the width is FIW1 , but in the case of FIG. 62 (B) in which the observer is close to the imaging means 280, the width is increased to FIW2 .

実際の観察者の顔幅Fは観察者データとして保管されているため、観察位置算出手段390は、下記式(21)によって観察距離ZODを算出することができる。 Since the actual observer's face width FW is stored as observer data, the observation position calculation means 390 can calculate the observation distance Z OD by the following equation (21).

Figure 2018129826
Figure 2018129826

そして、X軸方向の観察位置POD(X)とY軸方向の観察位置POD(Y)を、前述の第2実施形態と同様に観察位置算出手段390が算出するように構成されている。 The observation position calculation unit 390 calculates the observation position P OD (X) in the X-axis direction and the observation position P OD (Y) in the Y-axis direction as in the second embodiment. .

本第3実施形態では、上記のような構成を採ったため、観察者が座席の背もたれ部から離れた状態であっても、観察者の観察位置PODを算出することができる。
また、この算出した観察者の観察位置PODに合わせて、表示設定調整手段170が立体画像表示装置13の表示設定調整処理を実施することで、観察者が座席の背もたれ部から離れた状態であっても、安価な計測装置だけで3Dクロストークによる2重像や逆視,3Dモアレの影響を軽減することができるため、結果として、観察者へ違和感を与えない立体画像表示装置の提供が可能となる。
In the third embodiment, since the configuration as described above is adopted, it is possible to calculate the observation position POD of the observer even when the observer is away from the backrest portion of the seat.
Further, the display setting adjustment unit 170 performs display setting adjustment processing of the stereoscopic image display device 13 in accordance with the calculated observation position POD of the observer, so that the observer is away from the backrest portion of the seat. Even in such a case, it is possible to reduce the influence of double image, reverse viewing, and 3D moire due to 3D crosstalk with only an inexpensive measurement device, and as a result, it is possible to provide a stereoscopic image display device that does not give the viewer a sense of incongruity. It becomes possible.

(動作説明)
次に、立体画像表示装置13における画像処理動作の内容(立体画像表示方法)を、図63及び図64に示すフローチャートに基づいて説明する。
(Description of operation)
Next, the content of the image processing operation (stereoscopic image display method) in the stereoscopic image display device 13 will be described based on the flowcharts shown in FIGS. 63 and 64.

〈観察者データの登録処理〉
まず、観察者状態検出手段310により、観察者が座席の背もたれ部に密接しているか否かを表す観察者状態を検出する(図63:ステップS301)。
<Observer data registration process>
First, the observer state detection unit 310 detects an observer state indicating whether or not the observer is in close contact with the backrest portion of the seat (FIG. 63: step S301).

次いで、ステップS301で検出した観察者状態を参照して観察者データ保管処理手段350が、観察者が背もたれ部に密接しているか否かを判定する(図63:ステップS302)。   Next, the observer data storage processing unit 350 refers to the observer state detected in step S301, and determines whether or not the observer is in close contact with the backrest (FIG. 63: step S302).

その際、観察者が背もたれ部に密接していなければ(図63:ステップS302/いいえ)、ステップS301に戻り、改めて観察者状態を検出する。ここで、該検出に先立って、観察者に対し観察者データを検出する旨を報知し、観察者が背もたれ部に密接することを促すようにしてもよい。   At this time, if the observer is not in close contact with the backrest (FIG. 63: Step S302 / No), the process returns to Step S301, and the observer state is detected again. Here, prior to the detection, the observer may be notified that the observer data is to be detected, and urge the observer to be in close contact with the backrest portion.

一方で、観察者が背もたれ部に密接していれば(図63:ステップS302/はい)、撮像手段280を使用して、立体画像表示装置13の前方にいる観察者を2D画像として撮影し、撮像画像データを記憶する(図63:ステップS303)。   On the other hand, if the observer is in close contact with the backrest (FIG. 63: Step S302 / Yes), the imaging means 280 is used to photograph the observer in front of the stereoscopic image display device 13 as a 2D image, The captured image data is stored (FIG. 63: step S303).

次に、観察者データ保管処理手段350は、ステップS303で記憶した撮像画像データを取得すると共に、この撮像画像データ内に撮影された観察者の顔画像領域を検出する(図63:ステップS304)。   Next, the observer data storage processing unit 350 acquires the captured image data stored in step S303 and detects the observer's face image area captured in the captured image data (FIG. 63: step S304). .

このステップS304で検出した顔画像領域を参照して、観察者データ保管処理手段350は、実際の観察者の顔サイズを表す観察者データを算出すると共に(図63:ステップS305)、これを保管する(図63:ステップS306)。
観察者データの一例としては、観察者の顔幅Fが挙げられる。
With reference to the face image area detected in step S304, the observer data storage processing unit 350 calculates observer data representing the face size of the actual observer (FIG. 63: step S305) and stores this. (FIG. 63: Step S306).
An example of the observer data is the face width FW of the observer.

以上のフローチャート処理により、観察者データを登録することができる。   The observer data can be registered by the above flowchart processing.

〈立体画像表示処理〉
図64に示す立体画像表示処理方法のフローチャートによると、まず、観察者状態検出手段310により、観察者が座席の背もたれ部に密接しているか否かを表す観察者状態を検出する(図64:ステップS401)。
<Stereoscopic image display processing>
According to the flowchart of the stereoscopic image display processing method shown in FIG. 64, first, the observer state detection means 310 detects an observer state indicating whether or not the observer is in close contact with the backrest part of the seat (FIG. 64: Step S401).

このステップS401で検出した観察者状態を参照して(図64:ステップS402)、観察者が背もたれ部に密接していれば(図64:ステップS402/はい)、観察者状態検出手段310にて各座席状態の検出を行い(ステップS403へ進み)、観察者が背もたれ部に密接していなければ(図64:ステップS402/はい)、観察者データ保管処理手段350に保管された観察者データを取得する(ステップS412へ進む)。   With reference to the observer state detected in step S401 (FIG. 64: step S402), if the observer is in close contact with the backrest (FIG. 64: step S402 / yes), the observer state detection means 310 Each seat state is detected (proceeding to step S403), and if the observer is not in close contact with the backrest (FIG. 64: step S402 / yes), the observer data stored in the observer data storage processing unit 350 is stored. Obtain (proceed to step S412).

図64におけるステップS403からステップS411までの処理内容は、前述の第2実施形態におけるステップS201からステップS209まで(図57)の処理内容と同様であるため、ここでは省略する。   The processing content from step S403 to step S411 in FIG. 64 is the same as the processing content from step S201 to step S209 (FIG. 57) in the second embodiment described above, and is therefore omitted here.

観察者データ保管手段310に保管された観察者データを取得した観察位置算出手段390は(図64:ステップS412)、ステップS404と同様に撮像手段280を使用して、立体画像表示装置13の前方にいる観察者を撮影し、撮像画像データを取得する(図64:ステップS413)。   The observation position calculation means 390 that acquired the observer data stored in the observer data storage means 310 (FIG. 64: step S412) uses the image pickup means 280 in the same manner as in step S404, and uses the imaging means 280 in front of the stereoscopic image display device 13. The observer is photographed, and captured image data is acquired (FIG. 64: step S413).

次いで、観察位置算出手段390は、ステップS412で取得した観察者データと、ステップS412で取得した撮像画像データとを参照して、観察位置を算出する(図64:ステップS414)。   Next, the observation position calculation unit 390 calculates the observation position with reference to the observer data acquired in step S412 and the captured image data acquired in step S412 (FIG. 64: step S414).

そして、図64に示すように、前述の第2実施形態におけるステップS205からステップS209まで(図57)の処理内容と同様であるステップS407からステップS411までの処理内容を実行する。   Then, as shown in FIG. 64, the processing contents from step S407 to step S411 that are the same as the processing contents from step S205 to step S209 (FIG. 57) in the second embodiment described above are executed.

以上の処理により、観察者が座席の背もたれ部と密接した状態である場合の観察者データを予め算出し登録しておくことで、観察者が座席の背もたれ部から離れた状態であっても、安価な計測装置だけを使用して、観察者の観察位置PODを算出することができる。また、算出した観察者の観察位置PODに合わせて表示設定の調整処理を実施することで、安価な計測装置だけで3Dクロストークによる2重像や逆視,3Dモアレの影響を軽減し、これにより、観察者へ違和感を与えない立体画像表示装置を提供することが可能となる。 By the above process, by calculating and registering in advance the observer data when the observer is in close contact with the seat back, even if the observer is away from the seat back, The observation position POD of the observer can be calculated using only an inexpensive measuring device. In addition, by adjusting the display settings according to the calculated observation position POD of the observer, the influence of double images, reverse vision, and 3D moire due to 3D crosstalk can be reduced with only an inexpensive measurement device, As a result, it is possible to provide a stereoscopic image display device that does not give the viewer a sense of discomfort.

本第3実施形態においても、視点数は2つに限定されるものではなく、多視点画像を投影する立体表示パネル手段120にも適用可能である。   Also in the third embodiment, the number of viewpoints is not limited to two, and can be applied to the stereoscopic display panel means 120 that projects a multi-viewpoint image.

(第3実施形態の効果)
本第3実施形態では、観察者が座席の背もたれ部に密接した状態における観察者データを基準として参照すると共に、立体画像の表示設定の調整処理に際しても、観察者と該背もたれ部との位置関係を勘案するという構成を採ったため、これにより、観察者の状態に応じたより柔軟な観察位置を算出することができ、これを用いた高精度な調整処理に基づく立体画像表示を実現することが可能となる。
その他の構成及び動作については、上述した第1及び第2実施形態で示したものと同様であり、他に生じる作用効果も同様である。
(Effect of the third embodiment)
In the third embodiment, the observer refers to the observer data in a state in which the observer is in close contact with the backrest portion of the seat as a reference, and the positional relationship between the observer and the backrest portion also in the adjustment processing of the stereoscopic image display setting Therefore, it is possible to calculate a more flexible observation position according to the state of the observer, and to realize a stereoscopic image display based on highly accurate adjustment processing using this. It becomes.
About another structure and operation | movement, it is the same as that of what was shown by 1st and 2nd embodiment mentioned above, and the effect which arises similarly is also the same.

〔第4実施形態〕
本発明における立体画像表示装置の第2実施形態を図65乃至図69に基づいて説明する。ここで、上述した第1乃至第3実施形態と同等の構成部材については、同一の符号を用いるものとする。
[Fourth Embodiment]
A second embodiment of the stereoscopic image display apparatus according to the present invention will be described with reference to FIGS. Here, the same code | symbol shall be used about the structural member equivalent to 1st thru | or 3rd embodiment mentioned above.

(全体的構成)
本第4実施形態では、撮像手段280で撮影した撮像画像データから、座席背面部の傾斜角度θを表す座席状態を検出することで、姿勢センサ等の移動物体状態検出手段を使用せずに、観察位置PODを算出し、その観察位置PODに合わせて立体画像表示装置の表示設定の調整処理を実施するという構成を採った点に特徴がある。
(Overall configuration)
In the fourth embodiment, by detecting the seat state representing the tilt angle θ S of the seat back surface from the captured image data captured by the image capturing unit 280, the moving object state detecting unit such as the posture sensor is not used. A feature is that the observation position P OD is calculated, and the display setting adjustment processing of the stereoscopic image display apparatus is performed in accordance with the observation position P OD .

図65に示すように、立体画像表示装置14は、立体表示パネル手段120と,撮像手段280と、各種演算処理を実施する演算処理部134と、を有している。
また、演算処理部134は、画像データ保管手段150,デバイス特性データ保管手段160,及び表示設定調整手段270と共に、立体表示パネル手段120に対する観察者の相対位置を示す観察位置を算出する観察位置算出手段(相対位置算出手段)490を有している。
As shown in FIG. 65, the stereoscopic image display device 14 includes a stereoscopic display panel unit 120, an imaging unit 280, and an arithmetic processing unit 134 that performs various arithmetic processes.
In addition, the arithmetic processing unit 134, together with the image data storage unit 150, the device characteristic data storage unit 160, and the display setting adjustment unit 270, calculates an observation position that calculates an observation position indicating the relative position of the observer with respect to the stereoscopic display panel unit 120. Means (relative position calculation means) 490 is provided.

以下に、立体画像表示装置14に含まれる各手段の機能を説明する。ここで、立体表示パネル手段120,画像データ保管手段150,デバイス特性データ保管手段160,表示設定調整手段270,及び撮像手段280については、上述した第1乃至第3実施形態にて同一の符号を付した各手段と同様の構成である。   Hereinafter, functions of each unit included in the stereoscopic image display device 14 will be described. Here, the 3D display panel unit 120, the image data storage unit 150, the device characteristic data storage unit 160, the display setting adjustment unit 270, and the imaging unit 280 are denoted by the same reference numerals in the first to third embodiments described above. It is the same structure as each attached means.

観察位置算出手段490は、撮像手段280で撮影した撮像画像データを参照して、観察位置PODを算出する。また、本第4実施形態の観察位置算出手段490では、撮像画像データを参照して座席背面部の傾斜角度θを表す座席状態を検出する。 The observation position calculation unit 490 refers to the captured image data captured by the imaging unit 280 and calculates the observation position POD . In addition, the observation position calculation unit 490 of the fourth embodiment detects a seat state representing the inclination angle θ S of the seat back portion with reference to the captured image data.

ここで、図66に、座席背面部の傾斜角度θに伴って変化する撮像手段280から座席の背もたれ部までの距離(Z軸方向)を示す。
座席上部から座席下部までの背もたれ部の長さLSUDは一定であるため、予め座席基準情報として登録しておけば、下記式(22)より、座席背面部の傾斜角度θは、撮像手段280から座席上部までのZ軸方向の距離ZSDと、撮像手段280から座席下部までのZ軸方向の距離ZSUとを用いて算出できる。
Here, FIG. 66 shows the distance (Z-axis direction) from the imaging means 280 to the seat back portion that changes with the inclination angle θ S of the seat back portion.
Since the length L SUD of the backrest part from the upper part of the seat to the lower part of the seat is constant, if it is registered in advance as seat reference information, the inclination angle θ S of the rear part of the seat can be calculated from the following equation (22) It can be calculated using the distance Z SD in the Z-axis direction to the seat upper 280, and a distance Z SU in the Z-axis direction from the imaging means 280 to the seat bottom.

Figure 2018129826
Figure 2018129826

撮像手段280から座席上部までの距離ZSDと、撮像手段280から座席下部までの距離ZSUとは、撮像手段280で立体画像表示装置14の前方にある観察者の座席を撮影した撮像画像データを用いて観察位置算出手段490が算出する。 The distance Z SD from the imaging means 280 to the upper part of the seat and the distance Z SU from the imaging means 280 to the lower part of the seat are taken image data obtained by photographing the observer's seat in front of the stereoscopic image display device 14 by the imaging means 280. Is calculated by the observation position calculation means 490.

図67(A)に、観察者の座席を撮影した撮影画像データの一例を示す。図68(A)には、座席背面部の傾斜角度θが図67の場合よりも傾斜した際に、観察者の座席を撮影した撮像画像データを示す。また、図67(B)は、図67(A)の撮影画像データを撮影したときの座席状態を示し、図68(B)は、図68(A)の撮影画像データを撮影したときの座席状態を示す。 FIG. 67 (A) shows an example of photographed image data obtained by photographing the observer's seat. FIG. 68 (A) shows captured image data obtained by photographing the observer's seat when the inclination angle θ S of the seat back portion is inclined as compared with the case of FIG. 67B shows a seat state when the photographed image data of FIG. 67A is photographed, and FIG. 68B shows a seat when the photographed image data of FIG. 68A is photographed. Indicates the state.

ここでは、図67に示す座席背面部の傾斜角度をθS1とし、図68に示す座席背面部の傾斜角度をθS2とする(θS1<θS2)。また、座席下部の画像領域幅をWISDとおき、座席上部の画像領域幅をWISUとする。 Here, the inclination angle of the seat back portion shown in FIG. 67 is θ S1, and the inclination angle of the seat back portion shown in FIG. 68 is θ S2S1S2 ). Further, the image area width of the seat lower W ISD Distant, an image area width of the seat upper and W ISU.

図67と図68と比較すると、座席背面部の傾斜角度θが大きくなることにより、撮像手段280から座席の背もたれ部までの距離が変化するため、これに伴って座席下部の画像領域幅WISDと座席上部の画像領域幅WISUとが変化する。(これら各図に示す通り、特にWISUが大きく変化する。) 67 and 68, since the distance from the image pickup means 280 to the seat back portion changes as the inclination angle θ S of the seat back portion increases, the image area width W of the lower portion of the seat accordingly. The ISD and the image area width W ISU above the seat change. (As shown in these figures, the WISU changes particularly greatly.)

ここで、実際の座席上部の幅WSUと座席下部の幅WSDは一定であり、既知の値なので、座席基準情報として予め登録しておく。これにより、撮像手段280から座席上部までの距離(Z軸方向)ZSUは、撮影画像データから座席上部の画像領域幅WISUを検出して用いることで、下記式(23)をもとに算出できる。 Here, the actual width W SU of the upper part of the seat and the width W SD of the lower part of the seat are constant and are known values, and are registered in advance as seat reference information. Thereby, the distance (Z-axis direction) Z SU from the imaging means 280 to the upper part of the seat is detected based on the following formula (23) by using the image area width W ISU of the upper part of the seat from the photographed image data. It can be calculated.

また、撮像手段280から座席下部までの距離ZSDも同様に、撮影画像データから座席下部の画像領域幅WISDを検出して用いることで、下記式(24)をもとに算出できる。 Similarly, the distance Z SD from the imaging means 280 to the lower part of the seat can be calculated based on the following formula (24) by detecting and using the image area width WISD of the lower part of the seat from the captured image data.

Figure 2018129826
Figure 2018129826

Figure 2018129826
Figure 2018129826

これら各式におけるfは、撮像手段280の焦点距離を示す。
以上より、撮像手段280によって座席上部と座席下部の画像領域幅WISU,WISDが検出可能である状況においては、傾斜センサ等の移動物体状態検出手段を使用することなく、撮像手段280で取得した撮像画像データから座席背面部の傾斜角度θを表す座席状態が検出できる。
F in each of these equations indicates the focal length of the image pickup means 280.
As described above, in the situation where the image area widths W ISU and W ISD of the upper and lower seats can be detected by the imaging unit 280, the image acquisition unit 280 acquires the image without using the moving object state detection unit such as the tilt sensor. The seat state representing the inclination angle θ S of the seat back portion can be detected from the captured image data.

上記の例では、撮像画像データから座席の背もたれ部の輪郭情報を検出し、座席上部及び下部の画像領域幅WISU及びWISDを検出することで、座席背面部の傾斜角度θを算出するという構成を採ったが、撮像画像データから検出する画像情報は、その他の画像情報であってもよい。
一例としては、予め登録したマークを座席の柄として座席の背もたれ部に印字し、そのマークを撮像画像データから検出することで、座席背面部の傾斜角度θを算出する、という構成と採ることができる。
In the above example, the seat backrest contour information is detected from the captured image data, and the seat upper and lower image area widths W ISU and W ISD are detected to calculate the seat back portion inclination angle θ S. The image information detected from the captured image data may be other image information.
As an example, a configuration is adopted in which a pre-registered mark is printed on the seat back as a seat pattern, and the mark is detected from the captured image data to calculate the inclination angle θ S of the seat back portion. Can do.

なお、観察位置PODは、撮像画像データから算出した座席背面部の傾斜角度θを参照して、観察位置算出手段390が、上述した第2実施形態と同様の算出方法により求めるように構成されている。 Note that the observation position P OD is configured to be obtained by the observation position calculation means 390 by the same calculation method as that of the second embodiment described above with reference to the inclination angle θ S of the seat back portion calculated from the captured image data. Has been.

(動作説明)
次に、立体画像表示装置14における画像処理動作の内容(立体画像表示方法)を、図69に示すフローチャートに基づいて説明する。
(Description of operation)
Next, the content of the image processing operation (stereoscopic image display method) in the stereoscopic image display device 14 will be described based on the flowchart shown in FIG.

まず、撮像手段280を使用して、立体画像表示装置14の前方にいる観察者を含む2D画像を撮影し、撮像画像データを取得した観察位置算出手段490が(図69:ステップS501)、この撮像画像データから観察者の顔画像領域と座席の背もたれ部の画像領域を検出する(図69:ステップS502)。   First, an observation position calculation unit 490 that has captured a 2D image including an observer in front of the stereoscopic image display device 14 using the imaging unit 280 and acquired captured image data (FIG. 69: step S501), The face image area of the observer and the image area of the seat backrest are detected from the captured image data (FIG. 69: step S502).

次に、ステップS502で検出した座席の背もたれ部の画像領域情報から、観察位置算出手段490が座席背面部の傾斜角度を算出する(図69:ステップS503)。   Next, the observation position calculation unit 490 calculates the inclination angle of the seat back portion from the image area information of the seat back portion detected in step S502 (FIG. 69: step S503).

ステップS504からステップS509までの処理内容は、上述した第2実施形態におけるステップS204からステップS209までの処理内容と同様である。   The processing content from step S504 to step S509 is the same as the processing content from step S204 to step S209 in the second embodiment described above.

以上のフローチャート処理により、撮像画像データから座席背面部の傾斜角度θを算出し、立体画像表示装置に対する観察者の相対位置を表す観察位置PODを算出することで、傾斜センサ等の移動物体状態検出手段が無くても、安価な計測装置だけで3Dクロストークによる2重像や逆視,3Dモアレの影響を軽減することができ、観察者へ違和感を与えない立体画像表示装置を提供することが可能となる。
また、本第4実施形態においても、視点数は2つに限定されるものではなく、多視点画像を投影する立体表示パネル手段120にも適用可能である。
By the above flowchart processing, the tilt angle θ S of the seat back portion is calculated from the captured image data, and the observation position P OD representing the relative position of the observer with respect to the stereoscopic image display device is calculated, thereby moving the moving object such as the tilt sensor. Provided is a stereoscopic image display device that can reduce the effects of double images, reverse viewing, and 3D moire caused by 3D crosstalk, and does not give a sense of incongruity to an observer, even if there is no state detection means. It becomes possible.
Also in the fourth embodiment, the number of viewpoints is not limited to two, and can be applied to the stereoscopic display panel means 120 that projects a multi-viewpoint image.

(第4実施形態の効果)
本第4実施形態では、撮像手段で撮影した撮像画像データから座席背面部の傾斜角度θ(座席状態)を検出するという構成を採ったことから、姿勢センサ等の移動物体状態検出手段を使用せずに算出した観察位置PODに合わせて立体画像の表示設定の調整処理を実施することが可能となり、このため、3Dクロストークによる2重像や逆視,3Dモアレの影響を安価な構成によって有効に軽減することができ、立体画像を観察者に違和感を与えることなく表示することが可能となる。
その他の構成及び動作については、上述した第1乃至第3実施形態で示したものと同様であり、他に生じる作用効果も同様である。
(Effect of 4th Embodiment)
The fourth embodiment employs a configuration in which the inclination angle θ S (seat state) of the seat back portion is detected from the captured image data captured by the imaging unit, and therefore the moving object state detection unit such as a posture sensor is used. It is possible to adjust the display setting of the stereoscopic image in accordance with the calculated observation position POD without performing this, so that the effects of double image due to 3D crosstalk, reverse viewing, and 3D moire can be reduced. Therefore, the stereoscopic image can be effectively reduced and the stereoscopic image can be displayed without giving the viewer a sense of incongruity.
About another structure and operation | movement, it is the same as that of what was shown in the 1st thru | or 3rd embodiment mentioned above, and the effect which arises similarly is also the same.

上述した各実施形態は、立体画像表示装置、立体画像表示方法、及びそのプログラムにおける好適な具体例であり、技術的に好ましい種々の限定を付している場合もある。しかし、本発明の技術範囲は、特に本発明を限定する記載がない限り、これらの態様に限定されるものではない。   Each embodiment mentioned above is a suitable concrete example in a stereoscopic image display device, a stereoscopic image display method, and its program, and may have various technically desirable limits. However, the technical scope of the present invention is not limited to these embodiments unless specifically described to limit the present invention.

上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、本発明は以下の構成に限定されるものではない。   Although part or all of the above-described embodiments can be described as in the following supplementary notes, the present invention is not limited to the following configurations.

(付記1:第1実施形態)
移動物体に設置された立体画像表示装置において、
前記移動物体の状態を検出する移動物体状態検出手段(110)と、
立体画像を投影する空間領域を分割し、この分割後の各空間領域それぞれに視差の異なる画像を投影することで、観察者の左右の眼に前記視差の異なる画像を投影する立体表示パネル手段(120)と、
前記移動物体状態検出手段(110)で検出した前記移動物体の状態情報から前記立体表示パネル手段(120)と前記観察者との観察距離を算出する観察距離算出手段(140)と、
前記観察距離に対応する前記立体表示パネル手段(120)の表示特性を含むデバイス特性データを保存するデバイス特性データ保管手段(160)と、
前記観察距離と前記デバイス特性データとを参照して、前記立体画像の表示設定を調整する表示設定調整手段(170)と、を有することを特徴とした立体画像表示装置(11)。
(Supplementary note 1: first embodiment)
In a stereoscopic image display device installed on a moving object,
Moving object state detection means (110) for detecting the state of the moving object;
Three-dimensional display panel means for projecting images with different parallax to the left and right eyes of an observer by dividing a spatial region for projecting a stereoscopic image and projecting images with different parallax to each of the divided spatial regions. 120)
Observation distance calculation means (140) for calculating the observation distance between the stereoscopic display panel means (120) and the observer from the state information of the moving object detected by the moving object state detection means (110),
Device characteristic data storage means (160) for storing device characteristic data including display characteristics of the stereoscopic display panel means (120) corresponding to the observation distance;
A stereoscopic image display device (11) comprising display setting adjustment means (170) for adjusting display settings of the stereoscopic image with reference to the observation distance and the device characteristic data.

(付記2:第2実施形態)
移動物体に設置された立体画像表示装置において、
前記移動物体の状態を検出する移動物体状態検出手段(110)と、
立体画像を投影する空間領域を分割し、この分割後の各空間領域それぞれに視差の異なる画像を投影することで、観察者の左右の眼に前記視差の異なる画像を投影する立体表示パネル手段(120)と、
前記観察者を撮影し、撮影画像を撮像する撮像手段(280)と、
前記移動物体状態検出手段(120)で検出した前記移動物体の状態情報と前記撮像手段(280)で撮影した前記撮影画像から前記立体表示パネル手段(120)に対する前記観察者の相対位置を表す観察位置を算出する観察位置算出手段(290)と、
前記観察位置に対する前記立体表示パネル手段(120)の表示特性を含むデバイス特性データを保存するデバイス特性データ保管手段(160)と、
前記観察位置と前記デバイス特性データとを参照して、前記立体画像の表示設定を調整する表示設定調整手段(270)と、を有することを特徴とした立体画像表示装置(12)。
(Supplementary Note 2: Second Embodiment)
In a stereoscopic image display device installed on a moving object,
Moving object state detection means (110) for detecting the state of the moving object;
Three-dimensional display panel means for projecting images with different parallax to the left and right eyes of an observer by dividing a spatial region for projecting a stereoscopic image and projecting images with different parallax to each of the divided spatial regions. 120)
Imaging means (280) for capturing images of the observer and capturing a captured image;
Observation representing the relative position of the observer with respect to the stereoscopic display panel means (120) from the state information of the moving object detected by the moving object state detection means (120) and the captured image taken by the imaging means (280) Observation position calculation means (290) for calculating the position;
Device characteristic data storage means (160) for storing device characteristic data including display characteristics of the stereoscopic display panel means (120) for the observation position;
A stereoscopic image display device (12) comprising display setting adjustment means (270) for adjusting display settings of the stereoscopic image with reference to the observation position and the device characteristic data.

(付記3:第3実施形態)
移動物体である座席の可動式背もたれ部に設置された立体画像表示装置において、
前記移動物体の状態を検出する移動物体状態検出手段(110)と、
立体画像を投影する空間領域を分割し、この分割後の各空間領域それぞれに視差の異なる画像を投影することで、観察者の左右の眼に前記視差の異なる画像を投影する立体表示パネル手段(120)と、
前記観察者を撮影し、撮影画像を撮像する撮像手段(280)と、
前記移動物体は座席であり、該座席の背もたれ部が可動式であり、前記観察者が着座する前記座席への前記観察者の着座状態を検出する観察者状態検出手段(310)と、
前記観察者のサイズ情報を表す観察者データを保管する観察者データ保管手段(350)と、
前記立体表示パネル手段(120)に対する前記観察者の相対位置を表す観察位置を算出する観察位置算出手段(390)と、
前記観察位置に対応する前記立体表示パネル手段の表示特性を含むデバイス特性データを保存するデバイス特性データ保管手段(160)と、
前記観察位置と前記デバイス特性データとを参照して、前記立体画像の表示設定を調整する表示設定調整手段(270)と、を備え、
前記観察位置算出手段(390)は、前記撮像手段(280)で撮影した前記撮影画像から前記観察者が着座する座席の背もたれ部の画像領域に対する前記観察者の顔画像領域の割合を検出し、
前記観察者が前記観察者の着座する座席の背もたれ部に密接した状態では、前記移動物体状態検出手段(110)で検出した前記座席の状態情報と前記顔画像領域の割合とから前記観察位置を算出し、
前記観察者が着座する座席の背もたれ部から離れた状態では、前記観察者データと前記顔画像領域の割合とから前記観察位置を算出することを特徴とする立体画像表示装置(13)。
(Supplementary Note 3: Third Embodiment)
In the stereoscopic image display device installed on the movable backrest of the seat, which is a moving object,
Moving object state detection means (110) for detecting the state of the moving object;
Three-dimensional display panel means for projecting images with different parallax to the left and right eyes of an observer by dividing a spatial region for projecting a stereoscopic image and projecting images with different parallax to each of the divided spatial regions. 120)
Imaging means (280) for capturing images of the observer and capturing a captured image;
The moving object is a seat, a backrest portion of the seat is movable, and an observer state detecting means (310) for detecting a seating state of the observer on the seat on which the observer is seated,
Observer data storage means (350) for storing observer data representing the size information of the observer;
An observation position calculating means (390) for calculating an observation position representing a relative position of the observer with respect to the stereoscopic display panel means (120);
Device characteristic data storage means (160) for storing device characteristic data including display characteristics of the stereoscopic display panel means corresponding to the observation position;
With reference to the observation position and the device characteristic data, display setting adjustment means (270) for adjusting the display setting of the stereoscopic image, and
The observation position calculation means (390) detects the ratio of the face image area of the observer to the image area of the backrest portion of the seat on which the observer is seated from the photographed image photographed by the imaging means (280),
When the observer is in close contact with the backrest of the seat on which the observer is seated, the observation position is determined from the seat state information detected by the moving object state detection means (110) and the ratio of the face image area. Calculate
The stereoscopic image display device (13), wherein the observation position is calculated from the observer data and a ratio of the face image area in a state away from a backrest portion of a seat on which the observer is seated.

(付記4:第4実施形態)
移動物体に設置された立体画像表示装置において、
立体画像を投影する空間領域を分割し、この分割後の各空間領域それぞれに視差の異なる画像を投影することで、観察者の左右の眼に前記視差の異なる画像を投影する立体表示パネル手段(120)と、
観察者を撮影し、撮影画像を撮像する撮像手段(280)と、
前記撮像手段で撮影した前記撮影画像から前記移動物体の状態を検出し、前記移動物体の状態情報と前記撮影画像とを用いて、前記立体表示パネル手段に対する前記観察者の相対位置を表す観察位置を算出する観察位置算出手段(490)と、
前記観察位置に対する前記立体表示パネル手段の表示特性を含むデバイス特性データを保存するデバイス特性データ保管手段(160)と、
前記観察位置と前記デバイス特性データを参照して、前記立体表示パネル手段の表示設定を調整する表示設定調整手段(270)と、を有することを特徴とした立体画像表示装置(14)。
(Supplementary Note 4: Fourth Embodiment)
In a stereoscopic image display device installed on a moving object,
Three-dimensional display panel means for projecting images with different parallax to the left and right eyes of an observer by dividing a spatial region for projecting a stereoscopic image and projecting images with different parallax to each of the divided spatial regions. 120)
An imaging means (280) for capturing an image of the observer and capturing the captured image;
An observation position representing a relative position of the observer with respect to the stereoscopic display panel means by detecting the state of the moving object from the photographed image photographed by the imaging means and using the state information of the moving object and the photographed image. Observation position calculation means (490) for calculating
Device characteristic data storage means (160) for storing device characteristic data including display characteristics of the stereoscopic display panel means for the observation position;
A stereoscopic image display device (14) comprising display setting adjustment means (270) for adjusting display settings of the stereoscopic display panel means with reference to the observation position and the device characteristic data.

(付記5)
移動物体に設置されて立体画像を表示する立体画像表示装置であって、
隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段(120)と、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出手段(110)と、
この状態情報から前記立体表示パネル手段(120)とその表示面側に位置する特定の観察者との相対距離を算出する相対距離算出手段(140)と、
前記立体表示パネル手段(120)にかかるデバイス特性データを保存するデバイス特性データ保管手段(160)と、
前記相対距離と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整手段(170)と、を有することを特徴とした立体画像表示装置。
(Appendix 5)
A stereoscopic image display device that is installed on a moving object and displays a stereoscopic image,
Stereoscopic display panel means (120) for projecting images with different parallax for each adjacent spatial region;
Moving object state detection means (110) for detecting state information related to the position state of the moving object;
Relative distance calculating means (140) for calculating the relative distance between the stereoscopic display panel means (120) and a specific observer located on the display surface side from this state information;
Device characteristic data storage means (160) for storing device characteristic data applied to the stereoscopic display panel means (120);
A stereoscopic image display device, comprising: display setting adjustment means (170) for adjusting display settings of the stereoscopic image with reference to the relative distance and the device characteristic data.

(付記6)
前記付記5に記載の立体画像表示装置において、
前記移動物体は前記観察者用の座席であり、該座席の背もたれ部は可動式であり、
前記移動物体状態検出手段(110)は、前記座席の背もたれ部に設置されると共に、該背もたれ部の傾斜状態にかかる情報を前記状態情報として検出することを特徴とした立体画像表示装置。
(Appendix 6)
In the stereoscopic image display device according to appendix 5,
The moving object is a seat for the observer, and a back portion of the seat is movable;
The moving object state detection means (110) is installed on a backrest portion of the seat, and detects information relating to an inclination state of the backrest portion as the state information.

(付記7)
前記付記5に記載の立体画像表示装置において、
前記移動物体は前記観察者用の座席であり、該座席の背もたれ部は可動式であり、
前記移動物体状態検出手段(110)は、前記観察者が着座する座席及び該座席の前座席の各々が有する背もたれ部の傾斜情報に基づいて前記状態情報を検出することを特徴とした立体画像表示装置。
(Appendix 7)
In the stereoscopic image display device according to appendix 5,
The moving object is a seat for the observer, and a back portion of the seat is movable;
The moving object state detection means (110) detects the state information based on inclination information of a seat on which the observer is seated and a backrest portion of each of the front seats of the seat. apparatus.

(付記8)
前記付記5に記載の立体画像表示装置において、
前記移動物体は前記観察者用の座席であり、該座席の背もたれ部は可動式であり、
前記移動物体状態検出手段(110)は、前記座席の背もたれ部に設置した第1傾斜センサの出力値と前記座席の着座部に設置した第2傾斜センサの出力値とに基づいて前記状態情報を検出することを特徴とした立体画像表示装置。
(Appendix 8)
In the stereoscopic image display device according to appendix 5,
The moving object is a seat for the observer, and a back portion of the seat is movable;
The moving object state detection means (110) determines the state information based on an output value of a first inclination sensor installed on a backrest portion of the seat and an output value of a second inclination sensor installed on a seating portion of the seat. A stereoscopic image display device characterized by detecting.

(付記9)
前記付記5乃至8の何れか1つに記載の立体画像表示装置において、
前記相対距離算出手段(140)は、前後に並ぶ2つの座席間の設置位置情報を保有すると共に、この設置位置情報と前記状態情報とを用いて前記相対距離を算出することを特徴とした立体画像表示装置。
(Appendix 9)
In the stereoscopic image display device according to any one of the supplementary notes 5 to 8,
The relative distance calculation means (140) has installation position information between two seats arranged in front and rear, and calculates the relative distance using the installation position information and the state information. Image display device.

(付記10)
前記付記5乃至9の何れか1つに記載の立体画像表示装置において、
前記立体表示パネル手段は、
少なくとも第1視点用の画像を表示する第1のサブ画素及び第2視点用の画像を表示する第2のサブ画素を含む画素がマトリクス状に複数配列された表示パネルと、
前記各サブ画素から出射した光線を相互に異なる方向に振り分ける光線分離手段と、を含むことを特徴とした立体画像表示装置。
(Appendix 10)
In the stereoscopic image display device according to any one of the supplementary notes 5 to 9,
The stereoscopic display panel means includes:
A display panel in which a plurality of pixels including at least a first sub-pixel that displays an image for a first viewpoint and a second sub-pixel that displays an image for a second viewpoint are arranged in a matrix;
3D image display apparatus, comprising: light beam separating means for distributing light beams emitted from the sub-pixels in different directions.

(付記11)
前記付記10に記載の立体画像表示装置において、
前記光線分離手段は、光線分離方向が変更可能なアクティブ素子からなり、
前記表示設定調整手段(170)は、前記相対距離に合わせて前記光線分離手段の屈折率の分布を制御することで立体視域範囲を調整することを特徴とした立体画像表示装置。
(Appendix 11)
In the stereoscopic image display device according to appendix 10,
The light beam separating means comprises an active element whose light beam separating direction can be changed,
The stereoscopic image display device, wherein the display setting adjusting means (170) adjusts the stereoscopic viewing area range by controlling the refractive index distribution of the light beam separating means in accordance with the relative distance.

(付記12)
前記付記5乃至11の何れか1つに記載の立体画像表示装置において、
前記表示設定調整手段(170)は、前記相対距離に合わせて前記立体画像の視差値又は輝度値を変更することを特徴とした立体画像表示装置。
(Appendix 12)
In the stereoscopic image display device according to any one of the supplementary notes 5 to 11,
The stereoscopic image display device, wherein the display setting adjusting means (170) changes a parallax value or a luminance value of the stereoscopic image in accordance with the relative distance.

(付記13)
移動物体に設置されて立体画像を表示する立体画像表示装置であって、
隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段(120)と、
この立体表示パネル(120)の表示面前方を観察者と共に撮影し、撮像画像データとして記録する撮像手段(280)と、
この撮像画像データを用いて前記立体表示パネル手段(120)に対する前記観察者の相対位置を算出する相対位置算出手段(観察位置算出手段:290,390,490)と、
前記立体表示パネル手段(120)にかかるデバイス特性データを保存するデバイス特性データ保管手段(160)と、
前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整手段(270)と、を有することを特徴とした立体画像表示装置。
(Appendix 13)
A stereoscopic image display device that is installed on a moving object and displays a stereoscopic image,
Stereoscopic display panel means (120) for projecting images with different parallax for each adjacent spatial region;
The front of the display surface of the stereoscopic display panel (120) is imaged together with an observer, and imaging means (280) for recording as captured image data,
Relative position calculating means (observation position calculating means: 290, 390, 490) for calculating the relative position of the observer with respect to the stereoscopic display panel means (120) using the captured image data;
Device characteristic data storage means (160) for storing device characteristic data applied to the stereoscopic display panel means (120);
A stereoscopic image display apparatus comprising: a display setting adjustment unit (270) that adjusts display settings of the stereoscopic image with reference to the relative position and the device characteristic data.

(付記14)
前記付記13に記載の立体画像表示装置において、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出手段(110)をさらに有し、
前記相対位置算出手段(290,390)は、前記相対位置の算出に際して前記撮像画像データと前記状態情報とを用いることを特徴とした立体画像表示装置。
(Appendix 14)
In the stereoscopic image display device according to appendix 13,
A moving object state detecting means (110) for detecting state information related to the position state of the moving object;
The relative position calculation means (290, 390) uses the captured image data and the state information when calculating the relative position.

(付記15)
前記付記14に記載の立体画像表示装置において、
前記移動物体は前記観察者用の座席であり、該座席の背もたれ部は可動式であり、
前記移動物体状態検出手段(110)は、前記座席の背もたれ部に設置されると共に、該背もたれ部の傾斜状態にかかる情報を前記状態情報として検出することを特徴とした立体画像表示装置。
(Appendix 15)
In the stereoscopic image display device according to appendix 14,
The moving object is a seat for the observer, and a back portion of the seat is movable;
The moving object state detection means (110) is installed on a backrest portion of the seat, and detects information relating to an inclination state of the backrest portion as the state information.

(付記16)
前記付記15に記載の立体画像表示装置において、
前記相対位置算出手段(290,390)は、前記撮像画像データから前記観察者が着座する座席の背もたれ部の画像領域に対する前記観察者の顔画像領域の割合を検出すると共に、この割合に係る情報と前記状態情報とを用いて前記相対位置を算出することを特徴とした立体画像表示装置。
(Appendix 16)
In the stereoscopic image display device according to appendix 15,
The relative position calculation means (290, 390) detects a ratio of the face image area of the observer to an image area of a backrest portion of a seat on which the observer is seated from the captured image data, and information related to the ratio and the information A stereoscopic image display device that calculates the relative position using state information.

(付記17)
前記付記15に記載の立体画像表示装置において、
前記観察者の着座状態にかかる観察者状態情報を検出する観察者状態検出手段(310)と、
この観察者状態情報と前記撮像画像データとを用いて観察者のサイズ情報を示す観察者データを検出し保管する観察者データ保管処理手段(350)と、を有し、
前記相対位置算出手段(390)は、
前記撮像画像データから前記観察者の顔画像領域を検出する検出手段(390A)と、前記観察者状態情報に基づいて前記観察者が前記背もたれ部に密接した状態にあるか否かを判定する判定手段(390B)と、を有すると共に、
この判定手段(390B)にて、密接した状態にある旨判定した場合には、前記状態情報と前記顔画像領域とを用いて前記相対位置を算出し、前記観察者が前記背もたれ部から離れた状態にある旨判定した場合には、前記観察者データと前記顔画像領域とを用いて前記相対位置を算出することを特徴とした立体画像表示装置。
(Appendix 17)
In the stereoscopic image display device according to appendix 15,
Observer state detection means (310) for detecting observer state information on the sitting state of the observer;
Observer data storage processing means (350) for detecting and storing observer data indicating the size information of the observer using the observer state information and the captured image data, and
The relative position calculating means (390)
Detection means (390A) for detecting the observer's face image area from the captured image data, and determination for determining whether the observer is in close contact with the backrest based on the observer state information Means (390B), and
When it is determined by the determination means (390B) that the subject is in a close state, the relative position is calculated using the state information and the face image region, and the observer moves away from the backrest portion. A stereoscopic image display device characterized by calculating the relative position using the observer data and the face image area when it is determined that the state is in a state.

(付記18)
前記付記17に記載の立体画像表示装置において、
観察者データ保管処理手段(350)は、前記観察者データを検出するに際して、前記観察者が前記背もたれ部に密接した状態にあるときの前記撮影画像データを用いることを特徴とした立体画像表示装置。
(Appendix 18)
In the stereoscopic image display device according to appendix 17,
The observer data storage processing means (350) uses the photographed image data when the observer is in close contact with the backrest portion when detecting the observer data. .

(付記19)
前記付記13に記載の立体画像表示装置において、
前記相対位置算出手段(490)は、前記撮像画像データを用いて前記移動物体の位置状態にかかる状態情報を検出すると共に、これに基づいて前記相対位置を算出することを特徴とした立体画像表示装置。
(Appendix 19)
In the stereoscopic image display device according to appendix 13,
The relative position calculation means (490) detects state information related to the position state of the moving object using the captured image data, and calculates the relative position based on the detected state information. apparatus.

(付記20)
前記付記13に記載の立体画像表示装置において、
前記移動物体は前記観察者用の座席であり、該座席の背もたれ部は可動式であり、
前記相対位置算出手段(490)は、前記撮像画像データから前記観察者が着座する座席の背もたれ部の画像領域に対する前記観察者の顔画像領域の割合を検出すると共に、この割合に係る情報を用いて前記相対位置を算出することを特徴とした立体画像表示装置。
(Appendix 20)
In the stereoscopic image display device according to appendix 13,
The moving object is a seat for the observer, and a back portion of the seat is movable;
The relative position calculation means (490) detects a ratio of the face image area of the observer to an image area of a backrest portion of a seat on which the observer is seated from the captured image data, and uses information related to the ratio. And calculating the relative position.

(付記21)
前記付記13乃至20の何れか1つに記載の立体画像表示装置において、
前記立体表示パネル手段は、
少なくとも第1視点用の画像を表示する第1のサブ画素及び第2視点用の画像を表示する第2のサブ画素を含む画素がマトリクス状に複数配列された表示パネルと、
前記各サブ画素から出射した光線を相互に異なる方向に振り分ける光線分離手段と、を含むことを特徴とした立体画像表示装置。
(Appendix 21)
In the stereoscopic image display device according to any one of the supplementary notes 13 to 20,
The stereoscopic display panel means includes:
A display panel in which a plurality of pixels including at least a first sub-pixel that displays an image for a first viewpoint and a second sub-pixel that displays an image for a second viewpoint are arranged in a matrix;
3D image display apparatus, comprising: light beam separating means for distributing light beams emitted from the sub-pixels in different directions.

(付記22)
前記付記21に記載の立体画像表示装置において、
前記光線分離手段は、光線分離方向が変更可能なアクティブ素子からなり、
前記表示設定調整手段(270)は、前記相対位置に合わせて前記光線分離手段の屈折率の分布を制御することで立体視域範囲を調整することを特徴とした立体画像表示装置。
(Appendix 22)
In the stereoscopic image display device according to appendix 21,
The light beam separating means comprises an active element whose light beam separating direction can be changed,
The stereoscopic image display device, wherein the display setting adjusting means (270) adjusts the stereoscopic viewing area range by controlling the refractive index distribution of the light beam separating means in accordance with the relative position.

(付記23)
前記付記13乃至22の何れか1つに記載の立体画像表示装置において、
前記表示設定調整手段(270)は、前記相対位置に合わせて前記立体画像の視差値又は輝度値を変更することを特徴とした立体画像表示装置。
(Appendix 23)
In the stereoscopic image display device according to any one of the supplementary notes 13 to 22,
The stereoscopic image display device, wherein the display setting adjusting means (270) changes a parallax value or a luminance value of the stereoscopic image in accordance with the relative position.

(付記24)
前記付記5乃至12に記載の立体画像表示装置において、
前記デバイス特性データは、前記相対距離に対応する情報であることを特徴とした立体画像表示装置。
(Appendix 24)
In the stereoscopic image display device according to the above supplementary notes 5 to 12,
The device characteristic data is information corresponding to the relative distance.

(付記25)
前記付記13乃至23に記載の立体画像表示装置において、
前記デバイス特性データは、前記相対位置に対応する情報であることを特徴とした立体画像表示装置。
(Appendix 25)
In the stereoscopic image display device according to the supplementary notes 13 to 23,
The device characteristic data is information corresponding to the relative position.

(付記26)
隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段(120)を有すると共に、移動物体に設置されて立体画像を表示する立体画像表示装置における立体画像表示方法であって、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出工程と、
この状態情報から前記立体表示パネル手段(120)とその表示面側に位置する特定の観察者との相対距離を算出する相対距離算出工程と、
前記立体表示パネル手段(120)にかかるデバイス特性データを受信するデバイス特性データ受信工程と、
前記相対距離と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整工程と、
この調整後の表示設定に基づいて、前記各空間領域それぞれに対し前記視差の異なる画像を投影することで前記立体画像を表示する立体画像表示工程と、を有することを特徴とした立体画像表示方法。
(Appendix 26)
A stereoscopic image display method in a stereoscopic image display device that has a stereoscopic display panel means (120) for projecting images with different parallax for each adjacent spatial region and displays a stereoscopic image installed on a moving object,
A moving object state detection step of detecting state information relating to the position state of the moving object;
A relative distance calculating step of calculating a relative distance between the stereoscopic display panel means (120) and a specific observer located on the display surface side from this state information;
A device characteristic data receiving step for receiving device characteristic data according to the stereoscopic display panel means (120);
A display setting adjustment step of adjusting display settings of the stereoscopic image with reference to the relative distance and the device characteristic data;
A stereoscopic image display method for displaying the stereoscopic image by projecting images with different parallaxes to the respective spatial regions based on the display settings after adjustment. .

(付記27)
隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段(120)を有すると共に、移動物体に設置されて立体画像を表示する立体画像表示装置における立体画像表示方法であって、
前記立体表示パネル(120)の表示面前方を観察者と共に撮影し、撮像画像データとして記録する撮像工程と、
この撮像画像データを用いて前記立体表示パネル手段(120)に対する前記観察者の相対位置を算出する相対位置算出工程と、
前記立体表示パネル手段(120)にかかるデバイス特性データを受信するデバイス特性データ受信工程と、
前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整工程と、
この調整後の表示設定に基づいて、前記各空間領域それぞれに対し前記視差の異なる画像を投影することで前記立体画像を表示する立体画像表示工程と、を有することを特徴とした立体画像表示方法。
(Appendix 27)
A stereoscopic image display method in a stereoscopic image display device that has a stereoscopic display panel means (120) for projecting images with different parallax for each adjacent spatial region and displays a stereoscopic image installed on a moving object,
The front of the display surface of the stereoscopic display panel (120) is imaged together with an observer, and an imaging process for recording as captured image data;
A relative position calculating step of calculating the relative position of the observer with respect to the stereoscopic display panel means (120) using the captured image data;
A device characteristic data receiving step for receiving device characteristic data according to the stereoscopic display panel means (120);
A display setting adjustment step of adjusting display settings of the stereoscopic image with reference to the relative position and the device characteristic data;
A stereoscopic image display method for displaying the stereoscopic image by projecting images with different parallaxes to the respective spatial regions based on the display settings after adjustment. .

(付記28)
前記付記27に記載の立体画像表示方法において、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出工程をさらに有し、
前記相対位置算出工程では、この状態情報を前記撮像画像データと共に参照して前記相対位置を算出することを特徴とした立体画像表示方法。
(Appendix 28)
In the stereoscopic image display method according to appendix 27,
A moving object state detection step of detecting state information related to the position state of the moving object;
In the relative position calculating step, the relative position is calculated by referring to the state information together with the captured image data.

(付記29)
前記付記27に記載の立体画像表示方法において、
前記移動物体が前記観察者用の座席であり、該座席の背もたれ部が可動式である場合に、
前記相対位置算出工程に先立って、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出工程と、
前記観察者の着座状態にかかる観察者状態情報を検出する観察者状態検出工程と、
前記相対位置算出工程では、
前記撮像画像データから前記観察者の顔画像領域を検出すると共に、前記観察者状態情報に基づいて前記観察者が前記背もたれ部に密接した状態にあるか否かを判定し、密接した状態にある旨判定した場合には前記状態情報と前記顔画像領域とを用いて前記相対位置を算出することを特徴とした立体画像表示方法。
(Appendix 29)
In the stereoscopic image display method according to appendix 27,
In the case where the moving object is a seat for the observer and a backrest portion of the seat is movable,
Prior to the relative position calculation step,
A moving object state detection step of detecting state information relating to the position state of the moving object;
An observer state detecting step of detecting observer state information relating to the sitting state of the observer;
In the relative position calculating step,
The face image area of the observer is detected from the captured image data, and it is determined whether or not the observer is in close contact with the backrest based on the observer state information, and is in close contact When the determination is made, the three-dimensional image display method is characterized in that the relative position is calculated using the state information and the face image area.

(付記30)
前記付記27に記載の立体画像表示方法において、
前記移動物体が前記観察者用の座席であり、該座席の背もたれ部が可動式である場合に、
前記相対位置算出工程に先立って、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出工程と、
前記観察者の着座状態にかかる観察者状態情報を検出する観察者状態検出工程と、
この観察者状態情報と前記撮像画像データとを用いて観察者のサイズ情報を示す観察者データを検出し保管する観察者データ保管処理工程と、を有し、
前記相対位置算出工程では、
前記撮像画像データから前記観察者の顔画像領域を検出すると共に、前記観察者状態情報に基づいて前記観察者が前記背もたれ部に密接した状態にあるか否かを判定し、前記観察者が前記背もたれ部から離れた状態にある旨判定した場合には、前記観察者データと前記顔画像領域とを用いて前記相対位置を算出する判定算出工程と、を含むことを特徴とした立体画像表示方法。
(Appendix 30)
In the stereoscopic image display method according to appendix 27,
In the case where the moving object is a seat for the observer and a backrest portion of the seat is movable,
Prior to the relative position calculation step,
A moving object state detection step of detecting state information relating to the position state of the moving object;
An observer state detecting step of detecting observer state information relating to the sitting state of the observer;
An observer data storage process for detecting and storing observer data indicating the size information of the observer using the observer state information and the captured image data, and
In the relative position calculating step,
The face image area of the observer is detected from the captured image data, and it is determined whether or not the observer is in close contact with the backrest based on the observer state information. A determination calculation step of calculating the relative position using the observer data and the face image area when it is determined that the object is separated from the backrest part. .

(付記31)
前記付記27に記載の立体画像表示方法において、
前記移動物体が前記観察者用の座席であり、該座席の背もたれ部が可動式である場合に、
前記相対位置算出工程に先立って、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出工程と、
前記観察者の着座状態にかかる観察者状態情報を検出する観察者状態検出工程と、
この観察者状態情報と前記撮像画像データとを用いて観察者のサイズ情報を示す観察者データを検出し保管する観察者データ保管処理工程と、を有し、
前記相対位置算出工程では、
前記撮像画像データから前記観察者の顔画像領域を検出すると共に、前記観察者状態情報に基づいて前記観察者が前記背もたれ部に密接した状態にあるか否かを判定し、
密接した状態にある旨判定した場合には前記状態情報と前記顔画像領域とを用いて前記相対位置を算出し、前記観察者が前記背もたれ部から離れた状態にある旨判定した場合には、前記観察者データと前記顔画像領域とを用いて前記相対位置を算出することを特徴とした立体画像表示方法。
(Appendix 31)
In the stereoscopic image display method according to appendix 27,
In the case where the moving object is a seat for the observer and a backrest portion of the seat is movable,
Prior to the relative position calculation step,
A moving object state detection step of detecting state information relating to the position state of the moving object;
An observer state detecting step of detecting observer state information relating to the sitting state of the observer;
An observer data storage process for detecting and storing observer data indicating the size information of the observer using the observer state information and the captured image data, and
In the relative position calculating step,
Detecting the face image area of the observer from the captured image data, and determining whether the observer is in close contact with the backrest based on the observer state information;
When it is determined that it is in a close state, the relative position is calculated using the state information and the face image region, and when it is determined that the observer is away from the backrest portion, A stereoscopic image display method, wherein the relative position is calculated using the observer data and the face image area.

(付記32)
前記付記27に記載の立体画像表示方法において、
前記相対位置算出工程では、前記撮像画像データに基づいて前記移動物体の位置状態にかかる状態情報を検出すると共に、これに基づいて前記相対位置を算出することを特徴とした立体画像表示方法。
(Appendix 32)
In the stereoscopic image display method according to appendix 27,
In the relative position calculating step, state information relating to the position state of the moving object is detected based on the captured image data, and the relative position is calculated based on the state information.

(付記33)
前記付記27に記載の立体画像表示方法において、
前記相対位置算出工程では、前記撮像画像データから前記観察者が着座する座席の背もたれ部の画像領域に対する前記観察者の顔画像領域の割合を検出すると共に、この割合に係る情報を用いて前記相対位置を算出することを特徴とした立体画像表示方法。
(Appendix 33)
In the stereoscopic image display method according to appendix 27,
In the relative position calculating step, a ratio of the face image area of the observer to an image area of a backrest portion of a seat on which the observer is seated is detected from the captured image data, and the relative position is detected using information on the ratio. A three-dimensional image display method characterized by calculating a position.

(付記34)
隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段(120)を有すると共に、移動物体に設置されて立体画像を表示する立体画像表示装置に適用する立体画像表示プログラムであって、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出機能、
この状態情報から前記立体表示パネル手段(120)とその表示面側に位置する特定の観察者との相対距離を算出する相対距離算出機能、
前記立体表示パネル手段(120)にかかるデバイス特性データを受信するデバイス特性データ受信機能、
前記相対距離と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整機能、
この調整後の表示設定に基づいて、前記各空間領域それぞれに対し前記視差の異なる画像を投影することで前記立体画像を表示する立体画像表示機能、
を前記立体画像表示装置内に予め設けられたコンピュータに実現させることを特徴とした立体画像表示プログラム。
(Appendix 34)
A stereoscopic image display program to be applied to a stereoscopic image display device that has a stereoscopic display panel means (120) for projecting images with different parallax for each adjacent spatial region and displays a stereoscopic image installed on a moving object,
A moving object state detection function for detecting state information related to the position state of the moving object;
A relative distance calculation function for calculating a relative distance between the stereoscopic display panel means (120) and a specific observer located on the display surface side from this state information,
Device characteristic data receiving function for receiving device characteristic data according to the stereoscopic display panel means (120),
A display setting adjustment function for adjusting display settings of the stereoscopic image with reference to the relative distance and the device characteristic data;
A stereoscopic image display function for displaying the stereoscopic image by projecting the images having different parallaxes to the respective spatial regions based on the display settings after adjustment;
Is realized by a computer provided in advance in the stereoscopic image display device.

(付記35)
隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段(120)を有すると共に、移動物体に設置されて立体画像を表示する立体画像表示装置に適用する立体画像表示プログラムであって、
前記立体表示パネル(120)の表示面前方を観察者と共に撮影し、撮像画像データとして記録する撮像機能、
この撮像画像データを用いて前記立体表示パネル手段(120)に対する前記観察者の相対位置を算出する相対位置算出機能、
前記立体表示パネル手段(120)にかかるデバイス特性データを受信するデバイス特性データ受信機能、
前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整機能、
この調整後の表示設定に基づいて、前記各空間領域それぞれに対し前記視差の異なる画像を投影することで前記立体画像を表示する立体画像表示機能、
を前記立体画像表示装置内に予め設けられたコンピュータに実現させることを特徴とした立体画像表示プログラム。
(Appendix 35)
A stereoscopic image display program to be applied to a stereoscopic image display device that has a stereoscopic display panel means (120) for projecting images with different parallax for each adjacent spatial region and displays a stereoscopic image installed on a moving object,
An imaging function for photographing the front of the display surface of the stereoscopic display panel (120) together with an observer and recording it as captured image data,
A relative position calculation function for calculating the relative position of the observer with respect to the stereoscopic display panel means (120) using the captured image data;
Device characteristic data receiving function for receiving device characteristic data according to the stereoscopic display panel means (120),
A display setting adjustment function for adjusting display settings of the stereoscopic image with reference to the relative position and the device characteristic data;
A stereoscopic image display function for displaying the stereoscopic image by projecting the images having different parallaxes to the respective spatial regions based on the display settings after adjustment;
Is realized by a computer provided in advance in the stereoscopic image display device.

(付記36)
前記付記35に記載の立体画像表示プログラムにおいて、
前記移動物体が前記観察者用の座席であり、該座席の背もたれ部が可動式である場合に、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出機能、
前記観察者の着座状態にかかる観察者状態情報を検出する観察者状態検出機能、
前記撮像画像データから前記観察者の顔画像領域を検出する顔画像領域検出機能、
前記観察者状態情報に基づいて前記観察者が前記背もたれ部に密接した状態にあるか否かを判定する密接状態判定機能、
この密接状態判定機能にて、密接した状態にある旨判定した場合に前記状態情報と前記顔画像領域とを用いて前記相対位置を算出し、前記観察者が前記背もたれ部から離れた状態にある旨判定した場合に前記観察者データと前記顔画像領域とを用いて前記相対位置を算出する密接状態依拠算出機能、
を前記コンピュータに実現させることを特徴とした立体画像表示プログラム。
(Appendix 36)
In the stereoscopic image display program according to attachment 35,
In the case where the moving object is a seat for the observer and a backrest portion of the seat is movable,
A moving object state detection function for detecting state information related to the position state of the moving object;
An observer state detection function for detecting observer state information according to the sitting state of the observer;
A face image area detection function for detecting the face image area of the observer from the captured image data;
A close state determination function for determining whether or not the observer is in close contact with the backrest based on the observer state information,
The close position determination function calculates the relative position using the state information and the face image area when it is determined that the close state is present, and the observer is in a state away from the backrest portion. A close state dependence calculation function that calculates the relative position using the observer data and the face image area when it is determined
3D image display program characterized by causing the computer to realize the above.

本発明は、立体画像表示装置に立体画像コンテンツを表示する機能を有する立体画像処理システム及び立体画像表示システムに適用可能である。また、本発明は、上記各実施形態等の内容に限られたものではなく、その趣旨を逸脱しない範囲で適宜変更することができる。   The present invention is applicable to a stereoscopic image processing system and a stereoscopic image display system having a function of displaying stereoscopic image content on a stereoscopic image display device. Further, the present invention is not limited to the contents of the above-described embodiments and the like, and can be appropriately changed without departing from the gist thereof.

3 レンチキュラレンズ
3a,3b,3c,3d シリンドリカルレンズ(レンズ)
4 画素群
4L 左眼用画素
4R 右眼用画素
6 バリア(パララックスバリア)
6a スリット(パララックスバリア)
11,12,13,14 立体画像表示装置
20,21,22,23、24、25 光線
30 観察面
40 表示面(立体表示パネル手段の表示面)
55L 左眼
55R 右眼
60,61,62 座席
61A,62A 接合部材
61B 座席背面部
61C 座席の座面部
62D 外枠部
63 観察者の座席
64 前座席
70R,70R’,80R,90R 右眼領域
70L,70L’,72L,80L,82L,90L,92L 左眼領域
110 移動物体状態検出手段
110A,110B,110C 傾斜センサ
111 第1移動物体状態検出手段
112 第2移動物体状態検出手段
120 立体表示パネル手段
120A 液晶レンズ
120B 表示パネル
131,132,133,134 演算処理部
140 観察距離算出手段(相対距離算出手段)
150 画像データ保管手段
160 デバイス特性データ保管手段
170,270 表示設定調整手段
280 撮像手段
290,390,490 観察位置算出手段(相対位置算出手段)
310 観察者状態検出手段
310A 感圧センサ
350 観察者データ保管処理手段
共通電極
、E、E、E 制御電極
P 画素ピッチ(画素幅)
P’ 投影像の幅(観察面に投影された画素幅)
e 両眼間隔
OD 最適視認距離(最適観察距離)
ND 最短視認距離(最短観察距離)
FD 最長視認距離(最長観察距離)
L レンズ幅(シリンドリカルレンズ幅)
S バリア幅
h 画像表示パネルから光線分離手段までの距離(レンズの主点と画素との距離)
3 Lenticular lens 3a, 3b, 3c, 3d Cylindrical lens (lens)
4 pixel group 4L pixel for left eye 4R pixel for right eye 6 barrier (parallax barrier)
6a Slit (Parallax Barrier)
11, 12, 13, 14 Stereoscopic image display device 20, 21, 22, 23, 24, 25 Light beam 30 Observation surface 40 Display surface (display surface of stereoscopic display panel means)
55L Left eye 55R Right eye 60, 61, 62 Seat 61A, 62A Joint member 61B Seat rear surface portion 61C Seat seat surface portion 62D Outer frame portion 63 Observer seat 64 Front seat 70R, 70R ', 80R, 90R Right eye region 70L , 70L ′, 72L, 80L, 82L, 90L, 92L Left eye area 110 Moving object state detection means 110A, 110B, 110C Inclination sensor 111 First moving object state detection means 112 Second moving object state detection means 120 Stereoscopic display panel means 120A liquid crystal lens 120B display panel 131, 132, 133, 134 arithmetic processing unit 140 observation distance calculation means (relative distance calculation means)
150 Image data storage means 160 Device characteristic data storage means 170, 270 Display setting adjustment means 280 Imaging means 290, 390, 490 Observation position calculation means (relative position calculation means)
310 observer state detector 310A pressure sensor 350 observer data storage processing means E 0 common electrode E 1, E 2, E 3 , E 4 the control electrode P pixel pitch (pixel width)
P 'Projected image width (pixel width projected on the observation surface)
e Binocular OD Optimal viewing distance (optimal observation distance)
ND Shortest viewing distance (shortest observation distance)
FD Longest viewing distance (longest viewing distance)
L Lens width (Cylindrical lens width)
S Barrier width h Distance from the image display panel to the light separation means (distance between the main point of the lens and the pixel)

Claims (15)

移動物体に設置されて立体画像を表示する立体画像表示装置であって、
隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段と、
この立体表示パネルの表示面前方の観察者を撮影し、撮像画像データとして記録する撮像手段と、
この撮像画像データを用いて前記立体表示パネル手段に対する前記観察者の相対位置を算出する相対位置算出手段と、
前記立体表示パネル手段にかかるデバイス特性データを保存するデバイス特性データ保管手段と、
前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整手段と、を有することを特徴とした立体画像表示装置。
A stereoscopic image display device that is installed on a moving object and displays a stereoscopic image,
Stereoscopic display panel means for projecting images with different parallax for each adjacent spatial region;
Imaging means for photographing an observer in front of the display surface of the stereoscopic display panel and recording it as captured image data;
A relative position calculating means for calculating a relative position of the observer with respect to the stereoscopic display panel means using the captured image data;
Device characteristic data storage means for storing device characteristic data according to the stereoscopic display panel means;
A stereoscopic image display device comprising: display setting adjustment means for adjusting display settings of the stereoscopic image with reference to the relative position and the device characteristic data.
前記請求項1に記載の立体画像表示装置において、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出手段をさらに有し、
前記相対位置算出手段は、前記相対位置の算出に際して前記撮像画像データと前記状態情報とを用いることを特徴とした立体画像表示装置。
The stereoscopic image display device according to claim 1,
A moving object state detecting means for detecting state information related to the position state of the moving object;
The relative position calculation means uses the captured image data and the state information when calculating the relative position.
前記請求項2に記載の立体画像表示装置において、
前記移動物体は座席であり、該座席の背もたれ部は可動式であり、
前記移動物体状態検出手段は、前記座席の背もたれ部に設置されると共に、該背もたれ部の傾斜状態にかかる情報を前記状態情報として検出することを特徴とした立体画像表示装置。
The stereoscopic image display device according to claim 2,
The moving object is a seat, and the back portion of the seat is movable;
The moving object state detection means is installed on a backrest portion of the seat, and detects information relating to an inclined state of the backrest portion as the state information.
前記請求項3に記載の立体画像表示装置において、
前記相対位置算出手段は、前記撮像画像データから前記観察者が着座する座席の背もたれ部の画像領域に対する前記観察者の顔画像領域の割合を検出すると共に、この割合に係る情報と前記状態情報とを用いて前記相対位置を算出することを特徴とした立体画像表示装置。
The stereoscopic image display device according to claim 3,
The relative position calculating means detects a ratio of the face image area of the observer to an image area of a backrest portion of a seat on which the observer is seated from the captured image data, and information related to the ratio and the state information A stereoscopic image display device, wherein the relative position is calculated using
前記請求項4に記載の立体画像表示装置において、
前記観察者の着座状態にかかる観察者状態情報を検出する観察者状態検出手段と、
この観察者状態情報と前記撮像画像データとを用いて観察者のサイズ情報を示す観察者データを検出し保管する観察者データ保管処理手段と、を有し、
前記相対位置算出手段は、
前記撮像画像データから前記観察者の顔画像領域を検出する検出手段と、前記観察者状態情報に基づいて前記観察者が前記背もたれ部に密接した状態にあるか否かを判定する判定手段と、を有すると共に、
この判定手段にて、密接した状態にある旨判定した場合には、前記状態情報と前記顔画像領域とを用いて前記相対位置を算出し、前記観察者が前記背もたれ部から離れた状態にある旨判定した場合には、前記観察者データと前記顔画像領域とを用いて前記相対位置を算出することを特徴とした立体画像表示装置。
The stereoscopic image display device according to claim 4,
Observer state detection means for detecting observer state information relating to the sitting state of the observer;
Observer data storage processing means for detecting and storing observer data indicating the size information of the observer using the observer state information and the captured image data,
The relative position calculating means includes
Detecting means for detecting a face image area of the observer from the captured image data; and determining means for determining whether the observer is in close contact with the backrest based on the observer state information; And having
When the determination means determines that the state is close, the relative position is calculated using the state information and the face image area, and the observer is in a state away from the backrest part. When the determination is made, the stereoscopic image display apparatus calculates the relative position using the observer data and the face image area.
前記請求項5に記載の立体画像表示装置において、
観察者データ保管処理手段は、前記観察者データを検出するに際して、前記観察者が前記背もたれ部に密接した状態にあるときの前記撮影画像データを用いることを特徴とした立体画像表示装置。
The stereoscopic image display device according to claim 5,
The observer data storage processing means uses the captured image data when the observer is in close contact with the backrest portion when detecting the observer data.
前記請求項1に記載の立体画像表示装置において、
前記相対位置算出手段は、前記撮像画像データを用いて前記移動物体の位置状態にかかる状態情報を検出すると共に、これに基づいて前記相対位置を算出することを特徴とした立体画像表示装置。
The stereoscopic image display device according to claim 1,
The relative position calculation means detects state information concerning the position state of the moving object using the captured image data, and calculates the relative position based on the state information.
前記請求項1に記載の立体画像表示装置において、
前記移動物体は座席であり、該座席の背もたれ部は可動式であり、
前記相対位置算出手段は、前記撮像画像データから前記観察者が着座する座席の背もたれ部の画像領域に対する前記観察者の顔画像領域の割合を検出すると共に、この割合に係る情報を用いて前記相対位置を算出することを特徴とした立体画像表示装置。
The stereoscopic image display device according to claim 1,
The moving object is a seat, and the back portion of the seat is movable;
The relative position calculation means detects a ratio of the face image area of the observer to an image area of a backrest portion of a seat on which the observer is seated from the captured image data, and uses the information relating to the ratio to calculate the relative position. A stereoscopic image display device characterized by calculating a position.
前記請求項1乃至8の何れか1つに記載の立体画像表示装置において、
前記立体表示パネル手段は、
少なくとも第1視点用の画像を表示する第1のサブ画素及び第2視点用の画像を表示する第2のサブ画素を含む画素がマトリクス状に複数配列された表示パネルと、
前記各サブ画素から出射した光線を相互に異なる方向に振り分ける光線分離手段と、を含むことを特徴とした立体画像表示装置。
The stereoscopic image display device according to any one of claims 1 to 8,
The stereoscopic display panel means includes:
A display panel in which a plurality of pixels including at least a first sub-pixel that displays an image for a first viewpoint and a second sub-pixel that displays an image for a second viewpoint are arranged in a matrix;
3D image display apparatus, comprising: light beam separating means for distributing light beams emitted from the sub-pixels in different directions.
前記請求項9に記載の立体画像表示装置において、
前記光線分離手段は、光線分離方向が変更可能なアクティブ素子からなり、
前記表示設定調整手段は、前記相対位置に合わせて前記光線分離手段の屈折率の分布を制御することで立体視域範囲を調整することを特徴とした立体画像表示装置。
The stereoscopic image display device according to claim 9,
The light beam separating means comprises an active element whose light beam separating direction can be changed,
The stereoscopic image display apparatus, wherein the display setting adjusting unit adjusts a stereoscopic viewing range by controlling a refractive index distribution of the light beam separating unit in accordance with the relative position.
前記請求項1乃至10の何れか1つに記載の立体画像表示装置において、
前記表示設定調整手段は、前記相対位置に合わせて前記立体画像の視差値又は輝度値を変更することを特徴とした立体画像表示装置。
In the three-dimensional image display device according to any one of claims 1 to 10,
The display setting adjustment unit changes a parallax value or a luminance value of the stereoscopic image in accordance with the relative position.
隣り合う空間領域ごとに視差の異なる画像を投影する立体表示パネル手段を有すると共に、移動物体に設置されて立体画像を表示する立体画像表示装置における立体画像表示方法であって、
前記立体表示パネルの表示面前方の観察者を撮影し、撮像画像データとして記録する撮像工程と、
この撮像画像データを用いて前記立体表示パネル手段に対する前記観察者の相対位置を算出する相対位置算出工程と、
前記立体表示パネル手段にかかるデバイス特性データを受信するデバイス特性データ受信工程と、
前記相対位置と前記デバイス特性データとを参照して前記立体画像の表示設定を調整する表示設定調整工程と、
この調整後の表示設定に基づいて、前記各空間領域それぞれに対し前記視差の異なる画像を投影することで前記立体画像を表示する立体画像表示工程と、を有することを特徴とした立体画像表示方法。
A stereoscopic image display method in a stereoscopic image display device that has stereoscopic display panel means for projecting images with different parallax for each adjacent spatial region and displays a stereoscopic image installed on a moving object,
An imaging step of photographing an observer in front of the display surface of the stereoscopic display panel and recording it as captured image data;
A relative position calculating step of calculating a relative position of the observer with respect to the stereoscopic display panel means using the captured image data;
A device characteristic data receiving step of receiving device characteristic data according to the stereoscopic display panel means;
A display setting adjustment step of adjusting display settings of the stereoscopic image with reference to the relative position and the device characteristic data;
A stereoscopic image display method for displaying the stereoscopic image by projecting images with different parallaxes to the respective spatial regions based on the display settings after adjustment. .
前記請求項12に記載の立体画像表示方法において、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出工程をさらに有し、
前記相対位置算出工程では、この状態情報を前記撮像画像データと共に参照して前記相対位置を算出することを特徴とした立体画像表示方法。
In the three-dimensional image display method according to claim 12,
A moving object state detection step of detecting state information related to the position state of the moving object;
In the relative position calculating step, the relative position is calculated by referring to the state information together with the captured image data.
前記請求項12に記載の立体画像表示方法において、
前記移動物体が座席であり、該座席の背もたれ部が可動式である場合に、
前記相対位置算出工程に先立って、
前記移動物体の位置状態にかかる状態情報を検出する移動物体状態検出工程と、
前記観察者の着座状態にかかる観察者状態情報を検出する観察者状態検出工程と、
この観察者状態情報と前記撮像画像データとを用いて観察者のサイズ情報を示す観察者データを検出し保管する観察者データ保管処理工程と、を有し、
前記相対位置算出工程では、
前記撮像画像データから前記観察者の顔画像領域を検出すると共に、前記観察者状態情報に基づいて前記観察者が前記背もたれ部に密接した状態にあるか否かを判定し、
密接した状態にある旨判定した場合には前記状態情報と前記顔画像領域とを用いて前記相対位置を算出し、前記観察者が前記背もたれ部から離れた状態にある旨判定した場合には、前記観察者データと前記顔画像領域とを用いて前記相対位置を算出することを特徴とした立体画像表示方法。
In the three-dimensional image display method according to claim 12,
When the moving object is a seat and the back portion of the seat is movable,
Prior to the relative position calculation step,
A moving object state detection step of detecting state information relating to the position state of the moving object;
An observer state detecting step of detecting observer state information relating to the sitting state of the observer;
An observer data storage process for detecting and storing observer data indicating the size information of the observer using the observer state information and the captured image data, and
In the relative position calculating step,
Detecting the face image area of the observer from the captured image data, and determining whether the observer is in close contact with the backrest based on the observer state information;
When it is determined that it is in a close state, the relative position is calculated using the state information and the face image region, and when it is determined that the observer is away from the backrest portion, A stereoscopic image display method, wherein the relative position is calculated using the observer data and the face image area.
前記請求項12に記載の立体画像表示方法において、
前記相対位置算出工程では、前記撮像画像データに基づいて前記移動物体の位置状態にかかる状態情報を検出することを特徴とした立体画像表示方法。
In the three-dimensional image display method according to claim 12,
In the relative position calculating step, state information relating to the position state of the moving object is detected based on the captured image data.
JP2018043738A 2018-03-12 2018-03-12 Stereoscopic image display device and stereoscopic image display method Active JP6677387B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018043738A JP6677387B2 (en) 2018-03-12 2018-03-12 Stereoscopic image display device and stereoscopic image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018043738A JP6677387B2 (en) 2018-03-12 2018-03-12 Stereoscopic image display device and stereoscopic image display method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014089883A Division JP6516234B2 (en) 2014-04-24 2014-04-24 Stereoscopic display

Publications (2)

Publication Number Publication Date
JP2018129826A true JP2018129826A (en) 2018-08-16
JP6677387B2 JP6677387B2 (en) 2020-04-08

Family

ID=63173226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018043738A Active JP6677387B2 (en) 2018-03-12 2018-03-12 Stereoscopic image display device and stereoscopic image display method

Country Status (1)

Country Link
JP (1) JP6677387B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110610454A (en) * 2019-09-18 2019-12-24 上海云绅智能科技有限公司 Method and device for calculating perspective projection matrix, terminal device and storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332218A (en) * 2004-05-20 2005-12-02 Nissan Motor Co Ltd Driving support device
JP2007047735A (en) * 2005-07-11 2007-02-22 Nissan Motor Co Ltd Visual information display device and visual information display method
JP2008209916A (en) * 2007-01-30 2008-09-11 Kyocera Corp Optical multiplexer/demultiplexer and optical transceiver using the same
JP2010089651A (en) * 2008-10-08 2010-04-22 Honda Motor Co Ltd Monitor position adjustment device
JP2010285118A (en) * 2009-06-15 2010-12-24 Panasonic Corp Image display system
JP2011020538A (en) * 2009-07-15 2011-02-03 Panasonic Corp Seatback display angle control device
JP2013121031A (en) * 2011-12-07 2013-06-17 Sony Corp Display device, method and program
JP2014045474A (en) * 2012-07-31 2014-03-13 Nlt Technologies Ltd Stereoscopic image display device, image processing apparatus, and stereoscopic image processing method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332218A (en) * 2004-05-20 2005-12-02 Nissan Motor Co Ltd Driving support device
JP2007047735A (en) * 2005-07-11 2007-02-22 Nissan Motor Co Ltd Visual information display device and visual information display method
JP2008209916A (en) * 2007-01-30 2008-09-11 Kyocera Corp Optical multiplexer/demultiplexer and optical transceiver using the same
JP2010089651A (en) * 2008-10-08 2010-04-22 Honda Motor Co Ltd Monitor position adjustment device
JP2010285118A (en) * 2009-06-15 2010-12-24 Panasonic Corp Image display system
JP2011020538A (en) * 2009-07-15 2011-02-03 Panasonic Corp Seatback display angle control device
JP2013121031A (en) * 2011-12-07 2013-06-17 Sony Corp Display device, method and program
JP2014045474A (en) * 2012-07-31 2014-03-13 Nlt Technologies Ltd Stereoscopic image display device, image processing apparatus, and stereoscopic image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110610454A (en) * 2019-09-18 2019-12-24 上海云绅智能科技有限公司 Method and device for calculating perspective projection matrix, terminal device and storage medium

Also Published As

Publication number Publication date
JP6677387B2 (en) 2020-04-08

Similar Documents

Publication Publication Date Title
JP6516234B2 (en) Stereoscopic display
US9880395B2 (en) Display device, terminal device, and display method
US9280951B2 (en) Stereoscopic image display device, image processing device, and stereoscopic image processing method
US9398290B2 (en) Stereoscopic image display device, image processing device, and stereoscopic image processing method
US11109015B2 (en) Display apparatus, display apparatus driving method, and electronic instrument
US8708498B2 (en) Display apparatus for vehicle and display method
JP6410167B2 (en) Display device and display method thereof
CN103595986A (en) Stereoscopic image display device, image processing device, and image processing method
JPH09105885A (en) Head mount type stereoscopic image display device
JP5834177B2 (en) Stereoscopic image display system and stereoscopic glasses
US20190035364A1 (en) Display apparatus, method of driving display apparatus, and electronic apparatus
US9684166B2 (en) Motor vehicle and display of a three-dimensional graphical object
JPWO2018008577A1 (en) Head-mounted display device
JP2018203245A (en) Display system, electronic mirror system, and mobile body
JP6677387B2 (en) Stereoscopic image display device and stereoscopic image display method
JP2007047735A (en) Visual information display device and visual information display method
JP2021067909A (en) Stereoscopic display device and head-up display apparatus
JP3425402B2 (en) Apparatus and method for displaying stereoscopic image
JP7354846B2 (en) heads up display device
WO2020031549A1 (en) Virtual image display device
WO2019188581A1 (en) Display control device, and head-up display device
WO2023228770A1 (en) Image display device
US20230097378A1 (en) Head mounted display and cross reality system
JP7121349B2 (en) Display method and display device
WO2019240230A1 (en) Virtual image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190806

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200302

R150 Certificate of patent or registration of utility model

Ref document number: 6677387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250