WO2010147089A1 - 3次元ディスプレイの光学特性評価装置および3次元ディスプレイの光学特性評価方法 - Google Patents

3次元ディスプレイの光学特性評価装置および3次元ディスプレイの光学特性評価方法 Download PDF

Info

Publication number
WO2010147089A1
WO2010147089A1 PCT/JP2010/060053 JP2010060053W WO2010147089A1 WO 2010147089 A1 WO2010147089 A1 WO 2010147089A1 JP 2010060053 W JP2010060053 W JP 2010060053W WO 2010147089 A1 WO2010147089 A1 WO 2010147089A1
Authority
WO
WIPO (PCT)
Prior art keywords
luminance
luminance distribution
image
dimensional display
display
Prior art date
Application number
PCT/JP2010/060053
Other languages
English (en)
French (fr)
Inventor
力 堀越
雅史 壷井
真治 木村
Original Assignee
株式会社エヌ・ティ・ティ・ドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エヌ・ティ・ティ・ドコモ filed Critical 株式会社エヌ・ティ・ティ・ドコモ
Priority to CN201080026456.5A priority Critical patent/CN102461192B/zh
Priority to KR1020117029880A priority patent/KR101284073B1/ko
Priority to JP2011519774A priority patent/JP5296872B2/ja
Priority to US13/378,472 priority patent/US9053656B2/en
Priority to EP10789464A priority patent/EP2445225A4/en
Publication of WO2010147089A1 publication Critical patent/WO2010147089A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/006Electronic inspection or testing of displays and display drivers, e.g. of LED or LCD displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/04Diagnosis, testing or measuring for television systems or their details for receivers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0209Crosstalk reduction, i.e. to reduce direct or indirect influences of signals directed to a certain pixel of the displayed image on other pixels of said image, inclusive of influences affecting pixels in different frames or fields or sub-images which constitute a same image, e.g. left and right images of a stereoscopic display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/145Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light originating from the display screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data

Definitions

  • the present invention relates to an optical characteristic evaluation apparatus for a three-dimensional display and an optical characteristic evaluation method for a three-dimensional display.
  • 3D display In order to evaluate the optical characteristics of a three-dimensional display (hereinafter also referred to as “3D display”), a distribution state of light rays emitted from, for example, several measurement points on the 3D display is measured using a scope or the like. It is known. Specifically, a method of measuring the luminance distribution in the radiation angle direction from the measurement point is common.
  • the observer perceives a stereoscopic image. Therefore, not only the physical light distribution from the 3D display is measured but also whether or not a person can perceive a solid. It must be evaluated together. In other words, whether or not the light is accurately projected into the eyes of the observer is one criterion for evaluating the optical characteristics of the 3D display. Therefore, in evaluating the optical characteristics of the 3D display, one of the points is whether or not the images corresponding to the left and right eyes of the observer are visible as clear images. In general, it is difficult to completely separate light that should enter the left and right eyes, and undesirable light enters the eye as leakage light (crosstalk).
  • the leaked light of the video that should not be seen by the viewer's eyes enters as crosstalk. Since the amount of crosstalk affects the quality of stereoscopic perception, the determination of whether or not stereoscopic vision can be perceived without contradiction is based on the luminance contrast between the desired light entering the left and right eyes and the light that is not.
  • the optical properties of the 3D display can be evaluated. For example, in the technique described in Non-Patent Document 1, a method for evaluating the optical characteristics of a 3D display using a product of 3D contrast of left and right eyes has been proposed.
  • Non-Patent Document 2 various methods such as a binocular system, a multi-view system, and an integral system have been proposed as a 3D display.
  • the images for the right eye and the left eye are determined in advance, so that the optical characteristics of the 3D display can be evaluated based on the 3D contrast described above.
  • the integral type 3D display is not a meaning of an image of the left and right eyes, and is a 3D display aiming to faithfully reproduce light rays emitted from an object. Therefore, in evaluating the optical characteristics of the integral type 3D display, there is a problem that the conventional 3D contrast cannot be applied.
  • the present invention has been made in view of the above problems, and provides a 3D display optical property evaluation apparatus and a 3D display optical property evaluation method that enable evaluation of optical properties without depending on the type of 3D display.
  • the purpose is to provide.
  • an optical characteristic evaluation apparatus for a three-dimensional display includes a luminance measuring unit that measures the luminance in a radiation angle direction of a light beam emitted from a predetermined measurement point on the three-dimensional display, Based on the luminance data measured by the luminance measuring means, the luminance distribution state of the light beam in the radiation angle direction is analyzed, and a luminance distribution analyzing means for generating a luminance distribution image of the light beam, and observation based on the luminance distribution image Analyzing the luminance perceived between both eyes of the person and generating a stereoscopic vision determination image; and an emission angle which is a region in front of the three-dimensional display based on the stereoscopic vision determination image; Stereoscopic vision determining means for determining a region having a fixed direction as a stereoscopically viewable region.
  • the method for evaluating optical characteristics of a three-dimensional display according to the present invention includes a luminance measurement step in which the luminance measuring means measures the luminance in the radiation angle direction of a light beam emitted from a predetermined measurement point on the three-dimensional display, and a luminance distribution.
  • a luminance distribution analyzing step for analyzing a luminance distribution state of the light beam in the radiation angle direction based on the luminance data measured by the luminance measuring unit, and generating a luminance distribution image of the light beam;
  • Analyzing means analyzes luminance perceived between both eyes of the observer based on the luminance distribution image and generates a stereoscopic vision determination image, and stereoscopic vision determination means includes the stereoscopic vision determination
  • the interocular luminance analysis means calculates the luminance perceived between the eyes of the observer based on the luminance distribution image.
  • the stereoscopic vision determination unit determines a stereoscopically viewable area based on the stereoscopic vision determination image. This can be applied regardless of the type of 3D display such as a twin-lens system, a multi-lens system, and an integral system. Therefore, according to the optical characteristic evaluation apparatus for a three-dimensional display and the optical characteristic evaluation method for a three-dimensional display according to the present invention, the optical characteristic can be evaluated without depending on the type of the three-dimensional display.
  • the luminance distribution analyzing unit analyzes the luminance distribution state for each viewpoint at all viewpoints of the three-dimensional display and generates the luminance distribution image for each viewpoint.
  • the optical characteristics can be evaluated at all viewpoints of the three-dimensional display.
  • the interocular luminance analyzing unit extracts two luminance distribution images corresponding to the interocular distance of the observer from the luminance distribution images for each viewpoint generated by the luminance distribution analyzing unit, and extracts the extracted luminance distribution images. It is preferable that the stereoscopic vision determination image is generated by analyzing a contrast ratio of luminance between the eyes of the observer using the two luminance distribution images.
  • the two luminance distribution images corresponding to the distance between the eyes of the observer extracted from the luminance distribution images for each viewpoint correspond to the right eye and the left eye of the observer, respectively.
  • the luminance distribution analyzing means analyzes the luminance distribution state for each line-of-sight direction in all line-of-sight directions of the three-dimensional display, and generates the luminance distribution image for each line-of-sight direction.
  • optical characteristics can be evaluated in all line-of-sight directions of the three-dimensional display.
  • the interocular luminance analyzing unit extracts two luminance distribution images corresponding to the interocular distance of the observer from the luminance distribution images for each of the line-of-sight directions generated by the luminance distribution analyzing unit, and the extraction It is preferable that the stereoscopic vision determination image is generated by analyzing a contrast ratio of luminance between the eyes of the observer using the two luminance distribution images.
  • the two luminance distribution images corresponding to the observer's interocular distance extracted from the luminance distribution images for each line-of-sight direction correspond to the observer's right eye and left eye, respectively.
  • the luminance contrast ratio is a ratio of light that should enter and light that should not enter in the right eye and left eye of the observer.
  • the ratio between the light that should enter and the light that should not enter in the right and left eyes of the observer be a criterion for evaluating the optical characteristics of the three-dimensional display.
  • the value of the contrast ratio of the luminance is not accompanied by a change in sign when light to enter the right eye of the observer enters the right eye and light to enter the left eye of the observer enters the left eye, When the light to enter the observer's right eye enters the left eye of the observer, or when the light to enter the observer's left eye enters the observer's right eye, it is accompanied by a change in sign. Is preferred.
  • the value of the luminance contrast ratio can be calculated in consideration of reverse vision.
  • the stereoscopic vision determination unit determines the certain area corresponding to a portion where the contrast ratio of the luminance exceeds a predetermined threshold in the stereoscopic vision determination image as the stereoscopic vision possible area.
  • the luminance distribution image and the stereoscopic vision determination image are preferably images showing the luminance distribution in the region on a plane orthogonal to the display surface of the three-dimensional display.
  • the luminance distribution image and the stereoscopic vision determination image correspond to a surface orthogonal to the display surface of the three-dimensional display, particularly a surface horizontal to the ground when the three-dimensional display is installed in a normal usage mode.
  • the stereoscopic vision determination means is based on the stereoscopic vision determination image, particularly when the three-dimensional display is installed in a normal use mode, and is a region in front of the three-dimensional display and the light emitted from the three-dimensional display. It is possible to determine whether or not the region on the radiation angle direction is a stereoscopically viewable region.
  • the present invention it is possible to provide a three-dimensional display optical characteristic evaluation apparatus and a three-dimensional display optical characteristic evaluation method that enable evaluation of optical characteristics without depending on the type of 3D display.
  • FIG. 1 is a schematic configuration diagram of an optical property evaluation apparatus 1 according to a first embodiment. It is a hardware block diagram of the optical characteristic evaluation apparatus. 4 is a flowchart for explaining the operation of the optical property evaluation apparatus 1. It is a figure which shows the aspect which the luminance meter 58 measures the brightness
  • FIG. 1 is a schematic configuration diagram of the optical property evaluation apparatus 1.
  • the optical property evaluation apparatus 1 includes, as functional components, a luminance measuring unit 10 (corresponding to “luminance measuring means” in the claims), and a luminance distribution analyzing unit 20 (claims). Equivalent to “luminance distribution analysis means” in FIG. 5), an interocular luminance analysis unit 30 (corresponding to “interocular luminance analysis means” in claims), and a stereoscopic vision determination unit 40 (“stereoscopic judgment in claims”). Equivalent to the means ”.
  • the luminance measuring unit 10 measures the luminance in the radiation angle direction of the light beam emitted from a predetermined measurement point on the 3D display.
  • the luminance distribution analysis unit 20 analyzes the luminance distribution state in the radiation angle direction of the light beam based on the luminance data measured by the luminance measurement unit 10, and generates a luminance distribution image of the light beam.
  • the interocular luminance analysis unit 30 analyzes the luminance perceived between the eyes of the observer based on the luminance distribution image, and generates a stereoscopic vision determination image.
  • the stereoscopic vision determination unit 40 determines an area in front of the 3D display and a certain area in the radiation angle direction as a stereoscopically viewable area based on the stereoscopic vision determination image.
  • FIG. 2 is a hardware configuration diagram of the optical property evaluation apparatus 1.
  • the optical characteristic evaluation apparatus 1 physically includes a CPU 51, a main storage device such as a ROM 52 and a RAM 53, an input device 54 such as a keyboard and a mouse, an output device 55 such as a 3D display, and other devices.
  • the computer is configured as a normal computer system including a communication module 56 for transmitting / receiving data to / from the computer and an auxiliary storage device 57 such as a hard disk.
  • the optical property evaluation apparatus 1 includes a luminance meter 58.
  • the luminance meter 58 corresponds to the luminance measuring unit 10 in FIG.
  • Each function of the optical characteristic evaluation apparatus 1 is configured such that predetermined computer software is read on hardware such as the CPU 51, the ROM 52, and the RAM 53, so that the input device 54, the output device 55, the communication module 56, and the luminance are controlled under the control of the CPU 51. This is realized by operating the total 58 and reading and writing data in the main storage devices 52 and 53 and the auxiliary storage device 57.
  • optical characteristic evaluation apparatus 1 (Operation of the optical characteristic evaluation apparatus 1)
  • the operation of the optical characteristic evaluation apparatus 1 (corresponding to “optical characteristic evaluation method for three-dimensional display” in the claims) will be described in detail with reference to the flowchart of FIG.
  • the binocular and multi-view 3D displays will be described first, and the integral 3D display will be described separately in the item (integral system). This is because the binocular and multi-view 3D displays have a viewpoint concept, but the integral 3D display does not have a viewpoint concept.
  • a binocular or multi-view 3D display capable of presenting N viewpoint videos is used. That is, the maximum number of viewpoints in the binocular or multi-view 3D display of the first embodiment is N.
  • an image for evaluation is prepared. Specifically, as many evaluation images as the number of viewpoints are prepared so that only one viewpoint is a full-screen white (full white) image and all other viewpoint images are full-screen black (full black) images. Since the maximum number of viewpoints in the first embodiment is N, N evaluation images 1 to N are prepared.
  • Evaluation image 1 only white for viewpoint 1
  • all black images for viewpoints 2 to N evaluation image 2: all white for viewpoint 2 only, all black images for viewpoints 1 and 3 to N
  • Evaluation image k all white only for viewpoint k, all black images for viewpoints 1 to (k? 1) and (k + 1) to N
  • Evaluation image N Only the viewpoint N is all white, and the images of the viewpoints 1 to (N-1) are all black.
  • a luminance meter that can move on the circumference at a certain distance on the front surface of the 3D display 60. 58 is moved from position A to position B and from position B to position C, and the luminance at each position is measured.
  • the luminance of the measurement point 61 at each position is measured while moving the luminance meter 58 at a constant interval (for example, at an interval of 1 degree).
  • step S103 “Luminance distribution” in the claims). Equivalent to “analysis step”).
  • FIG. 5 shows an example of the luminance distribution image in the evaluation image k generated in step S103.
  • a white portion means a high luminance portion
  • a black portion means a low luminance portion. Therefore, the observer 70 can perceive the bright spot on the 3D display 60 only when the light beam in the high brightness portion enters the eyes of the observer 70. In other words, even if the eyes of the viewer 70 are placed at a position other than the high brightness portion, the viewer 70 cannot perceive the light on the 3D display 60.
  • the luminance distribution image 80 is a region in front of the 3D display 60 on a plane orthogonal to the display surface 62 of the 3D display 60, particularly on a two-dimensional plane crossing the central horizontal plane of the 3D display 60 in FIG. Is an image showing the luminance distribution in the region between the 3D display 60 and the viewer 70.
  • the display surface 62 of the 3D display 60 is on the YZ plane
  • the luminance distribution image 80 shows the luminance distribution on the XY plane.
  • step S104 the luminance distribution state for each viewpoint is analyzed at all viewpoints of the 3D display, that is, the above-described processing in steps S101 to S103 is repeated for the number N of viewpoints, and luminance distribution images for each viewpoint (N sheets) are analyzed. ) Is generated (step S104).
  • the interocular luminance analysis unit 30 includes the interocular distance of the observer (the distance between the left and right eyes, approximately 6 out of the luminance distribution images for each viewpoint generated by the luminance distribution analysis unit 20 in step S104. .5cm) is extracted, and a stereoscopic vision determination image is generated by analyzing the contrast ratio of the luminance between the eyes of the observer using the extracted two luminance distribution images.
  • the “brightness contrast ratio” is the ratio of light that should enter and light that should not enter in the right eye and left eye of the observer (step S105, “interocular luminance analysis step” in the claims). Equivalent).
  • step S105 when an observer performs stereoscopic viewing at viewpoints 1 and 2, observation is performed when the image of viewpoint 1 is observed with the observer's right eye and the image of viewpoint 2 is observed with the observer's left eye. Stereoscopic viewing of the person becomes possible.
  • “stereoscopic vision” means that an observer perceives stereoscopically through a 3D display, and is also referred to as “binocular vision”.
  • FIG. 6 shows the two luminance distribution images 81 and 82 extracted in step S105.
  • FIG. 6A is a luminance distribution image 81 corresponding to the viewpoint 1 image observed with the observer's right eye
  • FIG. 6B is a luminance corresponding to the viewpoint 2 image observed with the observer's left eye. This is a distribution image 82.
  • the interocular distance of the observer corresponds to the e pixel on the luminance distribution image. That is, when the observer's right eye is placed on an arbitrary pixel (i, j) of the luminance distribution image 81 of the viewpoint 1, the observer's left eye is physically arranged at (i + e, j). Therefore, the value of the pixel (i + e, j) of the luminance distribution image 82 of the viewpoint 2 corresponds to the light beam luminance when the image of the viewpoint 2 is observed with the left eye.
  • the luminance of the viewpoint 1 observed with the right eye is the value of (i, j) of the luminance distribution image 81
  • the luminance of the image of the viewpoint 2 observed with the left eye is the value of (i + e, j) of the luminance distribution image 82.
  • the product of the two values can be defined as “interocular luminance”.
  • the ratio between the light that should enter both eyes and the light that does not enter is defined, that is, the brightness contrast, and the product is used.
  • the light of the viewpoint 2 image exists as leakage light in the right eye viewing the viewpoint 1 image. That is, when the right eye is at the position (i, j), the pixel value of (i, j) in the luminance distribution image 82 of the viewpoint 2 becomes leaked light to the right eye of the viewpoint 1.
  • the leakage light of the right eye can be obtained from the luminance distribution image 81 of the viewpoint 1 for the left eye looking at the viewpoint 2 as well.
  • the luminance contrast between the eyes when the luminance I 1 of the viewpoint 1 in the observer's right eye and the luminance I 2 of the viewpoint 2 in the observer's left eye are defined as the following expression (1): Can do.
  • equation (1) when the coordinates of the right eye in the luminance distribution image are (i, j) and the coordinates of the left eye are (i + e, j), the observer is at the center position (i + e / 2, j) between the eyes. As observed, the brightness contrast value between the two eyes is calculated based on the position of (i + e / 2, j).
  • the definition of the luminance contrast between both eyes is not limited to the above formula (1).
  • the denominator may be the total amount of light that can reach the eyes (see formula (4) described later).
  • the interocular luminance analysis unit 30 performs the processing described above for all pixel positions (i, j) of the luminance distribution image, that is, obtains the luminance contrast between the eyes at all positions on the luminance distribution image, and the result. Are combined and a stereoscopic vision determination image is generated.
  • FIG. 7 is a diagram illustrating an example of the stereoscopic vision determination image generated in step S105 described above.
  • FIG. 7A is an example of a stereoscopic vision determination image in the two-eye system
  • FIG. 7B is an example of a stereoscopic vision determination image in the five-eye system.
  • a white portion means a portion with high luminance contrast
  • a black portion means a portion with low luminance contrast. Therefore, when the eyes of the observer 70 (the right eye 71 and the left eye 72, see FIG. 6) are located in a portion with high luminance contrast, more specifically, the eyes 71 and 72 of the observer 70 are located in a portion with high luminance contrast.
  • the viewer 70 can perceive the bright spot on the 3D display 60.
  • the light on the 3D display 60 cannot be perceived even if the eyes 71 and 72 of the observer 70 are placed at positions other than the portion with high luminance contrast.
  • the stereoscopic vision determination images 91 and 92 are two-dimensional planes on the plane orthogonal to the display surface 62 of the 3D display 60, particularly the central horizontal plane of the 3D display 60, similar to the luminance distribution image 80 illustrated in FIG. 5. It is an image showing the luminance contrast in the area in front of the 3D display 60 and between the 3D display 60 and the viewer 70.
  • FIG. 7 shows a state in which the 3D display 60 is viewed from directly above.
  • the size of the stereoscopic vision determination images 91 and 92 is D pixels (a direction from the 3D display 60 toward the viewer 70) ⁇ W pixels (a horizontal direction).
  • each pixel of the stereoscopic vision determination images 91 and 92 and the luminance distribution image 80 and the position of the real space when the display 60 is actually observed are displayed. Can be matched. If the D pixel corresponds to the viewing distance 200 [cm] of the display 60, the width of one pixel in the D direction of the stereoscopic vision determination images 91 and 92 and the luminance distribution image 80 corresponds to 200 / D [cm]. become. Also, if the horizontal size W pixel represents 100 [cm] in real space, the width of one pixel in the horizontal direction corresponds to 100 / W [cm].
  • the stereoscopic vision determination images 91 and 92 which are images obtained as a result of the interocular luminance analysis are also the luminance distribution image 80 shown in FIG. Will be represented in the same coordinate system.
  • the stereoscopic vision determination unit 40 can stereoscopically view a region in front of the 3D display and a certain radial angle direction based on the stereoscopic vision determination image created in step S ⁇ b> 105 described above.
  • measurement point 61 in FIG. 4 an example in which there is one measurement point (measurement point 61 in FIG. 4) is shown, but measurement may be performed at a plurality of measurement points (for example, M locations).
  • M 3 points, the left and right ends and the center, are used as measurement points.
  • M types of stereoscopic vision determination images obtained as a result of the respective analyzes are generated by repeatedly performing the processes of steps S101 to S105 described above for each measurement point.
  • a method for obtaining a new stereoscopic vision determination image by combining the results of a plurality of measurement locations using the minimum value or the average value of each pixel can be considered. Whether or not stereoscopic vision is possible can be determined based on whether or not the value of each pixel of the new stereoscopic vision determination image is equal to or greater than a predetermined threshold value set in advance.
  • An integral 3D display does not have a concept of “viewpoint”, unlike a two-eye or multi-view system. Instead, the concept of “gaze direction” is used.
  • the optical characteristic evaluation apparatus 1 in the case of the integral type 3D display is basically the same as the two-view type or the multi-view type except for the difference between the concept of “viewpoint” and the concept of “gaze direction”. It is. In other words, except for the contents described separately below, the same as the contents described in the above item (Binocular system and Multi-lens system) can be applied to the integral system 3D display. That is, in the optical characteristic evaluation apparatus 1 in the case of the integral type 3D display, the luminance measuring unit 10 measures the luminance in the radiation angle direction of the light beam emitted from a predetermined measurement point on the 3D display.
  • the luminance distribution analysis unit 20 analyzes the luminance distribution state in the radiation angle direction of the light beam based on the luminance data measured by the luminance measurement unit 10, and generates a luminance distribution image of the light beam. Specifically, the luminance distribution analysis unit 20 analyzes the luminance distribution state for each gaze direction in all gaze directions of the 3D display, and generates a luminance distribution image for each gaze direction.
  • the interocular luminance analysis unit 30 analyzes the luminance perceived between the eyes of the observer based on the luminance distribution image, and generates a stereoscopic vision determination image.
  • the interocular luminance analysis unit 30 extracts two luminance distribution images corresponding to the interocular distance of the observer from the luminance distribution images for each line-of-sight direction generated by the luminance distribution analysis unit 20, and A stereoscopic vision determination image is generated by analyzing the contrast ratio of the luminance between the eyes of the observer using the two extracted luminance distribution images.
  • the stereoscopic vision determination unit 40 determines an area in front of the 3D display and a certain area in the radiation angle direction as a stereoscopically visible area based on the stereoscopic vision determination image.
  • the integral type 3D display is characterized in that images in a plurality of viewing directions can be simultaneously displayed at high density. That is, in the case of the integral type 3D display, the image can be observed at any distance as long as the images in the line-of-sight direction are in the same direction without depending on the observation distance to the 3D display.
  • Arbitrary gaze direction combinations are possible. For example, in the case of an integral type 3D display having light rays in N gaze directions, a combination of gaze directions that generate binocular parallax, that is, there is a possibility of establishing stereoscopic vision. There are N C 2 different combinations of gaze directions.
  • the luminance contrast To determine the luminance contrast, first, in each combination of the individual viewing direction (N C 2 combinations), as in the case of two-eye type obtaining the product of the luminance contrast.
  • the stereoscopic view possible area varies depending on the combination of the line-of-sight directions.
  • the integral type 3D display the sum of these combination areas becomes the stereoscopic view visible area of the 3D display. Assuming that an image in the line-of-sight direction with the maximum luminance can be seen, and considering other light as leakage light and adapting to the integral method, it is as follows.
  • the result of obtaining the stereoscopic vision determination image 91 using this equation (2) is FIG. 8, which shows light and dark with 256 monochrome gradations.
  • the high brightness portion (white portion) is a region having a high brightness contrast value obtained by the above equation (2), and the white portion can be determined as a region capable of stereoscopic viewing (binocular vision).
  • an area having a predetermined threshold luminance or higher for example, 125 gradations or higher
  • the integral type 3D display has been described above.
  • an example of one measurement point is shown, but measurement may be performed at a plurality of measurement points (for example, M locations). Thereby, a more accurate visible region can be obtained.
  • the minimum value in each pixel may be selected as in the above-described example of the binocular method.
  • the brightness contrast value can be obtained by the following equation (3).
  • FIG. 9 is a diagram illustrating a method of numbering in the line-of-sight direction in the first embodiment.
  • numbers are assigned in order from the left toward the display 60.
  • nn> kk it is determined to be “reverse vision” or a combination of gaze direction images that are observed as double images.
  • Step S201 In each pixel of the area occupied by the luminance distribution image and the stereoscopic vision determination image (area corresponding to D ⁇ W as shown in FIGS. 6 and 7), a light ray incident at the maximum luminance is detected.
  • Step S202 The sum of the luminances of all the light rays incident on the pixel is calculated, and a ratio (hereinafter referred to as “luminance value”) with the maximum luminance detected in step S201 is obtained.
  • Step S203 The luminance value in step S202 is calculated for all pixels, and a luminance distribution image is generated based on the calculated luminance value. At this time, the calculated value of the luminance value and the number of the line-of-sight direction in which the maximum luminance is incident are held in each pixel.
  • Step S204 The observer's right eye is sequentially arranged at the position (i, j) of each pixel. If the distance between the eyes of the observer corresponds to e pixels, the left eye will be placed at (i + e, j). Luminance values corresponding to the positions of both eyes of the observer are extracted from the luminance distribution image obtained in step S203, and calculation processing for stereoscopic vision determination (between eyes based on equation (1) in step S105 above) The result of performing processing such as the calculation of the brightness contrast value is substituted into the position (i + e / 2, j) of the stereoscopic vision determination image.
  • the line-of-sight direction numbers nn (left eye) and kk (right eye) registered in the pixels corresponding to the left and right eyes are extracted. If nn ⁇ kk, the above processing result remains a positive value. When nn> kk, a negative sign is added to the value of the above processing result. In other words, the value of the above processing result (the value of the luminance contrast ratio between both eyes recorded at the position (i + e / 2, j) of the stereoscopic vision determination image) is the light that should enter the right eye of the observer.
  • the sign does not change, but when the light that enters the right eye of the observer enters the left eye of the observer or the left eye of the observer If the light that should enter enters the right eye of the observer, it is accompanied by a change in sign. Thereby, the value of the luminance contrast ratio between both eyes in consideration of reverse vision can be calculated.
  • the stereoscopic vision determination image can be completed.
  • the luminance contrast value between both eyes substituted in the position (i + e / 2, j) is as follows. (4).
  • I kk right (i, j) represents a luminance value when an image in the line-of-sight direction kk enters the right eye at a position corresponding to (i, j)
  • I nn left (i + e, j ) Represents a luminance value when an image in the line-of-sight direction nn enters the left eye at a position corresponding to (i + e, j)
  • N represents the total number in the line-of-sight direction.
  • FIG. 10 shows an example of the stereoscopic vision determination image obtained in the above steps S201 to S204.
  • 10A shows a stereoscopic vision determination image 94 in the case of the binocular system
  • FIG. 10B shows a stereoscopic vision determination image 95 in the case of the 5-eye system as an example of the multi-eye system
  • FIG. A stereoscopic vision determination image 96 in the case of the integral method having 30 images in the line-of-sight direction is shown.
  • a portion with high luminance (white portion) represents a region where stereoscopic vision is established, and a black portion represents a region where “reverse vision” occurs.
  • a stereoscopic vision area (white area) and a reverse vision area (black area) appear alternately.
  • a stereoscopic vision area (white area) in the case of a five-eye display, a stereoscopic vision area (white area) is secured wider than the two-eye type, and the reverse vision area is stereoscopic. It can be confirmed that it appears small between the viewing areas.
  • a wider range of stereoscopic vision area in the case of an integral type display, a wider range of stereoscopic vision area (white portion) can be realized as compared with the binocular or multi-view type. You can see that
  • FIG. 11 shows the result of extracting the luminance contrast at a position away from the display 60 by a certain distance.
  • FIG. 11A shows a certain observation position (cross-sectional position indicated by a line 94B, in this example, a position 60 cm away from the display 60, from the stereoscopic vision determination image 94 in the case of the binocular system shown in FIG. And the result of this extraction is shown as a graph 94A in FIG. 11B.
  • a graph 95A in FIG. 11C shows a change in luminance contrast of the stereoscopic vision determination image 95 in the case of the five-eye system shown in FIG. 10B at the same observation position, and FIG.
  • a graph 96 ⁇ / b> A shows a change in luminance contrast of the stereoscopic vision determination image 96 in the integral method shown in FIG. 10C at the same observation position.
  • the horizontal axis indicates the observation position (the center of the horizontal axis corresponds to the front center position of the display 60), and the vertical axis indicates the luminance contrast value.
  • step S301, step S305, and step S306 are substantially the same procedure as step S201, step S203, and step S204 described above.
  • the difference between the following steps S301 to S306 and the above steps S201 to S204 is the difference in "how to interpret desired light and other light when creating a stereoscopic vision determination image". You can say that.
  • the “desired light” is only the light having the strongest luminance among the light rays distributed on the display surface, and all other light is leak light that is not desired. It is defined as On the other hand, in the following steps S301 to S306, not only the light beam having the strongest brightness but also all the light beams satisfying a specific condition are defined as “desired light”. Hereinafter, the procedure of steps S301 to S306 will be described in detail.
  • Step S301 In each pixel of the area occupied by the luminance distribution image and the stereoscopic vision determination image (area corresponding to D ⁇ W as shown in FIGS. 6 and 7), a light ray incident at the maximum luminance is detected.
  • Step S302 A lobe region in each pixel is defined for each of 1 to N line-of-sight directions.
  • the “lobe region” refers to a region (white portion) occupied by each light ray in a luminance distribution image (see, for example, FIG. 5).
  • FIG. 12 is a diagram for more specifically describing the “lobe region” in step S302. In FIG. 12, seven lobe regions are defined. Each lobe area is numbered as “Lobe 0” closest to the front of the display 60 and has a higher value as it goes to the right toward the display 60, and further left toward the display 60. Number so that it has a lower value as it goes to.
  • the pixels belonging to each lobe region are pixels that satisfy the boundary condition of the following formula (5). That is, the luminance value L (i, j) that satisfies the boundary condition of the following expression (5) using the preset threshold Th, the maximum luminance value Lmax in the lobe, and the minimum luminance value Lmin in the entire luminance distribution image as parameters. It can be said that a pixel having a pixel belongs to the lobe region.
  • FIG. 12 illustrates the maximum luminance value Lmax in the lobe 0 and the minimum luminance value Lmin in the entire luminance distribution image. A more detailed description of the “lobe region” will be given in a second embodiment to be described later.
  • Step S303 For each pixel, the sum of the luminance values belonging to the lobe numbered with the same number as the light beam having the maximum luminance detected in step S301 is obtained.
  • Step S304 For each pixel, the sum of the luminances of all the rays incident on the pixel is calculated, and the ratio (hereinafter referred to as “luminance value”) with the total luminance value of the same lobe calculated in step S303 is obtained.
  • Step S305 The luminance value in step S304 is calculated for all pixels, and a luminance distribution image (corresponding to the “luminance distribution image” in step S203 described above) is generated based on the calculated luminance value. At this time, the calculated value of the luminance value and the number of the line-of-sight direction in which the maximum luminance is incident are held in each pixel.
  • Step S306 The observer's right eye is sequentially arranged at the position (i, j) of each pixel. If the distance between the eyes of the observer corresponds to e pixels, the left eye will be placed at (i + e, j). Luminance values corresponding to the positions of both eyes of the observer are extracted from the luminance distribution image obtained in step S305, and calculation processing for stereoscopic vision determination (between eyes based on equation (1) in step S105 above) The result of performing processing such as the calculation of the brightness contrast value is substituted into the position (i + e / 2, j) of the stereoscopic vision determination image.
  • the line-of-sight direction numbers nn (left eye) and kk (right eye) registered in the pixels corresponding to the left and right eyes are extracted. If nn ⁇ kk, the above processing result remains a positive value. When nn> kk, a negative sign is added to the value of the above processing result. In other words, the value of the above processing result (the value of the luminance contrast ratio between both eyes recorded at the position (i + e / 2, j) of the stereoscopic vision determination image) is the light that should enter the right eye of the observer.
  • the sign does not change, but the light entering the observer's right eye enters the observer's left eye or the observer's left eye. If the light that should enter enters the right eye of the observer, it is accompanied by a change in sign. Thereby, the value of the luminance contrast ratio between both eyes in consideration of reverse vision can be calculated.
  • a stereoscopic determination image can be completed by performing the same processing for all positions of the stereoscopic determination image.
  • the above-described stereoscopic vision determination calculation processing when the geometric average of the luminance values of the left and right eyes is used, the luminance contrast value between both eyes that is substituted into the position (i + e / 2, j) is described above. (4)
  • the optical characteristic evaluation apparatus 1 of the first embodiment when the interocular luminance analysis unit 30 generates the stereoscopic vision determination image by analyzing the luminance perceived between the eyes of the observer based on the luminance distribution image, The stereoscopic vision determination unit 40 determines a stereoscopically viewable area based on the stereoscopic vision determination image. This can be applied regardless of the type of 3D display such as a twin-lens system, a multi-lens system, and an integral system. Therefore, according to the first embodiment, the optical characteristics can be evaluated without depending on the type of 3D display. In addition, it is possible to determine the stereoscopic viewable region only from the optical measurement data, instead of making a determination after the observer actually sees the 3D display.
  • the first embodiment it is possible to evaluate optical characteristics at all viewpoints of the 3D display by generating a luminance distribution image for each viewpoint.
  • the first embodiment it is possible to evaluate the optical characteristics in all the gaze directions of the 3D display by generating the luminance distribution image for each gaze direction.
  • the second embodiment described below is substantially the same as the content described in the item “How to Obtain a Luminance Distribution Image and a Stereoscopic Determination Image in Consideration of“ Backward Viewing ”, Part 2” in the first embodiment.
  • the “predetermined region corresponding to the mountain on the luminance distribution” in the following description is the “lobe region” in the first embodiment.
  • FIG. 13 is a schematic configuration diagram of the viewing angle characteristic verification device A1.
  • the viewing angle characteristic verification device A1 includes a luminance distribution inspection unit A110, a lobe detection unit A120, and a viewing angle characteristic verification unit A130 as functional components.
  • the luminance distribution inspection unit A110 measures the luminance in the radiation angle direction of the light beam emitted from a predetermined measurement point on the three-dimensional display, and inspects the luminance distribution with respect to the radiation angle for each viewpoint of the three-dimensional display. is there.
  • the lobe detection unit A120 detects a predetermined region corresponding to a mountain on the luminance distribution in the luminance distribution for each viewpoint when the luminance distribution forms a curve composed of a plurality of peaks and valleys.
  • the viewing angle characteristic verification unit A130 determines, for an arbitrary radiation angle, whether or not the arbitrary radiation angle belongs to a lobe for each viewpoint, and does not belong to the sum of luminance values when belonging An allowable luminance contrast that is a ratio to the total of the luminance values is obtained, and the viewing angle characteristics of the three-dimensional display are verified based on the allowable luminance contrast.
  • FIG. 14 is a hardware configuration diagram of the viewing angle characteristic verification device A1.
  • the viewing angle characteristic verification device A1 physically includes a main storage device such as a CPU (A11), a ROM (A12) and a RAM (A13), an input device A14 such as a keyboard and a mouse, and a display.
  • Output device A15 a communication module A16 for transmitting / receiving data to / from other devices, an auxiliary storage device A17 such as a hard disk, and the like.
  • the viewing angle characteristic verification device A1 includes a luminance meter A18.
  • the luminance meter A18 corresponds to the luminance distribution inspection unit A110 in FIG.
  • Each function of the viewing angle characteristic verification device A1 is controlled under the control of the CPU (A11) by loading predetermined computer software on hardware such as the CPU (A11), ROM (A12), and RAM (A13). This is realized by operating the input device A14, the output device A15, the communication module A16, and the luminance meter A18, and reading and writing data in the main storage devices A12 and A13 and the auxiliary storage device A17.
  • a flat panel display such as a liquid crystal display is provided with an optical element such as a lens and a shield such as a parallax barrier, and at least two viewpoint images are displayed at spatially different positions. It is something to do.
  • a 3D display capable of presenting N viewpoint videos is used. That is, the maximum number of viewpoints in the 3D display of the second embodiment is N.
  • an evaluation image hereinafter also referred to as “inspection image” is prepared.
  • N inspection images 1 to N are prepared. That means Inspection image 1: only the viewpoint image for viewpoint 1 is all white (lit), the viewpoint images for viewpoints 2 to N are all black (not lit)
  • Inspection image n Only the viewpoint image for viewpoint n is all white (lighted), and the viewpoint images for viewpoints 1 to (n ⁇ 1) and viewpoints (n + 1) to N are all black (not lit).
  • Inspection image N Only the viewpoint image for viewpoint N is all white (lit), and the viewpoint images for viewpoints 1 to (N-1) are all black (not lit)
  • a luminance meter that can move on the circumference at a certain distance on the front surface of the 3D display A20. While moving A18 from position A to position B, the luminance at each position is measured. Actually, the luminance of the measurement point A21 at each position is measured while moving the luminance meter A18 at a constant interval (for example, at intervals of 1 degree) so that a luminance distribution with sufficient accuracy can be obtained.
  • the luminance distribution inspection unit A110 measures the luminance in the radiation angle direction ⁇ of the light beam emitted along the surface A23 (virtual surface) orthogonal to the display surface A22 of the 3D display A20. To do. For example, when the 3D display A20 is installed perpendicularly (XY plane in FIG. 16) to the ground (YZ plane in FIG. 16), the plane A23 is a plane (YZ plane in FIG. 16) horizontal to the ground. That is, the luminance distribution inspection unit A110 displays the measurement point A21 (X on the display surface A22 of the 3D display A20 when the n (1 to N) th inspection images are displayed with respect to the number N of viewpoints of the 3D display A20.
  • FIG. 16B is a view of FIG. 16A as viewed from above.
  • the luminance distribution Ln (X, Y, ⁇ ) of the light beam radiated from the measurement point A21 is obtained based on the luminance measurement results at all positions for one inspection image n (step S403).
  • the luminance distribution Ln (X, Y, ⁇ ) obtained as a result is normally in the form as shown in FIG.
  • the luminance distribution Ln (X, Y, ⁇ ) forms a curve composed of a plurality of peaks and valleys.
  • the mountain located at the front part (small ⁇ ) of the 3D display is the highest, and becomes lower toward the peripheral part (large ⁇ ).
  • the luminance distribution Ln (X, Y, ⁇ ) can be measured at once by using, for example, an apparatus as described in Reference Document 1 below. .
  • Reference Document 1 ⁇ Reference 1> “VCMaster3D: A New Fourier Optics Viewing Angle Instrument for Characterization of Autostereoscopic 3D Displays”, leveraging Leroux et al., SID 09 DIGEST, pp.115-118
  • the lobe detector A120 detects a lobe from the luminance distribution Ln (X, Y, ⁇ ) by the luminance distribution inspection unit A110 (step S404).
  • the lobe is the same as the “Lobe” concept described in Reference 2 below.
  • the main lobe Mainnlobe
  • This mountain-shaped portion is called a side lobe.
  • This lobe generates a repetitive image at the time of 3D display observation, and an area (viewing area) in which a stereoscopic image can be observed on the 3D display is determined.
  • the lobe detection unit A120 obtains a range of ⁇ that satisfies the following formula (6), and detects a region corresponding to the ⁇ as a “region belonging to the lobe”.
  • L ( ⁇ ) is the luminance value at the radiation angle ⁇
  • Lmax is the maximum luminance value at the peak
  • Lmin is the smaller value of the minimum luminance values at the two valleys adjacent to the peak
  • the maximum luminance value Lmax at the highest peak located in the front part of the 3D display, the smaller value Lmin among the minimum luminance values at the two valleys adjacent to the peak, and a predetermined threshold Th are used.
  • a region corresponding to the range of ⁇ that satisfies the above formula (6) is displayed as a region M1 belonging to the main lobe.
  • Th represents a threshold value that defines the boundary of the lobe, and a numerical value such as 0.1 or 0.05 is selected.
  • a value based on the design element of the 3D display or the optical device configuration may be selected. For example, in the case of a 3D display that displays parallax information by disposing a lenticular lens on the front surface of a liquid crystal panel, a shielding region for light emitted from a light source is compared with a 3D display that uses a parallax barrier. Because there is almost no, the overall brightness is improved.
  • each lobe detected by the lobe detector A120 is relatively wide due to the influence of lens aberration and the like, and the peak of the luminance distribution constituting the lobe tends to draw a comparatively gentle curve. Therefore, by selecting a smaller value than the Th value in the 3D display characteristics evaluation using the barrier, as many regions as possible on the gentle curve are selected as lobes, and the influence of lens aberration and the overall distribution are selected. It is preferable to set the value of Th in consideration of the brightness of light. Further, as the value of Th, a value considering the degree of human visual recognition ability may be selected.
  • a setting method may be considered in which a region with a certain amount of light or less does not belong to a lobe region.
  • the value of Th may be set based on both the design elements and optical device configuration of the 3D display as described above and the human cognitive function.
  • step S405 the processing in steps S401 to S404 described above is repeated for the number of viewpoints, and the luminance distribution inspection unit A110 uses N types of inspection images for the total number of viewpoints N of the three-dimensional display.
  • the luminance distribution Ln (X, Y, ⁇ ) with respect to the radiation angle ⁇ is examined for each viewpoint.
  • the lobe detector A120 detects a region belonging to the lobe with respect to the luminance distribution Ln (X, Y, ⁇ ) for each viewpoint.
  • the viewing angle characteristic verification unit A130 determines, for an arbitrary radiation angle ⁇ , whether or not the arbitrary radiation angle ⁇ belongs to the lobe for each viewpoint, and the total luminance value in the case of belonging.
  • the permissible luminance contrast which is the ratio of the total luminance value when not belonging to the above, is obtained (step S406), and the viewing angle characteristics of the three-dimensional display are verified based on the permissible luminance contrast (step S407).
  • the allowable luminance contrast at the measurement point (X, Y) on the display surface of the 3D display can be calculated using the following formula (7).
  • Li and Lj are luminance distributions measured by the luminance distribution inspection unit A110, and i ⁇ l is an angle ⁇ at a point (X, Y) on the display surface when the inspection image i is turned on. Is included in the lobe l. on the other hand, Indicates that the angle ⁇ at the point (X, Y) on the display surface when the inspection image j is lit is not included in the lobe l.
  • Whether or not the arbitrary radiation angle ⁇ belongs to the arbitrary lobe is determined based on the “region belonging to the lobe” detected by the lobe detection unit A120 in the process of step S404 described above.
  • the viewing angle characteristic verification unit A130 determines whether or not the arbitrary radiation angle ⁇ is included in “”.
  • the viewing angle characteristic verification unit A130 can directly use the above formula (6) to check whether an arbitrary radiation angle ⁇ to be determined satisfies the formula (6).
  • the allowable luminance contrast Cl (X, Y, ⁇ ) obtained by the method described above is an arbitrary radiation angle ⁇ at the position (X, Y) on the display surface when the inspection images 1 to N are respectively turned on. Is the ratio of the sum of the brightness values belonging to the same lobe to the sum of the other brightness values. If the value of the permissible luminance contrast Cl calculated in this way is high, most of the luminance information when the display position (X, Y) is observed from the angle ⁇ direction does not adversely affect the integral design concept. It can be said that it consists of viewpoint images.
  • the allowable brightness contrast Cl is low, it means that there is a lot of adverse crosstalk, and as a result, when a stereoscopic video is displayed, there is a video that causes blurring or reverse viewing of the video. It shows that it is an observed factor.
  • the viewing angle characteristic verification device A1 of the second embodiment in a three-dimensional display of a type that assumes that a plurality of viewpoint images such as an integral type are observed by the same eye, among the overlapping of adjacent viewpoint images, The optical characteristics of the three-dimensional display are inspected by distinguishing an overlap that adversely affects the observed stereoscopic image from an overlap that does not necessarily have an adverse effect. Whether or not the overlap between adjacent viewpoint images has an adverse effect is determined based on whether or not the overlapping viewpoint images belong to different lobes that cause repeated images.
  • the luminance distribution inspection unit A110 performs luminance distribution with respect to the radiation angle for each viewpoint of the three-dimensional display based on the luminance value in the radiation angle direction of the light beam emitted from a predetermined measurement point on the three-dimensional display.
  • the lobe detection unit A120 obtains lobes that cause repeated images based on the luminance distribution of the light inspected by the luminance distribution inspection unit A110.
  • “lobe” refers to a predetermined region corresponding to a mountain when the luminance distribution with respect to the radiation angle forms a curve composed of a plurality of peaks and valleys.
  • the viewing angle characteristic verification unit A130 calculates, as the allowable luminance contrast, the ratio between the light that has an adverse effect and the light that does not necessarily have an adverse effect in the luminance distribution inspected by the luminance distribution inspection unit A110. Then, the viewing angle characteristic verification unit A130 verifies the viewing angle characteristic of the three-dimensional display based on the calculated allowable luminance contrast. As described above, it is possible to provide a viewing angle characteristic verification apparatus and method in consideration of the design philosophy of a 3D display of the type that assumes that a plurality of viewpoint images are observed by the same eye, such as an integral type. It becomes possible.
  • the luminance distribution inspection unit A110 is a surface orthogonal to the display surface of the three-dimensional display (for example, a surface horizontal to the ground when the three-dimensional display is installed perpendicular to the ground). The brightness in the radiation angle direction of the light beam emitted above is measured. Thereby, the luminance measurement according to the usage mode of the three-dimensional display becomes possible.
  • the second embodiment by using N types of inspection images for the total number of viewpoints N of the three-dimensional display, it is possible to appropriately inspect the luminance distribution for each viewpoint of the three-dimensional display. .
  • the luminance for each viewpoint of the three-dimensional display is obtained by using the inspection image n in which only the viewpoint image for the viewpoint n is lit and all the viewpoint images for the other are not lit.
  • the distribution can be examined appropriately.
  • the accuracy of detection of the region belonging to the lobe can be improved by appropriately adjusting the threshold Th based on the design element of the three-dimensional display and the optical device configuration.
  • the accuracy of detection of the region belonging to the lobe can be increased by appropriately adjusting the threshold Th according to the level of human visual recognition ability.
  • the luminance distribution Ln (X, Y, ⁇ ) is detected from only one point at the position (X, Y) on the display, and the allowable luminance contrast Cl (X, Y, ⁇ ) is calculated.
  • the optical characteristics of the three-dimensional display to be inspected may be verified based on the permissible luminance contrast Cl (X, Y, ⁇ ) calculated by the measurement of only one point, the luminance is measured for a plurality of measurement points on the display surface.
  • the distribution Ln (X, Y, ⁇ ) is inspected to determine the allowable luminance contrast Cl (X, Y, ⁇ ) at the plurality of positions, and the plurality of allowable luminance contrasts Cl (X, Y, ⁇ ) are used to determine the 3D display.
  • the optical characteristics may be verified.
  • the luminance distribution inspection unit A110 performs the above-described luminance measurement processing and luminance distribution inspection processing on a plurality of measurement points of the three-dimensional display
  • the lobe detection unit A120 performs the above-described luminance measurement processing and luminance distribution inspection processing on the plurality of measurement points.
  • the viewing angle characteristic verification unit A130 obtains the allowable luminance contrast for the plurality of measurement points, and the three-dimensional display of the three-dimensional display is based on the allowable luminance contrast obtained for the plurality of measurement points. The viewing angle characteristic may be verified.
  • the optical characteristics at more points on the display surface can be taken into account, so that more accurate characteristics of the stereoscopic display can be evaluated. Can do.
  • it is possible to simulate the distribution of brightness at multiple points on the display when the observer's position is assumed it is possible to simultaneously view viewpoint images belonging to different lobes when the display is observed. It is possible to objectively define a region where the image blurs due to the observation, and thus it is possible to inspect a region where a natural stereoscopic image can be observed.
  • m measurement points Pm [(X1, Y1), (X2, Y2),. , Y3)] can be recognized as a region where a natural stereoscopic image can be observed, where the allowable luminance contrast (for example, the average value of the allowable luminance contrast at each of the m locations) is a certain value or more. .
  • the luminance distribution inspection unit A110 is a luminance distribution in the horizontal direction on the ground (in FIG. 16, the direction on the plane A23 is the YZ plane). Only Ln (X, Y, ⁇ ) was examined. However, the present invention is not limited to this, and the luminance distribution inspection unit A110 further inspects the luminance distribution in the direction of the plane perpendicular to both the display surface of the three-dimensional display and the ground (the direction of the XZ plane in FIG. 16). May be.
  • the lobe detection unit A120 and the viewing angle characteristic verification unit A130 not only the ⁇ direction but also the ⁇ direction is processed in the same way as the process described above in the second embodiment, thereby finally allowing the allowable luminance.
  • the contrast Cl (X, Y, ⁇ , ⁇ ) can be obtained, and the optical characteristics of the stereoscopic display can be shown by the value of Cl (X, Y, ⁇ , ⁇ ).
  • the allowable luminance contrast is obtained by the ratio of the total luminance distribution belonging to a certain lobe and the total luminance distribution not belonging to it. That is, it is represented by the following formula (7).
  • the present invention is not limited to this, and the allowable luminance contrast can also be obtained by using the ratio of the total luminance distribution belonging to a certain lobe and the total of all luminance distributions regardless of whether or not they belong to the lobe. That is, C ′ represented by the following formula (8) may be set as the allowable luminance contrast.
  • Li and Lj are luminance distributions measured by the luminance distribution inspection unit A110, and i ⁇ l is an angle ⁇ at a point (X, Y) on the display surface when the inspection image i is turned on. Is included in the lobe l.
  • the denominator in the equation is the total of the results of measuring all the inspection images from 1 to N.
  • Optical characteristic evaluation apparatus 10 ... Luminance measurement part, 20 ... Luminance distribution analysis part, 30 ... Interocular luminance analysis part, 40 ... Stereoscopic determination part, 58 ... Luminance meter, 60 ... 3D display, 61 ... Measurement point, 62 ... display surface, 70 ... observer, 71 ... right eye, 72 ... left eye, 80, 81, 82 ... luminance distribution image, 91, 92, 91 ... stereoscopic vision determination image.
  • A1 ... Viewing angle characteristic verification device A110 ... Luminance distribution inspection unit, A120 ... Lobe detection unit, A130 ... Viewing angle characteristic verification unit, A18 ... Luminance meter, A20 ... Display, A21 ... Measurement point, A22 ... Display surface of display A20 .

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)

Abstract

【課題】光学特性の評価を3Dディスプレイの種類に依存せずに可能とする3次元ディスプレイの光学特性評価装置1および3次元ディスプレイの光学特性評価方法を提供する。 【解決手段】眼間輝度解析部30が輝度分布画像に基づき観察者の両眼間で知覚される輝度を解析することにより立体視判定画像を生成すると、立体視判定部40はこの立体視判定画像に基づき立体視可能領域を判定する。このことは、2眼方式、多眼方式、インテグラル方式等の3Dディスプレイの種類にかかわらず適用することができる。したがって、本実施形態の3次元ディスプレイの光学特性評価装置1および3次元ディスプレイの光学特性評価方法によれば、光学特性の評価を3Dディスプレイの種類に依存せずに行うことができる。

Description

3次元ディスプレイの光学特性評価装置および3次元ディスプレイの光学特性評価方法
 本発明は、3次元ディスプレイの光学特性評価装置および3次元ディスプレイの光学特性評価方法に関するものである。
 3次元ディスプレイ(以下、「3Dディスプレイ」ともいう。)の光学特性を評価するためには、スコープなどを用いて3Dディスプレイ上の例えば数箇所の計測点から放射される光線の分布状態を計測することが知られている。具体的には、計測点からの放射角度方向の輝度分布を計測する方式が一般的である。
 ところで、3Dディスプレイは、観察者が立体映像を知覚しているか否かが重要であるため、3Dディスプレイからの物理的な光線分布を計測するだけではなく、人が立体を知覚できるか否かを合わせて評価しなければならない。つまり、観察者の目に正確に光が投射されているか否かが、3Dディスプレイの光学特性を評価する上での一つの判断基準となる。そのため、3Dディスプレイの光学特性を評価するにあたっては、観察者の左右の目のそれぞれに対応する映像がクリアな映像として見えているか否かが、ポイントの一つとなる。一般には、左右の目に入るべき光を完全に分離することは難しく、望ましくない光が漏れ光(クロストーク)として目に入ってくる。つまり、観察者の目に、本来見えるべきではない映像の漏れ光がクロストークとして入ってくる。このクロストークの量は立体知覚の品質に影響を及ぼすため、立体視を矛盾無く知覚できるか否かの判定として、左右それぞれの目に入ってくる望ましい光とそうでない光の輝度コントラストを基準に3Dディスプレイの光学特性を評価することができる。例えば非特許文献1に記載の技術では、左右の目の3Dコントラストの積を用いて、3Dディスプレイの光学特性を評価する手法が提案されている。
 また、例えば非特許文献2に記載されているように、3Dディスプレイとして、2眼方式、多眼方式、インテグラル方式等の様々な手法が提案されている。2眼方式や多眼方式の3Dディスプレイでは、右目用および左目用の映像があらかじめ決められているため、上述した3Dコントラストに基づき、3Dディスプレイの光学特性を評価することができる。
Pierre M. Boher, Thibault Bignon, Thierry R. Leroux, "A new way to characterize auto-stereoscopic 3D displays using Fourier optics instrument," EI09, 7237-37 (2009) Taira K., Hamagishi G., Izumi K., Uehara S., Nomura T., Mashitani K., Miyazawa A., Koike T., Yuuki A., Horikoshi T., Hisatake Y., Ujike H. and Nakano Y., "Variation of Autostereoscopic displays and their measurements," IDW08, 3D2-2, 1103-1106 (2008)
 しかし、インテグラル方式の3Dディスプレイの場合、2眼方式や多眼方式の3Dディスプレイとは異なり、視点という概念が存在しない。つまり、インテグラル方式の3Dディスプレイは、左右の目の映像という意味づけはなく、物体から発される光線を忠実に再現することを目指した3Dディスプレイである。そのため、インテグラル方式の3Dディスプレイの光学特性を評価するにあたっては、従来の3Dコントラストを適用することができないという問題点があった。
 本発明は、上記の問題点に鑑みてなされたものであり、光学特性の評価を3Dディスプレイの種類に依存せずに可能とする3Dディスプレイの光学特性評価装置および3Dディスプレイの光学特性評価方法を提供することを目的とする。
 上記課題を解決するために、本発明の3次元ディスプレイの光学特性評価装置は、3次元ディスプレイ上の所定の計測点から放射される光線の放射角度方向の輝度を計測する輝度計測手段と、前記輝度計測手段により計測された輝度データに基づき、前記光線の前記放射角度方向の輝度分布状態を解析し、前記光線の輝度分布画像を生成する輝度分布解析手段と、前記輝度分布画像に基づき、観察者の両眼間で知覚される輝度を解析し、立体視判定画像を生成する眼間輝度解析手段と、前記立体視判定画像に基づき、前記3次元ディスプレイの前の領域であって前記放射角度方向の一定の領域を立体視可能領域として判定する立体視判定手段と、を備えることを特徴とする。
 また、本発明の3次元ディスプレイの光学特性評価方法は、輝度計測手段が、3次元ディスプレイ上の所定の計測点から放射される光線の放射角度方向の輝度を計測する輝度計測ステップと、輝度分布解析手段が、前記輝度計測手段により計測された輝度データに基づき、前記光線の前記放射角度方向の輝度分布状態を解析し、前記光線の輝度分布画像を生成する輝度分布解析ステップと、眼間輝度解析手段が、前記輝度分布画像に基づき、観察者の両眼間で知覚される輝度を解析し、立体視判定画像を生成する眼間輝度解析ステップと、立体視判定手段が、前記立体視判定画像に基づき、前記3次元ディスプレイの前の領域であって前記放射角度方向の一定の領域を立体視可能領域として判定する立体視判定ステップと、を備えることを特徴とする。
 このような本発明の3次元ディスプレイの光学特性評価装置および3次元ディスプレイの光学特性評価方法によれば、眼間輝度解析手段が輝度分布画像に基づき観察者の両眼間で知覚される輝度を解析することにより立体視判定画像を生成すると、立体視判定手段はこの立体視判定画像に基づき立体視可能領域を判定する。このことは、2眼方式、多眼方式、インテグラル方式等の3Dディスプレイの種類にかかわらず適用することができる。したがって、本発明の3次元ディスプレイの光学特性評価装置および3次元ディスプレイの光学特性評価方法によれば、光学特性の評価を3次元ディスプレイの種類に依存せずに行うことができる。
 前記輝度分布解析手段は、前記3次元ディスプレイの全ての視点において、各視点ごとの前記輝度分布状態を解析し、前記各視点ごとの前記輝度分布画像を生成する、ことが好ましい。
 このように各視点ごとの輝度分布画像を生成することにより、3次元ディスプレイの全ての視点において光学特性の評価を行うことができる。
 前記眼間輝度解析手段は、前記輝度分布解析手段が生成した前記各視点ごとの前記輝度分布画像のうち、前記観察者の眼間距離に相当する2つの輝度分布画像を抽出し、当該抽出した前記2つの輝度分布画像を用いて、前記観察者の前記両眼間における輝度のコントラスト比を解析することにより、前記立体視判定画像を生成する、ことが好ましい。
 各視点ごとの輝度分布画像のうちで抽出された観察者の眼間距離に相当する2つの輝度分布画像は、それぞれ観察者の右目および左目に相当する。
 前記輝度分布解析手段は、前記3次元ディスプレイの全ての視線方向において、各視線方向ごとの前記輝度分布状態を解析し、前記各視線方向ごとの前記輝度分布画像を生成する、ことが好ましい。
 このように各視線方向ごとの輝度分布画像を生成することにより、3次元ディスプレイの全ての視線方向において光学特性の評価を行うことができる。
 前記眼間輝度解析手段は、前記輝度分布解析手段が生成した前記各視線方向ごとの前記輝度分布画像のうち、前記観察者の眼間距離に相当する2つの輝度分布画像を抽出し、当該抽出した前記2つの輝度分布画像を用いて、前記観察者の前記両眼間における輝度のコントラスト比を解析することにより、前記立体視判定画像を生成する、ことが好ましい。
 各視線方向ごとの輝度分布画像のうちで抽出された観察者の眼間距離に相当する2つの輝度分布画像は、それぞれ観察者の右目および左目に相当する。
 前記輝度のコントラスト比は、前記観察者の右目および左目において、入るべき光と入るべきではない光との比である、ことが好ましい。
 本発明においては、観察者の右目および左目において入るべき光と入るべきではない光との比を3次元ディスプレイの光学特性評価の判断基準とすることが好ましい。
 前記輝度のコントラスト比の値は、前記観察者の右目に入るべき光が前記右目に入り且つ前記観察者の左目に入るべき光が前記左目に入った場合には、符号の変化を伴わず、前記観察者の右目に入るべき光が前記観察者の左目に入った場合、または前記観察者の左目に入るべき光が前記観察者の右目に入った場合には、符号の変化を伴う、ことが好ましい。
 この発明により、逆視を考慮した、輝度のコントラスト比の値を計算できる。
 前記立体視判定手段は、前記立体視判定画像において前記輝度のコントラスト比が所定の閾値を越える部分に相当する前記一定の領域を前記立体視可能領域として判定する、ことが好ましい。
 適切な閾値を設定することにより、立体視可能領域であるか否かの判断を容易に行うことができる。
 前記輝度分布画像および前記立体視判定画像は、前記3次元ディスプレイの表示面に直交する面上の前記領域における輝度分布を示す画像である、ことが好ましい。
 本発明において、輝度分布画像および立体視判定画像は、3次元ディスプレイの表示面に直交する面、特に3次元ディスプレイが通常の使用態様により設置された場合に地面に水平の面に対応する。そして、立体視判定手段は、この立体視判定画像に基づき、特に3次元ディスプレイが通常の使用態様により設置された場合に3次元ディスプレイの前の領域であって3次元ディスプレイから放射される光線の放射角度方向上の領域について、立体視可能領域であるか否かの判定を行うことができる。
 本発明によれば、光学特性の評価を3Dディスプレイの種類に依存せずに可能とする3次元ディスプレイの光学特性評価装置および3次元ディスプレイの光学特性評価方法を提供することができる。
第1実施形態にかかる光学特性評価装置1の構成概要図である。 光学特性評価装置1のハードウェア構成図である。 光学特性評価装置1の動作を説明するためのフローチャートである。 ステップS102にて、輝度計58が3Dディスプレイ60上の所定の計測点61から放射される光線の放射角度方向の輝度を計測する態様を示す図である。 ステップS103にて生成された輝度分布画像の一例を示す図である。 ステップS105で抽出された2つの輝度分布画像を示す図である。 ステップS105にて生成された立体視判定画像の一例(2眼方式および多眼方式の場合)を示す図である。 ステップS105にて生成された立体視判定画像(インテグラル方式の場合)の一例を示す図である。 逆視を考慮した場合の、視線方向の採番の仕方を示す図である。 逆視を考慮した場合に求めた立体視判定画像の一例を示す図である。 逆視を考慮した場合に、ディスプレイ60から一定距離だけ離れた位置で輝度コントラストを抽出した結果を示す図である。 第1実施形態におけるローブ領域を説明するための図である。 第2実施形態にかかる視野角特性検証装置A1の構成概要図である。 視野角特性検証装置A1のハードウェア構成図である。 視野角特性検証装置A1の動作を示すフローチャートである。 輝度分布検査部A110による輝度計測処理を説明するための図である。 輝度分布検査部A110が求めた輝度分布Ln(X,Y,θ)の一例を示す図である。 ローブ検出部A120がローブおよびローブに属する領域を検出する様子を説明するための図である。
 以下、添付図面を参照して本発明にかかる3次元ディスプレイの光学特性評価装置および3次元ディスプレイの光学特性評価方法の好適な実施形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
 [第1実施形態]
 (光学特性評価装置1の構成)
 まず、本発明の第1実施形態に係る光学特性評価装置1の構成について、図1を参照しながら説明する。図1は、光学特性評価装置1の構成概要図である。図1に示すように、光学特性評価装置1は、機能的な構成要素として、輝度計測部10(特許請求の範囲における「輝度計測手段」に相当)、輝度分布解析部20(特許請求の範囲における「輝度分布解析手段」に相当)、眼間輝度解析部30(特許請求の範囲における「眼間輝度解析手段」に相当)、および立体視判定部40(特許請求の範囲における「立体視判定手段」に相当)を備えて構成される。
 輝度計測部10は、3Dディスプレイ上の所定の計測点から放射される光線の放射角度方向の輝度を計測するものである。輝度分布解析部20は、輝度計測部10により計測された輝度データに基づき、光線の放射角度方向の輝度分布状態を解析し、光線の輝度分布画像を生成するものである。眼間輝度解析部30は、輝度分布画像に基づき、観察者の両眼間で知覚される輝度を解析し、立体視判定画像を生成するものである。立体視判定部40は、立体視判定画像に基づき、3Dディスプレイの前の領域であって放射角度方向の一定の領域を立体視可能領域として判定するものである。
 図2は、光学特性評価装置1のハードウェア構成図である。図2に示すように、光学特性評価装置1は、物理的には、CPU51、ROM52及びRAM53等の主記憶装置、キーボード及びマウス等の入力デバイス54、3Dディスプレイ等の出力デバイス55、他の装置との間でデータの送受信を行うための通信モジュール56、ハードディスク等の補助記憶装置57などを含む通常のコンピュータシステムとして構成される。更に、光学特性評価装置1は輝度計58を含む。この輝度計58は図1の輝度計測部10に相当するものである。光学特性評価装置1の各機能は、CPU51、ROM52、RAM53等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU51の制御の元で入力デバイス54、出力デバイス55、通信モジュール56、輝度計58を動作させると共に、主記憶装置52,53や補助記憶装置57におけるデータの読み出し及び書き込みを行うことで実現される。
 (光学特性評価装置1の動作)
 以下、光学特性評価装置1の動作(特許請求範囲の「3次元ディスプレイの光学特性評価方法」に相当)について図3のフローチャートを参照しながら詳細に説明する。なお、以下の説明では、2眼方式および多眼方式の3Dディスプレイについて先に説明し、インテグラル方式の3Dディスプレイについては項目(インテグラル方式)において別途説明する。2眼方式および多眼方式の3Dディスプレイにおいては視点の概念があるが、インテグラル方式の3Dディスプレイにおいては視点の概念がないからである。
 (2眼方式および多眼方式)
 以下、2眼方式および多眼方式の3Dディスプレイの場合の光学特性評価装置1の動作について、図3のフローチャートを参照しながら詳細に説明する。
 まず、図3に示す処理を行うための前提となる事項について説明する。第1実施形態では、N視点の映像を提示できる2眼方式または多眼方式の3Dディスプレイを用いることとする。つまり、第1実施形態の2眼方式または多眼方式の3Dディスプレイにおける視点の最大数はNである。最初に評価用画像を用意する。具体的には、1視点のみが全画面白(全白)の画像、他の視点の画像全てが全画面黒(全黒)の画像となるような評価用画像を視点の数だけ用意する。第1実施形態での視点の最大数がNであるため、N枚の評価用画像1~Nを準備する。つまり、
評価用画像1:視点1のみ全白、2~N視点の画像は全黒
評価用画像2:視点2のみ全白、視点1および視点3~Nの画像は全黒
・・・
評価用画像k:視点kのみ全白、視点1~(k?1)および(k+1)~Nの画像は全黒
・・・
評価用画像N:視点Nのみ全白、視点1~(N-1)の画像は全黒
となる。
 次に、各評価用画像k(k=1~N)を、順次3Dディスプレイに提示する(ステップS101)。そして、評価用画像kを提示した状態で、輝度計測部10が3Dディスプレイ上の所定の計測点から放射される光線の放射角度方向の輝度を計測する(ステップS102、特許請求の範囲の「輝度計測ステップ」に相当)。
 例えば、図4に示すように、3Dディスプレイ60の所定の計測ポイント61から発する光線の輝度分布を求めるために、3Dディスプレイ60の前面において、一定距離を置いて円周上に移動可能な輝度計58を位置Aから位置B、位置Bから位置Cのように移動させ、各位置での輝度を計測する。実際は輝度計58を一定間隔(例えば1度間隔)で移動させながら、各位置での計測ポイント61の輝度を計測する。
 次に、一つの評価用画像kに対して全ての位置での計測結果を合成し、計測ポイント61から放射される光線の輝度分布画像を生成する(ステップS103、特許請求の範囲の「輝度分布解析ステップ」に相当)。
 図5は、ステップS103にて生成された評価用画像kにおける輝度分布画像の一例を示す。図5に示す輝度分布画像80では、白い部分が高輝度部分を意味し、黒い部分は低輝度部分を意味する。そのため、高輝度部分での光線が観察者70の目に入るときのみ、観察者70は3Dディスプレイ60上の輝点を知覚することができる。言い換えれば、高輝度部分以外の位置に観察者70の目が置かれても、観察者70は3Dディスプレイ60上の光を知覚することはできない。また、輝度分布画像80は、3Dディスプレイ60の表示面62に直交する面上の、特に3Dディスプレイ60の中央水平面を横切る2次元平面上の、3Dディスプレイ60の前の領域であって図5においては3Dディスプレイ60と観察者70との間の領域における輝度分布を示す画像である。なお、図5において、3Dディスプレイ60の表示面62はYZ面上にあり、輝度分布画像80はXY面上における輝度分布を示す。
 次に、3Dディスプレイの全ての視点において、各視点ごとの輝度分布状態を解析し、つまり上述のステップS101~ステップS103の処理を視点の数Nだけ繰り返し、各視点ごとの輝度分布画像(N枚)を生成する(ステップS104)。
 次に、眼間輝度解析部30が、輝度分布解析部20がステップS104にて生成した各視点ごとの輝度分布画像のうち、観察者の眼間距離(左右の目の間の距離、約6.5cm)に相当する2つの輝度分布画像を抽出し、当該抽出した2つの輝度分布画像を用いて、観察者の両眼間における輝度のコントラスト比を解析することにより、立体視判定画像を生成する。ここで、「輝度のコントラスト比」とは、観察者の右目および左目において、入るべき光と入るべきではない光との比である(ステップS105、特許請求の範囲の「眼間輝度解析ステップ」に相当)。
 以下、ステップS105についてより詳細に説明する。例えば、視点1と視点2で観察者が立体視を行う場合には、視点1の画像が観察者の右目で観察され、且つ視点2の画像が観察者の左目で観察されるときに、観察者の立体視が可能となる。なお、「立体視」とは観察者が3Dディスプレイを通じて立体で知覚することをいい、「両眼視」ともいう。図6は、ステップS105で抽出された2つの輝度分布画像81,82を示す。図6(A)が観察者の右目で観察される視点1の画像に相当する輝度分布画像81であり、図6(B)が観察者の左目で観察される視点2の画像に相当する輝度分布画像82である。
 ここでは、観察者の眼間距離が輝度分布画像上ではe画素に対応するとする。つまり、視点1の輝度分布画像81の任意の画素(i,j)に観察者の右目をおいたときに、観察者の左目は、物理的には、(i+e,j)に配置される。そのため、視点2の輝度分布画像82の画素(i+e,j)の値が、左目で視点2の画像を観察したときの光線輝度に対応する。つまり、右目で観察される視点1の輝度を輝度分布画像81の(i,j)の値とし、左目で観察する視点2の画像の輝度を輝度分布画像82の(i+e,j)の値とした上で、2つの値の積を「眼間輝度」として定義することができる。
 実際は、漏れ光を考慮するために、双方の目に入るべき光と、そうでない光の比、すなわち輝度のコントラストを定義し、その積を用いる。例えば、視点1の画像を見ている右目には、視点2の画像の光が漏れ光として存在する。つまり、右目が(i,j)の位置にあるとき、視点2の輝度分布画像82の(i,j)の画素値が視点1の右目への漏れ光となる。また、視点2を見ている左目にも、同様に右目の漏れ光が、視点1の輝度分布画像81から得ることができる。つまり、観察者の右目における視点1の輝度I1、および観察者の左目における視点2の輝度I2を対象としたときの両眼間の輝度コントラストは、次の式(1)で定義することができる。
Figure JPOXMLDOC01-appb-M000001
 式(1)において、輝度分布画像における右目の座標が(i,j)、左目の座標が(i+e,j)であるとき、観察者は眼間の中央の位置(i+e/2,j)で観察したこととして、両眼間の輝度コントラストの値としては、(i+e/2,j)の位置を基準として算定する。なお、両眼間の輝度コントラストの定義は、上記の式(1)に限定されるものではない。例えば、分母を目に到達し得る光の総和としても良い(後述の式(4)参照)。
 眼間輝度解析部30は以上で説明した処理を輝度分布画像の全ての画素位置(i,j)について行い、つまり輝度分布画像上の全ての位置における両眼間の輝度コントラストを求め、その結果をまとめて合成することにより、立体視判定画像を生成する。
 図7は、以上説明したステップS105にて生成された立体視判定画像の一例を示す図である。図7(A)は2眼方式における立体視判定画像の一例であり、図7(B)は5眼方式における立体視判定画像の一例である。図7に示す立体視判定画像91,92では、白い部分が輝度コントラストの高い部分を意味し、黒い部分は輝度コントラストの低い部分を意味する。そのため、輝度コントラストの高い部分に観察者70の目(右目71および左目72、図6参照)が位置するときに、より具体的には輝度コントラストの高い部分に観察者70の目71,72の中央が位置するときに、観察者70は3Dディスプレイ60上の輝点を知覚することができる。言い換えれば、輝度コントラストの高い部分以外の位置に観察者70の目71,72が置かれても、3Dディスプレイ60上の光を知覚することはできない。また、立体視判定画像91,92は、図5に示した輝度分布画像80と同様に、3Dディスプレイ60の表示面62に直交する面上の、特に3Dディスプレイ60の中央水平面を横切る2次元平面上の、3Dディスプレイ60の前の領域であって、3Dディスプレイ60と観察者70との間の領域における輝度コントラストを示す画像である。
 なお、図7においては、図5または図6で示した3Dディスプレイ60や観察者70の目71,72は省略しているが、図5または図6と同様に、3Dディスプレイ60の表示面62はYZ面上にあり、立体視判定画像91,92はXY面上における輝度コントラストの分布を示す。また、図7は、3Dディスプレイ60を真上から見た状態を表している。このとき、立体視判定画像91,92のサイズは、D画素(3Dディスプレイ60から観察者70に向かう方向)xW画素(水平方向)となる。なお、DとWの実空間での距離を予め測っておくことで、立体視判定画像91,92や輝度分布画像80の各画素と、実際にディスプレイ60を観察したときの実空間の位置とをマッチングさせることができる。仮に、D画素がディスプレイ60の観察距離200[cm]に相当する場合、立体視判定画像91,92や輝度分布画像80のD方向の一画素の幅は200/D[cm]に対応することになる。また、仮に、横方向のサイズW画素が実空間で100[cm]を表すとしたときには、横方向の一画素の幅は100/W[cm]に相当する。また、観察者の目71,72は任意の位置に置くことができるため、眼間輝度解析の結果で得られる画像である立体視判定画像91,92も、図5に示した輝度分布画像80と同じ座標系で表されることになる。
 次に、図3に戻り、立体視判定部40が、上述したステップS105にて作成した立体視判定画像に基づき、3Dディスプレイの前の領域であって放射角度方向の一定の領域を立体視可能領域として判定する。より具体的には、立体視判定部40は、立体視判定画像において輝度のコントラスト比が所定の閾値を越える部分に相当する一定の領域を立体視可能領域として判定する。例えば、図7に示した一例においては、輝度のコントラスト比が所定の閾値を越える部分が白く表示されており、当該白い部分が立体視可能領域として判定される(ステップS106、特許請求の範囲の「立体視判定ステップ」に相当)。
 以上、2眼方式および多眼方式の3Dディスプレイについて説明した。以上の説明では、計測ポイントが一箇所の例(図4の計測ポイント61)を示したが、複数箇所の計測ポイント(例えばM箇所)で計測を行っても良い。例えば、M=3の場合は、左右端と中央の3箇所を計測ポイントとすることが考えられる。この場合には、各計測ポイント毎に、上述したステップS101~ステップS105の処理を繰り返し行うことで、それぞれの解析の結果で得られたM種類の立体視判定画像が生成される。これらの立体視判定画像において、例えば各画素の最小値あるいは平均値等を用いて、複数計測箇所の結果を合成した、新しい立体視判定画像を求める方法が考えられる。そして、この新しい立体視判定画像の各画素の値が、あらかじめ設定された所定の閾値以上か否かで、立体視可能か否かを判定することができる。
 (インテグラル方式)
 引き続き、インテグラル方式の3Dディスプレイの場合の光学特性評価装置1について説明する。インテグラル方式の3Dディスプレイでは、2眼方式や多眼方式とは異なり、「視点」の概念がない。その代わり、「視線方向」の概念が用いられる。
 インテグラル方式の3Dディスプレイの場合の光学特性評価装置1は、2眼方式や多眼方式に比べて、「視点」の概念と「視線方向」の概念の違い以外には、基本的には同一である。つまり、以下に別途記載する内容以外は、上述した(2眼方式および多眼方式)の項目で記載した内容と同じことがインテグラル方式の3Dディスプレイにおいても同様にいえる。すなわち、インテグラル方式の3Dディスプレイの場合の光学特性評価装置1において、輝度計測部10は、3Dディスプレイ上の所定の計測点から放射される光線の放射角度方向の輝度を計測する。輝度分布解析部20は、輝度計測部10により計測された輝度データに基づき、光線の放射角度方向の輝度分布状態を解析し、光線の輝度分布画像を生成する。具体的に、輝度分布解析部20は、3Dディスプレイの全ての視線方向において、各視線方向ごとの輝度分布状態を解析し、各視線方向ごとの輝度分布画像を生成する。眼間輝度解析部30は、輝度分布画像に基づき、観察者の両眼間で知覚される輝度を解析し、立体視判定画像を生成する。具体的に、眼間輝度解析部30は、輝度分布解析部20が生成した各視線方向ごとの輝度分布画像のうち、観察者の眼間距離に相当する2つの輝度分布画像を抽出し、当該抽出した2つの輝度分布画像を用いて、観察者の両眼間における輝度のコントラスト比を解析することにより、立体視判定画像を生成する。立体視判定部40は、立体視判定画像に基づき、3Dディスプレイの前の領域であって放射角度方向の一定の領域を立体視可能領域として判定する。
 以下、インテグラル方式の3Dディスプレイに特に関連する内容について記載する。インテグラル方式の3Dディスプレイは、同時に複数の視線方向の画像を高密度に提示できるという点が特徴である。つまり、インテグラル方式の3Dディスプレイの場合、3Dディスプレイまでの観察距離に依存せずに、当該視線方向の画像が同じ方向であれば、どの距離であっても観察できることになる。任意の視線方向の組み合わせが可能であるため、例えばN個の視線方向の光線を有するインテグラルタイプの3Dディスプレイ場合、両眼視差を発生させる視線方向の組み合わせは、つまり立体視を成立させる可能性のある視線方向の組み合わせは、N2通り存在する。
 輝度コントラストを求めるには、まず、個々の視線方向の組み合わせ(N2通り)それぞれにおいて、2眼方式の場合と同様に輝度コントラストの積を求める。視線方向の組み合わせにより、立体視可能領域は異なる。インテグラル方式の3Dディスプレイは、これら各組み合わせ領域の和が3Dディスプレイの立体視可視領域となる。輝度最大の視線方向の映像が見えると仮定し、その他の光を漏れ光として、インテグラル方式への適応を考えると、以下のようになる。つまり、ある視線方向kkの画像を右目で観察し、左目で視線方向nnの画像を観察するとき、右目では視線方向kkの画像以外の光は漏れ光となる。また、左目では、視線方向nnの画像以外の全ての光が漏れ光となる。以上を数式で表現すると、輝度コントラストとして次の式(2)が定義できる。
Figure JPOXMLDOC01-appb-M000002
 この式(2)を用いて、立体視判定画像91を求めた結果が、図8であり、モノクロ256階調で明暗を示している。高輝度の部分(白い部分)が上記の式(2)で求めた輝度コントラストの値が高い領域であり、当該白い部分を立体視(両眼視)が可能な領域として判定することができる。なお、図8に示す立体視判定画像93から所定の閾値輝度以上(例えば、125階調以上)の領域を立体視可能領域(両眼視可能領域)として判定することができる。
 以上、インテグラル方式の3Dディスプレイについて説明した。以上の説明では、計測ポイントが一箇所の例を示したが、複数箇所の計測ポイント(例えばM箇所)で計測を行っても良い。これにより、より正確な可視領域を求めることができる。複数箇所を計測した場合は、前述した2眼方式の例と同様に、例えば各画素での最小値を選択するようにしてもよい。この場合の輝度コントラストの値を下記の式(3)により求めることができる。
Figure JPOXMLDOC01-appb-M000003
 (逆視)
 引き続き、「逆視」について説明する。例えばインテグラル方式の3Dディスプレイにおいては、上述したように、仮にN個の視線方向の光線を有する場合、両眼視差を発生させる視線方向の組み合わせは、つまり立体視を成立させる可能性のある視線方向の組み合わせは、N2通り存在する。ここで、右目用の画像を左目に投影し、左目用の画像を右目に投影した場合、「逆視」と呼ばれる状態になってしまい、正確な立体視ができない状態となる。そこで、第1実施形態では、この「逆視」を立体視可否判断の考慮対象に含めるために、視線方向の採番の仕方に注目した。
 図9は、第1実施形態における視線方向の採番の仕方を示す図である。第1実施形態では、図9に示すように、ディスプレイ60に向かって、左から順番に採番する。これにより、観察者の左目に視線方向nnの画像が入り、右目に視線方向kkの画像が入るとき、nn、kkの数値が、nn<kkであれば、正常な立体視ができ得る組み合わせであり、両眼視差が成立する視線方向画像の組み合わせであれば立体視が可能となる。一方で、nn>kkであれば、「逆視」、あるいは二重像として観察されてしまう視線方向画像の組み合わせであると判断されることになる。なお、nn=kkの場合は、左右の目に同じ画像が見えている状態であり、立体ではなく、単なる2次元画像を観察している状態となる。
 (「逆視」を考慮した場合の輝度分布画像および立体視判定画像の求め方、その1)
 以下、「逆視」を考慮した場合の輝度分布画像および立体視判定画像の求め方(その1)について説明する。N個の視線方向の画像を有するインテグラル方式の3Dディスプレイの場合、視線方向の組み合わせはN2通りあり、これら全ての組み合わせについて、以下のステップS201~S204により輝度分布画像および立体視判定画像を求める。
 (ステップS201)
 輝度分布画像および立体視判定画像が占める領域(図6や図7に示したようなD×Wに相当する領域)の個々の画素において、最大輝度で入射する光線を検出する。
 (ステップS202)
 当該画素に入射する全ての光線の輝度の総和を算出し、上記ステップS201で検出した最大輝度との比(以下、「輝度値」という。)を求める。
 (ステップS203)
 全ての画素について上記ステップS202の輝度値を算出し、算出した輝度値に基づき、輝度分布画像を生成する。このとき、各画素には、輝度値の算出値及び最大輝度を入射した視線方向の番号が保持される。
 (ステップS204)
 各画素の位置(i,j)に順次、観察者の右目を配置する。観察者の眼間距離がe画素に対応するならば、左目は(i+e,j)に配置されることになる。上記ステップS203で求めた輝度分布画像から、観察者の両目の位置に対応する輝度値をそれぞれ取り出し、立体視判定のための演算処理(上記のステップS105で式(1)に基づき両眼間の輝度コントラストの値を演算したような処理)を行った結果を、立体視判定画像の(i+e/2,j)の位置に代入する。このとき、左右の目に対応する画素に登録されている視線方向の番号であるnn(左目)やkk(右目)を取り出し、nn≦kkの場合は、上記の処理結果を正の値のままとし、nn>kkの場合は、上記の処理結果の値に負の符号を付与する。つまり、上記の処理結果の値(立体視判定画像の(i+e/2,j)の位置に記録される両眼間の輝度コントラスト比の値)は、観察者の右目に入るべき光が右目に入り且つ観察者の左目に入るべき光が左目に入った場合には、符号の変化を伴わないが、観察者の右目に入るべき光が観察者の左目に入った場合、または観察者の左目に入るべき光が観察者の右目に入った場合には、符号の変化を伴う。これにより、逆視を考慮した、両眼間の輝度コントラスト比の値を計算できる。
 立体視判定画像の全ての位置に対して同様の処理を行うことにより、立体視判定画像を完成できる。なお、上記の立体視判定演算処理の例として、左右の目の輝度値の相乗平均を用いた場合、(i+e/2,j)の位置に代入される両眼間の輝度コントラストの値を次の式(4)で表すことができる。
Figure JPOXMLDOC01-appb-M000004
 ただし、式(4)において、Ikk right(i,j)は(i,j)の相当する位置において視線方向kkの画像が右目に入る場合の輝度値を表し、Inn left(i+e,j)は(i+e,j)の相当する位置において視線方向nnの画像が左目に入る場合の輝度値を表し、Nは視線方向の総数を表す。
 以上、「N個の視線方向の画像を有するインテグラル方式の3Dディスプレイの場合」を一例として説明したが、「2眼方式および多眼方式の3Dディスプレイの場合」についても、同様のことが言える。この場合、上記のステップS201~S204の説明において、「N個の視線方向の画像」を「N個の視点画像」と置き換える。
 図10は、上記のステップS201~S204により求めた立体視判定画像の一例を示す。図10(A)は2眼方式の場合の立体視判定画像94を、図10(B)は多眼方式の例として5眼方式の場合の立体視判定画像95を、図10(C)は30個の視線方向の画像を有するインテグラル方式の場合の立体視判定画像96をそれぞれ示す。輝度の高い部分(白い部分)は立体視が成立している領域を表し、黒い部分は「逆視」が生じている領域を表す。図10(A)の立体視判定画像94に示すように、2眼ディスプレイの場合には、立体視領域(白い領域)と逆視領域(黒い領域)が小まめに交互に現れている。また、図10(B)の立体視判定画像95に示すように、5眼ディスプレイの場合には、2眼タイプに比べて、立体視領域(白い領域)が広く確保され、逆視領域は立体視領域の間に小さく現れていることが確認できる。また、図10(C)の立体視判定画像96に示すように、インテグラル型のディスプレイの場合には、2眼や多眼タイプに比べて更に広範囲な立体視領域(白い部分)が実現できていることがわかる。
 図11は、ディスプレイ60から一定距離だけ離れた位置で輝度コントラストを抽出した結果を示す。図11(A)は、図10(A)に示した2眼方式の場合の立体視判定画像94から、ある観察位置(線94Bで示す断面位置、この例においてはディスプレイ60から60cm離れた位置に相当する)における輝度コントラストの変動を抽出することを示し、この抽出の結果が図11(B)にグラフ94Aとして示されている。同様に、図11(C)のグラフ95Aは同じ観察位置で図10(B)に示した5眼方式の場合の立体視判定画像95の輝度コントラストの変動を示しており、図11(D)のグラフ96Aは同じ観察位置で図10(C)に示したインテグラル方式の場合の立体視判定画像96の輝度コントラストの変動を示している。なお、図11(B)~(D)において、横軸は観察位置(横軸の中央がディスプレイ60の正面中央位置に対応)を示し、縦軸は輝度コントラスト値を示している。
 図11(B)に示すグラフ94Aでは、輝度コントラスト値が高い領域と低い領域が交互に現れている。つまり、クリアな立体視画像が観察できる領域と、逆視領域が交互に現れていることがこのグラフから把握できる。図11(C)に示すグラフ95Aでは、グラフ94Aに比べて輝度コントラストの値が高い部分が平坦になっており(95Bの部分)、立体視可能な領域の方が逆視領域の出現頻度よりも多くなっていることがわかる。図11(D)に示すグラフ96Aでは、グラフ95Aに比べて輝度コントラストの値が高い部分が更に平坦になっており(96Bの部分)、立体視可能な領域の方が逆視領域の出現頻度よりも更に多くなっていることがわかる。つまり、インテグラル方式の場合は、観察位置を変えても逆視にならず、異なる視線方向の3D表示が滑らかに切り替わっている。言い換えれば、運動視差が実現できていることがわかる。このように、第1実施形態によれば、輝度コントラストの変動グラフの変動幅、および変動の頻度から、3Dディスプレイの見え方の特徴を評価することが可能となる。
 (「逆視」を考慮した場合の輝度分布画像および立体視判定画像の求め方、その2)
 以下、「逆視」を考慮した場合の輝度分布画像および立体視判定画像の求め方(その2)について説明する。下記の手順において、ステップS301、ステップS305およびステップS306は、前述したステップS201、ステップS203およびステップS204と実質的に同じ手順である。下記のステップS301~S306の手順と、上記のステップS201~S204の手順との違いは、「立体視判定画像を作成するにあたって、所望の光とそうでない光をどのように解釈するか」の違いであるといえる。すなわち、上記のステップS201~S204の手順では、「所望の光」は、ディスプレイ表面に分布する光線のうち、最も強い輝度を持つ光線のみであり、その他の光は全て所望としない漏れ光であると定義している。一方、下記のステップS301~S306の手順では、最も強い輝度を持つ光線のみならず、特定の条件を満たす光線であればそれらの全てを「所望の光」と定義している。以下、ステップS301~S306の手順について詳細に説明する。
 (ステップS301)
 輝度分布画像および立体視判定画像が占める領域(図6や図7に示したようなD×Wに相当する領域)の個々の画素において、最大輝度で入射する光線を検出する。
 (ステップS302)
 1~N個の視線方向それぞれについて、各画素におけるローブ領域を定義する。ここで、「ローブ領域」とは、輝度分布画像(例えば図5を参照)において各光線が占める領域(白い部分)のことをいう。図12は、ステップS302における「ローブ領域」についてより具体的に説明するための図である。図12には、7つのローブ領域が定義されている。各ローブ領域は、ディスプレイ60の正面に最も近いものを「ローブ0」と採番し、且つディスプレイ60に向かって右に行くほど高い値を持つように採番し、更にディスプレイ60に向かって左に行くほど低い値を持つように採番する。
 各ローブ領域に属する画素は、下記の式(5)の境界条件を満たす画素である。すなわち、予め設定した閾値Th、当該ローブ中の最大輝度値Lmax、および輝度分布画像全体における最小輝度値Lminをパラメータとして、下記の式(5)の境界条件を満たす輝度値L(i、j)を有する画素は、当該ローブ領域に属する画素といえる。なお、図12には、ローブ0中の最大輝度値Lmax、および輝度分布画像全体における最小輝度値Lminが例示されている。なお、「ローブ領域」に対するより詳細な説明は後述の第2実施形態で行う。
Figure JPOXMLDOC01-appb-M000005
 (ステップS303)
 各画素について、上記ステップS301で検出された最大輝度の光線と同一の番号が採番されたローブに属する輝度値の合計を求める。
 (ステップS304)
 各画素について、当該画素に入射する全ての光線の輝度の総和を算出し、上記ステップS303で算出された同一ローブの合計輝度値との比(以下、「輝度値」という。)を求める。
 (ステップS305)
 全ての画素について上記ステップS304の輝度値を算出し、算出した輝度値に基づき、輝度分布画像(上述したステップS203における「輝度分布画像」に相当するもの)を生成する。このとき、各画素には、輝度値の算出値及び最大輝度を入射した視線方向の番号が保持される。
 (ステップS306)
 各画素の位置(i,j)に順次、観察者の右目を配置する。観察者の眼間距離がe画素に対応するならば、左目は(i+e,j)に配置されることになる。上記ステップS305で求めた輝度分布画像から、観察者の両目の位置に対応する輝度値をそれぞれ取り出し、立体視判定のための演算処理(上記のステップS105で式(1)に基づき両眼間の輝度コントラストの値を演算したような処理)を行った結果を、立体視判定画像の(i+e/2,j)の位置に代入する。このとき、左右の目に対応する画素に登録されている視線方向の番号であるnn(左目)やkk(右目)を取り出し、nn≦kkの場合は、上記の処理結果を正の値のままとし、nn>kkの場合は、上記の処理結果の値に負の符号を付与する。つまり、上記の処理結果の値(立体視判定画像の(i+e/2,j)の位置に記録される両眼間の輝度コントラスト比の値)は、観察者の右目に入るべき光が右目に入り且つ観察者の左目に入るべき光が左目に入った場合には、符号の変化を伴わないが、観察者の右目に入るべき光が観察者の左目に入った場合、または観察者の左目に入るべき光が観察者の右目に入った場合には、符号の変化を伴う。これにより、逆視を考慮した、両眼間の輝度コントラスト比の値を計算できる。
 立体視判定画像の全ての位置に対して同様の処理を行うことにより、立体視判定画像を完成できる。なお、上記の立体視判定演算処理の例として、左右の目の輝度値の相乗平均を用いた場合、(i+e/2,j)の位置に代入される両眼間の輝度コントラストの値を上述した式(4)で表すことができる。
 (光学特性評価装置1の作用及び効果)
 続いて、第1実施形態にかかる光学特性評価装置1の作用及び効果について説明する。第1実施形態の光学特性評価装置1によれば、眼間輝度解析部30が輝度分布画像に基づき観察者の両眼間で知覚される輝度を解析することにより立体視判定画像を生成すると、立体視判定部40はこの立体視判定画像に基づき立体視可能領域を判定する。このことは、2眼方式、多眼方式、インテグラル方式等の3Dディスプレイの種類にかかわらず適用することができる。したがって、第1実施形態によれば、光学特性の評価を3Dディスプレイの種類に依存せずに行うことができる。また、観察者が実際に3Dディスプレイを見てから判断することではなく、光学測定データのみから立体視可能領域を判定することができる。
 また、第1実施形態によれば、各視点ごとの輝度分布画像を生成することにより、3Dディスプレイの全ての視点において光学特性の評価を行うことができる。
 また、第1実施形態によれば、各視線方向ごとの輝度分布画像を生成することにより、3Dディスプレイの全ての視線方向において光学特性の評価を行うことができる。
 [第2実施形態]
 引き続き、本発明の別の側面を第2実施形態として説明する。以下で説明する第2実施形態は、第1実施形態の項目「「逆視」を考慮した場合の輝度分布画像および立体視判定画像の求め方、その2」で説明した内容と実質的に共通する。例えば、下記の説明における「輝度分布上の山に応じた所定の領域」とは第1実施形態における「ローブ領域」のことである。
 (視野角特性検証装置A1の構成)
 まず、本発明の第2実施形態に係る視野角特性検証装置A1の構成について、図13を参照しながら説明する。図13は、視野角特性検証装置A1の構成概要図である。図13に示すように、視野角特性検証装置A1は、機能的な構成要素として、輝度分布検査部A110、ローブ検出部A120、および視野角特性検証部A130を備えて構成される。
 輝度分布検査部A110は、3次元ディスプレイ上の所定の計測点から放射される光線の放射角度方向の輝度を計測し、3次元ディスプレイの各視点ごとの、放射角度に対する輝度分布を検査するものである。ローブ検出部A120は、輝度分布が複数の山と谷からなる曲線を成した場合に、各視点ごとの輝度分布において、輝度分布上の山に応じた所定の領域を検出するものである。視野角特性検証部A130は、任意の放射角度に対して、当該任意の放射角度が各視点ごとのローブ内に属するか否かを判断し、属した場合の輝度値の合計と属していない場合の輝度値の合計との比である許容輝度コントラストを求め、当該許容輝度コントラストに基づき、3次元ディスプレイの視野角特性を検証するものである。
 図14は、視野角特性検証装置A1のハードウェア構成図である。図14に示すように、視野角特性検証装置A1は、物理的には、CPU(A11)、ROM(A12)及びRAM(A13)等の主記憶装置、キーボード及びマウス等の入力デバイスA14、ディスプレイ等の出力デバイスA15、他の装置との間でデータの送受信を行うための通信モジュールA16、ハードディスク等の補助記憶装置A17などを含む通常のコンピュータシステムとして構成される。更に、視野角特性検証装置A1は輝度計A18を含む。この輝度計A18は図13の輝度分布検査部A110に相当するものである。視野角特性検証装置A1の各機能は、CPU(A11)、ROM(A12)、RAM(A13)等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU(A11)の制御の元で入力デバイスA14、出力デバイスA15、通信モジュールA16、輝度計A18を動作させると共に、主記憶装置A12,A13や補助記憶装置A17におけるデータの読み出し及び書き込みを行うことで実現される。
 (視野角特性検証装置A1の動作)
 以下、視野角特性検証装置A1の動作について図15のフローチャートを参照しながら詳細に説明する。
 まず、図15に示す処理を行うための前提となる事項について説明する。第2実施形態では、インテグラル式のような、複数の視点画像を同一の眼に観察させることを想定するタイプの3Dディスプレイに対して視野角特性を検証することとする。この3Dディスプレイは、液晶ディスプレイなどのフラットパネルディスプレイの表面に、レンズのような光学素子やパララックスバリアなどの遮蔽物を配置したものであり、空間的に異なる位置に少なくとも2つの視点画像を表示する類のものである。また、第2実施形態では、N視点の映像を提示できる3Dディスプレイを用いることとする。つまり、第2実施形態の3Dディスプレイにおける視点の最大数はNである。最初に評価用画像(以後、「検査用画像」ともいう。)を用意する。具体的には、1視点のみが全画面白(全白、点灯)の画像、他の視点の画像全てが全画面黒(全黒、非点灯)の画像となるような検査用画像を視点の数だけ用意する。第2実施形態では視点の最大数がNであるため、N枚の検査用画像1~Nを準備する。つまり、
検査用画像1:視点1に対する視点画像のみ全白(点灯)、視点2~Nに対する視点画像は全黒(非点灯)
検査用画像2:視点2に対する視点画像のみ全白(点灯)、視点1および視点3~Nに対する視点画像は全黒(非点灯)
・・・
検査用画像n:視点nに対する視点画像のみ全白(点灯)、視点1~(n-1)および視点(n+1)~Nに対する視点画像は全黒(非点灯)
・・・
検査用画像N:視点Nに対する視点画像のみ全白(点灯)、視点1~(N-1)に対する視点画像は全黒(非点灯)
 次に、各検査用画像n(n=1~N)を、順次3Dディスプレイに提示する(ステップS401)。そして、検査用画像nを提示した状態で、輝度分布検査部A110が3Dディスプレイ上の所定の計測点から放射される光線の放射角度方向の輝度を計測する(ステップS402)。
 例えば、図16に示すように、3DディスプレイA20の所定の計測点A21から発する光線の輝度分布を求めるために、3DディスプレイA20の前面において、一定距離を置いて円周上に移動可能な輝度計A18を位置Aから位置Bに移動させながら、各位置での輝度を計測する。実際は、十分な精度の輝度分布が得られるよう、輝度計A18を一定間隔(例えば1度間隔)で移動させながら、各位置での計測点A21の輝度を計測する。また、第2実施形態では、輝度分布検査部A110は、3DディスプレイA20の表示面A22に直交する面A23(仮想の面)に沿って放射される光線の当該放射角度方向θでの輝度を計測する。面A23は、例えば、3DディスプレイA20を地面(図16ではYZ面)に垂直(図16ではXY面)に設置した場合には、地面に水平の面(図16ではYZ面)である。すなわち、輝度分布検査部A110は、3DディスプレイA20の視点数Nに対して、n(1~N)番目の検査用画像を表示した際の、3DディスプレイA20の表示面A22の計測点A21(X、Y)から発せられる光線の、水平方向の輝度値を検査する。「水平方向」とは、図16でいうと、面A23上の方向である。なお、図16において、図16(B)は図16(A)を上から見た図である。
 次に、一つの検査用画像nに対して全ての位置での輝度計測結果を元に、計測点A21から放射される光線の輝度分布Ln(X,Y,θ)を求める(ステップS403)。これにより得られる輝度分布Ln(X,Y,θ)は、通常図17のような態様となる。図17に示されるように、輝度分布Ln(X,Y,θ)は複数の山と谷からなる曲線を成す。一般的に3Dディスプレイの正面部(θが小さい)に位置する山が最も高く、周辺部(θが大きい)に向かうに従って低くなる。なお、以上のような輝度計測方法以外に、例えば下記の参考文献1に記載されたような装置を用いることで、輝度分布Ln(X,Y,θ)を一度に計測することも可能である。
<参考文献1>
 “VCMaster3D:A New Fourier Optics Viewing Angle Instrument for Characterization of Autostereoscopic 3D Displays”, Thierry Leroux他, SID 09 DIGEST, pp.115-118
 次に、ローブ検出部A120が、輝度分布検査部A110による輝度分布Ln(X,Y,θ)から、ローブを検出する(ステップS404)。ローブとは、下記の参考文献2に記述された”Lobe”のコンセプトと同様のものである。図18に示されるように、輝度分布曲線Ln(X,Y,θ)のうち、山型となる部分で最も正面方向(θ=0)に近いものをメインローブ(Mainlobe)といい、それ以外の山型部分をサイドローブ(Sidelobe)という。図示はしないが、視点画像を変化させたとき、同じローブは徐々に角度が変化した方向で連続的に現れる。各ローブ間の角度については、3Dディスプレイの設計値によって異なる。このローブにより、3Dディスプレイ観察時の繰り返し画像が発生することとなり、その3Dディスプレイで立体映像を観察できる領域(視域)が決まる。
<参考文献2>
 “MeThodology of Optical Measurement for Autostereoscopic Displays", Proc. of IDW'08, pp.1107-1110
 また、ローブ検出部A120は、下記の数式(6)を満たすθの範囲を求め、当該θに対応する領域を「ローブに属する領域」として検出する。
Figure JPOXMLDOC01-appb-M000006
 (ただし、L(θ)は放射角度θでの輝度値であり、Lmaxは山における最大輝度値であり、Lminは該山に隣り合う二つの谷における最小輝度値のうち小さい値であり、Thは所定の閾値である。)
 図18に示されるように、3Dディスプレイの正面部に位置する最も高い山における最大輝度値Lmax、該山に隣り合う二つの谷における最小輝度値のうち小さい値Lmin、および所定の閾値Thを用いて、上記の数式(6)を満たすθの範囲に相当する領域がメインローブに属する領域M1として表示されている。
 ここで、Thはローブの境界を規定する閾値を表しており、例えば0.1や0.05などの数値を選択する。このThの値としては、3Dディスプレイの設計要素や光学的装置構成を元にした値を選択してもよい。例えば、レンチキュラーレンズを液晶パネルの前面に配置することで視差情報を表示するような方式の3Dディスプレイの場合、パララックスバリアを用いた3Dディスプレイに比べ、光源から発せられた光に対して遮蔽領域がほとんどないため、全体的な明るさが向上する。これとともに、レンズ収差の影響などにより、ローブ検出部A120で検出された各ローブは比較的広く、かつローブを構成する輝度分布の山型が比較的なだらかな曲線を描く傾向がある。よって、バリアを用いた3Dディスプレイの特性評価でのThの値に比べて小さい値を選択することで、なだらかな曲線のなるべく多くの領域をローブとして選択し、レンズ収差の影響や全体的に分布する光の明るさを考慮したThの値とすることが好ましい。また、Thの値として、人間の視覚認知能力の程度を考慮した値を選択してもよい。例えば、ヒトの桿体細胞の検知限界を基準に、一定の光量以下の領域はローブ領域に属しないとするような設定方法などが考えられる。更に、前述したような3Dディスプレイの設計要素や光学的装置構成と、ヒトの認知機能との双方を元に、Thの値を設定するようにしても良い。
 次に、図15に示されるように、3Dディスプレイの全ての視点において、各視点ごとの輝度分布を検査し且つ上記の数式(6)を用いてローブに属する領域を検出する(ステップS405)。つまり上述のステップS401~ステップS404の処理を視点の数だけ繰り返すこととなり、輝度分布検査部A110は、3次元ディスプレイの総視点数Nに対して、N種類の検査用画像を用い、3次元ディスプレイの各視点ごとの、放射角度θに対する輝度分布Ln(X,Y,θ)を検査する。また、ローブ検出部A120は各視点ごとの輝度分布Ln(X,Y,θ)に対してローブに属する領域を検出する。
 次に、視野角特性検証部A130が、任意の放射角度θに対して、当該任意の放射角度θが各視点ごとのローブ内に属するか否かを判断し、属した場合の輝度値の合計と属していない場合の輝度値の合計との比である許容輝度コントラストを求め(ステップS406)、当該許容輝度コントラストに基づき、3次元ディスプレイの視野角特性を検証する(ステップS407)。3Dディスプレイの表示面上の計測点(X、Y)における許容輝度コントラストは、以下の数式(7)を用いて計算することができる。
Figure JPOXMLDOC01-appb-M000007
 ここで、LiおよびLjは輝度分布検査部A110により計測された輝度分布であって、i∈lとは、検査用画像iを点灯させたときのディスプレイ表面の点(X、Y)における角度θが、ローブl内に含まれているということを示している。一方、
Figure JPOXMLDOC01-appb-M000008
 とは、検査用画像jを点灯させたときのディスプレイ表面の点(X、Y)における角度θが、ローブl内に含まれていないということを示している。
 なお、任意の放射角度θに対して、当該任意の放射角度θが任意のローブ内に属するか否かの判断は、前述したステップS404の処理においてローブ検出部A120が検出した「ローブに属する領域」に当該任意の放射角度θが含まれるか否かを、視野角特性検証部A130が判断することで行われる。または、視野角特性検証部A130が上記の数式(6)を直接利用し、判断対象となる任意の放射角度θが数式(6)を満たすか否かを確認することによって行うこともできる。
 以上説明したような方法で得られる許容輝度コントラストCl(X,Y,θ)は、検査用画像1~Nをそれぞれ点灯した際のディスプレイ表面の位置(X、Y)における任意の放射角度θでの輝度のうち、同一ローブに属する輝度値の合計と、それ以外の輝度値の合計の比となる。このように計算された許容輝度コントラストClの値が高ければ、ディスプレイ位置(X、Y)を角度θ方向から観察したときの輝度情報は、その多くがインテグラル式の設計思想において悪影響を及ぼさない視点画像からなるものであることがいえる。一方、許容輝度コントラストClの値が低ければ、悪影響を及ぼすクロストークを多く含んでいることを意味しており、結果として立体映像を表示した場合に映像のボケや逆視の原因となる映像が観察される要因となることを示している。
 (第2実施形態の作用および効果)
 続いて、第2実施形態にかかる視野角特性検証装置A1の作用及び効果について説明する。第2実施形態の視野角特性検証装置A1では、インテグラル式のような複数の視点画像を同一の眼に観察させることを想定するタイプの3次元ディスプレイにおいて、隣接視点画像同士の重なり合いのうち、観察される立体映像に悪影響を及ぼす重なりと、必ずしも悪影響を及ぼさない重なりを区別することで、3次元ディスプレイの光学特性を検査する。隣接視点画像同士の重なり合いが、悪影響を及ぼすものであるか否かは、重なり合う視点画像同士が繰り返し画像の原因となる、異なるローブに属しているか否かによって判断される。
 具体的に、輝度分布検査部A110は、3次元ディスプレイ上の所定の計測点から放射される光線の放射角度方向の輝度値を元に、3次元ディスプレイの各視点ごとの、放射角度に対する輝度分布を検査する。ローブ検出部A120は、輝度分布検査部A110により検査された光の輝度分布を元に、繰り返し画像の原因となるローブを求める。ここで、「ローブ」とは、放射角度に対する輝度分布が複数の山と谷からなる曲線を成した場合に、当該山に応じた所定の領域をいう。視野角特性検証部A130は、上記ローブに基づき、輝度分布検査部A110により検査された輝度分布のうち、悪影響を及ぼす光と、必ずしも悪影響を及ぼさない光の比率を許容輝度コントラストとして算出する。そして、視野角特性検証部A130は、当該算出した許容輝度コントラストに基づき、3次元ディスプレイの視野角特性を検証する。以上により、インテグラル式のような、複数の視点画像を同一の眼に観察させることを想定するタイプの3Dディスプレイにおいて、その設計思想を考慮した視野角特性の検証装置および方法を提供することが可能となる。
 また、第2実施形態によれば、輝度分布検査部A110は、3次元ディスプレイの表示面に直交する面(例えば3次元ディスプレイを地面に垂直に設置した場合には、地面に水平の面など)上で放射される光線の当該放射角度方向の輝度を計測する。これにより、3次元ディスプレイの使用態様に合わせた輝度計測が可能となる。
 また、第2実施形態によれば、3次元ディスプレイの総視点数Nに対してN種類の検査用画像を用いることにより、3次元ディスプレイの各視点ごとの輝度分布を適切に検査することができる。
 また、第2実施形態によれば、視点nに対する視点画像のみが点灯し、それ以外に対する視点画像は全て非点灯されている検査用画像nを用いることにより、3次元ディスプレイの各視点ごとの輝度分布を適切に検査することができる。
 また、第2実施形態によれば、上記の数式(6)を用いることにより、ローブに属する領域の検出を適切に行うことができる。
 また、第2実施形態によれば、閾値Thを3次元ディスプレイの設計要素や光学的装置構成に基づき適宜調整することにより、ローブに属する領域検出の精度を高めることができる。
 また、第2実施形態によれば、閾値Thを人間の視覚認知能力の程度に合わせて適宜調整することにより、ローブに属する領域検出の精度を高めることができる。
 (他の実施態様、その1)
 以上、本発明の好適な第2実施形態について説明したが、本発明の第2実施形態が上記の態様に限定されないことは言うまでもない。上記説明においては、ディスプレイ上の位置(X,Y)の1点のみから輝度分布Ln(X,Y,θ)を検出し、許容輝度コントラストCl(X,Y,θ)を算出した。通常、(X,Y)の1点は、ディスプレイ中心部(ディスプレイ表面の幅をW、高さをHとした場合、(X,Y)=(W/2,H/2)となる点)などを計測点として採用する。この1点のみの計測により算出された許容輝度コントラストCl(X,Y,θ)により、検査対象の立体ディスプレイの光学特性を検証しても良いが、ディスプレイ表面の複数の計測点に対して輝度分布Ln(X,Y,θ)を検査し、当該複数位置における許容輝度コントラストCl(X,Y,θ)をそれぞれ求め、それら複数の許容輝度コントラストCl(X,Y,θ)をもって立体ディスプレイの光学特性を検証しても良い。
 すなわち、輝度分布検査部A110が、3次元ディスプレイの複数の計測点に対して、前述した輝度計測処理および輝度分布検査処理を行い、ローブ検出部A120が、当該複数の計測点に対して、前述した領域検出処理を行い、視野角特性検証部A130が、当該複数の計測点に対して許容輝度コントラストを求め、当該複数の計測点に対して求められた当該許容輝度コントラストに基づき3次元ディスプレイの視野角特性を検証するようにしても良い。
 複数点における許容輝度コントラストCl(X,Y,θ)が求まれば、ディスプレイ表示面上のより多くの点における光学特性を考慮することができるので、より正確な立体ディスプレイの特性を評価することができる。また、観察者の位置を想定した場合にディスプレイの複数の点における輝度がどのような分布となるかをシミュレーションすることが可能になるため、ディスプレイを観察した場合に異なるローブに属する視点画像を同時に観察することによる画像のボケが生じる領域を客観的に定義することができ、これによって自然な立体映像を観察できる領域を検査することも可能となる。このような場合に、例えば、任意の観察位置からディスプレイの表示面を見たとき、輝度分布を検査したm箇所の計測点Pm[(X1,Y1),(X2,Y2),…,(X3,Y3)]に対して計算した許容輝度コントラスト(例えばm箇所それぞれにおける許容輝度コントラストの平均値等)が一定の値以上である領域を、自然な立体映像を観察できる領域として認定することができる。
 (他の実施態様、その2)
 上記第2実施形態の説明においては、前述した図16に示したように、輝度分布検査部A110は地面に水平方向(図16でいうと面A23上の方向であってYZ面)の輝度分布Ln(X,Y,θ)のみを検査した。しかし、これに限らず、輝度分布検査部A110が、3次元ディスプレイの表示面および地面の両方に垂直の面の方向(図16でいうとXZ面の方向)の輝度分布を更に検査するようにしても良い。これは、フラットパネルディスプレイの表面に、レンズやバリアを配置した構成の3Dディスプレイの中には、上記の第2実施形態の説明で示したような水平方向のみに視差をもつタイプの3Dディスプレイだけではなく、インテグラルフォトグラフィと言われる方式に代表されるような、垂直方向にも視差を有する方式もあるからである。このような垂直方向にも視差を有する方式の3Dディスプレイを対象とする場合には、前述したように輝度分布検査部A110が輝度分布Ln(X,Y,θ)を検査する代わりに、垂直方向の角度φ方向についても輝度値を計測し、輝度分布Ln(X,Y,θ,φ)を検査するようにすることが好ましい。そして、ローブ検出部A120や視野角特性検証部A130においても、角度方向をθ方向のみではなくφ方向についても第2実施形態で前述した処理と同様の処理を行うことで、最終的に許容輝度コントラストCl(X,Y,θ,φ)を求めることができ、このCl(X,Y,θ,φ)の値をもって立体ディスプレイの光学特性を示すことができる。
 (他の実施態様、その3)
 上記第2実施形態の説明においては、許容輝度コントラストは、あるローブに属する輝度分布の合計と、属さない輝度分布の合計の比で求めた。すなわち、以下の数式(7)で示される。
Figure JPOXMLDOC01-appb-M000009
 しかし、これに限らず、あるローブに属する輝度分布の合計と、ローブに属するか否かに関わらないすべての輝度分布の合計の比を用いて、許容輝度コントラストを求めることもできる。すなわち、以下の数式(8)で示されるC’を、許容輝度コントラストとしてもよい。
Figure JPOXMLDOC01-appb-M000010
 ここで、LiおよびLjは輝度分布検査部A110により計測された輝度分布であって、i∈lとは、検査用画像iを点灯させたときのディスプレイ表面の点(X、Y)における角度θが、ローブl内に含まれているということを示している。一方、式中の分母は、1~Nまでのすべての検査用画像を計測した結果の合計である。このような式によって許容輝度コントラストを計算することで、許容輝度コントラストのとりうる数値を0以上1以下の値とすることができ、異なる特性を持ったディスプレイ同士の特性比較をより容易に行うことができるようになる。
1…光学特性評価装置、10…輝度計測部、20…輝度分布解析部、30…眼間輝度解析部、40…立体視判定部、58…輝度計、60…3Dディスプレイ、61…計測ポイント、62…表示面、70…観察者、71…右目、72…左目、80,81,82…輝度分布画像、91,92,91…立体視判定画像。
A1…視野角特性検証装置、A110…輝度分布検査部、A120…ローブ検出部、A130…視野角特性検証部、A18…輝度計、A20…ディスプレイ、A21…計測点、A22…ディスプレイA20の表示面。

Claims (10)

  1.  3次元ディスプレイ上の所定の計測点から放射される光線の放射角度方向の輝度を計測する輝度計測手段と、
     前記輝度計測手段により計測された輝度データに基づき、前記光線の前記放射角度方向の輝度分布状態を解析し、前記光線の輝度分布画像を生成する輝度分布解析手段と、
     前記輝度分布画像に基づき、観察者の両眼間で知覚される輝度を解析し、立体視判定画像を生成する眼間輝度解析手段と、
     前記立体視判定画像に基づき、前記3次元ディスプレイの前の領域であって前記放射角度方向の一定の領域を立体視可能領域として判定する立体視判定手段と、
     を備えることを特徴とする3次元ディスプレイの光学特性評価装置。
  2.  前記輝度分布解析手段は、
     前記3次元ディスプレイの全ての視点において、各視点ごとの前記輝度分布状態を解析し、前記各視点ごとの前記輝度分布画像を生成する、
     ことを特徴とする請求項1に記載の3次元ディスプレイの光学特性評価装置。
  3.  前記眼間輝度解析手段は、
     前記輝度分布解析手段が生成した前記各視点ごとの前記輝度分布画像のうち、前記観察者の眼間距離に相当する2つの輝度分布画像を抽出し、
     当該抽出した前記2つの輝度分布画像を用いて、前記観察者の前記両眼間における輝度のコントラスト比を解析することにより、前記立体視判定画像を生成する、
     ことを特徴とする請求項2に記載の3次元ディスプレイの光学特性評価装置。
  4.  前記輝度分布解析手段は、
     前記3次元ディスプレイの全ての視線方向において、各視線方向ごとの前記輝度分布状態を解析し、前記各視線方向ごとの前記輝度分布画像を生成する、
     ことを特徴とする請求項1に記載の3次元ディスプレイの光学特性評価装置。
  5.  前記眼間輝度解析手段は、
     前記輝度分布解析手段が生成した前記各視線方向ごとの前記輝度分布画像のうち、前記観察者の眼間距離に相当する2つの輝度分布画像を抽出し、
     当該抽出した前記2つの輝度分布画像を用いて、前記観察者の前記両眼間における輝度のコントラスト比を解析することにより、前記立体視判定画像を生成する、
     ことを特徴とする請求項4に記載の3次元ディスプレイの光学特性評価装置。
  6.  前記輝度のコントラスト比は、前記観察者の右目および左目において、入るべき光と入るべきではない光との比である、
     ことを特徴とする請求項3または請求項5に記載の3次元ディスプレイの光学特性評価装置。
  7.  前記輝度のコントラスト比の値は、
     前記観察者の右目に入るべき光が前記右目に入り且つ前記観察者の左目に入るべき光が前記左目に入った場合には、符号の変化を伴わず、
     前記観察者の右目に入るべき光が前記観察者の左目に入った場合、または前記観察者の左目に入るべき光が前記観察者の右目に入った場合には、符号の変化を伴う、
     ことを特徴とする請求項6に記載の3次元ディスプレイの光学特性評価装置。
  8.  前記立体視判定手段は、
     前記立体視判定画像において前記輝度のコントラスト比が所定の閾値を越える部分に相当する前記一定の領域を前記立体視可能領域として判定する、
     ことを特徴とする請求項6または7に記載の3次元ディスプレイの光学特性評価装置。
  9.  前記輝度分布画像および前記立体視判定画像は、前記3次元ディスプレイの表示面に直交する面上の前記領域における輝度分布を示す画像である、
     ことを特徴とする請求項1~8の何れか1項に記載の3次元ディスプレイの光学特性評価装置。
  10.  輝度計測手段が、3次元ディスプレイ上の所定の計測点から放射される光線の放射角度方向の輝度を計測する輝度計測ステップと、
     輝度分布解析手段が、前記輝度計測手段により計測された輝度データに基づき、前記光線の前記放射角度方向の輝度分布状態を解析し、前記光線の輝度分布画像を生成する輝度分布解析ステップと、
     眼間輝度解析手段が、前記輝度分布画像に基づき、観察者の両眼間で知覚される輝度を解析し、立体視判定画像を生成する眼間輝度解析ステップと、
     立体視判定手段が、前記立体視判定画像に基づき、前記3次元ディスプレイの前の領域であって前記放射角度方向の一定の領域を立体視可能領域として判定する立体視判定ステップと、
     を備えることを特徴とする3次元ディスプレイの光学特性評価方法。
PCT/JP2010/060053 2009-06-15 2010-06-14 3次元ディスプレイの光学特性評価装置および3次元ディスプレイの光学特性評価方法 WO2010147089A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201080026456.5A CN102461192B (zh) 2009-06-15 2010-06-14 三维显示器的光学特性评价装置和光学特性评价方法
KR1020117029880A KR101284073B1 (ko) 2009-06-15 2010-06-14 3차원 디스플레이의 광학 특성 평가 장치 및 3차원 디스플레이의 광학 특성 평가 방법
JP2011519774A JP5296872B2 (ja) 2009-06-15 2010-06-14 3次元ディスプレイの光学特性評価装置および3次元ディスプレイの光学特性評価方法
US13/378,472 US9053656B2 (en) 2009-06-15 2010-06-14 Apparatus for evaluating optical properties of three-dimensional display, and method for evaluating optical properties of three-dimensional display
EP10789464A EP2445225A4 (en) 2009-06-15 2010-06-14 APPARATUS FOR EVALUATING THE OPTICAL PROPERTIES OF A THREE-DIMENSIONAL DISPLAY AND METHOD FOR EVALUATING THE OPTICAL PROPERTIES OF A THREE-DIMENSIONAL DISPLAY

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2009142578 2009-06-15
JP2009-142578 2009-06-15
JP2009-207452 2009-09-08
JP2009207452 2009-09-08
JP2010-116366 2010-05-20
JP2010116366 2010-05-20

Publications (1)

Publication Number Publication Date
WO2010147089A1 true WO2010147089A1 (ja) 2010-12-23

Family

ID=43356407

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/060053 WO2010147089A1 (ja) 2009-06-15 2010-06-14 3次元ディスプレイの光学特性評価装置および3次元ディスプレイの光学特性評価方法

Country Status (6)

Country Link
US (1) US9053656B2 (ja)
EP (1) EP2445225A4 (ja)
JP (1) JP5296872B2 (ja)
KR (1) KR101284073B1 (ja)
CN (1) CN102461192B (ja)
WO (1) WO2010147089A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011010266A (ja) * 2009-06-24 2011-01-13 Chunghwa Picture Tubes Ltd 立体映像ディスプレイパネルの評価方法およびシステム
WO2022085633A1 (ja) * 2020-10-22 2022-04-28 三井化学株式会社 情報処理装置、情報処理方法及びコンピュータプログラム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101325988B1 (ko) 2010-10-29 2013-11-07 엘지디스플레이 주식회사 입체 디스플레이의 광학 측정 장치 및 방법
GB2484998B (en) * 2010-10-29 2014-08-20 Lg Display Co Ltd Optical measuring apparatus and measuring method of stereoscopic display device
KR101323203B1 (ko) * 2012-04-18 2013-10-30 연세대학교 산학협력단 3차원 콘텐츠의 지속적 주관적 시각적 불편도 및 화질 평가 장치와 그 방법
KR101836180B1 (ko) * 2012-04-24 2018-03-08 엘지디스플레이 주식회사 입체영상 표시장치의 광학 특성 평가 시스템 및 그 방법
CN103575507A (zh) * 2012-08-10 2014-02-12 北京京东方光电科技有限公司 一种3d显示产品的光学检测方法及系统
CN103414911B (zh) * 2013-07-31 2015-06-24 京东方科技集团股份有限公司 一种评价裸眼立体显示亮度均匀性的方法及装置
EP2853936A1 (en) 2013-09-27 2015-04-01 Samsung Electronics Co., Ltd Display apparatus and method
KR20150059686A (ko) * 2013-11-22 2015-06-02 삼성전자주식회사 영상 처리 방법 및 장치
JP6413365B2 (ja) * 2014-06-09 2018-10-31 富士ゼロックス株式会社 表示評価装置、表示評価方法および表示評価プログラム
US9716879B2 (en) * 2014-07-15 2017-07-25 Shenzhen China Star Optoelectronics Technology Co., Ltd Image display method and device for multi-view stereoscopic display
CN104639934B (zh) * 2015-01-22 2017-11-21 深圳超多维光电子有限公司 立体图像反视处理方法及显示装置
CN104897377A (zh) * 2015-06-23 2015-09-09 深圳市时代华影科技股份有限公司 一种3d投影系统的投影质量评价系统
CN105430386B (zh) * 2015-12-15 2018-03-02 深圳市时代华影科技股份有限公司 基于多点检测的3d投影系统的投影质量评价系统
CN105635725B (zh) * 2015-12-15 2019-06-07 深圳市时代华影科技股份有限公司 可反映整个放映厅观影效果的3d投影质量评价系统
KR101881755B1 (ko) * 2016-11-02 2018-07-25 충북대학교 산학협력단 집적영상 디스플레이의 화질 평가 장치 및 방법
WO2019041353A1 (zh) 2017-09-04 2019-03-07 深圳前海达闼云端智能科技有限公司 一种基于可穿戴显示设备的双目亮度敏感度测量方法、设备以及移动终端
CN107884005B (zh) * 2017-10-20 2019-06-21 东南大学 一种模拟人眼对光环境感知的光学测量系统与测量方法
CN112789849B (zh) * 2018-10-05 2023-09-05 伟视达电子工贸有限公司 用于修改立体图像对的方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07120852A (ja) * 1993-10-26 1995-05-12 Nippon Telegr & Teleph Corp <Ntt> 立体表示装置
JPH09205661A (ja) * 1996-01-26 1997-08-05 Sharp Corp 視点補正自動立体表示装置
JP2008015188A (ja) * 2006-07-05 2008-01-24 Ntt Docomo Inc 画像提示装置および画像提示方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0817123B1 (en) * 1996-06-27 2001-09-12 Kabushiki Kaisha Toshiba Stereoscopic display system and method
KR101423592B1 (ko) * 2005-05-26 2014-07-30 리얼디 인크. 개선된 입체투사를 위한 고스트 보정
CN101263545B (zh) * 2005-09-16 2010-12-15 夏普株式会社 显示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07120852A (ja) * 1993-10-26 1995-05-12 Nippon Telegr & Teleph Corp <Ntt> 立体表示装置
JPH09205661A (ja) * 1996-01-26 1997-08-05 Sharp Corp 視点補正自動立体表示装置
JP2008015188A (ja) * 2006-07-05 2008-01-24 Ntt Docomo Inc 画像提示装置および画像提示方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KAZUKI TAIRA: "Variation of Autostereoscopic Displays and Their Evaluation", ITE TECHNICAL REPORT, vol. 33, no. 16, 17 March 2009 (2009-03-17), pages 13 - 17, XP008149003 *
PIERRE M. BOHER; THIBAULT BIGNON; THIERRY R. LEROUX: "A new way to characterize auto-stereoscopic 3D displays using Fourier optics instrument", EI09, 2009, pages 7237 - 37
See also references of EP2445225A4 *
TAIRA K.; HAMAGISHI G.; IZUMI K.; UEHARA S.; NOMURA T.; MASHITANI K.; MIYAZAWA A.; KOIKE T.; YUUKI A.; HORIKOSHI T.: "Variation of Autostereoscopic displays and their measurements", IDW08, vol. 3D2-2, 2008, pages 1103 - 1106

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011010266A (ja) * 2009-06-24 2011-01-13 Chunghwa Picture Tubes Ltd 立体映像ディスプレイパネルの評価方法およびシステム
WO2022085633A1 (ja) * 2020-10-22 2022-04-28 三井化学株式会社 情報処理装置、情報処理方法及びコンピュータプログラム

Also Published As

Publication number Publication date
KR101284073B1 (ko) 2013-07-10
EP2445225A1 (en) 2012-04-25
CN102461192A (zh) 2012-05-16
CN102461192B (zh) 2014-07-16
EP2445225A4 (en) 2012-11-21
US9053656B2 (en) 2015-06-09
US20120154394A1 (en) 2012-06-21
KR20120023790A (ko) 2012-03-13
JP5296872B2 (ja) 2013-09-25
JPWO2010147089A1 (ja) 2012-12-06

Similar Documents

Publication Publication Date Title
JP5296872B2 (ja) 3次元ディスプレイの光学特性評価装置および3次元ディスプレイの光学特性評価方法
Chen et al. New requirements of subjective video quality assessment methodologies for 3DTV
US9961341B2 (en) Method and device for evaluating crosstalk in naked-eye stereoscopic display
EP3046325B1 (en) High density multi-view image display system and method with active sub-pixel rendering
US20120038632A1 (en) Image processor, stereoscopic display, stereoscopic display system, method of detecting parallax displacement in stereoscopic display and method of manufacturing stereoscopic display
EP3350989B1 (en) 3d display apparatus and control method thereof
US20130127861A1 (en) Display apparatuses and methods for simulating an autostereoscopic display device
Järvenpää et al. Optical characterization of autostereoscopic 3‐D displays
US20130114135A1 (en) Method of displaying 3d image
JPWO2015132828A1 (ja) 映像表示方法、及び、映像表示装置
US9538166B2 (en) Apparatus and method for measuring depth of the three-dimensional image
US20180352216A1 (en) Image processing apparatus, image display apparatus, and image processing method
Yoon et al. Measurement method with moving image sensor in autostereoscopic display
Park et al. 61.4: Active Crosstalk Reduction on Multi‐View Displays Using Eye Detection
Salmimaa et al. Optical characterization and measurements of autostereoscopic 3D displays
CN114879377A (zh) 水平视差三维光场显示系统的参数确定方法、装置及设备
US20240223747A1 (en) Parameter determining method, storage medium, and electronic device
Lin et al. Perceived depth analysis for view navigation of stereoscopic three-dimensional models
Uehara et al. High‐visibility 2‐D/3‐D LCD with HDDP arrangement and its optical characterization methods
KR101836180B1 (ko) 입체영상 표시장치의 광학 특성 평가 시스템 및 그 방법
He et al. Assessment of the definition varying with display depth for three-dimensional light field displays
Abileah 30.1: Overview: Testing 3D‐stereo Displays, Techniques and Challenges
Huang et al. Crosstalk issue in stereo/autostereoscopic display
Skala Cross-talk measurement for 3D dispalays
Akpinar et al. Thin form-factor super multiview head-up display system

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080026456.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10789464

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2011519774

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20117029880

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2010789464

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13378472

Country of ref document: US