WO2022050028A1 - 光位相変調素子、および表示装置 - Google Patents

光位相変調素子、および表示装置 Download PDF

Info

Publication number
WO2022050028A1
WO2022050028A1 PCT/JP2021/029845 JP2021029845W WO2022050028A1 WO 2022050028 A1 WO2022050028 A1 WO 2022050028A1 JP 2021029845 W JP2021029845 W JP 2021029845W WO 2022050028 A1 WO2022050028 A1 WO 2022050028A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
modulation element
phase modulation
liquid crystal
optical phase
Prior art date
Application number
PCT/JP2021/029845
Other languages
English (en)
French (fr)
Inventor
亜希子 鳥山
崇宏 望月
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to CN202180052064.4A priority Critical patent/CN115885213A/zh
Priority to JP2022546203A priority patent/JPWO2022050028A1/ja
Priority to US18/042,049 priority patent/US20230400755A1/en
Publication of WO2022050028A1 publication Critical patent/WO2022050028A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/005Projectors using an electronic spatial light modulator but not peculiar thereto
    • G03B21/006Projectors using an electronic spatial light modulator but not peculiar thereto using LCD's
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/133377Cells with plural compartments or having plurality of liquid crystal microcells partitioned by walls, e.g. one microcell per pixel
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/1337Surface-induced orientation of the liquid crystal molecules, e.g. by alignment layers
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • G09F9/302Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements characterised by the form or geometrical disposition of the individual elements
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F2203/00Function characteristic
    • G02F2203/50Phase-only modulation

Definitions

  • the present disclosure relates to an optical phase modulation element using a liquid crystal material and a display device.
  • a display device that modulates the brightness (intensity) of light by a light intensity modulation element to display an image. Further, an optical phase modulation element that modulates the phase of light to generate a desired reproduced image is known.
  • the optical intensity modulation element and the optical phase modulation element are composed of, for example, a liquid crystal panel.
  • the optical phase modulation element there is a technique of generating a phase-modulated reproduced image according to an image to be displayed and using the reproduced image as illumination light for an optical intensity modulation element for image display (Patent Document). See 1-3).
  • Patent Document 3 proposes a technique for generating illumination light of the three primary colors required for color display by using one optical phase modulation element.
  • phase modulation of multiple color lights is performed using one optical phase modulation element in which a single liquid crystal material is enclosed
  • the phase modulation characteristics and light resistance differ depending on the wavelength due to the nature of the liquid crystal material, so performance and reliability. It causes a decrease in sex.
  • the optical phase modulation element according to the embodiment of the present disclosure is provided in different regions in the in-plane direction, and liquid crystal materials having different refractive index anisotropy are enclosed therein, and the optical phase modulation elements are used for colors having different wavelengths from each other. It is provided with a plurality of divided regions for displaying a phase distribution pattern.
  • the display device includes a light source unit that emits a plurality of colored lights having different wavelengths from each other, and an optical phase modulation element that phase-modulates each of the plurality of colored lights from the light source unit, and optical phase modulation.
  • the element is provided in different regions in the in-plane direction, and is encapsulated with liquid crystal materials having different refractive index anisotropies, each of which has a plurality of divided regions displaying phase distribution patterns for colors having different wavelengths. Be prepared.
  • liquid crystal materials having different refractive index anisotropies are encapsulated in each of the plurality of divided regions, and the phases for colors having different wavelengths from each other are enclosed. Display the distribution pattern.
  • FIG. 1 It is explanatory drawing which shows the result of the light resistance test in the optical phase modulation element which concerns on Example 1.
  • FIG. It is explanatory drawing which shows the voltage value necessary for 2 ⁇ -modulating a phase in the optical phase modulation element which concerns on a comparative example and Example 2.
  • FIG. It is explanatory drawing which shows the result of the light resistance test in the optical phase modulation element which concerns on a comparative example. It is explanatory drawing which shows the result of the light resistance test in the optical phase modulation element which concerns on Example 2.
  • FIG. It is explanatory drawing which shows the value of the cell gap d of the optical phase modulation element which concerns on a comparative example and Example 3, and the type and the physical property value of a liquid crystal material. It is explanatory drawing which shows the voltage characteristic of the phase modulation amount of the optical phase modulation element which concerns on a comparative example.
  • Comparative example> 1 and 2 show an outline of a luminance modulation type display device.
  • a configuration of a general projection type display device for example, as shown in FIGS. 1 and 2, the light intensity modulation element 501 is irradiated with uniform illumination light emitted from the light source 500 to perform light intensity modulation. Some go to generate an image and project the generated image onto the screen 50 through a projection lens.
  • an LCD Liquid Crystal Display: liquid crystal panel
  • DMD Digital Micro-mirror Device: mirror device
  • a liquid crystal projector using a liquid crystal panel has good color reproducibility and can realize high image quality.
  • a liquid crystal panel is used as an optical shutter. 1 and 2 show an example in which a transmissive liquid crystal panel is used as the light intensity modulation element 501.
  • the liquid crystal panel has a structure in which a liquid crystal layer 513 containing a plurality of liquid crystal molecules 514 is sandwiched between a pair of substrates 502 and 503.
  • the polarizing element 521 is arranged in the incident direction of light, and the analyzer 522 is arranged in the emission direction of light.
  • the splitter 521 emits polarized light polarized in a predetermined polarization direction among the incident light L11.
  • one pixel of the light intensity modulation element 501 corresponds to one pixel of the image to be finally displayed.
  • the light intensity modulation element 501 is a liquid crystal panel, when displaying a dark image area, it is necessary to block the illumination light by the liquid crystal panel, and there is light that is not used for display, and the light utilization efficiency is significantly reduced. It ends up.
  • phase modulation type display device SLM (Spatial Light Modulator) is used as a diffraction element to generate illumination light, so that light emitted to a low-luminance pixel region is emitted.
  • SLM Surface Light Modulator
  • a technique for distributing a part to a high-luminance region is disclosed (see, for example, Patent Documents 1 and 2).
  • a liquid crystal panel can also be used as the optical phase modulation element.
  • 3 and 4 show an outline of a phase modulation type display device.
  • 3 and 4 show an example in which a reflection type diffractive element is used as the optical phase modulation element 1.
  • a reproduced image generated by irradiating the optical phase modulation element 1 with uniform illumination light emitted from the light source 500 to perform phase modulation is projected on the screen 50.
  • the phase modulation type display device uses light diffraction and is therefore highly efficient.
  • one pixel of the optical phase modulation element 1 does not necessarily correspond to one pixel of the image to be finally displayed, and a plurality of pixels in the optical phase modulation element 1 are displayed. It is possible to correspond to one pixel of.
  • the liquid crystal material used for the liquid crystal panel is a uniaxial refractive index ellipsoid 530 having one optical axis.
  • the z-axis is the major axis of the refractive index ellipsoid 530
  • the x-axis and the y-axis are the minor axes of the refractive index ellipsoid 530.
  • the optical axis of the refractive index ellipsoid 530 indicates the normal direction of the surface when the cut surface passing through the center of the ellipsoid becomes a circle, and corresponds to the z-axis in FIG. In FIG.
  • the refractive index of the refractive index elliptical body 530 in the x-axis direction is nx
  • the refractive index in the y-axis direction is ny
  • the refractive index in the z-axis direction is nz
  • FIG. 6 shows an example of the macroscopic refractive index distribution of the liquid crystal material.
  • the orientation direction of the liquid crystal molecule 514 is represented by a unit vector n called a director.
  • the average refractive index distribution of the plurality of liquid crystal molecules 514 can be regarded as one refractive index ellipsoid 530. Similar to the refractive index ellipsoid 530, the long axis and the optical axis of the liquid crystal molecule 514 coincide with each other.
  • Refractive index refers to the rate at which the traveling speed of light waves traveling in a medium slows down
  • birefringence refers to a phenomenon in which two refracted lights appear when light is incident on a substance.
  • Light that oscillates parallel to the optical axis of the liquid crystal molecule 514 is called anomalous light, and the refractive index for the anomalous light is expressed as ne.
  • the light that vibrates in the direction perpendicular to the long axis of the liquid crystal molecule 514 is called an ordinary ray, and the refractive index with respect to the ordinary ray is expressed as no.
  • FIG. 7 shows an outline of a liquid crystal panel in VA (Vertical Alignment) mode.
  • the liquid crystal material enclosed in the liquid crystal panel is a negative liquid crystal, and the orientation is vertical orientation.
  • the VA mode liquid crystal panel is formed by filling a liquid crystal layer 513 between a pair of substrates 502 and 503.
  • a pixel electrode 512 for controlling the orientation of the liquid layer molecules 514 constituting the liquid crystal layer 513 is formed on the surface of the substrate 502 toward the liquid crystal layer 513.
  • a pixel electrode 511 for controlling the orientation of the liquid layer molecules 514 constituting the liquid crystal layer 513 is formed in a pattern.
  • an alignment film is provided so as to cover each of the pixel electrode 511 and the pixel electrode 512.
  • FIG. 7A shows a state in which no voltage is applied (voltage OFF) between the pixel electrode 511 and the pixel electrode 512
  • FIG. 7B shows a voltage between the pixel electrode 511 and the pixel electrode 512.
  • the liquid crystal molecule 514 stands up when no voltage is applied, and the liquid crystal molecule 513 collapses when the voltage is applied.
  • the orientation of the liquid crystal molecules 514 constituting the liquid crystal layer 513 is controlled by aligning them on the entire surface of the pair of substrates 502 and 503. .. For this reason, the liquid crystal molecules 514 are provided with a uniform pretilt angle when no voltage is applied.
  • the surface of the alignment film is configured so that the liquid crystal molecules 514 have a pretilt angle (angle with respect to the normal direction of the substrate surface) of 2 ° to 6 ° on the entire surface of the display area. ing.
  • the VA mode liquid crystal panel for example, by arranging two polarizing plates at the position of the cross Nicol, a black display is performed when no voltage is applied and a white display is performed when a voltage is applied.
  • FIG. 8 and 9 show an outline of a luminance modulation type liquid crystal panel as a light intensity modulation element 501.
  • FIG. 8 schematically shows the configuration of the light intensity modulation element 501 as viewed from the front direction and the polarization state of light.
  • FIG. 9 schematically shows the configuration in the cross section of the light intensity modulation element 501 and the polarization state of light. 8 and 9 show a configuration example in which the light intensity modulation element 501 is a transmissive VA mode liquid crystal panel.
  • the light intensity modulation element 501 With respect to the light intensity modulation element 501, a splitter 521 as an incident side polarizing plate is arranged in the incident direction of light, and an analyzer 522 as an emitted side polarizing plate is arranged in the light emitting direction.
  • the light intensity modulation element 501 has a configuration in which a liquid crystal layer 513 is sandwiched between a plurality of pixel electrodes 511 facing each other and a plurality of pixel electrodes 512.
  • the liquid crystal layer 513 has a plurality of liquid crystal molecules 514. In the liquid crystal layer 513, a plurality of liquid crystal molecules 514 are arranged so as to have a predetermined orientation direction.
  • the splitter 521 emits polarized light L12 polarized in a predetermined polarization direction among unpolarized incident light L11.
  • the orientation direction of the liquid crystal molecule 514 is, for example, a direction inclined by 45 ° with respect to the polarization direction of the polarized light L12 when viewed from the front direction.
  • the inclination of the liquid crystal molecule 514 in the cross section changes depending on the voltage applied between the opposite pixel electrodes 511 and the pixel electrodes 512.
  • the polarization state of the intensity-modulated light L13 emitted from the light intensity-modulating element 501 changes according to the applied voltage.
  • the amount of light finally emitted from the analyzer 522 changes according to the polarization state of the intensity-modulated light L13.
  • gradation characteristics are expressed using the polarization of light.
  • the brightness of each pixel changes.
  • FIG. 9 when a voltage is applied and the liquid crystal molecule 514 is tilted, how the incident linearly polarized polarized light L12 changes, and two polarizing plates (polarizer 521 and analyzer 522) are arranged in a cross Nicole. It shows how the brightness changes under certain conditions.
  • the luminance of light passing through each of the regions (1) to (3) is represented by the luminance ⁇ sin 2 ( ⁇ nd ⁇ / ⁇ ).
  • ⁇ n indicates the refractive index anisotropy of the liquid crystal molecule 514
  • d indicates the cell gap (thickness of the liquid crystal layer 513)
  • indicates the wavelength of the incident light L11.
  • the liquid crystal layer 513 is in a state where no voltage is applied.
  • the liquid crystal molecules 514 are in a state of being oriented substantially perpendicular to the substrate of the liquid crystal panel.
  • the linearly polarized polarized light L12 incident on the liquid crystal layer 513 passes through the liquid crystal layer 513 with almost no influence from the liquid crystal molecules 514. Under the condition that the two polarizing plates are arranged in a cross Nicol, the final output light is displayed in black.
  • the liquid crystal layer 513 is in a state where a certain voltage is applied, and the liquid crystal molecules 514 are in a state of being tilted to some extent with respect to the substrate of the liquid crystal panel.
  • the polarization state of the polarized light L12 incident on the liquid crystal layer 513 changes from linear polarization to elliptically polarized light due to the generation of the phase difference.
  • the final output light is displayed in gray (halftone) because light that can pass through the analyzer 522 and light that cannot pass through the detector 522 are mixed.
  • the liquid crystal molecules 514 are oriented substantially parallel to the substrate of the liquid crystal panel. ..
  • the intensity-modulated light L13 passes through the analyzer 522, and the final output light is displayed in white.
  • FIG. 10 schematically shows the configuration of the optical phase modulation element 1 when viewed from the front and the polarization state of light.
  • FIG. 11 schematically shows the configuration in the cross section of the optical phase modulation element 1 and the polarization state of light. 10 and 11 show a configuration example in which the optical phase modulation element 1 is a transmissive VA mode liquid crystal panel.
  • the splitter 521 is arranged in the incident direction of the light with respect to the optical phase modulation element 1 as in the configuration of the luminance modulation method of FIG. 9, but the detector is arranged in the emission direction of the light. 522 is not placed.
  • the optical phase modulation element 1 has a configuration in which a liquid crystal layer 513 is sandwiched between a plurality of opposing pixel electrodes 511 and a plurality of pixel electrodes 512.
  • the liquid crystal layer 513 has a plurality of liquid crystal molecules 514.
  • a plurality of liquid crystal molecules 514 are arranged so as to have a predetermined orientation direction.
  • the splitter 521 emits polarized light L12 polarized in a predetermined polarization direction among unpolarized incident light L11.
  • the orientation direction of the liquid crystal molecule 514 is, for example, a direction parallel to the polarization direction of the polarized light L12 when viewed from the front direction.
  • the inclination of the liquid crystal molecule 514 in the cross section changes depending on the voltage applied between the opposite pixel electrodes 511 and the pixel electrodes 512.
  • the phase of the phase-modulated light L14 finally emitted from the optical phase modulation element 1 changes according to the applied voltage.
  • FIG. 11 shows how the incident linearly polarized polarized light L12 changes and how the phase changes when the liquid crystal molecule 514 is tilted by applying a voltage.
  • the liquid crystal layer 513 is in a state where no voltage is applied.
  • the liquid crystal molecules 514 are in a state of being oriented substantially perpendicular to the substrate of the liquid crystal panel. Since the polarization direction of the linearly polarized polarized light L12 incident on the liquid crystal layer 513 coincides with the director of the liquid crystal molecule 514, the polarization does not change. Assuming that the refractive index of the liquid crystal layer 513 in the region (1) is n1, the phase delay ⁇ nd of the output light from the optical phase modulation element 1 is n1d.
  • the liquid crystal layer 513 is in a state where a certain voltage is applied, and the liquid crystal molecules 514 are in a state of being tilted to some extent with respect to the substrate of the liquid crystal panel. Since the polarization direction of the linearly polarized polarized light L12 incident on the liquid crystal layer 513 coincides with the director of the liquid crystal molecule 514, the polarization does not change.
  • the refractive index of the liquid crystal layer 513 in the region (2) is obtained by subtracting the refractive index no of the normal light ray from the refractive index ne of the abnormal light ray corresponding to the tilt of the liquid crystal molecule 514. .. Assuming that the refractive index of the liquid crystal layer 513 in the region (2) is n2, the phase delay ⁇ nd of the output light from the optical phase modulation element 1 is n2d.
  • the liquid crystal molecules 514 are oriented substantially parallel to the substrate of the liquid crystal panel. .. Since the polarization direction of the linearly polarized polarized light L12 incident on the liquid crystal layer 513 coincides with the director of the liquid crystal molecule 514, the polarization does not change.
  • the refractive index anisotropy ⁇ n of the liquid crystal molecule 514 becomes maximum.
  • the refractive index of the liquid crystal layer 513 is obtained by subtracting the refractive index no of the normal light ray from the refractive index ne of the abnormal light ray.
  • the phase delay ⁇ nd of the output light from the optical phase modulation element 1 is n3d.
  • ⁇ nd
  • the phase finally emitted from the optical phase modulation element 1 when the region (1) in which the liquid crystal molecule 514 stands and the region (3) in which the liquid crystal molecule 514 is sleeping are compared.
  • the phase of the modulated light L14 changes by one wavelength.
  • Patent Documents 1 and 2 propose a technique for generating illumination light of three primary colors (red, green, and blue) required for color display in a projector by using an optical phase modulation element different for each color.
  • Patent Document 3 proposes a technique of generating illumination light of three primary colors required for color display by using one optical phase modulation element (single plate type color optical phase modulation element).
  • FIG. 12 shows an outline of the single-plate color optical phase modulation element 100 according to the comparative example.
  • the single-plate color optical phase modulation element 100 for example, one liquid crystal panel in which a single liquid crystal material is enclosed is in-plane in a red (R) region 110R, a green (G) region 110G, and a blue (B) region. It is divided into 110B, and each color region is irradiated with colored light of each color of R, G, and B. Then, in each color region, a desired reproduced image 100 can be obtained by calculating and displaying a phase distribution pattern (phase hologram) corresponding to the wavelength of each color light.
  • the reproduced image 100 can be used as illumination light for a light intensity modulation element in a luminance modulation type projector.
  • the single-plate color optical phase modulation element 100 according to the comparative example has a configuration in which a single liquid crystal material is enclosed, the R region 110R and the G region 110G are described below due to the nature of the liquid crystal material.
  • the phase modulation characteristics, light resistance, and the like are different in each color region of the B region 110B. Therefore, the performance and reliability are deteriorated.
  • issues for each color area will be described.
  • FIG. 13 shows an example of the wavelength dispersion characteristic of the refractive index anisotropy ⁇ n of a general liquid crystal material.
  • the longer the wavelength the smaller the value of the refractive index anisotropy ⁇ n. That is, in red light having a long wavelength (near 630 nm), the refractive index anisotropy ⁇ n of the liquid crystal material becomes small.
  • the response speed of the liquid crystal material depends on the viscosity of the liquid crystal material. The higher the viscosity of the liquid crystal material, the slower the response speed. Generally, a liquid crystal material having a high ⁇ n has a high viscosity, which affects the response speed.
  • the liquid crystal panel is deteriorated by short wavelength blue light. That is, when the liquid crystal panel is irradiated with strong blue light for a long time, free radicals are generated from the sealing material, the sealant, impurities from the environment, etc., which are peripheral materials dissolved in the liquid crystal material. It is considered that the generated free radicals deteriorate the characteristics of the liquid crystal panel by breaking the chemical bonds of the liquid crystal material. That is, light resistance is a problem peculiar to the B region 110B, and when used in the single-plate color optical phase modulation element 100, only the B region 110B may be locally deteriorated. Therefore, it is necessary to have high light resistance specialized for the B region 110B. As a design of the liquid crystal material, it is effective to reduce the value of the refractive index anisotropy ⁇ n.
  • FIG. 14 shows an example of a luminosity curve.
  • the human eye has different perceptions of intensity depending on the wavelength, even if the light has the same intensity, and this perception is modeled as a luminous efficiency curve.
  • the human visual sensitivity to the green wavelength is high, if there is an abnormality in the phase distribution pattern displayed in the G region 110G in the single-plate color optical phase modulation element 100, it cannot be deceived and a reproduced image 100 sufficient for display performance can be obtained. It becomes difficult to be damaged. Specifically, when the liquid crystal material is injected, an injection port is formed, but the liquid crystal is sealed with a resin after being sealed. When impurities from the sealant are applied to the G region 110G, it is locally deteriorated, the display of the phase distribution pattern becomes insufficient, and a high-quality reproduced image 100 cannot be obtained.
  • the basic structure of the optical phase modulation element according to the first embodiment of the present disclosure is, for example, a configuration in which a liquid crystal material is enclosed between a pair of opposing substrates, similarly to the optical phase modulation element 1 shown in FIG. You may.
  • the optical phase modulation element according to the first embodiment is composed of one liquid crystal panel and corresponds to a plurality of color lights, similarly to the single plate type color optical phase modulation element 100 according to the comparative example shown in FIG. It has a plurality of color regions, and by displaying a phase distribution pattern corresponding to the wavelength of each color light in each color region, a desired reproduced image 100 can be obtained.
  • the single-plate color optical phase modulation element 100 according to the comparative example has a configuration in which a single liquid crystal material is enclosed in one liquid crystal panel, but the optical phase modulation element according to the first embodiment has a configuration in which a single liquid crystal material is enclosed.
  • the configuration is such that a plurality of liquid crystal materials are enclosed.
  • the optical phase modulation element according to the first embodiment includes a plurality of divided regions provided in regions different from each other in the in-plane direction. Liquid crystal materials having different refractive index anisotropy ⁇ n are enclosed in the plurality of divided regions. A phase distribution pattern for at least one color having a different wavelength from each other is displayed in each of the plurality of divided regions.
  • the optical phase modulation element according to the first embodiment will be described.
  • the color regions for displaying the phase distribution pattern are R, G, and B are shown, but the colors are not limited to these. Further, the number of color regions may be two or four or more.
  • FIG. 15 schematically shows a first example of the in-plane structure of the optical phase modulation device according to the first embodiment.
  • the configuration example shown in FIG. 15 corresponds to the configurations of Examples 1 and 4 described later.
  • the optical phase modulation element 1A shown in FIG. 15 has a first division region 21 and a second division region 22 as a plurality of division regions.
  • the first division region 21 has an R region (red region) 10R and a G region (green region) 10G.
  • the R region 10R is illuminated by, for example, red light from a laser light source (not shown) and displays a phase distribution pattern for red optimized for the peak wavelength of the red light.
  • the G region 10G is illuminated by green light from, for example, a laser light source (not shown) and displays a phase distribution pattern for green optimized for the peak wavelength of the green light.
  • the second divided region 22 has a B region (blue region) 10B.
  • the B region 10B is illuminated by blue light from, for example, a laser light source (not shown), and displays a phase distribution pattern for blue optimized for the peak wavelength of the blue light.
  • a seal 41 is formed around each of the first divided region 21 and the second divided region 22, and the regions are separated from each other.
  • a liquid crystal material having a different refractive index anisotropy ⁇ n from each other is enclosed in the first divided region 21 and the second divided region 22. That is, in the optical phase modulation element 1A shown in FIG. 15, the liquid crystal materials in the R region 10R and the G region 10G and the liquid crystal material in the B region 10B are different from each other.
  • the refractive index anisotropy of the liquid crystal material enclosed in the first divided region 21 is ⁇ nR, G, and the refractive index anisotropy of the liquid crystal material enclosed in the second divided region 22 is ⁇ nB.
  • ⁇ nR the refractive index anisotropy of the liquid crystal material enclosed in the first divided region 21
  • ⁇ nB the refractive index anisotropy of the liquid crystal material enclosed in the second divided region 22
  • the liquid crystal injection port is formed in the R region 10R and sealed with the sealant 42.
  • a sufficient phase modulation amount corresponding to the R region 10R can be realized, and local deterioration due to impurities from the sealant 42 in the G region 10G can be prevented. If the drop injection process is used, the sealant 42 becomes unnecessary. In this case, it is sufficient to expect the effect of only the phase modulation amount in the R region 10R.
  • the areas of the R region 10R, the G region 10G, and the B region 10B may be the same or different. Further, the areas of the R region 10R, the G region 10G, and the B region 10B may be determined according to the amount of light from the light sources of the R, G, and B colors.
  • the light source is preferably a laser light source having high coherence, but an LED (Light Emitting Diode) or a phosphor light source may be used.
  • FIG. 16 schematically shows a second example of the in-plane structure of the optical phase modulation device according to the first embodiment.
  • the configuration example shown in FIG. 16 corresponds to the configurations of Examples 1 and 4 described later.
  • the optical phase modulation element 1B shown in FIG. 16 has a first division region 21, a second division region 22, and a third division region 23 as a plurality of division regions.
  • the first division region 21 has an R region 10R.
  • the R region 10R is illuminated by, for example, red light from a laser light source (not shown) and displays a phase distribution pattern for red optimized for the peak wavelength of the red light.
  • the second division region 22 has a G region 10G.
  • the G region 10G is illuminated by green light from, for example, a laser light source (not shown) and displays a phase distribution pattern for green optimized for the peak wavelength of the green light.
  • the third division region 23 has a B region 10B.
  • the B region 10B is illuminated by blue light from, for example, a laser light source (not shown), and displays a phase distribution pattern for blue optimized for the peak wavelength of the blue light.
  • a seal 41 is formed around each of the first divided region 21, the second divided region 22, and the third divided region 23, and the regions are separated from each other.
  • a liquid crystal material having a different refractive index anisotropy ⁇ n from each other is enclosed in each of the first divided region 21, the second divided region 22, and the third divided region 23. That is, in the optical phase modulation element 1B shown in FIG. 16, the liquid crystal materials in the R region 10R, the G region 10G, and the B region 10B are different from each other.
  • the liquid crystal injection port is sealed with the sealant 42. If the drop injection process is used, the sealant 42 becomes unnecessary.
  • the refractive index anisotropy of the liquid crystal material enclosed in the first division region 21 is ⁇ nR
  • the refractive index anisotropy of the liquid crystal material enclosed in the second division region 22 is ⁇ nG
  • the third division is ⁇ nB
  • This configuration example has an advantage that the liquid crystal material can be optimized in each of the R region 10R, the G region 10G, and the B region 10B.
  • the areas of the R region 10R, the G region 10G, and the B region 10B may be the same or different. Further, the areas of the R region 10R, the G region 10G, and the B region 10B may be determined according to the amount of light from the light sources of the R, G, and B colors.
  • the light source is preferably a laser light source having high coherence, but an LED or a phosphor light source may be used.
  • FIG. 17 schematically shows a third example of the in-plane structure of the optical phase modulation device according to the first embodiment.
  • the configuration example shown in FIG. 17 corresponds to the configuration of the third embodiment described later.
  • the basic configuration of the optical phase modulation element 1C shown in FIG. 17 is the same as that of the optical phase modulation element 1A shown in FIG. 15, but the area of each divided region is different from that of the optical phase modulation element 1A shown in FIG. ing.
  • the area of the second divided region 22 having the B region 10B is set to 1/3 or more of the total effective display region in the plane.
  • the B region 10B is liable to be deteriorated by blue light.
  • the deterioration of the B region 10B the deterioration occurs locally because there are variations in the incident light in the plane. Therefore, the larger the area of the B region 10B, the more the region that has not deteriorated can be secured, so that a high-quality reproduced image can be obtained for a long time.
  • the area of the third divided region 23 having the B region 10B is 1/3 or more of the total effective display region in the plane. ..
  • an alignment film may be formed on the surface of the pair of facing substrates in contact with the liquid crystal layer.
  • the alignment film may be provided corresponding to each of the plurality of divided regions.
  • the alignment film may be configured to include a plurality of alignment films made of different materials. For example, it is desirable that the alignment film corresponding to the divided region having the R region 10R and the G region 10G is used as an organic material, and the alignment film corresponding to the divided region having the B region 10B is used as an inorganic material.
  • the division of each alignment film can be realized, for example, by separating the steps of the inkjet or mask process. In particular, by using an inorganic alignment film in the divided region having the B region 10B, it is possible to further improve the light resistance.
  • each of the plurality of divided regions may have a structure having a curved shape at least partially in the in-plane direction.
  • the optical phase modulation element 1D according to the first modification shown in FIG. 18 has a curved shape in a part of the first division region 21 with respect to the configuration of the optical phase modulation element 1A shown in FIG.
  • the entire divided region 22 has a curved shape.
  • the second division region 22 is formed in the central region in the plane, and by forming the seal 41 around the second division region 22, the second division region 22 and the first division region 21 are formed. Is divided into areas.
  • the optical phase modulation element 1E according to the second modification shown in FIG. 19 has a part of the first division region 21 and the second division region 22 with respect to the configuration of the optical phase modulation element 1B shown in FIG. It has a curved shape, and the entire third divided region 23 has a curved shape.
  • the third division region 23 is formed in the central region in the plane, and by forming the seal 41 around the third division region 23, the third division region 23 becomes the first division region 21 and The area is divided with respect to the second divided area 22.
  • each divided region may have various shapes other than the shapes shown in FIGS. 15 to 19. Being able to form the shape of each divided region with various patterns increases the degree of freedom in design, and the technique of the present disclosure can be applied even when there are restrictions on the arrangement of light sources, for example. There are advantages.
  • ODF One Drop Fill
  • the liquid crystal material is dropped on one substrate by a seal pattern and the other substrate is laminated and bonded
  • a vacuum may be used.
  • the injection process may be used or may be used in combination.
  • liquid crystal materials having different refractive index anisotropies are encapsulated in each of the plurality of divided regions, and the colors having different wavelengths from each other are enclosed. Since the phase distribution pattern for is displayed, high performance and high reliability can be realized.
  • a sufficient phase modulation amount can be secured in the R region 10R, and even if the optical phase modulation element is illuminated with a high-intensity RGB light source, the B region 10B Since it is possible to suppress deterioration due to changes over time, stable optical control is possible and a clear reproduced image can be obtained.
  • the optical phase modulation element according to the first embodiment has a plurality of color regions in which light of wavelengths of R, G, and B is incident, and each color region is optimized by the peak wavelength of each color.
  • Display the phase distribution pattern As a method for calculating the phase distribution data for displaying the phase distribution pattern, there are a diffraction type method in which the phase distribution is derived from a diffraction approximation formula and a refraction type method in which the phase distribution is derived as a free curved lens instead of diffraction. , Any calculation method may be used.
  • the light source is preferably an RGB laser with high coherence, but an LED or a phosphor may be used.
  • each of the R, G, and B lights emitted from the light source is magnified by a collimator lens to be parallel light, and is used as illumination light for each color region of the optical phase modulation element.
  • a collimator lens to be parallel light
  • the difference in wavelength is such that the size of the reproduced image is the same. Need to consider.
  • Each pixel of the optical phase modulation element controls the retardation of the liquid crystal according to the input signal, so that continuous phase modulation from 0 to 2 ⁇ becomes possible.
  • FIG. 20 schematically shows an example of a configuration of a projector 101 as a display device using an optical phase modulation element according to the first embodiment.
  • the projector 101 includes an image signal output device 60, an intensity modulation pattern calculation circuit 61, a phase distribution pattern calculation circuit 62, an optical phase modulation element drive circuit 63, and an optical intensity modulation element drive circuit 64.
  • the projector 101 further includes an optical phase modulation element 10, a light source unit 30, a beam shaping optical system 32, a light intensity modulation element 51, a polarization separation element (PBS) 52, and a projection lens 53.
  • PBS polarization separation element
  • the configuration example of FIG. 20 shows an example in which the optical phase modulation element 10 is composed of a reflective liquid crystal panel.
  • the in-plane structure of the optical phase modulation element 10 may have any of the configurations shown in FIGS. 15 to 19 described above.
  • the optical phase modulation element 10 has a plurality of color regions, and each color region displays a phase distribution pattern optimized by the peak wavelength of each color.
  • the light source unit 30 has a plurality of light sources 31 having different peak wavelengths.
  • the light source 31 is, for example, a laser light source.
  • the beam shaping optical system 32 shapes the colored light of each peak wavelength emitted from each light source 31 while spatially separating them, and illuminates each color region of the optical phase modulation element 10 with the colored light of each peak wavelength.
  • the image signal output device 60 outputs an image signal to the intensity modulation pattern calculation circuit 61 and the phase distribution pattern calculation circuit 62.
  • the phase distribution pattern calculation circuit 62 calculates the phase distribution pattern displayed by the optical phase modulation element 10 based on the image signal.
  • the phase distribution pattern displayed by the optical phase modulation element 10 is a phase distribution pattern capable of forming an illumination image having a luminance distribution according to the image to be displayed.
  • the phase distribution pattern calculation circuit 62 extracts, for example, a portion of the image signal that is equal to or greater than the threshold value of the luminance level of the image, and calculates the phase distribution pattern by repeated FFT (Fast Fourier Transform) calculation.
  • the phase distribution pattern calculation circuit 62 holds information on the peak wavelength of the light source unit 30 and information on the division pattern of each color region of the optical phase modulation element 10 in advance, and the phase distribution pattern is for each peak wavelength. , Calculate the optimized phase distribution pattern for each color region.
  • the phase distribution pattern calculation circuit 62 outputs the illumination light intensity modulation pattern signal to the intensity modulation pattern calculation circuit 61.
  • the illumination light intensity modulation pattern signal represents information on the luminance distribution of the illumination image formed by the phase distribution pattern.
  • the optical phase modulation element drive circuit 63 drives the optical phase modulation element 10 so as to display the phase distribution pattern calculated by the phase distribution pattern calculation circuit 62.
  • the intensity modulation pattern calculation circuit 61 calculates an intensity modulation pattern for generating an image to be displayed by the light intensity modulation element 51 based on the image signal. At this time, the intensity modulation pattern is calculated in consideration of the information on the luminance distribution of the illumination image by the optical phase modulation element 10.
  • the light intensity modulation element drive circuit 64 drives the light intensity modulation element 51 so as to generate the intensity modulation pattern calculated by the intensity modulation pattern calculation circuit 61.
  • the polarization separating element 52 transmits the first polarization component of the incident light and reflects the second polarization component orthogonal to the first polarization component.
  • the light intensity modulation element 51 is irradiated with an illumination image formed by the optical phase modulation element 10 as illumination light via the polarization separation element 52.
  • the light intensity modulation element 51 performs intensity modulation on the illumination light based on the intensity modulation pattern calculated by the intensity modulation pattern calculation circuit 61, and generates a projected image.
  • the information on the luminance distribution of the illumination image by the optical phase modulation element 10 is added to the intensity modulation pattern calculated by the intensity modulation pattern calculation circuit 61, the light intensity modulation element 51 results in the result. , A projected image that reproduces the original image signal is generated.
  • the projected image generated by the light intensity modulation element 51 is emitted toward the projection lens 53 by the polarization separation element 52.
  • the projection lens 53 is a projection optical system including a plurality of lenses, and projects a projection image generated by the light intensity modulation element 51 onto a projection surface such as a screen 50.
  • FIG. 21 schematically shows a cross-sectional configuration example of the optical phase modulation element according to the first embodiment.
  • the configuration example of FIG. 21 shows an example in which the optical phase modulation element 201 is configured by a reflective liquid crystal panel.
  • the in-plane structure of the optical phase modulation element 201 shown in FIG. 21 may have any of the configurations shown in FIGS. 15 to 19 described above.
  • the optical phase modulation element 201 has a plurality of color regions, and each color region displays a phase distribution pattern optimized by the peak wavelength of each color.
  • the optical phase modulation element 201 includes a glass substrate 210, a drive substrate 220, and a liquid crystal material 240.
  • the liquid crystal material 240 is sealed between the glass substrate 210 and the drive substrate 220 by the sealing agent 230 and the spacer 231.
  • the liquid crystal material 240 is, for example, a vertically oriented liquid crystal.
  • the glass substrate 210 has a transparent electrode 211 having light transmission.
  • a transparent electrode 211 and an alignment film 212 are formed on the glass substrate 210.
  • an organic film such as polyimide or an inorganic alignment film such as SiO 2 (silicon oxide) is used.
  • An inorganic alignment film is desirable for light resistance and heat resistance.
  • the drive substrate 220 is made of a single crystal semiconductor substrate such as silicon provided with a light reflection electrode 221 having a pixel structure.
  • a drive circuit composed of a transistor and a capacitor made of CMOS (Complementary Metal Oxide Semiconductor) or n-channel MOS (Metal Oxide Semicoductor) is formed on a single crystal silicon substrate.
  • a pixel structure is formed on the drive circuit with a metal film such as Al (aluminum) or Ag (silver). This metal film serves as both the light reflecting film and the electrode of the voltage applied to the liquid crystal material 240 as the light reflecting electrode 221.
  • an alignment film 222 is formed on the surface of the light reflecting electrode 221.
  • an organic film such as polyimide or an inorganic alignment film such as SiO 2 (silicon oxide) is used.
  • An inorganic alignment film is desirable for light resistance and heat resistance.
  • FIG. 22 shows the types of liquid crystal materials used in the optical phase modulation element according to each embodiment described below.
  • the optical phase modulation element includes a plurality of divided regions provided in regions different from each other in the in-plane direction. Liquid crystal materials having different refractive index anisotropy ⁇ n are enclosed in the plurality of divided regions.
  • the value of the refractive index anisotropy ⁇ n for each wavelength of is shown.
  • the in-plane structure of the optical phase modulation element according to the first embodiment is as shown in FIG. FIG. 23 schematically shows the in-plane structure of the optical phase modulation element according to the comparative example.
  • Both the comparative example and the optical phase modulation element according to the first embodiment are composed of a liquid crystal panel.
  • the optical phase modulation element according to the first embodiment includes a first divided region 21 having an R region 10R and a G region 10G, and a second divided region 22 having a B region 10B.
  • the optical phase modulation element according to the comparative example has no divided region and has a structure having an R region 10R, a G region 10G, and a B region 10B in a single region.
  • FIG. 24 shows the value of the cell gap d (thickness of the liquid crystal layer) of the optical phase modulation element according to Comparative Example and Example 1, and the type and physical property value ( ⁇ n) of the liquid crystal material.
  • the liquid crystal material used for the liquid crystal layer is a nematic liquid crystal material having a negative dielectric anisotropy.
  • the liquid crystal material A was injected into the optical phase modulation element according to the comparative example in the entire in-plane region (R region 10R, G region 10G and B region 10B) in a vacuum environment.
  • the liquid crystal material A is placed in the first divided region 21 (R region 10R and G region 10G), and the liquid crystal material B is placed in the second divided region 22 (B region 10B) under a vacuum environment.
  • the injection port was sealed with a sealing agent 42 made of a UV curable resin. It is also possible to configure the structure so that the injection port is not formed and the sealing agent 42 is not used.
  • the liquid crystal injection method uses, for example, a process called ODF in which a liquid crystal material is dropped on one substrate and the other substrate is laminated and bonded.
  • FIG. 25 shows the voltage characteristics of the phase modulation amount of the optical phase modulation element according to the comparative example.
  • FIG. 26 shows the voltage characteristics of the phase modulation amount of the optical phase modulation element according to the first embodiment.
  • FIG. 27 shows the voltage values required for 2 ⁇ -modulating the phase in the optical phase modulation element according to Comparative Example and Example 1.
  • FIGS. 25 and 26 show the measurement results of the phase modulation amount for each color region at 5 V.
  • FIG. 27 shows the voltage values for each color region required for 2 ⁇ modulation of the phase, obtained from the measurement results of FIGS. 25 and 26.
  • the optical phase modulation element according to the comparative example since the same liquid crystal material is used for each color region, the value of the refractive index anisotropy ⁇ n in the B region 10B is larger than that in the R region 10R and the G region 10G due to the wavelength dispersion. Become. However, since 2 ⁇ is sufficient for the phase modulation amount, the optical phase modulation element according to the first embodiment uses a liquid crystal material having a low ⁇ n only in the B region 10B.
  • FIG. 28 shows the result of the light resistance test in the optical phase modulation device according to the comparative example.
  • FIG. 29 shows the result of the light resistance test in the optical phase modulation device according to the first embodiment.
  • the vertical axis indicates the maximum transmittance of each optical phase modulation element, and the horizontal axis indicates the usage time (light irradiation time).
  • the transmittance of the B region 10B decreased significantly with the passage of time, but the transmittance did not decrease in the optical phase modulation element according to the first embodiment.
  • a liquid crystal material having a small refractive index anisotropy ⁇ n is used for the B region 10B.
  • deterioration due to long-term use is not observed, and a good phase distribution pattern can be displayed.
  • FIG. 30 shows the results of the reliability test in the optical phase modulation device according to Comparative Example and Example 1.
  • FIG. 30 shows the results of an accelerated test under high temperature and high humidity with an environmental test condition of 60 ° C. and 90%.
  • the optical phase modulation device according to the first embodiment obtained a good clear image even after 500 hours had passed. Since deterioration of the G region 10G is easily noticeable, a good phase distribution pattern can be displayed by using a structure that does not come into contact with the sealant 42.
  • Example 2 The in-plane structure of the optical phase modulation element according to the second embodiment is as shown in FIG.
  • the in-plane structure of the optical phase modulation element according to the comparative example is as shown in FIG. 23.
  • Both the optical phase modulation element according to the comparative example and the second embodiment are composed of a liquid crystal panel.
  • the optical phase modulation element according to the second embodiment includes a first division region 21 having an R region 10R, a second division region 22 having a G region 10G, and a third division region 23 having a B region 10B. ..
  • the optical phase modulation element according to the comparative example has no divided region and has a structure having an R region 10R, a G region 10G, and a B region 10B in a single region.
  • FIG. 24 shows the value of the cell gap d (thickness of the liquid crystal layer) of the optical phase modulation element according to Comparative Example and Example 2, and the type and physical property value ( ⁇ n) of the liquid crystal material.
  • the liquid crystal material used for the liquid crystal layer is a nematic liquid crystal material having a negative dielectric anisotropy.
  • the liquid crystal material A was injected into the optical phase modulation element according to the comparative example in the entire in-plane region (R region 10R, G region 10G and B region 10B) in a vacuum environment.
  • the optical phase modulation element according to the second embodiment includes a liquid crystal material A in the first divided region 21 (R region 10R), a liquid crystal material C in the second divided region 22 (G region 10G), and a third divided region 23 (B region).
  • the liquid crystal material B was injected into 10B) under a vacuum environment. Then, the injection port was sealed with a sealing agent 42 made of a UV curable resin. It is also possible to configure the structure so that the injection port is not formed and the sealing agent 42 is not used. In this case, the liquid crystal injection method uses, for example, a process called ODF in which a liquid crystal material is dropped on one substrate and the other substrate is laminated and bonded.
  • FIG. 32 shows the voltage characteristics of the phase modulation amount of the optical phase modulation element according to the comparative example.
  • FIG. 33 shows the voltage characteristics of the phase modulation amount of the optical phase modulation element according to the second embodiment.
  • FIG. 34 shows the voltage values required for 2 ⁇ -modulating the phase in the optical phase modulation element according to Comparative Example and Example 2.
  • FIGS. 32 and 33 show the measurement results of the phase modulation amount for each color region at 5 V.
  • FIG. 34 shows the voltage values for each color region required for 2 ⁇ modulation of the phase, obtained from the measurement results of FIGS. 32 and 33. Since the same liquid crystal material is used for each color region in the optical phase modulation element according to the comparative example, the value of the refractive index anisotropy ⁇ n in the B region 10B and the G region 10G is larger than that in the R region 10R due to the wavelength dispersion. Become. However, since 2 ⁇ is sufficient for the phase modulation amount, the optical phase modulation element according to the second embodiment uses a liquid crystal material having a low ⁇ n in the B region 10B and the G region 10G with respect to the R region 10R.
  • FIG. 35 shows the result of the light resistance test in the optical phase modulation device according to the comparative example.
  • FIG. 36 shows the result of the light resistance test in the optical phase modulation device according to the second embodiment.
  • the vertical axis indicates the maximum transmittance of each optical phase modulation element, and the horizontal axis indicates the usage time (light irradiation time).
  • the transmittance of the B region 10B decreased significantly with the passage of time, but the transmittance did not decrease in the optical phase modulation element according to the second embodiment.
  • a liquid crystal material having a small refractive index anisotropy ⁇ n is used for the B region 10B.
  • deterioration due to long-term use is not observed, and a good phase distribution pattern can be displayed.
  • the in-plane structure of the optical phase modulation element according to the third embodiment is as shown in FIG. FIG. 23 schematically shows the in-plane structure of the optical phase modulation element according to the comparative example.
  • Both the optical phase modulation element according to the comparative example and the third embodiment are composed of a liquid crystal panel.
  • the optical phase modulation element according to the third embodiment includes a first divided region 21 having an R region 10R and a G region 10G, and a second divided region 22 having a B region 10B.
  • the optical phase modulation element according to the comparative example has no divided region and has a structure having an R region 10R, a G region 10G, and a B region 10B in a single region.
  • the area of the second divided region 22 having the B region 10B is set to 1/3 or more of the total effective display region in the plane.
  • FIG. 37 shows the value of the cell gap d (thickness of the liquid crystal layer) of the optical phase modulation element according to Comparative Example and Example 3, the type of liquid crystal material, and the physical property value ( ⁇ n).
  • the liquid crystal material used for the liquid crystal layer is a nematic liquid crystal material having a negative dielectric anisotropy.
  • the liquid crystal material A was injected into the optical phase modulation element according to the comparative example in the entire in-plane region (R region 10R, G region 10G and B region 10B) in a vacuum environment.
  • the liquid crystal material A is placed in the first divided region 21 (R region 10R and G region 10G), and the liquid crystal material B is placed in the second divided region 22 (B region 10B) under a vacuum environment.
  • the injection port was sealed with a sealing agent 42 made of a UV curable resin. It is also possible to configure the structure so that the injection port is not formed and the sealing agent 42 is not used.
  • the liquid crystal injection method uses, for example, a process called ODF in which a liquid crystal material is dropped on one substrate and the other substrate is laminated and bonded.
  • FIG. 38 shows the voltage characteristics of the phase modulation amount of the optical phase modulation element according to the comparative example.
  • FIG. 39 shows the voltage characteristics of the phase modulation amount of the optical phase modulation element according to the third embodiment.
  • FIG. 40 shows the voltage values required for 2 ⁇ -modulating the phase in the optical phase modulation element according to Comparative Example and Example 3.
  • FIGS. 38 and 39 show the measurement results of the phase modulation amount for each color region at 5 V.
  • FIG. 40 shows the voltage values for each color region required for 2 ⁇ modulation of the phase, obtained from the measurement results of FIGS. 38 and 39.
  • the optical phase modulation element according to the comparative example since the same liquid crystal material is used for each color region, the value of the refractive index anisotropy ⁇ n in the B region 10B is larger than that in the R region 10R and the G region 10G due to the wavelength dispersion. Become. However, since 2 ⁇ is sufficient for the phase modulation amount, the optical phase modulation element according to the third embodiment uses a liquid crystal material having a low ⁇ n only in the B region 10B.
  • FIG. 28 shows the result of the light resistance test in the optical phase modulation device according to the comparative example.
  • FIG. 41 shows the results of the light resistance test in the optical phase modulation device according to the third embodiment.
  • the vertical axis shows the maximum transmittance of each optical phase modulation element, and the horizontal axis shows the usage time (light irradiation time).
  • the transmittance of the B region 10B greatly decreased with the passage of time, but in the optical phase modulation element according to the third embodiment, the transmittance was the same as in the first embodiment (FIG. 29). No decrease was seen.
  • a liquid crystal material having a small refractive index anisotropy ⁇ n is used for the B region 10B.
  • the transmittance of the B region 10B gradually decreases even in the optical phase modulation element according to the third embodiment. I found out that I would go. That is, the deterioration time of the B region 10B can be extended by the material design, but it is not permanent and deterioration will surely occur eventually.
  • FIG. 42 shows the evaluation results of the reproduced images in each of the optical phase modulation elements according to Comparative Example, Example 1, and Example 3.
  • FIG. 42 shows the evaluation results of the reproduced image reproduced at the initial stage and after a certain period of time.
  • the image quality rank is best at 5, and the lower the value, the worse the tendency.
  • the optical phase modulation element according to the comparative example image deterioration was confirmed at an early time.
  • the appearance was good for a long time.
  • the optical phase modulation element according to the third embodiment had a better appearance for a long time than the optical phase modulation element according to the first embodiment.
  • the reason for this is that the optical phase modulation element according to the third embodiment has a larger area of the B region 10B than the optical phase modulation element according to the first embodiment. Since the incident light varies in the plane of the optical phase modulation element, the deterioration occurs locally in the plane, and the deterioration of the central portion of each color region becomes large. That is, the larger the area, the more the region that has not deteriorated can be secured, so that it is possible to obtain a high-quality reproduced image for a long time.
  • the optical phase modulation element according to the fourth embodiment is composed of a liquid crystal panel.
  • the in-plane structure of the optical phase modulation element according to the fourth embodiment is as shown in FIG.
  • the material of the alignment film of the optical phase modulation element according to the fourth embodiment is different from that of the optical phase modulation element according to the first embodiment.
  • the alignment film is made of the same material in all color regions.
  • the alignment film corresponding to the divided region having the R region 10R and the G region 10G is made of polyimide as an organic material, and the orientation corresponding to the divided region having the B region 10B is used.
  • the membrane is made of an inorganic material.
  • a positive liquid crystal material a is injected as a liquid crystal material into the R region 10R and the G region 10G, and a negative liquid crystal material B is injected into the B region 10B.
  • the value of the refractive index anisotropy ⁇ n of the liquid crystal material a is the same as that of the liquid crystal material A (see FIG. 22).
  • the B region 10B masks the R region 10R and the G region 10G to deposit SiO 2 .
  • printing was performed in the R region 10R and the G region 10G so that a polyimide material could be formed.
  • it may be formed by using a process such as inkjet.
  • the B region 10B was masked and the photoalignment step was performed.
  • the orientation may be formed by using the mask rubbing method.
  • a seal pattern as shown in FIG. 15 was formed, a positive liquid crystal material a was injected into the R region 10R and the G region 10, and a negative liquid crystal material B was injected into the B region 10B. ..
  • FIG. 43 shows the value of the cell gap d (thickness of the liquid crystal layer) of the optical phase modulation element according to the fourth embodiment, and the type and physical property value ( ⁇ n) of the liquid crystal material.
  • the liquid crystal material a is placed in the first divided region 21 (R region 10R and G region 10G), and the liquid crystal material B is placed in the second divided region 22 (B region 10B) under a vacuum environment. And injected. Then, the injection port was sealed with a sealing agent 42 made of a UV curable resin.
  • a polyimide alignment film having strong anchoring has good orientation, but is weak against light.
  • the orientation is improved, so that a good phase distribution pattern is formed and a good reproduction image can be realized.
  • an inorganic alignment film having strong light resistance in the B region 10B it is possible to reproduce a good reproduced image without photodegradation for a long period of time.
  • the optical phase modulation element according to the technique of the present disclosure can be applied to other than the display device.
  • it can be applied to a laser processing machine.
  • a laser processing machine for example, there is a device that processes a metal pattern such as an electrode by irradiating it with a laser beam.
  • a laser soldering apparatus that performs soldering by irradiating with laser light.
  • FIG. 44 shows the wavelength characteristics of the light absorption rate in a metal.
  • the wavelength characteristic of the light absorption rate differs depending on the type of metal.
  • gold (Au) and copper (Cu) have a higher light absorption rate in a blue laser than in a near infrared laser. Therefore, the processing efficiency of gold, copper, etc. is higher when a blue laser is used.
  • the wavelength characteristic of the light absorption rate differs depending on the type of metal, it is possible to simultaneously process a plurality of metals having different materials by using a plurality of laser beams having different wavelengths. In such a case, by using the optical phase modulation element according to the technique of the present disclosure to generate a plurality of laser beam patterns having different wavelengths, it is possible to simultaneously process a plurality of metals having different materials.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is any kind of movement such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, a robot, a construction machine, and an agricultural machine (tractor). It may be realized as a device mounted on the body.
  • FIG. 45 is a block diagram showing a schematic configuration example of a vehicle control system 7000, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 7000 includes a plurality of electronic control units connected via a communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an outside information detection unit 7400, an in-vehicle information detection unit 7500, and an integrated control unit 7600. ..
  • the communication network 7010 connecting these plurality of control units conforms to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network) or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used for various arithmetic, and a drive circuit that drives various controlled devices. To prepare for.
  • Each control unit is provided with a network I / F for communicating with other control units via the communication network 7010, and is connected to devices or sensors inside or outside the vehicle by wired communication or wireless communication.
  • a communication I / F for performing communication is provided. In FIG.
  • the functional configuration of the integrated control unit 7600 includes a microcomputer 7610, a general-purpose communication I / F7620, a dedicated communication I / F7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I / F7660, and an audio image output unit 7670.
  • the vehicle-mounted network I / F 7680 and the storage unit 7690 are illustrated.
  • Other control units also include a microcomputer, a communication I / F, a storage unit, and the like.
  • the drive system control unit 7100 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 has a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating braking force of the vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • the vehicle state detection unit 7110 is connected to the drive system control unit 7100.
  • the vehicle state detection unit 7110 may include, for example, a gyro sensor that detects the angular velocity of the axial rotation motion of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, an accelerator pedal operation amount, a brake pedal operation amount, or steering wheel steering. It includes at least one of sensors for detecting an angle, engine speed, wheel speed, and the like.
  • the drive system control unit 7100 performs arithmetic processing using a signal input from the vehicle state detection unit 7110, and controls an internal combustion engine, a drive motor, an electric power steering device, a brake device, and the like.
  • the body system control unit 7200 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, turn signals or fog lamps.
  • a radio wave transmitted from a portable device that substitutes for a key or signals of various switches may be input to the body system control unit 7200.
  • the body system control unit 7200 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the battery control unit 7300 controls the secondary battery 7310, which is the power supply source of the drive motor, according to various programs. For example, information such as the battery temperature, the battery output voltage, or the remaining capacity of the battery is input to the battery control unit 7300 from the battery device including the secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals, and controls the temperature control of the secondary battery 7310 or the cooling device provided in the battery device.
  • the vehicle outside information detection unit 7400 detects information outside the vehicle equipped with the vehicle control system 7000.
  • the image pickup unit 7410 and the vehicle exterior information detection unit 7420 is connected to the vehicle exterior information detection unit 7400.
  • the image pickup unit 7410 includes at least one of a ToF (TimeOfFlight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the vehicle outside information detection unit 7420 is used, for example, to detect the current weather or an environment sensor for detecting the weather, or other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. At least one of the surrounding information detection sensors is included.
  • the environment sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects the degree of sunshine, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ringing, Laser Imaging Detection and Ringing) device.
  • the image pickup unit 7410 and the vehicle exterior information detection unit 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 46 shows an example of the installation position of the image pickup unit 7410 and the vehicle exterior information detection unit 7420.
  • the image pickup unit 7910, 7912, 7914, 7916, 7918 are provided, for example, at at least one of the front nose, side mirror, rear bumper, back door, and upper part of the windshield of the vehicle interior of the vehicle 7900.
  • the image pickup unit 7910 provided in the front nose and the image pickup section 7918 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 7900.
  • the image pickup units 7912 and 7914 provided in the side mirrors mainly acquire images of the side of the vehicle 7900.
  • the image pickup unit 7916 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 7900.
  • the image pickup unit 7918 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 46 shows an example of the shooting range of each of the imaging units 7910, 7912, 7914, 7916.
  • the imaging range a indicates the imaging range of the imaging unit 7910 provided on the front nose
  • the imaging ranges b and c indicate the imaging range of the imaging units 7912 and 7914 provided on the side mirrors, respectively
  • the imaging range d indicates the imaging range d.
  • the imaging range of the imaging unit 7916 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the image pickup units 7910, 7912, 7914, 7916, a bird's-eye view image of the vehicle 7900 can be obtained.
  • the vehicle exterior information detection unit 7920, 7922, 7924, 7926, 7928, 7930 provided on the front, rear, side, corner and the upper part of the windshield in the vehicle interior of the vehicle 7900 may be, for example, an ultrasonic sensor or a radar device.
  • the vehicle exterior information detection units 7920, 7926, 7930 provided on the front nose, rear bumper, back door, and upper part of the windshield in the vehicle interior of the vehicle 7900 may be, for example, a lidar device.
  • These out-of-vehicle information detection units 7920 to 7930 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, or the like.
  • the vehicle outside information detection unit 7400 causes the image pickup unit 7410 to capture an image of the outside of the vehicle and receives the captured image data. Further, the vehicle outside information detection unit 7400 receives the detection information from the connected vehicle outside information detection unit 7420.
  • the vehicle exterior information detection unit 7420 is an ultrasonic sensor, a radar device, or a lidar device
  • the vehicle exterior information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, or the like, and receives received reflected wave information.
  • the out-of-vehicle information detection unit 7400 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on a road surface based on the received information.
  • the out-of-vehicle information detection unit 7400 may perform an environment recognition process for recognizing rainfall, fog, road surface conditions, etc. based on the received information.
  • the out-of-vehicle information detection unit 7400 may calculate the distance to an object outside the vehicle based on the received information.
  • the vehicle outside information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing a person, a vehicle, an obstacle, a sign, a character on the road surface, or the like based on the received image data.
  • the vehicle outside information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and synthesizes the image data captured by different image pickup units 7410 to generate a bird's-eye view image or a panoramic image. May be good.
  • the vehicle exterior information detection unit 7400 may perform the viewpoint conversion process using the image data captured by different image pickup units 7410.
  • the in-vehicle information detection unit 7500 detects the in-vehicle information.
  • a driver state detection unit 7510 that detects the state of the driver is connected to the in-vehicle information detection unit 7500.
  • the driver state detection unit 7510 may include a camera that captures the driver, a biosensor that detects the driver's biological information, a microphone that collects sound in the vehicle interior, and the like.
  • the biosensor is provided on, for example, on the seat surface or the steering wheel, and detects the biometric information of the passenger sitting on the seat or the driver holding the steering wheel.
  • the in-vehicle information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, and may determine whether the driver is asleep. You may.
  • the in-vehicle information detection unit 7500 may perform processing such as noise canceling processing on the collected audio signal.
  • the integrated control unit 7600 controls the overall operation in the vehicle control system 7000 according to various programs.
  • An input unit 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by a device that can be input-operated by the passenger, such as a touch panel, a button, a microphone, a switch, or a lever. Data obtained by recognizing the voice input by the microphone may be input to the integrated control unit 7600.
  • the input unit 7800 may be, for example, a remote control device using infrared rays or other radio waves, or an external connection device such as a mobile phone or a PDA (Personal Digital Assistant) corresponding to the operation of the vehicle control system 7000. You may.
  • the input unit 7800 may be, for example, a camera, in which case the passenger can input information by gesture. Alternatively, data obtained by detecting the movement of the wearable device worn by the passenger may be input. Further, the input unit 7800 may include, for example, an input control circuit that generates an input signal based on the information input by the passenger or the like using the input unit 7800 and outputs the input signal to the integrated control unit 7600. By operating the input unit 7800, the passenger or the like inputs various data to the vehicle control system 7000 and instructs the processing operation.
  • the storage unit 7690 may include a ROM (Read Only Memory) for storing various programs executed by the microcomputer, and a RAM (Random Access Memory) for storing various parameters, calculation results, sensor values, and the like. Further, the storage unit 7690 may be realized by a magnetic storage device such as an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, an optical magnetic storage device, or the like.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the general-purpose communication I / F 7620 is a general-purpose communication I / F that mediates communication with various devices existing in the external environment 7750.
  • General-purpose communication I / F7620 is a cellular communication protocol such as GSM (registered trademark) (Global System of Mobile communications), WiMAX (registered trademark), LTE (registered trademark) (Long Term Evolution) or LTE-A (LTE-Advanced).
  • GSM Global System of Mobile communications
  • WiMAX registered trademark
  • LTE registered trademark
  • LTE-A Long Term Evolution-Advanced
  • Bluetooth® may be implemented.
  • the general-purpose communication I / F7620 connects to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or a business-specific network) via a base station or an access point, for example. You may. Further, the general-purpose communication I / F7620 uses, for example, P2P (Peer To Peer) technology to provide a terminal existing in the vicinity of the vehicle (for example, a driver, a pedestrian or a store terminal, or an MTC (Machine Type Communication) terminal). May be connected with.
  • P2P Peer To Peer
  • MTC Machine Type Communication
  • the dedicated communication I / F 7630 is a communication I / F that supports a communication protocol formulated for use in a vehicle.
  • the dedicated communication I / F7630 uses a standard protocol such as WAVE (Wireless Access in Vehicle Environment), DSRC (Dedicated Short Range Communications), which is a combination of the lower layer IEEE802.11p and the upper layer IEEE1609, or a cellular communication protocol. May be implemented.
  • Dedicated communication I / F7630 is typically vehicle-to-vehicle (Vehicle to Vehicle) communication, road-to-vehicle (Vehicle to Infrastructure) communication, vehicle-to-home (Vehicle to Home) communication, and pedestrian-to-vehicle (Vehicle to Pedestrian) communication. ) Carry out V2X communication, a concept that includes one or more of the communications.
  • the positioning unit 7640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite) and executes positioning, and performs positioning, and the latitude, longitude, and altitude of the vehicle. Generate location information including.
  • the positioning unit 7640 may specify the current position by exchanging signals with the wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smartphone having a positioning function.
  • the beacon receiving unit 7650 receives radio waves or electromagnetic waves transmitted from a radio station or the like installed on the road, and acquires information such as the current position, traffic jam, road closure, or required time.
  • the function of the beacon receiving unit 7650 may be included in the above-mentioned dedicated communication I / F 7630.
  • the in-vehicle device I / F 7660 is a communication interface that mediates the connection between the microcomputer 7610 and various in-vehicle devices 7760 existing in the vehicle.
  • the in-vehicle device I / F7660 may establish a wireless connection using a wireless communication protocol such as wireless LAN, Bluetooth®, NFC (Near Field Communication) or WUSB (Wireless USB).
  • a wireless communication protocol such as wireless LAN, Bluetooth®, NFC (Near Field Communication) or WUSB (Wireless USB.
  • the in-vehicle device I / F7660 can be connected to USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), or MHL (Mobile) via a connection terminal (and a cable if necessary) (not shown).
  • a wired connection such as High-definition Link may be established.
  • the in-vehicle device 7760 may include, for example, at least one of a passenger's mobile device or wearable device, or information device carried in or attached to the vehicle. Further, the in-vehicle device 7760 may include a navigation device that searches for a route to an arbitrary destination.
  • the in-vehicle device I / F 7660 exchanges control signals or data signals with these in-vehicle devices 7760.
  • the in-vehicle network I / F7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the vehicle-mounted network I / F7680 transmits / receives signals and the like according to a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 of the integrated control unit 7600 is via at least one of general-purpose communication I / F7620, dedicated communication I / F7630, positioning unit 7640, beacon receiving unit 7650, in-vehicle device I / F7660, and in-vehicle network I / F7680.
  • the vehicle control system 7000 is controlled according to various programs based on the information acquired. For example, the microcomputer 7610 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 7100. May be good.
  • the microcomputer 7610 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. Cooperative control may be performed for the purpose of.
  • the microcomputer 7610 automatically travels autonomously without relying on the driver's operation by controlling the driving force generator, steering mechanism, braking device, etc. based on the acquired information on the surroundings of the vehicle. Coordinated control may be performed for the purpose of driving or the like.
  • the microcomputer 7610 has information acquired via at least one of a general-purpose communication I / F7620, a dedicated communication I / F7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I / F7660, and an in-vehicle network I / F7680. Based on the above, three-dimensional distance information between the vehicle and an object such as a surrounding structure or a person may be generated, and local map information including the peripheral information of the current position of the vehicle may be created. Further, the microcomputer 7610 may predict the danger of a vehicle collision, a pedestrian or the like approaching or entering a closed road, and generate a warning signal based on the acquired information.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the audio image output unit 7670 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 7710, a display unit 7720, and an instrument panel 7730 are exemplified as output devices.
  • the display unit 7720 may include, for example, at least one of an onboard display and a head-up display.
  • the display unit 7720 may have an AR (Augmented Reality) display function.
  • the output device may be other devices such as headphones, wearable devices such as eyeglass-type displays worn by passengers, projectors or lamps other than these devices.
  • the display device displays the results obtained by various processes performed by the microcomputer 7610 or the information received from other control units in various formats such as texts, images, tables, and graphs. Display visually.
  • the audio output device converts an audio signal composed of reproduced audio data, acoustic data, or the like into an analog signal and outputs the audio signal audibly.
  • At least two control units connected via the communication network 7010 may be integrated as one control unit.
  • each control unit may be composed of a plurality of control units.
  • the vehicle control system 7000 may include another control unit (not shown).
  • the other control unit may have a part or all of the functions carried out by any of the control units. That is, as long as information is transmitted and received via the communication network 7010, predetermined arithmetic processing may be performed by any of the control units.
  • a sensor or device connected to any control unit may be connected to another control unit, and a plurality of control units may send and receive detection information to and from each other via the communication network 7010. .
  • the technique of the present disclosure can be applied to the display unit 7720.
  • FIG. 47 is a diagram showing an example of a schematic configuration of an endoscopic surgery system 5000 to which the technique according to the present disclosure can be applied.
  • FIG. 47 illustrates a surgeon (doctor) 5067 performing surgery on patient 5071 on patient bed 5069 using the endoscopic surgery system 5000.
  • the endoscopic surgery system 5000 includes an endoscope 5001, other surgical tools 5017, a support arm device 5027 for supporting the endoscope 5001, and various devices for endoscopic surgery. It is composed of a cart 5037 and a cart 5037.
  • trocca 5025a to 5025d In endoscopic surgery, instead of cutting the abdominal wall to open the abdomen, multiple tubular opening devices called trocca 5025a to 5025d are punctured into the abdominal wall. Then, from the trocca 5025a to 5025d, the lens barrel 5003 of the endoscope 5001 and other surgical tools 5017 are inserted into the body cavity of the patient 5071.
  • other surgical tools 5017 a pneumoperitoneum tube 5019, an energy treatment tool 5021 and forceps 5023 are inserted into the body cavity of patient 5071.
  • the energy treatment tool 5021 is a treatment tool for incising and peeling a tissue, sealing a blood vessel, or the like by using a high frequency current or ultrasonic vibration.
  • the surgical tool 5017 shown is only an example, and as the surgical tool 5017, various surgical tools generally used in endoscopic surgery such as a sword and a retractor may be used.
  • the image of the surgical site in the body cavity of the patient 5071 taken by the endoscope 5001 is displayed on the display device 5041.
  • the surgeon 5067 performs a procedure such as excising the affected area by using the energy treatment tool 5021 or the forceps 5023 while viewing the image of the surgical site displayed on the display device 5041 in real time.
  • the pneumoperitoneum tube 5019, the energy treatment tool 5021, and the forceps 5023 are supported by the operator 5067, an assistant, or the like during the operation.
  • the support arm device 5027 includes an arm portion 5031 extending from the base portion 5029.
  • the arm portion 5031 is composed of joint portions 5033a, 5033b, 5033c, and links 5035a, 5035b, and is driven by control from the arm control device 5045.
  • the endoscope 5001 is supported by the arm portion 5031, and its position and posture are controlled. Thereby, the stable position fixing of the endoscope 5001 can be realized.
  • the endoscope 5001 is composed of a lens barrel 5003 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 5071, and a camera head 5005 connected to the base end of the lens barrel 5003.
  • the endoscope 5001 configured as a so-called rigid mirror having a rigid barrel 5003 is illustrated, but the endoscope 5001 is configured as a so-called flexible mirror having a flexible barrel 5003. May be good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 5003.
  • a light source device 5043 is connected to the endoscope 5001, and the light generated by the light source device 5043 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 5003, and is an objective. It is irradiated toward the observation target in the body cavity of the patient 5071 through the lens.
  • the endoscope 5001 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image pickup element are provided inside the camera head 5005, and the reflected light (observation light) from the observation target is focused on the image pickup element by the optical system.
  • the observation light is photoelectrically converted by the image pickup device, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to the camera control unit (CCU: Camera Control Unit) 5039 as RAW data.
  • the camera head 5005 is equipped with a function of adjusting the magnification and the focal length by appropriately driving the optical system thereof.
  • the camera head 5005 may be provided with a plurality of image pickup elements.
  • a plurality of relay optical systems are provided inside the lens barrel 5003 in order to guide the observation light to each of the plurality of image pickup elements.
  • the CCU 5039 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 5001 and the display device 5041. Specifically, the CCU 5039 performs various image processing for displaying an image based on the image signal, such as a development process (demosaic process), on the image signal received from the camera head 5005. The CCU 5039 provides the image signal subjected to the image processing to the display device 5041. Further, the CCU 5039 transmits a control signal to the camera head 5005 and controls the driving thereof.
  • the control signal may include information about imaging conditions such as magnification and focal length.
  • the display device 5041 displays an image based on the image signal processed by the CCU 5039 under the control of the CCU 5039.
  • the endoscope 5001 is compatible with high-resolution shooting such as 4K (horizontal pixel number 3840 x vertical pixel number 2160) or 8K (horizontal pixel number 7680 x vertical pixel number 4320), and / or 3D display.
  • the display device 5041 a display device capable of displaying a high resolution and / or a device capable of displaying in 3D can be used.
  • a display device 5041 having a size of 55 inches or more is used for high-resolution shooting such as 4K or 8K, a further immersive feeling can be obtained.
  • a plurality of display devices 5041 having different resolutions and sizes may be provided depending on the application.
  • the light source device 5043 is composed of, for example, a light source such as an LED (light emission diode), and supplies irradiation light for photographing the surgical site to the endoscope 5001.
  • a light source such as an LED (light emission diode)
  • the arm control device 5045 is configured by a processor such as a CPU, and operates according to a predetermined program to control the drive of the arm portion 5031 of the support arm device 5027 according to a predetermined control method.
  • the input device 5047 is an input interface for the endoscopic surgery system 5000.
  • the user can input various information and input instructions to the endoscopic surgery system 5000 via the input device 5047.
  • the user inputs various information related to the surgery, such as physical information of the patient and information about the surgical procedure, via the input device 5047.
  • the user is instructed to drive the arm portion 5031 via the input device 5047, or is instructed to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 5001. , Instructions to drive the energy treatment tool 5021, etc. are input.
  • the type of the input device 5047 is not limited, and the input device 5047 may be various known input devices.
  • the input device 5047 for example, a mouse, a keyboard, a touch panel, a switch, a foot switch 5057 and / or a lever and the like can be applied.
  • the touch panel may be provided on the display surface of the display device 5041.
  • the input device 5047 is a device worn by the user, such as a glasses-type wearable device or an HMD (Head Mounted Display), and various inputs are made according to the user's gesture and line of sight detected by these devices. Is done. Further, the input device 5047 includes a camera capable of detecting the movement of the user, and various inputs are performed according to the gesture and the line of sight of the user detected from the image captured by the camera. Further, the input device 5047 includes a microphone capable of picking up the voice of the user, and various inputs are performed by voice via the microphone.
  • a glasses-type wearable device or an HMD Head Mounted Display
  • the input device 5047 is configured to be able to input various information in a non-contact manner, so that a user who belongs to a clean area (for example, an operator 5067) can operate a device belonging to the unclean area in a non-contact manner. Is possible. In addition, the user can operate the device without taking his / her hand off the surgical tool that he / she has, which improves the convenience of the user.
  • a clean area for example, an operator 5067
  • the treatment tool control device 5049 controls the drive of the energy treatment tool 5021 for cauterizing tissue, incising, sealing a blood vessel, or the like.
  • the pneumoperitoneum device 5051 gas in the body cavity through the pneumoperitoneum tube 5019 in order to inflate the body cavity of the patient 5071 for the purpose of securing the field of view by the endoscope 5001 and securing the work space of the operator. Is sent.
  • the recorder 5053 is a device capable of recording various information related to surgery.
  • the printer 5055 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the support arm device 5027 includes a base portion 5029 as a base and an arm portion 5031 extending from the base portion 5029.
  • the arm portion 5031 is composed of a plurality of joint portions 5033a, 5033b, 5033c and a plurality of links 5035a, 5035b connected by the joint portions 5033b, but in FIG. 47, for the sake of simplicity.
  • the configuration of the arm portion 5031 is simplified and shown. Actually, the shapes, numbers and arrangements of the joint portions 5033a to 5033c and the links 5035a and 5035b, the direction of the rotation axis of the joint portions 5033a to 5033c, and the like are appropriately set so that the arm portion 5031 has a desired degree of freedom.
  • the arm portion 5031 may be preferably configured to have more than 6 degrees of freedom.
  • the endoscope 5001 can be freely moved within the movable range of the arm portion 5031, so that the lens barrel 5003 of the endoscope 5001 can be inserted into the body cavity of the patient 5071 from a desired direction. It will be possible.
  • Actuators are provided in the joint portions 5033a to 5033c, and the joint portions 5033a to 5033c are configured to be rotatable around a predetermined rotation axis by driving the actuator.
  • the arm control device 5045 By controlling the drive of the actuator by the arm control device 5045, the rotation angles of the joint portions 5033a to 5033c are controlled, and the drive of the arm portion 5031 is controlled. Thereby, control of the position and posture of the endoscope 5001 can be realized.
  • the arm control device 5045 can control the drive of the arm unit 5031 by various known control methods such as force control or position control.
  • the drive of the arm unit 5031 is appropriately controlled by the arm control device 5045 according to the operation input.
  • the position and orientation of the endoscope 5001 may be controlled.
  • the endoscope 5001 at the tip of the arm portion 5031 can be moved from an arbitrary position to an arbitrary position, and then fixedly supported at the moved position.
  • the arm portion 5031 may be operated by a so-called master slave method. In this case, the arm portion 5031 can be remotely controlled by the user via an input device 5047 installed at a location away from the operating room.
  • the arm control device 5045 When force control is applied, the arm control device 5045 receives an external force from the user, and the actuators of the joint portions 5033a to 5033c are arranged so that the arm portion 5031 moves smoothly according to the external force. So-called power assist control for driving may be performed.
  • the arm portion 5031 when the user moves the arm portion 5031 while directly touching the arm portion 5031, the arm portion 5031 can be moved with a relatively light force. Therefore, the endoscope 5001 can be moved more intuitively and with a simpler operation, and the convenience of the user can be improved.
  • the endoscope 5001 was supported by a doctor called a scopist.
  • the support arm device 5027 by using the support arm device 5027, the position of the endoscope 5001 can be more reliably fixed without human intervention, so that an image of the surgical site can be stably obtained. , It becomes possible to perform surgery smoothly.
  • the arm control device 5045 does not necessarily have to be provided on the cart 5037. Further, the arm control device 5045 does not necessarily have to be one device. For example, the arm control device 5045 may be provided at each of the joint portions 5033a to 5033c of the arm portion 5031 of the support arm device 5027, and the plurality of arm control devices 5045 cooperate with each other to drive the arm portion 5031. Control may be realized.
  • the light source device 5043 supplies the endoscope 5001 with irradiation light for photographing the surgical site.
  • the light source device 5043 is composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • the white light source is configured by the combination of the RGB laser light sources, the output intensity and the output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the white balance of the captured image in the light source device 5043 can be controlled. Can be adjusted.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-division manner, and the drive of the image sensor of the camera head 5005 is controlled in synchronization with the irradiation timing to correspond to each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter in the image pickup device.
  • the drive of the light source device 5043 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 5005 in synchronization with the timing of the change of the light intensity to acquire an image in time division and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 5043 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface layer of the mucous membrane is irradiated with light in a narrower band than the irradiation light (that is, white light) during normal observation.
  • narrow band imaging in which a predetermined tissue such as a blood vessel is photographed with high contrast, is performed.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected.
  • An excitation light corresponding to the fluorescence wavelength of the reagent may be irradiated to obtain a fluorescence image.
  • the light source device 5043 may be configured to be capable of supplying narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 48 is a block diagram showing an example of the functional configuration of the camera head 5005 and CCU5039 shown in FIG. 47.
  • the camera head 5005 has a lens unit 5007, an image pickup unit 5009, a drive unit 5011, a communication unit 5013, and a camera head control unit 5015 as its functions.
  • the CCU 5039 has a communication unit 5059, an image processing unit 5061, and a control unit 5063 as its functions.
  • the camera head 5005 and the CCU 5039 are bidirectionally connected by a transmission cable 5065 so as to be communicable.
  • the lens unit 5007 is an optical system provided at a connection portion with the lens barrel 5003.
  • the observation light taken in from the tip of the lens barrel 5003 is guided to the camera head 5005 and incident on the lens unit 5007.
  • the lens unit 5007 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the optical characteristics of the lens unit 5007 are adjusted so as to collect the observation light on the light receiving surface of the image pickup element of the image pickup unit 5009.
  • the zoom lens and the focus lens are configured so that their positions on the optical axis can be moved in order to adjust the magnification and the focus of the captured image.
  • the image pickup unit 5009 is composed of an image pickup element and is arranged after the lens unit 5007.
  • the observation light that has passed through the lens unit 5007 is focused on the light receiving surface of the image pickup device, and an image signal corresponding to the observation image is generated by photoelectric conversion.
  • the image signal generated by the image pickup unit 5009 is provided to the communication unit 5013.
  • CMOS Complementary Metal Oxide Semiconductor
  • image pickup device for example, an image pickup device capable of capturing a high-resolution image of 4K or higher may be used.
  • the image pickup elements constituting the image pickup unit 5009 are configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D display, respectively.
  • the 3D display enables the surgeon 5067 to more accurately grasp the depth of the living tissue in the surgical site.
  • the image pickup unit 5009 is composed of a multi-plate type, a plurality of lens units 5007 are also provided corresponding to each image pickup element.
  • the image pickup unit 5009 does not necessarily have to be provided on the camera head 5005.
  • the image pickup unit 5009 may be provided inside the lens barrel 5003 immediately after the objective lens.
  • the drive unit 5011 is composed of an actuator, and the zoom lens and the focus lens of the lens unit 5007 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 5015. As a result, the magnification and focus of the image captured by the image pickup unit 5009 can be adjusted as appropriate.
  • the communication unit 5013 is composed of a communication device for transmitting and receiving various information to and from the CCU 5039.
  • the communication unit 5013 transmits the image signal obtained from the image pickup unit 5009 as RAW data to the CCU 5039 via the transmission cable 5065.
  • the image signal is transmitted by optical communication.
  • the surgeon 5067 performs the surgery while observing the condition of the affected area with the captured image, so for safer and more reliable surgery, the moving image of the surgical site is displayed in real time as much as possible. This is because it is required.
  • the communication unit 5013 is provided with a photoelectric conversion module that converts an electric signal into an optical signal.
  • the image signal is converted into an optical signal by the photoelectric conversion module, and then transmitted to the CCU 5039 via the transmission cable 5065.
  • the communication unit 5013 receives a control signal for controlling the drive of the camera head 5005 from the CCU 5039.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image. Contains information about the condition.
  • the communication unit 5013 provides the received control signal to the camera head control unit 5015.
  • the control signal from the CCU 5039 may also be transmitted by optical communication.
  • the communication unit 5013 is provided with a photoelectric conversion module that converts an optical signal into an electric signal, and the control signal is converted into an electric signal by the photoelectric conversion module and then provided to the camera head control unit 5015.
  • the image pickup conditions such as the frame rate, the exposure value, the magnification, and the focal point are automatically set by the control unit 5063 of the CCU 5039 based on the acquired image signal. That is, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 5001.
  • the camera head control unit 5015 controls the drive of the camera head 5005 based on the control signal from the CCU 5039 received via the communication unit 5013. For example, the camera head control unit 5015 controls the drive of the image pickup element of the image pickup unit 5009 based on the information to specify the frame rate of the image pickup image and / or the information to specify the exposure at the time of image pickup. Further, for example, the camera head control unit 5015 appropriately moves the zoom lens and the focus lens of the lens unit 5007 via the drive unit 5011 based on the information that the magnification and the focus of the captured image are specified.
  • the camera head control unit 5015 may further have a function of storing information for identifying the lens barrel 5003 and the camera head 5005.
  • the camera head 5005 can be made resistant to autoclave sterilization.
  • the communication unit 5059 is configured by a communication device for transmitting and receiving various information to and from the camera head 5005.
  • the communication unit 5059 receives an image signal transmitted from the camera head 5005 via the transmission cable 5065.
  • the image signal can be suitably transmitted by optical communication.
  • the communication unit 5059 is provided with a photoelectric conversion module that converts an optical signal into an electric signal.
  • the communication unit 5059 provides the image processing unit 5061 with an image signal converted into an electric signal.
  • the communication unit 5059 transmits a control signal for controlling the drive of the camera head 5005 to the camera head 5005.
  • the control signal may also be transmitted by optical communication.
  • the image processing unit 5061 performs various image processing on the image signal which is the RAW data transmitted from the camera head 5005.
  • the image processing includes, for example, development processing, high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing (electronic zoom processing). Etc., various known signal processing is included. Further, the image processing unit 5061 performs detection processing on the image signal for performing AE, AF and AWB.
  • the image processing unit 5061 is composed of a processor such as a CPU or GPU, and the processor operates according to a predetermined program, so that the above-mentioned image processing and detection processing can be performed.
  • the image processing unit 5061 is composed of a plurality of GPUs, the image processing unit 5061 appropriately divides the information related to the image signal and performs image processing in parallel by the plurality of GPUs.
  • the control unit 5063 performs various controls regarding the imaging of the surgical site by the endoscope 5001 and the display of the captured image. For example, the control unit 5063 generates a control signal for controlling the drive of the camera head 5005. At this time, when the imaging condition is input by the user, the control unit 5063 generates a control signal based on the input by the user. Alternatively, when the endoscope 5001 is equipped with an AE function, an AF function, and an AWB function, the control unit 5063 has an optimum exposure value, a focal length, and an optimum exposure value according to the result of detection processing by the image processing unit 5061. The white balance is calculated appropriately and a control signal is generated.
  • control unit 5063 causes the display device 5041 to display the image of the surgical unit based on the image signal processed by the image processing unit 5061.
  • the control unit 5063 recognizes various objects in the surgical unit image by using various image recognition techniques.
  • the control unit 5063 detects a surgical tool such as forceps, a specific biological part, bleeding, a mist when using the energy treatment tool 5021, etc. by detecting the shape, color, etc. of the edge of the object included in the surgical site image. Can be recognized.
  • the control unit 5063 uses the recognition result to superimpose and display various surgical support information on the image of the surgical site. By superimposing the surgical support information and presenting it to the surgeon 5067, it becomes possible to proceed with the surgery more safely and surely.
  • the transmission cable 5065 connecting the camera head 5005 and the CCU 5039 is an electric signal cable compatible with electric signal communication, an optical fiber compatible with optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 5065, but the communication between the camera head 5005 and the CCU 5039 may be performed wirelessly.
  • the communication between the two is performed wirelessly, it is not necessary to lay the transmission cable 5065 in the operating room, so that the situation where the movement of the medical staff in the operating room is hindered by the transmission cable 5065 can be solved.
  • an endoscopic surgery system 5000 to which the technique according to the present disclosure can be applied.
  • the endoscopic surgery system 5000 has been described here as an example, the system to which the technique according to the present disclosure can be applied is not limited to such an example.
  • the technique according to the present disclosure may be applied to a flexible endoscopic system for examination or a microsurgery system.
  • the technique according to the present disclosure can be suitably applied to the display device 5041 among the configurations described above.
  • this technology can also have the following configuration.
  • liquid crystal materials having different refractive index anisotropies are enclosed in each of the plurality of divided regions, and the phase distribution patterns for colors having different wavelengths are displayed. , High performance and high reliability can be realized.
  • a plurality of divided regions which are provided in different regions in the in-plane direction and are encapsulated with liquid crystal materials having different refractive index anisotropies, each displaying a phase distribution pattern for colors having different wavelengths.
  • An optical phase modulation element comprising. (2) The optical phase modulation element according to (1) above, wherein the plurality of divided regions have a first divided region and a second divided region. (3) The first divided region has a red region for displaying a phase distribution pattern for red and a green region for displaying a phase distribution pattern for green. The optical phase modulation element according to (2) above, wherein the second division region has a blue region for displaying a phase distribution pattern for blue.
  • the wavelengths are the same.
  • refractive index anisotropy ⁇ nR, G> ⁇ nB The optical phase modulation element according to (3) above.
  • the first division region has a red region that displays a phase distribution pattern for red.
  • the second division region has a green region displaying a phase distribution pattern for green.
  • the refractive index anisotropy of the liquid crystal material enclosed in the first divided region is ⁇ nR
  • the refractive index anisotropy of the liquid crystal material enclosed in the second divided region is ⁇ nG
  • the refractive index anisotropy is enclosed in the third divided region.
  • the refractive index anisotropy of the liquid crystal material is ⁇ nB
  • One of the plurality of divided regions has a blue region that displays a phase distribution pattern for blue.
  • One of the plurality of divided regions has a blue region that displays a phase distribution pattern for blue.
  • each of the plurality of divided regions has a curved shape at least partially in the in-plane direction.
  • a light source unit that emits multiple colored lights with different wavelengths from each other, It includes an optical phase modulation element that phase-modulates each of the plurality of colored lights from the light source unit.
  • the optical phase modulation element is A plurality of divided regions, which are provided in different regions in the in-plane direction and are encapsulated with liquid crystal materials having different refractive index anisotropies, each displaying a phase distribution pattern for colors having different wavelengths. Display device equipped with.
  • a light intensity modulation element that uses the reproduced image generated by the optical phase modulation element as illumination light and generates an image by intensity-modulating the illumination light.
  • a projection optical system that projects an image generated by the light intensity modulation element, The display device according to (13) above.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Nonlinear Science (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Liquid Crystal (AREA)

Abstract

本開示の光位相変調素子(1A)は、面内方向において互いに異なる領域に設けられると共に、互いに屈折率異方性が異なる液晶材料が封入され、それぞれが互いに波長の異な色用の位相分布パターンを表示する複数の分割領域(21、22)、を備える。

Description

光位相変調素子、および表示装置
 本開示は、液晶材料を用いる光位相変調素子、および表示装置に関する。
 光強度変調素子によって光の輝度(強度)を変調して映像表示を行う表示装置が知られている。また、光の位相を変調して所望の再生像を生成する光位相変調素子が知られている。光強度変調素子および光位相変調素子は、例えば液晶パネルによって構成される。光位相変調素子の応用例として、表示する画像に応じて位相変調された再生像を生成し、その再生像を映像表示用の光強度変調素子への照明光として利用する技術がある(特許文献1~3参照)。特に、特許文献3には、1つの光位相変調素子を用いてカラー表示に必要な3原色の照明光を生成する技術が提案されている。
特開2008-292725号公報 特開2008-89686号公報 特開平4-293075号公報
 単一の液晶材料が封入された1つの光位相変調素子を用いて複数の色光の位相変調を行う場合、液晶材料の性質上、位相変調特性や耐光性等が波長によって異なるため、性能と信頼性の低下を招く。
 高性能と高信頼性とを実現可能な光位相変調素子、および表示装置を提供することが望ましい。
 本開示の一実施の形態に係る光位相変調素子は、面内方向において互いに異なる領域に設けられると共に、互いに屈折率異方性が異なる液晶材料が封入され、それぞれが互いに波長の異なる色用の位相分布パターンを表示する複数の分割領域、を備える。
 本開示の一実施の形態に係る表示装置は、互いに波長の異なる複数の色光を発する光源部と、光源部からの複数の色光のそれぞれを位相変調する光位相変調素子とを含み、光位相変調素子は、面内方向において互いに異なる領域に設けられると共に、互いに屈折率異方性が異なる液晶材料が封入され、それぞれが互いに波長の異なる色用の位相分布パターンを表示する複数の分割領域、を備える。
 本開示の一実施の形態に係る光位相変調素子、または表示装置では、複数の分割領域のそれぞれに互いに屈折率異方性が異なる液晶材料が封入され、それぞれが互いに波長の異なる色用の位相分布パターンを表示する。
輝度変調方式の表示装置の概要を示す斜視図である。 輝度変調方式の表示装置の概要を示す断面図である。 位相変調方式の表示装置の概要を示す斜視図である。 位相変調方式の表示装置の概要を示す断面図である。 屈折率楕円体の概要を示す説明図である。 液晶材料の巨視的な屈折率分布の一例を示す説明図である。 VAモードの液晶パネルの概要を示す断面図である。 輝度変調方式の液晶パネルの概要を示す正面図である。 輝度変調方式の液晶パネルの概要を示す断面図である。 位相変調方式の液晶パネルの概要を示す正面図である。 位相変調方式の液晶パネルの概要を示す断面図である。 比較例に係る単板式カラー光位相変調素子の概要を示す説明図である。 一般的な液晶材料の屈折率異方性の波長分散特性の一例を示す説明図である。 比視感度曲線の一例を示す説明図である。 本開示の第1の実施の形態に係る光位相変調素子の面内構造の第1の例を概略的に示す平面図である。 第1の実施の形態に係る光位相変調素子の面内構造の第2の例を概略的に示す平面図である。 第1の実施の形態に係る光位相変調素子の面内構造の第3の例を概略的に示す平面図である。 第1の実施の形態に係る光位相変調素子の面内構造の第1の変形例を概略的に示す平面図である。 第1の実施の形態に係る光位相変調素子の面内構造の第2の変形例を概略的に示す平面図である。 第1の実施の形態に係る光位相変調素子を用いた表示装置の一構成例を概略的に示す構成図である。 第1の実施の形態に係る光位相変調素子の一構成例を概略的に示す断面図である。 各実施例に係る光位相変調素子で用いた液晶材料の種類を示す説明図である。 比較例に係る光位相変調素子の概要を示す平面図である。 比較例および実施例1に係る光位相変調素子のセルギャップdの値と、液晶材料の種類および物性値とを示す説明図である。 比較例に係る光位相変調素子の位相変調量の電圧特性を示す説明図である。 実施例1に係る光位相変調素子の位相変調量の電圧特性を示す説明図である。 比較例および実施例1に係る光位相変調素子において、位相を2π変調させるのに必要な電圧値を示す説明図である。 比較例に係る光位相変調素子における耐光性試験の結果を示す説明図である。 実施例1に係る光位相変調素子における耐光性試験の結果を示す説明図である。 比較例および実施例1に係る光位相変調素子における信頼性試験の結果を示す説明図である。 比較例および実施例2に係る光位相変調素子のセルギャップdの値と、液晶材料の種類および物性値とを示す説明図である。 比較例に係る光位相変調素子の位相変調量の電圧特性を示す説明図である。 実施例2に係る光位相変調素子の位相変調量の電圧特性を示す説明図である。 比較例および実施例2に係る光位相変調素子において、位相を2π変調させるのに必要な電圧値を示す説明図である。 比較例に係る光位相変調素子における耐光性試験の結果を示す説明図である。 実施例2に係る光位相変調素子における耐光性試験の結果を示す説明図である。 比較例および実施例3に係る光位相変調素子のセルギャップdの値と、液晶材料の種類および物性値とを示す説明図である。 比較例に係る光位相変調素子の位相変調量の電圧特性を示す説明図である。 実施例3に係る光位相変調素子の位相変調量の電圧特性を示す説明図である。 比較例および実施例3に係る光位相変調素子において、位相を2π変調させるのに必要な電圧値を示す説明図である。 実施例3に係る光位相変調素子における耐光性試験の結果を示す説明図である。 比較例、実施例1および実施例3に係る光位相変調素子のそれぞれにおける再生像の評価結果を示す説明図である。 実施例4に係る光位相変調素子の配向膜の種類およびセルギャップdの値と、液晶材料の種類および物性値とを示す説明図である。 金属における光吸収率の波長特性を示す説明図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 内視鏡手術システムの概略的な構成の一例を示す構成図である。 図47に示すカメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下、本開示の実施の形態について図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
 0.比較例(図1~図14)
 1.第1の実施の形態
  1.1 概要(光位相変調素子の平面構成例)(図15~図19)
  1.2 表示装置の構成例(図20)
  1.3 光位相変調素子の断面構成例(図21)
  1.4 実施例(図22~図43)
  1.5 変形例(図44)
 2.応用例(図45~図48)
  2.1 第1の応用例
  2.2 第2の応用例
 3.その他の実施の形態
 
<0.比較例>
 図1および図2は、輝度変調方式の表示装置の概要を示している。
 一般的な投射型表示装置(プロジェクタ)の構成として、例えば図1および図2に示したように、光源500から出射された均一な照明光を光強度変調素子501に照射して光強度変調を行って画像を生成し、生成された画像を投射レンズを通してスクリーン50に投影するものがある。
 光強度変調素子501としては、通常、LCD(Liquid Crystal Display:液晶パネル)やDMD(Digital Micro-mirror Device:ミラーデバイス)が用いられる。特に液晶パネルを用いた液晶プロジェクタは、色再現性が良く、高画質が実現できる。液晶プロジェクタでは、液晶パネルを光シャッタとして用いている。図1および図2では、光強度変調素子501として透過型の液晶パネルを用いた例を示す。液晶パネルは、一対の基板502,503間に複数の液晶分子514を含む液晶層513を挟んだ構成とされている。光強度変調素子501を透過型の液晶パネルとする場合、光の入射方向には偏光子521が配置され、光の出射方向には検光子522が配置される。偏光子521は、入射光L11のうち所定の偏光方向に偏光された偏光光を出射する。輝度変調方式の表示装置の場合、光強度変調素子501の1画素は最終的に表示される画像の1画素に対応する。光強度変調素子501を液晶パネルとする場合、暗い映像領域を表示する場合は、液晶パネルにより照明光を遮断する必要があり、表示に使わない光が存在し、光の利用効率が著しく低下してしまう。
 これに対し、位相変調方式の表示装置として、SLM(Spatial Light Modulator:空間光位相変調素子)を回折素子として利用して照明光を生成することにより、低輝度の画素領域に照射される光の一部を高輝度領域に分配する技術が開示されている(例えば、特許文献1,2参照)。光位相変調素子としては、液晶パネルを用いることも可能である。
 図3および図4は、位相変調方式の表示装置の概要を示している。
 図3および図4では、光位相変調素子1として、反射型の回折素子を用いた例を示す。位相変調方式の表示装置では、例えば、光源500から出射された均一な照明光を光位相変調素子1に照射して位相変調を行うことにより生成された再生像を、スクリーン50に投影する。位相変調方式の表示装置では、光の回折を用いているので高効率である。位相変調方式の表示装置の場合、光位相変調素子1の1画素は必ずしも最終的に表示される画像の1画素には対応せず、光位相変調素子1における複数の画素を、表示される画像の1画素に対応させることが可能となる。光位相変調素子1における複数の画素を用いて最終的に表示される画像の1画素を構成することが可能であるため、光位相変調素子1において画素欠陥が万が一起こっても画素表示として安定的であることも特徴である。また、カラー表示も可能であり、R(赤),G(緑),B(青)の3原色の照明光を、色ごとに異なる光位相変調素子1を使って生成する技術も開示されている。
 これらの輝度変調方式および位相変調方式における光の伝搬について、液晶パネルを用いる場合を例に説明する。
 液晶パネルに用いられる液晶材料は、図5に示したように、光軸が1つの一軸性の屈折率楕円体530である。図5ではz軸が屈折率楕円体530の長軸、x軸およびy軸が屈折率楕円体530の短軸となっている。屈折率楕円体530の光軸とは、楕円体の中心を通る切断面が円となるときの面の法線方向を示し、図5ではz軸に相当する。図5において、屈折率楕円体530のx軸方向の屈折率をnx、y軸方向の屈折率をny、z軸方向の屈折率をnzとすると、屈折率の大きさの関係は、nx=ny、nx,ny<nzとなる。
 図6は、液晶材料の巨視的な屈折率分布の一例を示している。
 液晶分子514の配向方向は、ダイレクタ(Director)と呼ばれる単位ベクトルnによって表される。巨視的に見たとき、複数の液晶分子514の平均的な屈折率分布は1つの屈折率楕円体530とみなすことができる。屈折率楕円体530と同様に、液晶分子514の長軸と光軸は一致する。液晶材料は、屈折率異方性(=複屈折)を持つ。屈折率とは、媒質中を進む光波の進行速度が遅くなる割合のことをいい、複屈折とは、物質に光が入射するときに2つの屈折光が現れる現象のことをいう。液晶分子514の光軸に対して平行に振動する光は異常光線と呼ばれ、異常光線に対する屈折率はneと表現される。液晶分子514の長軸に対して直角方向に振動する光は常光線と呼ばれ、常光線に対する屈折率はnoと表現される。この屈折率neと屈折率noとの差は、屈折率異方性Δn(=ne-no)と呼ばれる。この屈折率異方性があると、入射方向に応じて光に位相差が生じる。
(液晶パネルの構成例)
 図7は、VA(Vertical Alignment)モードの液晶パネルの概要を示している。
 図7に示した例では、液晶パネルに封入されている液晶材料はネガ型液晶であり、配向は垂直配向である。VAモードの液晶パネルは、一対の基板502,503間に液晶層513を充填してなる。一方の基板502の液晶層513に向かう面には、液晶層513を構成する液層分子514の配向を制御するための画素電極512がパターン形成されている。同様に、他方の基板503の液晶層513に向かう面には、液晶層513を構成する液層分子514の配向を制御するための画素電極511がパターン形成されている。図示しないが、画素電極511および画素電極512のそれぞれを覆う状態で配向膜が設けられている。図7の(A)には画素電極511と画素電極512との間の電圧が無印加(電圧OFF)の状態、図7の(B)には画素電極511と画素電極512との間に電圧を印加(電圧ON)した状態を示す。電圧が無印加の状態では液晶分子514は立っており、電圧を印加した状態では液晶分子513が倒れていく。
 画素電極511および画素電極512によって液晶層513に電圧を印加した際に、液晶層513を構成している液晶分子514の倒れる方向を一対の基板502,503の全面において揃えることで配向を制御する。このために、電圧を印加していないときにおいて、液晶分子514に一様のプレチルト角を付与させている。例えば、VAモードの液晶パネルでは、表示領域の全面において、液晶分子514に2°~6°のプレチルト角(基板面の法線方向に対する角度)を持たせるように、配向膜の表面が構成されている。
 VAモードの液晶パネルでは、例えば、クロスニコルの位置に2つの偏光板を配置することにより、電圧の無印加時に黒表示、電圧の印加時に白表示がなされるノーマリーブラックの表示が行われる。
(輝度変調方式の液晶パネルの光学作用)
 図8および図9に、光強度変調素子501としての輝度変調方式の液晶パネルの概要を示す。図8には、光強度変調素子501を正面方向から見た構成および光の偏光状態を模式的に示す。図9には、光強度変調素子501の断面内の構成および光の偏光状態を模式的に示す。なお、図8および図9には、光強度変調素子501が透過型のVAモードの液晶パネルである場合の構成例を示す。
 光強度変調素子501に対して、光の入射方向には入射側偏光板としての偏光子521が配置され、光の出射方向には出射側偏光板としての検光子522が配置されている。光強度変調素子501は、対向する複数の画素電極511と複数の画素電極512との間に、液晶層513を挟んだ構成とされている。液晶層513は、複数の液晶分子514を有している。液晶層513は、複数の液晶分子514が所定の配向方向となるように配列されている。
 偏光子521は、無偏光の入射光L11のうち所定の偏光方向に偏光された偏光光L12を出射する。液晶分子514の配向方向は例えば、図8に示したように、正面方向から見て偏光光L12の偏光方向に対して45°傾いた方向とされている。液晶分子514の断面内の傾きは、図9に示したように、対向する画素電極511と画素電極512との間に印加する電圧に応じて変化する。これにより、光強度変調素子501から出射される強度変調光L13の偏光状態は、印加電圧に応じて変化する。最終的に検光子522から出射される光の光量は、強度変調光L13の偏光状態に応じて変化する。
 輝度変調方式では、光の偏光を利用して階調特性を表現する。光強度変調素子501から出射される強度変調光L13の偏光状態が変化することで、各画素ごとの輝度が変わる。図9では、電圧を印加して液晶分子514が傾いたときに、入射した直線偏光の偏光光L12がどう変化し、2つの偏光板(偏光子521および検光子522)がクロスニコル配置されている条件下で、輝度がどのように変化するかを示している。
 図9において、領域(1)~(3)の各領域を通過する光の輝度は、輝度∝sin(Δndπ/λ)で表される。ここで、Δnは液晶分子514の屈折率異方性、dはセルギャップ(液晶層513の厚み)、λは入射光L11の波長を示す。Δndπ/λ=π/2、つまりΔnd=λ/2にて、最大輝度が得られる。
 領域(1)では、液晶層513は電圧が無印加の状態である。液晶分子514は液晶パネルの基板に対して、ほぼ垂直に配向するような状態となる。液晶層513に入射した直線偏光の偏光光L12は液晶分子514の影響をほとんど受けずに液晶層513を通過する。2つの偏光板がクロスニコル配置されている条件下では、最終的な出力光は黒表示となる。
 領域(2)では、液晶層513はある程度の電圧が印加されている状態であり、液晶分子514が液晶パネルの基板に対して、ある程度、傾いている状態となる。このように液晶分子514がある程度、傾いている場合は、位相差の発生により、液晶層513に入射した偏光光L12の偏光状態が直線偏光から楕円偏光に変わる。2つの偏光板がクロスニコル配置されている条件下では、最終的な出力光は、検光子522を通過できる光と通過できない光とが混在するのでグレー(中間調)表示となる。
 領域(3)では、液晶層513には領域(2)よりも高い電圧が印加されている状態であり、液晶分子514が液晶パネルの基板に対して、ほぼ平行に配向するような状態となる。この場合の液晶分子514の屈折率異方性Δnは最大となり、Δnd=λ/2で設定した場合、液晶層513に入射した偏光光L12は液晶層513内で90°回転した直線偏光となる。2つの偏光板がクロスニコル配置されている条件下では、強度変調光L13は検光子522を通過し、最終的な出力光は、白表示となる。
(位相変調方式の液晶パネルの光学作用)
 図10および図11に、光位相変調素子1としての位相変調方式の液晶パネルの概要を示す。図10には、光位相変調素子1を正面方向から見た構成および光の偏光状態を模式的に示す。図11には、光位相変調素子1の断面内の構成および光の偏光状態を模式的に示す。なお、図10および図11には、光位相変調素子1が透過型のVAモードの液晶パネルである場合の構成例を示す。
 図11には、図9の輝度変調方式の構成と同様に、光位相変調素子1に対して、光の入射方向には偏光子521が配置されているが、光の出射方向には検光子522は配置されていない。光位相変調素子1は、図9の輝度変調方式の構成と同様に、対向する複数の画素電極511と複数の画素電極512との間に、液晶層513を挟んだ構成とされている。液晶層513は、複数の液晶分子514を有している。液晶層513は、複数の液晶分子514が所定の配向方向となるように配列されている。
 偏光子521は、無偏光の入射光L11のうち所定の偏光方向に偏光された偏光光L12を出射する。液晶分子514の配向方向は例えば、図10に示したように、正面方向から見て偏光光L12の偏光方向と平行な方向とされている。液晶分子514の断面内の傾きは、図11に示したように、対向する画素電極511と画素電極512との間に印加する電圧に応じて変化する。これにより、最終的に光位相変調素子1から出射される位相変調光L14の位相は、印加電圧に応じて変化する。
 位相変調方式の液晶パネルでは、液晶分子514の傾きにより光の位相のみが変化し、偏光は変化しないため、輝度は変わらない。図11では、電圧を印加して液晶分子514が傾いたときに、入射した直線偏光の偏光光L12がどう変化し、位相がどのように変化するかを示している。
 図10に示すように、液晶パネルに直線偏光の偏光光L12が液晶分子514のダイレクタと一致して入射した場合を考える。図11において、領域(1)~(3)の各領域を通過する光の位相は、Δnd=λにて、位相が1波長変わる。
 領域(1)では、液晶層513は電圧が無印加の状態である。液晶分子514は液晶パネルの基板に対して、ほぼ垂直に配向するような状態となる。液晶層513に入射した直線偏光の偏光光L12の偏光方向は、液晶分子514のダイレクタと一致しているため、偏光は変化しない。領域(1)の液晶層513の屈折率をn1とおくと、光位相変調素子1からの出力光の位相の遅延Δndはn1dとなる。
 領域(2)では、液晶層513はある程度の電圧が印加されている状態であり、液晶分子514が液晶パネルの基板に対して、ある程度、傾いている状態となる。液晶層513に入射した直線偏光の偏光光L12の偏光方向は、液晶分子514のダイレクタと一致しているため、偏光は変化しない。液晶分子514が傾いている場合は、領域(2)の液晶層513の屈折率は、液晶分子514が傾いた分の異常光線の屈折率neから常光線の屈折率noを引いたものとなる。領域(2)の液晶層513の屈折率をn2とおくと、光位相変調素子1からの出力光の位相の遅延Δndはn2dとなる。
 領域(3)では、液晶層513には領域(2)よりも高い電圧が印加されている状態であり、液晶分子514が液晶パネルの基板に対して、ほぼ平行に配向するような状態となる。液晶層513に入射した直線偏光の偏光光L12の偏光方向は、液晶分子514のダイレクタと一致しているため、偏光は変化しない。液晶分子514が液晶パネルの基板に対して平行になっている場合は、液晶分子514の屈折率異方性Δnは最大となる。液晶層513の屈折率は、異常光線の屈折率neから常光線の屈折率noを引いたものとなる。領域(3)の液晶層513の屈折率をn3とおくと、光位相変調素子1からの出力光の位相の遅延Δndはn3dとなる。Δnd=λで設定した場合、液晶分子514が立っている領域(1)と液晶分子514が寝ている領域(3)とを比較した場合、最終的に光位相変調素子1から出射される位相変調光L14の位相は一波長分、変化する。
(単板式カラー光位相変調素子)
 特許文献1,2には、プロジェクタにおいて、カラー表示に必要な3原色(赤、緑、青)の照明光を、色ごとに異なる光位相変調素子を用いて生成する技術が提案されている。一方、特許文献3には、1つの光位相変調素子(単板式カラー光位相変調素子)を用いてカラー表示に必要な3原色の照明光を生成する技術が提案されている。
 図12は、比較例に係る単板式カラー光位相変調素子100の概要を示している。
 単板式カラー光位相変調素子100では、例えば、単一の液晶材料が封入された1枚の液晶パネルを面内で赤(R)領域110R、緑(G)領域110G、および青(B)領域110Bに分割し、R,G,Bの各色の色光を各色領域に照射する。そして、各色領域において、各色光の波長に応じた位相分布パターン(位相ホログラム)を計算して表示することで、所望の再生像100を得ることができる。この再生像100を輝度変調方式のプロジェクタにおける光強度変調素子に対する照明光として利用することができる。
 しかしながら、比較例に係る単板式カラー光位相変調素子100では、単一の液晶材料を封入した構成であるため、液晶材料の性質上、以下で説明するように、R領域110R、G領域110G、およびB領域110Bの各色領域で位相変調特性や耐光性等が異なる。このため、性能と信頼性の低下を招く。
 以下、各色領域ごとの課題を説明する。
(R領域110R:位相変調量)
 図13は、一般的な液晶材料の屈折率異方性Δnの波長分散特性の一例を示している。
 一般的に、液晶材料では波長が長くなるほど、屈折率異方性Δnの値は小さくなる。つまり、波長の長い赤色光(630nm近傍)では、液晶材料の屈折率異方性Δnは小さくなる。
 光位相変調素子において2πの位相変調を行うには、Δnd=λが必要であるため、液晶材料の屈折率異方性Δnの設計値は、R領域110Rの波長での屈折率異方性Δnから決める必要がある。その場合、B領域110Bは、Δnd=λ(550nm)でよいのに、R領域110Rの屈折率異方性Δnの値に合わせて設計すると、Δnd>λ(550nm)となるため、オーバースペックであり、高Δn液晶材料を使う必要があるので耐光性とトレードオフになる。また、液晶材料の応答速度は、液晶材料の粘度に依存する。液晶材料の粘度が高くなると応答速度が遅くなる。一般に高Δnを持つ液晶材料は粘度が高いため、応答速度に影響する。
(B領域110B:耐光性劣化)
 液晶パネルは短波長の青色光によって劣化する。つまり、液晶パネルに強い青色光を長時間照射した場合、液晶材料に溶け込んだ周辺材料であるシール材、封止剤、または環境からの不純物等からフリーラジカルが発生する。発生したフリーラジカルは、液晶材料の化学結合を切断することで、液晶パネルの特性を低下させてしまうことが考えられる。すなわち、耐光性は特にB領域110Bの特有の課題であり、単板式カラー光位相変調素子100に用いた場合は、B領域110Bのみ局所的に劣化してしまう可能性がある。このため、B領域110Bに特化した高耐光化が必要である。液晶材料の設計としては屈折率異方性Δnの値を小さくすることが有効である。
(G領域110G:画質エラーの見えやすさ)
 図14は、比視感度曲線の一例を示している。
 人間の目は、同じ強さの光であっても、波長によって強さの感じ方に差があり、この感じ方は比視感度曲線としてモデル化されている。図14は、人間が感じることのできる波長λ=380nm~780nmでの比視感度曲線を示しており、波長λ=555nmの比視感度が最大値として規格化されている。緑波長に対する人間の視感度は高いので、単板式カラー光位相変調素子100において、G領域110Gに表示させる位相分布パターンに異常があれば、ごまかしがきかず、表示性能として十分な再生像100が得られにくくなる。具体的には、液晶材料を注入する際に、注入口を形成するが、液晶封入後に樹脂で封止する。その封止剤からの不純物がG領域110Gにかかってしまうと、局所的に劣化し、位相分布パターンの表示が不十分となり、高品位の再生像100が得られなくなる。
<1.第1の実施の形態>
[1.1 概要(光位相変調素子の平面構成例)]
 本開示の第1の実施の形態に係る光位相変調素子の基本構造は、例えば図11に示した光位相変調素子1と同様に、対向する一対の基板間に液晶材料を封入した構成であってもよい。第1の実施の形態に係る光位相変調素子は、図12に示した比較例に係る単板式カラー光位相変調素子100と同様に、1枚の液晶パネルで構成され、複数の色光に対応した複数の色領域を有し、各色領域において、各色光の波長に応じた位相分布パターンを表示することで、所望の再生像100を得ることが可能な構成とされている。比較例に係る単板式カラー光位相変調素子100は、1枚の液晶パネルにおいて単一の液晶材料が封入された構成とされていたが、第1の実施の形態に係る光位相変調素子では、複数の液晶材料が封入された構成とされている。第1の実施の形態に係る光位相変調素子では、面内方向において互いに異なる領域に設けられた複数の分割領域を備えている。複数の分割領域には、互いに屈折率異方性Δnが異なる液晶材料が封入されている。複数の分割領域にはそれぞれ、互いに波長の異なる少なくとも1つの色用の位相分布パターンを表示する。
 以下、第1の実施の形態に係る光位相変調素子の具体的な構成例について説明する。なお、以下では、位相分布パターンを表示する色領域がR,G,Bの3つである構成例を示すが、これらの色には限定されない。また、色領域が2つまたは4つ以上であってもよい。
(第1の構成例)
 図15は、第1の実施の形態に係る光位相変調素子の面内構造の第1の例を概略的に示している。図15に示した構成例は、後述する実施例1および実施例4の構成に相当する。
 図15に示した光位相変調素子1Aは、複数の分割領域として、第1分割領域21と第2分割領域22とを有している。
 光位相変調素子1Aにおいて、第1分割領域21は、R領域(赤色領域)10RとG領域(緑色領域)10Gとを有する。R領域10Rは、図示しない例えばレーザ光源からの赤色光によって照明され、赤色光のピーク波長に最適化された赤色用の位相分布パターンを表示する。G領域10Gは、図示しない例えばレーザ光源からの緑色光によって照明され、緑色光のピーク波長に最適化された緑色用の位相分布パターンを表示する。
 第2分割領域22は、B領域(青色領域)10Bを有する。B領域10Bは、図示しない例えばレーザ光源からの青色光によって照明され、青色光のピーク波長に最適化された青色用の位相分布パターンを表示する。
 第1分割領域21と第2分割領域22とのそれぞれの周囲はシール41が形成され、互いに領域分離されている。第1分割領域21と第2分割領域22とには、互いに屈折率異方性Δnが異なる液晶材料が封入されている。すなわち、図15に示した光位相変調素子1Aでは、R領域10RおよびG領域10Gの液晶材料と、B領域10Bの液晶材料とが互いに異なっている。
 光位相変調素子1Aは、第1分割領域21に封入された液晶材料の屈折率異方性をΔnR,G、第2分割領域22に封入された液晶材料の屈折率異方性をΔnBとしたとき、同一波長(例えばλ=550nm)において、
 ΔnR,G>ΔnB
 を満たすことが望ましい。
 つまり、R領域10RおよびG領域10Gには高Δn液晶材料を注入することが望ましい。第1分割領域21において、液晶注入口はR領域10Rに形成し、封止剤42により封止することが望ましい。その結果、第1分割領域21では、R領域10Rに合わせた十分な位相変調量が実現でき、G領域10Gにおける封止剤42からの不純物による局所的な劣化も防止できる。なお、滴下注入プロセスを用いれば、封止剤42は不要となる。この場合は、R領域10Rの位相変調量のみの効果を期待すればよい。B領域10Bには、青色光のピーク波長近傍(例えばλ=450nm)においてΔnd=λとなる液晶材料を選定すればよい。つまり、B領域10Bには、より低Δnの液晶材料を選ぶことができるので、耐光性に有利である。また、この構成例によれば、シールパターンを変えるだけで工程数を増やさずに高品質を実現することができる。
 なお、R領域10R、G領域10G、およびB領域10Bのそれぞれの面積は、同じであってもよいし、異なっていてもよい。また、R領域10R、G領域10G、およびB領域10Bのそれぞれの面積は、R,G,Bの各色の光源の光量に応じて決めてもよい。光源は、干渉性の高いレーザ光源が望ましいが、LED(Light Emitting Diode)または蛍光体光源を用いてもよい。
(第2の構成例)
 図16は、第1の実施の形態に係る光位相変調素子の面内構造の第2の例を概略的に示している。図16に示した構成例は、後述する実施例1および実施例4の構成に相当する。
 図16に示した光位相変調素子1Bは、複数の分割領域として、第1分割領域21と、第2分割領域22と、第3分割領域23とを有している。
 光位相変調素子1Bにおいて、第1分割領域21はR領域10Rを有する。R領域10Rは、図示しない例えばレーザ光源からの赤色光によって照明され、赤色光のピーク波長に最適化された赤色用の位相分布パターンを表示する。
 光位相変調素子1Bにおいて、第2分割領域22はG領域10Gを有する。G領域10Gは、図示しない例えばレーザ光源からの緑色光によって照明され、緑色光のピーク波長に最適化された緑色用の位相分布パターンを表示する。
 光位相変調素子1Bにおいて、第3分割領域23はB領域10Bを有する。B領域10Bは、図示しない例えばレーザ光源からの青色光によって照明され、青色光のピーク波長に最適化された青色用の位相分布パターンを表示する。
 第1分割領域21、第2分割領域22、および第3分割領域23のそれぞれの周囲は、シール41が形成され、互いに領域分離されている。第1分割領域21、第2分割領域22、および第3分割領域23のそれぞれには、互いに屈折率異方性Δnが異なる液晶材料が封入されている。すなわち、図16に示した光位相変調素子1Bでは、R領域10R、G領域10G、およびB領域10Bのそれぞれの液晶材料が互いに異なっている。R領域10R、G領域10G、およびB領域10Bのそれぞれにおいて、液晶注入口は、封止剤42により封止する。なお、滴下注入プロセスを用いれば、封止剤42は不要となる。
 光位相変調素子1Bは、第1分割領域21に封入された液晶材料の屈折率異方性をΔnR、第2分割領域22に封入された液晶材料の屈折率異方性をΔnG、第3分割領域23に封入された液晶材料の屈折率異方性をΔnBとしたとき、同一波長(例えばλ=550nm)において、
 ΔnR≧ΔnG>ΔnB
 を満たすことが望ましい。
 これにより、前述した耐光性、信頼性、および位相変調量の観点において優れた性能を実現可能となる。本構成例は、R領域10R、G領域10G、およびB領域10Bのそれぞれの領域で液晶材料の最適化ができるというメリットがある。
 なお、R領域10R、G領域10G、およびB領域10Bのそれぞれの面積は、同じであってもよいし、異なっていてもよい。また、R領域10R、G領域10G、およびB領域10Bのそれぞれの面積は、R,G,Bの各色の光源の光量に応じて決めてもよい。光源は、干渉性の高いレーザ光源が望ましいが、LEDまたは蛍光体光源を用いてもよい。
(第3の構成例)
 図17は、第1の実施の形態に係る光位相変調素子の面内構造の第3の例を概略的に示している。図17に示した構成例は、後述する実施例3の構成に相当する。
 図17に示した光位相変調素子1Cの基本構成は、図15に示した光位相変調素子1Aと同様であるが、各分割領域の面積が図15に示した光位相変調素子1Aとは異なっている。図17に示した光位相変調素子1Cでは、B領域10Bを有する第2分割領域22の面積が、面内の全有効表示領域の1/3以上とされている。前述したように、B領域10Bは青色光によって劣化しやすい。B領域10Bの劣化については、面内の入射光のばらつきもあることから、局所的に劣化が起こる。このため、B領域10Bの面積が大きい方が劣化していない領域を確保できるため、長時間高品質な再生像を得ることが可能となる。
 なお、図16に示した光位相変調素子1Bに対しても同様に、B領域10Bを有する第3分割領域23の面積を、面内の全有効表示領域の1/3以上にすることが望ましい。
(第4の構成例)
 上記第1ないし第3の構成例に係る光位相変調素子において、対向する一対の基板における、液晶層に接する面には配向膜が形成されていてもよい。この場合、配向膜は、複数の分割領域のそれぞれに対応して設けられていてもよい。この場合、配向膜として互いに異なる材料からなる複数の配向膜を備える構成にしてもよい。例えば、R領域10RおよびG領域10Gを有する分割領域に対応する配向膜を有機材料とし、B領域10Bを有する分割領域に対応する配向膜を無機材料にすることが望ましい。各配向膜の分割は、例えばインクジェットやマスクプロセスの工程を分けることで実現することができる。特にB領域10Bを有する分割領域に無機配向膜を用いることで、耐光性をより高くすることが可能となる。
(第5の構成例)
 図18および図19は、第1の実施の形態に係る光位相変調素子の面内構造の第1および第2の変形例を概略的に示している。
 上記第1ないし第4の構成例に係る光位相変調素子に対して、複数の分割領域のそれぞれが、面内方向において少なくとも一部に曲線形状を有する構造であってもよい。
 図18に示した第1の変形例に係る光位相変調素子1Dは、図15に示した光位相変調素子1Aの構成に対して、第1分割領域21の一部を曲線形状とし、第2分割領域22の全体を曲線形状とした構成となっている。光位相変調素子1Dにおいて、第2分割領域22は面内の中心領域に形成され、第2分割領域22の周囲にシール41を形成することにより、第2分割領域22と第1分割領域21とが領域分割されている。
 図19に示した第2の変形例に係る光位相変調素子1Eは、図16に示した光位相変調素子1Bの構成に対して、第1分割領域21および第2分割領域22の一部を曲線形状とし、第3分割領域23の全体を曲線形状とした構成となっている。光位相変調素子1Eにおいて、第3分割領域23は面内の中心領域に形成され、第3分割領域23の周囲にシール41を形成することにより、第3分割領域23が第1分割領域21および第2分割領域22に対して領域分割されている。
 なお、各分割領域の形状は、図15~図19に示した形状以外にも、種々の形状を取り得る。各分割領域の形状を様々なパターンで形成可能であることは、設計自由度が高くなり、例えば光源の配置などに制限がある場合であっても、本開示の技術を適用可能となるなどの利点がある。
 なお、液晶材料の注入方法は、シールパターンにより片方の基板に液晶材料を滴下して、もう1枚の基板を重ねて接着するODF(One Drop Fill)というプロセスのみを用いても良いし、真空注入プロセスを用いても良いし、併用しても構わない。これにより、例えば図18に示した光位相変調素子1Dのように、封止剤42を用いない構成にすることも可能である。
[効果]
 以上説明したように、第1の実施の形態に係る光位相変調素子によれば、複数の分割領域のそれぞれに互いに屈折率異方性が異なる液晶材料を封入し、それぞれが互いに波長の異なる色用の位相分布パターンを表示するようにしたので、高性能と高信頼性とを実現可能となる。
 第1の実施の形態に係る光位相変調素子によれば、R領域10Rにおいて十分な位相変調量を確保できることや、高輝度のRGB光源で光位相変調素子を照明しても、B領域10Bの経時変化による劣化を抑えることが可能であることなどから、安定した光制御が可能となり、鮮明な再生像を得ることができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。以降の他の実施の形態の効果についても同様である。
[1.2 表示装置の構成例]
 第1の実施の形態に係る光位相変調素子は、上述したように、R,G,B各色の波長の光が入射する複数の色領域を有し、各色領域は各色のピーク波長によって最適化された位相分布パターンを表示する。位相分布パターンを表示するための位相分布データの計算手法としては、位相分布を回折近似式から導く回折型の方法と、位相分布を回折ではなく自由曲面レンズとして導く屈折型の方法とがあるが、いずれの計算手法によっても構わない。
 光源は干渉性の高いRGBレーザが望ましいが、LEDや蛍光体を用いても良い。例えば、光源から出射されたR,G,B各々の光を、コリメータレンズにより拡大して平行光とし、光位相変調素子の各色領域への照明光とする。光位相変調素子に入射したレーザ光を位相変調することで、所定の場所に再生像が表示されるが、各色を組み合わせたときに、再生像の大きさが同じになるように波長の違いは考慮する必要がある。光位相変調素子の各画素は、入力された信号に応じて、液晶のリタデーションを制御することで、0~2πまでの連続的な位相変調が可能となる。
 図20は、第1の実施の形態に係る光位相変調素子を用いた表示装置としてのプロジェクタ101の一構成例を概略的に示している。
 プロジェクタ101は、画像信号出力装置60と、強度変調パターン計算回路61と、位相分布パターン計算回路62と、光位相変調素子駆動回路63と、光強度変調素子駆動回路64とを備えている。プロジェクタ101は、さらに、光位相変調素子10と、光源部30と、ビーム整形光学系32と、光強度変調素子51と、偏光分離素子(PBS)52と、投射レンズ53とを備えている。
 図20の構成例では、光位相変調素子10が反射型の液晶パネルで構成された例を示す。光位相変調素子10の面内構造は、上述の図15~図19に示した構成例のいずれかの構成であってもよい。光位相変調素子10は、複数の色領域を有し、各色領域は各色のピーク波長によって最適化された位相分布パターンを表示する。
 光源部30は、それぞれ異なるピーク波長を持つ光源31を複数有する。光源31は、例えばレーザ光源である。ビーム整形光学系32は、各光源31から発せられた各ピーク波長の色光を空間的に分離しつつ整形し、光位相変調素子10の各色領域を各ピーク波長の色光で照明する。
 画像信号出力装置60は、強度変調パターン計算回路61と位相分布パターン計算回路62とに画像信号を出力する。位相分布パターン計算回路62では、画像信号に基づいて、光位相変調素子10で表示する位相分布パターンを計算する。光位相変調素子10で表示する位相分布パターンは、表示する画像に応じた輝度分布を持つ照明像を形成することが可能な位相分布パターンである。
 位相分布パターン計算回路62では、例えば、画像信号から画像の輝度レベルの閾値以上の部分を抽出し、繰り返しのFFT(高速フーリエ変換)計算によって位相分布パターンを計算する。ここで、位相分布パターン計算回路62は、あらかじめ光源部30のピーク波長の情報と光位相変調素子10の各色領域の分割パターンの情報とを保持しており、位相分布パターンとしては、ピーク波長ごと、色領域ごとに最適化された位相分布パターンを計算する。また、位相分布パターン計算回路62は、照明光強度変調パターン信号を、強度変調パターン計算回路61に出力する。照明光強度変調パターン信号は、位相分布パターンによって形成される照明像の輝度分布の情報を表している。
 光位相変調素子駆動回路63は、位相分布パターン計算回路62で計算された位相分布パターンを表示するように光位相変調素子10を駆動する。強度変調パターン計算回路61では、画像信号に基づいて、光強度変調素子51で表示する画像を生成するための強度変調パターンを計算する。このとき、光位相変調素子10による照明像の輝度分布の情報を加味した強度変調パターンを計算する。
 光強度変調素子駆動回路64は、強度変調パターン計算回路61で計算された強度変調パターンを生成するように光強度変調素子51を駆動する。
 偏光分離素子52は、入射した光のうち第1の偏光成分を透過し、第1の偏光成分に直交する第2の偏光成分を反射する。光強度変調素子51には、偏光分離素子52を介して、光位相変調素子10によって形成された照明像が照明光として照射される。光強度変調素子51は、その照明光に対して、強度変調パターン計算回路61で計算された強度変調パターンに基づいて強度変調を行い、投影画像を生成する。上述したように、強度変調パターン計算回路61で計算された強度変調パターンには、光位相変調素子10による照明像の輝度分布の情報が加味されているので、光強度変調素子51によって、結果として、元の画像信号を再現する投影画像が生成される。
 光強度変調素子51によって生成された投影画像は、偏光分離素子52によって投射レンズ53に向けて出射される。投射レンズ53は、複数のレンズを含む投影光学系であり、光強度変調素子51によって生成された投影画像を、スクリーン50等の投影面に投影する。
[1.3 光位相変調素子の断面構成例]
 図21は、第1の実施の形態に係る光位相変調素子の断面構成例を概略的に示している。
 図21の構成例では、光位相変調素子201が反射型の液晶パネルで構成された例を示す。図21に示した光位相変調素子201の面内構造は、上述の図15~図19に示した構成例のいずれかの構成であってもよい。光位相変調素子201は、複数の色領域を有し、各色領域は各色のピーク波長によって最適化された位相分布パターンを表示する。
 光位相変調素子201は、ガラス基板210と、駆動基板220と、液晶材料240とを備えている。液晶材料240は、封止剤230およびスペーサ231によってガラス基板210と駆動基板220との間に封入されている。液晶材料240は、例えば垂直配向液晶となっている。
 ガラス基板210は光透過性を有する透明電極211を有している。ガラス基板210には、透明電極211と配向膜212が形成されている。配向膜212としては、ポリイミドなどの有機膜や、例えばSiO(酸化ケイ素)などの無機配向膜が用いられる。耐光性や耐熱性に対しては無機配向膜が望ましい。
 駆動基板220は、画素構造を有する光反射電極221を備えたシリコン等の単結晶半導体基板からなる。駆動基板220には、単結晶シリコン基板にCMOS(Complementary Metal Oxide Semiconductor)やnチャンネルMOS(Metal Oxide Semicoductor)からなるトランジスタとキャパシタとからなる駆動回路が形成されている。駆動回路の上にAl(アルミニウム)やAg(銀)などの金属膜で画素構造が形成される。この金属膜は、光反射電極221として、光の反射膜と液晶材料240とに印加する電圧の電極との両方を兼ねることになる。また、この光反射電極221の表面に配向膜222が形成されている。配向膜222としては、ポリイミドなどの有機膜や例えばSiO(酸化ケイ素)などの無機配向膜が用いられる。耐光性や耐熱性に対しては無機配向膜が望ましい。
[1.4 実施例]
 図22は、以下で説明する各実施例に係る光位相変調素子で用いた液晶材料の種類を示している。
 第1の実施の形態に係る光位相変調素子は、面内方向において互いに異なる領域に設けられた複数の分割領域を備えている。複数の分割領域には、互いに屈折率異方性Δnが異なる液晶材料が封入されている。図22には、以下の各実施例において用いられている液晶材料A,B,Cのそれぞれの特性として、R(λ=630nm),G(λ=550nm),B(λ=450nm)のそれぞれの波長ごとの屈折率異方性Δnの値を示す。
[実施例1]
 実施例1に係る光位相変調素子の面内構造は、図15に示した通りである。図23は、比較例に係る光位相変調素子の面内構造を概略的に示している。比較例および実施例1に係る光位相変調素子はいずれも、液晶パネルで構成されている。実施例1に係る光位相変調素子は、R領域10RおよびG領域10Gを有する第1分割領域21と、B領域10Bを有する第2分割領域22とを備えている。これに対し、比較例に係る光位相変調素子は分割領域はなく、単一の領域内にR領域10R、G領域10GおよびB領域10Bを有する構造とされている。
 図24に、比較例および実施例1に係る光位相変調素子のセルギャップd(液晶層の厚み)の値と、液晶材料の種類および物性値(Δn)とを示す。
 比較例および実施例1に係る光位相変調素子において、液晶層に用いた液晶材料はいずれも誘電率異方性が負のネマティック液晶材料である。
 比較例に係る光位相変調素子には、面内領域全域(R領域10R、G領域10GおよびB領域10B)において液晶材料Aを真空環境下にて注入した。実施例1に係る光位相変調素子には、第1分割領域21(R領域10RおよびG領域10G)に液晶材料A、第2分割領域22(B領域10B)に液晶材料Bを真空環境下にて注入した。その後、注入口をUV硬化性樹脂からなる封止剤42にて封止した。なお、注入口を形成せず、封止剤42を用いない構成にすることも可能である。この場合、液晶注入の方法は、例えば、片方の基板に液晶材料を滴下して、もう1枚の基板を重ねて接着するODFというプロセスを用いる。
(評価結果)
・位相変調量
 図25は、比較例に係る光位相変調素子の位相変調量の電圧特性を示している。図26は、実施例1に係る光位相変調素子の位相変調量の電圧特性を示している。図27は、比較例および実施例1に係る光位相変調素子において、位相を2π変調させるのに必要な電圧値を示している。
 図25および図26には、5Vでの各色領域についての位相変調量の測定結果を示す。図27には、図25および図26の測定結果から得られた、位相を2π変調させるのに必要な各色領域についての電圧値を示している。比較例に係る光位相変調素子では、各色領域に同じ液晶材料を使っているのでB領域10Bは、波長分散により屈折率異方性Δnの値が、R領域10RおよびG領域10Gに比べて大きくなる。しかしながら、位相変調量は2πで十分であるため、実施例1に係る光位相変調素子では、B領域10Bのみ低Δnの液晶材料を用いている。
・耐光性
 次いで耐光性試験を行った。液晶プロジェクタ用の試験機に、比較例および実施例1のそれぞれの光位相変調素子を入れて、B領域10Bでの透過率の測定を行った。図28に、比較例に係る光位相変調素子における耐光性試験の結果を示す。図29に、実施例1に係る光位相変調素子における耐光性試験の結果を示す。図28および図29において、縦軸は各光位相変調素子の最大透過率を示し、横軸は使用時間(光照射時間)を示す。比較例に係る光位相変調素子では、B領域10Bは時間経過に伴い、大きく透過率が低下したが、実施例1に係る光位相変調素子では、透過率の低下が見られなかった。実施例1に係る光位相変調素子の構成ではB領域10Bには屈折率異方性Δnが小さい液晶材料を使用している。一般に液晶材料は屈折率異方性Δnの値が小さいほど光分解しにくいと考えられるため、光劣化が小さいのである。実施例1に係る光位相変調素子によれば、長時間の使用による劣化が見られず、良好な位相分布パターンを表示することができる。
・信頼性試験
 図30に、比較例および実施例1に係る光位相変調素子における信頼性試験の結果を示す。図30には、環境試験条件が60℃、90%の高温高湿下での加速試験を行った結果を示す。位相分布パターンから像を再生したところ、実施例1に係る光位相変調素子では500時間経過後でも良好な鮮明像が得られた。G領域10Gは劣化が目立ちやすいので封止剤42を接触しないような構造を用いることで、良好な位相分布パターンを表示することができる。
[実施例2]
 実施例2に係る光位相変調素子の面内構造は、図16に示した通りである。比較例に係る光位相変調素子の面内構造は、図23に示した通りである。比較例および実施例2に係る光位相変調素子はいずれも、液晶パネルで構成されている。実施例2に係る光位相変調素子は、R領域10Rを有する第1分割領域21と、G領域10Gを有する第2分割領域22と、B領域10Bを有する第3分割領域23とを備えている。これに対し、比較例に係る光位相変調素子は分割領域はなく、単一の領域内にR領域10R、G領域10GおよびB領域10Bを有する構造とされている。
 図24に、比較例および実施例2に係る光位相変調素子のセルギャップd(液晶層の厚み)の値と、液晶材料の種類および物性値(Δn)とを示す。
 比較例および実施例2に係る光位相変調素子において、液晶層に用いた液晶材料はいずれも誘電率異方性が負のネマティック液晶材料である。
 比較例に係る光位相変調素子には、面内領域全域(R領域10R、G領域10GおよびB領域10B)において液晶材料Aを真空環境下にて注入した。実施例2に係る光位相変調素子には、第1分割領域21(R領域10R)に液晶材料A、第2分割領域22(G領域10G)に液晶材料C、第3分割領域23(B領域10B)に液晶材料Bを真空環境下にて注入した。その後、注入口をUV硬化性樹脂からなる封止剤42にて封止した。なお、注入口を形成せず、封止剤42を用いない構成にすることも可能である。この場合、液晶注入の方法は、例えば、片方の基板に液晶材料を滴下して、もう1枚の基板を重ねて接着するODFというプロセスを用いる。
(評価結果)
・位相変調量
 図32は、比較例に係る光位相変調素子の位相変調量の電圧特性を示している。図33は、実施例2に係る光位相変調素子の位相変調量の電圧特性を示している。図34は、比較例および実施例2に係る光位相変調素子において、位相を2π変調させるのに必要な電圧値を示している。
 図32および図33には、5Vでの各色領域についての位相変調量の測定結果を示す。図34には、図32および図33の測定結果から得られた、位相を2π変調させるのに必要な各色領域についての電圧値を示している。比較例に係る光位相変調素子では、各色領域に同じ液晶材料を使っているのでB領域10BおよびG領域10Gは、波長分散により屈折率異方性Δnの値が、R領域10Rに比べて大きくなる。しかしながら、位相変調量は2πで十分であるため、実施例2に係る光位相変調素子では、R領域10Rに対して、B領域10BおよびG領域10Gでは低Δnの液晶材料を用いている。
・耐光性
 次いで耐光性試験を行った。液晶プロジェクタ用の試験機に、比較例および実施例2のそれぞれの光位相変調素子を入れて、B領域10Bでの透過率の測定を行った。図35に、比較例に係る光位相変調素子における耐光性試験の結果を示す。図36に、実施例2に係る光位相変調素子における耐光性試験の結果を示す。図35および図36において、縦軸は各光位相変調素子の最大透過率を示し、横軸は使用時間(光照射時間)を示す。比較例に係る光位相変調素子では、B領域10Bは時間経過に伴い、大きく透過率が低下したが、実施例2に係る光位相変調素子では、透過率の低下が見られなかった。実施例2に係る光位相変調素子の構成ではB領域10Bには屈折率異方性Δnが小さい液晶材料を使用している。一般に液晶材料は屈折率異方性Δnの値が小さいほど光分解しにくいと考えられるため、光劣化が小さいのである。実施例2に係る光位相変調素子によれば、長時間の使用による劣化が見られず、良好な位相分布パターンを表示することができる。
[実施例3]
 実施例3に係る光位相変調素子の面内構造は、図17に示した通りである。図23は、比較例に係る光位相変調素子の面内構造を概略的に示している。比較例および実施例3に係る光位相変調素子はいずれも、液晶パネルで構成されている。実施例3に係る光位相変調素子は、R領域10RおよびG領域10Gを有する第1分割領域21と、B領域10Bを有する第2分割領域22とを備えている。これに対し、比較例に係る光位相変調素子は分割領域はなく、単一の領域内にR領域10R、G領域10GおよびB領域10Bを有する構造とされている。また、実施例3に係る光位相変調素子は、B領域10Bを有する第2分割領域22の面積が、面内の全有効表示領域の1/3以上とされている。
 図37に、比較例および実施例3に係る光位相変調素子のセルギャップd(液晶層の厚み)の値と、液晶材料の種類および物性値(Δn)とを示す。
 比較例および実施例3に係る光位相変調素子において、液晶層に用いた液晶材料はいずれも誘電率異方性が負のネマティック液晶材料である。
 比較例に係る光位相変調素子には、面内領域全域(R領域10R、G領域10GおよびB領域10B)において液晶材料Aを真空環境下にて注入した。実施例3に係る光位相変調素子には、第1分割領域21(R領域10RおよびG領域10G)に液晶材料A、第2分割領域22(B領域10B)に液晶材料Bを真空環境下にて注入した。その後、注入口をUV硬化性樹脂からなる封止剤42にて封止した。なお、注入口を形成せず、封止剤42を用いない構成にすることも可能である。この場合、液晶注入の方法は、例えば、片方の基板に液晶材料を滴下して、もう1枚の基板を重ねて接着するODFというプロセスを用いる。
(評価結果)
・位相変調量
 図38は、比較例に係る光位相変調素子の位相変調量の電圧特性を示している。図39は、実施例3に係る光位相変調素子の位相変調量の電圧特性を示している。図40は、比較例および実施例3に係る光位相変調素子において、位相を2π変調させるのに必要な電圧値を示している。
 図38および図39には、5Vでの各色領域についての位相変調量の測定結果を示す。図40には、図38および図39の測定結果から得られた、位相を2π変調させるのに必要な各色領域についての電圧値を示している。比較例に係る光位相変調素子では、各色領域に同じ液晶材料を使っているのでB領域10Bは、波長分散により屈折率異方性Δnの値が、R領域10RおよびG領域10Gに比べて大きくなる。しかしながら、位相変調量は2πで十分であるため、実施例3に係る光位相変調素子では、B領域10Bのみ低Δnの液晶材料を用いている。
・耐光性
 次いで耐光性試験を行った。液晶プロジェクタ用の試験機に、比較例および実施例3のそれぞれの光位相変調素子を入れて、B領域10Bでの透過率の測定を行った。図28に、比較例に係る光位相変調素子における耐光性試験の結果を示す。図41に、実施例3に係る光位相変調素子における耐光性試験の結果を示す。図41において、縦軸は各光位相変調素子の最大透過率を示し、横軸は使用時間(光照射時間)を示す。比較例に係る光位相変調素子では、B領域10Bは時間経過に伴い、大きく透過率が低下したが、実施例3に係る光位相変調素子では、実施例1(図29)と同様、透過率の低下が見られなかった。実施例3に係る光位相変調素子の構成では、実施例1に係る光位相変調素子と同様、B領域10Bには屈折率異方性Δnが小さい液晶材料を使用している。一般に液晶材料は屈折率異方性Δnの値が小さいほど光分解しにくいと考えられるため、光劣化が小さいのである。
 しかしながら、照射時間を延長して、比較例に対して3倍程度の時間まで試験を行っていくと、実施例3に係る光位相変調素子においても、B領域10Bの透過率が少しずつ低下していくことがわかった。つまり、B領域10Bは、その劣化時間を材料設計により延長させることはできるが、永久ではなく、いずれは劣化が必ず起こる。
 図42に、比較例、実施例1および実施例3に係る光位相変調素子のそれぞれにおける再生像の評価結果を示す。図42には、初期およびある一定時間後に再生された再生像の評価結果を示す。画質ランクは5が最良で、数値が低くなるほど、悪化傾向とする。
 比較例に係る光位相変調素子では、像劣化が早い時間に確認された。これに対し、実施例1に係る光位相変調素子では、見え方は長時間良好であった。実施例3に係る光位相変調素子では、実施例1に係る光位相変調素子よりもさらに、見え方は長時間良好であった。この理由として、実施例3に係る光位相変調素子では、実施例1に係る光位相変調素子に比べてB領域10Bの面積を大きくしていることがある。光位相変調素子では面内の入射光のばらつきもあることから、面内において局所的に劣化が起こり、各色領域の中心部の劣化が大きくなる。つまり、面積が大きい方が劣化していない領域を確保できるため、長時間高品質な再生像を得ることが可能となる。
[実施例4]
 実施例4に係る光位相変調素子は、液晶パネルで構成されている。実施例4に係る光位相変調素子の面内構造は、図15に示した通りである。実施例4に係る光位相変調素子は、実施例1に係る光位相変調素子に対して、配向膜の材料が異なっている。実施例1に係る光位相変調素子は、全色領域において配向膜が同一の材料とされている。これに対し、実施例4に係る光位相変調素子は、R領域10RおよびG領域10Gを有する分割領域に対応する配向膜を有機材料であるポリイミドとし、B領域10Bを有する分割領域に対応する配向膜を無機材料にしている。また、実施例4に係る光位相変調素子では、R領域10RおよびG領域10Gに対しては液晶材料としてポジ型の液晶材料aを注入し、B領域10Bに対してはネガ型の液晶材料Bを注入した。液晶材料aの屈折率異方性Δnの値は、液晶材料A(図22参照)と同様である。
 実施例4に係る光位相変調素子では、B領域10Bは、R領域10RおよびG領域10GをマスクしてSiOを蒸着した。その後、R領域10RおよびG領域10Gには、ポリイミド材料が形成できるように印刷を行った。もちろん、インクジェットなどのプロセスを用いて、形成しても構わない。その後、B領域10Bをマスクして光配向工程を経た。もちろん、マスクラビング法を使って配向形成しても構わない。その後、図15のようなシールパターンを形成し、R領域10RおよびG領域10に対してはポジ型の液晶材料aを注入し、B領域10Bに対してはネガ型の液晶材料Bを注入した。
 図43に、実施例4に係る光位相変調素子のセルギャップd(液晶層の厚み)の値と、液晶材料の種類および物性値(Δn)とを示す。
 実施例4に係る光位相変調素子には、第1分割領域21(R領域10RおよびG領域10G)に液晶材料a、第2分割領域22(B領域10B)に液晶材料Bを真空環境下にて注入した。その後、注入口をUV硬化性樹脂からなる封止剤42にて封止した。
 結果として、画質が良好で、耐光性のよい光位相変調素子を実現することができた。一般的にアンカリングが強いポリイミド配向膜は、配向性が良いが、光には弱い。視覚度の高いG領域10Gにポリイミド配向膜を用いることで、配向性が良くなるため、良好な位相分布パターンが形成され、良好な再生像が実現できる。
 また、耐光性に強い無機配向膜をB領域10Bに形成することで、長期間光劣化のない良好な再生像を再生することができる。
[1.5 変形例]
 以上の説明では、光位相変調素子を表示装置に適用した構成例を挙げたが、本開示の技術による光位相変調素子は、表示装置以外にも適用可能である。例えばレーザ加工機にも適用可能である。レーザ加工機としては、例えばレーザ光を照射することで電極等の金属のパターンの加工を行う装置がある。また、レーザ光を照射することではんだ付けを行うレーザはんだ装置がある。
 図44は、金属における光吸収率の波長特性を示している。
 図44に示したように、金属の種類により光の吸収率の波長特性が異なる。例えば金(Au)や銅(Cu)は、近赤外レーザに比べてブルーレーザの方が光の吸収率が高い。このため、金や銅などはブルーレーザを用いた方が加工効率が高い。また、金属の種類により光の吸収率の波長特性が異なるため、波長の異なる複数のレーザ光を用いることで、材料の異なる複数の金属を同時に加工することが可能となる。このような場合、本開示の技術による光位相変調素子を用いて、波長の異なる複数のレーザ光のパターンを生成することで、材料の異なる複数の金属を同時に加工することが可能となる。
<2.応用例>
[2.1 第1の応用例]
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図45は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図45に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図45では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図46は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図46には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図45に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図45の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図45に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 以上説明した車両制御システム7000において、本開示の技術は、表示部7720に適用することができる。
[2.2 第2の応用例]
 本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図47は、本開示に係る技術が適用され得る内視鏡手術システム5000の概略的な構成の一例を示す図である。図47では、術者(医師)5067が、内視鏡手術システム5000を用いて、患者ベッド5069上の患者5071に手術を行っている様子が図示されている。図示するように、内視鏡手術システム5000は、内視鏡5001と、その他の術具5017と、内視鏡5001を支持する支持アーム装置5027と、内視鏡下手術のための各種の装置が搭載されたカート5037と、から構成される。
 内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ5025a~5025dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5025a~5025dから、内視鏡5001の鏡筒5003や、その他の術具5017が患者5071の体腔内に挿入される。図示する例では、その他の術具5017として、気腹チューブ5019、エネルギー処置具5021及び鉗子5023が、患者5071の体腔内に挿入されている。また、エネルギー処置具5021は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具5017はあくまで一例であり、術具5017としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
 内視鏡5001によって撮影された患者5071の体腔内の術部の画像が、表示装置5041に表示される。術者5067は、表示装置5041に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5021や鉗子5023を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、気腹チューブ5019、エネルギー処置具5021及び鉗子5023は、手術中に、術者5067又は助手等によって支持される。
 (支持アーム装置)
 支持アーム装置5027は、ベース部5029から延伸するアーム部5031を備える。図示する例では、アーム部5031は、関節部5033a、5033b、5033c、及びリンク5035a、5035bから構成されており、アーム制御装置5045からの制御により駆動される。アーム部5031によって内視鏡5001が支持され、その位置及び姿勢が制御される。これにより、内視鏡5001の安定的な位置の固定が実現され得る。
 (内視鏡)
 内視鏡5001は、先端から所定の長さの領域が患者5071の体腔内に挿入される鏡筒5003と、鏡筒5003の基端に接続されるカメラヘッド5005と、から構成される。図示する例では、硬性の鏡筒5003を有するいわゆる硬性鏡として構成される内視鏡5001を図示しているが、内視鏡5001は、軟性の鏡筒5003を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒5003の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5001には光源装置5043が接続されており、当該光源装置5043によって生成された光が、鏡筒5003の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者5071の体腔内の観察対象に向かって照射される。なお、内視鏡5001は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド5005の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5039に送信される。なお、カメラヘッド5005には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
 なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5005には撮像素子が複数設けられてもよい。この場合、鏡筒5003の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
 (カートに搭載される各種の装置)
 CCU5039は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5001及び表示装置5041の動作を統括的に制御する。具体的には、CCU5039は、カメラヘッド5005から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5039は、当該画像処理を施した画像信号を表示装置5041に提供する。また、CCU5039は、カメラヘッド5005に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
 表示装置5041は、CCU5039からの制御により、当該CCU5039によって画像処理が施された画像信号に基づく画像を表示する。内視鏡5001が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置5041としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置5041として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5041が設けられてもよい。
 光源装置5043は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5001に供給する。
 アーム制御装置5045は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5027のアーム部5031の駆動を制御する。
 入力装置5047は、内視鏡手術システム5000に対する入力インタフェースである。ユーザは、入力装置5047を介して、内視鏡手術システム5000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置5047を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置5047を介して、アーム部5031を駆動させる旨の指示や、内視鏡5001による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5021を駆動させる旨の指示等を入力する。
 入力装置5047の種類は限定されず、入力装置5047は各種の公知の入力装置であってよい。入力装置5047としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5057及び/又はレバー等が適用され得る。入力装置5047としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5041の表示面上に設けられてもよい。
 あるいは、入力装置5047は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置5047は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置5047は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置5047が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5067)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
 処置具制御装置5049は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5021の駆動を制御する。気腹装置5051は、内視鏡5001による視野の確保及び術者の作業空間の確保の目的で、患者5071の体腔を膨らめるために、気腹チューブ5019を介して当該体腔内にガスを送り込む。レコーダ5053は、手術に関する各種の情報を記録可能な装置である。プリンタ5055は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 以下、内視鏡手術システム5000において特に特徴的な構成について、更に詳細に説明する。
 (支持アーム装置)
 支持アーム装置5027は、基台であるベース部5029と、ベース部5029から延伸するアーム部5031と、を備える。図示する例では、アーム部5031は、複数の関節部5033a、5033b、5033cと、関節部5033bによって連結される複数のリンク5035a、5035bと、から構成されているが、図47では、簡単のため、アーム部5031の構成を簡略化して図示している。実際には、アーム部5031が所望の自由度を有するように、関節部5033a~5033c及びリンク5035a、5035bの形状、数及び配置、並びに関節部5033a~5033cの回転軸の方向等が適宜設定され得る。例えば、アーム部5031は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5031の可動範囲内において内視鏡5001を自由に移動させることが可能になるため、所望の方向から内視鏡5001の鏡筒5003を患者5071の体腔内に挿入することが可能になる。
 関節部5033a~5033cにはアクチュエータが設けられており、関節部5033a~5033cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5045によって制御されることにより、各関節部5033a~5033cの回転角度が制御され、アーム部5031の駆動が制御される。これにより、内視鏡5001の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5045は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5031の駆動を制御することができる。
 例えば、術者5067が、入力装置5047(フットスイッチ5057を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5045によってアーム部5031の駆動が適宜制御され、内視鏡5001の位置及び姿勢が制御されてよい。当該制御により、アーム部5031の先端の内視鏡5001を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部5031は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5031は、手術室から離れた場所に設置される入力装置5047を介してユーザによって遠隔操作され得る。
 また、力制御が適用される場合には、アーム制御装置5045は、ユーザからの外力を受け、その外力にならってスムーズにアーム部5031が移動するように、各関節部5033a~5033cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部5031に触れながらアーム部5031を移動させる際に、比較的軽い力で当該アーム部5031を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡5001を移動させることが可能となり、ユーザの利便性を向上させることができる。
 ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5001が支持されていた。これに対して、支持アーム装置5027を用いることにより、人手によらずに内視鏡5001の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
 なお、アーム制御装置5045は必ずしもカート5037に設けられなくてもよい。また、アーム制御装置5045は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5045は、支持アーム装置5027のアーム部5031の各関節部5033a~5033cにそれぞれ設けられてもよく、複数のアーム制御装置5045が互いに協働することにより、アーム部5031の駆動制御が実現されてもよい。
 (光源装置)
 光源装置5043は、内視鏡5001に術部を撮影する際の照射光を供給する。光源装置5043は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5043において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5005の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置5043は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5005の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置5043は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5043は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 (カメラヘッド及びCCU)
 図48を参照して、内視鏡5001のカメラヘッド5005及びCCU5039の機能についてより詳細に説明する。図48は、図47に示すカメラヘッド5005及びCCU5039の機能構成の一例を示すブロック図である。
 図48を参照すると、カメラヘッド5005は、その機能として、レンズユニット5007と、撮像部5009と、駆動部5011と、通信部5013と、カメラヘッド制御部5015と、を有する。また、CCU5039は、その機能として、通信部5059と、画像処理部5061と、制御部5063と、を有する。カメラヘッド5005とCCU5039とは、伝送ケーブル5065によって双方向に通信可能に接続されている。
 まず、カメラヘッド5005の機能構成について説明する。レンズユニット5007は、鏡筒5003との接続部に設けられる光学系である。鏡筒5003の先端から取り込まれた観察光は、カメラヘッド5005まで導光され、当該レンズユニット5007に入射する。レンズユニット5007は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット5007は、撮像部5009の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
 撮像部5009は撮像素子によって構成され、レンズユニット5007の後段に配置される。レンズユニット5007を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部5009によって生成された画像信号は、通信部5013に提供される。
 撮像部5009を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者5067は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
 また、撮像部5009を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成される。3D表示が行われることにより、術者5067は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部5009が多板式で構成される場合には、各撮像素子に対応して、レンズユニット5007も複数系統設けられる。
 また、撮像部5009は、必ずしもカメラヘッド5005に設けられなくてもよい。例えば、撮像部5009は、鏡筒5003の内部に、対物レンズの直後に設けられてもよい。
 駆動部5011は、アクチュエータによって構成され、カメラヘッド制御部5015からの制御により、レンズユニット5007のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部5009による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部5013は、CCU5039との間で各種の情報を送受信するための通信装置によって構成される。通信部5013は、撮像部5009から得た画像信号をRAWデータとして伝送ケーブル5065を介してCCU5039に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。手術の際には、術者5067が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部5013には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル5065を介してCCU5039に送信される。
 また、通信部5013は、CCU5039から、カメラヘッド5005の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部5013は、受信した制御信号をカメラヘッド制御部5015に提供する。なお、CCU5039からの制御信号も、光通信によって伝送されてもよい。この場合、通信部5013には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部5015に提供される。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU5039の制御部5063によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡5001に搭載される。
 カメラヘッド制御部5015は、通信部5013を介して受信したCCU5039からの制御信号に基づいて、カメラヘッド5005の駆動を制御する。例えば、カメラヘッド制御部5015は、撮像画像のフレームレートを指定する旨の情報及び/又は撮像時の露光を指定する旨の情報に基づいて、撮像部5009の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部5015は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部5011を介してレンズユニット5007のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部5015は、更に、鏡筒5003やカメラヘッド5005を識別するための情報を記憶する機能を備えてもよい。
 なお、レンズユニット5007や撮像部5009等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド5005について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
 次に、CCU5039の機能構成について説明する。通信部5059は、カメラヘッド5005との間で各種の情報を送受信するための通信装置によって構成される。通信部5059は、カメラヘッド5005から、伝送ケーブル5065を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部5059には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部5059は、電気信号に変換した画像信号を画像処理部5061に提供する。
 また、通信部5059は、カメラヘッド5005に対して、カメラヘッド5005の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
 画像処理部5061は、カメラヘッド5005から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部5061は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
 画像処理部5061は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部5061が複数のGPUによって構成される場合には、画像処理部5061は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
 制御部5063は、内視鏡5001による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部5063は、カメラヘッド5005の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部5063は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡5001にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部5063は、画像処理部5061による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
 また、制御部5063は、画像処理部5061によって画像処理が施された画像信号に基づいて、術部の画像を表示装置5041に表示させる。この際、制御部5063は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部5063は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具5021使用時のミスト等を認識することができる。制御部5063は、表示装置5041に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者5067に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
 カメラヘッド5005及びCCU5039を接続する伝送ケーブル5065は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル5065を用いて有線で通信が行われていたが、カメラヘッド5005とCCU5039との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル5065を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が当該伝送ケーブル5065によって妨げられる事態が解消され得る。
 以上、本開示に係る技術が適用され得る内視鏡手術システム5000の一例について説明した。なお、ここでは、一例として内視鏡手術システム5000について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、本開示に係る技術は、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。
 本開示に係る技術は、以上説明した構成のうち、表示装置5041に好適に適用され得る。
<3.その他の実施の形態>
 本開示による技術は、上記実施の形態の説明に限定されず種々の変形実施が可能である。
 例えば、本技術は以下のような構成を取ることもできる。
 以下の構成の本技術によれば、複数の分割領域のそれぞれに互いに屈折率異方性が異なる液晶材料を封入し、それぞれが互いに波長の異なる色用の位相分布パターンを表示するようにしたので、高性能と高信頼性とを実現可能となる。
(1)
 面内方向において互いに異なる領域に設けられると共に、互いに屈折率異方性が異なる液晶材料が封入され、それぞれが互いに波長の異なる色用の位相分布パターンを表示する複数の分割領域、
 を備える
 光位相変調素子。
(2)
 前記複数の分割領域は、第1分割領域と第2分割領域とを有する
 上記(1)に記載の光位相変調素子。
(3)
 前記第1分割領域は、赤色用の位相分布パターンを表示する赤色領域と、緑色用の位相分布パターンを表示する緑色領域とを有し、
 前記第2分割領域は、青色用の位相分布パターンを表示する青色領域とを有する
 上記(2)に記載の光位相変調素子。
(4)
 前記第1分割領域に封入された前記液晶材料の屈折率異方性をΔnR,G、前記第2分割領域に封入された前記液晶材料の屈折率異方性をΔnBとしたとき、同一波長の屈折率異方性について、
 ΔnR,G>ΔnB
 を満たす
 上記(3)に記載の光位相変調素子。
(5)
 前記複数の分割領域は、第1分割領域と、第2分割領域と、第3分割領域とを有する
 上記(1)に記載の光位相変調素子。
(6)
 前記第1分割領域は、赤色用の位相分布パターンを表示する赤色領域を有し、
 前記第2分割領域は、緑色用の位相分布パターンを表示する緑色領域を有し、
 前記第3分割領域は、青色用の位相分布パターンを表示する青色領域を有する
 上記(5)に記載の光位相変調素子。
(7)
 前記第1分割領域に封入された前記液晶材料の屈折率異方性をΔnR、前記第2分割領域に封入された前記液晶材料の屈折率異方性をΔnG、前記第3分割領域に封入された前記液晶材料の屈折率異方性をΔnBとしたとき、同一波長において、
 ΔnR≧ΔnG>ΔnB
 を満たす
 上記(6)に記載の光位相変調素子。
(8)
 前記複数の分割領域のうちの1つは、青色用の位相分布パターンを表示する青色領域を有し、
 前記青色領域を有する分割領域は、面内の全有効表示領域の1/3以上の面積を有する
 上記(1)ないし(7)のいずれか1つに記載の光位相変調素子。
(9)
 前記複数の分割領域に対応して設けられ、互いに異なる材料からなる複数の配向膜、
 をさらに備える
 上記(1)ないし(8)のいずれか1つに記載の光位相変調素子。
(10)
 前記複数の分割領域のうちの1つは、青色用の位相分布パターンを表示する青色領域を有し、
 前記複数の配向膜のうち、前記青色領域を有する分割領域に対応する前記配向膜は無機材料からなる
 上記(9)に記載の光位相変調素子。
(11)
 前記複数の分割領域のそれぞれは、面内方向において少なくとも一部が曲線形状を有する
 上記(1)ないし(10)のいずれか1つに記載の光位相変調素子。
(12)
 互いに波長の異なる複数の色光を発する光源部と、
 前記光源部からの前記複数の色光のそれぞれを位相変調する光位相変調素子と
 を含み、
 前記光位相変調素子は、
 面内方向において互いに異なる領域に設けられると共に、互いに屈折率異方性が異なる液晶材料が封入され、それぞれが互いに波長の異なる色用の位相分布パターンを表示する複数の分割領域、
 を備える
 表示装置。
(13)
 前記光位相変調素子によって生成された再生像を照明光とし、前記照明光を強度変調することによって画像を生成する光強度変調素子、
 をさらに含む
 上記(12)に記載の表示装置。
(14)
 前記光強度変調素子によって生成された画像を投影する投影光学系、
 をさらに含む
 上記(13)に記載の表示装置。
 本出願は、日本国特許庁において2020年9月2日に出願された日本特許出願番号第2020-147720号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (14)

  1.  面内方向において互いに異なる領域に設けられると共に、互いに屈折率異方性が異なる液晶材料が封入され、それぞれが互いに波長の異なる色用の位相分布パターンを表示する複数の分割領域、
     を備える
     光位相変調素子。
  2.  前記複数の分割領域は、第1分割領域と第2分割領域とを有する
     請求項1に記載の光位相変調素子。
  3.  前記第1分割領域は、赤色用の位相分布パターンを表示する赤色領域と、緑色用の位相分布パターンを表示する緑色領域とを有し、
     前記第2分割領域は、青色用の位相分布パターンを表示する青色領域を有する
     請求項2に記載の光位相変調素子。
  4.  前記第1分割領域に封入された前記液晶材料の屈折率異方性をΔnR,G、前記第2分割領域に封入された前記液晶材料の屈折率異方性をΔnBとしたとき、同一波長において、
     ΔnR,G>ΔnB
     を満たす
     請求項3に記載の光位相変調素子。
  5.  前記複数の分割領域は、第1分割領域と、第2分割領域と、第3分割領域とを有する
     請求項1に記載の光位相変調素子。
  6.  前記第1分割領域は、赤色用の位相分布パターンを表示する赤色領域を有し、
     前記第2分割領域は、緑色用の位相分布パターンを表示する緑色領域を有し、
     前記第3分割領域は、青色用の位相分布パターンを表示する青色領域を有する
     請求項5に記載の光位相変調素子。
  7.  前記第1分割領域に封入された前記液晶材料の屈折率異方性をΔnR、前記第2分割領域に封入された前記液晶材料の屈折率異方性をΔnG、前記第3分割領域に封入された前記液晶材料の屈折率異方性をΔnBとしたとき、同一波長において、
     ΔnR≧ΔnG>ΔnB
     を満たす
     請求項6に記載の光位相変調素子。
  8.  前記複数の分割領域のうちの1つは、青色用の位相分布パターンを表示する青色領域を有し、
     前記青色領域を有する分割領域は、面内の全有効表示領域の1/3以上の面積を有する
     請求項1に記載の光位相変調素子。
  9.  前記複数の分割領域に対応して設けられ、互いに異なる材料からなる複数の配向膜、
     をさらに備える
     請求項1に記載の光位相変調素子。
  10.  前記複数の分割領域のうちの1つは、青色用の位相分布パターンを表示する青色領域を有し、
     前記複数の配向膜のうち、前記青色領域を有する分割領域に対応する配向膜は無機材料からなる
     請求項9に記載の光位相変調素子。
  11.  前記複数の分割領域のそれぞれは、面内方向において少なくとも一部が曲線形状を有する
     請求項1に記載の光位相変調素子。
  12.  互いに波長の異なる複数の色光を発する光源部と、
     前記光源部からの前記複数の色光のそれぞれを位相変調する光位相変調素子と
     を含み、
     前記光位相変調素子は、
     面内方向において互いに異なる領域に設けられると共に、互いに屈折率異方性が異なる液晶材料が封入され、それぞれが互いに波長の異なる色用の位相分布パターンを表示する複数の分割領域、
     を備える
     表示装置。
  13.  前記光位相変調素子によって生成された再生像を照明光とし、前記照明光を強度変調することによって画像を生成する光強度変調素子、
     をさらに含む
     請求項12に記載の表示装置。
  14.  前記光強度変調素子によって生成された画像を投影する投影光学系、
     をさらに含む
     請求項13に記載の表示装置。
PCT/JP2021/029845 2020-09-02 2021-08-13 光位相変調素子、および表示装置 WO2022050028A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180052064.4A CN115885213A (zh) 2020-09-02 2021-08-13 光学相位调制元件和显示装置
JP2022546203A JPWO2022050028A1 (ja) 2020-09-02 2021-08-13
US18/042,049 US20230400755A1 (en) 2020-09-02 2021-08-13 Optical phase modulation element and display apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020147720 2020-09-02
JP2020-147720 2020-09-02

Publications (1)

Publication Number Publication Date
WO2022050028A1 true WO2022050028A1 (ja) 2022-03-10

Family

ID=80490793

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/029845 WO2022050028A1 (ja) 2020-09-02 2021-08-13 光位相変調素子、および表示装置

Country Status (4)

Country Link
US (1) US20230400755A1 (ja)
JP (1) JPWO2022050028A1 (ja)
CN (1) CN115885213A (ja)
WO (1) WO2022050028A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04293075A (ja) * 1991-03-22 1992-10-16 Seiko Epson Corp 光学装置
JP2008292725A (ja) * 2007-05-24 2008-12-04 Sanyo Electric Co Ltd 照明装置および投写型映像表示装置
JP2019158962A (ja) * 2018-03-08 2019-09-19 株式会社ジャパンディスプレイ 表示装置
WO2020054270A1 (ja) * 2018-09-10 2020-03-19 ソニー株式会社 投射型液晶表示装置及び電子機器

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4986582B2 (ja) * 2006-11-15 2012-07-25 シチズンホールディングス株式会社 液晶光変調素子、液晶光変調装置、および液晶光変調素子の駆動方法
JPWO2009122621A1 (ja) * 2008-03-31 2011-07-28 凸版印刷株式会社 位相差板、その製造方法及び液晶表示装置
JP2020021029A (ja) * 2018-08-03 2020-02-06 堺ディスプレイプロダクト株式会社 表示パネルおよび表示パネル装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04293075A (ja) * 1991-03-22 1992-10-16 Seiko Epson Corp 光学装置
JP2008292725A (ja) * 2007-05-24 2008-12-04 Sanyo Electric Co Ltd 照明装置および投写型映像表示装置
JP2019158962A (ja) * 2018-03-08 2019-09-19 株式会社ジャパンディスプレイ 表示装置
WO2020054270A1 (ja) * 2018-09-10 2020-03-19 ソニー株式会社 投射型液晶表示装置及び電子機器

Also Published As

Publication number Publication date
JPWO2022050028A1 (ja) 2022-03-10
CN115885213A (zh) 2023-03-31
US20230400755A1 (en) 2023-12-14

Similar Documents

Publication Publication Date Title
JP7364022B2 (ja) 撮像レンズおよび撮像装置
US11372200B2 (en) Imaging device
JP7229988B2 (ja) 測距システム、及び、受光モジュール、並びに、バンドパスフィルタの製造方法
WO2018150768A1 (ja) 測光装置、測光方法、プログラムおよび撮像装置
KR20200056988A (ko) 렌즈 경통 및 촬상 장치
WO2020202965A1 (ja) 撮像レンズおよび撮像装置
WO2018003245A1 (ja) 信号処理装置、撮像装置、及び信号処理方法
US20220058411A1 (en) Solid state image capturing system, solid state image capturing device, information processing device, image processing method, information processing method, and program
US20200382823A1 (en) Display control apparatus, display control method, and video output apparatus
JPWO2020174865A1 (ja) 可変焦点距離レンズ系及び撮像装置
WO2020166225A1 (ja) 光源ユニット、光源装置及び測距装置
WO2018037680A1 (ja) 撮像装置、撮像システム、及び、信号処理方法
WO2021117497A1 (ja) 撮像レンズおよび撮像装置
WO2018100992A1 (ja) 撮像光学系、カメラモジュール、及び、電子機器
WO2020217874A1 (ja) 表示制御装置、表示制御方法および表示制御プログラム
WO2022050028A1 (ja) 光位相変調素子、および表示装置
JP2020144048A (ja) 光源装置及び測距装置
CN113692367B (zh) 光学系统以及摄像装置
JP7081609B2 (ja) レンズ装置及び撮像装置
WO2022102466A1 (ja) 液晶表示素子、表示装置および電子機器、並びに、駆動基板および駆動基板の製造方法
WO2022124166A1 (ja) 液晶表示素子、表示装置および電子機器、並びに、駆動基板および駆動基板の製造方法
WO2022030366A1 (ja) 表示素子、表示装置および電子機器
JP7405132B2 (ja) レンズ鏡筒及び撮像装置
WO2022163378A1 (ja) レンズアレイおよび立体表示装置
WO2020246427A1 (ja) 光学系および撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21864086

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022546203

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21864086

Country of ref document: EP

Kind code of ref document: A1