WO2020004256A1 - 情報表示装置及び情報表示システム - Google Patents

情報表示装置及び情報表示システム Download PDF

Info

Publication number
WO2020004256A1
WO2020004256A1 PCT/JP2019/024703 JP2019024703W WO2020004256A1 WO 2020004256 A1 WO2020004256 A1 WO 2020004256A1 JP 2019024703 W JP2019024703 W JP 2019024703W WO 2020004256 A1 WO2020004256 A1 WO 2020004256A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
eye
light emitting
information display
controller
Prior art date
Application number
PCT/JP2019/024703
Other languages
English (en)
French (fr)
Inventor
薫 草深
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to JP2020527475A priority Critical patent/JP6924903B2/ja
Priority to EP19826486.3A priority patent/EP3816974A4/en
Priority to US17/255,292 priority patent/US20210165242A1/en
Priority to CN201980041148.0A priority patent/CN112352273B/zh
Publication of WO2020004256A1 publication Critical patent/WO2020004256A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/14Advertising or display means not otherwise provided for using special optical effects displaying different signs depending upon the view-point of the observer
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • G02B30/31Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers involving active parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • H04N13/315Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being time-variant
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements

Definitions

  • the present disclosure relates to an information display device and an information display system.
  • the information display device includes a light emitting panel, a shutter panel, and a controller.
  • the light emitting panel includes a plurality of transmitting portions configured to transmit the first light and a plurality of light emitting portions configured to emit the second light.
  • the light emitting panel is configured such that the transmissive portions and the light emitting portions are alternately arranged along a predetermined direction including a component in a direction in which the first and second eyes of the user are arranged.
  • the shutter panel is configured to overlap with the light emitting panel, and has a dimming region operable to reduce the first light and the second light.
  • the controller can control the dimming region such that the first light is incident on the first eye and the second light is incident on the second eye.
  • the information display system includes an information display device and a camera.
  • the information display device includes a light emitting panel, a shutter panel, an obtaining unit, and a controller.
  • the light emitting panel includes a plurality of transmitting portions configured to transmit the first light and a plurality of light emitting portions configured to emit the second light.
  • the light emitting panel is configured such that the transmissive portions and the light emitting portions are alternately arranged along a predetermined direction including a component in a direction in which the first and second eyes of the user are arranged.
  • the shutter panel is configured to overlap with the light emitting panel, and has a dimming region operable to reduce the first light and the second light.
  • the obtaining unit is configured to obtain first position information regarding the position of the first eye and second position information regarding the position of the second eye.
  • the controller can control the dimming region such that the first light is incident on the first eye and the second light is incident on the second eye.
  • the camera is operable to output the first position information and the second position information to the acquisition unit.
  • FIG. 3 is a sectional view taken along line AA of FIG. 2.
  • FIG. 3 is a diagram illustrating an example of a configuration of a light emitting panel and a shutter panel. It is a figure showing other examples of composition of a light emitting panel and a shutter panel.
  • the information display system 100 includes an information display device 1 and a camera 2.
  • the information display device 1 includes a light emitting panel 10, a shutter panel 20, and a controller 30.
  • the information display device 1 may further include an acquisition unit 40.
  • the acquisition unit 40 may be connected to the camera 2. When connected to the camera 2, the obtaining unit 40 can obtain information from the camera 2.
  • the controller 30 is connected to each component of the information display device 1 and controls each component.
  • the controller 30 is configured as, for example, a processor.
  • Controller 30 may include one or more processors.
  • the processor may include a general-purpose processor that executes a specific function by reading a specific program, and a dedicated processor specialized for a specific process.
  • the dedicated processor may include an application specific integrated circuit (ASIC: Application Specific Integrated Circuit).
  • the processor may include a programmable logic device (PLD: Programmable Logic Device).
  • the PLD may include an FPGA (Field-Programmable ⁇ Gate ⁇ Array).
  • the controller 30 may be any one of an SoC (System-on-a-Chip) in which one or a plurality of processors cooperate, and a SiP (System ⁇ In ⁇ a ⁇ Package).
  • the controller 30 includes a storage unit, and may store various information, a program for operating each component of the information display device 1, and the like in the storage unit.
  • the storage unit may be composed of, for example, a semiconductor memory or the like.
  • the storage unit may function as a work memory of the controller 30.
  • the light emitting panel 10 includes a plurality of transmissive portions 12 and a plurality of light emitting portions 14.
  • the transmission unit 12 is configured to transmit light incident from the background on the other side of the light emitting panel 10 as viewed from the user.
  • the transmitting unit 12 transmits light incident from the background positioned on the negative side of the Z axis toward the left eye 5L and the right eye 5R of the user positioned on the positive side of the Z axis. Is configured.
  • Light incident from the background is also referred to as first light. In FIG. 3, it is assumed that the first light travels from the light emitting panel 10 to the left eye 5L and the right eye 5R of the user, as indicated by a dashed line with an arrow.
  • the transmission unit 12 may have a transmittance equal to or higher than a predetermined value.
  • the transmission unit 12 may include, for example, glass or resin.
  • the light emitting unit 14 is configured to emit light for forming an image to the left eye 5L and the right eye 5R of the user located on the positive side of the Z axis.
  • Light for forming an image is also referred to as image light or second light.
  • image light or second light In FIG. 3, it is assumed that the second light travels from the light emitting panel 10 toward the left eye 5L and the right eye 5R of the user, as indicated by a broken line with an arrow.
  • the light emitting unit 14 causes the second light to enter the right eye 5R and the left eye 5L of the user. The user can visually recognize the image by the second light entering the eye.
  • the light emitting unit 14 may be an OLED (Organic Light Emitting Diode).
  • the OLED may be a device that emits light using an organic EL (Electro-Luminescence) phenomenon.
  • the light emitting unit 14 is an OLED
  • the light emitting panel 10 including the transmission unit 12 is also referred to as a transparent OLED.
  • the light emitting unit 14 may include a self light emitting device such as an inorganic EL.
  • the shutter panel 20 is configured to overlap the light emitting panel 10 and to be located between the right eye 5R and the left eye 5L of the user and the light emitting panel 10.
  • the shutter panel 20 includes a plurality of translucent regions 21 and a plurality of dimming regions 22.
  • the light transmitting region 21 is operable to transmit the first light and the second light incident from the light emitting panel 10 side.
  • the first light and the second light pass through the light transmitting area 21 and reach the right eye 5R and the left eye 5L of the user.
  • the dimming region 22 is operable to reduce the first light and the second light incident from the light emitting panel 10 side.
  • the shutter panel 20 has a plurality of elements that transition between a light-transmitting state and a dimming state.
  • the shutter panel 20 may be a liquid crystal shutter.
  • the liquid crystal shutter can control the light transmittance according to the applied voltage.
  • the liquid crystal shutter may include a plurality of pixels, and may control the light transmittance of each pixel.
  • the liquid crystal shutter can form a region having a high light transmittance or a region having a low light transmittance into an arbitrary shape.
  • the light transmitting area 21 may be an area having a transmittance equal to or higher than a first predetermined value.
  • the first predetermined value may be, for example, 100% or a value close to 100%.
  • the dimming region 22 may be a region having a transmittance equal to or less than a second predetermined value.
  • the second predetermined value may be, for example, 0% or a value close to 0%.
  • the first predetermined value may be a value smaller than 50%, for example, 10% as long as a sufficient contrast with light transmitted through the darkening region 22 can be ensured.
  • the second predetermined value may be a value larger than about 0%, for example, 10% as long as a sufficient contrast with light transmitted through the light transmitting region 21 can be ensured.
  • a sufficient contrast ratio may be, for example, 100: 1.
  • the shutter panel 20 may be a MEMS panel employing a Micro Electro Mechanical System (MEMS) shutter.
  • MEMS Micro Electro Mechanical System
  • the light emitting panel 10 is visually recognized by the user by the light being reduced by the user through the light transmitting area 21 and the light being reduced by the light reducing area 22. And a region that is not easily recognized or hardly recognized.
  • the area visually recognized by the user through the light transmitting area 21 is also referred to as a visible area.
  • An area that is not or hardly recognized by the user due to the light being reduced in the dimming area 22 is also referred to as a non-visible area.
  • the viewing area includes the transmission section 12, the user can visually recognize the first light emitted from a portion of the transmission section 12 included in the viewing area.
  • the viewing area includes the light emitting unit 14, the user can visually recognize the second light emitted from a portion of the light emitting unit 14 included in the viewing area.
  • each of the left eye 5 ⁇ / b> L and the right eye 5 ⁇ / b> R of the user visually recognizes a part of the light emitting panel 10, but does not visually recognize the other part of the light emitting panel 10 or is difficult to visually recognize the other part.
  • the area visually recognized by the left eye 5L of the user is also referred to as a left-eye visible area 16L.
  • the area visually recognized by the right eye 5R of the user is also referred to as a right-eye visible area 16R.
  • the left-eye viewing area 16L and the right-eye viewing area 16R can be different from each other.
  • An area that is not or hardly seen by the left eye 5L of the user is also referred to as a left-eye non-viewing area 17L.
  • An area that is not or hardly seen by the right eye 5R of the user is also referred to as a right-eye non-viewing area 17R.
  • the left eye non-viewing area 17L and the right eye non-viewing area 17R can be different from each other.
  • One of the left eye 5L and the right eye 5R of the user is also referred to as a first eye.
  • the other eye is also called a second eye.
  • the first eye is different from the second eye.
  • the areas visually recognized by the first eye and the second eye are also referred to as a first visual recognition area and a second visual recognition area.
  • the areas that are not or hardly seen by the first and second eyes are also referred to as a first non-viewing area and a second non-viewing area.
  • the first viewing area is associated with the left eye viewing area 16L.
  • the first eye and the second eye are arranged along the X-axis direction.
  • the light-transmitting regions 21 and the light-reducing regions 22 each have a strip shape extending in the Y-axis direction, and are alternately arranged along the X-axis direction. That is, the end line of the light transmitting region 21 is a straight line or a line segment extending along the Y-axis direction.
  • the direction in which the light-transmitting regions 21 and the light-reducing regions 22 are alternately aligned corresponds to the direction in which the first eye and the second eye are aligned.
  • the end line of the light transmitting region 21 may extend in a direction inclined at a predetermined angle with respect to the Y-axis direction.
  • the predetermined angle is an angle larger than 0 degrees and smaller than 90 degrees.
  • the direction in which the end line of the translucent region 21 extends intersects the direction in which the first eye and the second eye are arranged.
  • the translucent area 21 and the dimming area 22 are configured to be alternately arranged in a predetermined direction including a component in the direction in which the first and second eyes of the user are arranged.
  • the first viewing region and the second viewing region do not overlap each other at least in part.
  • the direction in which the end line of the translucent region 21 extends intersects the direction in which the first eye and the second eye are arranged, so that the first visual recognition region and the second visual recognition region are arranged.
  • the area can be different.
  • the information display device 1 allows the first light transmitted through the transmission unit 12 to reach the first eye of the user to visually recognize the background, and causes the second eye to emit the second light emitted from the light emitting unit 14. And the image can be visually recognized. By causing the light emitted from different distances to enter the first eye and the second eye, the user can focus on the light entering the first eye and the second eye, respectively. As a result, the user can visually recognize both the background and the image.
  • the first viewing region and the second viewing region are entirely or mostly Overlap.
  • both the first light transmitted through the transmission unit 12 and the second light emitted from the light emitting unit 14 are incident on the first eye and the second eye of the user.
  • both the first light and the second light enter one eye, it is difficult for the user to focus on both of the lights at the same time. Therefore, even if both the first light and the second light are incident on one eye, it is difficult to visually recognize both the background and the image with one eye.
  • the left-eye viewing area 16L and the left-eye non-viewing area 17L are separated by a boundary and are alternately arranged in the X-axis direction.
  • the right-eye viewing area 16R and the right-eye non-viewing area 17R are separated by a boundary and are alternately arranged in the X-axis direction.
  • the position of the boundary is determined based on the position of the end line of the light transmitting area 21, the distance between the shutter panel 20 and the user's eye, and the distance between the light emitting panel 10 and the shutter panel 20. .
  • the distance between the shutter panel 20 and the user's eye is also called an observation distance, and is represented as P in FIG.
  • the distance between the light emitting panel 10 and the shutter panel 20 is also called a gap, and is represented as g in FIG.
  • the position of each of the left-eye viewing area 16L and the right-eye viewing area 16R is determined based on not only the observation distance (P) and the gap (g) but also the positions of the left eye 5L and the right eye 5R of the user. .
  • the positional relationship between the left-eye viewing area 16L and the right-eye viewing area 16R is determined not only by the observation distance (P) and the gap (g), but also by the distance between the user's left eye 5L and right eye 5R.
  • the distance between the left eye 5L and the right eye 5R of the user is also referred to as interocular distance, and is represented as E in FIG.
  • the left-eye viewing area 16L When the left-eye viewing area 16L is included in the right-eye non-viewing area 17R, the left-eye viewing area 16L is visually recognized by the user's left eye 5L, but is not or hardly viewed by the user's right eye 5R.
  • the right-eye viewing area 16R When the right-eye viewing area 16R is included in the left-eye non-viewing area 17L, the right-eye viewing area 16R is visually recognized by the user's right eye 5R, but is not or hardly viewed by the user's left eye 5L.
  • the left-eye viewing area 16L and the right-eye viewing area 16R overlap with each other. It can be said that it does not. In the example of FIG. 4, the left-eye viewing area 16L and the right-eye viewing area 16R do not overlap with each other.
  • the left-eye viewing area 16L matches the right-eye non-viewing area 17R
  • the right-eye viewing area 16R matches the left-eye non-viewing area 17L.
  • the left-eye viewing area 16L and the right-eye viewing area 16R are adjacent to each other.
  • the left-eye viewing area 16L and the right-eye viewing area 16R match the area of the light emitting unit 14 and the area of the transmission unit 12, respectively. In this case, the user can visually recognize only the light emitting unit 14 with the left eye 5L and only see the transmission unit 12 with the right eye 5R.
  • the controller 30 can control the position or shape of each of the light transmitting area 21 and the light reducing area 22 of the shutter panel 20. That is, the controller 30 can control the position or shape of the end line of the light transmitting region 21.
  • the controller 30 can control the position or shape of the light transmitting region 21 or the position or shape of the end line of the light transmitting region 21 by controlling the position or shape of the light reducing region 22.
  • the controller 30 can control the position or shape of each of the visible region and the non-viewable region by controlling the position or shape of each of the light-transmitting region 21 and the dimming region 22.
  • the controller 30 controls the position or shape of each of the translucent region 21 and the dimming region 22 so that the left-eye viewing region 16L and the right-eye non-viewing region 17R coincide with each other, and the right-eye viewing region 16R and the left-eye The non-viewing area 17L can be matched.
  • the shape and position of each of the transmissive portion 12 and the light emitting portion 14 are fixed. That is, the controller 30 cannot control the shape and position of each of the transmission unit 12 and the light emitting unit 14.
  • the controller 30 may control the dimming region 22 of the shutter panel 20 based on the shape and position of each of the transmission unit 12 and the light emitting unit 14.
  • the controller 30 can match the left-eye viewing area 16L and the right-eye viewing area 16R with the light-emitting unit 14 and the transmission unit 12 respectively.
  • the predetermined distance in this case is also referred to as an optimal viewing distance (OVD: Optimal Viewing Distance).
  • ODD Optimal Viewing Distance
  • the controller 30 may not be able to match the left-eye viewing area 16L and the right-eye viewing area 16R with the light emitting unit 14 region and the transmission unit 12 region, respectively. No matter how the controller 30 controls the position or shape of each of the translucent region 21 and the dimming region 22, the visible region may not match the region of the transmissive part 12 or the light emitting part 14.
  • the controller 30 may control the dimming area 22 of the shutter panel 20 so that the second light does not enter the first eye.
  • the controller 30 may include the light emitting unit 14 in the right eye non-viewing area 17R so that the second light does not enter the right eye 5R.
  • the first light and the second light do not simultaneously enter the first eye of the user.
  • the user needs only to focus on the first light with the first eye, and the user can easily recognize the background.
  • the controller 30 may control the dimming region 22 of the shutter panel 20 so that at least a part of the first light is incident on the second eye. For example, as shown in FIG.
  • the controller 30 may include the transmission unit 12 and the light-emitting unit 14 in the left-eye viewing area 16L so that the first light and the second light enter the left eye 5L.
  • the ratio of the light transmitting area 21 of the shutter panel 20 can be increased, and restrictions on the position or shape of the light reducing area 22 can be reduced.
  • the controller 30 may control the dimming area 22 of the shutter panel 20 based on the shape and position of the light emitting unit 14 in the light emitting panel 10. That is, the controller 30 may control the position of the dimming region 22 in the shutter panel 20 based on the position where the second light is emitted from the light emitting panel 10 so that the second light does not enter the first eye. .
  • the controller 30 may control an area of the shutter panel 20 where the dimming area 22 expands based on an area of the light emitting panel 10 from which the second light is emitted.
  • the area occupied by the light emitting unit 14 may be equal to or less than the area occupied by the transmissive unit 12. That is, the ratio of the area occupied by the light emitting unit 14 to the entire area of the light emitting panel 10 may be 50% or less.
  • the information display device 1 causes the second light emitted from the light emitting unit 14 to enter the second eye and not enter the first eye. It is easy to control the dimming region 22 of the shutter panel 20. In this case, the ratio of the area occupied by the light transmitting region 21 in the shutter panel 20 can be further increased.
  • the information display device 1 can increase the amount of light transmitted through the shutter panel 20 by increasing the size of the light transmitting region 21. As a result, the information display device 1 makes it easy for the user to visually recognize the background and the image.
  • the information display device 1 may increase the area of the dimming region 22 of the shutter panel 20. Accordingly, it is possible to make the second light hard to enter the first eye.
  • the controller 30 may control the dimming area 22 of the shutter panel 20 based on information on the positions of the left eye 5L and the right eye 5R of the user.
  • the controller 30 may use the acquisition unit 40 to acquire information on the positions of the left eye 5L and the right eye 5R of the user.
  • Information regarding the position of the first eye of the user is also referred to as first position information.
  • Information on the position of the user's second eye is also referred to as second position information. That is, the controller 30 may obtain the first position information and the second position information by the obtaining unit 40 and control the dimming area 22 of the shutter panel 20 based on the first position information and the second position information.
  • the acquisition unit 40 is configured to acquire information on at least one of the positions of the left eye 5L and the right eye 5R of the user and output the information to the controller 30.
  • the acquisition unit 40 may acquire information on the positions of the left eye 5L and the right eye 5R of the user.
  • the acquisition unit 40 may acquire information on the position of the left eye 5L or the right eye 5R of the user from the camera 2.
  • the camera 2 may detect the position of at least one of the left eye 5L and the right eye 5R of the user and output information on the position.
  • the camera 2 may photograph a user's face and detect at least one position of the left eye 5L and the right eye 5R based on the captured image.
  • the camera 2 may detect at least one position of the left eye 5L and the right eye 5R as coordinates in a three-dimensional space based on the captured image.
  • the camera 2 may include a plurality of image sensors.
  • the camera 2 may detect at least one position of the left eye 5L and the right eye 5R as coordinates in a three-dimensional space based on a captured image of each image sensor.
  • the acquisition unit 40 may include the camera 2 or may be connected to the camera 2 provided as a separate component from the information display device 1.
  • the acquisition unit 40 may include an input terminal for inputting a signal from the camera 2.
  • the camera 2 may be directly connected to the input terminal.
  • the camera 2 may be indirectly connected to an input terminal via a shared network.
  • the acquisition unit 40 that does not include the camera 2 may include an input terminal to which a video signal is input from the camera 2.
  • the acquisition unit 40 may detect at least one of the left eye 5L and the right eye 5R from the video signal input to the input terminal.
  • the acquisition unit 40 may include, for example, a sensor.
  • the sensor may be an ultrasonic sensor, an optical sensor, or the like.
  • the acquisition unit 40 may detect the position of the user's head with a sensor and detect at least one of the left eye 5L and the right eye 5R based on the position of the head.
  • the acquisition unit 40 may detect at least one position of the left eye 5L and the right eye 5R as coordinates in a three-dimensional space by one or two or more sensors.
  • the acquisition unit 40 calculates the distance between the left eye 5L and the right eye 5R and the shutter panel 20 as the observation distance (P) based on the detection result of at least one position of the left eye 5L and the right eye 5R. .
  • the acquisition unit 40 can calculate the difference between the coordinates of the left eye 5L and the right eye 5R in the Z-axis direction and the coordinates of the shutter panel 20 in the Z-axis direction as the observation distance (P).
  • the acquisition unit 40 may calculate the interocular distance (E) based on the detection results of the positions of the left eye 5L and the right eye 5R.
  • the information display device 1 may not include the acquisition unit 40.
  • the controller 30 may include an input terminal that is provided outside the device and that inputs a signal from a device for detecting the position of a user's eye.
  • a detection device outside the device may be connected to the input terminal.
  • the detection device outside the device may use an electric signal and an optical signal as a transmission signal to the input terminal.
  • the detection device outside the device may be indirectly connected to the input terminal via a shared network.
  • the controller 30 controls the shutter panel 20 based on the information on the position of the user's eyes, so that the user can more easily see the background and the image simultaneously.
  • the controller 30 may control the shutter panel 20 on the assumption that the user is at a predetermined position with respect to the information display device 1. In this case, the user relatively recognizes the background seen beyond the transmissive part 12 and the image formed by the light emitted from the light emitting part 14 at the same time relative to the information display device 1 so as to be easily visible. You may move.
  • a device including the light emitting panel 10 having the transmission unit 12 and the light emitting unit 14 but not including the shutter panel 20 is assumed.
  • the first light transmitted through the transmission unit 12 and the second light emitted from the light emitting unit 14 are both the left eye 5L and the right eye 5R of the user. Incident on the eye.
  • both the first light and the second light enter one eye, it is difficult for the user to focus on both of the lights at the same time.
  • the light emitting unit 14 emits light with relatively low luminance, the eye easily focuses on the background, but it is difficult to focus on the light emitting unit 14 or it is difficult to visually recognize a low luminance image.
  • the information display device 1 includes the shutter panel 20 having the light transmitting area 21 and the light reducing area 22.
  • the shutter panel 20 allows one of the left eye 5L and the right eye 5R of the user to visually recognize the light transmitted through the transmitting unit 12 and the other eye to visually recognize the light emitted from the light emitting unit 14. Operable. By doing so, the user can focus on the light emitting unit 14 with the other eye while focusing on the background with one eye. As a result, the user can visually recognize the background seen through the transmission unit 12 and the image related to the light emitted from the light emitting unit 14 at the same time. That is, to the user, the image appears to be superimposed on the background.
  • the controller 15 can reduce the light emission of the light emitting unit 14.
  • the controller 15 can reduce the visibility of the light emitting unit 14 by the first eye by reducing the light emission by the light emitting unit 14 included in the first visible region.
  • descriptions such as “first” and “second” are identifiers for distinguishing the configuration.
  • the numbers in the configurations can be exchanged.
  • the first light can exchange the second light with the identifiers “first” and “second”.
  • the exchange of identifiers takes place simultaneously.
  • the configuration is distinguished.
  • the identifier may be deleted.
  • the configuration from which the identifier is deleted is distinguished by a code. It should not be used for interpretation of the order of the configuration or grounds for the existence of an identifier having a small number based only on the description of the identifier such as “first” and “second” in the present disclosure.
  • the X axis, the Y axis, and the Z axis are provided for convenience of description, and may be interchanged with each other.
  • the configuration according to the present disclosure has been described using an orthogonal coordinate system including the X axis, the Y axis, and the Z axis.
  • the positional relationship between the components according to the present disclosure is not limited to the orthogonal relationship.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Theoretical Computer Science (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Liquid Crystal (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

情報表示装置は、発光パネルと、シャッタパネルと、コントローラとを備える。発光パネルは、第1光を透過するように構成される複数の透過部と、第2光を射出するように構成される複数の発光部とを有する。透過部と発光部とは、利用者の第1眼と第2眼とが並ぶ方向の成分を含む所定方向に沿って交互に並ぶように構成される。シャッタパネルは、発光パネルと重なって位置するように構成され、第1光及び第2光を減じるように動作可能である減光領域を有する。コントローラは、第1眼に第1光が入射し、第2眼に第2光が入射するように、減光領域を制御可能である。

Description

情報表示装置及び情報表示システム 関連出願へのクロスリファレンス
 本出願は、日本国特許出願2018-121272号(2018年6月26日出願)の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取り込む。
 本開示は、情報表示装置及び情報表示システムに関する。
 従来、背景を透過させつつ、画像を表示するデバイスが知られている。この技術は、例えば、特表2012-506604号公報等に記載されている。
 本開示の一実施形態に係る情報表示装置は、発光パネルと、シャッタパネルと、コントローラとを備える。前記発光パネルは、第1光を透過するように構成される複数の透過部と、第2光を射出するように構成される複数の発光部とを含む。前記発光パネルにおいて、利用者の第1眼と第2眼とが並ぶ方向の成分を含む所定方向に沿って前記透過部と前記発光部とが交互に並ぶように構成される。前記シャッタパネルは、前記発光パネルと重なって位置するように構成され、前記第1光及び前記第2光を減じるように動作可能である減光領域を有する。前記コントローラは、前記第1眼に前記第1光が入射し、前記第2眼に前記第2光が入射するように、前記減光領域を制御可能である。
 本開示の一実施形態に係る情報表示システムは、情報表示装置と、カメラとを含む。前記情報表示装置は、発光パネルと、シャッタパネルと、取得部と、コントローラとを備える。前記発光パネルは、第1光を透過するように構成される複数の透過部と、第2光を射出するように構成される複数の発光部とを含む。前記発光パネルにおいて、利用者の第1眼と第2眼とが並ぶ方向の成分を含む所定方向に沿って前記透過部と前記発光部とが交互に並ぶように構成される。前記シャッタパネルは、前記発光パネルと重なって位置するように構成され、前記第1光及び前記第2光を減じるように動作可能である減光領域を有する。前記取得部は、前記第1眼の位置に関する第1位置情報と、前記第2眼の位置に関する第2位置情報とを取得するように構成される。前記コントローラは、前記第1眼に前記第1光が入射し、前記第2眼に前記第2光が入射するように、前記減光領域を制御可能である。前記カメラは、前記取得部に対して、前記第1位置情報及び前記第2位置情報を出力するように動作可能である。
一実施形態に係る情報表示システムの構成例を示すブロック図である。 一実施形態に係る情報表示装置の構成例を示す平面図である。 図2のA-A断面図である。 発光パネル及びシャッタパネルの構成の一例を示す図である。 発光パネル及びシャッタパネルの他の構成例を示す図である。
 図1に示されるように、一実施形態に係る情報表示システム100は、情報表示装置1と、カメラ2とを備える。情報表示装置1は、発光パネル10と、シャッタパネル20と、コントローラ30とを備える。情報表示装置1は、取得部40をさらに備えてよい。取得部40は、カメラ2に接続されていてよい。取得部40は、カメラ2に接続されている場合、カメラ2から情報を取得しうる。
 コントローラ30は、情報表示装置1の各構成部に接続され、各構成部を制御する。コントローラ30は、例えばプロセッサとして構成される。コントローラ30は、1以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、及び特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。コントローラ30は、1つ又は複数のプロセッサが協働するSoC(System-on-a-Chip)、及びSiP(System In a Package)のいずれかであってよい。コントローラ30は、記憶部を備え、記憶部に各種情報、又は情報表示装置1の各構成部を動作させるためのプログラム等を格納してよい。記憶部は、例えば半導体メモリ等で構成されてよい。記憶部は、コントローラ30のワークメモリとして機能してよい。
 図2及び図3に示されるように、発光パネル10は、複数の透過部12と、複数の発光部14とを備える。透過部12は、利用者から見て発光パネル10の向こう側の背景から入射する光を透過させるように構成される。透過部12は、Z軸の負の方向の側に位置する背景から入射する光を、Z軸の正の方向の側に位置する利用者の左眼5L及び右眼5Rに向けて透過させるように構成される。背景から入射する光は、第1光ともいう。図3において、第1光は、矢印付の一点鎖線で表されているように、発光パネル10から利用者の左眼5L及び右眼5Rに向かう方向に進むとする。透過部12を透過してきた第1光が利用者の眼に入射することによって、利用者は、発光パネル10の向こう側の背景を視認しうる。透過部12は、所定値以上の透過率を有してよい。透過部12は、例えば、ガラス又は樹脂等を含んでよい。
 発光部14は、Z軸の正の方向の側に位置する利用者の左眼5L及び右眼5Rに向けて、画像を形成する光を射出するように構成される。画像を形成する光は、画像光又は第2光ともいう。図3において、第2光は、矢印付の破線で表されているように、発光パネル10から利用者の左眼5L及び右眼5Rに向かう方向に進むとする。発光部14は、第2光を利用者の右眼5R及び左眼5Lに入射させる。利用者は、第2光が眼に入射してくることによって、画像を視認しうる。発光部14は、OLED(Organic Light Emitting Diode)であってよい。OLEDは、有機EL(Electro-Luminescence)現象を利用して発光するデバイスであってよい。発光部14がOLEDである場合、透過部12を含む発光パネル10は、透明OLEDともいう。発光部14は、無機EL等の自発光デバイスを含んでもよい。
 図3に示されるように、シャッタパネル20は、発光パネル10に重なって、利用者の右眼5R及び左眼5Lと発光パネル10との間に位置するように構成される。図2及び図3に示されるように、シャッタパネル20は、複数の透光領域21と、複数の減光領域22とを備える。透光領域21は、発光パネル10側から入射してくる第1光及び第2光を透過するように動作可能である。第1光及び第2光は、透光領域21を透過して利用者の右眼5R及び左眼5Lに到達する。減光領域22は、発光パネル10側から入射してくる第1光及び第2光を減じるように動作可能である。シャッタパネル20は、透光状態と減光状態との間で遷移する複数の素子を有する。シャッタパネル20は、液晶シャッタであってよい。液晶シャッタは、印加する電圧に応じて光の透過率を制御しうる。液晶シャッタは、複数の画素で構成され、各画素における光の透過率を制御してよい。液晶シャッタは、光の透過率が高い領域又は光の透過率が低い領域を任意の形状に形成しうる。シャッタパネル20が液晶シャッタで構成される場合、透光領域21は、第1所定値以上の透過率を有する領域であってよい。第1所定値は、例えば100%であってよいし、100%に近い値であってよい。シャッタパネル20が液晶シャッタで構成される場合、減光領域22は、第2所定値以下の透過率を有する領域であってよい。第2所定値は、例えば0%であってよいし、0%に近い値であってよい。第1所定値は、減光領域22を透過した光と十分なコントラストが確保できる範囲であれば、50%より小さい値、例えば、10%などであってよい。第2所定値は、透光領域21を透過した光と十分なコントラストが確保できる範囲であれば、0%近傍より大きい値、例えば、10%などであってよい。十分なコントラストの比は、例えば100:1であってよい。シャッタパネル20は、MEMS(Micro Electro Mechanical System)シャッタを採用したMEMSパネルであってもよい。
 利用者がシャッタパネル20を介して発光パネル10を見る場合、発光パネル10は、透光領域21を通して利用者によって視認される領域と、減光領域22で光が減じられることによって利用者によって視認されない又は視認されにくい領域とを有する。透光領域21を通して利用者によって視認される領域は、視認領域ともいう。減光領域22で光が減じられることによって利用者によって視認されない又は視認されにくい領域は、非視認領域ともいう。視認領域が透過部12を含む場合、利用者は、透過部12のうち視認領域に含まれている部分から射出される第1光を視認しうる。視認領域が発光部14を含む場合、利用者は、発光部14のうち視認領域に含まれている部分から射出される第2光を視認しうる。
 図4に例示されるように、利用者の左眼5L及び右眼5Rそれぞれは、発光パネル10の一部を視認する一方で、発光パネル10の他の一部を視認しない又は視認しにくい。利用者の左眼5Lによって視認される領域は、左眼視認領域16Lともいう。利用者の右眼5Rによって視認される領域は、右眼視認領域16Rともいう。左眼視認領域16Lと右眼視認領域16Rとは、互いに異なりうる。利用者の左眼5Lによって視認されない又は視認されにくい領域は、左眼非視認領域17Lともいう。利用者の右眼5Rによって視認されない又は視認されにくい領域は、右眼非視認領域17Rともいう。左眼非視認領域17Lと右眼非視認領域17Rとは、互いに異なりうる。
 利用者の左眼5L及び右眼5Rのうち一方の眼は、第1眼ともいう。他方の眼は、第2眼ともいう。第1眼は、第2眼と異なる。第1眼及び第2眼それぞれによって視認される領域は、第1視認領域及び第2視認領域ともいう。第1眼及び第2眼それぞれによって視認されない又は視認されにくい領域は、第1非視認領域及び第2非視認領域ともいう。例えば第1眼が左眼5Lである場合、第1視認領域は、左眼視認領域16Lに対応づけられる。
 本実施形態において、第1眼と第2眼とは、X軸方向に沿って並んでいるとする。本実施形態において、透光領域21及び減光領域22はそれぞれ、Y軸方向に延在する帯状の形状を有し、X軸方向に沿って交互に並んでいるとする。つまり、透光領域21の端線は、Y軸方向に沿って延びる直線又は線分であるとする。図4の例において、透光領域21と減光領域22とが交互に並んでいる方向は、第1眼と第2眼とが並んでいる方向に一致している。
 透光領域21の端線は、Y軸方向に対して所定角度で傾斜する方向に延びていてもよい。所定角度は、0度より大きい角度であり、且つ、90度より小さい角度である。この場合、透光領域21の端線が延びる方向は、第1眼と第2眼とが並んでいる方向に交差しているといえる。言い換えれば、透光領域21と減光領域22とは、利用者の第1眼と第2眼とが並ぶ方向の成分を含む所定方向に沿って交互に並ぶように構成されている。
 透光領域21の端線が延びる方向が第1眼と第2眼とが並んでいる方向に交差している場合、第1視認領域と第2視認領域とは、少なくとも一部において互いに重複しない。本実施形態に係る情報表示装置1は、透光領域21の端線が延びる方向を、第1眼と第2眼とが並んでいる方向に交差させることによって、第1視認領域と第2視認領域とを異ならせうる。この場合、情報表示装置1は、利用者の第1眼に透過部12を透過してくる第1光を到達させて背景を視認させ、第2眼に発光部14から射出される第2光を到達させて画像を視認させうる。第1眼及び第2眼それぞれに対して異なる距離から射出された光を入射させることによって、利用者は、第1眼及び第2眼それぞれにおいて入射してくる光にピントを合わせうる。その結果、利用者は、背景と画像とを両方とも視認しうる。
 比較例として、仮に、透光領域21の端線が延びる方向が第1眼と第2眼とが並んでいる方向に一致する場合、第1視認領域と第2視認領域とが全体又は大部分において重複する。その結果、利用者の第1眼及び第2眼それぞれに対して、透過部12を透過してくる第1光と、発光部14から射出される第2光とが両方とも入射する。一つの眼に第1光と第2光とが両方とも入射する場合、利用者は、それらの光の両方に同時にピントを合わせにくい。よって、一つの眼に第1光と第2光とが両方とも入射しても、一つの眼で背景と画像とを両方とも視認することは難しい。
 透光領域21と減光領域22とがX軸方向に沿って並んでいる場合、左眼視認領域16Lと左眼非視認領域17Lとは、境界で区切られ、X軸方向に交互に並ぶ。右眼視認領域16Rと右眼非視認領域17Rとは、境界で区切られ、X軸方向に交互に並ぶ。境界の位置は、透光領域21の端線の位置と、シャッタパネル20と利用者の眼との間の距離と、発光パネル10とシャッタパネル20との間の距離とに基づいて決定される。シャッタパネル20と利用者の眼との間の距離は、観察距離ともいい、図4においてPとして表されている。発光パネル10とシャッタパネル20との間の距離は、ギャップともいい、図4においてgとして表されている。
 左眼視認領域16L及び右眼視認領域16Rそれぞれの位置は、観察距離(P)とギャップ(g)とだけでなく、さらに利用者の左眼5L及び右眼5Rの位置に基づいて決定される。言い換えれば、左眼視認領域16Lと右眼視認領域16Rとの位置関係は、観察距離(P)とギャップ(g)とだけでなく、利用者の左眼5Lと右眼5Rとの間の距離にさらに基づく。利用者の左眼5Lと右眼5Rとの間の距離は、眼間距離ともいい、図4においてEとして表されている。
 左眼視認領域16Lが右眼非視認領域17Rに含まれる場合、左眼視認領域16Lは、利用者の左眼5Lで視認されるものの、利用者の右眼5Rで視認されない又は視認されにくい。右眼視認領域16Rが左眼非視認領域17Lに含まれる場合、右眼視認領域16Rは、利用者の右眼5Rで視認されるものの、利用者の左眼5Lで視認されない又は視認されにくい。左眼視認領域16Lが右眼非視認領域17Rに含まれ、且つ、右眼視認領域16Rが左眼非視認領域17Lに含まれる場合、左眼視認領域16Lと右眼視認領域16Rとが互いに重複しないともいえる。図4の例において、左眼視認領域16Lと右眼視認領域16Rとは互いに重複していない。
 図4の例において、左眼視認領域16Lと右眼非視認領域17Rとが一致しているとともに、右眼視認領域16Rと左眼非視認領域17Lとが一致している。言い換えれば、左眼視認領域16Lと右眼視認領域16Rとが隣接している。さらに、左眼視認領域16L及び右眼視認領域16Rはそれぞれ、発光部14の領域及び透過部12の領域と一致している。この場合、利用者は、左眼5Lで発光部14だけを視認し、右眼5Rで透過部12だけを視認しうる。
 コントローラ30は、シャッタパネル20の透光領域21及び減光領域22それぞれの位置又は形状を制御可能である。つまり、コントローラ30は、透光領域21の端線の位置又は形状を制御可能である。コントローラ30は、減光領域22の位置又は形状を制御することによって、透光領域21の位置若しくは形状、又は、透光領域21の端線の位置若しくは形状を制御しうる。コントローラ30は、透光領域21及び減光領域22それぞれの位置又は形状を制御することによって、視認領域及び非視認領域それぞれの位置又は形状を制御しうる。
 コントローラ30は、透光領域21及び減光領域22それぞれの位置又は形状を制御することによって、左眼視認領域16Lと右眼非視認領域17Rとを一致させつつ、右眼視認領域16Rと左眼非視認領域17Lとを一致させうる。発光パネル10において透過部12及び発光部14それぞれの形状及び位置は固定されている。つまり、コントローラ30は、透過部12及び発光部14それぞれの形状及び位置を制御できない。コントローラ30は、透過部12及び発光部14それぞれの形状及び位置に基づいて、シャッタパネル20の減光領域22を制御してよい。
 観察距離(P)が所定距離である場合、コントローラ30は、左眼視認領域16L及び右眼視認領域16Rそれぞれを発光部14の領域及び透過部12の領域と一致させることができるとする。この場合の所定距離は、適視距離(OVD:Optimal Viewing Distance)ともいう。観察距離(P)がOVDと異なる場合、コントローラ30は、左眼視認領域16L及び右眼視認領域16Rそれぞれを発光部14の領域及び透過部12の領域と一致させることができない場合がある。コントローラ30が透光領域21及び減光領域22それぞれの位置又は形状をどのように制御しても、視認領域が透過部12又は発光部14の領域と一致しないことがある。
 観察距離(P)がOVDと異なる場合、コントローラ30は、第1眼に第2光が入射しないように、シャッタパネル20の減光領域22を制御してよい。例えば図5に示されるように、コントローラ30は、右眼5Rに第2光が入射しないように、右眼非視認領域17Rに発光部14を含ませてよい。このようにすることで、利用者の第1眼に、第1光と第2光とが同時に入射しなくなる。その結果、利用者は、第1眼において、第1光だけにピントを合わせればよく、背景を視認しやすくなる。
 一つの眼に第1光及び第2光が同時に入射した場合、第2光が第1光よりも近い位置から射出されていること、及び、第2光の輝度が第1光の輝度よりも高くされうることに鑑みて、その眼は、第2光の方にピントを合わせやすいといえる。つまり、第2眼に第1光及び第2光が両方とも入射しても、利用者は、第2眼で画像を視認しうる。よって、コントローラ30は、第2眼に第1光の少なくとも一部が入射するように、シャッタパネル20の減光領域22を制御してもよい。例えば図5に示されるように、コントローラ30は、左眼5Lに第1光及び第2光が入射するように、左眼視認領域16Lに透過部12及び発光部14を含ませてよい。このようにすることで、シャッタパネル20の透光領域21の割合が大きくされうるとともに、減光領域22の位置又は形状に関する制約が少なくなりうる。
 コントローラ30は、発光パネル10における発光部14の形状及び位置に基づいて、シャッタパネル20の減光領域22を制御してよい。つまり、コントローラ30は、第1眼に第2光が入射しないように、発光パネル10において第2光が射出される位置に基づいて、シャッタパネル20における減光領域22の位置を制御してよい。コントローラ30は、発光パネル10において第2光が射出される領域に基づいて、シャッタパネル20における減光領域22が広がる領域を制御してよい。
 発光パネル10において、発光部14が占める面積は、透過部12が占める面積以下であってよい。つまり、発光パネル10全体の面積に対して発光部14が占める面積の割合は、50%以下であってよい。発光部14が占める面積の割合が50%以下である場合、情報表示装置1は、発光部14から射出される第2光を第2眼に入射させつつ、第1眼に入射させないように、シャッタパネル20の減光領域22を制御しやすい。この場合、さらに、シャッタパネル20における透光領域21が占める面積の割合が大きくされうる。情報表示装置1は、透光領域21を大きくすることによって、シャッタパネル20を透過する光量を増やしうる。その結果、情報表示装置1は、利用者に背景及び画像を視認させやすくなる。
 仮に、発光パネル10全体の面積に対して発光部14が占める面積の割合が50%を超える場合であっても、情報表示装置1は、シャッタパネル20の減光領域22の面積を増大させることによって、第2光を第1眼に入射しにくくしうる。
 コントローラ30は、利用者の左眼5L及び右眼5Rそれぞれの位置に関する情報に基づいて、シャッタパネル20の減光領域22を制御してよい。コントローラ30は、利用者の左眼5L及び右眼5Rそれぞれの位置に関する情報を、取得部40で取得してよい。利用者の第1眼の位置に関する情報は、第1位置情報ともいう。利用者の第2眼の位置に関する情報は、第2位置情報ともいう。つまり、コントローラ30は、第1位置情報及び第2位置情報を取得部40で取得し、第1位置情報及び第2位置情報に基づいて、シャッタパネル20の減光領域22を制御してよい。
 取得部40は、利用者の左眼5L及び右眼5Rの少なくとも一方の位置に関する情報を取得し、コントローラ30に出力するように構成される。取得部40は、利用者の左眼5L及び右眼5Rそれぞれの位置に関する情報を取得してよい。取得部40は、カメラ2に接続されている場合、カメラ2から、利用者の左眼5L又は右眼5Rの位置に関する情報を取得してよい。
 カメラ2は、利用者の左眼5L及び右眼5Rの少なくとも一方の位置を検出し、その位置に関する情報を出力してよい。カメラ2は、利用者の顔を撮影し、撮像画像に基づいて左眼5L及び右眼5Rの少なくとも一方の位置を検出してよい。カメラ2は、撮影画像に基づいて左眼5L及び右眼5Rの少なくとも一方の位置を3次元空間の座標として検出してよい。カメラ2は、複数の撮像素子を含んでよい。カメラ2は、各撮像素子の撮影画像に基づいて左眼5L及び右眼5Rの少なくとも一方の位置を3次元空間の座標として検出してよい。
 取得部40は、カメラ2を含んでもよいし、情報表示装置1とは別個の構成として設けられているカメラ2に接続されていてもよい。取得部40は、カメラ2からの信号を入力する入力端子を備えてよい。カメラ2は、入力端子に直接的に接続されてよい。カメラ2は、共有のネットワークを介して入力端子に間接的に接続されてよい。カメラ2を備えない取得部40は、カメラ2を含まない場合、カメラ2から映像信号が入力される入力端子を備えてよい。取得部40は、カメラ2を含まない場合、入力端子に入力された映像信号から左眼5L及び右眼5Rの少なくとも一方の位置を検出してよい。
 取得部40は、例えば、センサを備えてよい。センサは、超音波センサ又は光センサ等であってよい。取得部40は、センサによって利用者の頭部の位置を検出し、頭部の位置に基づいて左眼5L及び右眼5Rの少なくとも一方の位置を検出してよい。取得部40は、1個又は2個以上のセンサによって、左眼5L及び右眼5Rの少なくとも一方の位置を3次元空間の座標として検出してよい。
 取得部40は、左眼5L及び右眼5Rの少なくとも一方の位置の検出結果に基づいて、左眼5L及び右眼5Rと、シャッタパネル20との間の距離を観察距離(P)として算出する。取得部40は、左眼5L及び右眼5RのZ軸方向の座標と、シャッタパネル20のZ軸方向の座標との差を、観察距離(P)として算出しうる。取得部40は、左眼5L及び右眼5Rそれぞれの位置の検出結果に基づいて、眼間距離(E)を算出してよい。
 情報表示装置1は、取得部40を備えなくてもよい。情報表示装置1が取得部40を備えない場合、コントローラ30は、装置外に設けられている、利用者の眼の位置の検出装置からの信号を入力する入力端子を備えてよい。装置外の検出装置は、入力端子に接続されてよい。装置外の検出装置は、入力端子に対する伝送信号として、電気信号及び光信号を用いてよい。装置外の検出装置は、共有のネットワークを介して入力端子に間接的に接続されてよい。
 コントローラ30が利用者の眼の位置に関する情報に基づいてシャッタパネル20を制御することによって、より一層、利用者が背景と画像とを同時に視認しやすくなる。
 コントローラ30は、利用者が情報表示装置1に対して所定の位置にいることを前提として、シャッタパネル20を制御してよい。この場合、利用者は、透過部12の向こうに見える背景と、発光部14から射出される光で構成される画像とを同時に視認しやすくなるように、情報表示装置1に対して相対的に移動してよい。
 比較例に係る装置として、透過部12と発光部14とを有する発光パネル10を備えるものの、シャッタパネル20を備えない装置が仮定される。利用者が比較例に係る装置を見る場合、透過部12を透過した第1光と、発光部14から射出された第2光とが、両方とも、利用者の左眼5L及び右眼5Rそれぞれの眼に入射する。一つの眼に第1光と第2光とが両方とも入射する場合、利用者は、それらの光の両方に同時にピントを合わせにくい。例えば、発光部14が比較的低輝度の光を射出している場合、眼は、背景にピントを合わせやすいものの、発光部14にピントを合わせにくかったり、低輝度の画像を視認しにくかったりする。一方で、発光部14が比較的高輝度の光を射出している場合、眼は、発光部14にピントを合わせやすいものの、背景にピントを合わせにくい。よって、一つの眼に第1光と第2光とが両方とも入射しても、一つの眼で背景と画像とを両方とも視認することは難しい。
 一方で、本実施形態に係る情報表示装置1は、透光領域21と減光領域22とを有するシャッタパネル20を備える。シャッタパネル20は、利用者の左眼5L及び右眼5Rのうちの一方の眼に透過部12を透過する光を視認させるとともに、他方の眼に発光部14から射出させる光を視認させるように動作可能である。このようにすることで、利用者は一方の眼で背景にピントを合わせつつ、他方の眼で発光部14にピントを合わせうる。その結果、利用者は、透過部12を透過して見える背景と、発光部14から射出される光に係る画像とを同時に視認しうる。つまり、利用者にとって、画像が背景に重畳しているように見える。
 コントローラ15は、第2光が入射しないように制御している第1眼の第1可視領域に発光部14が含まれる場合、当該発光部14の発光を少なくすることができる。コントローラ15は、第1可視領域に含まれる発光部14による発光を少なくすることで、第1眼による発光部14の視認を低減できる。
 本開示に係る構成は、以上説明してきた実施形態にのみ限定されるものではなく、幾多の変形又は変更が可能である。例えば、各構成部等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは分割したりすることが可能である。
 本開示に係る構成を説明する図は、模式的なものである。図面上の寸法比率等は、現実のものと必ずしも一致しない。
 本開示において「第1」及び「第2」等の記載は、当該構成を区別するための識別子である。本開示における「第1」及び「第2」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1光は、第2光と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」及び「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠に利用してはならない。
 本開示において、X軸、Y軸、及びZ軸は、説明の便宜上設けられたものであり、互いに入れ替えられてよい。本開示に係る構成は、X軸、Y軸、及びZ軸によって構成される直交座標系を用いて説明されてきた。本開示に係る各構成の位置関係は、直交関係にあると限定されるものではない。
 1 情報表示装置
 2 カメラ
 5L 左眼
 5R 右眼
 10 発光パネル
 12 透過部
 14 発光部
 16L 左眼視認領域
 16R 右眼視認領域
 17L 左眼非視認領域
 17R 右眼非視認領域
 20 シャッタパネル
 21 透光領域
 22 減光領域
 30 コントローラ
 40 取得部
 100 情報表示システム
 

Claims (11)

  1.  第1光を透過するように構成される複数の透過部と、第2光を射出するように構成される複数の発光部とを含み、利用者の第1眼と第2眼とが並ぶ方向の成分を含む所定方向に沿って前記透過部と前記発光部とが交互に並ぶように構成される発光パネルと、
     前記発光パネルと重なって位置するように構成され、前記第1光及び前記第2光を減じるように動作可能である減光領域を有するシャッタパネルと、
     前記第1眼に前記第1光が入射し、前記第2眼に前記第2光が入射するように、前記減光領域を制御可能であるコントローラと
    を備える
    情報表示装置。
  2.  前記コントローラは、前記第1眼に前記第2光が入射しないように、前記減光領域を制御可能である、請求項1に記載の情報表示装置。
  3.  前記コントローラは、前記第2眼に前記第1光の少なくとも一部が入射するように、前記減光領域を制御可能である、請求項1又は2に記載の情報表示装置。
  4.  前記コントローラは、前記発光パネルにおいて前記第2光が射出される位置に基づいて、前記減光領域の位置を制御可能である、請求項1乃至3のいずれか一項に記載の情報表示装置。
  5.  前記コントローラは、前記発光パネルにおいて前記第2光が射出される領域に基づいて、前記減光領域の領域を制御可能である、請求項1乃至4のいずれか一項に記載の情報表示装置。
  6.  前記第1眼の位置に関する第1位置情報と、前記第2眼の位置に関する第2位置情報とを取得するように構成される取得部をさらに備え、
     前記コントローラは、前記第1位置情報及び前記第2位置情報に基づいて、前記減光領域を制御可能である、請求項1乃至5のいずれか一項に記載の情報表示装置。
  7.  第1光を透過するように構成される複数の透過部と、第2光を射出するように構成される複数の発光部とを含み、利用者の第1眼と第2眼とが並ぶ方向の成分を含む所定方向に沿って前記透過部と前記発光部とが交互に並ぶように構成される発光パネルと、
     前記発光パネルと重なって位置するように構成され、前記第1光及び前記第2光を減じるように動作可能である減光領域を有するシャッタパネルと、
     前記第1眼の位置に関する第1位置情報と、前記第2眼の位置に関する第2位置情報とを取得するように構成される取得部と、
     前記第1位置情報及び前記第2位置情報に基づいて、前記第1眼に前記第1光が入射し、前記第2眼に前記第2光が入射するように、前記減光領域を制御可能であるコントローラと
    を備える
    情報表示装置と、
     前記取得部に対して、前記第1位置情報及び前記第2位置情報を出力するように動作可能であるカメラと
    を含む
    情報表示システム。
  8.  前記コントローラは、前記第1眼に前記第2光が入射しないように、前記減光領域を制御可能である、請求項7に記載の情報表示システム。
  9.  前記コントローラは、前記第2眼に前記第1光の少なくとも一部が入射するように、前記減光領域を制御可能である、請求項7又は8に記載の情報表示システム。
  10.  前記コントローラは、前記発光パネルにおいて前記第2光が射出される位置に基づいて、前記減光領域の位置を制御可能である、請求項7乃至9のいずれか一項に記載の情報表示システム。
  11.  前記コントローラは、前記発光パネルにおいて前記第2光が射出される領域に基づいて、前記減光領域の領域を制御可能である、請求項7乃至10のいずれか一項に記載の情報表示システム。
PCT/JP2019/024703 2018-06-26 2019-06-21 情報表示装置及び情報表示システム WO2020004256A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020527475A JP6924903B2 (ja) 2018-06-26 2019-06-21 情報表示装置及び情報表示システム
EP19826486.3A EP3816974A4 (en) 2018-06-26 2019-06-21 INFORMATION DISPLAY DEVICE AND SYSTEM
US17/255,292 US20210165242A1 (en) 2018-06-26 2019-06-21 Information display device and information display system
CN201980041148.0A CN112352273B (zh) 2018-06-26 2019-06-21 信息显示装置及信息显示系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-121272 2018-06-26
JP2018121272 2018-06-26

Publications (1)

Publication Number Publication Date
WO2020004256A1 true WO2020004256A1 (ja) 2020-01-02

Family

ID=68986878

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/024703 WO2020004256A1 (ja) 2018-06-26 2019-06-21 情報表示装置及び情報表示システム

Country Status (5)

Country Link
US (1) US20210165242A1 (ja)
EP (1) EP3816974A4 (ja)
JP (1) JP6924903B2 (ja)
CN (1) CN112352273B (ja)
WO (1) WO2020004256A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6659902B1 (ja) * 2019-08-21 2020-03-04 株式会社ドワンゴ 表示媒体、処理装置および処理プログラム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07181429A (ja) * 1993-11-15 1995-07-21 Sanyo Electric Co Ltd 立体表示装置
JP2008112062A (ja) * 2006-10-31 2008-05-15 Seiko Epson Corp 表示装置
JP2008112060A (ja) * 2006-10-31 2008-05-15 Seiko Epson Corp 表示装置
JP2011142289A (ja) * 2010-01-05 2011-07-21 Samsung Mobile Display Co Ltd 有機発光表示装置
JP2011180367A (ja) * 2010-03-01 2011-09-15 Seiko Epson Corp 画像表示装置、表示パネル、及び視差バリア
JP2012506604A (ja) 2008-10-21 2012-03-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 透明oledデバイス
JP2013137486A (ja) * 2011-03-11 2013-07-11 Semiconductor Energy Lab Co Ltd 表示装置および表示装置の駆動方法
JP2017044868A (ja) * 2015-08-26 2017-03-02 大日本印刷株式会社 シースルー型のled表示装置
US20170194390A1 (en) * 2014-06-30 2017-07-06 Lg Display Co., Ltd. Transparent organic light-emitting display device
JP2018120191A (ja) * 2017-01-27 2018-08-02 公立大学法人大阪市立大学 3次元表示システム、ヘッドアップディスプレイシステム、及び移動体
US20180301096A1 (en) * 2016-08-19 2018-10-18 Korea Advanced Institute Of Science And Technology Display apparatus using blind panel

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110109565A (ko) * 2010-03-31 2011-10-06 삼성전자주식회사 백라이트 유닛, 이를 구비한 3d 디스플레이 및 3d 영상 형성 방법
KR101652401B1 (ko) * 2010-09-07 2016-08-31 삼성전자주식회사 입체 영상 디스플레이 장치 및 입체 영상 표시 방법
CN103181174B (zh) * 2010-10-01 2016-07-13 三星电子株式会社 利用屏障的3d显示装置及其驱动方法
US9035860B2 (en) * 2011-02-16 2015-05-19 Semiconductor Energy Laboratory Co., Ltd. Display device
JP2015001614A (ja) * 2013-06-14 2015-01-05 株式会社ジャパンディスプレイ 表示装置
CN105093548B (zh) * 2015-08-20 2018-10-23 京东方科技集团股份有限公司 3d显示装置的控制方法、控制装置及3d显示装置
CN105093546A (zh) * 2015-08-20 2015-11-25 京东方科技集团股份有限公司 3d显示装置及其控制方法
CN106791796B (zh) * 2017-01-11 2019-02-01 京东方科技集团股份有限公司 显示面板及其驱动方法和制作方法、显示装置
CN107959846B (zh) * 2017-12-06 2019-12-03 苏州佳世达电通有限公司 影像显示设备及影像显示方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07181429A (ja) * 1993-11-15 1995-07-21 Sanyo Electric Co Ltd 立体表示装置
JP2008112062A (ja) * 2006-10-31 2008-05-15 Seiko Epson Corp 表示装置
JP2008112060A (ja) * 2006-10-31 2008-05-15 Seiko Epson Corp 表示装置
JP2012506604A (ja) 2008-10-21 2012-03-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 透明oledデバイス
JP2011142289A (ja) * 2010-01-05 2011-07-21 Samsung Mobile Display Co Ltd 有機発光表示装置
JP2011180367A (ja) * 2010-03-01 2011-09-15 Seiko Epson Corp 画像表示装置、表示パネル、及び視差バリア
JP2013137486A (ja) * 2011-03-11 2013-07-11 Semiconductor Energy Lab Co Ltd 表示装置および表示装置の駆動方法
US20170194390A1 (en) * 2014-06-30 2017-07-06 Lg Display Co., Ltd. Transparent organic light-emitting display device
JP2017044868A (ja) * 2015-08-26 2017-03-02 大日本印刷株式会社 シースルー型のled表示装置
US20180301096A1 (en) * 2016-08-19 2018-10-18 Korea Advanced Institute Of Science And Technology Display apparatus using blind panel
JP2018120191A (ja) * 2017-01-27 2018-08-02 公立大学法人大阪市立大学 3次元表示システム、ヘッドアップディスプレイシステム、及び移動体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3816974A4

Also Published As

Publication number Publication date
EP3816974A4 (en) 2022-03-30
CN112352273B (zh) 2023-07-14
US20210165242A1 (en) 2021-06-03
EP3816974A1 (en) 2021-05-05
JPWO2020004256A1 (ja) 2021-08-02
CN112352273A (zh) 2021-02-09
JP6924903B2 (ja) 2021-08-25

Similar Documents

Publication Publication Date Title
US10061992B2 (en) Image display system
EP1909255B1 (en) Image display device
CN110832382B (zh) 图像投影装置和移动体
JP2009043139A (ja) 位置検出装置
JP2015152746A (ja) 表示装置
US20100225564A1 (en) Image display device
JP7129789B2 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、および移動体
WO2020095731A1 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
US20140320952A1 (en) Head-Up Display Device
US20180187397A1 (en) Projection type display device and projection control method
JP6252203B2 (ja) 表示装置
JP6384996B2 (ja) 表示装置
WO2018168086A1 (ja) 表示方法および表示装置
WO2020004256A1 (ja) 情報表示装置及び情報表示システム
JP7136661B2 (ja) 画像表示装置、画像表示システム、及び移動体
JP7188888B2 (ja) 画像表示装置、ヘッドアップディスプレイシステム、および移動体
JP7337147B2 (ja) 立体虚像表示モジュール、立体虚像表示システム、および移動体
WO2019225400A1 (ja) 画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体
JP2016199266A (ja) 表示機能付きミラー装置および表示切替方法
WO2022230824A1 (ja) 映像表示装置および映像表示方法
EP4283987A1 (en) Image display device
JP2017084136A (ja) ジェスチャ入力装置
JP2018202950A (ja) 表示システム、電子ミラーシステム及び移動体
WO2016185677A1 (ja) 車両周辺表示装置及び車両周辺表示方法
JP2021141423A (ja) 表示システム、表示制御装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19826486

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020527475

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019826486

Country of ref document: EP

Effective date: 20210126