WO2021171397A1 - 表示制御装置、表示装置、及び表示制御方法 - Google Patents

表示制御装置、表示装置、及び表示制御方法 Download PDF

Info

Publication number
WO2021171397A1
WO2021171397A1 PCT/JP2020/007605 JP2020007605W WO2021171397A1 WO 2021171397 A1 WO2021171397 A1 WO 2021171397A1 JP 2020007605 W JP2020007605 W JP 2020007605W WO 2021171397 A1 WO2021171397 A1 WO 2021171397A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
display object
parallax
image
eye
Prior art date
Application number
PCT/JP2020/007605
Other languages
English (en)
French (fr)
Inventor
和史 隠岐
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2020/007605 priority Critical patent/WO2021171397A1/ja
Publication of WO2021171397A1 publication Critical patent/WO2021171397A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/346Image reproducers using prisms or semi-transparent mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Definitions

  • the present disclosure relates to a display control device, a display device, and a display control method.
  • a head-up display (hereinafter referred to as "HUD”) is a display device that allows the driver of a vehicle to visually recognize display information without moving his / her line of sight significantly from the front field of view.
  • AR-HUD Augmented Reality-HUD
  • AR-HUD Augmented Reality-HUD
  • displays AR superimposes information such as directions arrows on a specific object such as a road existing in the foreground (that is, displays AR), and other information is displayed.
  • Patent Document 1 as an example of AR-HUD, the light of the first display image representing the vehicle speed and the like and the light of the second display image representing the route guide arrow and the like are projected onto the windshield to form a first virtual image.
  • a configuration is disclosed in which a second virtual image is imaged at different positions from each other.
  • the first virtual image representing the vehicle speed and the like is displayed about 2 m ahead of the driver
  • the second virtual image representing the route guide arrow and the like is displayed about 15 m ahead of the driver on the road surface. And so on.
  • the conventional AR-HUD as disclosed in Patent Document 1 uses two indicators in order to simultaneously display the first virtual image and the second virtual image having different display distances.
  • the first display projects the light of the first display image formed as the first virtual image onto the first display area of the windshield, and the second display is the second displayed as the second distant virtual image.
  • the light of the display image is projected onto the second display area of this windshield. Since the conventional AR-HUD has such a configuration, the second display object cannot be displayed in the first display area, and the first display object cannot be displayed in the second display area. rice field.
  • the present disclosure has been made to solve the above-mentioned problems, and an object of the present disclosure is to display the first display object and the second display object anywhere in the display area.
  • the display control device is located in front of an occupant in a vehicle by controlling a display device including a display device that displays a display image including a first display object and a second display object. It is a display control device that displays a first binocular visual image in which the light of the first display object is imaged and a second binocular visual image in which the light of the second display object is imaged in the display area.
  • a display control device that displays a first binocular visual image in which the light of the first display object is imaged and a second binocular visual image in which the light of the second display object is imaged in the display area.
  • a display mode control unit that controls the disparity display mode of the first display object and the disparity display mode of the second display object so that the disparity display modes of the first display object are different from each other when controlling the disparity display mode representing the discrepancy with the eye display object.
  • the first display object for the left eye corresponding to the first display object and the second display object for the left eye corresponding to the second display object are displayed in a disparity display mode of the first display object and a disparity display mode of the second display object.
  • the left eye image generator arranged on the left eye image irradiated to the left eye of the occupant, and the first display object and the second display object for the right eye corresponding to the first display object.
  • the display image including the first display object and the second display object having different parallax display modes are displayed on a single display, the first display object and the second display object are displayed. , It can be displayed anywhere in the display area located in front of the occupant in the vehicle.
  • FIG. 2A to 2D are views for explaining an example of the parallax display mode.
  • 3A and 3B are diagrams for explaining the parallax angle.
  • FIG. It is a block diagram which shows another example of the hardware composition of the display control device which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation example of the display control apparatus which concerns on Embodiment 1.
  • FIG. It is a figure which shows the outline of the display device which concerns on Embodiment 1.
  • FIG. It is a figure which shows an example of the image for the left eye and the image for the right eye in Embodiment 1.
  • FIG. It is a figure which shows an example of the image for the left eye and the image for the right eye in Embodiment 2.
  • It is a flowchart which shows the operation example of the display control apparatus which concerns on Embodiment 3.
  • FIG. It is a figure which shows the image for the left eye and the image for the right eye which became the basis of the display image shown in FIG.
  • FIG. 1 is a block diagram showing a configuration example of the display device 10 according to the first embodiment.
  • the information source device 1 and the display device 10 are mounted on the vehicle.
  • the information source device 1 includes an external sensor 2, a navigation device 3, a vehicle sensor 4, and an in-vehicle camera 5.
  • the display device 10 includes a display device 11 and a display control device 12.
  • the display control device 12 includes an object information acquisition unit 13, a vehicle information acquisition unit 14, an eye position acquisition unit 15, a display mode control unit 16, and an image generation unit 17.
  • the image generation unit 17 includes an image generation unit 18 for the left eye, an image generation unit 19 for the right eye, and a display image generation unit 20.
  • the vehicle exterior sensor 2 is composed of a vehicle exterior photography camera, a millimeter wave sensor, LiDAR (Light Detection and Ringing), or the like.
  • the vehicle exterior sensor 2 detects other vehicles, pedestrians, obstacles around the vehicle, brightness outside the vehicle, and the like.
  • the vehicle exterior sensor 2 outputs the detected information to the display control device 12.
  • the navigation device 3 detects route information including the distance from the vehicle to the intersection or the coordinates of the intersection.
  • the navigation device 3 searches for the travel route of the vehicle based on the destination information set by the occupant, the map information stored in the storage device (not shown), and the position information acquired from the vehicle sensor 4, and the searched travel route. To guide you.
  • the navigation device 3 may correct the position information acquired from the vehicle sensor 4 based on the angular velocity information acquired from the vehicle sensor 4.
  • the navigation device 3 outputs the navigation information used for guiding the traveling route to the display control device 12.
  • the navigation information includes the traveling direction of the vehicle at a guide point (for example, an intersection) on the route, the estimated arrival time to the waypoint or the destination, the traffic congestion information of the traveling route of the vehicle and the surrounding roads, and the like.
  • the navigation device 3 may be an information device mounted on the vehicle, or may be a mobile communication terminal such as a PND (Portable Navigation Device) or a smartphone brought into the vehicle.
  • a PND Portable Navigation Device
  • smartphone brought into the vehicle.
  • the vehicle sensor 4 detects vehicle information such as vehicle position information, angular velocity information, vehicle speed, and vibration.
  • vehicle sensor 4 outputs the detected information to the navigation device 3 and the display control device 12.
  • the in-vehicle camera 5 is a camera that images the occupants of the vehicle.
  • the in-vehicle camera 5 captures an image of an observer (for example, a driver) who sees a display object displayed by the display device 10 among the occupants of the vehicle, and outputs the captured image to the display control device 12.
  • the display 11 is a HUD device.
  • the HUD device is a windshield type, a combiner type, or the like.
  • the display 11 composed of a liquid crystal display or the like emits the display light of the display image including the display object, and this display light is transmitted to the windshield composed of the windshield of the vehicle or the like. Be projected.
  • the display light emitted from the display 11 is projected onto the combiner.
  • the object information acquisition unit 13 acquires information on the object on which the displayed object is superimposed (hereinafter referred to as "object information") from the information acquired from the vehicle exterior sensor 2 or the navigation device 3 or the like.
  • the object information includes the size and position coordinates of the object, the brightness outside the vehicle, the distance from the vehicle to the object, and the like.
  • the object information acquisition unit 13 outputs the object information to the display mode control unit 16.
  • the object is an object existing in the foreground of the vehicle on which the displayed object is superimposed and displayed.
  • the object is a right / left turn intersection where the vehicle passes next, an object such as a vehicle in front, or a white line on the road surface.
  • the display object is an object included in the display image generated by the display control device 12 and displayed on the display 11.
  • the displayed object is a road guide arrow indicating the traveling direction of the vehicle, a figure emphasizing the vehicle in front, a figure emphasizing a white line on the road surface, vehicle status information, or the like.
  • the status information is information such as the vehicle speed required for driving the vehicle, or an indicator or icon indicating the state of the vehicle.
  • the display material is classified into two types, a first display material and a second display material.
  • the first display object is the status information displayed in front of the observer.
  • the first display object may or may not be superimposed on a specific object. That is, the first display object may or may not be AR-displayed.
  • the second display object is a display object superimposed on the object, that is, an AR display object.
  • the second display object is a route guide arrow indicating the traveling direction of the vehicle, which is superimposed and displayed at the right / left turn intersection where the vehicle passes next.
  • the second display object is a figure that emphasizes this object, which is superimposed and displayed on an object such as a vehicle in front.
  • the second display object is a figure that emphasizes the white line, which is superimposed and displayed on the white line on the road surface.
  • display object when it is not necessary to distinguish between the first display object and the second display object, it is simply referred to as "display object".
  • the vehicle information acquisition unit 14 acquires vehicle information such as vehicle speed and vehicle vibration from the vehicle sensor 4 and outputs the vehicle information to the display mode control unit 16.
  • the eye position acquisition unit 15 acquires the position of the observer's eye from the image captured by the in-vehicle camera 5, and displays information indicating the acquired eye position (hereinafter, referred to as “eye position information”) in the display mode control unit 16. Output to.
  • the eye position acquisition unit 15 analyzes, for example, an image of the observer captured by the in-vehicle camera 5 to acquire the position of the observer's left eye and the position of the right eye.
  • the eye position acquisition unit 15 can also acquire the interpupillary distance based on the position of the left eye and the position of the right eye.
  • the interpupillary distance is the distance from the right pupil (center of the black eye) to the left pupil.
  • the eye position acquisition unit 15 includes the interpupillary distance in the eye position information and outputs it to the display mode control unit 16.
  • the display mode control unit 16 controls the display modes of the first display object and the second display object based on the information acquired from the object information acquisition unit 13, the vehicle information acquisition unit 14, and the eye position acquisition unit 15. .
  • the display mode is the size of the display object, the position of the display object, the brightness of the display object, and the like.
  • the display mode control unit 16 controls the size, position, brightness, and the like of the first display object that represents the vehicle speed and the like.
  • the display mode control unit 16 controls the size, position, brightness, and the like of the second display object representing the route guide arrow and the like.
  • the display mode control unit 16 holds in advance the figures of the first display object and the second display object.
  • the display mode control unit 16 may hold information on the size and position of the first display object in advance for the first display object that does not need to be superimposed and displayed on the object. Further, the display mode control unit 16 may control the brightness of the first display object and the second display object according to the brightness outside the vehicle.
  • the display mode control unit 16 controls the parallax display mode of the first display object and the second display object based on the information acquired from the eye position acquisition unit 15. At that time, the display mode control unit 16 controls the parallax display mode of the first display object and the parallax display mode of the second display object so that the parallax display modes are different from each other.
  • the parallax display mode is a display mode relating to the parallax between the left-eye display object and the right-eye display object, which are related to a certain display object.
  • FIGS. 2A to 2D are diagrams for explaining an example of the parallax display mode.
  • an arrow is shown as an example of the display object, and the left eye display object 100 and the right eye display object 101 corresponding to the arrow are shown.
  • FIG. 2A is an example of a parallax display mode in which the left eye display object 100 and the right eye display object 101 do not have binocular parallax. If there is no binocular parallax between the left eye display 100 in the left eye image and the right eye display 101 in the right eye image, the left eye display 100 and the right eye display 101 are connected.
  • the position of the binocular visual image 102 which is an imaged virtual image, is equal to the position of the display image 111 (see FIG. 7).
  • the display image 111 is an image generated from an image for the left eye irradiated at the position of the left eye 103 and an image for the right eye irradiated at the position of the right eye 104, and is an image displayed by the display device 11. ..
  • FIG. 2B is an example of a parallax display mode in which the left-eye display object 100 and the right-eye display object 101 have binocular parallax in the depth direction.
  • the depth direction is a direction away from the observer
  • the front direction is a direction closer to the observer.
  • the position of the binocular visual image 102 is the display image 111. It is far from the position. The observer feels that the binocular visual image 102 of FIG. 2B is farther than the binocular visual image 102 of FIG. 2A.
  • FIG. 2C is an example of a parallax display mode in which the left-eye display object 100 and the right-eye display object 101 have binocular parallax in the front direction.
  • the position of the binocular visual image 102 is the display image 111. It is closer than the position. The observer feels that the binocular visual image 102 of FIG. 2C is closer than the binocular visual image 102 of FIG. 2A.
  • FIG. 2D is an example of a parallax display mode in which the display object is visually recognized by only one of the left eye 103 and the right eye 104.
  • the left-eye display object 100 is displayed, and the left-eye display object 100 is visually recognized by the observer's left eye 103.
  • the observer is less likely to feel the perspective of the left-eye display object 100. Therefore, the left-eye display object 100 is displayed regardless of the display position of the left-eye display object 100. It seems to be superimposed on the object existing in the background.
  • the left-eye display object 100 and the right-eye display object 101 are display objects in a corresponding relationship, and are display objects that are imaged as a binocular visual image 102 when displayed by the display device 11.
  • the binocular visual image 102 is an image that the observer finally sees when the observer observes two corresponding display objects, and is a virtual image formed by the two corresponding display objects. Is.
  • the display mode control unit 16 may determine whether or not the parallax angle is within a predetermined allowable range. In the first embodiment, when the parallax angle is within the permissible range, the display mode control unit 16 sets the parallax display mode of the displayed object to the parallax display mode shown in any one of FIGS. 2A to 2C, and parallax. When the angle is out of the permissible range, the parallax display mode of the displayed object is changed to the one-eye display shown in FIG. 2D.
  • FIG. 3A and 3B are diagrams for explaining the parallax angle.
  • FIG. 3A shows an example of the parallax angle in the parallax display mode of FIG. 2B
  • FIG. 3B shows an example of the parallax angle in the parallax display mode of FIG. 2C.
  • the parallax angle is the difference between the first convergence angle ⁇ 1 and the second convergence angle ⁇ 2 shown in FIGS. 3A and 3B, and is represented by the following equation (1).
  • Parallax angle 1st convergence angle ⁇ 1-2nd convergence angle ⁇ 2 (1)
  • the permissible range of the parallax angle is, for example, in the range of -1 degree to 1 degree in which the imaging condition of the binocular visual image is good, which is defined in the following "3DC safety guideline for the spread of human-friendly 3D". be.
  • the permissible range is not limited to the range of -1 degree to 1 degree, and may be a range in which the observer can easily see the binocular visual image.
  • the convergence angle is the angle formed by both eyes when the observer is looking at a certain place.
  • the first convergence angle ⁇ 1 is such that when the observer is looking at the left-eye display 100 and the right-eye display 101 at the position of the display image 111, both eyes are looking at the display image 101.
  • the second convergence angle ⁇ 2 is an angle formed by both eyes when the observer is looking at the binocular visual image 102.
  • the display mode control unit 16 calculates the first convergence angle ⁇ 1 and the second convergence angle ⁇ 2 for a certain display object by using the determined parallax display mode and the eye position information acquired from the eye position acquisition unit 15.
  • the image generation unit 18 for the left eye creates an image for the left eye on which the display object 100 for the left eye is arranged based on the control result of the display mode and the parallax display mode of the display mode control unit 16 and the determination result of the parallax angle. Generate.
  • the left eye image generation unit 18 outputs the generated left eye image to the display image generation unit 20. This left-eye image is projected so that it can be visually recognized by the observer's left eye 103 when the display 11 displays it.
  • the parallax display mode of the display object is any of FIGS. 2A to 2C
  • the left eye display object 100 in the left eye image generated by the left eye image generation unit 18 is for the right eye, which will be described later. It has a corresponding relationship with the right-eye display object 101 in the right-eye image generated by the image generation unit 19.
  • the image generation unit 19 for the right eye creates an image for the right eye on which the display object 101 for the right eye is arranged based on the control result of the display mode and the parallax display mode of the display mode control unit 16 and the determination result of the parallax angle. Generate.
  • the right eye image generation unit 19 outputs the generated right eye image to the display image generation unit 20. This image for the right eye is projected so that it can be visually recognized by the observer's right eye 104 when the display 11 displays the image.
  • the parallax display mode of the display object is any of FIGS. 2A to 2C
  • the right eye display object 101 in the right eye image generated by the right eye image generation unit 19 is displayed. It has a corresponding relationship with the left-eye display object 100 in the left-eye image generated by the left-eye image generation unit 18.
  • the display image generation unit 20 generates a display image 111 based on the left eye image generated by the left eye image generation unit 18 and the right eye image generated by the right eye image generation unit 19.
  • the display image 111 includes a portion that can be visually recognized by the observer's left eye 103 and a portion that can be visually recognized by the observer's right eye 104.
  • the display image generation unit 20 outputs the generated display image 111 to the display 11.
  • the display 11 presents a portion of the display image 111 that can be seen by the observer's left eye 103 to the left eye 103, and a portion of the display image 111 that can be seen by the observer's right eye 104 is the right eye. It is presented in 104. It should be noted that the method in which the display 11 presents images of different modes to the left and right eyes does not matter. Examples of the presentation method include a parallax barrier method and a lenticular method.
  • FIGS. 4 and 5 are block diagrams showing an example of the hardware configuration of the display control device 12 according to the first embodiment.
  • the function of unit 20 is realized by a processing circuit. That is, the display control device 12 includes a processing circuit for realizing the above functions.
  • the processing circuit may be a processing circuit 1000 as dedicated hardware, or may be a processor 1001 that executes a program stored in the memory 1002.
  • the processing circuit 1000 may include, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, or an ASIC (Application Specific Integrated Circuit). ), FPGA (Field Processor Metal Gate Array), or a combination thereof. Functions of the object information acquisition unit 13, the vehicle information acquisition unit 14, the eye position acquisition unit 15, the display mode control unit 16, the left eye image generation unit 18, the right eye image generation unit 19, and the display image generation unit 20. It may be realized by a plurality of processing circuits 1000, or the functions of each part may be collectively realized by one processing circuit 1000.
  • the processing circuit 1000 is connected to the information source device 1 and the display 11, and information can be exchanged between the processing circuit 1000, the information source device 1, and the display 11.
  • the processing circuit is the processor 1001
  • the functions of the image generation unit 19 for the right eye and the display image generation unit 20 are realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is written as a program and stored in memory 1002.
  • the processor 1001 realizes the functions of each part by reading and executing the program stored in the memory 1002. That is, the display control device 12 includes a memory 1002 for storing a program in which the step shown in the flowchart of FIG. 6 or the like described later will be executed as a result when the processor 1001 executes the display control device 12.
  • this program includes an object information acquisition unit 13, a vehicle information acquisition unit 14, an eye position acquisition unit 15, a display mode control unit 16, a left eye image generation unit 18, a right eye image generation unit 19, and a display image. It can also be said that the procedure or method of the generation unit 20 is executed by a computer.
  • the processor 1001 and the memory 1002 are connected to the information source device 1 and the display 11, and information can be exchanged between the processor 1001 and the memory 1002, the information source device 1 and the display 11.
  • the processor 1001 is a CPU (Central Processing Unit), a processing device, an arithmetic unit, a microprocessor, or the like.
  • the memory 1002 may be a non-volatile or volatile semiconductor memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), an EPROM (Erasable Program ROM), or a flash memory, or may be a non-volatile or volatile semiconductor memory such as a hard disk or a flexible disk. It may be an optical disc such as a CD (Compact Disc) or a DVD (Digital Versaille Disc).
  • the object information acquisition unit 13, the vehicle information acquisition unit 14, the eye position acquisition unit 15, the display mode control unit 16, the left eye image generation unit 18, the right eye image generation unit 19, and the display image generation unit 20 may be realized by dedicated hardware, and some may be realized by software or firmware.
  • the processing circuit in the display control device 12 can realize the above-mentioned functions by hardware, software, firmware, or a combination thereof.
  • FIG. 6 is a flowchart showing an operation example of the display control device 12 according to the first embodiment.
  • the display control device 12 starts the operation shown in the flowchart of FIG. 6 when the ignition key of the vehicle is turned on, and repeats the operation shown in the flowchart of FIG. 6 until the ignition key is turned off.
  • step ST1 the object information acquisition unit 13, the vehicle information acquisition unit 14, and the eye position acquisition unit 15 receive various information from the vehicle exterior sensor 2, the navigation device 3, the vehicle sensor 4, and the vehicle sensor 4 of the information source device 1. To get.
  • the display mode control unit 16 is the first display object to be displayed based on various information acquired by the object information acquisition unit 13, the vehicle information acquisition unit 14, and the eye position acquisition unit 15 in step ST1. Or, it is determined whether or not there is at least one of the second display objects. For example, the display mode control unit 16 determines that information necessary for driving the vehicle, such as vehicle speed, is always displayed as the first display object. Further, the display mode control unit 16 determines that the indicator is displayed as the first display object when the vehicle information includes the information of the indicator indicating the abnormality of the vehicle or the like. Further, for example, the display mode control unit 16 secondly displays the route guidance arrow when the road surface information for superimposing and displaying the route guide arrow is included in the object information acquired by the object information acquisition unit 13.
  • the display mode control unit 16 is a vehicle information acquisition unit. It is determined that the displayed object is displayed when the vehicle vibration included in the vehicle information acquired by 14 is smaller than the predetermined vibration, and it is determined that the displayed object is not displayed when the vehicle vibration is equal to or more than the predetermined vibration. do.
  • the display mode control unit 16 determines the display mode for each of the first display object and the second display object determined to be displayed. For example, the display mode control unit 16 determines the sizes of the first display object and the second display object based on the shape and size of the object acquired by the object information acquisition unit 13. Further, for example, the display mode control unit 16 determines the positions of the first display object and the second display object, the position of the object acquired by the object information acquisition unit 13, the distance from the vehicle to the object, and the eye position. The determination is made based on the positions of the left eye 103 and the right eye 104 of the observer acquired by the acquisition unit 15.
  • the display mode control unit 16 determines the parallax display mode for each of the first display object and the second display object determined to be displayed. For example, when the object on which the second display object is superimposed and displayed is far from the position of the display image 111, the display mode control unit 16 changes the parallax display mode of the second display object to the parallax display mode shown in FIG. 2B. At the same time, the parallax between the second display object for the left eye and the second display object for the right eye is calculated based on the positions of the left eye 103 and the right eye 104, the distance from the vehicle to the object, and the like. When the display mode control unit 16 determines the parallax display mode of the second display object to be the parallax display mode shown in FIG. 2B in order to make the first display object and the second display object different from each other. , The parallax display mode of the first display object is determined to be the parallax display mode shown in FIG. 2A or FIG. 2C.
  • step ST4 the display mode control unit 16 first congests each of the first display object and the second display object determined to be displayed based on the positions of the left eye 103 and the right eye 104 of the observer and the parallax display mode.
  • the angle ⁇ 1 and the second convergence angle ⁇ 2 are calculated, and the parallax angle is calculated using the first convergence angle ⁇ 1 and the second convergence angle ⁇ 2.
  • the display mode control unit 16 determines whether or not the calculated parallax angle is within the permissible range for each of the first display object and the second display object determined to be displayed.
  • the display mode control unit 16 changes the parallax display mode to the one-eye display shown in FIG. 2D for the display object determined that the parallax angle is out of the permissible range (step ST4 “NO”) (step ST5).
  • the display mode control unit 16 may control the parallax display mode so that the display object is irradiated only to the predetermined side eye, or irradiates only the dominant eye of the observer. It may be controlled so as to be performed.
  • the information on the dominant eye of the observer is set in advance for the display control device 12 by the observer himself, for example.
  • the image generation unit 18 for the left eye has the first display object for the left eye corresponding to the first display object determined to be displayed by the display mode control unit 16 and the second display object for the left eye corresponding to the second display object.
  • the display object is arranged on the left eye image irradiated to the left eye 103 of the observer based on the display mode and the parallax display mode determined by the display mode control unit 16.
  • the left-eye image generation unit 18 displays the left-eye display object corresponding to this display object. Do not place on the left eye image.
  • the image generation unit 19 for the right eye has the first display object for the right eye corresponding to the first display object determined to be displayed by the display mode control unit 16 and the second display object for the left eye corresponding to the second display object.
  • the display object is arranged on the right eye image irradiated to the observer's right eye 104 based on the display mode and the parallax display mode determined by the display mode control unit 16.
  • the image generation unit 19 for the right eye displays the display object for the right eye corresponding to this display object. Do not place on the image for the right eye.
  • left eye image generation or the right eye image generation may be performed first, or may be performed in parallel.
  • step ST8 the display image generation unit 20 combines the left eye image generated by the left eye image generation unit 18 and the right eye image generated by the right eye image generation unit 19 to generate the display image 111. Generate.
  • step ST9 the display image generation unit 20 outputs the display image 111 to the display 11.
  • the display 11 displays the display image 111.
  • FIG. 7 is a diagram showing an outline of the display device 10 according to the first embodiment.
  • the display image 111 generated by the display image generation unit 20 includes a first display object 100a for the left eye and a first display object 101a for the right eye corresponding to the first display object representing the vehicle speed, and a vehicle in front which is the object 112.
  • the second display object 100b for the left eye and the second display object 101b for the right eye corresponding to the second display object for emphasizing the above are included.
  • the left-eye display light 105 and the right-eye display light 106 which are the display lights of the display image 111, are emitted from a single display 11, reflected by the concave mirror 11a, and projected onto the windshield 107.
  • the windshield 107 which is the display area of the display device 10, does not have to be the windshield of the vehicle, and may be a combiner or the like.
  • the observer can visually recognize the image formed through the windshield 107 from the positions of the left eye 103 and the right eye 104. At this time, the observer can observe the display object for the left eye in the display image 111 with the left eye 103 and the display object for the right eye in the display image 111 with the right eye 104, and as a result, the right eye.
  • the display object for the eye and the display object for the left eye can be visually recognized as a binocular visual image formed in one image.
  • the observer visually recognizes the second binocular visual image 102b by observing the second display object 100b for the left eye with the left eye 103 and observing the second display object 101b for the right eye with the right eye 104. ..
  • the second display object 100b for the left eye and the second display object for the right eye are second.
  • the position of the second binocular visual image 102b in which the display object 101b is imaged is farther than the position of the display image 111. Therefore, the observer appears that the second binocular visual image 102b is displayed at the position of the object 112 in the vehicle foreground, that is, at the apparent display position 113.
  • the first display object 100a for the left eye and the first display object 101a for the right eye in the display image 111 since there is no parallax between the first display object 100a for the left eye and the first display object 101a for the right eye in the display image 111, the first display object 100a for the left eye and the first display object 101a for the right eye
  • the position of the first binocular visual image 102a formed by the image is equal to the position of the display image 111.
  • the observer differs between the first binocular visual image 102a and the second binocular visual image 102b.
  • Visualize at a distance In the example of FIG. 7, the first display object was controlled to the parallax display mode shown in FIG. 2A, and the second display object was controlled to the parallax display mode shown in FIG. 2B. 2 If the displayed object is visually recognized at an appropriate distance, it may be controlled by another parallax display mode.
  • the appropriate distance of the first display object representing the vehicle speed and the like is, for example, within 3 m in front of the observer, and the appropriate distance of the second display object superimposed on the object 112 is, for example, 10 in front of the observer. It is ⁇ 15m.
  • the first display object is controlled to the parallax display mode shown in FIG. 2A or FIG. 2C
  • the second display object is the parallax display shown in FIG. 2B or FIG. 2D. It is controlled by the aspect.
  • FIG. 8 is a diagram showing an example of an image 108 for the left eye and an image 109 for the right eye according to the first embodiment.
  • the display image 111 generated from the left-eye image 108 and the right-eye image 109 shown in FIG. 8 includes one first display object and three second display objects.
  • the first display object is an image in which the first display object 100a for the left eye and the first display object 101a for the right eye, which are in a corresponding relationship, are imaged, and the first display object 100a for the left eye and the right eye in FIG. Corresponds to the first display object 101a for use.
  • the first of the three second display objects is an image in which the second display object 100b for the left eye and the second display object 101b for the right eye are imaged, and the second display object for the left eye in FIG. 7 is an image. It corresponds to 100b and the second display object 101b for the right eye.
  • the second of the three second display objects is the second display object 100b-1 for the left eye, which is controlled by the parallax display mode (single-eye display) shown in FIG. 2D.
  • the second display object is, for example, a circular figure superimposed on a pedestrian to emphasize the pedestrian.
  • the third of the three second displays is the left eye second display 100b-2 composed of the four left eye second displays 100b-3 to 100b-6, and the four right eyes.
  • This second display object is, for example, a triangular figure superimposed on the road surface to indicate the traveling direction of the vehicle.
  • the display image 111 is generated based on two different forms of an image 108 for the left eye and an image 109 for the right eye as shown in FIG. This is because the parallax display mode differs between the first display object and the second display object. Further, the first display object and the second display object may be arranged at any position within the range of the left eye image 108 and the right eye image 109.
  • the display device 10 includes a display device 11 for displaying a display image 111 including a first display object and a second display object, and a display control device 12.
  • the display control device 12 controls the display device 10 provided with the display device 11, so that the light of the first display object is imaged in the display area located in front of the observer in the vehicle.
  • the binocular visual image 102a and the second binocular visual image 102b in which the light of the second display object is imaged are displayed, and the eye position acquisition unit 15, the display mode control unit 16, and the image generation for the left eye are displayed.
  • a unit 18, an image generation unit 19 for the right eye, and a display image generation unit 20 are provided.
  • the eye position acquisition unit 15 acquires the positions of the observer's left eye 103 and right eye 104.
  • the display mode control unit 16 uses the positions of the left eye 103 and the right eye 104 acquired by the eye position acquisition unit 15 to display the left eye display 100 and the right eye display 101 which are in a corresponding relationship with each other for a certain display object.
  • the parallax display mode representing the parallax with the parallax display mode of the first display object and the parallax display mode of the second display object are controlled so that the parallax display modes are different from each other.
  • the image generation unit 18 for the left eye displays the first display object 100a for the left eye corresponding to the first display object and the second display object 100b for the left eye corresponding to the second display object in a parallax display mode of the first display object. And, based on the parallax display mode of the second display object, the image 108 for the left eye is placed on the left eye 103 of the observer.
  • the image generation unit 19 for the right eye displays the first display object 101a for the right eye corresponding to the first display object and the second display object 101b for the right eye corresponding to the second display object in a parallax display mode of the first display object.
  • the image 109 for the right eye is placed on the right eye 104 of the observer.
  • the display image generation unit 20 uses the left-eye image 108 and the right-eye image 109 to generate a display image 111 to be displayed on the display 11.
  • the display control device 12 causes the single display 11 to display the display image 111 including the first display object and the second display object having different parallax display modes, and thus the first display object.
  • the second display object can be displayed anywhere in the display area (for example, the windshield 107) located in front of the observer in the vehicle.
  • the display device 10 according to the first embodiment is the display device, as compared with the prior art in which the first display object is displayed on the first display device and the second display object is displayed on the second display device. It does not increase the capacity of 11. Further, in the above-mentioned prior art, AR display can be performed only in the second display area in the display area, but the display device 10 according to the first embodiment can display the second display object in AR anywhere in the display area. Therefore, it is possible to expand the AR display area without increasing the capacity of the display device 11.
  • the display mode control unit 16 of the first embodiment uses the positions of the left eye 103 and the right eye 104 acquired by the eye position acquisition unit 15, and the difference between the first convergence angle ⁇ 1 and the second convergence angle ⁇ 2.
  • the parallax display mode of the second display object is controlled so that the second display object is irradiated to both eyes of the observer.
  • the parallax display mode of the second display object is controlled so that the second display object irradiates only one of the observer's left eye 103 or right eye 104.
  • the display mode control unit 16 changes the parallax display mode to one-eye display (see FIG. 2D), whereby the second display object is displayed.
  • the difficulty of visual recognition can be alleviated.
  • the display mode control unit 16 can change the parallax display mode to monocular display not only for the second display object but also for the first display object.
  • the display mode control unit 16 displays the parallax display mode of the first display object with one eye. By changing to the display, it is possible to alleviate the difficulty in visually recognizing the first display object.
  • Embodiment 2 In the first embodiment, with respect to the second display object, the parallax between the second display object 100b for the left eye and the second display object 101b for the right eye, which are in a corresponding relationship, is the same regardless of the distance from the vehicle to the object 112. However, in the second embodiment, it differs depending on the distance from the vehicle to the object 112. Since the configuration of the display device 10 according to the second embodiment is the same as the configuration shown in FIG. 1 of the first embodiment on the drawing, FIG. 1 will be referred to below.
  • FIG. 9 is a diagram showing an example of an image 108 for the left eye and an image 109 for the right eye according to the second embodiment.
  • the display image 111 generated from the left-eye image 108 and the right-eye image 109 shown in FIG. 9 includes one first display object and one second display object.
  • the first display object is an image in which the first display object 100a for the left eye and the first display object 101a for the right eye, which are in a corresponding relationship, are imaged.
  • the second display object is an image in which the second display object 100b-10 for the left eye and the second display object 101b-10 for the right eye, which are in a corresponding relationship, are imaged.
  • the second display object 100b-10 for the left eye is composed of the second display objects 100b-11 to 100b-14 for the left eye
  • the second display object 101b-10 for the right eye is the second display object for the right eye. 2 It is composed of display objects 101b-11 to 101b-14. This second display object is superimposed on the road surface to indicate the traveling direction of the vehicle.
  • the display mode control unit 16 of the second embodiment has a parallax display mode between the second display object 100b-10 for the left eye and the second display object 101b-10 for the right eye as the parallax display mode of the second display object in FIG. ,
  • the object information acquisition unit 13 controls so as to differ according to the distance from the acquired vehicle to the object 112 (in this case, the road surface). Since the second display object 100b-11 for the left eye and the second display object 101b-11 for the right eye are superimposed and displayed on the road surface at the position closest to the vehicle, the parallax between them is the smallest.
  • the display device 10 can provide the observer with a natural AR display according to the distance of the object 112.
  • FIG. 9 shows an example in which the second display object is composed of a plurality of display objects
  • the second display object may be one display object.
  • FIG. 10 is a diagram showing another example of the image 108 for the left eye and the image 109 for the right eye according to the second embodiment.
  • the display image 111 generated from the left-eye image 108 and the right-eye image 109 shown in FIG. 10 includes one first display object and one second display object.
  • the first display object is an image in which the first display object 100a for the left eye and the first display object 101a for the right eye, which are in a corresponding relationship, are imaged.
  • the second display object is an image in which the second display object 100b-20 for the left eye and the second display object 101b-20 for the right eye, which are in a corresponding relationship, are imaged.
  • This second display object is a figure of an arrow that is superimposed and displayed on the road surface to indicate the traveling direction of the vehicle.
  • the display mode control unit 16 determines the parallax between the second display object 100b-20 for the left eye and the second display object 101b-20 for the right eye from the vehicle acquired by the object information acquisition unit 13 (in this case, the object 112). Is controlled to be different depending on the distance to the road surface).
  • the display device 10 can provide the observer with a natural AR display according to the distance of the object 112.
  • the display mode control unit 16 sets the parallax display mode of the second display object to the second display object 100b for the left eye and the right eye according to the distance to the object 112.
  • the parallax of the second display object 101b is controlled to be different.
  • the display device 10 can provide the observer with a natural AR display according to the distance of the object 112.
  • the display mode control unit 16 of the second embodiment sets the parallax display mode of the second display object according to the distance to the object 112 for the portion of the second display object whose parallax angle is within the permissible range.
  • the parallax of the second display object 100b for the left eye and the second display object 101b for the right eye is controlled to be different, and the part of the second display object whose parallax angle is out of the permissible range is left of the observer. It may be controlled so that only one of the eye 103 or the right eye 104 is irradiated. An example of this display is shown in FIG.
  • FIG. 11 is a diagram showing another example of the image 108 for the left eye and the image 109 for the right eye in the second embodiment.
  • the display image 111 generated from the left eye image 108 and the right eye image 109 shown in FIG. 11 includes one first display object and one second display object, as in the example of FIG. It is included.
  • the second display object for the right eye which has a corresponding relationship with the second display object for the left eye 100b-15, is not arranged on the image 109 for the right eye. That is, in the example of FIG. 11, in step ST4 shown in the flowchart of FIG. 6, the display mode control unit 16 has a parallax angle within an allowable range for each of the five pairs of triangular figures constituting the second display object.
  • Embodiment 3 the display mode control unit 16 determines whether or not the parallax angle is within the permissible range, but the third embodiment does not. Since the configuration of the display device 10 according to the third embodiment is the same as the configuration shown in FIG. 1 of the first embodiment on the drawing, FIG. 1 will be referred to below.
  • FIG. 12 is a flowchart showing an operation example of the display control device 12 according to the third embodiment.
  • the display control device 12 starts the operation shown in the flowchart of FIG. 12 when the ignition key of the vehicle is turned on, and repeats the operation shown in the flowchart of FIG. 12 until the ignition key is turned off.
  • the operation in steps ST1, ST2, ST6 to ST9 shown in the flowchart of FIG. 12 is the same as the operation in steps ST1, ST2, ST6 to ST9 shown in the flowchart of FIG.
  • step ST3A the display mode control unit 16 determines the parallax display mode of the first display object determined to be displayed in step ST2 to be the parallax display mode shown in any one of FIGS. 2A to 2C. Further, the display mode control unit 16 determines the parallax display mode of the second display object determined to be displayed in step ST2 to be the one-eye display shown in FIG. 2D.
  • FIG. 13 is a diagram showing an outline of the display device 10 according to the third embodiment.
  • FIG. 14 is a diagram showing an image 108 for the left eye and an image 109 for the right eye, which are the basis of the display image 111 shown in FIG.
  • the display image 111 generated by the display image generation unit 20 includes a first display object 100a for the left eye and a first display object 101a for the right eye corresponding to the first display object representing the vehicle speed, and a pedestrian who is the object 112.
  • the second display object 100b-1 for the left eye corresponding to the second display object emphasizing the above is included.
  • the left-eye display light 105 and the right-eye display light 106 which are the display lights of the display image 111, are emitted from a single display 11 and reflected by the concave mirror 11a, such as a windshield 107 or a combiner (not shown). Is projected on the display area of.
  • the observer can visually recognize the image formed through the windshield 107 from the positions of the left eye 103 and the right eye 104 as a binocular visual image. Since there is no parallax between the left eye first display object 100a and the right eye first display object 101a in the display image 111, that is, the parallax display mode shown in FIG. 2A, the left eye first display object The position of the first binocular visual image 102a in which the 100a and the first display object 101a for the right eye are imaged is equal to the position of the display image 111.
  • the second display object 100b-1 for the left eye is controlled in the parallax display mode (single eye display) shown in FIG. 2D. Therefore, the observer visually recognizes the second display object 100b-1 for the left eye in the display image 111 only with the left eye 103. Since the second display object 100b-1 for the left eye, which is visually recognized only by the left eye 103, has no perspective, it is displayed at the position of the object 112 in the foreground of the vehicle, that is, at the apparent display position 113. appear.
  • the shape of the second display object 100b-1 for the left eye displayed by one eye is not limited to the circular figure as shown in FIGS. 13 and 14, and the second display object for the left eye shown in FIG. 8 is not limited to the circular figure. It may be a figure such as the display object 100b or the second display object 100b-2 for the left eye.
  • the parallax display mode was controlled so that the second display object was irradiated only to the left eye 103, but the parallax display mode was such that the second display object was irradiated only to the right eye 104.
  • the aspect may be controlled.
  • the display mode control unit 16 controls the parallax display mode of the first display object so that the first display object irradiates both eyes of the observer.
  • the parallax display mode of the second display object is controlled so that the first display object irradiates only one of the observer's left eye 103 or right eye 104.
  • the display control device 12 is similar to the first embodiment, and in the second embodiment as well, the observer who is riding the vehicle has the first display object and the second display object having different parallax display modes. It can be displayed anywhere in the display area located in front (for example, the windshield 107).
  • the display mode control unit 16 changes the parallax display mode of the displayed object to the one-eye display when the parallax angle is out of the permissible range. Controls to hide displayed objects whose parallax angle is out of the permissible range. Since the configuration of the display device 10 according to the fourth embodiment is the same as the configuration shown in FIG. 1 of the first embodiment on the drawing, FIG. 1 will be referred to below.
  • FIG. 15 is a flowchart showing an operation example of the display control device 12 according to the fourth embodiment.
  • the display control device 12 starts the operation shown in the flowchart of FIG. 15 when the ignition key of the vehicle is turned on, and repeats the operation shown in the flowchart of FIG. 15 until the ignition key is turned off.
  • the operations in steps ST1 to ST4 and ST6 to ST9 shown in the flowchart of FIG. 15 are the same as the operations in steps ST1 to ST4 and ST6 to ST9 shown in the flowchart of FIG.
  • step ST5B the display mode control unit 16 changes the display object determined in step ST4 that the parallax angle is out of the permissible range to be hidden.
  • the left eye second display object 100b-1 for one-eye display is arranged on the left eye image 108.
  • the second display object 100b-1 for the left eye is changed to non-display, so that the second display object 100b-1 for the left eye is not arranged on the image 108 for the left eye.
  • the left eye second display object 100b-15 for one-eye display is arranged on the left eye image 108.
  • the second display object 100b-15 for the left eye is changed to non-display, so that the second display object 100b-15 for the left eye is not arranged on the image 108 for the left eye.
  • the display mode control unit 16 uses the positions of the left eye 103 and the right eye 104 acquired by the parallax position acquisition unit 15 to set the first convergence angle ⁇ 1 and the second.
  • the parallax angle which is the difference from the convergence angle ⁇ 2 is obtained, and when the parallax angle is within a predetermined allowable range, the parallax display mode of the second display object is irradiated to both eyes of the observer.
  • the parallax display mode of the second display object is controlled so as not to display the second display object.
  • the display mode control unit 16 can prevent the second display object, which is difficult for the observer to see, to be displayed.
  • the object information acquisition unit 13, the vehicle information acquisition unit 14, the eye position acquisition unit 15, the display mode control unit 16, the left eye image generation unit 18, and the right eye image generation unit 19 , And the functions of the display image generation unit 20 are integrated in the display control device 12 mounted on the vehicle, but the server device on the network, the mobile terminal such as a smartphone, the in-vehicle display control device 12, etc. It may be dispersed in. Further, the display control device 12 may be constructed by a server device on the network, and the server device may be configured to communicate with the information source device 1 and the display device 11 mounted on the vehicle.
  • the present disclosure allows any combination of embodiments, modifications of any component of each embodiment, or omission of any component of each embodiment.
  • the display device displays the first display object and the second display object, which have different parallax display modes, in a display area located in front of the observer. It is suitable for use as a display device for mobile objects including aircraft.
  • 1 Information source device 2 External sensor, 3 Navigation device, 4 Vehicle sensor, 5 In-vehicle camera, 10 Display device, 11 Display, 11a concave mirror, 12 Display control device, 13 Object information acquisition unit, 14 Vehicle information acquisition unit, 15 eye position acquisition unit, 16 display mode control unit, 17 image generation unit, 18 left eye image generation unit, 19 right eye image generation unit, 20 display image generation unit, 100 left eye display object, 100a left eye 1st display, 100b, 100b-1 to 100b-3, 100b-10 to 100b-15, 100b-20, 2nd display for left eye, 101, display for right eye, 101a, 1st display for right eye, 101b, 101b-2, 101b-3, 101b-10 to 101b-14,101b-20 Second display object for right eye, 102 binocular visual image, 102a first binocular visual image, 102b second binocular visual image , 103 left eye, 104 right eye, 105 left eye display light, 106 right eye display light, 107 windshield, 108 left eye image, 109 right eye image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Instrument Panels (AREA)

Abstract

表示態様制御部(16)は、左眼(103)及び右眼(104)の位置を用いて、ある表示物について対応関係にある左眼用表示物(100)と右眼用表示物(101)との視差を表す視差表示態様を制御する際、互いの視差表示態様が異なるように第1表示物の視差表示態様及び第2表示物の視差表示態様を制御する。左眼用画像生成部(18)は、第1表示物に対応する左眼用第1表示物(100a)及び第2表示物に対応する左眼用第2表示物(100b)を、第1表示物の視差表示態様及び第2表示物の視差表示態様に基づいて左眼用画像(108)上に配置する。右眼用画像生成部(19)は、第1表示物に対応する右眼用第1表示物(101a)及び第2表示物に対応する右眼用第2表示物(101b)を、第1表示物の視差表示態様及び第2表示物の視差表示態様に基づいて右眼用画像(109)上に配置する。表示画像生成部(20)は、左眼用画像(108)及び右眼用画像(109)を用いて、表示器(11)に表示させる表示画像(111)を生成する。

Description

表示制御装置、表示装置、及び表示制御方法
 本開示は、表示制御装置、表示装置、及び表示制御方法に関するものである。
 ヘッドアップディスプレイ(以下、「HUD」と称す)は、車両の運転者が前方視野から大きく視線を動かすことなく表示情報を視認可能な表示装置である。HUDの一種であるAR-HUD(Augmented Reality-HUD)は、前景に存在する道路等の特定の対象物に道案内矢印等の情報を重畳表示する(つまり、AR表示する)ことで、その他の種類のHUDに比べて直感的で分かりやすい情報を運転者に提示できる。
 例えば、特許文献1には、AR-HUDの一例として、車速等を表す第1表示像の光と道案内矢印等を表す第2表示像の光とをウィンドシールドに投影し、第1虚像と第2虚像とを互いに異なる位置に結像させる構成が開示されている。特許文献1に開示されたAR-HUDは、車速等を表す第1虚像を運転者の2m程度前方に表示させ、道案内矢印等を表す第2虚像を運転者の15m程度前方に表示させ路面等に重畳させる。
特開2018-124508号公報
 特許文献1に開示されているような従来のAR-HUDは、表示距離の異なる第1虚像と第2虚像とを同時に表示するために、2つの表示器を使用していた。第1表示器は、第1虚像として結像される第1表示像の光を、ウィンドシールドの第1表示領域に投影し、第2表示器は、第2遠虚像として結像される第2表示像の光を、このウィンドシールドの第2表示領域に投影する。従来のAR-HUDは、このような構成であるため、第1表示領域に第2表示物を表示させることはできず、また、第2表示領域に第1表示物を表示させることもできなかった。
 本開示は、上記のような課題を解決するためになされたもので、第1表示物及び第2表示物を、表示領域のどこにでも表示させるようにすることを目的とする。
 本開示に係る表示制御装置は、第1表示物及び第2表示物を含む表示画像を表示する表示器を備えた表示装置を制御することによって、車両に乗車している乗員の前方に位置する表示領域に、第1表示物の光が結像した第1両眼視認像と第2表示物の光が結像した第2両眼視認像とを表示させる表示制御装置であって、乗員の左眼及び右眼の位置を取得する眼位置取得部と、眼位置取得部により取得された左眼及び右眼の位置を用いて、ある表示物について対応関係にある左眼用表示物と右眼用表示物との視差を表す視差表示態様を制御する際、互いの視差表示態様が異なるように第1表示物の視差表示態様及び第2表示物の視差表示態様を制御する表示態様制御部と、第1表示物に対応する左眼用第1表示物及び第2表示物に対応する左眼用第2表示物を、第1表示物の視差表示態様及び第2表示物の視差表示態様に基づいて、乗員の左眼に照射される左眼用画像上に配置する左眼用画像生成部と、第1表示物に対応する右眼用第1表示物及び第2表示物に対応する右眼用第2表示物を、第1表示物の視差表示態様及び第2表示物の視差表示態様に基づいて、乗員の右眼に照射される右眼用画像上に配置する右眼用画像生成部と、左眼用画像及び右眼用画像を用いて、表示器に表示させる表示画像を生成する表示画像生成部とを備えるものである。
 本開示によれば、互いの視差表示態様が異なる第1表示物及び第2表示物を含む表示画像を単一の表示器に表示させるようにしたので、第1表示物及び第2表示物を、車両に乗車している乗員の前方に位置する表示領域のどこにでも表示させることができる。
実施の形態1に係る表示装置の構成例を示すブロック図である。 図2A~図2Dは、視差表示態様の例を説明する図である。 図3A及び図3Bは、視差角を説明する図である。 実施の形態1に係る表示制御装置のハードウェア構成の一例を示すブロック図である。 実施の形態1に係る表示制御装置のハードウェア構成の別の例を示すブロック図である。 実施の形態1に係る表示制御装置の動作例を示すフローチャートである。 実施の形態1に係る表示装置の概要を示す図である。 実施の形態1における左眼用画像と右眼用画像の一例を示す図である。 実施の形態2における左眼用画像と右眼用画像の一例を示す図である。 実施の形態2における左眼用画像と右眼用画像の別の例を示す図である。 実施の形態2における左眼用画像と右眼用画像の別の例を示す図である。 実施の形態3に係る表示制御装置の動作例を示すフローチャートである。 実施の形態3に係る表示装置の概要を示す図である。 図13に示された表示画像のもととなった左眼用画像と右眼用画像を示す図である。 実施の形態4に係る表示制御装置の動作例を示すフローチャートである。
 以下、本開示をより詳細に説明するために、本開示を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、実施の形態1に係る表示装置10の構成例を示すブロック図である。情報源装置1及び表示装置10は、車両に搭載される。情報源装置1は、車外センサ2、ナビゲーション装置3、車両センサ4、及び車内カメラ5を備える。表示装置10は、表示器11及び表示制御装置12を備える。表示制御装置12は、対象物情報取得部13、車両情報取得部14、眼位置取得部15、表示態様制御部16、及び画像生成部17を備える。画像生成部17は、左眼用画像生成部18、右眼用画像生成部19、及び表示画像生成部20を備える。
 まず、情報源装置1の各構成要素について説明する。
 車外センサ2は、車外撮影用カメラ、ミリ波センサ、又はLiDAR(Light Detection and Ranging)等により構成される。車外センサ2は、他車両、歩行者、車両周辺の障害物、及び車外の輝度等を検知する。車外センサ2は、検知した情報を、表示制御装置12へ出力する。
 ナビゲーション装置3は、車両から交差点までの距離又は交差点の座標等を含む経路情報を検知する。ナビゲーション装置3は、乗員が設定した目的地の情報、図示しない記憶装置に記憶されている地図情報及び車両センサ4から取得した位置情報に基づいて、車両の走行経路を探索し、探索した走行経路を案内する。なお、ナビゲーション装置3は、車両センサ4から取得した角速度情報を元に、車両センサ4から取得した位置情報を補正してもよい。ナビゲーション装置3は、走行経路の案内に使用するナビゲーション情報を、表示制御装置12へ出力する。ナビゲーション情報には、経路上の案内地点(例えば、交差点)における車両の進行方向、経由地又は目的地までの予想到着時刻、及び、車両の走行経路とその周辺道路の渋滞情報等がある。
 ナビゲーション装置3は、車両に搭載された情報機器であってもよいし、車両に持ち込まれたPND(Portable Navigation Device)又はスマートフォン等の携帯通信端末であってもよい。
 車両センサ4は、車両の位置情報、角速度情報、車速、及び振動等、車両の情報を検知する。車両センサ4は、検知した情報を、ナビゲーション装置3及び表示制御装置12へ出力する。
 車内カメラ5は、車両の乗員を撮像するカメラである。車内カメラ5は、車両の乗員のうち、特に表示装置10が表示する表示物を見る観察者(例えば、運転者)を撮像し、撮像した画像を表示制御装置12へ出力する。
 次に、表示装置10の各構成要素について説明する。
 表示器11は、HUDデバイスである。HUDデバイスは、ウィンドシールド型又はコンバイナ型等である。ウィンドシールド型HUDデバイスの場合、液晶ディスプレイ等で構成された表示器11が、表示物を含む表示画像の表示光を出射し、この表示光が、車両のフロントガラス等で構成されたウィンドシールドに投射される。コンバイナ型HUDデバイスの場合、表示器11から出射された表示光が、コンバイナに投射される。
 対象物情報取得部13は、車外センサ2又はナビゲーション装置3等から取得した情報から、表示物が重畳表示される対象物に関する情報(以下、「対象物情報」と称する)を取得する。対象物情報は、対象物の大きさと位置座標、車外の輝度、及び、車両から対象物までの距離等である。対象物情報取得部13は、対象物情報を表示態様制御部16へ出力する。
 対象物は、表示物が重畳表示される、車両前景に存在する物体である。対象物は、車両が次に通過する右左折交差点、前方車両等の物体、又は路面上の白線等である。
 表示物は、表示制御装置12が生成して表示器11に表示させる表示画像に含まれるオブジェクトである。表示物は、車両の進行方向を示す道案内矢印、前方車両等を強調する図形、路面上の白線を強調する図形、又は車両のステータス情報等である。ステータス情報は、車両の運転に必要な車速等の情報、又は、車両の状態を表すインジケータ若しくはアイコン等である。
 なお、本開示において、表示物は第1表示物と第2表示物の2種類に分類される。
 第1表示物は、観察者の前方に表示されるステータス情報である。第1表示物は、特定の対象物に重畳表示されてもよいし、重畳表示されなくてもよい。つまり、第1表示物は、AR表示されてもよいし、されなくてもよい。
 第2表示物は、対象物に重畳表示される表示物、つまりAR表示される表示物である。例えば、第2表示物は、車両が次に通過する右左折交差点に重畳表示される、車両の進行方向を示す道案内矢印である。また、例えば、第2表示物は、前方車両等の物体に重畳表示される、この物体を強調する図形である。また、例えば、第2表示物は、路面上の白線に重畳表示される、この白線を強調する図形等である。
 本開示において、第1表示物と第2表示物とを区別する必要がない場合、単に「表示物」と記載する。
 車両情報取得部14は、車速及び車両振動等の車両情報を車両センサ4から取得し、表示態様制御部16へ出力する。
 眼位置取得部15は、車内カメラ5が撮像した画像から観察者の眼の位置を取得し、取得した眼の位置を示す情報(以下、「眼位置情報」と称する)を表示態様制御部16へ出力する。眼位置取得部15は、例えば、車内カメラ5により撮像された観察者の画像を解析して、観察者の左眼の位置及び右眼の位置を取得する。また、眼位置取得部15は、左眼の位置及び右眼の位置をもとに、瞳孔間距離を取得することもできる。瞳孔間距離とは、右の瞳孔(黒目の中心)から左の瞳孔までの距離である。眼位置取得部15は、瞳孔間距離を、眼位置情報に含めて表示態様制御部16へ出力する。
 表示態様制御部16は、対象物情報取得部13、車両情報取得部14、及び眼位置取得部15から取得した情報をもとに、第1表示物及び第2表示物の表示態様を制御する。表示態様とは、表示物の大きさ、表示物の位置、及び表示物の輝度等である。表示態様制御部16は、車速等を表す第1表示物の大きさ、位置、及び輝度等を制御する。また、表示態様制御部16は、道案内矢印等を表す第2表示物の大きさ、位置、及び輝度等を制御する。なお、表示態様制御部16は、第1表示物及び第2表示物の図形を予め保持している。また、表示態様制御部16は、対象物に重畳表示する必要のない第1表示物については、この第1表示物の大きさ及び位置に関する情報を予め保持していてもよい。また、表示態様制御部16は、車外の輝度に応じて、第1表示物及び第2表示物の輝度を制御してもよい。
 また、表示態様制御部16は、眼位置取得部15から取得した情報をもとに、第1表示物及び第2表示物の視差表示態様を制御する。その際、表示態様制御部16は、互いの視差表示態様が異なるように、第1表示物の視差表示態様及び第2表示物の視差表示態様を制御する。視差表示態様とは、ある表示物について対応関係にある左眼用表示物と右眼用表示物との視差に関する表示態様である。
 図2A~図2Dは、視差表示態様の例を説明する図である。この例では、表示物の一例として矢印が示され、この矢印に対応する左眼用表示物100と右眼用表示物101とが示されている。
 図2Aは、左眼用表示物100と右眼用表示物101に両眼視差がない視差表示態様の一例である。左眼用画像中の左眼用表示物100と右眼用画像中の右眼用表示物101とに両眼視差がない場合、左眼用表示物100と右眼用表示物101とが結像した虚像である両眼視認像102の位置は、表示画像111の位置(図7参照)と等しい。表示画像111は、左眼103の位置に照射される左眼用画像と右眼104の位置に照射される右眼用画像とから生成される画像であり、表示器11が表示する画像である。
 図2Bは、左眼用表示物100と右眼用表示物101に奥行き方向の両眼視差がある視差表示態様の一例である。ここで、奥行き方向は、観察者から遠ざかる方向であり、手前方向は、観察者に近づく方向である。左眼用画像中の左眼用表示物100と右眼用画像中の右眼用表示物101とに奥行き方向の両眼視差がある場合、両眼視認像102の位置は、表示画像111の位置より遠方である。観察者は、図2Aの両眼視認像102に比べ、図2Bの両眼視認像102のほうが遠くにあるように感じる。
 図2Cは、左眼用表示物100と右眼用表示物101に手前方向の両眼視差がある視差表示態様の一例である。左眼用画像中の左眼用表示物100と右眼用画像中の右眼用表示物101とに手前方向の両眼視差がある場合、両眼視認像102の位置は、表示画像111の位置より近方である。観察者は、図2Aの両眼視認像102に比べ、図2Cの両眼視認像102のほうが近くにあるように感じる。
 図2Dは、左眼103又は右眼104の一方のみで表示物が視認される視差表示態様の一例である。この例では、左眼用表示物100のみが表示され、左眼用表示物100が観察者の左眼103で視認される。図2Dに示される片眼表示の場合、観察者は、左眼用表示物100の遠近感を感じにくくなるので、左眼用表示物100の表示位置によらず、左眼用表示物100がその背景に存在する対象物に重畳しているように見える。
 左眼用表示物100と右眼用表示物101は、対応関係にある表示物であり、表示器11が表示した際に両眼視認像102として結像する表示物である。
 両眼視認像102とは、対応関係にある2つの表示物を観察者が観察したときにこの観察者が最終的に視認する像であり、対応関係にある2つの表示物が結像した虚像である。
 また、表示態様制御部16は、視差角が予め定められた許容範囲であるか否かを判定してもよい。実施の形態1においては、表示態様制御部16は、視差角が許容範囲内である場合、表示物の視差表示態様を図2A~図2Cのうちのいずれかに示される視差表示態様にし、視差角が許容範囲外である場合、表示物の視差表示態様を図2Dに示される片眼表示に変更する。
 図3A及び図3Bは、視差角を説明する図である。図3Aは、図2Bの視差表示態様における視差角の例を示し、図3Bは、図2Cの視差表示態様における視差角の例を示す。
 視差角とは、図3A及び図3Bに示される第1輻輳角θ1と第2輻輳角θ2との差であり、以下の式(1)で表される。

 視差角=第1輻輳角θ1-第2輻輳角θ2   (1)
 視差角の許容範囲は、例えば、下記「人に優しい3D普及のための3DC安全ガイドライン」で定められている、両眼視認像の結像具合が良好である-1度~1度の範囲である。許容範囲は、-1度~1度の範囲に限定されず、観察者が両眼視認像を視認しやすい範囲であればよい。

 3Dコンソーシアム(3DC)安全ガイドライン部会、“人に優しい3D普及のための3DC安全ガイドライン”、[Online]、2010年4月20日改訂、[2020年1月6日検索]、インターネット<http://www.3dc.gr.jp/jp/scmt_wg_rep/3dc_guideJ_20111031.pdf>
 輻輳角とは、観察者がある場所を見ているときに両眼がなす角度である。図3A及び図3Bに示されるように、第1輻輳角θ1は、観察者が表示画像111の位置にある左眼用表示物100と右眼用表示物101を見ているときに両眼がなす角度である。第2輻輳角θ2は、観察者が両眼視認像102を見ているときに両眼がなす角度である。表示態様制御部16は、ある表示物について、決定した視差表示態様と眼位置取得部15から取得した眼位置情報とを用いて、第1輻輳角θ1及び第2輻輳角θ2を算出する。
 左眼用画像生成部18は、表示態様制御部16の表示態様及び視差表示態様の制御結果、ならびに視差角の判定結果をもとに、左眼用表示物100を配置した左眼用画像を生成する。左眼用画像生成部18は、生成した左眼用画像を表示画像生成部20へ出力する。この左眼用画像は、表示器11が表示した際、観察者の左眼103で視認できるように投射される。表示物の視差表示態様が図2A~図2Cのうちのいずれかである場合、左眼用画像生成部18が生成した左眼用画像中の左眼用表示物100は、後述の右眼用画像生成部19が生成した右眼用画像中の右眼用表示物101と対応関係にある。
 右眼用画像生成部19は、表示態様制御部16の表示態様及び視差表示態様の制御結果、ならびに視差角の判定結果をもとに、右眼用表示物101を配置した右眼用画像を生成する。右眼用画像生成部19は、生成した右眼用画像を表示画像生成部20へ出力する。この右眼用画像は、表示器11が表示した際、観察者の右眼104で視認できるように投射される。上述したように、表示物の視差表示態様が図2A~図2Cのうちのいずれかである場合、右眼用画像生成部19が生成した右眼用画像中の右眼用表示物101は、左眼用画像生成部18が生成した左眼用画像中の左眼用表示物100と対応関係にある。
 表示画像生成部20は、左眼用画像生成部18が生成した左眼用画像と、右眼用画像生成部19が生成した右眼用画像とをもとに、表示画像111を生成する。表示画像111は、観察者の左眼103で視認できる部分と、観察者の右眼104で視認できる部分とを含む。表示画像生成部20は、生成した表示画像111を表示器11へ出力する。
 表示器11は、表示画像111のうちの観察者の左眼103で視認できる部分をこの左眼103に提示し、表示画像111のうちの観察者の右眼104で視認できる部分をこの右眼104に提示する。なお、表示器11が左右の眼に異なる態様の画像を提示する方式は問わない。提示方式の例としては、パララックスバリア方式及びレンチキュラ方式等がある。
 次に、表示装置10のハードウェア構成を説明する。
 図4及び図5は、実施の形態1に係る表示制御装置12のハードウェア構成の一例を示すブロック図である。表示制御装置12における対象物情報取得部13、車両情報取得部14、眼位置取得部15、表示態様制御部16、左眼用画像生成部18、右眼用画像生成部19、及び表示画像生成部20の機能は、処理回路により実現される。即ち、表示制御装置12は、上記機能を実現するための処理回路を備える。処理回路は、専用のハードウェアとしての処理回路1000であってもよいし、メモリ1002に格納されるプログラムを実行するプロセッサ1001であってもよい。
 図4に示されるように、処理回路が専用のハードウェアである場合、処理回路1000は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又はこれらを組み合わせたものが該当する。対象物情報取得部13、車両情報取得部14、眼位置取得部15、表示態様制御部16、左眼用画像生成部18、右眼用画像生成部19、及び表示画像生成部20の機能を複数の処理回路1000で実現してもよいし、各部の機能をまとめて1つの処理回路1000で実現してもよい。
 この処理回路1000は、情報源装置1と表示器11とに接続しており、処理回路1000と情報源装置1と表示器11との間で情報のやり取りが可能である。
 図5に示されるように、処理回路がプロセッサ1001である場合、対象物情報取得部13、車両情報取得部14、眼位置取得部15、表示態様制御部16、左眼用画像生成部18、右眼用画像生成部19、及び表示画像生成部20の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ1002に格納される。プロセッサ1001は、メモリ1002に格納されたプログラムを読みだして実行することにより、各部の機能を実現する。即ち、表示制御装置12は、プロセッサ1001により実行されるときに、後述する図6等のフローチャートで示されるステップが結果的に実行されることになるプログラムを格納するためのメモリ1002を備える。また、このプログラムは、対象物情報取得部13、車両情報取得部14、眼位置取得部15、表示態様制御部16、左眼用画像生成部18、右眼用画像生成部19、及び表示画像生成部20の手順又は方法をコンピュータに実行させるものであるとも言える。
 これらプロセッサ1001及びメモリ1002は、情報源装置1と表示器11とに接続しており、プロセッサ1001とメモリ1002と情報源装置1と表示器11との間で情報のやり取りが可能である。
 ここで、プロセッサ1001とは、CPU(Central Processing Unit)、処理装置、演算装置、又はマイクロプロセッサ等のことである。
 メモリ1002は、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、又はフラッシュメモリ等の不揮発性もしくは揮発性の半導体メモリであってもよいし、ハードディスク又はフレキシブルディスク等の磁気ディスクであってもよいし、CD(Compact Disc)又はDVD(Digital Versatile Disc)等の光ディスクであってもよい。
 なお、対象物情報取得部13、車両情報取得部14、眼位置取得部15、表示態様制御部16、左眼用画像生成部18、右眼用画像生成部19、及び表示画像生成部20の機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、表示制御装置12における処理回路は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の機能を実現することができる。
 次に、表示制御装置12の動作を説明する。
 図6は、実施の形態1に係る表示制御装置12の動作例を示すフローチャートである。表示制御装置12は、例えば、車両のイグニッションキーがオンになると図6のフローチャートに示される動作を開始し、イグニッションキーがオフになるまで図6のフローチャートに示される動作を繰り返す。
 ステップST1において、対象物情報取得部13、車両情報取得部14、及び眼位置取得部15は、情報源装置1の車外センサ2、ナビゲーション装置3、車両センサ4、及び車両センサ4から、各種情報を取得する。
 ステップST2において、表示態様制御部16は、対象物情報取得部13、車両情報取得部14、及び眼位置取得部15がステップST1で取得した各種情報をもとに、表示すべき第1表示物又は第2表示物の少なくとも一方があるか否かを判定する。例えば、表示態様制御部16は、車速等の車両の運転に必要な情報を第1表示物として常に表示すると判定する。また、表示態様制御部16は、車両情報の中に車両の異常等を示すインジケータの情報が含まれていた場合にそのインジケータを第1表示物として表示すると判定する。また、例えば、表示態様制御部16は、対象物情報取得部13が取得した対象物情報の中に道案内矢印を重畳表示する路面の情報が含まれていた場合にその道案内矢印を第2表示物として表示すると判定する。また、例えば、車両の振動が大きい場合、車両前景における対象物とこの対象物に重畳表示された両眼視認像102とにずれが生じて見にくいため、表示態様制御部16は、車両情報取得部14が取得した車両情報に含まれる車両振動が予め定められた振動より小さい場合に表示物を表示すると判定し、車両振動が上記予め定められた振動以上である場合に表示物を表示しないと判定する。
 ステップST3において、表示態様制御部16は、表示すると判定した第1表示物及び第2表示物のそれぞれについて、表示態様を決定する。例えば、表示態様制御部16は、第1表示物及び第2表示物の大きさを、対象物情報取得部13が取得した対象物の形状及び大きさ等に基づいて決定する。また、例えば、表示態様制御部16は、第1表示物及び第2表示物の位置を、対象物情報取得部13が取得した対象物の位置及び車両から対象物までの距離、並びに、眼位置取得部15が取得した観察者の左眼103と右眼104の位置等に基づいて決定する。
 また、表示態様制御部16は、表示すると判定した第1表示物及び第2表示物のそれぞれについて、視差表示態様を決定する。例えば、第2表示物を重畳表示する対象物が表示画像111の位置より遠方である場合、表示態様制御部16は、この第2表示物の視差表示態様を図2Bに示される視差表示態様に決定すると共に、左眼103及び右眼104の位置並びに車両から対象物までの距離等に基づいて左眼用第2表示物と右眼用第2表示物との視差を算出する。なお、表示態様制御部16は、第1表示物と第2表示物とを異なる視差表示態様にするために、第2表示物の視差表示態様を図2Bに示される視差表示態様に決定した場合、第1表示物の視差表示態様を図2A又は図2Cに示される視差表示態様に決定する。
 ステップST4において、表示態様制御部16は、表示すると判定した第1表示物及び第2表示物のそれぞれについて、観察者の左眼103と右眼104の位置及び視差表示態様に基づいて第1輻輳角θ1と第2輻輳角θ2とを算出し、第1輻輳角θ1と第2輻輳角θ2とを用いて視差角を算出する。そして、表示態様制御部16は、表示すると判定した第1表示物及び第2表示物のそれぞれについて、算出した視差角が許容範囲内であるか否かを判定する。
 表示態様制御部16は、視差角が許容範囲外であると判定した表示物について(ステップST4“NO”)、視差表示態様を、図2Dに示される片眼表示に変更する(ステップST5)。片眼表示の場合、表示態様制御部16は、この表示物が予め定められた側の眼のみに照射されるように視差表示態様を制御してもよいし、観察者の利き目のみに照射されるように制御してもよい。観察者の利き目の情報は、例えば、予め観察者自身によって表示制御装置12に対して設定される。
 ステップST6において、左眼用画像生成部18は、表示態様制御部16が表示すると判定した第1表示物に対応する左眼用第1表示物及び第2表示物に対応する左眼用第2表示物を、表示態様制御部16が決定した表示態様及び視差表示態様に基づいて、観察者の左眼103に照射される左眼用画像上に配置する。なお、視差表示態様が片眼表示に変更され、かつ、右眼に表示するように設定された表示物について、左眼用画像生成部18は、この表示物に対応する左眼用表示物を左眼用画像上に配置しない。
 ステップST7において、右眼用画像生成部19は、表示態様制御部16が表示すると判定した第1表示物に対応する右眼用第1表示物及び第2表示物に対応する左眼用第2表示物を、表示態様制御部16が決定した表示態様及び視差表示態様に基づいて、観察者の右眼104に照射される右眼用画像上に配置する。なお、視差表示態様が片眼表示に変更され、かつ、左眼に表示するように設定された表示物について、右眼用画像生成部19は、この表示物に対応する右眼用表示物を右眼用画像上に配置しない。
 なお、左眼用画像の生成と右眼用画像の生成は、どちらが先に行われてもよいし、並行して行われてもよい。
 ステップST8において、表示画像生成部20は、左眼用画像生成部18が生成した左眼用画像と右眼用画像生成部19が生成した右眼用画像とを合成して、表示画像111を生成する。
 ステップST9において、表示画像生成部20は、表示画像111を表示器11へ出力する。表示器11は、表示画像111を表示する。
 次に、表示装置10による表示イメージを説明する。
 図7は、実施の形態1に係る表示装置10の概要を示す図である。表示画像生成部20が生成した表示画像111には、車速を表す第1表示物に対応する左眼用第1表示物100a及び右眼用第1表示物101aと、対象物112である前方車両を強調する第2表示物に対応する左眼用第2表示物100b及び右眼用第2表示物101bとが含まれている。表示画像111の表示光である左眼用表示光105と右眼用表示光106は、単一の表示器11から出射され、凹面鏡11aで反射して、ウィンドシールド107に投射される。このとき、表示装置10の表示領域であるウィンドシールド107は、車両のフロントガラスである必要はなく、コンバイナ等でもよい。
 観察者は、左眼103及び右眼104の位置からウィンドシールド107越しに結像された像を視認できる。このとき、観察者は、表示画像111中の左眼用表示物を左眼103で観察すると共に表示画像111中の右眼用表示物を右眼104で観察することができ、結果として、右眼用表示物と左眼用表示物とがひとつの像に結像した両眼視認像として視認できる。
 例えば、観察者は、左眼用第2表示物100bを左眼103で観察し、右眼用第2表示物101bを右眼104で観察することで、第2両眼視認像102bを視認する。このとき、表示画像111中の左眼用第2表示物100bと右眼用第2表示物101bとには奥行き方向の視差があるため、左眼用第2表示物100bと右眼用第2表示物101bとが結像した第2両眼視認像102bの位置は、表示画像111の位置より遠方になる。そのため、観察者は、第2両眼視認像102bが、車両前景における対象物112の位置に、つまり見かけの表示位置113に、表示されているように見える。
 一方、表示画像111中の左眼用第1表示物100aと右眼用第1表示物101aとには視差がないため、左眼用第1表示物100aと右眼用第1表示物101aとが結像した第1両眼視認像102aの位置は、表示画像111の位置と等しい。
 このように、第1両眼視認像102aと第2両眼視認像102bとは視差表示態様が異なるため、観察者は、第1両眼視認像102aと第2両眼視認像102bとを異なる距離で視認する。
 なお、図7の例では、第1表示物が図2Aに示される視差表示態様に制御され、第2表示物が図2Bに示される視差表示態様に制御されたが、第1表示物及び第2表示物が適切な距離で視認されれば他の視差表示態様に制御されてもよい。車速等を表す第1表示物の適切な距離は、例えば、観察者の前方3m以内であり、対象物112に重畳表示される第2表示物の適切な距離は、例えば、観察者の前方10~15mである。適切な距離を満たす視差表示態様の制御例として、例えば、第1表示物が図2A又は図2Cに示される視差表示態様に制御され、第2表示物が図2B又は図2Dに示される視差表示態様に制御される。
 図8は、実施の形態1における左眼用画像108と右眼用画像109の一例を示す図である。図8に示される左眼用画像108と右眼用画像109とから生成された表示画像111には、1つの第1表示物と、3つの第2表示物とが含まれている。第1表示物は、対応関係にある左眼用第1表示物100aと右眼用第1表示物101aとが結像した像であり、図7における左眼用第1表示物100aと右眼用第1表示物101aに相当する。3つの第2表示物のうちの1つ目は、左眼用第2表示物100bと右眼用第2表示物101bとが結像した像であり、図7における左眼用第2表示物100bと右眼用第2表示物101bに相当する。3つの第2表示物のうちの2つ目は、左眼用第2表示物100b-1であり、図2Dに示される視差表示態様(片眼表示)に制御されている。この第2表示物は、例えば、歩行者に重畳表示されてこの歩行者を強調するための円形の図形である。3つの第2表示物のうちの3つ目は、4つの左眼用第2表示物100b-3~100b-6から構成された左眼用第2表示物100b-2と、4つの右眼用第2表示物101b-3~101b-6から構成された右眼用第2表示物101b-2とが結像した像であり、図2Bに示される視差表示態様に制御されている。この第2表示物は、例えば、路面上に重畳表示されて車両の進行方向を示すための三角形の図形である。
 表示画像111は、図8に示されるような左眼用画像108と右眼用画像109の、2つの異なる態様の画像をもとに生成されている。これは、第1表示物と第2表示物とで視差表示態様が異なるためである。また、第1表示物及び第2表示物は、左眼用画像108と右眼用画像109の範囲内であればどの位置に配置されてもよい。
 以上のように、実施の形態1に係る表示装置10は、第1表示物及び第2表示物を含む表示画像111を表示する表示器11と、表示制御装置12とを備える。表示制御装置12は、表示器11を備えた表示装置10を制御することによって、車両に乗車している観察者の前方に位置する表示領域に、第1表示物の光が結像した第1両眼視認像102aと第2表示物の光が結像した第2両眼視認像102bとを表示させるものであり、眼位置取得部15と、表示態様制御部16と、左眼用画像生成部18と、右眼用画像生成部19と、表示画像生成部20とを備える。眼位置取得部15は、観察者の左眼103及び右眼104の位置を取得する。表示態様制御部16は、眼位置取得部15により取得された左眼103及び右眼104の位置を用いて、ある表示物について対応関係にある左眼用表示物100と右眼用表示物101との視差を表す視差表示態様を制御する際、互いの視差表示態様が異なるように第1表示物の視差表示態様及び第2表示物の視差表示態様を制御する。左眼用画像生成部18は、第1表示物に対応する左眼用第1表示物100a及び第2表示物に対応する左眼用第2表示物100bを、第1表示物の視差表示態様及び第2表示物の視差表示態様に基づいて、観察者の左眼103に照射される左眼用画像108上に配置する。右眼用画像生成部19は、第1表示物に対応する右眼用第1表示物101a及び第2表示物に対応する右眼用第2表示物101bを、第1表示物の視差表示態様及び第2表示物の視差表示態様に基づいて、観察者の右眼104に照射される右眼用画像109上に配置する。表示画像生成部20は、左眼用画像108及び右眼用画像109を用いて、表示器11に表示させる表示画像111を生成する。このように、表示制御装置12は、互いの視差表示態様が異なる第1表示物及び第2表示物を含む表示画像111を単一の表示器11に表示させるようにしたので、第1表示物及び第2表示物を、車両に乗車している観察者の前方に位置する表示領域(例えば、ウィンドシールド107)のどこにでも表示させることができる。これにより、第1表示物を第1表示器に表示させると共に第2表示物を第2表示器に表示させる構成の従来技術と比較して、実施の形態1に係る表示装置10は、表示器11の容量を増大させることがない。また、上記従来技術では表示領域内の第2表示領域でしかAR表示ができなかったが、実施の形態1に係る表示装置10は、表示領域のどこにでも第2表示物をAR表示させることができるので、表示器11の容量を増大させずにAR表示領域の拡大を実現できる。
 また、実施の形態1の表示態様制御部16は、眼位置取得部15により取得された左眼103及び右眼104の位置を用いて、第1輻輳角θ1と第2輻輳角θ2との差である視差角を求め、視差角が予め定められた許容範囲内である場合、第2表示物の視差表示態様を、第2表示物が観察者の両眼に照射されるように制御し、視差角が許容範囲外である場合、第2表示物の視差表示態様を、第2表示物が観察者の左眼103又は右眼104の一方のみに照射されるように制御する。このように、表示態様制御部16は、第2表示物の視差角が許容範囲外である場合に、視差表示態様を片眼表示(図2D参照)にすることで、この第2表示物の視認しにくさを緩和できる。
 なお、表示態様制御部16は、第2表示物だけでなく第1表示物についても、視差表示態様を片眼表示へ変更可能である。表示態様制御部16は、第1表示物が図2B又は図2Cに示される視差表示態様であって、かつ視差角が許容範囲外である場合、この第1表示物の視差表示態様を片眼表示に変更することで、この第1表示物の視認しにくさを緩和できる。
実施の形態2.
 実施の形態1では、第2表示物について、対応関係にある左眼用第2表示物100bと右眼用第2表示物101bとの視差が、車両から対象物112までの距離によらず同一であったのに対し、実施の形態2では、車両から対象物112までの距離に応じて異なる。
 なお、実施の形態2に係る表示装置10の構成は、実施の形態1の図1に示された構成と図面上は同一であるため、以下では図1を援用する。
 図9は、実施の形態2における左眼用画像108と右眼用画像109の一例を示す図である。図9に示される左眼用画像108と右眼用画像109とから生成された表示画像111には、1つの第1表示物と、1つの第2表示物とが含まれている。第1表示物は、対応関係にある左眼用第1表示物100aと右眼用第1表示物101aとが結像した像である。第2表示物は、対応関係にある左眼用第2表示物100b-10と右眼用第2表示物101b-10とが結像した像である。なお、左眼用第2表示物100b-10は、左眼用第2表示物100b-11~100b-14から構成されており、右眼用第2表示物101b-10は、右眼用第2表示物101b-11~101b-14から構成されている。この第2表示物は、路面上に重畳表示されて車両の進行方向を示すためのものである。
 実施の形態2の表示態様制御部16は、図9における第2表示物の視差表示態様として、左眼用第2表示物100b-10と右眼用第2表示物101b-10との視差が、対象物情報取得部13が取得した車両から対象物112(この場合は路面)までの距離に応じて異なるように制御する。左眼用第2表示物100b-11と右眼用第2表示物101b-11は、車両に最も近い位置の路面に重畳表示されるため、両者の視差は最も小さい。一方、左眼用第2表示物100b-14と右眼用第2表示物101b-14は、車両から最も遠い位置の路面に重畳表示されるため、両者の視差は最も大きい。これにより、左眼用第2表示物100b-10と右眼用第2表示物101b-10とが結像した第2両眼視認像は、対象物112である路面の上に重畳しているように視認される。したがって、表示装置10は、対象物112の距離に応じた自然なAR表示を観察者に提供できる。
 なお、図9では、第2表示物が複数の表示物から構成される例を示したが、第2表示物が1つの表示物であってもよい。図10は、実施の形態2における左眼用画像108と右眼用画像109の別の例を示す図である。図10に示される左眼用画像108と右眼用画像109とから生成された表示画像111には、1つの第1表示物と、1つの第2表示物とが含まれている。第1表示物は、対応関係にある左眼用第1表示物100aと右眼用第1表示物101aとが結像した像である。第2表示物は、対応関係にある左眼用第2表示物100b-20と右眼用第2表示物101b-20とが結像した像である。この第2表示物は、路面上に重畳表示されて車両の進行方向を示すための矢印の図形である。表示態様制御部16は、左眼用第2表示物100b-20と右眼用第2表示物101b-20との視差を、対象物情報取得部13が取得した車両から対象物112(この場合は路面)までの距離に応じて異なるように制御する。これにより、左眼用第2表示物100b-20と右眼用第2表示物101b-20とが結像した第2両眼視認像は、対象物112である路面の上に重畳しているように視認される。したがって、表示装置10は、対象物112の距離に応じた自然なAR表示を観察者に提供できる。
 以上のように、実施の形態2によれば、表示態様制御部16は、第2表示物の視差表示態様を、対象物112までの距離に応じて左眼用第2表示物100bと右眼用第2表示物101bの視差が異なるように制御する。これにより、表示装置10は、対象物112の距離に応じた自然なAR表示を観察者に提供できる。
 なお、実施の形態2の表示態様制御部16は、第2表示物の視差表示態様を、第2表示物のうちの視差角が許容範囲内である部分について、対象物112までの距離に応じて左眼用第2表示物100bと右眼用第2表示物101bの視差が異なるように制御し、この第2表示物のうちの視差角が許容範囲外である部分について、観察者の左眼103又は右眼104の一方のみに照射されるように制御してもよい。この表示例を、図11に示す。
 図11は、実施の形態2における左眼用画像108と右眼用画像109の別の例を示す図である。図11に示される左眼用画像108と右眼用画像109とから生成された表示画像111には、図9の例と同様に、1つの第1表示物と、1つの第2表示物とが含まれている。ただし、図11において、左眼用第2表示物100b-15と対応関係にある右眼用第2表示物は、右眼用画像109上に配置されていない。つまり、図11の例では、図6のフローチャートに示されるステップST4において、表示態様制御部16が、第2表示物を構成する5対の三角形の図形それぞれについて、視差角が許容範囲内であるか否かを判定する。その結果、左眼用第2表示物100b-15と、これと対応関係にある右眼用第2表示物(不図示)とは、視差角が許容範囲外であると判定されたため、視差表示態様が、左眼用第2表示物100b-15のみの片眼表示に変更された。一方、左眼用第2表示物100b-11~100b-14と、これらと対応関係にある右眼用第2表示物101b-11~101b-14とは、それぞれ、視差角が許容範囲内であると判定されたため、図2Bに示される視差表示態様のままである。これにより、表示装置10は、対象物112の距離に応じた自然なAR表示を観察者に提供できる。
実施の形態3.
 実施の形態1では、表示態様制御部16が、視差角が許容範囲内であるか否かを判定していたが、実施の形態3では判定しない。
 なお、実施の形態3に係る表示装置10の構成は、実施の形態1の図1に示された構成と図面上は同一であるため、以下では図1を援用する。
 図12は、実施の形態3に係る表示制御装置12の動作例を示すフローチャートである。表示制御装置12は、例えば、車両のイグニッションキーがオンになると図12のフローチャートに示される動作を開始し、イグニッションキーがオフになるまで図12のフローチャートに示される動作を繰り返す。
 図12のフローチャートに示されるステップST1,ST2,ST6~ST9における動作は、図6のフローチャートに示されるステップST1,ST2,ST6~ST9における動作と同じである。
 ステップST3Aにおいて、表示態様制御部16は、ステップST2で表示すると判定した第1表示物の視差表示態様を、図2A~図2Cのうちのいずれかに示される視差表示態様に決定する。また、表示態様制御部16は、ステップST2で表示すると判定した第2表示物の視差表示態様を、図2Dに示される片眼表示に決定する。
 図13は、実施の形態3に係る表示装置10の概要を示す図である。図14は、図13に示された表示画像111のもととなった左眼用画像108と右眼用画像109を示す図である。表示画像生成部20が生成した表示画像111には、車速を表す第1表示物に対応する左眼用第1表示物100a及び右眼用第1表示物101aと、対象物112である歩行者を強調する第2表示物に対応する左眼用第2表示物100b-1とが含まれている。表示画像111の表示光である左眼用表示光105と右眼用表示光106は、単一の表示器11から出射され、凹面鏡11aで反射して、ウィンドシールド107又はコンバイナ(不図示)等の表示領域に投射される。
 観察者は、左眼103及び右眼104の位置からウィンドシールド107越しに結像された像を、両眼視認像として視認できる。表示画像111中の左眼用第1表示物100aと右眼用第1表示物101aとには視差がないため、つまり図2Aに示される視差表示態様であるため、左眼用第1表示物100aと右眼用第1表示物101aとが結像した第1両眼視認像102aの位置は、表示画像111の位置と等しい。
 左眼用第2表示物100b-1は、図2Dに示される視差表示態様(片眼表示)に制御されている。そのため、観察者は、表示画像111中の左眼用第2表示物100b-1を、左眼103のみで視認する。左眼103のみで視認される左眼用第2表示物100b-1は、遠近感がないため、車両前景における対象物112の位置に、つまり見かけの表示位置113に、表示されているように見える。
 なお、片眼表示される左眼用第2表示物100b-1の形状は、図13及び図14に示されるような円形の図形に限定されず、図8に示された左眼用第2表示物100b又は左眼用第2表示物100b-2のような図形であってもよい。また、図13及び図14では、第2表示物が左眼103のみに照射されるように視差表示態様が制御されたが、第2表示物が右眼104のみに照射されるように視差表示態様が制御されてもよい。
 以上のように、実施の形態3によれば、表示態様制御部16は、第1表示物の視差表示態様を、この第1表示物が観察者の両眼に照射されるように制御し、第2表示物の視差表示態様を、この第1表示物が観察者の左眼103又は右眼104の一方のみに照射されるように制御する。これにより、表示制御装置12は、実施の形態1と同様に実施の形態2においても、互いの視差表示態様が異なる第1表示物及び第2表示物を、車両に乗車している観察者の前方に位置する表示領域(例えば、ウィンドシールド107)のどこにでも表示させることができる。
実施の形態4.
 実施の形態1及び実施の形態2では、表示態様制御部16が、視差角が許容範囲外である場合に表示物の視差表示態様を片眼表示に変更していたが、実施の形態4では視差角が許容範囲外である表示物を非表示に制御する。
 なお、実施の形態4に係る表示装置10の構成は、実施の形態1の図1に示された構成と図面上は同一であるため、以下では図1を援用する。
 図15は、実施の形態4に係る表示制御装置12の動作例を示すフローチャートである。表示制御装置12は、例えば、車両のイグニッションキーがオンになると図15のフローチャートに示される動作を開始し、イグニッションキーがオフになるまで図15のフローチャートに示される動作を繰り返す。
 図15のフローチャートに示されるステップST1~ST4,ST6~ST9における動作は、図6のフローチャートに示されるステップST1~ST4,ST6~ST9における動作と同じである。
 ステップST5Bにおいて、表示態様制御部16は、ステップST4で視差角が許容範囲外であると判定した表示物を非表示に変更する。
 例えば、実施の形態1の図8において、左眼用画像108上には片眼表示用の左眼用第2表示物100b-1が配置されていた。これに対し、実施の形態4では、この左眼用第2表示物100b-1は、非表示に変更されるため、左眼用画像108上に配置されない。
 また、例えば、実施の形態2の図11において、左眼用画像108上には片眼表示用の左眼用第2表示物100b-15が配置されていた。これに対し、実施の形態4では、この左眼用第2表示物100b-15は、非表示に変更されるため、左眼用画像108上に配置されない。
 以上のように、実施の形態4によれば、表示態様制御部16は、眼位置取得部15により取得された左眼103及び右眼104の位置を用いて、第1輻輳角θ1と第2輻輳角θ2との差である視差角を求め、視差角が予め定められた許容範囲内である場合、第2表示物の視差表示態様を、第2表示物が観察者の両眼に照射されるように制御し、視差角が許容範囲外である場合、第2表示物の視差表示態様を、第2表示物を表示させないように制御する。これにより、表示態様制御部16は、観察者が視認しにくい第2表示物を表示させないようにできる。
 なお、実施の形態1~4では、対象物情報取得部13、車両情報取得部14、眼位置取得部15、表示態様制御部16、左眼用画像生成部18、右眼用画像生成部19、及び表示画像生成部20の機能が、車両に搭載される表示制御装置12に集約された構成であったが、ネットワーク上のサーバ装置、スマートフォン等の携帯端末、及び車載の表示制御装置12等に分散されていてもよい。また、表示制御装置12が、ネットワーク上のサーバ装置により構築され、このサーバ装置が、車両に搭載された情報源装置1及び表示器11と通信する構成であってもよい。
 本開示はその開示の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、又は各実施の形態の任意の構成要素の省略が可能である。
 本開示に係る表示装置は、互いの視差表示態様が異なる第1表示物と第2表示物とを、観察者の前方に位置する表示領域に表示するようにしたので、車両、鉄道、船舶又は航空機等を含む移動体用の表示装置に用いるのに適している。
 1 情報源装置、2 車外センサ、3 ナビゲーション装置、4 車両センサ、5 車内カメラ、10 表示装置、11 表示器、11a 凹面鏡、12 表示制御装置、13 対象物情報取得部、14 車両情報取得部、15 眼位置取得部、16 表示態様制御部、17 画像生成部、18 左眼用画像生成部、19 右眼用画像生成部、20 表示画像生成部、100 左眼用表示物、100a 左眼用第1表示物、100b、100b-1~100b-3,100b-10~100b-15,100b-20 左眼用第2表示物、101 右眼用表示物、101a 右眼用第1表示物、101b,101b-2,101b-3,101b-10~101b-14,101b-20 右眼用第2表示物、102 両眼視認像、102a 第1両眼視認像、102b 第2両眼視認像、103 左眼、104 右眼、105 左眼用表示光、106 右眼用表示光、107 ウィンドシールド、108 左眼用画像、109 右眼用画像、111 表示画像、112 対象物、113 見かけの表示位置、1000 処理回路、1001 プロセッサ、1002 メモリ、θ1 第1輻輳角、θ2 第2輻輳角。

Claims (8)

  1.  第1表示物及び第2表示物を含む表示画像を表示する表示器を備えた表示装置を制御することによって、車両に乗車している乗員の前方に位置する表示領域に、前記第1表示物の光が結像した第1両眼視認像と前記第2表示物の光が結像した第2両眼視認像とを表示させる表示制御装置であって、
     前記乗員の左眼及び右眼の位置を取得する眼位置取得部と、
     前記眼位置取得部により取得された前記左眼及び前記右眼の位置を用いて、ある表示物について対応関係にある左眼用表示物と右眼用表示物との視差を表す視差表示態様を制御する際、互いの視差表示態様が異なるように前記第1表示物の視差表示態様及び前記第2表示物の視差表示態様を制御する表示態様制御部と、
     前記第1表示物に対応する左眼用第1表示物及び前記第2表示物に対応する左眼用第2表示物を、前記第1表示物の視差表示態様及び前記第2表示物の視差表示態様に基づいて、前記乗員の左眼に照射される左眼用画像上に配置する左眼用画像生成部と、
     前記第1表示物に対応する右眼用第1表示物及び前記第2表示物に対応する右眼用第2表示物を、前記第1表示物の視差表示態様及び前記第2表示物の視差表示態様に基づいて、前記乗員の右眼に照射される右眼用画像上に配置する右眼用画像生成部と、
     前記左眼用画像及び前記右眼用画像を用いて、前記表示器に表示させる表示画像を生成する表示画像生成部とを備えることを特徴とする表示制御装置。
  2.  前記表示態様制御部は、前記第1表示物の視差表示態様を、前記第1表示物が前記乗員の両眼に照射されるように制御し、前記第2表示物の視差表示態様を、前記第2表示物が前記乗員の左眼又は右眼の一方のみに照射されるように制御することを特徴とする請求項1記載の表示制御装置。
  3.  前記表示態様制御部は、前記眼位置取得部により取得された前記左眼及び前記右眼の位置を用いて、前記乗員が前記表示画像を見るときの両眼の第1輻輳角と、前記乗員が前記第2両眼視認像を見るときの両眼の第2輻輳角との差である視差角を求め、前記視差角が予め定められた許容範囲内である場合、前記第2表示物の視差表示態様を、前記第2表示物が前記乗員の両眼に照射されるように制御し、前記視差角が前記許容範囲外である場合、前記第2表示物の視差表示態様を、前記第2表示物が前記乗員の左眼又は右眼の一方のみに照射されるように制御することを特徴とする請求項1記載の表示制御装置。
  4.  前記表示態様制御部は、前記眼位置取得部により取得された前記左眼及び前記右眼の位置を用いて、前記乗員が前記表示画像を見るときの両眼の第1輻輳角と、前記乗員が前記第2両眼視認像を見るときの両眼の第2輻輳角との差である視差角を求め、前記視差角が予め定められた許容範囲内である場合、前記第2表示物の視差表示態様を、前記第2表示物が前記乗員の両眼に照射されるように制御し、前記視差角が前記許容範囲外である場合、前記第2表示物を表示させないように制御することを特徴とする請求項1記載の表示制御装置。
  5.  前記第2両眼視認像は、前記乗員の前方に存在する対象物に重畳表示されるものであって、
     前記表示態様制御部は、前記第2表示物の視差表示態様を、前記対象物までの距離に応じて前記左眼用第2表示物と前記右眼用第2表示物の視差が異なるように制御することを特徴とする請求項3又は請求項4記載の表示制御装置。
  6.  前記第2両眼視認像は、前記乗員の前方に存在する対象物に重畳表示されるものであって、
     前記表示態様制御部は、前記第2表示物の視差表示態様を、前記第2表示物のうちの前記視差角が前記許容範囲内である部分について、前記対象物までの距離に応じて前記左眼用第2表示物と前記右眼用第2表示物の視差が異なるように制御し、前記第2表示物のうちの前記視差角が前記許容範囲外である部分について、前記乗員の左眼又は右眼の一方のみに照射されるように制御することを特徴とする請求項3記載の表示制御装置。
  7.  第1表示物及び第2表示物を含む表示画像を表示する表示器と、
     請求項1記載の表示制御装置とを備え、
     車両に乗車している乗員の前方に位置する表示領域に、前記第1表示物の光が結像した第1両眼視認像と前記第2表示物の光が結像した第2両眼視認像とを表示する表示装置。
  8.  第1表示物及び第2表示物を含む表示画像を表示する表示器を備えた表示装置を制御することによって、車両に乗車している乗員の前方に位置する表示領域に、前記第1表示物の光が結像した第1両眼視認像と前記第2表示物の光が結像した第2両眼視認像とを表示させる表示制御方法であって、
     眼位置取得部が、前記乗員の左眼及び右眼の位置を取得し、
     表示態様制御部が、前記眼位置取得部により取得された前記左眼及び前記右眼の位置を用いて、ある表示物について対応関係にある左眼用表示物と右眼用表示物との視差を表す視差表示態様を制御する際、互いの視差表示態様が異なるように前記第1表示物の視差表示態様及び前記第2表示物の視差表示態様を制御し、
     左眼用画像生成部が、前記第1表示物に対応する左眼用第1表示物及び前記第2表示物に対応する左眼用第2表示物を、前記第1表示物の視差表示態様及び前記第2表示物の視差表示態様に基づいて、前記乗員の左眼に照射される左眼用画像上に配置し、
     右眼用画像生成部が、前記第1表示物に対応する右眼用第1表示物及び前記第2表示物に対応する右眼用第2表示物を、前記第1表示物の視差表示態様及び前記第2表示物の視差表示態様に基づいて、前記乗員の右眼に照射される右眼用画像上に配置し、
     表示画像生成部が、前記左眼用画像及び前記右眼用画像を用いて、前記表示器に表示させる表示画像を生成することを特徴とする表示制御方法。
PCT/JP2020/007605 2020-02-26 2020-02-26 表示制御装置、表示装置、及び表示制御方法 WO2021171397A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/007605 WO2021171397A1 (ja) 2020-02-26 2020-02-26 表示制御装置、表示装置、及び表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/007605 WO2021171397A1 (ja) 2020-02-26 2020-02-26 表示制御装置、表示装置、及び表示制御方法

Publications (1)

Publication Number Publication Date
WO2021171397A1 true WO2021171397A1 (ja) 2021-09-02

Family

ID=77490822

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/007605 WO2021171397A1 (ja) 2020-02-26 2020-02-26 表示制御装置、表示装置、及び表示制御方法

Country Status (1)

Country Link
WO (1) WO2021171397A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072596A (ja) * 2008-09-22 2010-04-02 Toshiba Corp 表示装置及び移動体
JP2012019376A (ja) * 2010-07-08 2012-01-26 Sharp Corp 立体映像観賞用メガネ
JP2014192550A (ja) * 2013-03-26 2014-10-06 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2015174050A1 (ja) * 2014-05-12 2015-11-19 パナソニックIpマネジメント株式会社 表示装置および表示方法
WO2019150880A1 (ja) * 2018-01-30 2019-08-08 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072596A (ja) * 2008-09-22 2010-04-02 Toshiba Corp 表示装置及び移動体
JP2012019376A (ja) * 2010-07-08 2012-01-26 Sharp Corp 立体映像観賞用メガネ
JP2014192550A (ja) * 2013-03-26 2014-10-06 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2015174050A1 (ja) * 2014-05-12 2015-11-19 パナソニックIpマネジメント株式会社 表示装置および表示方法
WO2019150880A1 (ja) * 2018-01-30 2019-08-08 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Similar Documents

Publication Publication Date Title
US12054047B2 (en) Image processing method of generating an image based on a user viewpoint and image processing device
JP6485732B2 (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP4886751B2 (ja) 車載用表示システム及び表示方法
JP5155915B2 (ja) 車載用表示システム、表示方法及び車両
WO2015174050A1 (ja) 表示装置および表示方法
EP3415972B1 (en) Information display apparatus
WO2017138297A1 (ja) 画像表示装置及び画像表示方法
JP2017211366A (ja) 移動体システム、情報表示装置
WO2019224922A1 (ja) ヘッドアップディスプレイ制御装置、ヘッドアップディスプレイシステム、及びヘッドアップディスプレイ制御方法
JP4367212B2 (ja) 虚像表示装置およびプログラム
JP6883759B2 (ja) 表示システム、表示システムの制御方法、プログラム、及び移動体
JPWO2014174575A1 (ja) 車両用ヘッドアップディスプレイ装置
JP2017013590A (ja) ヘッドアップディスプレイ装置
JP6504431B2 (ja) 画像表示装置、移動体、画像表示方法及びプログラム
WO2019097762A1 (ja) 重畳画像表示装置及びコンピュータプログラム
JP7300112B2 (ja) 制御装置、画像表示方法及びプログラム
US20210300183A1 (en) In-vehicle display apparatus, method for controlling in-vehicle display apparatus, and computer program
JP2020144247A (ja) 車載表示装置、車載表示方法、および、コンピュータプログラム
JP2016107947A (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP6186905B2 (ja) 車載表示装置およびプログラム
JP2022083609A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び画像の表示制御方法
WO2021171397A1 (ja) 表示制御装置、表示装置、及び表示制御方法
JP2018169169A (ja) ヘッドアップディスプレイ装置
JP2020158014A (ja) ヘッドアップディスプレイ装置、表示制御装置、及び表示制御プログラム
JP7377740B2 (ja) 車載表示装置、車載表示装置を制御する方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20921458

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 20921458

Country of ref document: EP

Kind code of ref document: A1