WO2007020840A1 - 車載用画像表示装置 - Google Patents

車載用画像表示装置 Download PDF

Info

Publication number
WO2007020840A1
WO2007020840A1 PCT/JP2006/315669 JP2006315669W WO2007020840A1 WO 2007020840 A1 WO2007020840 A1 WO 2007020840A1 JP 2006315669 W JP2006315669 W JP 2006315669W WO 2007020840 A1 WO2007020840 A1 WO 2007020840A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
image
display
display device
state
Prior art date
Application number
PCT/JP2006/315669
Other languages
English (en)
French (fr)
Inventor
Kaoru Kido
Original Assignee
Adc Technology Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Adc Technology Inc. filed Critical Adc Technology Inc.
Priority to US12/063,787 priority Critical patent/US7847705B2/en
Priority to EP06782495A priority patent/EP1916645A1/en
Publication of WO2007020840A1 publication Critical patent/WO2007020840A1/ja
Priority to US12/915,268 priority patent/US8022836B2/en
Priority to US13/205,040 priority patent/US8237580B2/en
Priority to US13/205,043 priority patent/US8264367B2/en
Priority to US13/545,265 priority patent/US8446289B2/en
Priority to US13/608,517 priority patent/US8456290B2/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • B60K2360/21
    • B60K2360/334
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/202Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Definitions

  • the present invention relates to an on-vehicle image display device that displays an image on a window portion of a vehicle such as a bus, taxi, or private car.
  • the image display device described in Patent Document 1 includes an observation device that observes the state (position, speed, etc.) of a vehicle and a storage device that stores image information of an outside landscape in advance. Based on the information indicating the position of the vehicle observed by the observation device, the image information of the scenery that would be seen outside the vehicle at the observed position is acquired from the storage device, and the image information is An image to be displayed is displayed on the window glass. It is also possible to display map information such as place names, river names, and mountain names. Further, it is possible to sequentially switch images to be displayed according to the speed based on the vehicle speed information. In this way, there are some which can display a landscape image around the vehicle on the window glass of the vehicle.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-20223
  • the conventional image display apparatus As described above, it is stored in advance in the storage device.
  • the displayed landscape image is displayed on the window glass of the vehicle, and the current landscape image outside the vehicle cannot be displayed while traveling.
  • the driver if the visibility deteriorates due to the weather, or if the driver's visual acuity is temporarily reduced, the driver will not be able to accurately grasp the surrounding situation, in other words, the driving risk, in other words This increases the probability of an accident. Therefore, in order to prevent an accident, it is necessary to display an image around the vehicle while traveling in real time.
  • the present invention has been made in view of such problems, and by accurately reproducing the situation around the vehicle with an image and displaying it on the window of the vehicle, the driver can drive the vehicle safely.
  • the purpose is to do.
  • the invention according to claim 1, which has been made to solve the problem, is an in-vehicle image display device used in a vehicle,
  • Display means provided on at least the entire front window of the vehicle and capable of displaying information over the entire window;
  • Image generating means for generating image data for displaying an image around the vehicle on the display means based on the detection result of the situation detecting means;
  • Display control means for causing the display means to display an image represented by the image data generated by the image generation means
  • the situation around the vehicle is detected by the situation detection means, and based on the detection result, image data representing an image around the vehicle is obtained. Generated by the image generation means. Then, an image represented by the image data generated by the image generation means is displayed on the display means provided on at least the entire front window portion of the vehicle.
  • the image representing the situation around the vehicle is displayed on the window portion of the vehicle, so that the driver can reliably confirm the situation around the vehicle. Can be grasped. That is, based on the detection result of the situation detection means, for example, It can be configured to display an image that is easy for the driver to see, such as highlighting animals, so that the driver can easily recognize the content of the image, that is, the surrounding situation. In addition, even when the vehicle is far away, an image representing the situation is displayed in the window near the driver's power, making it easy for the driver to see and easily grasping the situation far away. It becomes like this. In this way, the driver can surely grasp the situation around the vehicle, and it is possible to reliably prevent the occurrence of an accident due to the danger avoidance being delayed. It should be noted that at least an object existing around can be detected by the situation detecting means.
  • the display means transmits the light from inside and outside of the vehicle, thereby displaying the display means.
  • a window state in which the scenery inside and outside the vehicle can be visually recognized, and a display state in which light from inside and outside the vehicle is blocked and an image is displayed by the display control means.
  • the display control means switches the state of the display means to the display state, and then causes the display means to display an image represented by the image data generated by the image generation means. .
  • the display means on the window portion of the vehicle displays a window state in which a scene on the opposite side can be visually recognized like an ordinary window, and an image is displayed. You can switch to the display state.
  • the display means is switched to the display state only when an image around the vehicle is displayed, and when the image is not displayed, It can be configured to switch to a window state such as Therefore, it is easy for the driver or passenger to use.
  • display means are also provided on the side and rear windows of the vehicle.
  • the state of the display means is switched as in the in-vehicle image display device according to claim 2, the state of the display means is the window state in each window as described in claim 3. It is preferable that the display state can be switched.
  • the in-vehicle image display device According to the in-vehicle image display device according to claim 3, information is provided to all windows of the vehicle. Can be displayed. Therefore, images representing the situation around the vehicle can be displayed on all the windows of the vehicle, so that the driver can drive the vehicle more safely for the reasons described above.
  • the display means of each window portion can be switched between a window state like a normal window and a display state in which an image is displayed. Therefore, for example, it is possible to switch the state of the display means to the normal window state for each window so that the passenger can enjoy the real scenery. I can respond.
  • the display control means is configured to display the display hand based on an input of a vehicle occupant. It is preferable to switch the stage state between the window state and the display state.
  • the passenger can freely switch the state of the display means of the window portion of the vehicle between the display state and the window state. Convenient for passengers.
  • the display control means may be configured to switch the state of the display means between the window state and the display state based on the detection result of the operation state detection means.
  • the state of the display means can be switched in accordance with the driving state of the vehicle without the driver's intention. For example, when the speed of the vehicle exceeds a certain speed, the state of the window display means is switched to the display state, and a surrounding image is displayed on the display means. It is done. It is also conceivable that the window display means can be switched to the normal window state when the vehicle stops.
  • the display control means includes a vehicle It is preferable to display an image of the surroundings behind the vehicle on the display means when performing the force back.
  • the in-vehicle image display device when the driver knocks the vehicle behind the vehicle, an image of the rear of the vehicle is displayed on the window portion. Hands can drive the vehicle more safely.
  • the front window part of a vehicle may be sufficient, and the rear window part may be sufficient.
  • a side window may be used. Moreover, you may make it display on all the window parts.
  • the on-vehicle image display device since the sound is output by the sound output means in addition to the image around the vehicle, the situation around the vehicle is reproduced more realistically. The driver will be able to grasp the situation around the vehicle more accurately.
  • the image generation unit generates the image generation unit as described in claim 8. It is preferable to have a storage means for storing image data.
  • the image data is stored in the storage means, the image data is read even after driving and the image represented by the image data is viewed. Will be able to. Therefore, it is convenient for passengers.
  • the image generation means includes a vehicle It is preferable to generate image data so that passersby or other vehicles around the vehicle are highlighted on the display means.
  • the image display device for passers-by around the vehicle and other vehicles, the image is displayed so that the driver can easily recognize them. Generated Therefore, the driver is alerted to the passersby and other vehicles. In other words, the driver's attention can be raised.
  • the display means includes a vehicle Information can be displayed on both the inside and outside,
  • the display control means preferably displays an image different from the image represented by the image data generated by the image generation means on the outer surface of the display means.
  • images can be displayed on both sides of the display means. For example, as described above, surrounding images are displayed on the inner surface.
  • messages to drivers and passers-by of other vehicles can be displayed on the outer surface. By displaying messages in this way and communicating with the surroundings, traffic can be smoothed. It can also be configured to display advertisements on the outer surface.
  • the display control means is configured to cause the display means to display an image represented by image data read from the recording medium by the reading means.
  • the image represented by the image data recorded on the recording medium can be displayed on the window, so that it is easy for the passenger to use. Become.
  • the vehicle is operated based on a detection result of the situation detection unit.
  • Collision determination means for determining whether or not a collision with another vehicle is unavoidable;
  • the collision determination means determines that a collision with the other vehicle is unavoidable, a stationary object that can collide among the stationary objects other than the other vehicle based on the detection result of the situation detection means.
  • Possibility determination means for determining whether or not there is,
  • the stationary object Vehicle control means for controlling the vehicle to collide with the vehicle,
  • the vehicle control means may include a vehicle brake, a power source as described in claim 13.
  • FIG. 1 is an external view showing the external appearance of a vehicle equipped with an in-vehicle image display device.
  • FIG. 2 is a block diagram showing a configuration of an in-vehicle image display device.
  • FIG. 3 is a flowchart showing the flow of processing executed by the CPU of the in-vehicle image display device.
  • FIG. 4 is a flow chart showing the flow of processing executed by the drawing processor of the in-vehicle image display device.
  • FIG. 5 is a flow chart showing the flow of collision mitigation processing executed by the CPU of the in-vehicle image display device.
  • FIG. 6 is a diagram showing a state in which an image is displayed on the window of the vehicle.
  • FIG. 7 is a block diagram illustrating a configuration of an in-vehicle image display device according to a second embodiment.
  • FIG. 8 is a diagram showing a state in which an image is displayed on a window portion of a vehicle (second embodiment).
  • FIG. 9 is a block diagram illustrating a configuration of an in-vehicle image display device according to a third embodiment.
  • [0036] 1 ... Vehicle, 2 ... Frame part, 5 ... In-vehicle image display device, 10 ... Infrared sensor, 12 ... Millimeter wave radar, 14 ... Ultrasonic sensor, 16-CCD camera, 18 ⁇ Microphone, 20, 22- --1 / 0, 24- --CCDI / F, 30 "-CPU, 32" -ROM, 34 "-RAM, 36” -HDD, 37 38, frame memory, 39, drawing processor, 40, display glass, 42, spin, 44, operating unit, 45 "projector, 50 80 ... Detection unit 90 ... In-vehicle unit 95 ... Input / output unit.
  • FIG. 1 is an external view showing an appearance of a vehicle 1 provided with the in-vehicle image display device 5 (see FIG. 2) of the present embodiment.
  • detection units 80 for detecting the situation around the vehicle 1 in the in-vehicle image display device 5 are provided at a plurality of locations outside the body of the vehicle 1.
  • the detection unit 80 detects the surroundings of the vehicle 1, such as surrounding scenery, surrounding people, other vehicles (hereinafter also referred to as other vehicles), or obstacles.
  • a vehicle unit 90 constituting the vehicle-mounted image display device 5 is provided inside the vehicle 1 separately from the detection unit 80. Based on the detection result of the detection unit 80, the in-vehicle unit 90 generates an image representing the situation around the vehicle 1! /
  • a display glass panel 40 capable of displaying an image on the entire window portion is provided in every window portion of the vehicle 1! /.
  • the display glass panel 40 functions as a liquid crystal display and is capable of displaying an image, and is in a transparent state like a normal window so that the scenery on the opposite side across the window can be seen. It can be switched to the normal mode.
  • An image around the vehicle 1 generated by the in-vehicle unit 90 is displayed on the display glass panel 40.
  • the image around the vehicle 1 is displayed on a surface corresponding to the inside of the vehicle 1 on the display glass panel 40 so that the internal force of the vehicle 1 can be visually recognized.
  • an image can also be displayed on the surface corresponding to the outside of the vehicle 1.
  • FIG. 2 is a block diagram showing the configuration of the in-vehicle image display device 5.
  • the in-vehicle image display device 5 of the present embodiment includes an input / output unit 95 that includes the detection unit 80, the in-vehicle unit 90, and the display glass panel 40 described above. ing.
  • the in-vehicle unit 90 is mounted inside the vehicle 1.
  • the in-vehicle unit 90 includes a CPU 30 that executes various processes, and a startup process program (BIOS) that the CPU 30 performs when the in-vehicle unit 90 is activated.
  • BIOS startup process program
  • a reading device 37 that reads the received information, a drawing processor 39 that generates image data representing the surroundings of the vehicle 1 based on data transmitted from the detection unit 80, and image data generated by the drawing processor 39.
  • IZO input / output interface
  • the detection unit 80 includes an infrared sensor 10, a millimeter wave radar 12, an ultrasonic sensor 14, and a microphone 18. In each of these, various data to be described later are provided for each minute time At. Detected.
  • the infrared sensor 10 detects infrared rays emitted from the object. Infrared rays are emitted from all objects. By using the infrared sensor 10 to identify the range of the infrared radiation source, the approximate external shape of the object can be determined. It is also possible to infer the approximate shape and material of the object from the intensity of the emitted infrared light (the intensity of the infrared depends on the temperature of the object or the physical properties such as thermal conductivity). It is. In the present embodiment, a prediction process for predicting the material of the object (for example, whether it is metal or not) is also executed by the microcomputer (not shown) constituting the infrared sensor 10.
  • This prediction process is a process conventionally performed in the infrared sensor, and a detailed description thereof is omitted here.
  • Data representing the prediction result, the range of the infrared radiation source detected by the infrared sensor 10, and the data representing the intensity of the infrared light are transmitted to the in-vehicle unit 90.
  • the millimeter wave radar 12 uses a millimeter wave (a radio wave having a frequency of 30 to 300 GHz) to radiate the millimeter wave (here, vehicle 1) and the distance between the object and the object. It detects the relative speed between 1 and the object. In other words, while irradiating millimeter waves, The distance from the object is detected from the time it takes for the object to reflect and return. Further, the relative speed with respect to the object is also detected by detecting the distance to the object at every predetermined time t (t ⁇ A t). Data representing the distance to the object and the relative speed detected by the millimeter wave radar 12 is transmitted to the in-vehicle unit 90.
  • a millimeter wave a radio wave having a frequency of 30 to 300 GHz
  • the ultrasonic sensor 14 irradiates the surroundings with ultrasonic waves, and measures the position, size, shape, and volume of the object from the reflected ultrasonic waves.
  • a sensor capable of three-dimensional measurement is used as the ultrasonic sensor 14.
  • the shape of the object can be expressed in three dimensions.
  • Data representing the position, outer shape, shape, and volume of the object measured by the ultrasonic sensor 14 is transmitted to the in-vehicle unit 90.
  • the microphone 18 detects sounds around the vehicle 1. For example, human voices, animal calls, or other vehicle running sounds. Data representing the detected sound is transmitted to the in-vehicle unit 90.
  • Each detection data detected by the detection unit 80 and transmitted to the in-vehicle unit 90 is received by the in-vehicle unit 90 via the IZO 20 and stored in the RAM 34.
  • the CPU 30 instructs the drawing processor 39 to generate image data based on the detected data.
  • the drawing processor 39 reads the detection data from the RAM 34 and generates image data based on the detection data.
  • the image represented by the image data is displayed on the display glass panel 40.
  • the input / output unit 95 includes the display glass panel 40 described above, a speaker 42 that outputs sound, and an operation unit 44 for inputting information.
  • the speaker 42 is provided for outputting ambient sound via the speaker 42 based on data representing the sound detected by the microphone 18 among the detection data described above! Yes.
  • a speaker of an audio device (not shown) normally provided in the vehicle 1 may be used for IJ.
  • the operation unit 44 is operated by a passenger of the vehicle 1, and the passenger operates the operation unit 44 to change the mode of the display glass panel 40 from the display mode described above and the normal mode. You can switch to mode. This switching can be performed for each window.
  • a drawing command process that is repeatedly executed by the CPU 30 of the in-vehicle unit 90 will be described with reference to FIG. This process is a process executed to cause the drawing processor 39 to generate image data.
  • this drawing command process first, in S310, it is determined whether or not the force received the detection data from the detection unit 80. If it is determined that it has been received, the process proceeds to S320, and the received detection data is stored in the RAM 34. At this time, sound around the vehicle 1 is output from the speaker 42 based on sound data included in the detection data. Note that a sound emitted from the object represented by the detection data may be predicted and emitted from the predicted sound power speaker 42. For example, when another vehicle is detected, engine sound or horn sound that is predicted to be generated by other vehicle power may be output from the speaker 42. In this case, sound data representing sounds such as engine sound and horn sound are stored in advance in the ROM 32 or HDD 36, and when other vehicles are detected, the sound data representing those sounds is stored in the ROM 32 or It is good to read from HDD36.
  • the drawing command is a command for causing the drawing processor 39 to generate image data, and is transmitted from the processing iron of S330 in FIG. If it is determined in S410 that the drawing command has not been received, the process of S410 is executed again.
  • the in-vehicle unit 90 is transmitted from the millimeter wave radar 12 with detection data representing the distance between the vehicle 1 and the object (or the position of the object) and the relative speed, and the red Detection data representing the outer shape, shape, and material of the object is transmitted from the external sensor 10, and detection data representing the outer shape, shape, volume, and position of the object is transmitted from the ultrasonic sensor 14. .
  • detection data are stored in the RAM 34.
  • the drawing processor 39 is a force that generates image data around the vehicle from the detection data as described above stored in the RAM 34, and among the data constituting the image data, the target object is generated. Is generated based on detection data transmitted from both the infrared sensor 10 and the ultrasonic sensor 14. That is, the average of the data representing the outer shape or shape transmitted from the infrared sensor 10 and the data representing the outer shape or shape transmitted from the ultrasonic sensor 14 is averaged, and the data obtained as a result is taken as the target. Data representing the outer shape or shape of an object. Similarly, for the data of the position of the object, the data representing the position transmitted from both the millimeter wave radar 12 and the ultrasonic sensor 14 is averaged, and the resulting data is The data is the position of the object.
  • the detection accuracy of one sensor in this case, the infrared sensor 10, the ultrasonic sensor 14, or the millimeter wave radar
  • the detection data of the other sensor is adopted.
  • the probability that the detection accuracy of both sensors will decrease at the same time is decreasing. In other words, if the detection accuracy of both sensors declines at the same time, it is difficult for them to occur.
  • the drawing processor 39 predicts the force of what the object is based on the material and volume data of the object in addition to the object outline and shape data. .
  • the object is a person, a tree, or a vehicle.
  • the ROM 32 has, for example, a tree or a person as an object, or Or, data representing the external shape, shape, material, volume, color, etc. of a vehicle is stored for multiple types (or multiple types) of trees, people, and vehicles, and the drawing processor 39 generates it.
  • the data of the object and the data of the object stored in the ROM 32 are compared in correspondence with the data elements.
  • the data generated by itself and the data stored in the ROM 32 are compared for the external shape, shape, material, and volume data. Then, as a result of the comparison, it is close to which of the corresponding data stored in each generated data ROM 32, that is, what kind of data of the generated object (person, tree, vehicle, or those) It is concluded whether it represents Note that data representing objects such as trees, people, vehicles, etc. is stored in the HDD 36 as a data base!
  • an image with colors can be generated. For example, if it is concluded that the object represented by the generated data is a tree, the data power color data for the tree stored in ROM32 is extracted, and the extracted color data is generated. By adding to the data of the target object, it is possible to display a colored image of the target object.
  • the image of the target object is highlighted on the display glass panel 40 to be more recognized by the driver.
  • Fluorescent colors and primary colors can be considered as colors that are highlighted so that the driver can easily recognize them.
  • the outer shape of the object after a predetermined time (in other words, the size)
  • position prediction data can also be generated.
  • the image data is generated as described above, and the image data is temporarily stored in the frame memory 38.
  • the operation unit 44 By setting the in-vehicle unit 90 to a predetermined setting state via the image data, the image data is also stored in the HDD 36.
  • the passenger of the vehicle 1 can read the image data stored in the HDD 36 and view it later.
  • the image at the time of driving can be viewed and enjoyed later.
  • the surrounding image is stored when going to a destination where the travel route is complicated and easy to get lost, the travel route can be confirmed by reviewing the image later. And if you do so, you will be able to reach the destination smoothly from the next time.
  • a reading device 37 that can read data recorded on a recording medium such as a CD-ROMZRAM, a DVD-ROMZRAM, or the like is provided. Then, the image data recorded on the recording medium can be read by the reading device 37, and the image represented by the image data can be displayed on the display glass panel 40. For this reason, it becomes possible to display map information together with surrounding images on the display glass panel 40 using a recording medium storing map data. Therefore, it is convenient for the driver.
  • the movie or live video can be displayed on the display glass panel 40 using a recording medium on which the movie or live video is recorded. Therefore, the passenger can enjoy a movie or a live video on the vehicle 1.
  • the display glass panel 40 of the vehicle 1 can be switched between the display mode and the normal mode, and the switching mode is automatically switched.
  • S510 which continues from S430, it is determined whether or not the switching mode is the automatic mode. If it is determined that the current mode is the automatic mode, the process proceeds to S520, where it is determined whether or not the vehicle 1 is in a traveling state. Specifically, based on a detection result detected by a speed sensor (not shown) provided in the vehicle 1, it is determined whether or not the speed of the vehicle 1 is zero.
  • the process proceeds to S530, where the display glass panel is displayed.
  • Set channel 40 to display mode.
  • the display glass panels 40 of all windows of the vehicle 1 are set to the display mode.
  • the image represented by the image data generated in S430 is displayed on the display glass panel 40 (see FIG. 6).
  • an image behind the vehicle 1 is displayed on the front display glass panel 40.
  • an image behind the vehicle 1 may be displayed on a window portion (display glass panel 40) behind the vehicle 1 or may be displayed on a side window portion. Or you can make it display in all windows.
  • the process proceeds to S560, and the display mode is switched based on the input from the operation unit 44. Judge whether there is a certain force. If it is determined that there is a switch to the display mode, the process proceeds to S530, and the display glass panel 40 is set to the display mode.
  • the mode of the display glass panel 40 is set based on whether or not the vehicle is traveling (S520), that is, based on the speed of the vehicle.
  • the traveling direction of the vehicle and the braking state may be taken into account.
  • the display glass panel 40 on the side surface of the vehicle 1 when the vehicle 1 is turning right, the display glass panel 40 on the right side is set to the display mode, and when the vehicle 1 is turning left.
  • the display glass panel 40 can display images on both sides thereof.
  • FIG. 5 is a flowchart showing the flow of collision mitigation processing that is repeatedly executed by the CPU 30.
  • the vehicle 1 is in a state where it cannot avoid a collision with another vehicle. Specifically, the speed and acceleration of the vehicle 1 detected by an in-vehicle sensor (for example, a speed sensor) (not shown) provided in the vehicle 1, the position and speed of another vehicle detected by the detection unit 80, or the vehicle Judgment is made on the basis of various speeds such as braking performance and turning performance of the vehicle 1 and relative speed with respect to 1. Note that performance data representing the performance of the vehicle 1 is stored in the ROM 32 in advance.
  • an in-vehicle sensor for example, a speed sensor
  • the position and speed of another vehicle detected by the detection unit 80, or the vehicle Judgment is made on the basis of various speeds such as braking performance and turning performance of the vehicle 1 and relative speed with respect to 1. Note that performance data representing the performance of the vehicle 1 is stored in the ROM 32 in advance.
  • S620 it is determined whether or not there is an object that can be collided in addition to other vehicles in a state where a collision is inevitable.
  • a stationary object such as a guardrail is targeted as an object that can collide.
  • the process proceeds to S630. On the other hand, if it is determined that there is no stationary object that can collide, the process is terminated. [0089]
  • the vehicle 1 is controlled to collide with a colliding stationary object. Specifically, the brake and throttle opening (and hence the engine output) of the vehicle 1 is controlled to adjust the speed of the vehicle 1, and the steering angle is controlled to adjust the traveling direction of the vehicle 1. Then, the vehicle 1 is caused to collide with the stationary object.
  • this collision mitigation process is a process executed to avoid collision between the vehicle 1 and other surrounding vehicles even when the vehicle 1 collides with another stationary object. If a collision between the vehicle 1 and another vehicle is avoided by such processing, even if the vehicle 1 collides with a stationary object, the damage can be suppressed.
  • the detection unit 80 corresponds to the situation detection unit
  • the drawing opening sensor 39 corresponds to the image generation unit and the display control unit
  • the display glass panel 40 corresponds to the display unit.
  • the CPU 30 corresponds to the driving state detection means
  • the speaker 42 corresponds to the sound output means
  • the HDD 36 corresponds to the storage means
  • the reading device 37 corresponds to the reading means
  • the processing of S6 10 corresponds to the collision determination means
  • the process of S620 corresponds to possibility determination means
  • the process of S630 corresponds to vehicle control means.
  • the situation around the vehicle 1 is detected by the detection unit 80, and the in-vehicle unit 90 of the in-vehicle unit 90 is detected based on the detection result.
  • Image data around the vehicle 1 is generated by the drawing processor 39 (S430 in FIG. 4).
  • the image (computer graphic image) represented by the generated image data is displayed on the display glass panel 40 provided in the window portion of the vehicle 1 (see S540 in FIG. 4 and FIG. 6). Therefore, the driver of the vehicle 1 can easily and reliably grasp the situation around the vehicle 1 by viewing the image displayed on the display glass panel 40 in the window. It is possible to prevent the situation of the surroundings of the vehicle 1 from being accurately grasped due to the badness of the person or his / her own visual acuity, resulting in delay in avoiding danger and causing an accident.
  • all the windows of the vehicle 1 are configured as the display glass panel 40. That is, surrounding images can be displayed on all windows of the vehicle 1. Therefore, the driver can more accurately grasp the surrounding situation, and more reliably prevent accidents from occurring for the reasons described above.
  • the state power of the display glass panel 40 can be switched between a display mode in which an image can be displayed and a normal mode that is in a state like a normal window. . This switching can be automatically performed according to the driving state of the vehicle 1 (automatic mode), or can be performed based on the operation of the passenger of the vehicle 1 (manual mode). . If the automatic mode is set, an image of the surrounding area will be displayed in the window of the vehicle 1 even if the driver does not intend, and the driver can surely understand the surrounding situation. In manual mode, passengers can freely enjoy real scenery.
  • the vehicle 1 is provided with a speaker, and the sound power around the vehicle 1 detected by the microphone 18 of the detection unit 80 is output from the speaker 42. Yes.
  • the situation around the vehicle 1 can be reproduced more realistically, so that the driver can grasp the situation around the vehicle more accurately.
  • the display glass panel 40 in the window portion of the vehicle 1 has a screen display mode that functions as a screen and a normal window, as compared with the first embodiment. It can be switched to the normal mode such as In this screen display mode, light from inside and outside of the vehicle 1 is blocked. In other words, the display glass panel 40 becomes cloudy and functions as a screen. An image is projected onto the display glass panel 40 in the screen display mode state by the projector 45 (see FIG. 7).
  • the inside of the A pillar 2 of the vehicle 1 (see Figs. 1 and 2) is displayed on the screen as if it were an image. .
  • the force can be made as if the blind spot from the inside of the vehicle 1 has disappeared (see FIG. 8).
  • the driver can grasp the situation around the vehicle 1 more accurately, so that an accident can be prevented more reliably.
  • the projector 45 and the display glass panel 40 correspond to display means.
  • the image may be projected onto the B pillar and the C pillar, that is, all the pillars inside the vehicle 1 in addition to the A pillar.
  • the same effect can be obtained if a display panel such as a liquid crystal display is provided in a part of each leaflet.
  • the vehicle-mounted image display device 5 is different from the first embodiment in that a CCD camera 16 is used instead of the detection unit 80.
  • the in-vehicle unit 90 is provided with a CCD interface (hereinafter, CCDIZF) 24 for exchanging data with the CCD camera 16 instead of the IZO 20!
  • CCDIZF CCD interface
  • imaging data representing an image captured by the CCD camera 16 (in other words, detection data) is transmitted to the in-vehicle unit 90 and stored in the RAM 34 of the in-vehicle unit 90. Further, in the process of S430 in FIG. 4, the drawing processor 39 adds color data to the image data (detection data) stored in the RAM 34 to generate a computer graphic image.
  • the image power captured by the CCD camera 16 may be displayed directly on the display glass panel 40.
  • the in-vehicle image display device 5 of the third embodiment since the actual surrounding situation is imaged by the CCD camera 16, it is easy to generate a computer graphic image representing the surrounding situation. Become. In addition, since a computer graphic image can be generated more accurately for the surrounding situation, the driver can grasp the surrounding situation more accurately based on the image. Therefore, the occurrence of an accident can be prevented more reliably.
  • the CCD camera 16 corresponds to the situation detecting means.
  • the in-vehicle image display device of the present invention is not limited to a vehicle (such as a private car) as shown in FIG. 1, but can also be used for buses, taxis, or railway vehicles.
  • the surrounding situation may be communicated to the driver by voice.
  • information on what the object is, information on the size and distance of the object, or information on the risk of collision with the object It can be configured to communicate to the driver by voice.
  • a CCD camera may be incorporated in the detection unit 80.
  • the computer graphic image is generated using the image data of the CCD camera during the bright daytime, and the CCD image is generated during the dark nighttime or bad weather. It is recommended to use the detection data of sensors other than the camera.

Abstract

 車両に用いられる車載用画像表示装置であって、車両の周囲の状況を検出する状況検出手段と、車両の少なくとも前方の窓部全体に設けられ、その窓部全域に情報を表示可能な表示手段と、前記状況検出手段の検出結果に基づき、車両の周囲の画像を前記表示手段に表示するための画像データを生成する画像生成手段と、前記画像生成手段が生成した画像データが表す画像を、前記表示手段に表示させる表示制御手段と、を備えている車載用画像表示装置を提供する。

Description

明 細 書
車載用画像表示装置
技術分野
[0001] 本発明は、バス、タクシー、或いは自家用車等の車両の窓部に画像を表示する車 載用画像表示装置に関する。
背景技術
[0002] 従来より、車両同士の事故や車両と通行人との事故等、車両に関係した事故が起 こる原因として、例えば、天候(雨や雪など)により視界が悪ィ匕したり、或いは目の疲 労等で運転手の視力が一時的に低下したりすることにより、運転手が、車両の周囲の 通行人、他の車両、或いは障害物等を見落としてしまうことや、見間違えてしまうとい うようなことが考えられる。すなわち、運転手が車両の周囲の状況を正確に把握でき ず、危険回避が遅れて事故につながってしまうのである。逆に言うと、運転手が車両 の周囲の状況を正確に把握できれば、事故の発生が防止される。
[0003] ところで、従来より、車両の窓ガラスに、外の状況や風景を映写することのできる画 像表示装置が知られている (例えば、特許文献 1参照)。
[0004] この特許文献 1に記載の画像表示装置は、車両の状態 (位置や速度等)を観測す る観測装置と、外の風景の画像情報を予め蓄積しておく蓄積装置とを備えており、観 測装置により観測された車両の位置を表す情報に基づき、その観測された位置にお いて車両の外に見えるであろう風景の画像情報を蓄積装置より取得し、その画像情 報が表す画像を、窓ガラスに表示させる。なお、地名や河川名、山岳名等の地図情 報を表示させることもできる。また、車両の速度情報に基づいて、速度に合わせて表 示させる画像を順次切り換えることもできる。このように、車両の周囲の風景画像を車 両の窓ガラスに表示させることのできるものがある。
特許文献 1:特開 2004— 20223号公報
発明の開示
発明が解決しょうとする課題
[0005] ところで、上述したような従来の画像表示装置においては、蓄積装置に予め蓄積さ れた風景画像が車両の窓ガラスに表示されるのであり、走行中現在の車両の外の風 景画像は表示させることができない。そして、前述したように、天候により視界が悪ィ匕 したり、或いは運転手の視力が一時的に低下したりすると、運転手は周囲の状況を 正確に把握できなくなり、運転の危険度、言い換えると、事故が生じる確率が増大す る。よって、事故を防止するためには、走行中における車両の周囲の画像を、リアル タイムに表示させることが必要である。
[0006] 本発明は、こうした問題に鑑みなされたもので、車両の周囲の状況を画像で正確に 再現して車両の窓部に表示することで、運転手が安全に車両を運転できるようにする ことを目的とする。
課題を解決するための手段
[0007] 力かる問題を解決するためになされた請求項 1に記載の発明は、車両に用いられる 車載用画像表示装置であって、
車両の周囲の状況を検出する状況検出手段と、
車両の少なくとも前方の窓部全体に設けられ、その窓部全域に情報を表示可能な 表示手段と、
前記状況検出手段の検出結果に基づき、車両の周囲の画像を前記表示手段に表 示するための画像データを生成する画像生成手段と、
前記画像生成手段が生成した画像データが表す画像を、前記表示手段に表示さ せる表示制御手段と、
を備えて 、ることを特徴として 、る。
[0008] この請求項 1に記載の車載用画像表示装置においては、車両の周囲の状況が状 況検出手段により検出され、その検出結果に基づいて、車両の周囲の画像を表す画 像データが画像生成手段により生成される。そして、車両の少なくとも前方の窓部全 体に設けられた表示手段に、画像生成手段が生成した画像データにより表される画 像が表示される。
[0009] よって、この請求項 1に記載の車載用画像表示装置によれば、車両の周囲の状況 を表す画像が車両の窓部に表示されるため、運転手が車両の周囲の状況を確実に 把握できるようになる。すなわち、状況検出手段の検出結果に基づいて、例えば移 動物を強調表示するなど、運転手が見やす!ヽ画像を表示するように構成することが できるため、運転手は、画像の内容、つまり周囲の状況を容易に認識できる。また、 車両の遠方の状況であっても、運転手力 近い窓部にその状況を表す画像が表示さ れることになるため、運転手にとって見やすいものとなり、その遠方の状況も容易に把 握できるようになる。このように、運転手は車両の周囲の状況を確実に把握できるよう になり、危険回避が遅れて事故の発生するということを確実に防止できるようになる。 なお、少なくとも周囲に存在する物体が状況検出手段により検出されるように構成で きる。
[0010] また、請求項 1に記載の車載用画像表示装置においては、請求項 2に記載のように 、前記表示手段は、車両の内部及び外部からの光を透過させることにより、当該表示 手段を挟んで車両の内部及び外部の景色が視認可能となる窓状態と、車両の内部 及び外部からの光を遮断するとともに、前記表示制御手段により画像が表示されるよ うになる表示状態と、に切り換え可能に構成され、前記表示制御手段は、前記表示 手段の状態を前記表示状態に切り換えた後、前記画像生成手段が生成した画像デ ータが表す画像をその表示手段に表示させることが好ましい。
[0011] この請求項 2に記載の車載用画像表示装置においては、車両の窓部の表示手段 は、通常の窓のように対向側の景色が視認できるような窓状態と、画像が表示される 表示状態とに切り換えられる。
[0012] よって、この請求項 2に記載の車載用画像表示装置によれば、車両の周囲の画像 を表示させる時のみ、表示手段を表示状態に切り換え、また、画像を表示しない時に は、通常の窓のような窓状態に切り換えるように構成することができる。したがって、運 転手、或いは搭乗者にとって使いやすいものとなる。
[0013] また、請求項 1又は請求項 2に記載の車載用画像表示装置においては、車両の側 面及び後方の窓部にも表示手段が設けられることが考えられる。そして特に、請求項 2に記載の車載用画像表示装置のように表示手段の状態が切り換えられる場合は、 請求項 3に記載のように、各窓部において、表示手段の状態を前記窓状態と前記表 示状態とに切り換え可能に構成されることが好ましい。
[0014] この請求項 3に記載の車載用画像表示装置によれば、車両の全ての窓部に情報を 表示させることができる。よって、車両の全ての窓部に車両の周囲の状況を表す画像 を表示させることができるため、前述したような理由により、運転手はより安全に車両 を運転できるようになる。し力も、その各窓部の表示手段は、通常の窓のような窓状態 と、画像が表示される表示状態とに切り換え可能になっている。よって、例えば搭乗 者が本物の風景を楽しめるように窓部毎に表示手段の状態を通常の窓状態に切り換 えることもでき、本物の風景を楽しみた 、と 、う搭乗者のニーズにも応えることができ る。
[0015] また、請求項 2又は請求項 3に記載の車載用画像表示装置においては、請求項 4 に記載のように、前記表示制御手段は、車両の搭乗者の入力に基づき、前記表示手 段の状態を前記窓状態と前記表示状態とに切り換えることが好ましい。
[0016] この請求項 4に記載の車載用画像表示装置によれば、搭乗者は、車両の窓部の表 示手段の状態を自由に表示状態と窓状態とに切り換ることができるため、搭乗者にと つて使い勝手が良い。
[0017] また、請求項 5に記載のように、請求項 2又は請求項 3に記載の車載用画像表示装 置において、車両の速度、進行方向、或いは制動状態の少なくとも何れかを検出す る運転状態検出手段を備え、
前記表示制御手段は、前記運転状態検出手段の検出結果に基づき、前記表示手 段の状態を前記窓状態と前記表示状態とに切り換えるように構成することもできる。
[0018] この請求項 5に記載の車載用画像表示装置によれば、運転手が意図しなくても、車 両の運転状態に合わせて、表示手段の状態が切り換えられる。そして例えば、車両 の速度が一定の速度以上となった時に、窓部の表示手段の状態が表示状態に切り 換えられるとともに、その表示手段に周囲の画像が表示されるように構成することが 考えられる。また、車両が停止した際に、窓部の表示手段の状態が通常の窓状態に 切り換えられるように構成することが考えられる。
[0019] すなわち、例えば前述したように車両の速度が一定速度以上になると運転手が周 囲の状況を把握しにくくなることが考えられる力 その時に窓部に周囲の画像が表示 されて運転手が周囲の状況を把握できるようにすることができる。よって、運転手はよ り安全に車両を運転できるようになる。また、車両が停止した時に窓部の状態が通常 の窓状態に切り換えられるようにすれば、搭乗者は本物の風景を十分に楽しむことが でさるよう〖こなる。
[0020] また、請求項 1な!、し請求項 5の何れか 1項に記載の車載用画像表示装置にぉ 、 ては、請求項 6に記載のように、前記表示制御手段は、車両力バックする際には、そ の車両における後方の周囲の画像を、前記表示手段に表示させることが好ましい。
[0021] この請求項 6に記載の車載用画像表示装置によれば、運転手が車両をその後方に ノ ックさせる際には、窓部に車両の後方の画像が表示されるため、運転手はより安全 に車両を運転できるようになる。なお、車両の後方の画像を表示させる窓部としては、 車両の前方の窓部でもよいし、後方の窓部でもよい。さらには、側面の窓部でもよい 。また、全ての窓部に表示させるようにしてもよい。
[0022] また、請求項 1な!、し請求項 6の何れか 1項に記載の車載用画像表示装置にぉ 、 ては、請求項 7に記載のように、前記状況検出手段の検出結果に基づき、車両の周 囲の音を出力する音出力手段を備えていることが好ましい。
[0023] この請求項 7に記載の車載用画像表示装置によれば、車両の周囲の画像にカ卩えて 音が音出力手段により出力されるので、よりリアルに車両の周囲の状況が再現され、 運転手がより正確に車両の周囲の状況を把握できるようになる。
[0024] また、請求項 1な!、し請求項 7の何れか 1項に記載の車載用画像表示装置にぉ 、 ては、請求項 8に記載のように、前記画像生成手段が生成した画像データを記憶す る記憶手段を備えて 、ることが好ま 、。
[0025] この請求項 8に記載の車載用画像表示装置によれば、記憶手段に画像データが記 憶されるため、運転後においてもその画像データを読み出し、その画像データが表 す画像を見ることができるようになる。よって、搭乗者にとっては使い勝手がよい。
[0026] また、請求項 1な!、し請求項 8の何れか 1項に記載の車載用画像表示装置にぉ 、 ては、請求項 9に記載のように、前記画像生成手段は、車両の周囲の通行人或いは 他の車両が前記表示手段にて強調表示されるように画像データを生成することが好 ましい。
[0027] この請求項 9に記載の車載用画像表示装置によれば、車両の周囲の通行人や他 の車両等につ 、ては、運転手が容易にそれらを認識できるようにその画像が生成さ れるため、運転手はその通行人や他の車両に対して注意を促されるようになる。すな わち、運転手の注意力を喚起できるようになる。
[0028] また、請求項 1な!、し請求項 9の何れか 1項に記載の車載用画像表示装置にぉ 、 ては、請求項 10に記載のように、前記表示手段は、車両の内側と外側とにおける両 面に情報を表示可能であり、
前記表示制御手段は、前記表示手段の外側の面には、前記画像生成手段が生成 した画像データが表す画像とは異なる画像を表示させることが好ましい。
[0029] この請求項 10に記載の車載用画像表示装置によれば、表示手段の両面に画像を 表示することができるため、例えば内側面には、前述したように周囲の画像を表示さ せ、外側面には他の車両の運転者や通行人へのメッセージ等を表示させるようにす ることができる。このようにメッセージを表示させて周囲とのコミュニケーションを図るこ とで、ひいては交通の円滑化も図ることができる。なお、外側面に広告を表示するよう に構成することも考えられる。
[0030] また、請求項 1ないし請求項 10の何れか 1項に記載の車載用画像表示装置におい ては、請求項 11に記載のように、記録媒体に記録された画像データを読み取る読取 手段を備え、
前記表示制御手段は、前記読取手段が前記記録媒体から読み取った画像データ が表す画像を、前記表示手段に表示させるように構成されることが好まし ヽ。
[0031] この請求項 11に記載の車載用画像表示装置によれば、記録媒体に記録された画 像データが表す画像も窓部に表示させることができるため、搭乗者にとって使いやす いものとなる。
[0032] また、請求項 1ないし請求項 11の何れか 1項に記載の車載用画像表示装置におい ては、請求項 12に記載のように、前記状況検出手段の検出結果に基づき、車両が 他の車両との衝突を回避不能か否かを判定する衝突判定手段と、
前記衝突判定手段により、前記他の車両との衝突が回避不能と判定された場合に 、前記状況検出手段の検出結果に基づき、前記他の車両以外の静止物のうち、衝 突可能な静止物が有るか否かを判定する可能性判定手段と、
前記可能性判定手段により衝突可能な静止物が有ると判定されると、その静止物 に衝突するように車両を制御する車両制御手段と、
を備えていることが好ましい。
[0033] そして特に、車両制御手段は、請求項 13に記載のように、車両のブレーキ、動力源
(例えば、内燃機関やモータ等)の出力、及び舵角を制御することが考えられる。
[0034] このような請求項 12又は請求項 13に記載の車載用画像表示装置が備えられた車 両にお 、ては、仮に周囲の他の車両との衝突が避けられな 、と 、う状況となった場 合に、その他の車両の他に衝突の可能性のある対象物が検索され、もしそのような対 象物があった場合には、その対象物に衝突するように車両が制御される。すなわち、 他の車両以外の対象物に衝突してでも、他の車両との衝突を回避して被害を抑える ようにされる。よって、この車載用画像表示装置によれば、衝突の被害を最小限に抑 免ることがでさるよう〖こなる。
図面の簡単な説明
[0035] [図 1]車載用画像表示装置が備えられた車両の外観を表す外観図である。
[図 2]車載用画像表示装置の構成を表すブロック図である。
[図 3]車載用画像表示装置の CPUが実行する処理の流れを表すフローチャートであ る。
[図 4]車載用画像表示装置の描画プロセッサが実行する処理の流れを表すフローチ ヤートである。
[図 5]車載用画像表示装置の CPUが実行する衝突軽減処理の流れを表すフローチ ヤートである。
[図 6]車両の窓部に画像が表示された状態を表す図である。
[図 7]第 2実施形態の車載用画像表示装置の構成を表すブロック図である。
[図 8]車両の窓部に画像が表示された状態を表す図である(第 2実施形態)。
[図 9]第 3実施形態の車載用画像表示装置の構成を表すブロック図である。
符号の説明
[0036] 1…車両、 2· ··フレーム部、 5…車載用画像表示装置、 10· ··赤外線センサ、 12· ··ミリ 波レーダ、 14· ··超音波センサ、 16- CCDカメラ、 18· ··マイクロフォン、 20, 22- --1/ 0、 24- --CCDI/F, 30"-CPU、 32"-ROM、 34"-RAM、 36"-HDD、 37· ··読取 装置、 38· ··フレームメモリ、 39· ··描画プロセッサ、 40· ··表示ガラスノ《ネル、 42· ··スピ 一力、 44· ··操作部、 45· "プロジェクタ、 50· ··ノ ス、 80· ··検出ユニット、 90· ··車載ュ ニット、 95…入出力部。
発明を実施するための最良の形態
[0037] 以下に、本発明の一実施形態を図面に基づき説明する。
[実施形態 1]
図 1は、本実施形態の車載用画像表示装置 5 (図 2参照)が備えられた車両 1の外 観を表す外観図である。図 1に示すように、車両 1のボディーの外部における複数箇 所に、車載用画像表示装置 5のうち、車両 1の周囲の状況を検出するための検出ュ ニット 80が設けられている。この検出ユニット 80により、車両 1の周囲の状況として、 周囲の景色や、周囲の人、他の車両 (以下、他車両とも言う)、或いは障害物等の態 様が検出される。また、図 1には図示しないが、車載用画像表示装置 5を構成する車 載ユニット 90 (図 2参照)が、検出ユニット 80とは別に車両 1内部に備えられている。 そして、検出ユニット 80の検出結果に基づいて、車載ユニット 90により車両 1の周囲 の状況を表す画像が生成されるようになって!/、る。
[0038] そして特に、本実施形態においては、車両 1の全ての窓部には、その窓部全体に 画像を表示することのできる表示ガラスパネル 40が設けられて!/、る。この表示ガラス パネル 40は、液晶ディスプレイとして機能して画像が表示可能となる表示モードと、 通常の窓のように透明な状態であって、窓を挟んだ対向側の景色が視認できる状態 である通常モードとに切り換え可能に構成されている。そして、車載ユニット 90により 生成された車両 1の周囲の画像は、表示ガラスパネル 40に表示される。なお、車両 1 の周囲の画像は、車両 1の内部力 視認できるように、表示ガラスパネル 40において 車両 1の内側に対応する面に表示されるようになっている。また、本実施形態では、 車両 1の外側に対応する面にも画像が表示可能なように構成されている。
[0039] 次に、図 2は、車載用画像表示装置 5の構成を表すブロック図である。
[0040] この図 2に示すように、本実施形態の車載用画像表示装置 5は、前述した検出ュニ ット 80、車載ユニット 90、及び表示ガラスパネル 40を含む入出力部 95から構成され ている。以下、各構成要素について詳述する。 [0041] まず、車載ユニット 90は、車両 1の内部に搭載されるものであり、各種処理を実行す る CPU30と、この車載ユニット 90の起動時に CPU30が行う起動処理のプログラム( BIOS)等を記憶した ROM32と、 CPU30が各種処理を行う際に記憶領域として用 いる RAM34と、情報を記憶させるハードディスク(以下、 HDD) 36と、 CD— ROM /RAM, DVD— ROMZRAM等の記録媒体に記録された情報を読み取る読取装 置 37と、検出ユニット 80から送信されるデータに基づいて、車両 1の周囲の状況を表 す画像データを生成する描画プロセッサ 39と、描画プロセッサ 39により生成された 画像データが記憶されるフレームメモリ 38と、検出ユニット 80とデータを送受信する ための入出力インタフェース(以下、 IZO) 20と、入出力部 95とデータを送受信する ための ΙΖ022と、を備えており、それらがバス 50を介して相互に接続されている。
[0042] 次に、検出ユニット 80は、赤外線センサ 10と、ミリ波レーダ 12と、超音波センサ 14と 、マイクロフォン 18とから構成されており、それぞれにおいて、後述する各種データが 微小時間 A t毎に検出される。
[0043] 検出ユニット 80において、赤外線センサ 10は、対象物から放射される赤外線を検 出するものである。なお、赤外線はあらゆる物体カゝら放射される。そして、この赤外線 センサ 10を用いて赤外線の放射源の範囲を特定することで、対象物のおおよその外 形が分かる。また、その放射されている赤外線の強弱(赤外線の強度は、対象物の 温度、或いは熱伝導率等の物性値により異なる)から、その対象物のおおよその形状 や素材等を推測することも可能である。そして、本実施形態においては、赤外線セン サ 10を構成する図示しないマイクロコンピュータにより、赤外線の強度力も対象物の 素材 (例えば、金属であるかそうでないか)を予測する予測処理が実行される。なお、 この予測処理は、赤外線センサにおいては従来より行われている処理であり、ここで は詳しい説明を省略する。そして、この予測結果を表すデータや、赤外線センサ 10 により検出された赤外線の放射源の範囲、及び赤外線の強度を表すデータは、車載 ユニット 90に送信される。
[0044] ミリ波レーダ 12は、ミリ波(周波数 30〜300GHzの電波)を用いて、そのミリ波を照 射する照射源 (ここでは、車両 1とする)と対象物との距離や、車両 1と対象物との相 対速度を検出するものである。すなわち、ミリ波を照射するとともに、その照射波が対 象物に反射して返ってくるまでの時間から、対象物との距離を検出する。また、所定 時間 t毎 (t< A t)に対象物との距離を検出することで、対象物との相対速度も検出 する。そして、このミリ波レーダ 12により検出された対象物との距離、及び相対速度を 表すデータは、車載ユニット 90に送信される。
[0045] 超音波センサ 14は、超音波を周囲に照射するとともに、その照射した超音波の反 射波から、対象物の位置、大きさ、形状、及び体積を計測するものである。なお、本 実施形態においては、超音波センサ 14として、 3次元計測のできるものが用いられて いる。つまり、対象物の形状を 3次元で表すことができるようになつている。そして、こ の超音波センサ 14により計測された対象物の位置、外形、形状、及び体積を表すデ ータは、車載ユニット 90に送信される。
[0046] マイクロフォン 18は、車両 1の周囲の音を検出する。例えば、人の話し声や動物の 鳴き声、或いは他の車両の走行音等である。そして、その検出した音を表すデータ は、車載ユニット 90に送信される。
[0047] そして、検出ユニット 80において検出され車載ユニット 90に送信された各検出デー タは、車載ユニット 90において、 IZO20を介して受信されるとともに RAM34に格納 される。そしてこの時、 CPU30は、描画プロセッサ 39に対して、検出データに基づい て画像データを生成するように指令する。すると、描画プロセッサ 39は、 RAM34か ら検出データを読み出して、その検出データに基づいて画像データを生成する。そ して、その画像データにより表される画像は、表示ガラスパネル 40に表示される。
[0048] 次に、入出力部 95は、前述した表示ガラスパネル 40と、音を出力するスピーカ 42 と、情報を入力するための操作部 44と、力 構成されている。
[0049] スピーカ 42は、前述した検出データのうち、マイクロフォン 18により検出された音を 表すデータに基づ!/、て、周囲の音をこのスピーカ 42を介して出力するために設けら れている。なお、車両 1に通常設けられているオーディオ装置(図示せず)のスピーカ を禾 IJ用してもよ ヽ。
[0050] また、操作部 44は、車両 1の搭乗者が操作するものであり、搭乗者は、この操作部 44を操作することで、表示ガラスパネル 40のモードを、前述した表示モードと通常モ ードとに切り換えたりすることができる。なお、この切換は、窓部毎に行うことができる。 [0051] 次に、車載ユニット 90の CPU30が繰り返し実行する描画指令処理について、図 3 を用いて説明する。この処理は、描画プロセッサ 39に画像データを生成させるため に実行される処理である。
[0052] この描画指令処理では、まず S310にて、検出ユニット 80から検出データを受信し た力否かを判定する。受信したと判定すると、次に S320へ移行し、その受信した検 出データを RAM34に記憶させる。また、この時、検出データに含まれる音のデータ に基づいて、車両 1の周囲の音をスピーカ 42から出力させる。なお、検出データが表 す対象物から発せられる音を予測して、その予測した音力スピーカ 42から発せられ るようにしてもよい。例えば、他の車両が検出された場合には、その他車両力 発せ られると予測されるエンジン音やクラクションの音を、スピーカ 42から出力させてもよ い。この場合、エンジン音やクラクションの音などの音を表す音データを、予め ROM 32や HDD36に記憶させておき、他の車両が検出された場合に、それらの音を表す 音データを ROM32或 、は HDD36から読み出すようにすると良 、。
[0053] そして、次に S330へ移行し、描画プロセッサ 39に、画像データを生成させる指令 である描画指令を送信する。そして、再び S310へ戻る。
[0054] なお、 S310にて検出データを受信していないと判定した場合も、再び S310の判 定処理を繰り返すことになる。
[0055] 次に、描画プロセッサ 39が繰り返し実行する描画処理について、図 4を用いて説明 する。
[0056] この描画処理においては、まず S410にて、描画指令を CPU30より受信したか否 かを判定する。前述したように、描画指令は、この描画プロセッサ 39に画像データを 生成させるための指令であり、図 2の S330の処理〖こて CPU30より送信される。 S41 0にて描画指令を受信していないと判定すると、再び S410の処理を実行することに なる。
[0057] 一方、 S410にて描画指令を受信したと判定すると、次に S420へ移行し、 RAM34 力も検出データを読み込む。この検出データは、検出ユニット 80から送信され、 S32 0の処理で RAM34に記憶されるものである。
[0058] そして、続く S430にて、 S420で RAM34より読み出した検出データに基づいて、 車両 1の周囲の画像データを生成する。ここで、画像データを生成する方法につい て具体的に説明する。
[0059] まず、前述したように、車載ユニット 90には、ミリ波レーダ 12から、車両 1と対象物と の距離 (或いは対象物の位置)、及び相対速度を表す検出データが送信され、赤外 線センサ 10からは、対象物の外形、形状、及び素材を表す検出データが送信され、 超音波センサ 14からは、対象物の外形、形状、体積、及び位置を表す検出データが 送信される。そして、それらの検出データは RAM34に記憶される。
[0060] そして、描画プロセッサ 39は、 RAM34に記憶された前述したような検出データか ら、車両の周囲の画像データを生成するのである力 その画像データを構成するデ ータのうち、対象物の外形及び形状を表すデータについては、赤外線センサ 10及び 超音波センサ 14の両方から送信される検出データに基づいて生成する。すなわち、 赤外線センサ 10から送信される外形、或いは形状を表すデータと、超音波センサ 14 から送信される外形、或いは形状を表すデータとの平均をとり、その結果得られたデ ータを、対象物の外形、或いは形状を表すデータとする。また、対象物の位置のデー タにつ ヽても同様に、ミリ波レーダ 12及び超音波センサ 14の両方から送信される位 置を表すデータの平均をとり、その結果得られたデータを、対象物の位置のデータと する。
[0061] ところで、例えば天候の影響など、外乱によって一方のセンサ (ここでは、赤外線セ ンサ 10、超音波センサ 14、或いはミリ波レーダ)の検出精度が低下してしまうような場 合には、他方のセンサの検出データを採用する。なお、両方のセンサの検出精度が 同時に低下する確率は小さくなつている。言い換えると、両方のセンサの検出精度が 同時に低下すると 、うことは生じ難 、。
[0062] そして、少なくとも、このようにして生成された対象物の外形、形状、及び位置のデ ータがあれば、そのデータに基づき、車両の周囲の状況が表される。
[0063] そして特に、本実施形態においては、描画プロセッサ 39は、対象物の外形、及び 形状のデータに加え、対象物の素材や体積のデータに基づいて、対象物が何である 力を予測する。例えば、対象物が人であるとか、木であるとか、或いは車両であるとい うことを予測する。本実施形態では、 ROM32には、対象物として例えば木や人、或 いは車両について、その外形、形状、素材、体積、色彩等を表すデータが、複数種 類 (或いは複数タイプ)の木、人、車両について記憶されており、描画プロセッサ 39 は、自身が生成した対象物のデータと、 ROM32に記憶された対象物のデータとに おいて、データの要素を対応させて比較するようになっている。すなわち、外形、形 状、素材、及び体積のデータについてそれぞれ、自身が生成したデータと ROM32 に記憶されたデータとを比較する。そして、比較した結果、生成したそれぞれのデー タカ ROM32に記憶された対応するデータの何れに近いか、すなわち、生成した対 象物のデータがどのようなもの(人、木、或いは車両、又はそれらのタイプ)を表して いるかを結論付ける。なお、木や人、車両等の対象物を表すデータは、データべ一 スとして HDD36に記憶させてお!、てもよ!/、。
[0064] このようにして対象物を予測することで、色彩が施された画像を生成することができ る。例えば、生成したデータにより表される対象物が木であると結論付た場合には、 R OM32に記憶されている木についてのデータ力 色彩のデータを抽出し、その抽出 した色彩のデータを生成した対象物のデータに付加することで、その対象物につい て、色彩を施した画像を表示させることができる。
[0065] なお、本実施形態においては、対象物が人や車両等などの移動体の場合には、そ の対象物の画像について、表示ガラスパネル 40にて強調表示されて運転手がより認 識しゃすくなる色彩を施すようになって!/ヽる。強調表示されて運転手が認識しやすく なる色としては、蛍光色や原色が考えられる。
[0066] また、本実施形態においては、検出された対象物について、ミリ波レーダ 12により 検出される相対速度を表すデータに基づき、その対象物の所定時間後の外形 (言い 換えると、大きさ)及び位置についての予測のデータを生成することもできる。そして、 対象物の画像を表示ガラスパネル 40に表示させる際には、その予測のデータに基 づく対象物の画像を表示させるようにすることもできる。
[0067] このように、検出ユニット 80の検出データに基づき、車両 1の周囲の状況について、 V、わゆるコンピュータグラフィック(CG)画像が生成される。
[0068] また、 S430においては、前述したように画像データを生成するとともに、その画像 データをフレームメモリ 38に一時的に記憶させるようになつている。また、操作部 44 を介して車載ユニット 90が所定の設定状態に設定されることにより、 HDD36にも画 像データが記憶される。
[0069] HDD36に画像データを記憶させるように設定すれば、車両 1の搭乗者は、その H DD36に記憶された画像データを読み出して後から見ることもできるようになる。すな わち、例えばドライブ時の画像データを記憶させておくことにより、後からドライブ時の 画像をみて楽しむことができる。また、走行経路が複雑で迷いやすいような目的地へ いく時に周囲の画像を記憶しておけば、後から画像を見直して走行経路を確認する ことができる。そして、そのようにすれば次からはスムーズにその目的地に迪り着ける ようになる。
[0070] また、本実施形態においては、 CD— ROMZRAM, DVD— ROMZRAM等の 記録媒体に記録されたデータを読み取ることのできる読取装置 37が設けられている 。そして、この読取装置 37により記録媒体に記録された画像データを読み出して、そ の画像データが表す画像を表示ガラスパネル 40に表示できるようになって 、る。この ため、地図データが記憶された記録媒体を利用して、表示ガラスパネル 40に、周囲 の画像とともに地図情報を表示できるようになる。よって、運転手にとって使い勝手が よい。また、映画やライブ映像が記録された記録媒体を利用して、その映画やライブ 映像を表示ガラスパネル 40に表示させることもできる。よって、搭乗者は、車両 1にお Vヽて映画やライブ映像を楽しむことができる。
[0071] ところで、本実施形態においては、車両 1の表示ガラスパネル 40について、その状 態を表示モードと通常モードとに切り換え可能になっており、さらに、その切り換えの モードとしては、自動で切り換えを行う自動モードと、操作部 44からの入力に基づ ヽ て切り換えを行う手動モードとがある。なお、自動モード或いは手動モードの何れに するかは、操作部 44を介して予め設定することができる。
[0072] そして、 S430力ら続く S510では、切り換えのモードが自動モードであるか否かを 判定する。自動モードであると判定すると、次に S520へ移行し、車両 1は走行中であ る力否かを判定する。具体的には、車両 1に備えられた図示しない速度センサにより 検出される検出結果に基づき、車両 1の速度が 0でないか否かを判定する。
[0073] S520にて車両 1が走行中であると判定すると、次に S530へ移行し、表示ガラスパ ネル 40を表示モードに設定する。なお、本実施形態においては、車両 1の全ての窓 部の表示ガラスパネル 40を表示モードに設定する。
[0074] そして、続く S540にて、表示ガラスパネル 40に、 S430にて生成した画像データが 表す画像を表示させる(図 6参照)。なお、図示はしないが、車両 1が後方へバックし ている場合には、車両 1の後方の画像が前面の表示ガラスパネル 40に表示される。 なお、この時、車両 1の後方の画像を車両 1の後方の窓部(表示ガラスパネル 40)に 表示させるようにしてもよいし、側面の窓部に表示させるようにしてもよい。或いは、全 ての窓部に表示させるようにしてもょ 、。
[0075] 一方、 S520にて走行中でないと判定すると、次に S550へ移行し、表示ガラスパネ ル 40を通常モードに設定する。そして再び、 S410へ戻る。
[0076] また、 S510にて、切り換えのモードが自動モードでない、つまり手動モードであると 判定すると、次に S560へ移行し、操作部 44の入力に基づいて、表示モードへの切 り換えがある力否かを判定する。表示モードへの切り換えがあると判定すると、次に S 530へ移行して、表示ガラスパネル 40を表示モードに設定する。
[0077] 一方、 S560にて表示モードへの切り換えがないと判定すると、次に S570へ移行し 、通常モードへの切り換えがある力否かを判定する。
[0078] S570にて通常モードへの切り換えがあると判定すると、次に S550へ移行して、表 示ガラスパネル 40を通常モードに設定する。
[0079] 一方、 S570にて通常モードへの切り換えがないと判定すると、次に S580へ移行し 、現在のモードが表示モードであるか否かを判定する。表示モードであると判定する と、次に S 540へ移行し、表示ガラスパネル 40に画像を表示させる。
[0080] 一方、 S580にて現在のモードが表示モードでない、つまり通常モードであると判定 すると、再び S410へ戻る。
[0081] なお、この描画処理において、車両が走行中か否か(S520)、つまり車両の速度に 基づ 、て表示ガラスパネル 40のモードが設定されるようになって!/、るが、車両の進行 方向や制動状態等を加味するようにしてもよい。例えば、車両 1の側面の表示ガラス パネル 40については、車両 1が右へ旋回中の場合に、右側面の表示ガラスパネル 4 0が表示モードに設定され、車両 1が左へ旋回中の場合には、左側面の表示ガラス パネル 40が表示モードに設定されるようにしてもょ 、。
[0082] また、前述したように、表示ガラスパネル 40にお 、ては、その両面に画像を表示で きるようになつている。そして、本実施形態においては、表示ガラスパネル 40の外側 の面には、例えば車両 1に赤ちゃんが乗っていることを周囲に知らせるためのメッセ ージや、進路を譲ってもらった場合のお礼のメッセージ等が表示されるようになって いる。このメッセージ等を表すデータは、 ROM32に予め記憶されており、搭乗者に より操作部 44を介してメッセージの種類を表すメッセージ情報、及びメッセージを表 示させる指令が入力されると、そのメッセージ情報に基づくメッセージが表示ガラスパ ネル 40の外側の面に表示されるようになっている。なお、操作部 44を介してメッセ一 ジの本文を入力できるようにしてもょ 、。
[0083] このように他の車両の運転手等に対するメッセージを表示することで、互いにコミュ 二ケーシヨンが図られ、ひいては交通の円滑化も図ることができるため、事故の発生 を防止できるようになる。なお、広告等を表示させるように構成することも考えられる。
[0084] 次に、図 5は、 CPU30において繰り返し実行される衝突軽減処理の流れを表すフ ローチャートである。
[0085] この衝突軽減処理においては、まず S610にて、車両 1の状態が他の車両との衝突 を避けられない状態である力否かを判定する。具体的には、車両 1に備えられた図示 しない車載センサ (例えば速度センサ)により検出される車両 1の速度、加速度や、検 出ユニット 80により検出される他の車両の位置、速度、或いは車両 1との相対速度や 、さらには、車両 1の制動性能や旋回性能等の各種性能に基づき判定する。なお、 車両 1の性能を表す性能データは、 ROM32に予め記憶されている。
[0086] そして、 S610にて衝突を避けられない状態であると判定すると、次に S620へ移行 する。一方、衝突が避けられると判定すると、そのまま当該処理を終了する。
[0087] S620では、衝突が避けられな 、状態である他車両の他に、衝突可能な対象物が 周囲にあるか否かを判定する。そして、この S620の処理においては、衝突可能な対 象物として、例えばガードレール等の静止物が対象にされる。
[0088] そして、衝突可能な静止物があると判定すると、次に S630へ移行する。一方、衝突 可能な静止物がないと判定すると、そのまま当該処理を終了する。 [0089] S630では、衝突可能な静止物に衝突するように、車両 1を制御する。具体的には、 車両 1のブレーキ及びスロットル開度(ひいては、エンジンの出力)を制御して車両 1 の速度を調整するとともに、舵角を制御して車両 1の進行方向を調整する。そして、 その静止物に車両 1を衝突させるようにするのである。すなわち、この衝突軽減処理 は、車両 1を他の静止物に衝突させてでも、車両 1と周囲の他の車両との衝突を回避 させるべく実行される処理である。そして、このような処理により車両 1と他の車両との 衝突が回避されれば、仮に車両 1が静止物と衝突したとしても、その被害は抑えられ ることになる。
[0090] なお、本実施形態においては、検出ユニット 80が状況検出手段に相当し、描画プ 口セッサ 39が画像生成手段及び表示制御手段に相当し、表示ガラスパネル 40が表 示手段に相当し、 CPU30が運転状態検出手段に相当し、スピーカ 42が音出力手 段に相当し、 HDD36が記憶手段に相当し、読取装置 37が読取手段に相当し、 S6 10の処理が衝突判定手段に相当し、 S620の処理が可能性判定手段に相当し、 S6 30の処理が車両制御手段に相当して 、る。
[0091] 以上説明したように、本実施形態の車載用画像表示装置 5においては、検出ュ-ッ ト 80により車両 1の周囲の状況が検出され、その検出結果に基づいて、車載ユニット 90の描画プロセッサ 39により車両 1の周囲の画像データが生成される(図 4の S430 )。そして、その生成された画像データが表す画像 (コンピュータグラフィック画像)は 、車両 1の窓部に設けられた表示ガラスパネル 40に表示される(図 4の S540、及び 図 6参照)。よって、車両 1の運転手は、窓部の表示ガラスパネル 40に表示される画 像を見ることで、車両 1の周囲の状況を容易かつ確実に把握することができるため、 運転手が、天候が悪ィ匕したり自身の視力が低下したりすることにより車両 1の周囲の 状況を正確に把握できなくなって危険回避が遅れ、事故を起こしてしまうということを 防止することができる。
[0092] また、本実施形態にぉ 、ては、車両 1の窓部全てが表示ガラスパネル 40として構成 されている。つまり、車両 1の窓部全てに周囲の画像を表示させることができる。よつ て、運転手は周囲の状況をより正確に把握できるようになり、前述したような理由から 、事故が生じることをより確実に防止することができる。 [0093] また、本実施形態にぉ 、ては、表示ガラスパネル 40の状態力 画像が表示可能な 表示モードと、通常の窓のような状態である通常モードとに切り換えられるようになつ ている。そして、この切換は、車両 1の運転状態により自動で行われる(自動モード)よ うにすることもできるし、車両 1の搭乗者の操作に基づいて行われる(手動モード)よう にすることもできる。自動モードにすれば、運転手が意図しなくても車両 1の窓部に周 囲の画像が表示されるようになり、運転手は周囲の状況を確実に把握できるようにな る。また、手動モードにすれば、搭乗者は自由に本物の風景を楽しむことができるよう になる。
[0094] また、本実施形態においては、車両 1にスピーカが設けられており、検出ユニット 80 のマイクロフォン 18にて検出された車両 1の周囲の音力 そのスピーカ 42から出力さ れるようになっている。よって、車両 1の周囲の状況がよりリアルに再現されるようにな るため、運転手はより正確に周囲の状況を把握できるようになる。
[実施形態 2]
次に、第 2実施形態の車載用画像表示装置 5について、図 7及び図 8を用いて説明 する。
[0095] 本第 2実施形態の車載用画像表示装置 5は、第 1実施形態と比較して、車両 1の窓 部の表示ガラスパネル 40は、スクリーンとして機能するスクリーン表示モードと、通常 の窓のような通常モードとに切り換え可能に構成されて 、る。このスクリーン表示モー ドにおいては、車両 1の内部及び外部からの光を遮断させるようになつている。すな わち、表示ガラスパネル 40が曇ったような状態となり、スクリーンとして機能するように なるのである。そして、スクリーン表示モード状態である表示ガラスパネル 40には、プ ロジェクタ 45 (図 7参照)により画像が投影されるようになっている。
[0096] そして特に、本第 2実施形態においては、スクリーン表示モードの表示ガラスパネル 40の他、車両 1の Aピラー 2の内側(図 1及び図 2参照)もスクリーンに見立てて画像 を表示させる。このように、車両 1の窓部及び Aピラー 2に周囲の画像を表示させると 、あた力も車両 1内部からの死角がなくなつたかのようにできる(図 8参照)。よって、運 転手はより正確に車両 1の周囲の状況を把握できるようになるため、事故の発生をよ り確実に防止できる。 [0097] なお、本第 2実施形態にお!、ては、プロジェクタ 45及び表示ガラスパネル 40が表 示手段に相当している。
[0098] ところで、 Aピラーだけでなぐ Bピラー及び Cピラー、つまり、車両 1内部の全ての柱 に、画像が投影されるようにしてもよい。また、第 1実施形態において、各ビラ一部分 に液晶ディスプレイ等の表示パネルを設けるようにすれば、同様の効果が得られる。
[実施形態 3]
次に、第 3実施形態の車載用画像表示装置 5について、図 9を用いて説明する。
[0099] 本第 3実施形態の車載用画像表示装置 5は、第 1実施形態と比較して、検出ュニッ ト 80のかわりに CCDカメラ 16が使用されている点が異なっている。また、車載ュ-ッ ト 90において、 IZO20の代わりに CCDカメラ 16とデータをやり取りするための CCD インタフェース(以下、 CCDIZF) 24が設けられて!/、る。
[0100] そして、 CCDカメラ 16により撮像された画像を表す撮像データ (言い換えると、検 出データ)は車載ユニット 90に送信され、車載ユニット 90の RAM34に記憶される。 また、描画プロセッサ 39は、図 4の S430の処理において、 RAM34に記憶された撮 像データ(検出データ)に色彩のデータを付カ卩して、コンピュータグラフィック画像を 生成する。なお、 CCDカメラ 16により撮像された画像力 直接表示ガラスパネル 40 に表示されるようにしてもょ 、。
[0101] 本第 3実施形態の車載用画像表示装置 5によれば、 CCDカメラ 16により実際の周 囲の状況が撮像されるため、周囲の状況を表すコンピュータグラフィック画像を生成 することが容易となる。また、周囲の状況について、より正確にコンピュータグラフイツ ク画像を生成できるため、その画像に基づいて、運転手はより正確に周囲の状況を 把握できるようになる。したがって、事故の発生をより確実に防止できるようになる。
[0102] なお、本第 3実施形態においては、 CCDカメラ 16が状況検出手段に相当している
[0103] 以上、本発明の一実施形態について説明したが、本発明は、上記実施形態に限定 されるものではなぐ本発明の技術範囲内において種々の形態を採ることができる。
[0104] 例えば、本発明の車載用画像表示装置は、図 1に示すような車両(自家用車等)に 限らず、バスやタクシー、或いは鉄道車両に用いることもできる。 [0105] また、さらに、周囲の状況が音声で運転手に伝えられるようにしてもよい。この場合 には、例えば、対象物が存在する場合にその対象物が何であるかという情報や、対 象物の大きさ、距離等の情報、或いは対象物との衝突の危険性に関する情報を、音 声にて運転手に伝えるように構成することが考えられる。
[0106] また、第 1実施形態或いは第 2実施形態において、検出ユニット 80に CCDカメラを 組み込むようにしてもよい。そして、この場合には、例えば昼の明るい時間帯には、 C CDカメラの撮像データを利用してコンピュータグラフィック画像を生成するようにし、 夜の暗い時間帯や天候が悪い時などには、 CCDカメラ以外のセンサの検出データ を利用するようにするとよい。

Claims

請求の範囲
[1] 車両に用いられる車載用画像表示装置であって、
車両の周囲の状況を検出する状況検出手段と、
車両の少なくとも前方の窓部全体に設けられ、その窓部全域に情報を表示可能な 表示手段と、
前記状況検出手段の検出結果に基づき、車両の周囲の画像を前記表示手段に表 示するための画像データを生成する画像生成手段と、
前記画像生成手段が生成した画像データが表す画像を、前記表示手段に表示さ せる表示制御手段と、
を備えていることを特徴とする車載用画像表示装置。
[2] 請求項 1に記載の車載用画像表示装置において、
前記表示手段は、車両の内部及び外部からの光を透過させることにより、当該表示 手段を挟んで車両の内部及び外部の景色が視認可能となる窓状態と、車両の内部 及び外部からの光を遮断するとともに、前記表示制御手段により画像が表示されるよ うになる表示状態と、に切り換え可能に構成されており、
前記表示制御手段は、前記表示手段の状態を前記表示状態に切り換えた後、前 記画像生成手段が生成した画像データが表す画像をその表示手段に表示させるこ とを特徴とする車載用画像表示装置。
[3] 請求項 2に記載の車載用画像表示装置において、
前記表示手段は、車両の側面及び後方の窓部にも設けられており、各窓部におい て、表示手段の状態を前記窓状態と前記表示状態とに切り換え可能であることを特 徴とする車載用画像表示装置。
[4] 請求項 2又は請求項 3に記載の車載用画像表示装置にお 、て、
前記表示制御手段は、車両の搭乗者の入力に基づき、前記表示手段の状態を前 記窓状態と前記表示状態とに切り換えることを特徴とする車載用画像表示装置。
[5] 請求項 2又は請求項 3に記載の車載用画像表示装置において、
車両の速度、進行方向、或いは制動状態の少なくとも何れかを検出する運転状態 検出手段を備え、 前記表示制御手段は、前記運転状態検出手段の検出結果に基づき、前記表示手 段の状態を前記窓状態と前記表示状態とに切り換えることを特徴とする車載用画像 表示装置。
[6] 請求項 1ないし請求項 5の何れか 1項に記載の車載用画像表示装置において、 前記表示制御手段は、車両力 Sバックする際には、その車両における後方の周囲の 画像を、前記表示手段に表示させることを特徴とする車載用画像表示装置。
[7] 請求項 1ないし請求項 6の何れか 1項に記載の車載用画像表示装置において、 前記状況検出手段の検出結果に基づき、車両の周囲の音を出力する音出力手段 を備えて!/ヽることを特徴とする車載用画像表示装置。
[8] 請求項 1ないし請求項 7の何れか 1項に記載の車載用画像表示装置において、 前記画像生成手段が生成した画像データを記憶する記憶手段を備えていることを 特徴とする車載用画像表示装置。
[9] 請求項 1ないし請求項 8の何れか 1項に記載の車載用画像表示装置において、 前記画像生成手段は、車両の周囲の通行人或いは他の車両が前記表示手段にて 強調表示されるように画像データを生成することを特徴とする車載用画像表示装置。
[10] 請求項 1ないし請求項 9の何れか 1項に記載の車載用画像表示装置において、 前記表示手段は、車両の内側と外側とにおける両面に情報を表示可能であり、 前記表示制御手段は、前記表示手段の外側の面には、前記画像生成手段が生成 した画像データが表す画像とは異なる画像を表示させることを特徴とする車載用画 像表示装置。
[11] 請求項 1ないし請求項 10の何れか 1項に記載の車載用画像表示装置において、 記録媒体に記録された画像データを読み取る読取手段を備え、
前記表示制御手段は、前記読取手段が前記記録媒体から読み取った画像データ が表す画像を、前記表示手段に表示させることを特徴とする車載用画像表示装置。
[12] 請求項 1ないし請求項 11の何れか 1項に記載の車載用画像表示装置において、 前記状況検出手段の検出結果に基づき、車両が他の車両との衝突を回避不能か 否かを判定する衝突判定手段と、
前記衝突判定手段により、前記他の車両との衝突が回避不能と判定された場合に 、前記状況検出手段の検出結果に基づき、前記他の車両以外の静止物のうち、衝 突可能な静止物が有るか否かを判定する可能性判定手段と、
前記可能性判定手段により衝突可能な静止物が有ると判定されると、その静止物 に衝突するように車両を制御する車両制御手段と、
を備えていることを特徴とする車載用画像表示装置。
請求項 12に記載の車載用画像表示装置において、
前記車両制御手段は、車両のブレーキ、動力源の出力、及び舵角を制御すること を特徴とする車載用画像表示装置。
PCT/JP2006/315669 2005-08-19 2006-08-08 車載用画像表示装置 WO2007020840A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
US12/063,787 US7847705B2 (en) 2005-08-19 2006-08-08 In-vehicle image display apparatus
EP06782495A EP1916645A1 (en) 2005-08-19 2006-08-08 In-car image display device
US12/915,268 US8022836B2 (en) 2005-08-19 2010-10-29 In-vehicle image display apparatus
US13/205,040 US8237580B2 (en) 2005-08-19 2011-08-08 In-vehicle image display apparatus
US13/205,043 US8264367B2 (en) 2005-08-19 2011-08-08 In-vehicle image display apparatus
US13/545,265 US8446289B2 (en) 2005-08-19 2012-07-10 In-vehicle image display apparatus
US13/608,517 US8456290B2 (en) 2005-08-19 2012-09-10 In-vehicle image display apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-238746 2005-08-19
JP2005238746A JP4740689B2 (ja) 2005-08-19 2005-08-19 車載用画像表示装置及び車載用装置

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US12/063,787 A-371-Of-International US7847705B2 (en) 2005-08-19 2006-08-08 In-vehicle image display apparatus
US12/915,268 Division US8022836B2 (en) 2005-08-19 2010-10-29 In-vehicle image display apparatus
US12/915,286 Division US8478568B2 (en) 2010-10-29 2010-10-29 Prediction system and method

Publications (1)

Publication Number Publication Date
WO2007020840A1 true WO2007020840A1 (ja) 2007-02-22

Family

ID=37757502

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/315669 WO2007020840A1 (ja) 2005-08-19 2006-08-08 車載用画像表示装置

Country Status (4)

Country Link
US (6) US7847705B2 (ja)
EP (1) EP1916645A1 (ja)
JP (8) JP4740689B2 (ja)
WO (1) WO2007020840A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110834581A (zh) * 2019-11-06 2020-02-25 朱林清 基于大数据的照明灯体驱动平台
US10757375B2 (en) 2016-06-02 2020-08-25 Sony Corporation Display control device and display control method, display device, and moving body device
US20210197847A1 (en) * 2019-12-31 2021-07-01 Gm Cruise Holdings Llc Augmented reality notification system

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4740689B2 (ja) * 2005-08-19 2011-08-03 エイディシーテクノロジー株式会社 車載用画像表示装置及び車載用装置
US9134136B2 (en) * 2010-01-26 2015-09-15 Mitsubishi Electric Corporation Navigation apparatus, vehicle information display apparatus, and vehicle information display system
DE102010063567A1 (de) * 2010-12-20 2012-06-21 Bayerische Motoren Werke Aktiengesellschaft Anzeigesystem für ein Kraftfahrzeug
EP2484567B1 (en) * 2011-02-08 2017-12-27 Volvo Car Corporation An onboard perception system
DE102011106139B4 (de) 2011-06-10 2015-04-02 Wirtgen Gmbh Verfahren und Vorrichtung zum Bestimmen einer von mindestens einer Baumaschine oder Abbaumaschine mit einer Fräswalze gefrästen Fläche
GB201118623D0 (en) * 2011-10-27 2011-12-07 Land Rover Uk Ltd Wading apparatus and method
DE102012200133A1 (de) * 2012-01-05 2013-07-11 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrerinformation
DE102012212016A1 (de) 2012-07-10 2014-05-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben einer optischen Anzeigevorrichtung eines Fahrzeugs
DE102012212015A1 (de) 2012-07-10 2014-05-22 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zum Betreiben einer oder mehrerer optischer Anzeigevorrichtungen eines Fahrzeugs
DE102012106691A1 (de) * 2012-07-24 2014-01-30 Valeo Schalter Und Sensoren Gmbh Alternativer Einbau eines verdeckten Ultraschallsensors im Kraftfahrzeug
US9121146B2 (en) * 2012-10-08 2015-09-01 Wirtgen Gmbh Determining milled volume or milled area of a milled surface
US20150298548A1 (en) * 2012-11-21 2015-10-22 Clarion Co., Ltd. Information processing device and browser control method
EP2944497B1 (en) * 2013-01-11 2017-03-29 Nissan Motor Co., Ltd. Display control device for vehicle and display control method for vehicle
GB2511748B (en) * 2013-03-11 2015-08-12 Jaguar Land Rover Ltd Emergency braking system for a vehicle
JP2014187761A (ja) * 2013-03-22 2014-10-02 Tadano Ltd 作業機械の駆動状態報知装置
CN103342115A (zh) * 2013-06-14 2013-10-09 苏州旭宇升电子有限公司 一种汽车多媒体装置
CN103287348A (zh) * 2013-06-14 2013-09-11 苏州旭宇升电子有限公司 一种汽车多媒体装置
US20150009100A1 (en) * 2013-07-02 2015-01-08 Denso Corporation Projection type image display device
JP2015047885A (ja) * 2013-08-29 2015-03-16 トヨタ車体株式会社 車両搭載インタラクティブシステム
JP6399745B2 (ja) * 2013-12-06 2018-10-03 三菱電機株式会社 映像処理装置及びプログラム
US10802575B2 (en) * 2015-06-11 2020-10-13 Karma Automotive Llc Smart external display for vehicles
CN106291928A (zh) * 2015-06-24 2017-01-04 奥迪股份公司 机动车辆的投影装置和操作机动车辆的投影装置的方法
JP6828266B2 (ja) * 2016-04-18 2021-02-10 ソニー株式会社 画像表示装置及び画像表示装置、並びに移動体
WO2017208718A1 (ja) 2016-06-02 2017-12-07 ソニー株式会社 表示制御装置及び表示制御方法、表示装置、並びに移動体装置
JP6470334B2 (ja) * 2017-03-15 2019-02-13 株式会社Subaru 車両の表示システム及び車両の表示システムの制御方法
JP6554131B2 (ja) * 2017-03-15 2019-07-31 株式会社Subaru 車両の表示システム及び車両の表示システムの制御方法
JP6453929B2 (ja) * 2017-03-15 2019-01-16 株式会社Subaru 車両の表示システム及び車両の表示システムの制御方法
JP6445607B2 (ja) * 2017-03-15 2018-12-26 株式会社Subaru 車両の表示システム及び車両の表示システムの制御方法
JP6454368B2 (ja) * 2017-03-15 2019-01-16 株式会社Subaru 車両の表示システム及び車両の表示システムの制御方法
JP6525345B2 (ja) 2017-03-15 2019-06-05 株式会社Subaru 車両の表示システム及び車両の表示システムの制御方法
WO2018213953A1 (zh) * 2017-05-21 2018-11-29 李仁涛 无人驾驶汽车避障装置及方法
DE102017221488A1 (de) * 2017-11-30 2019-06-06 Volkswagen Aktiengesellschaft Verfahren zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
GB2582484B (en) * 2017-12-01 2022-11-16 Onesubsea Ip Uk Ltd Systems and methods of pilot assist for subsea vehicles
WO2020013519A1 (en) 2018-07-10 2020-01-16 Samsung Electronics Co., Ltd. Method and system of displaying multimedia content on glass window of vehicle
JP7209517B2 (ja) * 2018-11-30 2023-01-20 日産自動車株式会社 移動体の視界制御方法及び移動体の視界制御装置
JP2020124950A (ja) * 2019-02-01 2020-08-20 トヨタ自動車株式会社 車両用表示装置
DE102019104850A1 (de) 2019-02-26 2020-08-27 Wirtgen Gmbh Fertiger
US20220080826A1 (en) * 2019-03-14 2022-03-17 Sony Group Corporation Information processing apparatus, information processing method, and mobile body apparatus
KR20230028852A (ko) * 2021-08-23 2023-03-03 현대자동차주식회사 모빌리티 배차 시스템 및 방법

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106981A (ja) * 1994-09-30 1996-04-23 Fujikura Ltd ハザード表示装置
JPH09292245A (ja) * 1996-04-30 1997-11-11 Sumitomo Electric Ind Ltd 走行記録装置およびナビゲーション装置
JPH1049800A (ja) * 1996-08-06 1998-02-20 Calsonic Corp 自動車用視認装置
JP2000203309A (ja) * 1999-01-14 2000-07-25 Denso Corp 車両用ヘッドアップディスプレイ及び表示システム
JP2002014633A (ja) * 2000-06-29 2002-01-18 Minolta Co Ltd 表示素子及び表示装置
JP2002019491A (ja) * 2000-07-11 2002-01-23 Mazda Motor Corp 車両の表示装置
JP2002107154A (ja) * 2000-09-27 2002-04-10 Honda Motor Co Ltd 車載用表示装置
JP2003291688A (ja) * 2002-04-03 2003-10-15 Denso Corp 表示方法、運転支援装置、プログラム
JP2004064131A (ja) * 2002-07-24 2004-02-26 Honda Motor Co Ltd 車両用表示装置
JP2004217188A (ja) * 2003-01-17 2004-08-05 Matsushita Electric Ind Co Ltd 車載表示装置および表示方法
JP2004354792A (ja) * 2003-05-30 2004-12-16 Semiconductor Energy Lab Co Ltd 車両用表示装置
JP2005106651A (ja) * 2003-09-30 2005-04-21 Mazda Motor Corp 車両用情報提供装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2763685B2 (ja) * 1991-02-28 1998-06-11 株式会社ケンウッド 緊急車両位置表示装置
GB9121707D0 (en) * 1991-10-12 1991-11-27 British Aerospace Improvements in computer-generated imagery
US5707237A (en) * 1993-04-20 1998-01-13 Kabushiki Kaisha Ace Denken Driving simulation system
JP3559083B2 (ja) 1994-12-26 2004-08-25 本田技研工業株式会社 運転支援装置
JPH0971198A (ja) * 1995-09-06 1997-03-18 Mazda Motor Corp 障害物確認装置
JPH1116099A (ja) * 1997-06-27 1999-01-22 Hitachi Ltd 自動車走行支援装置
JPH1186192A (ja) * 1997-09-05 1999-03-30 Omron Corp 車輌情報提供システム
JP3879958B2 (ja) 1999-01-26 2007-02-14 マツダ株式会社 車両の周囲情報報知装置
JP3658519B2 (ja) * 1999-06-28 2005-06-08 株式会社日立製作所 自動車の制御システムおよび自動車の制御装置
JP4334686B2 (ja) * 1999-07-07 2009-09-30 本田技研工業株式会社 車両の画像表示装置
JP4113313B2 (ja) * 1999-10-18 2008-07-09 松下電工株式会社 車両用障害物警報装置
JP2001199296A (ja) * 2000-01-17 2001-07-24 Matsushita Electric Ind Co Ltd 警報装置、振動体を有する運転座席、警報装置を車両に搭載した移動体
JP4081958B2 (ja) * 2000-03-29 2008-04-30 松下電工株式会社 車両用障害物検知装置
JP2002131417A (ja) * 2000-10-25 2002-05-09 Matsushita Electric Works Ltd 障害物検知装置
JP2002329202A (ja) 2001-04-27 2002-11-15 Nippon Seiki Co Ltd 物体検出装置
JP2003004521A (ja) * 2001-06-27 2003-01-08 Kenwood Corp 車外音の識別装置
JP2003241642A (ja) * 2002-02-21 2003-08-29 Bosutooku Kk シミュレーションライド装置
JP4019736B2 (ja) * 2002-02-26 2007-12-12 トヨタ自動車株式会社 車両用障害物検出装置
JP2004020223A (ja) 2002-06-12 2004-01-22 Nippon Telegr & Teleph Corp <Ntt> 車載用画像表示装置および車載用画像表示方法
JP2004093167A (ja) * 2002-08-29 2004-03-25 Nippon Seiki Co Ltd 物体検出装置
JP3984897B2 (ja) * 2002-09-18 2007-10-03 トヨタ自動車株式会社 車両用障害物検知装置
JP2004210213A (ja) * 2003-01-08 2004-07-29 Toyota Central Res & Dev Lab Inc 情報提供装置
JP4414175B2 (ja) * 2003-09-09 2010-02-10 富士重工業株式会社 情報提供システムおよび情報提供方法
JP2005122371A (ja) * 2003-10-15 2005-05-12 Nissan Motor Co Ltd バーチャルカーブミラー表示装置
JP4228212B2 (ja) * 2003-10-17 2009-02-25 三菱自動車工業株式会社 ノーズビューモニタ装置
JP4462895B2 (ja) * 2003-10-24 2010-05-12 アルパイン株式会社 車載用物体認識システムおよびこれを用いた運転支援システム
JP4335651B2 (ja) * 2003-12-03 2009-09-30 富士通テン株式会社 周辺監視装置
JP4740689B2 (ja) * 2005-08-19 2011-08-03 エイディシーテクノロジー株式会社 車載用画像表示装置及び車載用装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106981A (ja) * 1994-09-30 1996-04-23 Fujikura Ltd ハザード表示装置
JPH09292245A (ja) * 1996-04-30 1997-11-11 Sumitomo Electric Ind Ltd 走行記録装置およびナビゲーション装置
JPH1049800A (ja) * 1996-08-06 1998-02-20 Calsonic Corp 自動車用視認装置
JP2000203309A (ja) * 1999-01-14 2000-07-25 Denso Corp 車両用ヘッドアップディスプレイ及び表示システム
JP2002014633A (ja) * 2000-06-29 2002-01-18 Minolta Co Ltd 表示素子及び表示装置
JP2002019491A (ja) * 2000-07-11 2002-01-23 Mazda Motor Corp 車両の表示装置
JP2002107154A (ja) * 2000-09-27 2002-04-10 Honda Motor Co Ltd 車載用表示装置
JP2003291688A (ja) * 2002-04-03 2003-10-15 Denso Corp 表示方法、運転支援装置、プログラム
JP2004064131A (ja) * 2002-07-24 2004-02-26 Honda Motor Co Ltd 車両用表示装置
JP2004217188A (ja) * 2003-01-17 2004-08-05 Matsushita Electric Ind Co Ltd 車載表示装置および表示方法
JP2004354792A (ja) * 2003-05-30 2004-12-16 Semiconductor Energy Lab Co Ltd 車両用表示装置
JP2005106651A (ja) * 2003-09-30 2005-04-21 Mazda Motor Corp 車両用情報提供装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10757375B2 (en) 2016-06-02 2020-08-25 Sony Corporation Display control device and display control method, display device, and moving body device
US11451749B2 (en) 2016-06-02 2022-09-20 Sony Corporation Display control device and display control method, display device, and moving body device
CN110834581A (zh) * 2019-11-06 2020-02-25 朱林清 基于大数据的照明灯体驱动平台
US20210197847A1 (en) * 2019-12-31 2021-07-01 Gm Cruise Holdings Llc Augmented reality notification system
US11760370B2 (en) * 2019-12-31 2023-09-19 Gm Cruise Holdings Llc Augmented reality notification system

Also Published As

Publication number Publication date
JP4933669B2 (ja) 2012-05-16
US20130002412A1 (en) 2013-01-03
JP2011076630A (ja) 2011-04-14
US8264367B2 (en) 2012-09-11
US20110046850A1 (en) 2011-02-24
US20120296524A1 (en) 2012-11-22
JP2011233173A (ja) 2011-11-17
US20110291917A1 (en) 2011-12-01
JP2011076631A (ja) 2011-04-14
JP4740689B2 (ja) 2011-08-03
JP2011181110A (ja) 2011-09-15
US8456290B2 (en) 2013-06-04
JP4933658B2 (ja) 2012-05-16
US8022836B2 (en) 2011-09-20
JP2007052719A (ja) 2007-03-01
JP5019491B2 (ja) 2012-09-05
US8237580B2 (en) 2012-08-07
JP5406321B2 (ja) 2014-02-05
EP1916645A1 (en) 2008-04-30
JP2012185832A (ja) 2012-09-27
US20110291824A1 (en) 2011-12-01
JP2012144252A (ja) 2012-08-02
JP4933659B2 (ja) 2012-05-16
US7847705B2 (en) 2010-12-07
JP2010225165A (ja) 2010-10-07
US8446289B2 (en) 2013-05-21
US20090261957A1 (en) 2009-10-22

Similar Documents

Publication Publication Date Title
JP4933658B2 (ja) 車載用画像表示装置
JP2007052719A5 (ja)
US10137907B2 (en) Startup suggestion device and startup suggestion method
KR102124804B1 (ko) 자율주행 차량의 제어 장치 및 그 장치의 제어방법
JP2018198071A (ja) 車載用画像表示装置
JP2010183170A (ja) 車両用表示装置
JP5708669B2 (ja) 車両用表示装置
JP2017076431A (ja) 車両制御装置
JP6372556B2 (ja) 車載用画像表示装置
JP2014078271A (ja) 車載用画像表示装置
JP2016064829A (ja) 車両制御装置
JP6105513B2 (ja) 車両制御装置、及び車載用画像表示装置
JP7236656B2 (ja) 衝突軽減装置及び車両
JP7308465B2 (ja) 車載用画像表示装置及び車両
WO2023176737A1 (ja) 表示制御装置、表示制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 12063787

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2006782495

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE