WO2017138148A1 - 情報表示装置及び情報表示方法 - Google Patents

情報表示装置及び情報表示方法 Download PDF

Info

Publication number
WO2017138148A1
WO2017138148A1 PCT/JP2016/054139 JP2016054139W WO2017138148A1 WO 2017138148 A1 WO2017138148 A1 WO 2017138148A1 JP 2016054139 W JP2016054139 W JP 2016054139W WO 2017138148 A1 WO2017138148 A1 WO 2017138148A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
vehicle
unit
display
display data
Prior art date
Application number
PCT/JP2016/054139
Other languages
English (en)
French (fr)
Inventor
礼子 坂田
晶子 今石
新作 福▲高▼
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2016/054139 priority Critical patent/WO2017138148A1/ja
Priority to CN201680081241.0A priority patent/CN108604412B/zh
Priority to JP2017566489A priority patent/JP6351888B2/ja
Priority to DE112016006199.4T priority patent/DE112016006199B4/de
Priority to US16/071,868 priority patent/US10696216B2/en
Publication of WO2017138148A1 publication Critical patent/WO2017138148A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/543Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for indicating other states or conditions of the vehicle
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0816Indicating performance data, e.g. occurrence of a malfunction
    • G07C5/0825Indicating performance data, e.g. occurrence of a malfunction using optical means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/54Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for indicating speed outside of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body

Definitions

  • the present invention relates to an information display device and an information display method for displaying information on the outside of a vehicle.
  • Patent Document 1 discloses an information display device that displays information on the outside of a vehicle.
  • This information display device is provided with projection means for projecting information such as the speed of the vehicle onto the road.
  • the information display device includes a failure detection unit that detects an element that becomes an obstacle to the projection of the information. The projection position of information is changed.
  • the conventional information display apparatus is configured as described above, it is possible to project information at a position that does not hinder information projection.
  • a position that does not hinder information projection is not always a position where information can be easily seen by passengers or pedestrians of other vehicles.
  • the information projection method is not switched depending on the presence or absence of an obstacle element. For this reason, there was a problem that information could not be transmitted correctly.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to provide an information display device and an information display method capable of increasing the degree of information transmission.
  • An information display device includes a vehicle state determination unit that determines a vehicle state, a display data output unit that outputs display data for displaying information indicating the vehicle state determined by the vehicle state determination unit, and An information display for determining the information display time from the vehicle state determined by the vehicle state determination unit and displaying the information toward the outside of the vehicle according to the display data output from the display data output unit during the display time
  • the information display section switches the information display method according to the display time.
  • the information display unit is configured to switch the information display method according to the display time, there is an effect that the degree of information transmission can be increased.
  • FIG. 2 is a hardware configuration diagram of a computer when an information display device is realized by software, firmware, or the like.
  • It is a flowchart which shows the information display method which is a process sequence of the information display apparatus by Embodiment 1 of this invention.
  • It is a table figure which shows an example of the correspondence of the state of the own vehicle, the information presentation partner, and the display time of information. It is explanatory drawing which shows the example of a display of the information by the information display process part.
  • FIG. 1 is a block diagram showing an information display device according to Embodiment 1 of the present invention
  • FIG. 2 is a hardware block diagram of the information display device according to Embodiment 1 of the present invention
  • the vehicle state determination unit 1 includes a vehicle information acquisition unit 2 and a vehicle state determination processing unit 3, and performs a process of determining the state of the vehicle.
  • the vehicle information acquisition unit 2 is realized by a vehicle information acquisition circuit 21 including an interface device for an in-vehicle network such as a CAN (Controller Area Network), for example, and receives vehicle information indicating the state of the vehicle from the in-vehicle device through the in-vehicle network. Perform the process to obtain.
  • CAN Controller Area Network
  • Vehicle information includes, for example, CAN data including operation information such as turn signals, steering wheels, accelerators, brakes, and shift levers, information output from a car navigation device, and information output from a contact sensor mounted on the vehicle. Etc. are considered.
  • operation information such as turn signals, steering wheels, accelerators, brakes, and shift levers
  • information output from a car navigation device position information indicating the position of the vehicle, map information, route guidance information indicating the route to the destination of the vehicle, and the like can be considered.
  • information output from the contact sensor for example, operation detection information when an operation within the range of play is performed on the steering wheel, the accelerator, or the brake can be considered.
  • the vehicle state determination processing unit 3 is realized by, for example, the vehicle state determination processing circuit 22 in FIG. 2, and performs a process of determining the state of the vehicle from the vehicle information acquired by the vehicle information acquisition unit 2.
  • the presentation partner determination unit 4 includes a camera 5 and a presentation partner recognition unit 6 and performs a process of determining the information presentation partner.
  • the camera 5 is attached to the host vehicle, shoots the surroundings of the host vehicle, and outputs video data indicating images around the host vehicle to the presentation partner recognition unit 6.
  • the presentation partner recognition unit 6 is realized by, for example, the presentation partner recognition processing circuit 23 of FIG. 2, and by executing a known object recognition processing algorithm, from the video data output from the camera 5,
  • determines the object which exists in is implemented. That is, the process of recognizing the information presentation partner is performed by detecting an object existing around the host vehicle and determining the type of the object.
  • the display data output unit 7 includes a display data storage unit 8 and a display data selection unit 9, and performs a process of outputting display data for displaying information indicating the vehicle state determined by the vehicle state determination processing unit 3. carry out.
  • the display data storage unit 8 is realized by, for example, the display data storage processing circuit 24 of FIG. 2, and stores display data for displaying information to be presented outside the vehicle for each vehicle state.
  • the display data stored in the display data storage unit 8 is, for example, animation display data including information to be presented outside the vehicle.
  • the display data selection unit 9 is realized by the display data selection processing circuit 25 of FIG. 2 and is discriminated by the vehicle state discrimination processing unit 3 from a plurality of display data stored in the display data storage unit 8. The display data corresponding to the state of the selected vehicle is selected.
  • the information display unit 10 includes a display time determination unit 11 and an information display processing unit 12, and from the vehicle state determined by the vehicle state determination processing unit 3 and the presentation partner recognized by the presentation partner recognition unit 6, The display time of information is determined, and during the determined display time, processing for displaying the information toward the outside of the vehicle is performed according to the display data output from the display data output unit 7.
  • the display time determination unit 11 is realized by, for example, the display time determination processing circuit 26 in FIG. 2, and the vehicle state determined by the vehicle state determination processing unit 3 and the presentation partner recognized by the presentation partner recognition unit 6. Then, a process for determining the display time of information is performed.
  • the information display processing unit 12 is realized by, for example, the information display processing circuit 27 of FIG. 2, and the vehicle according to the display data output from the display data output unit 7 during the display time determined by the display time determination unit 11.
  • the information display processing unit 12 indicates the state of the vehicle by irradiating, for example, laser light or LED (Light Emitting Diode) light on the projection surface outside the vehicle according to the display data output from the display data output unit 7.
  • It has the light irradiation part 12a which displays information on a projection surface.
  • the light irradiation unit 12a switches the projection plane according to the display time determined by the display time determination unit 11.
  • the light projection surface may be a road surface around the vehicle, a vehicle body, a vehicle window, or the like, and the vehicle body or window is included in a projection surface outside the vehicle.
  • each of the display time determination unit 11 and the information display processing unit 12 includes dedicated hardware as shown in FIG. 2, that is, a vehicle information acquisition circuit 21, a vehicle state determination processing circuit 22, a presentation partner recognition processing circuit 23, A display data storage processing circuit 24, a display data selection processing circuit 25, a display time determination processing circuit 26, and an information display processing circuit 27 are assumed.
  • the display data storage processing circuit 24 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Emmable Memory), or the like.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory an EPROM (Erasable Programmable Read Only Memory)
  • EEPROM Electrically Emmable Memory
  • Non-volatile or volatile semiconductor memories magnetic disks, flexible disks, optical disks, compact disks, mini disks, DVDs (Digital Versatile Discs), and the like are applicable.
  • the vehicle information acquisition circuit 21, the vehicle state determination processing circuit 22, the presentation partner recognition processing circuit 23, the display data selection processing circuit 25, the display time determination processing circuit 26, and the information display processing circuit 27 are, for example, a single circuit, a composite A circuit, a programmed processor, a processor programmed in parallel, an application specific integrated circuit (ASIC), a field-programmable gate array (FPGA), or a combination thereof is applicable.
  • ASIC application specific integrated circuit
  • FPGA field-programmable gate array
  • the constituent elements of the information display device are not limited to those realized by dedicated hardware, and the information display device may be realized by software, firmware, or a combination of software and firmware.
  • Software and firmware are stored as programs in the memory of the computer.
  • the computer means hardware that executes a program, and includes, for example, a CPU (Central Processing Unit), a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, a DSP (Digital Signal Processor), and the like.
  • FIG. 3 is a hardware configuration diagram of a computer when the information display device is realized by software, firmware, or the like.
  • FIG. 4 is a flowchart showing an information display method which is a processing procedure of the information display apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 shows an example in which each component of the information display device is realized by dedicated hardware
  • FIG. 3 shows an example in which the information display device is realized by software, firmware, etc.
  • Some components in the display device may be realized by dedicated hardware, and the remaining components may be realized by software, firmware, or the like.
  • the vehicle information acquisition unit 2, the camera 5, and the information display processing unit 12 are realized by dedicated hardware
  • the display time determination unit 11 can be realized by software, firmware, or the like.
  • the combination of dedicated hardware and software is arbitrary.
  • the vehicle information acquisition unit 2 of the vehicle state determination unit 1 acquires vehicle information indicating the state of the vehicle from the in-vehicle device through the in-vehicle network, and outputs the vehicle information to the vehicle state determination processing unit 3 (step ST1 in FIG. 4). ).
  • vehicle information the information output from a car navigation apparatus, the information output from the contact sensor mounted in the vehicle, etc. other than CAN data shall be acquired, for example.
  • the vehicle state determination processing unit 3 determines the state of the vehicle from the vehicle information (step ST2).
  • the state of the vehicle for example, the traveling speed of the vehicle, whether the traveling direction of the vehicle is curved, or the like can be considered.
  • the traveling speed of the vehicle can be determined from the speed information of the vehicle included in the CAN data. Further, whether or not the traveling direction of the vehicle is curved can be determined from the steering wheel operation information included in the CAN data.
  • an example of determining whether the vehicle traveling speed and the traveling direction of the vehicle are curved is shown as the vehicle state, but this is merely an example, and the state of another vehicle is determined. Needless to say.
  • the camera 5 of the presentation partner determination unit 4 captures the surroundings of the host vehicle, and outputs video data indicating a video around the host vehicle to the presentation partner recognition unit 6.
  • the presentation partner recognition unit 6 executes a known object recognition processing algorithm to determine objects existing around the host vehicle from the video data output from the camera 5. That is, the presentation partner recognizing unit 6 recognizes the information presentation partner by detecting an object existing around the host vehicle and determining the type of the object (step ST3).
  • the presentation partner recognizing unit 6 stores in advance, for example, images of four-wheeled vehicles such as ordinary passenger cars, trucks, and buses, images of two-wheeled vehicles such as bicycles and motorcycles, images of pedestrians, and the like as reference images.
  • the presentation partner recognition unit 6 performs a process of cutting out an object image from the image indicated by the image data output from the camera 5, and the extracted object image and a plurality of reference images stored in advance. And match.
  • the presentation partner recognizing unit 6 identifies a reference image having the highest degree of similarity between the clipped object image and the feature point from among the plurality of reference images, and the subject of the identified reference image presents information. Recognize it as an opponent. For example, if the subject of the identified reference image is a track, the information presentation partner is recognized as a truck, and if the subject of the identified reference image is a bicycle, the information presentation partner is recognized as a bicycle. If the subject of the identified reference image is a pedestrian, the information presentation partner is recognized as a pedestrian.
  • the display data storage unit 8 of the display data output unit 7 stores display data for displaying information to be presented to the outside of the vehicle for each vehicle state.
  • This display data is, for example, animation display data including information to be presented outside the vehicle.
  • the animation display data is, for example, data of a moving image pattern in which the directionality of the traveling direction is transmitted, such as a pattern complying with general road regulations and an arrow.
  • information to be presented outside the vehicle for example, information indicating the traveling direction of the vehicle, the traveling mode of the vehicle, and the like can be considered, but any information may be used as long as the information contributes to traveling safety.
  • the driving mode of the vehicle manual driving, automatic driving, platooning, etc. can be considered.
  • the display data selection unit 9 of the display data output unit 7 displays display data corresponding to the vehicle state determined by the vehicle state determination processing unit 3 from the plurality of display data stored in the display data storage unit 8.
  • the selected display data is output to the information display processing section 12 of the information display section 10 (step ST4).
  • the display time determination unit 11 of the information display unit 10 holds a table as shown in FIG. FIG. 5 is a table showing an example of the correspondence relationship between the state of the host vehicle and the information presentation partner and the information display time.
  • the case where the information display time is “short” corresponds to the case where the time that information can be confirmed by the information presentation partner (hereinafter referred to as “confirmable time”) is short.
  • the display time of “long” is “long”, this corresponds to the case where the checkable time at the information presentation partner is long. For example, when the speed of the host vehicle is high, the time for which the host vehicle passes is short, and thus it is considered that the checkable time at the information presentation partner is shortened.
  • the display time determination unit 11 refers to the table in FIG.
  • step ST5 calculates the information display time from the vehicle state determined by the vehicle state determination processing unit 3 and the presentation partner recognized by the presentation partner recognition unit 6. Determine (step ST5 in FIG. 4).
  • display time determination processing by the display time determination unit 11 will be specifically described.
  • Display time determination unit 11 stores the initial value T 0 of the display time information.
  • the display time determination unit 11 stores a coefficient a that shortens the information display time and a coefficient b that extends the information display time.
  • the coefficient a is a numerical value greater than or equal to 0 and less than 1
  • the coefficient b is a numerical value greater than 1.
  • the coefficients corresponding to the state of the host vehicle are identified as a 1 and b 1
  • the coefficients corresponding to the information presentation partner are a 2 and b 2 .
  • the information display time is “short”, and if the speed of the own vehicle is less than 40 km / h during straight traveling, Since the information display time is indicated as “long”, for example, when the vehicle state determined by the vehicle state determination processing unit 3 is traveling straight ahead and the traveling speed is 40 km / h or more, employing the coefficients a 1, a state of the vehicle is determined by the vehicle state determination processing unit 3, running straight, running speed, is less than 40 km / h, employing the coefficients b 1.
  • the coefficient a 1 nor the coefficient b 1 is employed.
  • the information presentation partner is a truck, the information display time is “short”, and if the information presentation partner is a pedestrian or a motorcycle, the information display time is “long”. since there is shown, for example, if the presentation partner tracks that are recognized by the presentation partner recognition section 6 employs the coefficients a 2, is recognized presented party by presenting mating recognition unit 6 pedestrian or motorcycle if so, to adopt the coefficient b 2.
  • the display time determination unit 11 determines the information display time T using the initial value T 0 of the information display time and the adopted coefficient, as shown in the following equations (1) to (9).
  • T T 0 ⁇ a 1 ⁇ a 2 (1)
  • T T 0 ⁇ a 1 ⁇ b 2 (2)
  • T T 0 ⁇ a 1 ⁇ c 2 (3)
  • T T 0 ⁇ b 1 ⁇ a 2 (4)
  • T T 0 ⁇ b 1 ⁇ c 2 (6)
  • T T 0 ⁇ b 1 ⁇ c 2 (6)
  • T T 0 ⁇ c 1 ⁇ a 2 (7)
  • the information display processing unit 12 of the information display unit 10 is connected to the outside of the vehicle according to the display data output from the display data output unit 7 during the display time T.
  • Information is displayed toward (step ST6 in FIG. 4). That is, the light irradiation unit 12a of the information display processing unit 12 irradiates, for example, laser light or LED light on the projection surface outside the vehicle according to the display data output from the display data output unit 7 during the display time T.
  • the light irradiation unit 12 a switches the projection surface according to the display time T determined by the display time determination unit 11.
  • an example of switching the display method by switching the projection surface by the light irradiation unit 12a will be specifically described. It is merely an example, and the display method may be switched by another method.
  • the information display processing unit 12 compares the threshold values Th 1 and Th 2 (where Th 1 ⁇ Th 2 ) set in advance with the display time T determined by the display time determination unit 11 to display the information. If time T is the threshold value Th 2 or more (in the case of T ⁇ Th 2), as the projection surface of the information, select the road surface around the vehicle, the light irradiation unit 12a irradiates light to the road surface around the vehicle .
  • the information display processing unit 12 has a display time T that is equal to or greater than the threshold Th 1 but is less than the threshold Th 2 (when Th 1 ⁇ T ⁇ Th 2 ), and is a vehicle that is easier to see than the road surface as an information projection surface.
  • the light irradiation unit 12a irradiates the vehicle body with light. If the display time T is less than the threshold Th 1 (when T ⁇ Th 1 ), the information display processing unit 12 selects a vehicle window that is easier to see than the vehicle body as the information projection surface, and the light irradiation unit 12a irradiates the vehicle window with light.
  • FIG. 6 shows an example in which the speed of the host vehicle is high and the speed of the host vehicle is slow, and the irradiation position is switched according to the speed of the host vehicle. That is, the light irradiation unit 12a of the information display processing unit 12 irradiates light on the road surface far from the own vehicle if the speed of the own vehicle is high, and if the speed of the own vehicle is delayed, Light is shining on the road surface.
  • FIG. 6 shows an example in which the speed of the host vehicle is high and the speed of the host vehicle is slow, and the irradiation position is switched according to the speed of the host vehicle. That is, the light irradiation unit 12a of the information display processing unit 12 irradiates light on the road surface far from the own vehicle if the speed of the own vehicle is high, and if the speed of the own vehicle is delayed, Light is shining on the road surface.
  • the light irradiation unit 12a of the information display processing unit 12 irradiates light on the road surface behind the host vehicle when the road is a straight line, and emits light on the road surface in a direction corresponding to the curve of the road when the road is a curve.
  • the light is radiated on the road surface where the information presentation partner can be seen.
  • the information display processing unit 12 slows down the speed of the animation that is the information to be presented, but the information display time T is the initial value T 0. If it is less, the speed of the animation is increased, the display area of the animation is enlarged, the blinking or the color is darkened, and the display is changed so that the information presentation partner can more easily check.
  • the vehicle state determination unit 1 that determines the state of the vehicle, and the display for displaying the information indicating the vehicle state determined by the vehicle state determination unit 1
  • a display time of information is determined from the display data output unit 7 for outputting data and the vehicle state determined by the vehicle state determination unit 1, and the display data output from the display data output unit 7 is displayed during the display time.
  • the information display unit 10 displays information toward the outside of the vehicle, and the information display unit 10 is configured to switch the information display method according to the display time, so the degree of information transmission can be increased. There is an effect.
  • the presentation partner discriminating unit 4 that discriminates the presentation partner of information is provided, and the information display unit 10 determines the vehicle state determined by the vehicle state determining unit 1 and the presentation partner determining unit. Since the display time of information is determined from the presentation partner determined by 4, there is an effect that the display time of information according to the information presentation partner can be determined.
  • the presentation partner recognition part 6 has shown the example which may recognize a pedestrian as a presentation partner of information
  • the pedestrian's approximate height is shown from the video data output from the camera 5. You may make it measure and determine whether the height of the pedestrian is more than a reference value. Since the process of measuring the approximate height of the pedestrian from the video data is a known technique, detailed description thereof is omitted. As the reference value, for example, 125 cm can be considered. In this case, in the table held in the display time determination unit 11, for example, if the height of the pedestrian is equal to or greater than the reference value, the information display time is “long” and the height of the pedestrian is less than the reference value. For example, it is indicated that the information display time is “short”.
  • the line of sight of the pedestrian may be detected from the video data output from the camera 5, and it may be determined whether or not the line of sight of the pedestrian is facing the direction of the host vehicle. Moreover, you may make it determine from the video data output from the camera 5 whether the pedestrian is operating a mobile telephone, a smart phone, etc. Since these determination techniques are also known techniques, a detailed description thereof will be omitted.
  • the table held in the display time determination unit 11 displays information when, for example, the pedestrian's line of sight is not facing the direction of the host vehicle, or when the pedestrian is operating a mobile phone or a smartphone. If the time is “short” and the pedestrian ’s line of sight is facing the vehicle, or if the pedestrian is not operating a mobile phone or smartphone, the information display time is “long”. It is.
  • the light irradiation part 12a of the information display process part 12 showed what irradiates a laser beam or LED light to a projection surface
  • the display time determination unit 11 determines the information display time T from the vehicle state determined by the vehicle state determination processing unit 3 and the presentation partner recognized by the presentation partner recognition unit 6.
  • the information display time T may be determined from the relative state between the host vehicle and the presentation partner.
  • FIG. 8 is a block diagram showing an information display apparatus according to Embodiment 2 of the present invention
  • FIG. 9 is a hardware block diagram of the information display apparatus according to Embodiment 2 of the present invention.
  • the relative state detection unit 13 includes, for example, a camera 5, a presentation partner recognition unit 6, a laser beam transmitter / receiver 14, and a relative state detection processing unit 15, and performs a process of detecting a relative state between the vehicle and the information presentation partner. To do.
  • the laser beam transmitter / receiver 14 transmits the laser beam toward the information presentation partner, and then receives the laser beam reflected back by the information presentation partner.
  • the relative state detection processing unit 15 is realized by, for example, a semiconductor integrated circuit on which a CPU is mounted, or a relative state detection processing circuit 28 of FIG.
  • the relative state detection processing unit 15 performs a process of detecting the traveling direction of the presentation partner from the video of the presentation partner cut out by the presentation partner recognition unit 6 as the relative state between the host vehicle and the information presentation partner. Further, the relative state detection processing unit 15 determines the relative state between the host vehicle and the presentation partner from the time from when the laser beam is transmitted from the laser beam transmitter / receiver 14 to when the laser beam is received by the laser beam transmitter / receiver 14. Then, a process of calculating the relative speed between the vehicle and the information presentation partner is performed.
  • the display time determination unit 16 is realized by, for example, the display time determination processing circuit 26 in FIG. 9, and, similar to the display time determination unit 11 in FIG. 1, the vehicle state determined by the vehicle state determination processing unit 3 Then, a process for determining a display time of information from the presentation partner recognized by the presentation partner recognition unit 6 is performed. However, unlike the display time determination unit 11 in FIG. 1, the display time determination unit 16 determines the information display time in consideration of the relative state detected by the relative state detection processing unit 15.
  • the vehicle information acquisition unit 2, the vehicle state determination processing unit 3, the presentation partner recognition unit 6, and the relative state detection processing which are the configuration elements of the information display device, excluding the camera 5 and the laser beam transmitter / receiver 14.
  • Each of the unit 15, the display data storage unit 8, the display data selection unit 9, the display time determination unit 16, and the information display processing unit 12 includes dedicated hardware as shown in FIG. 9, that is, a vehicle information acquisition circuit 21, a vehicle It is realized by the state determination processing circuit 22, the presentation partner recognition processing circuit 23, the relative state detection processing circuit 28, the display data storage processing circuit 24, the display data selection processing circuit 25, the display time determination processing circuit 26, and the information display processing circuit 27. Assumes something.
  • the constituent elements of the information display device are not limited to those realized by dedicated hardware, and the information display device may be realized by software, firmware, or a combination of software and firmware.
  • the display data storage unit 8 is configured on the memory 41 of the computer shown in FIG. 3, and the vehicle information acquisition unit 2, the vehicle state determination processing unit 3, and the presentation partner recognition
  • the program for causing the computer to execute the processing procedures of the unit 6, the relative state detection processing unit 15, the display data selection unit 9, the display time determination unit 16, and the information display processing unit 12 is stored in the memory 41, and the processor 42 of the computer A program stored in the memory 41 may be executed.
  • the laser beam transmitter / receiver 14 of the relative state detection unit 13 transmits the laser beam toward the information presentation partner, and then receives the laser beam reflected back by the information presentation partner.
  • the laser beam transmitter / receiver 14 transmits / receives laser beam
  • the laser beam transmitter / receiver 14 is not limited to laser beam, and for example, infrared beam may be transmitted / received.
  • the relative state detection processing unit 15 of the relative state detection unit 13 causes the host vehicle when the presentation partner recognition unit 6 cuts out the video of the information presentation partner from the video data output from the camera 5 as in the first embodiment.
  • the traveling direction of the presentation partner is detected from the video of the presentation partner. That is, the relative state detection processing unit 15 determines whether the information presentation partner and the host vehicle are traveling in the same direction or traveling in the opposite direction. Since the process of detecting the traveling direction of the presentation partner is a known technique, a detailed description thereof will be omitted. However, if the video of the presentation partner is a video in front of the vehicle, it is determined that the vehicle is traveling in the reverse direction. If the presentation partner's video is a video behind the vehicle, it can be determined that the vehicle is traveling in the same direction.
  • the relative state detection processing unit 15 is a time from when the laser light is transmitted from the laser beam transmitter / receiver 14 until the laser beam is received by the laser beam transmitter / receiver 14 as a relative state between the own vehicle and the presentation partner. From the above, the relative speed between the host vehicle and the information presentation partner is calculated. Since the speed of the laser beam is known, the relative speed between the host vehicle and the information presentation partner can be calculated from the time difference between the transmission time and the reception time of the laser beam.
  • the display time determination unit 16 of the information display unit 10 holds a table as shown in FIG. 10 in addition to the table shown in FIG. FIG. 10 is a table showing an example of the correspondence between the relative state of the host vehicle and the presentation partner and the information display time. For example, when the information presentation partner and the host vehicle are traveling in the opposite direction, the time required for the information presentation partner to be shortened because the time required for the host vehicle to pass is short. On the other hand, when the information presenting partner and the host vehicle are traveling in the same direction, the time required for the information presenting partner is considered to be longer because the time required for the host vehicle to pass is long.
  • the correspondence shown in the table of FIG. 10 is merely an example, and other correspondence may be used.
  • the display time determination unit 16 obtains information from the vehicle state determined by the vehicle state determination processing unit 3 and the presentation partner recognized by the presentation partner recognition unit 6.
  • the display time T is determined.
  • the relative state detected by the relative state detection processing unit 15 is considered unlike the display time determination unit 11 of FIG.
  • an example of display time determination processing by the display time determination unit 16 will be specifically described.
  • the display time determination unit 16 first determines the vehicle state determined by the vehicle state determination processing unit 3 and the presentation partner recognized by the presentation partner recognition unit 6 in the same manner as the display time determination unit 11 of FIG. The display time T of information is determined. Thereafter, the display time determination unit 16 corrects the determined display time T according to the relative state detected by the relative state detection processing unit 15. Specifically, it is as follows.
  • the display time determination unit 16 stores a coefficient d for shortening the information display time and a coefficient e for extending the information display time.
  • the coefficient d is a numerical value greater than or equal to 0 and less than 1
  • the coefficient e is a numerical value greater than 1.
  • the coefficients relating to the traveling direction of the host vehicle and the presentation partner are d 1 and e 1
  • the coefficients relating to the relative speed between the host vehicle and the presentation partner are d 2 and d 2 .
  • the table of FIG. 10 indicates that the information display time is “short” if the traveling direction of the host vehicle and the presentation partner is opposite, and the information display time is “long” if the traveling direction is the same. because it is, if the detected traveling direction opposite direction by the relative state detection processing unit 15, employs a coefficient d 1, the traveling direction detected by the relative state detection processing unit 15 is equal in the same direction, The coefficient e 1 is adopted.
  • the relative speed between the host vehicle and the information presentation partner is 5 km / h or more
  • the information display time is “short”
  • the relative speed between the host vehicle and the information presentation partner is 5 km / h.
  • the coefficient d 2 is adopted. and the relative speed detected by the relative state detection processing unit 15 is less than 5km / h, to adopt a coefficient e 2.
  • the relative state detection processing unit 15 that detects the relative state between the host vehicle and the information presentation partner is provided, and the information display unit 10 includes the relative state detection processing unit. 15 is configured to correct the determined display time using the relative state detected by No. 15, so that the display time of information can be optimized compared to the first embodiment.
  • the display time determination unit 16 determines the information display time T from the vehicle state determined by the vehicle state determination processing unit 3 and the presentation partner recognized by the presentation partner recognition unit 6. After that, an example in which the display time T is corrected in consideration of the relative state detected by the relative state detection processing unit 15 is shown.
  • the vehicle state determined by the vehicle state determination processing unit 3 and the presentation The information display time T may be determined from the relative state detected by the relative state detection processing unit 15 without determining the information display time T from the presentation partner recognized by the partner recognition unit 6. Good.
  • the vehicle state determination unit 1 determines the display time when the display time determination unit 16 determines the display time. It becomes unnecessary.
  • the display data selection unit 9 uses the relative state detected by the relative state detection unit 13 as the vehicle state determined by the vehicle state determination processing unit 3, and display data corresponding to the relative state. Is selected, the vehicle state determination unit 1 becomes unnecessary.
  • the relative state detection processing unit 15 shows the detection of the traveling direction and the relative speed between the host vehicle and the presentation partner as the relative state between the host vehicle and the presentation partner.
  • the relative state detection processing unit 15 detects the relative distance. It may be.
  • the information display processing unit 12 displays information on the road surface in the danger zone around the host vehicle if the relative distance is large, for example, Can be made to recognize the danger zone.
  • the information presentation partner can be guided so as not to keep an eye on the vehicle by displaying the information on the body or window of the vehicle.
  • Embodiment 3 the information display processing unit 12 of the information display unit 10 displays information to the outside of the vehicle according to the display data. A description will be given of what monitors the surrounding situation and controls the display of information in the information display processing unit 12 according to the situation monitoring result.
  • FIG. 11 is a block diagram showing an information display apparatus according to Embodiment 3 of the present invention
  • FIG. 12 is a hardware block diagram of the information display apparatus according to Embodiment 3 of the present invention.
  • the peripheral condition monitoring unit 17 is realized by the monitoring processing circuit 29 of FIG. 12 configured by, for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer, and the video output from the camera 5.
  • a situation around the vehicle is monitored based on the data, and a process of controlling the display of information in the information display processing unit 12 is performed according to a monitoring result of the situation around the vehicle.
  • the vehicle information acquisition unit 2, the vehicle state determination processing unit 3, the presentation partner recognition unit 6, and the relative state detection processing which are components other than the camera 5 and the laser beam transmitter / receiver 14, among the components of the information display device.
  • the display data storage unit 8, the display data selection unit 9, the surrounding situation monitoring unit 17, the display time determination unit 16, and the information display processing unit 12 are each a dedicated hardware as shown in FIG.
  • Information acquisition circuit 21, vehicle state determination processing circuit 22, presentation partner recognition processing circuit 23, relative state detection processing circuit 28, display data storage processing circuit 24, display data selection processing circuit 25, monitoring processing circuit 29, display time determination processing circuit 26 and the information display processing circuit 27 are assumed.
  • the constituent elements of the information display device are not limited to those realized by dedicated hardware, and the information display device may be realized by software, firmware, or a combination of software and firmware.
  • the display data storage unit 8 is configured on the memory 41 of the computer shown in FIG. 3, and the vehicle information acquisition unit 2, the vehicle state determination processing unit 3, and the presentation partner recognition A program for causing the computer to execute the processing procedures of the unit 6, the relative state detection processing unit 15, the display data selection unit 9, the surrounding state monitoring unit 17, the display time determination unit 16, and the information display processing unit 12 is stored in the memory 41.
  • the computer processor 42 may execute the program stored in the memory 41.
  • the surrounding situation monitoring unit 17 monitors the surrounding situation of the vehicle based on the video data output from the camera 5.
  • the surrounding situation monitoring unit 17 detects other vehicles and pedestrians present in the video from the video data of the camera by executing a known object recognition processing algorithm.
  • the surrounding state monitoring unit 17 causes the information display processing unit 12 to stop executing the process of displaying information. Thereby, when there is no information presenting partner such as when there are no other vehicles or pedestrians around the host vehicle, display of useless information can be stopped.
  • Embodiment 4 FIG.
  • the information display processing unit 12 of the information display unit 10 displays information toward the outside of the vehicle according to the display data.
  • the vehicle state A description will be given of processing the display data output from the display data output unit 7 according to the state of the vehicle determined by the determination unit 1, and displaying information toward the outside of the vehicle according to the processed display data.
  • FIG. 13 is a block diagram showing an information display apparatus according to Embodiment 4 of the present invention
  • FIG. 14 is a hardware block diagram of the information display apparatus according to Embodiment 4 of the present invention.
  • 13 and 14 the same reference numerals as those in FIGS. 1, 2, 8, 9, 11, and 12 indicate the same or corresponding parts, and thus description thereof is omitted.
  • the display data processing unit 18 is realized by, for example, the display data processing processing circuit 30 of FIG.
  • the display data selected by the display data selection unit 9 is processed according to the vehicle information acquired by the vehicle state or the vehicle state determined by the vehicle state determination processing unit 3, and the processed display data is displayed on the information display unit 10.
  • the process which outputs to the information display process part 12 is implemented.
  • the vehicle information acquisition unit 2, the vehicle state determination processing unit 3, the presentation partner recognition unit 6, and the relative state detection processing which are components other than the camera 5 and the laser beam transmitter / receiver 14, among the components of the information display device.
  • the display data storage unit 8, the display data selection unit 9, the surrounding situation monitoring unit 17, the display data processing unit 18, the display time determination unit 16, and the information display processing unit 12 are dedicated to each other as shown in FIG. 14.
  • Hardware that is, a vehicle information acquisition circuit 21, a vehicle state determination processing circuit 22, a presentation partner recognition processing circuit 23, a relative state detection processing circuit 28, a display data storage processing circuit 24, a display data selection processing circuit 25, and a monitoring processing circuit 29
  • the display data processing circuit 30, the display time determination processing circuit 26, and the information display processing circuit 27 are assumed to be realized.
  • the constituent elements of the information display device are not limited to those realized by dedicated hardware, and the information display device may be realized by software, firmware, or a combination of software and firmware.
  • the display data storage unit 8 is configured on the memory 41 of the computer shown in FIG. 3, and the vehicle information acquisition unit 2, the vehicle state determination processing unit 3, and the presentation partner recognition Program for causing a computer to execute the processing procedures of the unit 6, the relative state detection processing unit 15, the display data selection unit 9, the peripheral status monitoring unit 17, the display data processing unit 18, the display time determination unit 16, and the information display processing unit 12 May be stored in the memory 41 so that the processor 42 of the computer executes the program stored in the memory 41.
  • the display data processing unit 18 receives the display data from the display data selection unit 9
  • the display data processing unit 18 displays the display according to the vehicle information acquired by the vehicle information acquisition unit 2 or the vehicle state determined by the vehicle state determination processing unit 3.
  • the data is processed, and the display data after processing is output to the information display processing unit 12 of the information display unit 10.
  • the display data processing unit 18 processes the display data according to the speed of the vehicle included in the vehicle information acquired by the vehicle information acquisition unit 2, for example. Specifically, for example, when the speed of the vehicle is faster, the display data is processed so as to expand the range of light irradiated on the road surface, so that information is displayed over a wide area and the vehicle is traveling at a high speed. Increase visibility. Further, the higher the speed of the vehicle, for example, the display data is processed so as to increase the reproduction speed of the animation, thereby transmitting the sense of speed of the vehicle.
  • the display data processing unit 18 processes display data according to the vehicle state determined by the vehicle state determination processing unit 3. Specifically, for example, when the vehicle is in a state of starting from parking on the road, the vehicle starts intuitively by processing the display data so that the display position of a symbol or the like indicating the start signal of the vehicle changes.
  • the display position of the sign indicating the start signal of the vehicle is the road surface on the right side of the vehicle ⁇ the road surface slightly on the right side ⁇ the road surface on the right side in front ⁇ the road surface on the right side ⁇ the road surface on the right side slightly on the right Change like a road surface.
  • the information display processing unit 12 of the information display unit 10 displays information toward the outside of the vehicle according to the display data as in the first embodiment. To do.
  • the display data selection unit 9 according to the vehicle information acquired by the vehicle information acquisition unit 2 or the vehicle state determined by the vehicle state determination processing unit 3.
  • the display data processing unit 18 for processing the display data selected by the above is provided, and the information display unit 10 is configured to display information toward the outside of the vehicle according to the display data processed by the display data processing unit 18. Therefore, in addition to the effect similar to the first embodiment, the effect of improving the visibility of information according to the state of the vehicle is obtained.
  • the information display device and information display method according to the present invention are suitable for displaying information outside the vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

車両の状態を判別する車両状態判別部(1)と、車両状態判別部(1)により判別された車両の状態を示す情報を表示するための表示データを出力する表示データ出力部(7)と、車両状態判別部(1)により判別された車両の状態から情報の表示時間を決定し、その表示時間中、表示データ出力部(7)から出力された表示データにしたがって車両の外部に向けて情報を表示する情報表示部(10)とを備え、情報表示部(10)が、その表示時間にしたがって情報の表示方法を切り換えるように構成する。これにより、情報の伝達度を高めることができる。

Description

情報表示装置及び情報表示方法
 この発明は、車両の外部に情報を表示する情報表示装置及び情報表示方法に関するものである。
 以下の特許文献1には、車両の外部に情報を表示する情報表示装置が開示されている。
 この情報表示装置は、車両の速度などの情報を道路上に投射する投射手段を備えている。
 また、この情報表示装置は、投射手段が情報を道路上に投射する際、その情報の投射に障害となる要素を検出する障害検出手段を備え、障害となる要素が存在している場合には、情報の投射位置を変更するようにしている。
特開2009-166771号公報(例えば、段落[0004][0016])
 従来の情報表示装置は以上のように構成されているので、情報の投射に障害とならない位置に情報を投射することができる。しかし、情報の投射に障害とならない位置が、他の車両の搭乗者や歩行者などにとって、情報を見やすい位置であるとは限らない。また、障害となる要素の有無によって情報の投射方法を切り換えるものでもない。このため、情報を正しく伝えることができないことがあるという課題があった。
 この発明は上記のような課題を解決するためになされたもので、情報の伝達度を高めることができる情報表示装置及び情報表示方法を得ることを目的とする。
 この発明に係る情報表示装置は、車両の状態を判別する車両状態判別部と、車両状態判別部により判別された車両の状態を示す情報を表示するための表示データを出力する表示データ出力部と、車両状態判別部により判別された車両の状態から情報の表示時間を決定し、その表示時間中、表示データ出力部から出力された表示データにしたがって車両の外部に向けて情報を表示する情報表示部とを備え、情報表示部が、その表示時間にしたがって情報の表示方法を切り換えるようにしたものである。
 この発明によれば、情報表示部が、表示時間にしたがって情報の表示方法を切り換えるように構成したので、情報の伝達度を高めることができる効果がある。
この発明の実施の形態1による情報表示装置を示す構成図である。 この発明の実施の形態1による情報表示装置のハードウェア構成図である。 情報表示装置がソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。 この発明の実施の形態1による情報表示装置の処理手順である情報表示方法を示すフローチャートである。 自車両の状態及び情報の提示相手と、情報の表示時間との対応関係の一例を示すテーブル図である。 情報表示処理部12による情報の表示例を示す説明図である。 情報表示処理部12による情報の表示例を示す説明図である。 この発明の実施の形態2による情報表示装置を示す構成図である。 この発明の実施の形態2による情報表示装置のハードウェア構成図である。 自車両と提示相手の相対状態と、情報の表示時間との対応関係の一例を示すテーブル図である。 この発明の実施の形態3による情報表示装置を示す構成図である。 この発明の実施の形態3による情報表示装置のハードウェア構成図である。 この発明の実施の形態4による情報表示装置を示す構成図である。 この発明の実施の形態4による情報表示装置のハードウェア構成図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面にしたがって説明する。
実施の形態1.
 図1はこの発明の実施の形態1による情報表示装置を示す構成図であり、図2はこの発明の実施の形態1による情報表示装置のハードウェア構成図である。
 図1及び図2において、車両状態判別部1は車両情報取得部2と車両状態判別処理部3を備えており、車両の状態を判別する処理を実施する。
 車両情報取得部2は例えばCAN(Controller Area Network)などの車内ネットワークに対するインタフェース機器を備える車両情報取得回路21で実現されるものであり、車載機器から車内ネットワークを通じて、車両の状態を示す車両情報を取得する処理を実施する。
 車両情報としては、例えば、ウインカー、ハンドル、アクセル、ブレーキやシフトレバー等の操作情報を含むCANデータのほか、カーナビゲーション装置から出力される情報、車両に搭載されている接触センサから出力される情報などが考えられる。
 カーナビゲーション装置から出力される情報としては、車両の位置を示す位置情報、地図情報、車両の目的地へ至る経路を示す経路案内情報などが考えられる。
 また、接触センサから出力される情報としては、例えば、ハンドル、アクセルやブレーキに対して、遊びの範囲内の操作が行われた場合の操作検知情報などが考えられる。
 車両状態判別処理部3は例えば図2の車両状態判別処理回路22で実現されるものであり、車両情報取得部2により取得された車両情報から車両の状態を判別する処理を実施する。
 提示相手判別部4はカメラ5と提示相手認識部6を備えており、情報の提示相手を判別する処理を実施する。
 カメラ5は自車両に取り付けられており、自車両の周囲を撮影して、自車両の周囲の映像を示す映像データを提示相手認識部6に出力する。
 提示相手認識部6は例えば図2の提示相手認識処理回路23で実現されるものであり、公知の物体認識処理アルゴリズムを実行することで、カメラ5から出力された映像データから、自車両の周囲に存在する物体を判別する処理を実施する。即ち、自車両の周囲に存在する物体を検出して、その物体の種類を判別することで、情報の提示相手を認識する処理を実施する。
 表示データ出力部7は表示データ記憶部8と表示データ選択部9を備えており、車両状態判別処理部3により判別された車両の状態を示す情報を表示するための表示データを出力する処理を実施する。
 表示データ記憶部8は例えば図2の表示データ記憶処理回路24で実現されるものであり、車両の状態別に、車両の外部に提示する情報を表示するための表示データを記憶している。表示データ記憶部8に記憶されている表示データは、例えば、車両の外部に提示する情報を含むアニメーションの表示データである。
 表示データ選択部9は図2の表示データ選択処理回路25で実現されるものであり、表示データ記憶部8に記憶されている複数の表示データの中から、車両状態判別処理部3により判別された車両の状態に対応する表示データを選択する処理を実施する。
 情報表示部10は表示時間決定部11と情報表示処理部12を備えており、車両状態判別処理部3により判別された車両の状態と、提示相手認識部6により認識された提示相手とから、情報の表示時間を決定し、その決定した表示時間中、表示データ出力部7から出力された表示データにしたがって車両の外部に向けて情報を表示する処理を実施する。
 表示時間決定部11は例えば図2の表示時間決定処理回路26で実現されるものであり、車両状態判別処理部3により判別された車両の状態と、提示相手認識部6により認識された提示相手とから、情報の表示時間を決定する処理を実施する。
 情報表示処理部12は例えば図2の情報表示処理回路27で実現されるものであり、表示時間決定部11により決定された表示時間中、表示データ出力部7から出力された表示データにしたがって車両の外部に向けて情報を表示する処理を実施する。
 即ち、情報表示処理部12は表示データ出力部7から出力された表示データにしたがって例えばレーザ光あるいはLED(Light Emitting Diode)光を車両の外部の投射面に照射することで、車両の状態を示す情報を投射面に表示する光照射部12aを有している。
 光照射部12aは表示時間決定部11により決定された表示時間にしたがって投射面の切り換えを行う。
 なお、光の投射面として、車両の周囲の路面、車両のボディや車両の窓などが考えられ、車両のボディや窓は、車両の外部の投射面に含まれるものとする。
 図1では、情報表示装置の構成要素のうち、カメラ5を除く構成要素である車両情報取得部2、車両状態判別処理部3、提示相手認識部6、表示データ記憶部8、表示データ選択部9、表示時間決定部11及び情報表示処理部12のそれぞれが、図2に示すような専用のハードウェア、即ち、車両情報取得回路21、車両状態判別処理回路22、提示相手認識処理回路23、表示データ記憶処理回路24、表示データ選択処理回路25、表示時間決定処理回路26及び情報表示処理回路27で実現されるものを想定している。
 ここで、表示データ記憶処理回路24は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)などが該当する。
 また、車両情報取得回路21、車両状態判別処理回路22、提示相手認識処理回路23、表示データ選択処理回路25、表示時間決定処理回路26及び情報表示処理回路27は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、または、これらを組み合わせたものが該当する。
 また、情報表示装置の構成要素が専用のハードウェアで実現されるものに限るものではなく、情報表示装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
 ソフトウェアやファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)などが該当する。
 図3は情報表示装置がソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
 情報表示装置がソフトウェアやファームウェアなどで実現される場合、表示データ記憶部8をコンピュータのメモリ41上に構成するとともに、車両情報取得部2、車両状態判別処理部3、提示相手認識部6、表示データ選択部9、表示時間決定部11及び情報表示処理部12の処理手順をコンピュータに実行させるためのプログラムをメモリ41に格納し、コンピュータのプロセッサ42がメモリ41に格納されているプログラムを実行するようにすればよい。
 図4はこの発明の実施の形態1による情報表示装置の処理手順である情報表示方法を示すフローチャートである。
 また、図2では情報表示装置の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図3では、情報表示装置がソフトウェアやファームウェアなどで実現される例を示しているが、情報表示装置における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。
 例えば、車両情報取得部2、カメラ5及び情報表示処理部12を専用のハードウェアで実現し、車両状態判別処理部3、提示相手認識部6、表示データ記憶部8、表示データ選択部9及び表示時間決定部11をソフトウェアやファームウェアなどで実現することが可能である。ただし、専用のハードウェアとソフトウェア等の組み合わせは任意である。
 次に動作について説明する。
 車両状態判別部1の車両情報取得部2は、車載機器から車内ネットワークを通じて、車両の状態を示す車両情報を取得し、その車両情報を車両状態判別処理部3に出力する(図4のステップST1)。
 この実施の形態1では、車両情報として、例えば、CANデータのほか、カーナビゲーション装置から出力される情報や、車両に搭載されている接触センサから出力される情報などを取得するものとする。
 車両状態判別処理部3は、車両情報取得部2から車両情報を受けると、その車両情報から車両の状態を判別する(ステップST2)。
 車両の状態としては、例えば、車両の走行速度や、車両の進行方向がカーブしているか否かなどが考えられる。
 車両の走行速度は、CANデータに含まれている車両の速度情報から判別することができる。
 また、車両の進行方向がカーブしているか否かは、CANデータに含まれているハンドルの操作情報から判別することができる。
 ここでは、車両の状態として、車両の走行速度や、車両の進行方向がカーブしているか否かを判別する例を示しているが、あくまでも一例であり、他の車両の状態を判別するようにしてもよいことは言うまでもない。
 提示相手判別部4のカメラ5は、自車両の周囲を撮影して、自車両の周囲の映像を示す映像データを提示相手認識部6に出力する。
 提示相手認識部6は、カメラ5から映像データを受けると、公知の物体認識処理アルゴリズムを実行することで、カメラ5から出力された映像データから自車両の周囲に存在する物体を判別する。
 即ち、提示相手認識部6は、自車両の周囲に存在する物体を検出して、その物体の種類を判別することで、情報の提示相手を認識する(ステップST3)。
 物体認識処理アルゴリズムは公知の技術であるため詳細な説明を省略し、提示相手認識部6による提示相手の認識処理例を簡単に説明する。
 提示相手認識部6は、事前に、例えば、普通乗用車、トラック、バスなどの四輪の車両の画像、自転車やバイクなどの二輪車の画像、歩行者の画像などを参照画像として記憶している。
 提示相手認識部6は、カメラ5から出力された映像データが示す映像の中から、物体の映像を切り出す処理を実施し、その切り出した物体の映像と、事前に記憶している複数の参照画像とを照合する。
 そして、提示相手認識部6は、複数の参照画像の中で、その切り出した物体の映像と特徴点の類似度が最も高い参照画像を特定し、その特定した参照画像の被写体が、情報の提示相手であると認識する。
 例えば、その特定した参照画像の被写体がトラックであれば、情報の提示相手がトラックであると認識し、その特定した参照画像の被写体が自転車であれば、情報の提示相手が自転車であると認識し、その特定した参照画像の被写体が歩行者であれば、情報の提示相手が歩行者であると認識する。
 表示データ出力部7の表示データ記憶部8には、車両の状態別に、車両の外部に提示する情報を表示するための表示データが記憶されている。
 この表示データは、例えば、車両の外部に提示する情報を含むアニメーションの表示データである。アニメーションの表示データは、例えば、一般的な道路法規に則するパターンや矢印のように、進行方向の方向性が伝わる動画パターンのデータである。
 また、車両の外部に提示する情報としては、例えば、車両の進行方向、車両の走行モードを示す情報などが考えられるが、走行の安全に寄与する情報であれば、どのような情報でもよい。
 因みに、車両の走行モードとしては、手動走行、自動走行、隊列走行などが考えられる。
 表示データ出力部7の表示データ選択部9は、表示データ記憶部8に記憶されている複数の表示データの中から、車両状態判別処理部3により判別された車両の状態に対応する表示データを選択し、その表示データを情報表示部10の情報表示処理部12に出力する(ステップST4)。
 情報表示部10の表示時間決定部11は、図5に示すようなテーブルを保持している。
 図5は自車両の状態及び情報の提示相手と、情報の表示時間との対応関係の一例を示すテーブル図である。
 情報の表示時間が“短”の場合は、情報の提示相手において、情報を確認することが可能であると思われる時間(以下、「確認可能時間」と称する)が短い場合に対応し、情報の表示時間が“長”の場合は、情報の提示相手における確認可能時間が長い場合に対応している。
 例えば、自車両の速度が速い場合は、自車両が通り過ぎる時間が短いため、情報の提示相手における確認可能時間が短くなると考えられる。一方、自車両の速度が遅い場合は、自車両が通り過ぎる時間が長いため、情報の提示相手における確認可能時間が長くなると考えられる。
 また、情報の提示相手が歩行者の場合は、車両の走行速度と比べて、歩行速度が遅いため、情報の提示相手における確認可能時間が長くなると考えられる。一方、情報の提示相手がトラックの場合は、安全運転のためには普通車などと比べて、より多くのものに注意を払う必要があるため、情報の提示相手における確認可能時間が短くなると考えられる。
 ただし、図5のテーブルに示す対応関係は、あくまでも一例であり、他の対応関係であってもよい。
 表示時間決定部11は、図5のテーブルを参照して、車両状態判別処理部3により判別された車両の状態と、提示相手認識部6により認識された提示相手とから、情報の表示時間を決定する(図4のステップST5)。
 以下、表示時間決定部11による表示時間の決定処理の一例を具体的に説明する。
 表示時間決定部11は、情報の表示時間の初期値Tを記憶している。
 また、表示時間決定部11は、情報の表示時間を短縮する係数aと、情報の表示時間を延ばす係数bとを記憶している。係数aは0以上1未満の数値であり、係数bは1より大きい数値である。
 ここでは、説明の便宜上、自車両の状態に対応する係数がa,b、情報の提示相手に対応する係数がa,bであるとして区別する。
 図5のテーブルには、直進走行中、自車両の速度が40km/h以上であれば、情報の表示時間を“短”、直進走行中、自車両の速度が40km/h未満であれば、情報の表示時間を“長”とすることが示されているので、例えば、車両状態判別処理部3により判別された車両の状態が、直進走行中、走行速度が40km/h以上であれば、係数aを採用し、車両状態判別処理部3により判別された車両の状態が、直進走行中、走行速度が、40km/h未満であれば、係数bを採用する。
 車両状態判別処理部3により判別された車両の状態が、図5のテーブルに記憶されていない場合、係数a、係数bのどちらも採用せずに、係数c=1を採用する。
 図5のテーブルには、情報の提示相手がトラックであれば、情報の表示時間を“短”、情報の提示相手が歩行者又は二輪車であれば、情報の表示時間を“長”とすることが示されているので、例えば、提示相手認識部6により認識された提示相手がトラックであれば、係数aを採用し、提示相手認識部6により認識された提示相手が歩行者又は二輪車であれば、係数bを採用する。
 提示相手認識部6により認識された提示相手が普通乗用車である場合など、その提示相手が図5のテーブルに記憶されていない場合、係数a、係数bのどちらも採用せずに、係数c=1を採用する。
 表示時間決定部11は、下記の式(1)~(9)に示すように、情報の表示時間の初期値Tと、採用した係数とを用いて、情報の表示時間Tを決定する。
[a、aを採用した場合]  T=T×a×a2 (1)
[a、bを採用した場合]  T=T×a×b2 (2)
[a、cを採用した場合]  T=T×a×c2 (3)
[b、aを採用した場合]  T=T×b×a2 (4)
[b、bを採用した場合]  T=T×b×b2 (5)
[b、cを採用した場合]  T=T×b×c2 (6)
[c、aを採用した場合]  T=T×c×a2 (7)
[c、bを採用した場合]  T=T×c×b2 (8)
[c、cを採用した場合]  T=T×c×c2 (9)
 情報表示部10の情報表示処理部12は、表示時間決定部11が情報の表示時間Tを決定すると、その表示時間Tの間、表示データ出力部7から出力された表示データにしたがって車両の外部に向けて情報を表示する(図4のステップST6)。
 即ち、情報表示処理部12の光照射部12aは、その表示時間Tの間、表示データ出力部7から出力された表示データにしたがって例えばレーザ光あるいはLED光を車両の外部の投射面に照射することで、車両の状態を示す情報を投射面に表示する。
 また、光照射部12aは、表示時間決定部11により決定された表示時間Tにしたがって投射面の切り換えを行う。
 以下、光照射部12aが投射面を切り換えることによる表示方法の切り換え例を具体的に説明する。あくまでも一例であり、他の方法で表示方法を切り換えるものであってもよい。
 例えば、情報表示処理部12は、事前に設定されている閾値Th,Th(ただし、Th<Th)と、表示時間決定部11により決定された表示時間Tとを比較し、表示時間Tが閾値Th以上であれば(T≧Thの場合)、情報の投射面として、車両の周囲の路面を選択し、光照射部12aが、光を車両の周囲の路面に照射する。
 また、情報表示処理部12は、表示時間Tが閾値Th以上であるが、閾値Th未満であれば(Th≦T<Thの場合)、情報の投射面として、路面より見易い車両のボディを選択し、光照射部12aが、光を車両のボディに照射する。
 また、情報表示処理部12は、表示時間Tが閾値Th未満であれば(T<Thの場合)、情報の投射面として、車両のボディより見易い車両の窓を選択し、光照射部12aが、光を車両の窓に照射する。
 図6及び図7は情報表示処理部12による情報の表示例を示す説明図である。
 図6及び図7では、光を車両の周囲の路面に照射している例を示している。図6及び図7では、説明の簡単化のため、提示する情報が三角形状の記号である例を示している。
 図6では、自車両の速度が速い場合と自車両の速度が遅い場合の例を示しており、自車両の速度に応じて照射位置を切り換えている。
 即ち、情報表示処理部12の光照射部12aは、自車両の速度が速ければ、自車両から遠い位置の路面に光を照射し、自車両の速度が遅れければ、自車両から近い位置の路面に光を照射している。
 図7では、道路が直線の場合とカーブの場合と坂道の場合の例を示しており、道路の形状に応じて照射位置を切り換えている。
 即ち、情報表示処理部12の光照射部12aは、道路が直線の場合、自車両の後方の路面に光を照射し、道路がカーブの場合、道路のカーブに応じた方向の路面に光を照射し、道路が坂道の場合、情報の提示相手が見える位置の路面に光を照射している。
 また、情報表示処理部12は、例えば、情報の表示時間Tが初期値T以上である場合、提示する情報であるアニメーションの速度を緩やかにするが、情報の表示時間Tが初期値T未満である場合、アニメーションの速度を速くするとともに、アニメーションの表示エリアを拡大したり、点滅や色を濃くしたりすることで、情報の提示相手が、より確認し易いように表示を変更する。
 以上で明らかなように、この実施の形態1によれば、車両の状態を判別する車両状態判別部1と、車両状態判別部1により判別された車両の状態を示す情報を表示するための表示データを出力する表示データ出力部7と、車両状態判別部1により判別された車両の状態から情報の表示時間を決定し、その表示時間中、表示データ出力部7から出力された表示データにしたがって車両の外部に向けて情報を表示する情報表示部10とを備え、情報表示部10が、その表示時間にしたがって情報の表示方法を切り換えるように構成したので、情報の伝達度を高めることができる効果を奏する。
 また、この実施の形態1によれば、情報の提示相手を判別する提示相手判別部4を備え、情報表示部10が、車両状態判別部1により判別された車両の状態と、提示相手判別部4により判別された提示相手とから、情報の表示時間を決定するように構成したので、情報の提示相手に応じた情報の表示時間を決定することができる効果を奏する。
 この実施の形態1では、提示相手認識部6が情報の提示相手として、歩行者を認識することがある例を示しているが、カメラ5から出力された映像データから歩行者の概略の身長を測定し、その歩行者の身長が基準値以上であるか否かを判定するようにしてもよい。映像データから歩行者の概略の身長を測定する処理自体は公知の技術であるため詳細な説明を省略する。基準値としては、例えば、125cmなどが考えられる。
 この場合、表示時間決定部11に保持されているテーブルには、例えば、歩行者の身長が基準値以上であれば、情報の表示時間を“長”、歩行者の身長が基準値未満であれば、情報の表示時間を“短”とすることが示される。
 また、カメラ5から出力された映像データから歩行者の視線を検知し、歩行者の視線が自車両の方向を向いているか否かを判定するようにしてもよい。
 また、カメラ5から出力された映像データから歩行者が携帯電話やスマートフォンなどを操作しているか否かを判定するようにしてもよい。これらの判定技術も公知の技術であるため詳細な説明を省略する。
 表示時間決定部11に保持されているテーブルには、例えば、歩行者の視線が自車両の方向を向いていない場合や、歩行者が携帯電話やスマートフォンなどを操作している場合、情報の表示時間を“短”、歩行者の視線が自車両の方向を向いている場合や、歩行者が携帯電話やスマートフォンなどを操作していない場合、情報の表示時間を“長”とすることが示される。
 この実施の形態1では、情報表示処理部12の光照射部12aが、レーザ光あるいはLED光を投射面に照射するものを示したが、表示時間決定部11により決定された表示時間Tにしたがって投射面に照射する光の種類を変更するようにしてもよい。
 例えば、情報の表示時間Tが初期値T未満である場合、レーザ光を投射面に照射し、情報の表示時間Tが初期値T以上である場合、情報の見易さより安全性を重視して、LED光を投射面に照射するようにする。
実施の形態2.
 上記実施の形態1では、表示時間決定部11が、車両状態判別処理部3により判別された車両の状態と、提示相手認識部6により認識された提示相手とから、情報の表示時間Tを決定するものを示したが、自車両と提示相手との相対的な状態から、情報の表示時間Tを決定するようにしてもよい。
 図8はこの発明の実施の形態2による情報表示装置を示す構成図であり、図9はこの発明の実施の形態2による情報表示装置のハードウェア構成図である。
 図8及び図9において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
 相対状態検出部13は例えばカメラ5、提示相手認識部6、レーザ光送受信器14及び相対状態検出処理部15を備えており、自車両と情報の提示相手との相対状態を検出する処理を実施する。
 レーザ光送受信器14は情報の提示相手に向けてレーザ光を送信し、その後、情報の提示相手に反射されて戻ってきたレーザ光を受信する。
 相対状態検出処理部15は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されている図9の相対状態検出処理回路28で実現されている。
 相対状態検出処理部15は自車両と情報の提示相手との相対状態として、提示相手認識部6により切り出された提示相手の映像から、提示相手の進行方向を検出する処理を実施する。
 また、相対状態検出処理部15は自車両と提示相手との相対状態として、レーザ光送受信器14からレーザ光が送信されてから、レーザ光送受信器14によりレーザ光が受信されるまでの時間から、自車両と情報の提示相手との相対速度を算出する処理を実施する。
 表示時間決定部16は例えば図9の表示時間決定処理回路26で実現されるものであり、図1の表示時間決定部11と同様に、車両状態判別処理部3により判別された車両の状態と、提示相手認識部6により認識された提示相手とから、情報の表示時間を決定する処理を実施する。
 ただし、表示時間決定部16は情報の表示時間を決定する際、図1の表示時間決定部11と異なり、相対状態検出処理部15により検出された相対状態を考慮して決定する。
 図8では、情報表示装置の構成要素のうち、カメラ5及びレーザ光送受信器14を除く構成要素である車両情報取得部2、車両状態判別処理部3、提示相手認識部6、相対状態検出処理部15、表示データ記憶部8、表示データ選択部9、表示時間決定部16及び情報表示処理部12のそれぞれが、図9に示すような専用のハードウェア、即ち、車両情報取得回路21、車両状態判別処理回路22、提示相手認識処理回路23、相対状態検出処理回路28、表示データ記憶処理回路24、表示データ選択処理回路25、表示時間決定処理回路26及び情報表示処理回路27で実現されるものを想定している。
 ただし、情報表示装置の構成要素が専用のハードウェアで実現されるものに限るものではなく、情報表示装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
 情報表示装置がソフトウェアやファームウェアなどで実現される場合、表示データ記憶部8を図3に示すコンピュータのメモリ41上に構成するとともに、車両情報取得部2、車両状態判別処理部3、提示相手認識部6、相対状態検出処理部15、表示データ選択部9、表示時間決定部16及び情報表示処理部12の処理手順をコンピュータに実行させるためのプログラムをメモリ41に格納し、コンピュータのプロセッサ42がメモリ41に格納されているプログラムを実行するようにすればよい。
 次に動作について説明する。
 相対状態検出部13及び表示時間決定部16以外は、上記実施の形態1と同様であるため、ここでは、相対状態検出部13及び表示時間決定部16の処理内容を説明する。
 相対状態検出部13のレーザ光送受信器14は、情報の提示相手に向けてレーザ光を送信し、その後、情報の提示相手に反射されて戻ってきたレーザ光を受信する。ここでは、レーザ光送受信器14がレーザ光を送受信する例を示しているが、レーザ光に限るものではなく、例えば、赤外線などを送受信するようにしてもよい。
 相対状態検出部13の相対状態検出処理部15は、提示相手認識部6が上記実施の形態1と同様に、カメラ5から出力された映像データから情報の提示相手の映像を切り出すと、自車両と情報の提示相手との相対状態として、その提示相手の映像から提示相手の進行方向を検出する。
 即ち、相対状態検出処理部15は、情報の提示相手と自車両が同方向に走行しているのか、逆方向に走行しているのかを判別する。
 提示相手の進行方向を検出する処理自体は公知の技術であるため詳細な説明を省略するが、提示相手の映像が、車両の前方の映像であれば、逆方向に走行していると判断することができ、提示相手の映像が、車両の後方の映像であれば、同方向に走行していると判断することができる。
 また、相対状態検出処理部15は、自車両と提示相手との相対状態として、レーザ光送受信器14からレーザ光が送信されてから、レーザ光送受信器14によりレーザ光が受信されるまでの時間から、自車両と情報の提示相手との相対速度を算出する。レーザ光の速度は既知であるため、レーザ光の送信時刻と受信時刻の時刻差から、自車両と情報の提示相手との相対速度を算出することができる。
 情報表示部10の表示時間決定部16は、図5に示すテーブルのほかに、図10に示すようなテーブルを保持している。
 図10は自車両と提示相手の相対状態と、情報の表示時間との対応関係の一例を示すテーブル図である。
 例えば、情報の提示相手と自車両が逆方向に走行している場合は、自車両が通り過ぎる時間が短いため、情報の提示相手における確認可能時間が短くなると考えられる。一方、情報の提示相手と自車両が同方向に走行している場合、自車両が通り過ぎる時間が長いため、情報の提示相手における確認可能時間が長くなると考えられる。
 ただし、図10のテーブルに示す対応関係は、あくまでも一例であり、他の対応関係であってもよい。
 表示時間決定部16は、図1の表示時間決定部11と同様にして、車両状態判別処理部3により判別された車両の状態と、提示相手認識部6により認識された提示相手とから、情報の表示時間Tを決定する。
 ただし、情報の表示時間を決定する際、図1の表示時間決定部11と異なり、相対状態検出処理部15により検出された相対状態を考慮する。
 以下、表示時間決定部16による表示時間の決定処理の一例を具体的に説明する。
 表示時間決定部16は、最初に、図1の表示時間決定部11と同様に、車両状態判別処理部3により判別された車両の状態と、提示相手認識部6により認識された提示相手とから、情報の表示時間Tを決定する。
 その後、表示時間決定部16は、相対状態検出処理部15により検出された相対状態に応じて、その決定した表示時間Tを補正する。具体的には、以下の通りである。
 表示時間決定部16は、情報の表示時間を短縮する係数dと、情報の表示時間を延ばす係数eとを記憶している。係数dは0以上1未満の数値であり、係数eは1より大きい数値である。
 ここでは、説明の便宜上、自車両と提示相手の進行方向に関する係数がd,e、自車両と提示相手の相対速度に関する係数がd,dであるとして区別する。
 図10のテーブルには、自車両と提示相手の進行方向が逆方向であれば、情報の表示時間を“短”、同方向であれば、情報の表示時間を“長”とすることが示されているので、相対状態検出処理部15により検出された進行方向が逆方向であれば、係数dを採用し、相対状態検出処理部15により検出された進行方向が同方向であれば、係数eを採用する。
 図10のテーブルには、自車両と情報の提示相手との相対速度が5km/h以上であれば、情報の表示時間を“短”、自車両と情報の提示相手との相対速度が5km/h未満であれば、情報の表示時間を“長”とすることが示されているので、相対状態検出処理部15により検出された相対速度が5km/h以上であれば、係数dを採用し、相対状態検出処理部15により検出された相対速度が5km/h未満であれば、係数eを採用する。
 表示時間決定部11は、下記の式(10)~(13)に示すように、先に決定した表示時間Tと、採用した係数とを用いて、情報の表示時間Tを補正する。補正後の表示時間T’とする。
[d、dを採用した場合]  T’=T×d×d2 (10)
[d、eを採用した場合]  T’=T×d×e2 (11)
[e、dを採用した場合]  T’=T×e×d2 (12)
[e、eを採用した場合]  T’=T×e×e2 (13)
 以上で明らかなように、この実施の形態2によれば、自車両と情報の提示相手との相対状態を検出する相対状態検出処理部15を備え、情報表示部10が、相対状態検出処理部15により検出された相対状態を用いて、決定した表示時間を補正するように構成したので、上記実施の形態1よりも、情報の表示時間の適正化を図ることができる効果を奏する。
 この実施の形態2では、表示時間決定部16が、車両状態判別処理部3により判別された車両の状態と、提示相手認識部6により認識された提示相手とから、情報の表示時間Tを決定したのち、相対状態検出処理部15により検出された相対状態を考慮して、その表示時間Tを補正する例を示しているが、車両状態判別処理部3により判別された車両の状態と、提示相手認識部6により認識された提示相手とから、情報の表示時間Tを決定せずに、相対状態検出処理部15により検出された相対状態から、情報の表示時間Tを決定するようにしてもよい。
 この場合、表示時間決定部16では、相対状態検出部13により検出された相対状態を車両の状態と同様に扱うため、表示時間決定部16が表示時間を決定する上では車両状態判別部1が不要になる。
 また、このとき、表示データ選択部9が、車両状態判別処理部3により判別された車両の状態として、相対状態検出部13により検出された相対状態を使用し、その相対状態に対応する表示データを選択するものとすれば、車両状態判別部1が不要になる。
 ここでは、相対状態検出処理部15が、自車両と提示相手との相対状態として、自車両と提示相手の進行方向や相対速度を検出するものを示したが、例えば、相対距離を検出するようにしてもよい。
 例えば、相対状態検出処理部15が、相対距離を検出する場合、情報表示処理部12では、相対距離が大きければ、例えば、自車両の周辺の危険ゾーンの路面に情報を表示することで、情報の提示相手に危険ゾーンを認識させることができる。また、相対距離が小さければ、車両のボディや窓などに情報を表示することで、車両から眼を離さないように情報の提示相手を誘導することができる。
実施の形態3.
 上記実施の形態1,2では、情報表示部10の情報表示処理部12が、表示データにしたがって車両の外部に向けて情報を表示するものを示したが、この実施の形態3では、車両の周辺の状況を監視し、状況の監視結果にしたがって情報表示処理部12における情報の表示を制御するものについて説明する。
 図11はこの発明の実施の形態3による情報表示装置を示す構成図であり、図12はこの発明の実施の形態3による情報表示装置のハードウェア構成図である。
 図11及び図12において、図1、図2、図8及び図9と同一符号は同一または相当部分を示すので説明を省略する。
 周辺状況監視部17は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されている図12の監視処理回路29で実現されるものであり、カメラ5から出力された映像データによって車両の周辺の状況を監視し、車両の周辺の状況の監視結果にしたがって情報表示処理部12における情報の表示を制御する処理を実施する。
 図11では、情報表示装置の構成要素のうち、カメラ5及びレーザ光送受信器14を除く構成要素である車両情報取得部2、車両状態判別処理部3、提示相手認識部6、相対状態検出処理部15、表示データ記憶部8、表示データ選択部9、周辺状況監視部17、表示時間決定部16及び情報表示処理部12のそれぞれが、図12に示すような専用のハードウェア、即ち、車両情報取得回路21、車両状態判別処理回路22、提示相手認識処理回路23、相対状態検出処理回路28、表示データ記憶処理回路24、表示データ選択処理回路25、監視処理回路29、表示時間決定処理回路26及び情報表示処理回路27で実現されるものを想定している。
 ただし、情報表示装置の構成要素が専用のハードウェアで実現されるものに限るものではなく、情報表示装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
 情報表示装置がソフトウェアやファームウェアなどで実現される場合、表示データ記憶部8を図3に示すコンピュータのメモリ41上に構成するとともに、車両情報取得部2、車両状態判別処理部3、提示相手認識部6、相対状態検出処理部15、表示データ選択部9、周辺状況監視部17、表示時間決定部16及び情報表示処理部12の処理手順をコンピュータに実行させるためのプログラムをメモリ41に格納し、コンピュータのプロセッサ42がメモリ41に格納されているプログラムを実行するようにすればよい。
 次に動作について説明する。
 ただし、周辺状況監視部17以外は、上記実施の形態1,2と同様であるため、ここでは、周辺状況監視部17の処理内容を説明する。
 周辺状況監視部17は、カメラ5から出力された映像データによって車両の周辺の状況を監視する。
 周辺状況監視部17は、公知の物体認識処理アルゴリズムを実行することで、カメラの映像データから、映像内に存在している他の車両や歩行者などを検出する。
 周辺状況監視部17は、自車両の周辺、例えば、車両の前方、側方、側前方、側後方、後方に、他の車両や歩行者などが存在していれば、情報表示処理部12に対して、表示データにしたがって情報を表示する処理の実行を許可する。
 周辺状況監視部17は、自車両の周辺に他の車両や歩行者などが存在していなければ、情報表示処理部12に対して、情報を表示する処理の実行を停止させる。
 これにより、自車両の周辺に他の車両や歩行者などが存在しない場合など、情報の提示相手が存在しない場合には、無駄な情報の表示を止めることができる。
実施の形態4.
 上記実施の形態1~3では、情報表示部10の情報表示処理部12が、表示データにしたがって車両の外部に向けて情報を表示するものを示したが、この実施の形態4では、車両状態判別部1により判別された車両の状態にしたがって表示データ出力部7から出力された表示データを加工し、加工後の表示データにしたがって車両の外部に向けて情報を表示するものについて説明する。
 図13はこの発明の実施の形態4による情報表示装置を示す構成図であり、図14はこの発明の実施の形態4による情報表示装置のハードウェア構成図である。
 図13及び図14において、図1、図2、図8、図9、図11及び図12と同一符号は同一または相当部分を示すので説明を省略する。
 表示データ加工部18は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されている図14の表示データ加工処理回路30で実現されるものであり、車両情報取得部2により取得された車両情報、あるいは、車両状態判別処理部3により判別された車両の状態にしたがって表示データ選択部9により選択された表示データを加工し、加工後の表示データを情報表示部10の情報表示処理部12に出力する処理を実施する。
 図13では、情報表示装置の構成要素のうち、カメラ5及びレーザ光送受信器14を除く構成要素である車両情報取得部2、車両状態判別処理部3、提示相手認識部6、相対状態検出処理部15、表示データ記憶部8、表示データ選択部9、周辺状況監視部17、表示データ加工部18、表示時間決定部16及び情報表示処理部12のそれぞれが、図14に示すような専用のハードウェア、即ち、車両情報取得回路21、車両状態判別処理回路22、提示相手認識処理回路23、相対状態検出処理回路28、表示データ記憶処理回路24、表示データ選択処理回路25、監視処理回路29、表示データ加工処理回路30、表示時間決定処理回路26及び情報表示処理回路27で実現されるものを想定している。
 ただし、情報表示装置の構成要素が専用のハードウェアで実現されるものに限るものではなく、情報表示装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
 情報表示装置がソフトウェアやファームウェアなどで実現される場合、表示データ記憶部8を図3に示すコンピュータのメモリ41上に構成するとともに、車両情報取得部2、車両状態判別処理部3、提示相手認識部6、相対状態検出処理部15、表示データ選択部9、周辺状況監視部17、表示データ加工部18、表示時間決定部16及び情報表示処理部12の処理手順をコンピュータに実行させるためのプログラムをメモリ41に格納し、コンピュータのプロセッサ42がメモリ41に格納されているプログラムを実行するようにすればよい。
 次に動作について説明する。
 ただし、表示データ加工部18以外は、上記実施の形態1と同様であるため、ここでは、表示データ加工部18の処理内容を主に説明する。
 表示データ加工部18は、表示データ選択部9から表示データを受けると、車両情報取得部2により取得された車両情報、あるいは、車両状態判別処理部3により判別された車両の状態にしたがって当該表示データを加工し、加工後の表示データを情報表示部10の情報表示処理部12に出力する。
 即ち、表示データ加工部18は、例えば、車両情報取得部2により取得された車両情報に含まれている車両の速度に応じて表示データを加工する。
 具体的には、例えば、車両の速度が速い程、路面に照射する光の範囲を拡大するように表示データを加工することで、広範囲に情報を表示して、高速で走行している場合の視認性を高める。
 また、車両の速度が速い程、例えば、アニメーションの再生速度を速くするように表示データを加工することで、車両の速度感を伝えるようにする。
 また、表示データ加工部18は、車両状態判別処理部3により判別された車両の状態にしたがって表示データを加工する。
 具体的には、例えば、車両が路上駐車から発進する状態である場合、車両の発進合図を示す記号などの表示位置が変わるように表示データを加工することで、直感的に車両が発進することが分かるようにする。例えば、車両の発進合図を示す記号の表示位置を、車両の右側方の路面→右側やや前方の路面→右側前方の路面→・・・→右側方の路面→右側やや前方の路面→右側前方の路面のように変化させる。
 情報表示部10の情報表示処理部12は、表示データ加工部18から加工後の表示データを受けると、上記実施の形態1と同様に、その表示データにしたがって車両の外部に向けて情報を表示する。
 以上で明らかなように、この実施の形態4によれば、車両情報取得部2により取得された車両情報、あるいは、車両状態判別処理部3により判別された車両の状態にしたがって表示データ選択部9により選択された表示データを加工する表示データ加工部18を設け、情報表示部10が、表示データ加工部18により加工された表示データにしたがって車両の外部に向けて情報を表示するように構成したので、上記実施の形態1と同様に効果が得られるほかに、車両の状態に応じて情報の視認性を高めることができる効果が得られる。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明に係る情報表示装置及び情報表示方法は、車両の外部に情報を表示する用途に適している。
 1 車両状態判別部、2 車両情報取得部、3 車両状態判別処理部、4 提示相手判別部、5 カメラ、6 提示相手認識部、7 表示データ出力部、8 表示データ記憶部、9 表示データ選択部、10 情報表示部、11,16 表示時間決定部、12 情報表示処理部、12a 光照射部、13 相対状態検出部、14 レーザ光送受信器、15 相対状態検出処理部、17 周辺状況監視部、18 表示データ加工部、21 車両情報取得回路、22 車両状態判別処理回路、23 提示相手認識処理回路、24 表示データ記憶処理回路、25 表示データ選択処理回路、26 表示時間決定処理回路、27 情報表示処理回路、28 相対状態検出処理回路、29 監視処理回路、30 表示データ加工処理回路、41 メモリ、42 プロセッサ。

Claims (9)

  1.  車両の状態を判別する車両状態判別部と、
     前記車両状態判別部により判別された車両の状態を示す情報を表示するための表示データを出力する表示データ出力部と、
     前記車両状態判別部により判別された車両の状態から前記情報の表示時間を決定し、前記表示時間中、前記表示データ出力部から出力された表示データにしたがって車両の外部に向けて情報を表示する情報表示部とを備え、
     前記情報表示部は、前記表示時間にしたがって前記情報の表示方法を切り換えることを特徴とする情報表示装置。
  2.  前記情報の提示相手を判別する提示相手判別部を備え、
     前記情報表示部は、前記車両状態判別部により判別された車両の状態と、前記提示相手判別部により判別された提示相手とから、前記情報の表示時間を決定することを特徴とする請求項1記載の情報表示装置。
  3.  自車両と前記情報の提示相手との相対状態を検出する相対状態検出部を備え、
     前記情報表示部は、前記相対状態検出部により検出された相対状態を用いて、前記表示時間を補正することを特徴とする請求項1記載の情報表示装置。
  4.  前記車両状態判別部は、前記車両の状態として、自車両と前記情報の提示相手との相対状態を判別することを特徴とする請求項1記載の情報表示装置。
  5.  前記情報表示部は、前記表示データ出力部から出力された表示データにしたがって光を前記車両の外部の投射面に照射することで、前記車両の状態を示す情報を前記投射面に表示する光照射部を有しており、
     前記光照射部は、前記表示時間にしたがって前記投射面を切り換えることを特徴とする請求項1記載の情報表示装置。
  6.  前記情報表示部は、前記表示データ出力部から出力された表示データにしたがって光を前記車両の外部の投射面に照射することで、前記車両の状態を示す情報を前記投射面に表示する光照射部を有しており、
     前記光照射部は、前記表示時間にしたがって前記投射面に照射する光の種類を変更することを特徴とする請求項1記載の情報表示装置。
  7.  前記車両の周辺の状況を監視し、前記状況の監視結果にしたがって前記情報表示部における情報の表示を制御する周辺状況監視部を備えたことを特徴とする請求項1記載の情報表示装置。
  8.  前記車両の状態にしたがって前記表示データ出力部から出力された表示データを加工する表示データ加工部を備え、
     前記情報表示部は、前記表示データ加工部により加工された表示データにしたがって車両の外部に向けて情報を表示することを特徴とする請求項1記載の情報表示装置。
  9.  車両状態判別部が、車両の状態を判別し、
     表示データ出力部が、前記車両状態判別部により判別された車両の状態を示す情報を表示するための表示データを出力し、
     情報表示部が、前記車両状態判別部により判別された車両の状態から前記情報の表示時間を決定し、前記表示時間中、前記表示データ出力部から出力された表示データにしたがって車両の外部に向けて情報を表示し、
     前記情報表示部では、前記表示時間にしたがって前記情報の表示方法を切り換えることを特徴とする情報表示方法。
PCT/JP2016/054139 2016-02-12 2016-02-12 情報表示装置及び情報表示方法 WO2017138148A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2016/054139 WO2017138148A1 (ja) 2016-02-12 2016-02-12 情報表示装置及び情報表示方法
CN201680081241.0A CN108604412B (zh) 2016-02-12 2016-02-12 信息显示装置及信息显示方法
JP2017566489A JP6351888B2 (ja) 2016-02-12 2016-02-12 情報表示装置及び情報表示方法
DE112016006199.4T DE112016006199B4 (de) 2016-02-12 2016-02-12 Informationsanzeigeeinrichtung und informationsanzeigeverfahren
US16/071,868 US10696216B2 (en) 2016-02-12 2016-02-12 Information display device and information display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/054139 WO2017138148A1 (ja) 2016-02-12 2016-02-12 情報表示装置及び情報表示方法

Publications (1)

Publication Number Publication Date
WO2017138148A1 true WO2017138148A1 (ja) 2017-08-17

Family

ID=59562976

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/054139 WO2017138148A1 (ja) 2016-02-12 2016-02-12 情報表示装置及び情報表示方法

Country Status (5)

Country Link
US (1) US10696216B2 (ja)
JP (1) JP6351888B2 (ja)
CN (1) CN108604412B (ja)
DE (1) DE112016006199B4 (ja)
WO (1) WO2017138148A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020037401A (ja) * 2018-08-31 2020-03-12 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 車両外部のフィードバックを提供する方法、装置、機器および記憶媒体
JP2020103091A (ja) * 2018-12-26 2020-07-09 株式会社クボタ 作業車両
WO2020250643A1 (ja) * 2019-06-13 2020-12-17 株式会社小糸製作所 車両への情報伝達方法および交通用インフラ設備

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112046390A (zh) * 2015-04-10 2020-12-08 麦克赛尔株式会社 车辆
US11117535B2 (en) * 2016-08-18 2021-09-14 Apple Inc. System and method for interactive scene projection
DE112017007684T5 (de) * 2017-07-21 2020-03-05 Mitsubishi Electric Corporation Bestrahlungssystem und bestrahlungsverfahren
JP7158279B2 (ja) * 2018-12-28 2022-10-21 株式会社小糸製作所 標識灯システム
CN110853388A (zh) * 2019-11-14 2020-02-28 北京星云互联科技有限公司 信息发布方法及装置、车载及车外显示终端和存储介质
US11521334B2 (en) 2020-04-01 2022-12-06 Snap Inc. Augmented reality experiences of color palettes in a messaging system
US11915305B2 (en) * 2020-04-01 2024-02-27 Snap Inc. Identification of physical products for augmented reality experiences in a messaging system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005161977A (ja) * 2003-12-02 2005-06-23 Honda Motor Co Ltd 車両用走行支援装置
JP2008047006A (ja) * 2006-08-21 2008-02-28 Nec Electronics Corp 車載レーザ光照射システム
JP2010030354A (ja) * 2008-07-25 2010-02-12 Toyota Motor Corp 衝突予測装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006096326A (ja) 2004-09-03 2006-04-13 Denso Corp 車両用報知装置
JP4650717B2 (ja) 2004-09-15 2011-03-16 株式会社エクォス・リサーチ 車両
JP4720650B2 (ja) * 2006-06-30 2011-07-13 アイシン・エィ・ダブリュ株式会社 路面投影装置及び路面投影方法
DE102006050548B4 (de) 2006-10-26 2014-05-08 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Warnung anderer Verkehrsteilnehmer
WO2008139516A1 (ja) * 2007-04-27 2008-11-20 Aisin Aw Co., Ltd. 運転支援装置
JP4582151B2 (ja) 2008-01-18 2010-11-17 株式会社デンソー 表示制御装置
JP4780422B2 (ja) * 2008-12-22 2011-09-28 ソニー株式会社 画像表示装置および方法
DE112010001542B4 (de) * 2009-04-07 2015-01-29 Mitsubishi Electric Corporation Fahrzeugseitige Schmalband-drahtlose Kommunikationsvorrichtungund Strassenseite-zu-Fahrzeug-Schmalband-drahtloses Kommunikationssystem
US8536995B2 (en) * 2009-12-10 2013-09-17 Panasonic Corporation Information display apparatus and information display method
CN102918833B (zh) * 2010-06-15 2015-07-08 三菱电机株式会社 车辆周边监视装置
CN103180888B (zh) * 2010-10-22 2016-04-13 丰田自动车株式会社 驾驶支援装置
US20140218521A1 (en) * 2011-09-28 2014-08-07 Toyota Jidosha Kabushiki Kaisha Vehicle equipped with means for illuminating/watching a side area thereof
SE536537C2 (sv) * 2012-06-11 2014-02-11 Varningssystem
KR102028720B1 (ko) * 2012-07-10 2019-11-08 삼성전자주식회사 위험 요소에 대한 정보를 디스플레이하는 투명 디스플레이 장치 및 그 방법
US8733939B2 (en) * 2012-07-26 2014-05-27 Cloudcar, Inc. Vehicle content projection
JP6039964B2 (ja) * 2012-08-10 2016-12-07 株式会社小糸製作所 車両用前照灯
CN104602963B (zh) * 2012-09-05 2016-09-28 三菱电机株式会社 车辆接近通知音产生装置
DE102012024494A1 (de) 2012-12-14 2014-06-18 Audi Ag Flurförderzeug mit einer optischen Warneinrichtung, Kraftfahrzeug mit einer optischen Warneinrichtung und Projektor zur Verwendung als optische Warneinrichtung
DE102012223410A1 (de) 2012-12-17 2014-06-18 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Kommunikation eines Fahrzeugs an seine Umgebung
CN104118351A (zh) * 2013-04-24 2014-10-29 鸿富锦精密工业(深圳)有限公司 车辆辅助系统及车辆辅助方法
KR101470194B1 (ko) * 2013-07-18 2014-12-05 현대자동차주식회사 차량용 가이드램프 장치
CN103413449B (zh) * 2013-07-25 2015-06-10 重庆交通大学 一种高速公路匝道智能指路系统及其指路方法
WO2015010320A1 (en) * 2013-07-26 2015-01-29 Harman International Industries, Incorporated Time-to-collision estimation method and system
US20170001554A1 (en) * 2013-12-16 2017-01-05 Blindspotit Ivs Dynamic Warning System
JP6345776B2 (ja) * 2014-06-18 2018-06-20 マクセル株式会社 ヘッドライト装置およびそれを用いた車両装置
EP3172084B1 (en) * 2014-07-25 2023-12-13 Transoft Technologies Inc. Onboard traffic and pedestrian warning system and method
CN115447474A (zh) * 2015-01-13 2022-12-09 麦克赛尔株式会社 图像投影装置和图像投影方法
US9550450B2 (en) * 2015-01-20 2017-01-24 Ford Global Technologies, Llc Exit warning system for a motor vehicle having a sliding door

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005161977A (ja) * 2003-12-02 2005-06-23 Honda Motor Co Ltd 車両用走行支援装置
JP2008047006A (ja) * 2006-08-21 2008-02-28 Nec Electronics Corp 車載レーザ光照射システム
JP2010030354A (ja) * 2008-07-25 2010-02-12 Toyota Motor Corp 衝突予測装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020037401A (ja) * 2018-08-31 2020-03-12 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 車両外部のフィードバックを提供する方法、装置、機器および記憶媒体
US11074810B2 (en) 2018-08-31 2021-07-27 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for providing feedback to outside of vehicle, device, and storage medium
JP2020103091A (ja) * 2018-12-26 2020-07-09 株式会社クボタ 作業車両
US11533835B2 (en) 2018-12-26 2022-12-27 Kubota Corporation Working vehicle
JP7242292B2 (ja) 2018-12-26 2023-03-20 株式会社クボタ 作業車両
WO2020250643A1 (ja) * 2019-06-13 2020-12-17 株式会社小糸製作所 車両への情報伝達方法および交通用インフラ設備

Also Published As

Publication number Publication date
JPWO2017138148A1 (ja) 2018-04-26
DE112016006199B4 (de) 2024-02-01
CN108604412A (zh) 2018-09-28
DE112016006199T5 (de) 2018-10-04
CN108604412B (zh) 2021-02-12
JP6351888B2 (ja) 2018-07-04
US10696216B2 (en) 2020-06-30
US20190016257A1 (en) 2019-01-17

Similar Documents

Publication Publication Date Title
JP6351888B2 (ja) 情報表示装置及び情報表示方法
US10748428B2 (en) Vehicle and control method therefor
US9937948B2 (en) Steering input apparatus for vehicle and vehicle
US10304340B2 (en) Control device mounted on vehicle and method for controlling the same
US9978280B2 (en) Driver assistance apparatus and vehicle including the same
JP6400215B2 (ja) 車両制御装置及び車両制御方法
US9815467B2 (en) Vehicle assistance apparatus and vehicle
US20180056996A1 (en) Driver assistance apparatus and vehicle
US20170060234A1 (en) Driver assistance apparatus and method for controlling the same
US10589665B2 (en) Information display device and information display method
JP6279165B2 (ja) 情報表示装置及び情報表示方法
JP4906437B2 (ja) 周辺監視システム
US11858414B2 (en) Attention calling device, attention calling method, and computer-readable medium
WO2019155778A1 (ja) 衝突回避支援装置、プログラム、衝突回避支援方法
JP2008071062A (ja) 運転支援装置および通知方法
KR20190062686A (ko) 자율 주행 제어 시스템, 그를 가지는 차량 및 그 제어 방법
KR20190065043A (ko) 차량의 운행 시스템
CN114074601A (zh) 通过停放的车辆输出警告信号的方法
KR102480989B1 (ko) 차량용 디스플레이 장치 및 그 동작 방법
KR102559534B1 (ko) 악천후에서의 차량의 주행차선 지원 방법 및 장치
US20230141584A1 (en) Apparatus for displaying at least one virtual lane line based on environmental condition and method of controlling same
JP5097686B2 (ja) 車両用警報装置
US11195029B2 (en) Driver assistance system
KR20170006523A (ko) 차량 운행에 관한 주의 정보 표시 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16889850

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017566489

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 112016006199

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16889850

Country of ref document: EP

Kind code of ref document: A1