WO2014054151A1 - 車載情報処理装置 - Google Patents

車載情報処理装置 Download PDF

Info

Publication number
WO2014054151A1
WO2014054151A1 PCT/JP2012/075793 JP2012075793W WO2014054151A1 WO 2014054151 A1 WO2014054151 A1 WO 2014054151A1 JP 2012075793 W JP2012075793 W JP 2012075793W WO 2014054151 A1 WO2014054151 A1 WO 2014054151A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
information
driver
state
processing apparatus
Prior art date
Application number
PCT/JP2012/075793
Other languages
English (en)
French (fr)
Inventor
下谷 光生
秀彦 大木
御厨 誠
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2014539538A priority Critical patent/JP5931208B2/ja
Priority to DE112012006975.7T priority patent/DE112012006975T5/de
Priority to US14/420,312 priority patent/US9396658B2/en
Priority to PCT/JP2012/075793 priority patent/WO2014054151A1/ja
Priority to CN201280076260.6A priority patent/CN104704541B/zh
Publication of WO2014054151A1 publication Critical patent/WO2014054151A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/095Traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Definitions

  • the present invention relates to an in-vehicle information processing apparatus that alerts a driver of a host vehicle or controls traveling of the host vehicle based on other vehicle information acquired from another vehicle.
  • Patent Document 1 it is determined whether or not the other vehicle is a vehicle that should pay attention based on information (static information) unique to the driver of the other vehicle, and there is a certain alerting effect. It was.
  • a driver's task increases in a state where an in-vehicle device existing in a vehicle is being operated or a H / F (hands-free) call is in progress.
  • the time required for recognition and judgment during driving tends to be longer.
  • the vehicle driven by the driver may correspond to a vehicle to which attention should be paid.
  • Patent Document 1 does not determine whether or not the other vehicle is a vehicle to which attention should be paid based on the current activity state of the driver of the other vehicle. Therefore, it cannot be said that the driver of the own vehicle is sufficiently alerted that the other vehicle is a vehicle to which attention should be paid.
  • the present invention has been made to solve these problems, and an object of the present invention is to provide an in-vehicle information processing apparatus capable of sufficiently alerting the driver of the host vehicle.
  • an in-vehicle information processing apparatus includes an other vehicle position detection unit that detects the position of another vehicle existing around the host vehicle, and another detected by the other vehicle position detection unit.
  • the communication part which acquires the other vehicle information containing the driver dynamic information which shows the driver's present activity state of the other vehicle concerned from other vehicles by communication, and the driver dynamic information acquired in the communication part
  • a control unit for controlling the driver of the host vehicle or controlling the traveling of the host vehicle.
  • the other vehicle position detection unit that detects the position of another vehicle existing around the host vehicle, and the current activity of the driver of the other vehicle with respect to the other vehicle detected by the other vehicle position detection unit
  • a communication unit that acquires other vehicle information including driver dynamic information indicating a state from another vehicle by communication, and alerts the driver of the host vehicle based on the driver dynamic information acquired by the communication unit
  • a control unit that controls the traveling of the host vehicle, the driver of the host vehicle can be sufficiently alerted.
  • FIG. 1 is a diagram illustrating an application example of the in-vehicle information processing apparatuses 100 and 200 according to the first embodiment.
  • the vehicle A and the vehicle B are traveling in the same direction, and the vehicle C is traveling in the oncoming lane.
  • the vehicle information processing apparatus 100 is mounted on the vehicle A
  • the vehicle information processing apparatus 200 is mounted on the vehicle B, so that the vehicle A and the vehicle B can communicate with each other by inter-vehicle communication.
  • the in-vehicle information processing apparatus 100 will be described as a receiving-side apparatus that receives information transmitted from the vehicle B.
  • the on-vehicle information processing apparatus 200 will be described as a transmission-side apparatus that transmits information to the vehicle A.
  • FIG. 2 is a block diagram illustrating an example of the configuration of the in-vehicle information processing apparatus 100.
  • the host vehicle is described as vehicle A and the other vehicle is described as vehicle B.
  • the in-vehicle information processing apparatus 100 includes an other vehicle position detection unit 101, a communication unit 102, a GUI (Graphical (User Interface) unit 103, an attention level calculation unit 104, and a map DB (Data ⁇ ⁇ Base). 105, an in-vehicle sensor I / F (interface) unit 106, and a control unit 107.
  • the other vehicle position detection unit 101 is connected to the ultrasonic sensor 108 and the image sensor 109.
  • the other vehicle position detection unit 101 detects the relative position of the vehicle B (another vehicle) existing around the vehicle A (the host vehicle) based on the detection result by the ultrasonic sensor 108 or the image sensor 109.
  • An example of the image sensor 109 is a camera.
  • the communication unit 102 performs inter-vehicle communication with the vehicle B and acquires other vehicle information from the vehicle B.
  • the other vehicle information is information including all of the information related to the other vehicle (vehicle B).
  • the communication means may be any means such as a wireless LAN (Local Area Network), UWB (Ultra Wide Band), or optical communication.
  • the GUI unit 103 is connected to a touch panel 110, a liquid crystal monitor 111 (display unit), and a speaker 112.
  • the GUI unit 103 inputs driver operation information acquired via the touch panel 110 to the control unit 107.
  • display information input from the control unit 107 is output to the liquid crystal monitor 111
  • audio information input from the control unit 107 is output to the speaker 112.
  • the attention level calculation unit 104 calculates the attention level for the vehicle B based on the other vehicle information acquired from the vehicle B via the communication unit 102.
  • the attention level refers to the degree to which the driver of the vehicle A should pay attention to the vehicle B (the degree to which attention is paid), and the attention level calculation unit 104 has at least two attentions (two steps) or more. A level is calculated.
  • the map DB 105 stores map data.
  • the in-vehicle sensor I / F unit 106 is connected to a GPS (Global Positioning System) 113, a vehicle speed pulse 114, a gyro sensor 115, a vehicle control device 116, an engine control device 117, a body system control device 118, and the like via an in-vehicle LAN 119. Yes.
  • the control unit 107 can receive and instruct various information via the in-vehicle LAN 119 and the in-vehicle sensor I / F unit 106.
  • control unit 107 Information acquired by each of the GPS 113, the vehicle speed pulse 114, and the gyro sensor 115 is input to the control unit 107 via the in-vehicle sensor I / F unit 106, and the position of the host vehicle is detected by the control unit 107. That is, the control unit 107 has a function of detecting the position of the host vehicle.
  • the vehicle control device 116 inputs an operation by a driver from a brake pedal, an accelerator pedal, or a steering wheel, and controls the traveling of the host vehicle.
  • the speed of the host vehicle is controlled by controlling the engine speed, the brake system, etc., or the traveling direction of the host vehicle is controlled by controlling the attitude of the shaft. It also controls semi-automatic driving functions such as auto cruise.
  • the engine control device 117 performs fuel control and ignition timing control.
  • the body system control device 118 controls operations that are not directly related to traveling in the host vehicle. For example, it controls wiper driving, lighting information transmission, blinker lighting, door opening and closing, window opening and closing.
  • the control unit 107 controls each component of the in-vehicle information processing apparatus 100.
  • FIG. 3 is a block diagram showing an example of the configuration of the in-vehicle information processing apparatus 200.
  • the host vehicle is described as vehicle B and the other vehicle is described as vehicle A.
  • the in-vehicle information processing apparatus 200 includes an in-vehicle state detection unit 201, a communication unit 202, a GUI unit 203, a driver dynamic state detection unit 204, a map DB 205, and a position detection unit 206.
  • the driver static information acquisition unit 207 and the control unit 208 are provided.
  • the in-vehicle state detection unit 201 is connected to the in-vehicle detection sensor 209, detects the state in the vehicle B based on the detection result by the in-vehicle detection sensor 209, and detects, for example, the presence or absence of a passenger and the state of the passenger.
  • the in-vehicle detection sensor 209 includes, for example, a camera that is an image sensor, a pressure sensor provided in each seat to detect whether or not a passenger is sitting on the seat, a microphone that acquires audio information in the vehicle B, and the like There is.
  • information indicating the state in the vehicle B detected by the in-vehicle state detection unit 201 may be used as in-vehicle information, and the in-vehicle information may be included in the own vehicle information and transmitted to the vehicle A by the communication unit 202. it can.
  • the communication unit 202 performs inter-vehicle communication with the vehicle A, and transmits own vehicle information to the vehicle A.
  • the host vehicle information is information including all information related to the host vehicle (vehicle B) transmitted to the other vehicle (vehicle A), and corresponds to the other vehicle information acquired by the communication unit 102 in FIG. .
  • the communication means may be any means such as wireless LAN, UWB, or optical communication.
  • the GUI unit 203 is connected to the touch panel 210 and the liquid crystal monitor 211.
  • the GUI unit 203 inputs driver operation information acquired via the touch panel 210 to the control unit 208.
  • the display information input from the control unit 208 is output to the liquid crystal monitor 211.
  • the driver dynamic state detection unit 204 detects the current activity state of the driver of the vehicle B. Information indicating the current activity state of the driver detected by the driver dynamic state detection unit 204 is used as driver dynamic information, and the driver dynamic information is included in the own vehicle information, and the communication unit 202 uses the vehicle A. Can be sent to.
  • the map DB 205 stores map data.
  • the position detection unit 206 is connected to the GPS 212 and the vehicle speed pulse 213.
  • the position detection unit 206 detects the position of the host vehicle based on information acquired from each of the GPS 113 and the vehicle speed pulse 114.
  • the driver static information acquisition unit 207 acquires driver static information that is information unique to the driver of the vehicle B.
  • Examples of the driver static information include information related to driver sign display (information such as beginners and elderly people), driver's license information, or accident history information.
  • the driver static information acquired by the driver static information acquisition unit 207 can be included in the host vehicle information and transmitted to the vehicle A by the communication unit 202.
  • the control unit 208 controls each component of the in-vehicle information processing apparatus 200.
  • the H / F (Hands Free) device 214 is a device for performing H / F calls (hands-free calls), and is connected to the control unit 208.
  • the AV (Audio Visual) device 215 is a device for reproducing audio or video such as radio or music, and is connected to the control unit 208.
  • driver's current activity state (driver's dynamic state) detected by the driver dynamic state detection unit 204 will be described.
  • the driver's activity status is roughly divided into three categories.
  • the first driver's activity state is an operating state of in-vehicle devices (H / F device 214, AV device 215 in FIG. 3) that exist in the host vehicle that can be operated by the driver of the host vehicle. That is.
  • the driver dynamic state detection unit 204 detects the operation state of the in-vehicle device.
  • the operation state of the in-vehicle device will be exemplified.
  • An example of the operation state of the in-vehicle device is that the in-vehicle device is being operated.
  • a signal indicating that the H / F device 214 or the AV device 215 is being operated is sent from the H / F device 214 or the AV device 215 to the driver dynamic state detection unit 204 via the control unit 208.
  • the driver dynamic state detection unit 204 detects that the H / F device 214 or the AV device 215 is in an operating state by detecting a signal indicating that the operation is in progress.
  • the operation state of the in-vehicle device is that the in-vehicle device and the mobile communication terminal are in a connected state.
  • the car navigation device receives information operated by the mobile communication terminal, so that the operation status of the mobile communication terminal on the car navigation device side Can be grasped.
  • the driver dynamic state detection unit 204 detects a signal indicating that the mobile communication terminal is being operated, it can be understood that the mobile communication terminal is being operated.
  • the car navigation device and the mobile communication terminal may be connected by wire (for example, USB (Universal Serial Bus)) or wirelessly (for example, Bluetooth (registered trademark), wireless LAN).
  • the driver dynamic state detection unit 204 detects a signal indicating that the hands-free call is being made or a call is being made. By doing so, it is understood that a hands-free call or a call is being made.
  • the second driver activity state is a state in which in-vehicle equipment is presenting information to the driver of the vehicle.
  • the information presented here refers to new information other than information that is constantly presented. Specifically, when route guidance to a destination is given, there are guidance information presented at the time of turning left and right, traffic jam information presented at the time of traffic jams / accidents, and the like.
  • the driver dynamic state detection unit 204 detects that the in-vehicle device has presented information.
  • the presentation state of information by the in-vehicle device will be exemplified.
  • An example of the information presentation state is that the in-vehicle device is outputting music at a predetermined volume or higher.
  • the AV apparatus 215 is outputting music
  • a signal indicating that the sound volume is operated higher than a predetermined value is input to the driver dynamic state detection unit 204.
  • the driver dynamic state detection unit 204 detects the signal indicating that the operation has been performed, whereby it can be understood that the AV device 214 is outputting music at a predetermined volume or higher.
  • the in-vehicle device is informing the incoming call.
  • a signal indicating that the incoming call has been received is input to the driver dynamic state detection unit 204.
  • the driver dynamic state detection unit 204 detects that the incoming call has been received, thereby indicating that the H / F device 214 has received an incoming call from the outside and has made a notification.
  • the information presentation state is a state where information acquired from the outside is presented to the driver.
  • the driver dynamic state detection unit 204 detects that the information has been acquired from the outside, thereby acquiring information from the outside. It can be seen that it is presented to the driver.
  • the information presentation state is a state in which the driver is checking the information presented on the in-vehicle device.
  • the driver dynamic state detection unit 204 acquires (detects) information indicating that a series of operation sequences (operation sequences to be performed for confirmation) in the in-vehicle device is not completed, so that the driver can It can be seen that the information presented to the internal device is being checked.
  • the third driver's activity state is the driving history of the driver on the current day or the planned driving state.
  • the state such as the driving time after the start of driving and the distance from the current position to the destination can be mentioned.
  • the driver's fatigue level can be grasped from the driver's continuous running time.
  • the driver's attention may be reduced particularly immediately after the start of driving after a sleep break.
  • the driver's attention may be distracted by the driver looking around the area.
  • the driver dynamic state detection unit 204 detects the state of the driver by acquiring information related to the traveling history or traveling schedule of the day from the navigation device.
  • the driver's current activity state (dynamic state) detected by the driver dynamic state detection unit 204 is included in the own vehicle information as driver dynamic information from the communication unit 202 to other vehicles (vehicles). A).
  • FIG. 4 is a flowchart showing an example of the operation of the in-vehicle information processing apparatus 100.
  • step S41 the control unit 107 detects the current position of the vehicle A, which is the host vehicle, based on the information acquired by the GPS 113, the vehicle speed pulse 114, and the gyro sensor 115.
  • the control unit 107 generates image data that displays the position of the host vehicle (the position of the vehicle A) on the map.
  • the generated image data is input to the liquid crystal monitor 111 via the GUI unit 103, and an image is displayed on the liquid crystal monitor 111.
  • step S42 it is determined whether or not the vehicle B that is another vehicle around the vehicle A is detected.
  • the process proceeds to step S43.
  • the process proceeds to step S46.
  • the vehicle B is detected by the other vehicle position detection unit 101 based on information from the ultrasonic sensor 108 or the image sensor 109.
  • step S43 the communication unit 102 acquires other vehicle information including driver dynamic information of the vehicle B through inter-vehicle communication.
  • Other vehicle information is acquired every predetermined timing (for example, 0.1 second).
  • the vehicle A may acquire other vehicle information from the vehicle B after making a communication request to the vehicle B. Further, when the vehicle B always transmits other vehicle information, the vehicle A may acquire other vehicle information transmitted from the vehicle B.
  • step S44 the attention level calculation unit 104 calculates the attention level based on the driver dynamic information of the vehicle B included in the other vehicle information.
  • the caution level calculation unit 104 calculates two caution levels (whether or not attention is required) (two levels).
  • control unit 107 determines a display method of the vehicle B on the map based on the attention level calculated by the attention level calculation unit 104.
  • step S45 the control unit 107 outputs the image data to the liquid crystal monitor 111 via the GUI unit 103 so as to display the display method determined in step S44.
  • the liquid crystal monitor 111 displays the vehicle B on the map based on the image data input from the control unit 107.
  • step S46 it is determined whether or not the driving of the vehicle A has been completed. When the driving of the vehicle A is finished, the process is finished. On the other hand, when the driving
  • FIG. 5 is a diagram illustrating an example of display on the vehicle A when attention to the vehicle B is unnecessary.
  • the attention level calculation unit 104 calculates the attention level based on the driver dynamic information included in the other vehicle information acquired from the vehicle B. Then, the control unit 107 determines that attention to the vehicle B is unnecessary based on the attention level calculated by the attention level calculation unit 104 (that is, the dynamic state of the driver of the vehicle B is good). In this case, the vehicle B reflecting the determination result is displayed on the liquid crystal monitor 111. For example, as shown in FIG. 5, the vehicle B is displayed as a white triangle.
  • the driver of the vehicle A can easily recognize that the vehicle B is not a vehicle requiring attention.
  • FIG. 6 is a diagram illustrating an example of display on the vehicle A when attention to the vehicle B is necessary.
  • the attention level calculation unit 104 calculates the attention level based on the driver dynamic information included in the other vehicle information acquired from the vehicle B. Then, the control unit 107 needs to pay attention to the vehicle B based on the attention level calculated by the attention level calculation unit 104 (that is, it is necessary to pay attention to the dynamic state of the driver of the vehicle B).
  • the vehicle B reflecting the determination result is displayed on the liquid crystal monitor 111. For example, as shown in FIG. 6, the vehicle B is displayed with a color different from that of the vehicle A (different hatching in FIG. 6).
  • the driver of the vehicle A can easily recognize that the vehicle B is a vehicle requiring attention.
  • FIG. 7 is a flowchart showing an example of the operation of the in-vehicle information processing apparatus 200.
  • step S71 the control unit 208 detects the current position of the vehicle B, which is the host vehicle, based on the information acquired by the GPS 212 and the vehicle speed pulse 213.
  • the control unit 208 generates image data for displaying the own vehicle position (the position of the vehicle B) on the map based on the position detection result of the vehicle B and the map data stored in the map DB 205.
  • the generated image data is input to the liquid crystal monitor 211 via the GUI unit 203, and an image is displayed on the liquid crystal monitor 211.
  • step S72 the driver dynamic state detection unit 204 detects the dynamic state of the driver of the vehicle B.
  • step S73 the control unit 208 determines whether there is a communication request from the vehicle A, which is another vehicle, via the communication unit 202. If there is a communication request from the vehicle A, the process proceeds to step S74. On the other hand, if there is no communication request from the vehicle A, the process proceeds to step S75. That is, when there is a communication request from the vehicle A, the control unit 208 controls the communication unit 202 to transmit the own vehicle information to the vehicle A.
  • step S74 information indicating the dynamic state of the driver detected by the driver dynamic state detection unit 204 is set as driver dynamic information, and the driver dynamic information is included in the own vehicle information from the communication unit 202. Transmit to vehicle A.
  • the own vehicle information transmitted in step S74 corresponds to the other vehicle information acquired in step S43 in FIG.
  • step S75 it is determined whether or not the driving of the vehicle B has been completed. When the driving of the vehicle B is finished, the process is finished. On the other hand, if the driving of the vehicle B has not ended, the process proceeds to step S71.
  • the display method of the other vehicle based on the dynamic state of the driver of the other vehicle, it is easy to determine whether the other vehicle is a vehicle to be careful. Since the determination can be made, it is possible to alert the driver of the vehicle sufficiently.
  • ⁇ Modification 1> In the first embodiment, it has been described that the display method of the other vehicle is determined based on the attention level calculated by the attention level calculation unit 104 in step S44 of FIG. 4, but is not limited thereto. .
  • the traveling of the host vehicle may be controlled based on the attention level.
  • the control unit 107 controls the vehicle control device 116 that controls semi-automatic driving such as auto cruise based on the dynamic state of the driver of another vehicle. Based on control by the control unit 107, the vehicle control device 116 increases the inter-vehicle distance when attention to other vehicles is required, and sets the inter-vehicle distance to a normal length when attention to other vehicles is not required. .
  • a warning earlier than usual may be notified to the driver when the attention level is high.
  • a warning by voice or the like may be output to the driver of the own vehicle based on the attention level.
  • the control unit 107 controls to output an alarm from the speaker 112 when attention to another vehicle is required based on the attention level.
  • ⁇ Modification 2> In the first embodiment, the detection of the position of the other vehicle by the other vehicle position detection unit 101 using the ultrasonic sensor 108 and the image sensor 109 has been described. However, the method for detecting the position of the other vehicle is limited to this. It is not a thing. For example, in addition to detecting the position of the other vehicle as in the first embodiment, the vehicle number that is the unique information of the other vehicle is recognized by the image processing by the image sensor 109 and received via the communication unit 102. Vehicle number information of the other vehicle included in the vehicle information is acquired. Then, another vehicle may be specified by collating the vehicle number recognized by the image sensor 109 with the vehicle number information acquired via the communication unit 102.
  • the in-vehicle information processing apparatus 200 of the vehicle B may include a caution level calculation unit (not shown), and the caution level calculation unit may calculate the caution level.
  • the vehicle B includes information on the calculated attention level in its own vehicle information and transmits it to the vehicle A.
  • the alerting to the driver of the vehicle A or the traveling of the vehicle A is controlled.
  • the in-vehicle information processing apparatus 100 includes an other vehicle position detection unit 101, an ultrasonic sensor 108, and an image sensor 109 that are included in the in-vehicle information processing apparatus 100 according to the first embodiment (see FIG. 2). Not equipped.
  • Other configurations and operations are the same as those of the first embodiment, and thus description thereof is omitted here.
  • vehicle A In the own vehicle (hereinafter referred to as vehicle A), if a communication request is issued to another vehicle (hereinafter referred to as vehicle B) by inter-vehicle communication and a response is received from vehicle B (that is, communication with vehicle B is possible). If so, it is assumed that the vehicle B exists. Thereafter, the position information of the vehicle B is acquired from the vehicle B by inter-vehicle communication.
  • vehicle B In the own vehicle (hereinafter referred to as vehicle A), if a communication request is issued to another vehicle (hereinafter referred to as vehicle B) by inter-vehicle communication and a response is received from vehicle B (that is, communication with vehicle B is possible). If so, it is assumed that the vehicle B exists. Thereafter, the position information of the vehicle B is acquired from the vehicle B by inter-vehicle communication.
  • the on-vehicle information processing apparatus 100 does not include the other vehicle position detection unit 101, the ultrasonic sensor 108, and the image sensor 109.
  • the configuration can be simplified as compared with the first embodiment.
  • the position detection method of the other vehicle in the other vehicle is arbitrary, but when the position detection method of the other vehicle using the quasi-zenith satellite is adopted, the position detection accuracy is good, so that it is particularly effective.
  • Embodiment 3 of the present invention a case where communication between the own vehicle (hereinafter referred to as vehicle A) and another vehicle (hereinafter referred to as vehicle B) is performed through a predetermined communication network other than inter-vehicle communication will be described. To do.
  • vehicle A own vehicle
  • vehicle B another vehicle
  • description thereof is omitted here.
  • the vehicle A and the vehicle B may communicate with each other via a wide area communication network such as a mobile phone.
  • a wide area communication network such as a mobile phone.
  • communication may be performed via DSRC (Dedicated Short Range Communication) (registered trademark) or road-to-vehicle communication by wireless LAN.
  • DSRC Dedicated Short Range Communication
  • the vehicle A acquires the position information of the vehicle B, it may be acquired from an apparatus for detecting a vehicle installed on the roadside.
  • the communication unit 102 of the vehicle A can acquire other vehicle information from the vehicle B via a predetermined communication network, and is the same as in the first and second embodiments. The effect is obtained.
  • FIG. 8 is a diagram showing an example of display on the host vehicle (vehicle A) when traveling on a road having a plurality of lanes. Vehicles B, C, and D indicate other vehicles.
  • lane information included in the map information of the map DB (for example, map DB 105, 205) provided for each vehicle A and D, and each vehicle A to D are provided. It is possible to detect which lane the vehicle is traveling on the basis of information on white line recognition by a camera (for example, the image sensor 109 provided in the vehicle A).
  • lane information included in the map information of the map DBs (for example, map DBs 105 and 205) provided for the vehicles A to D and the quasi-zenith satellites of the vehicles A to D are used. Based on the position information of the other vehicle, it is possible to detect which lane the vehicle is traveling.
  • the vehicle A acquires information on the lane and the position on which the vehicles B to D travel from the vehicles B to D. That is, the positions of the vehicles B to D are specified based on the position information of the vehicles B to D included in the other vehicle information or the information specifying the traveling road. Then, based on the acquired information on the lane and the position where the vehicles BD travel and the information on the lane and the position where the vehicle A travels, which position the vehicles BD are traveling with respect to the vehicle A. It can be judged.
  • 9 (a) to 9 (d) show the position display of each own vehicle displayed on each vehicle.
  • the vehicle A to D travels to which vehicle A by which lane.
  • the position of the other vehicle (vehicles B to D) may be displayed based on the own vehicle (vehicle A) so that the driver can easily see the vehicle.
  • the display content of the other vehicle is changed depending on whether or not the other vehicle is in a state of caution.
  • the positions of the vehicles B to D specify the position information of the vehicles B to D or the traveling road included in the other vehicle information acquired from the vehicles B to D. Since the information is specified based on the information, it is possible to determine which position the vehicles B to D are traveling with respect to the vehicle A, and alert the driver of the own vehicle based on the determination. It becomes possible.
  • the attention level calculation unit 104 calculates two (two stages) attention levels based on the driver dynamic information of another vehicle (hereinafter referred to as vehicle B). Then, based on the driver dynamic information of the vehicle B, the driver static information, the in-vehicle information, and the position information, a plurality of (a plurality of stages) attention levels are calculated.
  • vehicle B the driver dynamic information of another vehicle
  • a plurality of (a plurality of stages) attention levels are calculated.
  • Other configurations and operations are the same as those in the first to fourth embodiments, and thus description thereof is omitted here.
  • the attention level calculation unit 104 can calculate a more detailed attention level by acquiring information indicating the state of the driver or the passenger in the other vehicle.
  • predetermined levels or coefficients are set according to the state of each information.
  • levels set according to the state of each information will be described with reference to FIGS.
  • FIG. 10 is a diagram showing an example of the relationship between driver dynamic information and level.
  • the level L1 is set according to the activity state (dynamic state) of the driver of the vehicle B.
  • “during loud music” means that the driver is listening to music at a loud volume.
  • “when arousal is reduced” refers to a state in which the driver feels drowsy, for example.
  • FIG. 11 is a diagram showing an example of the relationship between the driver static information and the level.
  • the level L2 is set according to information unique to the driver of the vehicle B.
  • Gold License means a driver's license issued to a superior driver (no accident / no violation for 5 years before the date when the driver's license expires)
  • a driver's license color is gold.
  • Normal license means a driver's license issued to a driver other than a good driver, and the color of the driver's license is green or blue. Say.
  • Driver sign display vehicle refers to a vehicle that particularly displays a driver's state, for example, an initial driver sign (beginner mark), an elderly driver sign (old driver mark). It means a vehicle displaying a handicapped person sign (handicapped person mark) or a hearing handicapped person sign (deaf person mark).
  • FIG. 12 is a diagram showing an example of the relationship between the passenger's state and level.
  • the state in the vehicle B is assumed to be a passenger's state, and the level L3 is set according to the passenger's state.
  • the state where the passenger is “present” when the level L3 is “1” means that the passenger is quiet.
  • FIG. 13 is a diagram illustrating an example of the relationship between the vehicle position of the vehicle B and the coefficient R.
  • the coefficient R is set according to the vehicle position of the vehicle B.
  • the control unit 107 performs control for alerting the driver and control of semi-automatic driving (control of the inter-vehicle distance) based on the level of attention calculated according to the equation (1).
  • FIG. 14 is a diagram illustrating an example of the relationship between the attention level L and the attention calling method.
  • control unit 107 performs alerting according to the plurality of attention levels L calculated by the attention level calculation unit 104.
  • the “display” column shows a display example of the vehicle B on the map of the liquid crystal monitor 111.
  • the “voice” column shows an example of the voice output from the speaker 112.
  • a plurality of attention levels are calculated based on the driver dynamic information, driver static information, other in-vehicle information, and position information of the other vehicle (vehicle B). Therefore, the control unit 107 can perform appropriate alerting and semi-automatic driving control according to the state (attention level) of the other vehicle. For example, when a conversation is being performed in another vehicle, it is necessary to pay attention to the other vehicle. Therefore, it is possible to call the driver of the own vehicle to be more careful.
  • Embodiment 6 of the present invention another vehicle (hereinafter referred to as vehicle B) that can communicate with the host vehicle (hereinafter referred to as vehicle A), and another vehicle that cannot communicate with vehicle A (hereinafter referred to as vehicle C). Will be described with reference to FIGS. 15 to 19.
  • vehicle B another vehicle that can communicate with the host vehicle
  • vehicle C another vehicle that cannot communicate with vehicle A
  • FIGS. 15 to 19 FIG. Note that the configuration and operation are the same as in Embodiments 1 to 5, and thus the description thereof is omitted here.
  • FIG. 15 is a diagram illustrating an example of display on the vehicle A.
  • the vehicle B travels in front of the vehicle A, and the vehicle C travels behind the vehicle A. Since the inter-vehicle communication is established between the vehicle A and the vehicle B (communication is possible), an antenna (a downward triangle added to the vehicle A and the vehicle B) is displayed on the vehicle A and the vehicle B. For example, the display of the vehicle B may be changed according to the attention level L shown in FIG.
  • the vehicle A and the vehicle C have not established an inter-vehicle communication (cannot communicate), and therefore no antenna is displayed on the vehicle C.
  • FIG. 16 the vehicle A and the vehicle B are displayed so as to be connected by a dashed arrow. Other displays are the same as in FIG.
  • the display as shown in FIG. 16 makes it easier for the driver to visually recognize that the communication between the vehicle A and the vehicle B is established.
  • the display as shown in FIG. 15 is displayed.
  • the display is as shown in FIG. good.
  • FIG. 17 is a diagram illustrating another example of display on the vehicle A.
  • vehicle B travels in front of vehicle A and vehicle C travels after vehicle A. Further, vehicle-to-vehicle communication has been established between vehicle A and vehicle B (communication is possible). At this time, the vehicle B is in a state that does not require attention.
  • the vehicle C is displayed in a somewhat three-dimensional manner.
  • FIG. 19 is a diagram showing another example of display on the vehicle A.
  • a black square is displayed on the vehicle A, and a white square is displayed on the vehicles B and C. This indicates that the vehicle A and the vehicles B and C can communicate with each other.
  • an initial driver sign (beginner mark) is displayed on the vehicle C.
  • a square is not displayed on the vehicle D. This indicates that the vehicle D cannot communicate between vehicles.
  • an elderly driver sign an elderly person mark
  • an elderly person mark is displayed on the vehicle D.
  • the initial driver sign (starter mark) of the vehicle C and the elderly driver sign (elderly person mark) of the vehicle D can be acquired by the image sensor 109 provided in the vehicle A. Moreover, as long as it can distinguish and display that communication between vehicles is possible, it is good also as not only a rectangle but arbitrary shapes.
  • the control unit 107 can control the vehicle on the liquid crystal monitor 111 according to the case where the control unit 107 cannot communicate with the vehicle C and the driver dynamic information when the control unit 107 can communicate with the vehicle B. Since the liquid crystal monitor 111 is controlled so that the displays regarding B and C are different, the driver of the vehicle A can easily see the state of the other vehicle. Therefore, sufficient attention can be given to the driver. Further, the control unit 107 can also control the traveling of the vehicle A according to the case where communication with the vehicle C is impossible and the driver dynamic information when communication with the vehicle B is possible.
  • the in-vehicle information processing apparatus has both functions of a transmission side function for transmitting own vehicle information and a reception side function for receiving other vehicle information transmitted from another vehicle. The case where it has is demonstrated.
  • FIG. 20 is a diagram illustrating an example of the configuration of the in-vehicle information processing device 300 according to the seventh embodiment.
  • the in-vehicle information processing apparatus 300 has a configuration in which the in-vehicle information processing apparatus 100 shown in FIG. 2 and the in-vehicle information processing apparatus 200 shown in FIG. 3 are combined.
  • the configuration and operation of the in-vehicle information processing apparatus 300 are the same as those of the in-vehicle information processing apparatuses 100 and 200 according to Embodiments 1 to 6, and thus description thereof is omitted here.
  • the in-vehicle information processing device 300 has the function on the transmission side and the function on the reception side. Drivers can be careful.
  • control unit 107 has been described as detecting the vehicle position based on information acquired by the GPS 113, the vehicle speed pulse 114, and the gyro sensor 115, but the in-vehicle sensor I / F unit 106 is described. May have a function of detecting the position of the host vehicle.
  • the detection of the relative position of the other vehicle existing around the own vehicle using the ultrasonic sensor 108 and the image sensor 109 has been described.
  • the position detection method of the other vehicle is limited to this. It is not a thing.
  • the absolute position of another vehicle can be detected by adding the position information obtained by the GPS 113 of the own vehicle to the detection results obtained by the ultrasonic sensor 108 and the image sensor 109.
  • Embodiment 1 although the case where one vehicle B is detected as another vehicle in FIG. 4 has been described, a plurality of other vehicles may be detected.
  • the detection priority order may be determined based on the coefficient R corresponding to the position of the other vehicle with respect to the own vehicle as shown in FIG. Good. Specifically, when there is another vehicle running before and after the own vehicle, the other vehicle existing in front of the own vehicle is detected first, and the other vehicle information of the other vehicle is acquired, and then the own vehicle The other vehicle existing behind is detected and the other vehicle information of the other vehicle is acquired. That is, you may make it detect in order from the vehicle with the largest value of the coefficient R shown in FIG.
  • the user may arbitrarily set the priority order, or the user may arbitrarily set the position at which the vehicle existing in priority is detected.
  • the priority order may be set based on the attention level calculated by the attention level calculation unit 104 (for example, in descending order of attention level).
  • the priority order may be set in the same manner as described above for semi-automatic driving control (travel control).
  • the vehicle B is painted and displayed as an example of a display when attention to the vehicle B is necessary, but the present invention is not limited to this. For example, it may be displayed three-dimensionally or displayed larger.
  • the own vehicle acquires the driver static information from the other vehicle (vehicle B), but once the driver static information is acquired, it is not acquired thereafter. May be.
  • the calculation of the attention level is not limited to the equation (1).
  • the driver of the own vehicle vehicle A
  • vehicle A vehicle A
  • the attention level calculation unit 104 calculates the attention level based on the driver dynamic information, the driver static information, the other in-vehicle information, and the position information of the other vehicle (vehicle B).
  • the attention level may be calculated by combining arbitrary information among driver dynamic information, driver static information, other in-vehicle information, or position information. Further, the calculated attention level may be three or more stages as shown in FIG. 14, or may be two stages as in the first embodiment.
  • the driver's static information includes a gold license, a normal license, or a driver-signed vehicle, but this information is explained based on traffic rules in Japan.
  • level L2 corresponding to information corresponding to the information shown in FIG. 11 is set.
  • the values of the levels L1 to L3 or the coefficient R may be arbitrary values.
  • the driver of the own vehicle vehicle A
  • vehicle A may be arbitrarily set.
  • the alerting method can be arbitrarily changed.
  • the driver of the own vehicle vehicle A
  • vehicle A vehicle A
  • vehicle A the driver of the own vehicle
  • the example of a display of other vehicles is shown in FIG. 14, what kind of thing may be sufficient as a color, the intensity
  • a number indicating the attention level L may be displayed beside or inside the shape indicating the other vehicle. That is, the display may be different depending on the attention level L.
  • vehicle-to-vehicle communication has been described as an example of communication means, but other communication means (for example, see Embodiment 3) may be used.
  • attention is given to the driver of the host vehicle and travel control (control of the inter-vehicle distance) is performed based on the attention level calculated by the attention level calculation unit 104. May be notified.
  • an inter-vehicle distance from another vehicle may be detected by the ultrasonic sensor 108, and an alarm may be notified from the liquid crystal monitor 111 or the speaker 112 when the inter-vehicle distance is equal to or less than a predetermined distance.
  • the inter-vehicle distance that serves as a threshold for alerting may be changed depending on the attention level. For example, when the value of the attention level is large, the inter-vehicle distance may be increased. Further, when there is another vehicle that cannot communicate, the inter-vehicle distance may be increased.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

 本発明は、自車両の運転者に対して十分な注意喚起を行うことが可能な車載情報処理装置を提供することを目的とする。本発明による車載情報処理装置は、自車両の周辺に存在する他車両の位置を検出する他車両位置検出部101と、他車両位置検出部101にて検出された他車両について、当該他車両の運転者の現在の活動状態を示す運転者動的情報を含む他車両情報を、通信によって他車両から取得する通信部102と、通信部102にて取得した運転者動的情報に基づいて、自車両の運転者への注意喚起、または自車両の走行を制御する制御部107とを備える。

Description

車載情報処理装置
 本発明は、他車両から取得した他車両情報に基づいて、自車両の運転者への注意喚起、または自車両の走行を制御する車載情報処理装置に関する。
 従来、他車両と通信を行い、当該他車両の運転者のプロファイル、例えば運転免許証情報や事故履歴を取得して他車両が注意を払うべき車両であるか否かを判断し、判断の結果を表示装置に表示することによって自車両の運転者に対して注意を促す車両制御装置がある(例えば、特許文献1参照)。
 特許文献1では、他車両の運転者に固有の情報(静的情報)に基づいて他車両が注意を払うべき車両であるか否かを判断しており、一定の注意喚起の効果を奏していた。
特開2009-134334号公報
 一般的に、通常の運転状態に比べて、例えば車両内に存在する車両内機器を操作中の状態や、H/F(ハンズフリー)通話中の状態では運転者のタスク(作業)が増加し、運転中における認知や判断に要する時間が長くなる傾向にある。このように、運転者の現在の活動状態によっては、当該運転者が運転する車両が注意を払うべき車両に該当する場合がある。
 しかし、特許文献1では、他車両の運転者の現在の活動状態に基づいて、当該他車両が注意を払うべき車両であるか否かを判断していなかった。従って、自車両の運転者に対して他車両が注意を払うべき車両である旨の十分な注意喚起を行っているとはいえなかった。
 本発明は、これらの問題を解決するためになされたものであり、自車両の運転者に対して十分な注意喚起を行うことが可能な車載情報処理装置を提供することを目的とする。
 上記の課題を解決するために、本発明による車載情報処理装置は、自車両の周辺に存在する他車両の位置を検出する他車両位置検出部と、他車両位置検出部にて検出された他車両について、当該他車両の運転者の現在の活動状態を示す運転者動的情報を含む他車両情報を、通信によって他車両から取得する通信部と、通信部にて取得した運転者動的情報に基づいて、自車両の運転者への注意喚起、または自車両の走行を制御する制御部とを備える。
 本発明によると、自車両の周辺に存在する他車両の位置を検出する他車両位置検出部と、他車両位置検出部にて検出された他車両について、当該他車両の運転者の現在の活動状態を示す運転者動的情報を含む他車両情報を、通信によって他車両から取得する通信部と、通信部にて取得した運転者動的情報に基づいて、自車両の運転者への注意喚起、または自車両の走行を制御する制御部とを備えるため、自車両の運転者に対して十分な注意喚起を行うことが可能となる。
 この発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
本発明の実施の形態1による車載情報処理装置の適用例を示す図である。 本発明の実施の形態1による車載情報処理装置の構成の一例を示すブロック図である。 本発明の実施の形態1による車載情報処理装置の構成の一例を示すブロック図である。 本発明の実施の形態1による車載情報処理装置の動作の一例を示すフローチャートである。 本発明の実施の形態1による車載情報処理装置における表示の一例を示す図である。 本発明の実施の形態1による車載情報処理装置における表示の一例を示す図である。 本発明の実施の形態1による車載情報処理装置の動作の一例を示すフローチャートである。 本発明の実施の形態4による車載情報処理装置における表示の一例を示す図である。 本発明の実施の形態4による車載情報処理装置における表示の一例を示す図である。 本発明の実施の形態5による運転者動的情報とレベルとの関係の一例を示す図である。 本発明の実施の形態5による運転者静的情報とレベルとの関係の一例を示す図である。 本発明の実施の形態5による同乗者の状態とレベルとの関係の一例を示す図である。 本発明の実施の形態5による車両位置と係数との関係の一例を示す図である。 本発明の実施の形態5による注意レベルと注意喚起との関係の一例を示す図である。 本発明の実施の形態6による車載情報処理装置における表示の一例を示す図である。 本発明の実施の形態6による車載情報処理装置における表示の一例を示す図である。 本発明の実施の形態6による車載情報処理装置における表示の一例を示す図である。 本発明の実施の形態6による車載情報処理装置における表示の一例を示す図である。 本発明の実施の形態6による車載情報処理装置における表示の一例を示す図である。 本発明の実施の形態7による車載情報処理装置の構成の一例を示すブロック図である。
 本発明の実施の形態について、図面に基づいて以下に説明する。
 <実施の形態1>
 まず、本発明の実施の形態1による車載情報処理装置の構成について説明する。
 図1は、本実施の形態1による車載情報処理装置100,200の適用例を示す図である。
 図1に示すように、車両Aおよび車両Bは同一方向に走行しており、車両Cは対向車線を走行している。また、車両Aには車載情報処理装置100が搭載され、車両Bには車載情報処理装置200が搭載されており、車両Aと車両Bとは車々間通信によって通信可能となっている。
 以下、本実施の形態1では、車載情報処理装置100は車両Bから送信された情報を受信する受信側の装置として説明する。また、車載情報処理装置200は車両Aに情報を送信する送信側の装置として説明する。
 図2は、車載情報処理装置100の構成の一例を示すブロック図である。なお、以下の図2の説明では、自車両を車両Aとし、他車両を車両Bとして説明する。
 図2に示すように、車載情報処理装置100は、他車両位置検出部101と、通信部102と、GUI(Graphical User Interface)部103と、注意レベル算出部104と、地図DB(Data Base)105と、車内センサI/F(interface)部106と、制御部107とを備えている。
 他車両位置検出部101は、超音波センサ108および画像センサ109と接続されている。他車両位置検出部101は、超音波センサ108または画像センサ109による検出結果に基づいて、車両A(自車両)の周辺に存在する車両B(他車両)の相対的な位置を検出する。画像センサ109としては、例えばカメラがある。
 通信部102は、車両Bと車々間通信を行い、当該車両Bから他車両情報を取得する。ここで、他車両情報とは他車両(車両B)に関する情報の全てを含む情報のことである。通信手段としては、無線LAN(Local Area Network)、UWB(Ultra Wide Band)、または光通信など任意の手段であってよい。
 GUI部103は、タッチパネル110、液晶モニタ111(表示部)、およびスピーカ112と接続されている。GUI部103は、タッチパネル110を介して取得した運転者の操作情報を制御部107に入力する。また、制御部107から入力された表示情報を液晶モニタ111に出力し、制御部107から入力された音声情報をスピーカ112に出力する。
 注意レベル算出部104は、通信部102を介して車両Bから取得した他車両情報に基づいて、当該車両Bに対する注意レベルを算出する。ここで、注意レベルとは、車両Aの運転手が車両Bに対して注意すべき程度(注意を払う程度)のことをいい、注意レベル算出部104では少なくとも2つ(2段階)以上の注意レベルが算出される。
 地図DB105は、地図データを格納している。
 車内センサI/F部106は、車内LAN119を介してGPS(Global Positioning System)113、車速パルス114、ジャイロセンサ115、車両制御装置116、エンジン制御装置117、ボディ系制御装置118などに接続されている。制御部107は、車内LAN119および車内センサI/F部106を介して各種情報を受け取ったり、指示したりすることが可能である。
 GPS113、車速パルス114、およびジャイロセンサ115の各々で取得された情報は、車内センサI/F部106を介して制御部107に入力され、制御部107にて自車両位置が検出される。すなわち、制御部107は、自車両位置を検出する機能を有している。
 車両制御装置116は、ブレーキペダル、アクセルペダル、またはハンドルからの運転者による操作を入力し、自車両の走行を制御する。例えば、エンジン回転数、ブレーキ系装置などを制御して自車両の速度を制御したり、シャフトの姿勢などを制御して自車両の進行方向を制御したりする。また、オートクルーズなどの半自動運転の機能も制御する。
 エンジン制御装置117は、燃料制御や点火時期制御を行う。
 ボディ系制御装置118は、自車両において走行に直接関わらない動作を制御する。例えば、ワイパーの駆動、灯火情報の伝達、ウィンカーの点灯、ドアの開閉、窓の開閉などを制御する。
 制御部107は、車載情報処理装置100の各構成部の制御を行う。
 図3は、車載情報処理装置200の構成の一例を示すブロック図である。なお、以下の図3の説明では、自車両を車両Bとし、他車両を車両Aとして説明する。
 図3に示すように、車載情報処理装置200は、車内状態検出部201と、通信部202と、GUI部203と、運転者動的状態検出部204と、地図DB205と、位置検出部206と、運転者静的情報取得部207と、制御部208とを備えている。
 車内状態検出部201は、車内検出センサ209と接続されており、車内検出センサ209による検出結果に基づいて車両B内の状態を検出し、例えば同乗者の有無や、同乗者の状態を検出する。車内検出センサ209としては、例えば画像センサであるカメラ、同乗者が座席に座っているか否かを検出するために各座席に設けられた圧力センサ、または車両B内の音声情報を取得するマイクなどがある。また、車内状態検出部201にて検出された車両B内の状態を示す情報を自車両内情報とし、当該自車両内情報を自車両情報に含めて通信部202によって車両Aに送信することができる。
 通信部202は、車両Aと車々間通信を行い、当該車両Aに自車両情報を送信する。ここで、自車両情報とは他車両(車両A)に送信する自車両(車両B)に関する情報の全てを含む情報のことであり、図2の通信部102が取得する他車両情報に相当する。通信手段としては、無線LAN、UWB、または光通信など任意の手段であってよい。
 GUI部203は、タッチパネル210、液晶モニタ211と接続されている。GUI部203は、タッチパネル210を介して取得した運転者の操作情報を制御部208に入力する。また、制御部208から入力された表示情報を液晶モニタ211に出力する。
 運転者動的状態検出部204は、車両Bの運転者の現在の活動状態を検出する。運転者動的状態検出部204にて検出された運転者の現在の活動状態を示す情報を運転者動的情報とし、当該運転者動的情報を自車両情報に含めて通信部202によって車両Aに送信することができる。
 地図DB205は、地図データを格納している。
 位置検出部206は、GPS212および車速パルス213と接続されている。位置検出部206は、GPS113および車速パルス114の各々で取得された情報に基づいて自車両の位置を検出する。
 運転者静的情報取得部207は、車両Bの運転者に固有の情報である運転者静的情報を取得する。運転者静的情報としては、例えば、運転者標識表示に関する情報(初心者、高齢者などの情報)、運転免許証情報、または事故履歴情報などがある。運転者静的情報取得部207にて取得された運転者静的情報は、自車両情報に含めて通信部202によって車両Aに送信することができる。
 制御部208は、車載情報処理装置200の各構成部の制御を行う。
 H/F(Hands Free:ハンズフリー)装置214は、H/F通話(ハンズフリー通話)を行うための装置であり、制御部208に接続されている。
 AV(Audio Visual)装置215は、ラジオや音楽など、音声または映像を再生するための装置であり、制御部208に接続されている。
 次に、運転者動的状態検出部204が検出する運転者の現在の活動状態(運転者の動的状態)について説明する。
 運転者の活動状態は、大きく3つに大別される。
 1つ目の運転者の活動状態とは、自車両の運転者が操作可能な当該自車両内に存在する車両内機器(図3では、H/F装置214、AV装置215)の操作状態のことである。運転者が車両内機器を操作する場合において、運転者は当該操作に意識が向けられてしまって運転に集中できない状態となる可能性がある。運転者動的状態検出部204は、上記の車両内機器の操作状態を検出している。以下、車両内機器の操作状態について例示する。
 車両内機器の操作状態の一例としては、車両内機器が操作中の状態であることが挙げられる。例えば、H/F装置214またはAV装置215が操作されると、操作中である旨の信号がH/F装置214またはAV装置215から制御部208を介して運転者動的状態検出部204に入力される。運転者動的状態検出部204は、前記操作中である旨の信号を検出することによって、H/F装置214またはAV装置215が操作中の状態であることを検出する。
 また、車両内機器の操作状態の他の一例としては、車両内機器と携帯通信端末とが接続状態であることが挙げられる。例えば、車両内機器であるカーナビゲーション装置と携帯通信端末とが接続状態である場合において、携帯通信端末が操作した情報をカーナビゲーション装置が受け取ることによって、カーナビゲーション装置側で携帯通信端末の操作状況を把握することができる。そして、携帯通信端末が操作中である旨の信号を運転者動的状態検出部204が検出することによって、携帯通信端末が操作中の状態であることが分かる。なお、カーナビゲーション装置と携帯通信端末とは、有線(例えば、USB(Universal Serial Bus))で接続されてもよく、無線(例えば、Bluetooth(登録商標)、無線LAN)で接続されてもよい。
 また、車両内機器の操作状態の他の一例としては、車両内機器を介してハンズフリー通話中あるいは発信中であることが挙げられる。例えば、車両内機器であるH/F装置214を介してハンズフリー通話中あるいは発信中である場合において、ハンズフリー通話中あるいは発信中である旨の信号を運転者動的状態検出部204が検出することによって、ハンズフリー通話中あるいは発信中であることが分かる。
 2つ目の運転者の活動状態とは、車両内機器が自車両の運転者に対して情報を提示している状態のことである。ここで提示される情報とは、常時提示している情報以外の新たな情報のことをいう。具体的には、目的地まで経路案内している場合において、右左折時に提示される案内情報や、渋滞・事故時などに提示される渋滞情報などがある。車両内機器が自車両の運転者に対して情報を提示する場合において、運転者は当該提示された情報に意識が向けられてしまって運転に集中できない状態となる可能性がある。運転者動的状態検出部204は、上記の車両内機器が情報を提示したことを検出している。以下、車両内機器による情報の提示状態について例示する。
 情報の提示状態の一例としては、車両内機器が所定の音量以上で音楽を出力中の状態であることが挙げられる。例えば、AV装置215が音楽を出力中の場合において、音量が所定以上となるように操作すると、音量が所定以上に操作された旨の信号が運転者動的状態検出部204に入力される。運転者動的状態検出部204は、前記操作された旨の信号を検出することによって、AV装置214が所定の音量以上で音楽を出力中の状態であることが分かる。
 また、情報の提示状態の他の一例としては、車両内機器が着信報知を行っている状態であることが挙げられる。例えば、H/F装置214が外部から着信を受けて報知を行う場合において、着信を受けた旨の信号が運転者動的状態検出部204に入力される。運転者動的状態検出部204は、前記着信を受けた旨の信号を検出することによって、H/F装置214が外部から着信を受けて報知していることが分かる。
 また、情報の提示状態の他の一例としては、外部から取得した情報を運転者に提示している状態であることが挙げられる。例えば、テレマティクスサービスを利用して外部から情報を取得して運転者に提示する場合において、外部から情報を取得したことを運転者動的状態検出部204が検出することによって、外部から情報を取得して運転者に提示していることが分かる。
 また、情報の提示状態の他の一例としては、運転者が車両内機器に提示された情報を確認中の状態であることが挙げられる。例えば、運転者動的状態検出部204が、車両内機器における一連の操作シーケンス(確認するために行う操作シーケンス)が終了していない旨の情報を取得(検出)することによって、運転者が車両内機器に提示された情報を確認中であることが分かる。
 3つ目の運転者の活動状態とは、運転者の当日の走行履歴または走行予定の状態のことである。具体的には、運転開始後の運転時間や、現在位置から目的地までの距離などの状態が挙げられる。例えば、運転者の連続走行時間から運転者の疲労度を把握することができる。また、特に睡眠休憩をした後の運転開始直後は、運転者の注意力が低下していることがある。また、現在位置が目的地周辺である場合は、運転者が周辺をせわしく見回すなどして注意力が散漫になる可能性がある。運転者動的状態検出部204は、ナビゲーション装置から当日の走行履歴または走行予定に関する情報を取得することによって、運転者の状態を検出している。
 上記のように、運転者動的状態検出部204が検出した運転者の現在の活動状態(動的状態)は、運転者動的情報として自車両情報に含めて通信部202から他車両(車両A)に送信することができる。
 次に、本実施の形態1による車載情報処理装置100,200の動作について説明する。以下では、車両Aに搭載された車載情報処理装置100と、車両Bに搭載された車載情報処理装置200とが車々間通信を行う場合について説明する。
 図4は、車載情報処理装置100の動作の一例を示すフローチャートである。
 ステップS41において、制御部107は、GPS113、車速パルス114、およびジャイロセンサ115が取得した情報に基づいて、自車両である車両Aの現在位置を検出する。次いで、制御部107は、車両Aの位置検出結果と、地図DB105に格納された地図データとに基づいて、地図上に自車両位置(車両Aの位置)を表示する画像データを生成する。生成した画像データは、GUI部103を介して液晶モニタ111に入力され、液晶モニタ111にて画像が表示される。
 ステップS42において、車両A周辺の他車両である車両Bを検出したか否かを判断する。車両Bを検出した場合はステップS43に移行する。一方、車両Bを検出していない場合はステップS46に移行する。車両Bは、超音波センサ108あるいは画像センサ109による情報に基づいて、他車両位置検出部101にて検出される。
 ステップS43において、通信部102は、車々間通信によって車両Bの運転者動的情報を含む他車両情報を取得する。他車両情報は、所定のタイミング(例えば、0.1秒)ごとに取得される。なお、車両Aは、車両Bに対して通信要求を行った後に当該車両Bから他車両情報を取得するようにしてもよい。また、車両Bが常に他車両情報を発信している場合は、車両Aが車両Bから発信された他車両情報を取得するようにしてもよい。
 ステップS44において、注意レベル算出部104は、他車両情報に含まれる車両Bの運転者動的情報に基づいて注意レベルを算出する。なお、本実施の形態1では、注意レベル算出部104は「注意が必要か否か」の2つ(2段階)の注意レベルを算出するものとする。
 次いで、制御部107は、注意レベル算出部104にて算出された注意レベルに基づいて、地図上における車両Bの表示方法を決定する。
 ステップS45において、制御部107は、ステップS44にて決定された表示方法で表示するように、画像データをGUI部103を介して液晶モニタ111に出力する。液晶モニタ111は、制御部107から入力された画像データに基づいて、地図上に車両Bを表示する。
 ステップS46において、車両Aの運転が終了したか否かを判断する。車両Aの運転が終了した場合は処理を終了する。一方、車両Aの運転が終了していない場合はステップS41に移行する。
 図5は、車両Bに対する注意が不要である場合における、車両Aでの表示の一例を示す図である。
 注意レベル算出部104は、車両Bから取得した他車両情報に含まれる運転者動的情報に基づいて注意レベルを算出する。そして、制御部107が、注意レベル算出部104にて算出された注意レベルに基づいて車両Bに対する注意は不要である(すなわち、車両Bの運転者の動的状態が良好である)と判断した場合は、当該判断結果を反映した車両Bが液晶モニタ111に表示される。例えば、図5に示すように、車両Bは白抜きの三角形で表示される。
 上記より、車両Aの運転者は、車両Bが注意を要する車両でないことを容易に視認することができる。
 図6は、車両Bに対する注意が必要である場合における、車両Aでの表示の一例を示す図である。
 注意レベル算出部104は、車両Bから取得した他車両情報に含まれる運転者動的情報に基づいて注意レベルを算出する。そして、制御部107が、注意レベル算出部104にて算出された注意レベルに基づいて車両Bに対する注意が必要である(すなわち、車両Bの運転者の動的状態に注意する必要がある)と判断した場合は、当該判断結果を反映した車両Bが液晶モニタ111に表示される。例えば、図6に示すように、車両Bは車両Aとは異なる色(図6では異なるハッチング)で塗りつぶして表示される。
 上記より、車両Aの運転者は、車両Bが注意を要する車両であることを容易に視認することができる。
 図7は、車載情報処理装置200の動作の一例を示すフローチャートである。
 ステップS71において、制御部208は、GPS212および車速パルス213が取得した情報に基づいて、自車両である車両Bの現在位置を検出する。次いで、制御部208は、車両Bの位置検出結果と、地図DB205に格納された地図データとに基づいて、地図上に自車両位置(車両Bの位置)を表示する画像データを生成する。生成した画像データは、GUI部203を介して液晶モニタ211に入力され、液晶モニタ211にて画像が表示される。
 ステップS72において、運転者動的状態検出部204は、車両Bの運転者の動的状態を検出する。
 ステップS73において、制御部208は、通信部202を介して他車両である車両Aから通信要求があるか否かの判断を行う。車両Aから通信要求がある場合はステップS74に移行する。一方、車両Aから通信要求がない場合はステップS75に移行する。すなわち、制御部208は、車両Aから通信要求があった場合において、自車両情報を車両Aに送信するよう通信部202を制御する。
 ステップS74において、運転者動的状態検出部204にて検出した運転者の動的状態を示す情報を運転者動的情報とし、当該運転者動的情報を自車両情報に含めて通信部202から車両Aに送信する。なお、ステップS74にて送信される自車両情報は、図4のステップS43にて取得される他車両情報に相当する。
 ステップS75において、車両Bの運転が終了したか否かを判断する。車両Bの運転が終了した場合は処理を終了する。一方、車両Bの運転が終了していない場合はステップS71に移行する。
 以上のことから、本実施の形態1によれば、他車両の運転者の動的状態に基づいて当該他車両の表示方法を変えることによって、他車両が注意すべき車両か否かを容易に判断することができるため、自車両の運転者に対して十分な注意喚起を行うことが可能となる。
 <変形例1>
 本実施の形態1では、図4のステップS44において、注意レベル算出部104にて算出された注意レベルに基づいて当該他車両の表示方法を決定することについて説明したが、これに限るものではない。
 例えば、注意レベルに基づいて、自車両の走行を制御するようにしてもよい。具体的には、制御部107は、他車両の運転者の動的状態に基づいてオートクルーズなどの半自動運転を制御する車両制御装置116を制御する。車両制御装置116は、制御部107による制御に基づいて、他車両に対する注意が必要な場合は車間距離を長くし、他車両に対する注意が不要の場合は車間距離を通常の長さとなるようにする。
 また、前方追突警報装置が装着されている場合は、注意レベルが高いときには通常よりも早めの警報を運転者に報知するようにしても良い。
 また、他の例として、注意レベルに基づいて、自車両の運転者に対して音声などによる警報を出力してもよい。具体的には、制御部107は、注意レベルに基づいて、他車両に対する注意が必要な場合は警報をスピーカ112から出力するよう制御する。
 上記より、注意レベルに基づいて自車両の走行制御や警報を出力することによって、実施の形態1と同様に自車両の運転者に対して十分な注意喚起を行うことが可能となる。
 <変形例2>
 本実施の形態1では、超音波センサ108や画像センサ109を用いて他車両位置検出部101にて他車両の位置を検出することについて説明したが、他車両の位置の検出方法はこれに限るものではない。例えば、実施の形態1のように他車両の位置を検出することに加えて、画像センサ109による画像処理で他車両の固有情報である車両ナンバーを認識し、通信部102を介して受信した他車両情報に含まれる当該他車両の車両ナンバー情報を取得する。そして、画像センサ109で認識した車両ナンバーと、通信部102を介して取得した車両ナンバー情報とを照合することによって他車両を特定するようにしてもよい。
 上記より、他車両の位置を、他車両位置検出部101に接続された画像センサ109にて検出された他車両の位置情報と、他車両から取得した他車両情報に含まれる他車両の固有情報とに基づいて特定することによって、他車両が複数存在する場合において、各他車両と各他車両の位置とをそれぞれ特定することができる。
 <変形例3>
 本実施の形態1では、車両Aの車載情報処理装置100に備えられた注意レベル算出部104にて注意レベルを算出することについて説明したが、これに限るものではない。
 例えば、車両Bの車載情報処理装置200に注意レベル算出部(図示せず)を備え、当該注意レベル算出部にて注意レベルを算出するようにしてもよい。この場合、車両Bは、算出した注意レベルの情報を自車両情報に含めて車両Aに送信する。車両Aでは、車両Bから取得した注意レベルの情報に基づいて、車両Aの運転者への注意喚起または車両Aの走行が制御される。
 上記より、車両Bにて注意レベルを算出することによって、実施の形態1と同様の効果が得られる。
 <実施の形態2>
 本発明の実施の形態2では、他車両から当該他車両の位置情報を取得する場合について説明する。なお、本実施の形態2の車載情報処理装置100は、実施の形態1の車載情報処理装置100(図2参照)が備えている他車両位置検出部101、超音波センサ108、および画像センサ109を備えていない。その他の構成および動作は、実施の形態1と同様であるため、ここでは説明を省略する。
 自車両(以下、車両Aとする)では、他車両(以下、車両Bとする)に対して車々間通信によって通信要求を出して車両Bから応答があれば(すなわち、車両Bとの通信が可能であれば)、当該車両Bが存在しているものとする。その後、車両Bから当該車両Bの位置情報を車々間通信によって取得する。
 以上のことから、本実施の形態2によれば、実施の形態1の車載情報処理装置100が備えている他車両位置検出部101、超音波センサ108、および画像センサ109を備えていないため、実施の形態1よりも構成を簡易にすることができる。また、他車両における当該他車両の位置検出方法は任意であるが、準天頂衛星を利用した他車両の位置検出方法を採用した場合は、位置検出精度が良いため特に有効である。
 <実施の形態3>
 本発明の実施の形態3では、自車両(以下、車両Aとする)と他車両(以下、車両Bとする)との間における通信を、車々間通信以外の所定の通信網で行う場合について説明する。なお、本実施の形態3では、車々間通信を行わないこと以外の構成および動作は、実施の形態1,2と同様であるため、ここでは説明を省略する。
 例えば、車両Aと車両Bとは、携帯電話等の広域通信網を介して通信を行うようにしてもよい。
 また、DSRC(Dedicated Short Range Communications)(登録商標)や、無線LANによる路車間通信を介して通信を行うようにしてもよい。
 また、車両Aが車両Bの位置情報を取得する際には、路側に設置された車両を検出するための装置から取得するようにしてもよい。
 以上のことから、本実施の形態3によれば、車両Aの通信部102は、所定の通信網を介して車両Bから他車両情報を取得することができ、実施の形態1,2と同様の効果が得られる。
 <実施の形態4>
 本発明の実施の形態4では、複数の車線(走行道路)が存在する道路を走行する自車両位置および他車両位置の検出について説明する。その他の構成および動作は、実施の形態1~3と同様であるため、ここでは説明を省略する。
 図8は、複数の車線が存在する道路を走行する場合における、自車両(車両A)での表示の一例を示す図である。なお、車両B,C,Dは他車両を示している。
 各車両A~Dの位置の検出方法としては、各車両A~Dに設けられた地図DB(例えば、地図DB105,205)の地図情報に含まれる車線情報と、各車両A~Dに設けられたカメラ(例えば、車両Aに設けられた画像センサ109)などによる白線認識の情報とに基づいて、車両がどの車線を走行しているのかを検出することができる。
 また、他の検出方法としては、各車両A~Dに設けられた地図DB(例えば、地図DB105,205)の地図情報に含まれる車線情報と、各車両A~Dにおける準天頂衛星を利用した他車両の位置情報とに基づいて、車両がどの車線を走行しているのかを検出することができる。
 図8において、車両Aは、車両B~Dが走行する車線および位置の情報を当該車両B~Dから取得する。すなわち、車両B~Dの位置は、他車両情報に含まれる車両B~Dの位置情報または走行道路を特定する情報に基づいて特定される。そして、取得した車両B~Dが走行する車線および位置の情報と、車両Aが走行する車線および位置の情報とに基づいて、車両Aに対して車両B~Dがどの位置を走行しているのか判断することができる。
 また、図9(a)~(d)は各車両に表示される各自車両の位置表示を示しているが、通信を行うことにより車両Aに各車両A~Dがどの車線を走行しているのかを自車両(車両A)を基本として他車両(車両B~D)の位置を表示し、運転者に対して視認し易くするようにしてもよい。このとき、他車両が注意すべき状態か否かにより他車両の表示内容を変えて表示をする。
 以上のことから、本実施の形態4によれば、車両B~Dの位置は、各車両B~Dから取得される他車両情報に含まれる車両B~Dの位置情報または走行道路を特定する情報に基づいて特定されるため、車両Aに対して車両B~Dがどの位置を走行しているのか判断することができ、当該判断に基づいて自車両の運転者に対して注意喚起を行うことが可能となる。
 <実施の形態5>
 本発明の実施の形態5では、車載情報処理装置100が備える注意レベル算出部104による注意レベルの算出について説明する。注意レベル算出部104は、実施の形態1では他車両(以下、車両Bとする)の運転者動的情報に基づいて2つ(2段階)の注意レベルを算出したが、本実施の形態5では車両Bの運転者動的情報、運転者静的情報、他車両内情報、および位置情報に基づいて複数(複数段階)の注意レベルを算出する。その他の構成および動作は、実施の形態1~4と同様であるため、ここでは説明を省略する。
 一般的に、例えば車両内に設置された機器(例えば、図3のAV装置215)を操作するに当たり、運転者が若年者、高齢者、または運転初心者では、それぞれのタスク(作業)の量が異なる。また、運転者と同乗者とのインタラクション(やりとり)の有無によっては、運転者の運転に対する集中度が異なる。本実施の形態5では、このような他車両における運転者や同乗者の状態を示す情報を取得することによって、注意レベル算出部104がより詳細な注意レベルを算出することができる。
 運転者動的情報、運転者静的情報、他車両内情報、および位置情報には、各情報の状態に応じて予め定められたレベルまたは係数が設定されている。以下、図10~13を用いて、各情報の状態に応じて設定されるレベルについて説明する。
 図10は、運転者動的情報とレベルとの関係の一例を示す図である。
 図10に示すように、車両Bの運転者の活動状態(動的状態)に応じてレベルL1が設定されている。
 ここで、「大音量音楽時」とは、運転者が大音量で音楽を聞いている状態のことをいう。また、「覚醒低下時」とは、例えば運転者が眠気を感じている状態のことをいう。
 図11は、運転者静的情報とレベルとの関係の一例を示す図である。
 図11に示すように、車両Bの運転者に固有の情報に応じてレベルL2が設定されている。
 ここで、「ゴールド免許」とは、優良運転者(運転免許証の有効期限が満了する日の前5年間、無事故・無違反)に対して発行される自動車の運転免許証のことをいい、運転免許証の色が金色(ゴールド)のことをいう。
 また、「通常免許」とは、優良運転者以外の運転者に対して発行される自動車の運転免許証のことをいい、運転免許証の色が緑色(グリーン)または青色(ブルー)のことをいう。
 また、「運転者標識表示車両」とは、特に運転者の状態を標識表示している車両のことをいい、例えば、初心運転者標識(初心者マーク)、高齢運転者標識(高齢運転者マーク)、身体障害者標識(身体障害者マーク)、または聴覚障害者標識(聴覚障害者マーク)を表示している車両のことをいう。
 図12は、同乗者の状態とレベルとの関係の一例を示す図である。
 図12に示すように、本実施の形態5では、車両B内の状態は同乗者の状態であるものとし、同乗者の状態に応じてレベルL3が設定されている。
 ここで、レベルL3が「1」のときの同乗者が「有り」の状態とは、同乗者が静かにしている状態のことをいう。
 図13は、車両Bの車両位置と係数Rとの関係の一例を示す図である。
 図13に示すように、車両Bの車両位置に応じて係数Rが設定されている。
 次に、注意レベル算出部104による注意レベルの算出について説明する。
 注意レベル算出部104は、通信部102を介して他車両情報に含まれる車両Bの運転者動的情報、運転者静的情報、他車両内情報、および位置情報を取得し(図4のステップS43を参照)、取得した各情報に対応する各レベルL1~L3および係数Rに基づいて、以下の式(1)に従って注意レベルを算出する。
  注意レベルL=(動的特性+静的特性+車両内情報)×リスク係数
        =(L1+L2+L3)×R ・・・(1)
 制御部107は、式(1)に従って算出された注意レベルに基づいて、運転者に対する注意喚起の制御や半自動運転の制御(車間距離の制御)を行う。
 図14は、注意レベルLと注意喚起方法との関係の一例を示す図である。
 図14に示すように、制御部107は、注意レベル算出部104にて算出された複数の注意レベルLに応じた注意喚起を行う。
 ここで、「表示」欄は、液晶モニタ111の地図上における車両Bの表示例を示している。
 また、「音声」欄は、スピーカ112から出力される音声の一例を示している。
 以上のことから、本実施の形態5によれば、他車両(車両B)の運転者動的情報、運転者静的情報、他車両内情報、および位置情報に基づいて複数の注意レベルを算出しているため、制御部107は他車両の状態(注意レベル)に応じた適切な注意喚起や半自動運転の制御を行うことができる。例えば、他車両にて会話が行われている場合は当該他車両に対する注意が必要となるため、自車両の運転者に対してより注意を促すような喚起を行うことができる。
 <実施の形態6>
 本発明の実施の形態6では、自車両(以下、車両Aとする)と通信可能な他車両(以下、車両Bとする)と、車両Aと通信不可能な他車両(以下、車両Cとする)とが混在する場合について、図15~19を用いて説明する。なお、構成および動作は、実施の形態1~5と同様であるため、ここでは説明を省略する。
 図15は、車両Aでの表示の一例を示す図である。
 図15に示すように、車両Aの前を車両Bが走行し、車両Aの後を車両Cが走行している。車両Aと車両Bとは車々間通信が確立されている(通信可能である)ため、車両Aおよび車両Bにはアンテナ(車両Aおよび車両Bに付加された下向きの三角形)が表示されている。なお、車両Bは、例えば、図14に示す注意レベルLに応じて表示が変更されるようにしてもよい。
 一方、車両Aと車両Cとは車々間通信が確立されていない(通信不能である)ため、車両Cにはアンテナが表示されていない。なお、車両Cは、例えば、式(1)においてL1+L2+L3=2.5とし、前方に存在する場合は、図13に示すようにリスク係数R=1.0を掛け、図14に示す注意レベルL=2相当の表示を行う。
 図16では、車両Aと車両Bとが破線の矢印で繋ぐように表示されている。その他の表示は、図15と同様である。
 図16に示すような表示を行なうことによって、運転者は車両Aと車両Bとの通信が確立されていることを視認し易くなる。
 また、通信可能な端末を備えているが通信が確立できていない状態にあるときには図15のような表示、通信が確立して情報を入力できる状態にあるときには図16のような表示にしても良い。
 図17は、車両Aでの表示の他の一例を示す図である。
 図17に示すように、車両Aの前を車両Bが走行し、車両Aの後を車両Cが走行している。また、車両Aと車両Bとは車々間通信が確立されている(通信可能である)。このとき、車両Bに対しては注意が不要な状態となっている。
 一方、車両Aと車両Cとは車々間通信が確立されていない(通信不能である)ため、車両Cはやや立体的に表示される。
 図17に示す状態から車両Bに対する注意が必要な状態になると、図18に示すように、車両Bは車両Cよりも立体的に表示される。
 図18に示すような表示を行なうことによって、車両Aの運転者は、車両Bが注意すべき車両であることを視認し易くなる。
 図19は、車両Aでの表示の他の一例を示す図である。
 図19に示すように、車両Aには黒塗りの四角形が表示されており、車両B,Cには白抜きの四角形が表示されている。これは、車両Aと車両B,Cとが車々間通信可能であることを示している。また、車両Cには初心運転者標識(初心者マーク)が表示されている。
 一方、車両Dには四角形が表示されていない。これは、車両Dが車々間通信不可能であることを示している。また、車両Dには高齢運転者標識(高齢者マーク)が表示されている。
 なお、車両Cの初心運転者標識(初心者マーク)や、車両Dの高齢運転者標識(高齢者マーク)は、車両Aに設けられた画像センサ109によって取得することができる。また、車々間通信可能であることを区別して表示することができれば、四角形に限らず任意の形状としてもよい。
 以上のことから、本実施の形態6によれば、制御部107は車両Cと通信できない場合と、車両Bと通信できた場合における運転者動的情報とに応じて、液晶モニタ111での車両B,Cに関する表示を異ならせるよう液晶モニタ111を制御するため、車両Aの運転者は他車両の状態を視認し易くなる。従って、運転者に対して十分な注意喚起を行うことができる。また、制御部107は車両Cと通信できない場合と、車両Bと通信できた場合における運転者動的情報とに応じて、車両Aの走行を制御することもできる。
 <実施の形態7>
 本発明の実施の形態7では、車載情報処理装置が、自車両情報を送信する送信側の機能と、他車両から送信されてきた他車両情報を受信する受信側の機能との両方の機能を有する場合について説明する。
 図20は、本実施の形態7による車載情報処理装置300の構成の一例を示す図である。
 図20に示すように、車載情報処理装置300は、図2に示す車載情報処理装置100と、図3に示す車載情報処理装置200とを組み合わせた構成となっている。また、車載情報処理装置300の構成および動作は、実施の形態1~6の車載情報処理装置100,200と同様であるため、ここでは説明を省略する。
 以上のことから、本実施の形態7によれば、車載情報処理装置300は送信側の機能と受信側の機能とを有しているため、車載情報処理装置300を搭載した車両同士では、互いの運転者が注意し合うことが可能となる。
 なお、図2において、制御部107は、GPS113、車速パルス114、およびジャイロセンサ115の各々で取得された情報に基づいて自車両位置を検出するものとして説明したが、車内センサI/F部106が自車両位置を検出する機能を有するようにしてもよい。
 本実施の形態1では、超音波センサ108や画像センサ109を用いて自車両周辺に存在する他車両の相対的な位置を検出することについて説明したが、他車両の位置検出方法はこれに限るものではない。例えば、超音波センサ108や画像センサ109による検出結果に、自車両のGPS113による位置情報を加味することによって、他車両の絶対的な位置を検出することができる。
 実施の形態1において、図4では他車両として車両Bを一台検出する場合について説明したが、複数の他車両を検出するようにしてもよい。例えば、図4のステップS42にて複数の他車両を検出する場合において、図13に示すような自車両に対する他車両の位置に応じた係数Rに基づいて、検出の優先順位を決定してもよい。具体的には、自車両の前後に走行中の他車両が存在する場合において、先に自車両の前方に存在する他車両を検出して当該他車両の他車両情報を取得し、次いで自車両の後方に存在する他車両を検出して当該他車両の他車両情報を取得する。すなわち、図13に示す係数Rの値が大きい車両から順に検出するようにしてもよい。また、上記に関わらず、ユーザが任意に優先順位を設定してもよく、ユーザが任意にどの位置に存在する車両を優先して検出するのかを設定してもよい。さらに、注意レベル算出部104にて算出された注意レベルに基づいて(例えば、注意レベルが高いものから順に)優先順位を設定してもよい。なお、半自動運転の制御(走行制御)についても上記と同様に優先順位を設定してもよい。
 図6では、車両Bに対する注意が必要である場合の表示の一例として車両Bを塗りつぶして表示したが、これに限るものではない。例えば、立体的に表示したり、大きく表示したりするようにしてもよい。
 実施の形態5において、自車両(車両A)は他車両(車両B)から運転者静的情報を取得しているが、当該運転者静的情報を一度取得すれば、以後は取得しないようにしてもよい。
 実施の形態5において、注意レベルの算出は式(1)に限らない。例えば、自車両(車両A)の運転者が任意に設定できるようにしてもよい。
 実施の形態5において、注意レベル算出部104は、他車両(車両B)の運転者動的情報、運転者静的情報、他車両内情報、および位置情報に基づいて注意レベルを算出したが、運転者動的情報、運転者静的情報、他車両内情報、または位置情報のうちの任意の情報を組み合わせて注意レベルを算出するようにしてもよい。また、算出した注意レベルは、図14に示すような3つ以上の複数段階であってもよく、実施の形態1のような2段階であってもよい。
 図11では、運転者静的情報としてゴールド免許、通常免許、または運転者標識車両を挙げたが、これらの情報は日本での交通規則に基づいて説明したものである。日本以外の国においては、図11に示す情報に相当する情報に応じたレベルL2が設定されるものとする。
 図10~13において、レベルL1~L3または係数Rの値は任意の値であってもよい。例えば、自車両(車両A)の運転者が任意に設定できるようにしてもよい。
 図14において、注意喚起方法は任意に変更可能である。例えば、自車両(車両A)の運転者が任意に設定できるようにしてもよい。また、図14では他車両の表示例を示しているが、色・色の濃さ・形状・立体の程度はいかなるものであってもよい。例えば、他車両を示す形状の横または中に、注意レベルLを示す数字を表示するようにしてもよい。すなわち、注意レベルLに応じて異なる表示となればよい。
 実施の形態6では、通信手段として車々間通信を一例に説明したが、他の通信手段(例えば、実施の形態3参照)であってもよい。
 各実施の形態1~7では、注意レベル算出部104にて算出された注意レベルに基づいて、自車両の運転者に対する注意喚起や走行の制御(車間距離の制御)を行ったが、衝突警報を報知するようにしてもよい。例えば、超音波センサ108で他車両との車間距離を検出し、当該車間距離が予め定められた距離以下になった場合に警報を液晶モニタ111やスピーカ112から報知するようにしてもよい。このとき、警報を報知するしきい値となる車間距離は、注意レベルによって変えてもよい。例えば、注意レベルの値が大きい場合は、車間距離を大きくするようにしてもよい。また、通信不可能な他車両が存在する場合は、車間距離を大きくするようにしてもよい。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。
 この発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 100 車載情報処理装置、101 他車両位置検出部、102 通信部、103 GUI部、104 注意レベル算出部、105 地図DB、106 車内センサI/F部、107 制御部、108 超音波センサ、109 画像センサ、110 タッチパネル、111 液晶モニタ、112 スピーカ、113 GPS、114 車速パルス、115 ジャイロセンサ、116 車両制御装置、117 エンジン制御装置、118 ボディ系制御装置、119 車内LAN、200 車載情報処理装置、201 車内状態検出部、202 通信部、203 GUI部、204 運転者動的状態検出部、205 地図DB、206 位置検出部、207 運転者静的情報取得部、208 制御部、209 車内検出センサ、210 タッチパネル、211 液晶モニタ、212 GPS、213 車速パルス、214 H/F装置、215 AV装置、300 車載情報処理装置、301 車内状態検出部、302 他車両位置検出部、303 通信部、304 GUI部、305 運転者動的状態検出部、306 注意レベル算出部、307 地図DB、308 車内センサI/F部、309 運転者静的情報取得部、310 制御部、311 車内検出センサ、312 超音波センサ、313 画像センサ、314 タッチパネル、315 液晶モニタ、316 スピーカ、317 GPS、318 車速パルス、319 ジャイロセンサ、320 車両制御装置、321 エンジン制御装置、322 ボディ系制御装置、323 車内LAN、324 H/F装置、325 AV装置。

Claims (23)

  1.  自車両の周辺に存在する他車両の位置を検出する他車両位置検出部と、
     前記他車両位置検出部にて検出された前記他車両について、当該他車両の運転者の現在の活動状態を示す運転者動的情報を含む他車両情報を、通信によって前記他車両から取得する通信部と、
     前記通信部にて取得した前記運転者動的情報に基づいて、前記自車両の運転者への注意喚起、または前記自車両の走行を制御する制御部と、
    を備える、車載情報処理装置。
  2.  前記運転者動的情報は、前記他車両の運転者が操作可能な当該他車両内に存在する車両内機器の操作状態を示す情報を含むことを特徴とする、請求項1に記載の車載情報処理装置。
  3.  前記操作状態は、前記車両内機器が操作中の状態であることを特徴とする、請求項2に記載の車載情報処理装置。
  4.  前記操作状態は、前記車両内機器と携帯通信端末とが接続状態であることを特徴とする、請求項2に記載の車載情報処理装置。
  5.  前記操作状態は、前記車両内機器を介してハンズフリー通話あるいは発信中であることを特徴とする、請求項2に記載の車載情報処理装置。
  6.  前記運転者動的情報は、前記他車両内に存在する車両内機器の、前記他車両の運転者に対する情報の提示状態を示す情報を含むことを特徴とする、請求項1に記載の車載情報処理装置。
  7.  前記提示状態は、前記車両内機器が所定の音量以上で音楽を出力中の状態であることを特徴とする、請求項6に記載の車載情報処理装置。
  8.  前記提示状態は、車両内機器が着信報知を行っている状態であることを特徴とする、請求項6に記載の車載情報処理装置。
  9.  前記提示状態は、外部から取得した情報を前記他車両の運転者に提示している状態であることを特徴とする、請求項6に記載の車載情報処理装置。
  10.  前記提示状態は、前記他車両の運転者が前記車両内機器に提示された情報を確認中の状態であることを特徴とする、請求項6に記載の車載情報処理装置。
  11.  前記運転者動的情報は、前記他車両の運転者の当日の走行履歴または走行予定に関する情報を含むことを特徴とする、請求項1に記載の車載情報処理装置。
  12.  前記通信部は、車々間通信または所定の通信網を介して前記他車両から前記他車両情報を取得することを特徴とする、請求項1に記載の車載情報処理装置。
  13.  前記他車両の位置は、前記他車両位置検出部にて検出された前記他車両の位置情報と、前記他車両から取得した前記他車両情報に含まれる前記他車両の固有情報とに基づいて特定されることを特徴とする、請求項1に記載の車載情報処理装置。
  14.  前記他車両の位置は、前記他車両情報に含まれる前記他車両の位置情報または走行道路を特定する情報に基づいて特定されることを特徴とする、請求項1に記載の車載情報処理装置。
  15.  表示部をさらに備え、
     前記制御部は、前記他車両と通信できない場合と、前記他車両と通信できた場合における前記運転者動的情報とに応じて、前記表示部での前記他車両に関する表示を異ならせるよう前記表示部を制御することを特徴とする、請求項1に記載の車載情報処理装置。
  16.  前記制御部は、前記他車両と通信できない場合と、前記他車両と通信できた場合における前記運転者動的情報とに応じて、前記自車両の走行を制御することを特徴とする、請求項1に記載の車載情報処理装置。
  17.  前記他車両情報は、前記他車両の運転者に固有の情報である運転者静的情報を含むことを特徴とする、請求項1に記載の車載情報処理装置。
  18.  前記他車両情報は、前記他車両内の状態を示す他車両内情報を含むことを特徴とする、請求項1に記載の車載情報処理装置。
  19.  前記他車両情報に基づいて前記他車両に対する注意レベルを算出する注意レベル算出部をさらに備え、
     前記制御部は、前記注意レベル算出部にて算出された前記注意レベルに基づいて、前記自車両の運転者への注意喚起、または前記自車両の走行を制御することを特徴とする、請求項1に記載の車載情報処理装置。
  20.  自車両の運転者の現在の活動状態を検出する運転者動的状態検出部と、
     前記運転者動的状態検出部にて検出された前記活動状態を示す情報を運転者動的情報とし、当該運転者動的情報を含む自車両情報を通信によって他車両に送信する通信部と、
     前記通信部を制御する制御部と、
    を備える、車載情報処理装置。
  21.  前記制御部は、前記他車両から通信要求があった場合において、前記自車両情報を前記他車両に送信するよう前記通信部を制御することを特徴とする、請求項20に記載に車載情報処理装置。
  22.  前記自車両の運転者に固有の情報である運転者静的情報を取得する運転者静的情報取得部をさらに備え、
     前記制御部は、前記運転者静的情報取得部にて取得された前記運転者静的情報を前記自車両情報に含めて前記他車両に送信するよう前記通信部を制御することを特徴とする、請求項20に記載の車載情報処理装置。
  23.  前記自車両内の状態を検出する車内状態検出部をさらに備え、
     前記制御部は、前記車内状態検出部にて検出された前記自車両内の状態を示す情報を自車両内情報とし、当該自車両内情報を前記自車両情報に含めて前記他車両に送信するよう前記通信部を制御することを特徴とする、請求項20に記載の車載情報処理装置。
PCT/JP2012/075793 2012-10-04 2012-10-04 車載情報処理装置 WO2014054151A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014539538A JP5931208B2 (ja) 2012-10-04 2012-10-04 車載情報処理装置
DE112012006975.7T DE112012006975T5 (de) 2012-10-04 2012-10-04 Fahrzeugbordinformations -Verarbeitungsvorrichtung
US14/420,312 US9396658B2 (en) 2012-10-04 2012-10-04 On-vehicle information processing device
PCT/JP2012/075793 WO2014054151A1 (ja) 2012-10-04 2012-10-04 車載情報処理装置
CN201280076260.6A CN104704541B (zh) 2012-10-04 2012-10-04 车载信息处理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/075793 WO2014054151A1 (ja) 2012-10-04 2012-10-04 車載情報処理装置

Publications (1)

Publication Number Publication Date
WO2014054151A1 true WO2014054151A1 (ja) 2014-04-10

Family

ID=50434510

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/075793 WO2014054151A1 (ja) 2012-10-04 2012-10-04 車載情報処理装置

Country Status (5)

Country Link
US (1) US9396658B2 (ja)
JP (1) JP5931208B2 (ja)
CN (1) CN104704541B (ja)
DE (1) DE112012006975T5 (ja)
WO (1) WO2014054151A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104537860A (zh) * 2015-01-12 2015-04-22 小米科技有限责任公司 行车安全提示方法及装置
JP2015232533A (ja) * 2014-06-11 2015-12-24 三菱電機株式会社 表示制御システムおよび表示制御方法
CN105632217A (zh) * 2015-11-26 2016-06-01 东莞酷派软件技术有限公司 一种基于车联网的行车安全预警方法及系统
CN105989745A (zh) * 2015-02-05 2016-10-05 华为技术有限公司 一种车辆违章信息的获取方法、装置及系统
JP2017079014A (ja) * 2015-10-21 2017-04-27 株式会社デンソー 運転支援システム、情報送信装置、及び、運転支援装置
WO2018146808A1 (ja) * 2017-02-13 2018-08-16 三菱電機株式会社 情報制御装置、情報制御システムおよび情報制御方法
JP2019125255A (ja) * 2018-01-18 2019-07-25 トヨタ自動車株式会社 エージェント連携システム、エージェント連携方法およびデータ構造
JP2020160878A (ja) * 2019-03-27 2020-10-01 日産自動車株式会社 運転支援方法及び運転支援装置
JP2021005244A (ja) * 2019-06-26 2021-01-14 Pciソリューションズ株式会社 通信装置、通信システム及び通信装置のプログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2827622B1 (en) * 2013-07-15 2019-09-04 Harman Becker Automotive Systems GmbH Techniques of Establishing a Wireless Data Connection
US20150347726A1 (en) * 2014-02-14 2015-12-03 So System Service Co., Ltd. Manipulator authentication operating system
CN105225509A (zh) * 2015-10-28 2016-01-06 努比亚技术有限公司 一种道路车辆智能预警方法、装置和移动终端
CN108603763B (zh) * 2016-03-30 2022-06-24 三菱电机株式会社 行驶计划生成装置、行驶计划生成方法和计算机能读取的记录介质
CN105844965A (zh) * 2016-05-06 2016-08-10 深圳市元征科技股份有限公司 车距提醒的方法及装置
CN106530831A (zh) * 2016-12-15 2017-03-22 江苏大学 一种高威胁车辆监测预警系统及方法
CN107221196A (zh) * 2017-05-26 2017-09-29 广东中星电子有限公司 车辆驾驶风险评估方法、装置、系统及可读存储介质
CN107738627A (zh) * 2017-09-05 2018-02-27 百度在线网络技术(北京)有限公司 一种在自动驾驶系统中进行雨刷控制的方法和装置
US10991245B2 (en) * 2018-01-22 2021-04-27 Rpma Investments Aps System and method of two-way wireless communication for connected car vehicle
US10796175B2 (en) * 2018-06-26 2020-10-06 Toyota Jidosha Kabushiki Kaisha Detection of a drowsy driver based on vehicle-to-everything communications
JP7136035B2 (ja) * 2018-08-31 2022-09-13 株式会社デンソー 地図生成装置及び地図生成方法
KR102612925B1 (ko) * 2018-10-18 2023-12-13 주식회사 에이치엘클레무브 차량 긴급 제어 장치
JP7234614B2 (ja) * 2018-12-10 2023-03-08 トヨタ自動車株式会社 異常検出装置、異常検出システム及び異常検出プログラム
CN109711303A (zh) * 2018-12-19 2019-05-03 斑马网络技术有限公司 驾驶行为评价方法、装置、存储介质及电子设备
DE102019205368B4 (de) 2019-04-12 2024-07-11 Volkswagen Aktiengesellschaft Kraftfahrzeug
KR20200131640A (ko) * 2019-05-14 2020-11-24 현대자동차주식회사 차량 및 그 제어방법
JP6656459B1 (ja) * 2019-09-20 2020-03-04 ソフトバンク株式会社 移動体、システム、プログラム、及び制御方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004343399A (ja) * 2003-05-15 2004-12-02 Alpine Electronics Inc 車載システム
JP2009048564A (ja) * 2007-08-22 2009-03-05 Toyota Motor Corp 車両位置予測装置
WO2010084568A1 (ja) * 2009-01-20 2010-07-29 トヨタ自動車株式会社 隊列走行制御システム及び車両
JP2010205123A (ja) * 2009-03-05 2010-09-16 Nec System Technologies Ltd 運転支援方法、運転支援装置及び運転支援用プログラム
JP2010272083A (ja) * 2009-05-25 2010-12-02 Denso Corp 車載通信装置および通信システム
WO2012056688A1 (ja) * 2010-10-27 2012-05-03 三洋電機株式会社 端末装置
JP2012186742A (ja) * 2011-03-08 2012-09-27 Sanyo Electric Co Ltd 端末接続制御装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6580976B1 (en) * 1999-12-30 2003-06-17 Ge Harris Railway Electronics, Llc Methods and apparatus for very close following train movement
US7487252B2 (en) * 2001-11-16 2009-02-03 Gateway Inc. Vehicle based intelligent network interactivity
JP4603264B2 (ja) * 2002-02-19 2010-12-22 ボルボ テクノロジー コーポレイション 運転者注意負荷の監視と管理とを行なうシステムおよび方法
JP3951231B2 (ja) * 2002-12-03 2007-08-01 オムロン株式会社 安全走行情報仲介システムおよびそれに用いる安全走行情報仲介装置と安全走行情報の確認方法
JP4480613B2 (ja) 2005-03-29 2010-06-16 アルパイン株式会社 ナビゲーション装置
DE102005026065A1 (de) * 2005-06-07 2006-12-21 Robert Bosch Gmbh Adaptiver Geschwindigkeitsregler mit situationsabhängiger Dynamikanpassung
JP4899914B2 (ja) 2007-02-19 2012-03-21 トヨタ自動車株式会社 隊列走行制御装置
JP2009075695A (ja) * 2007-09-19 2009-04-09 Nec Personal Products Co Ltd 危険報知装置およびシステム
JP4931076B2 (ja) 2007-09-20 2012-05-16 ヤフー株式会社 オークションサーバ装置およびその動作方法
JP2009134334A (ja) * 2007-11-28 2009-06-18 Denso Corp 車両制御装置
CN101264762A (zh) * 2008-03-21 2008-09-17 东南大学 车辆跟驰运动的速度控制方法
JP2010066817A (ja) * 2008-09-08 2010-03-25 Nissan Motor Co Ltd 覚醒度低下車両報知装置および車車間通信システム
JP2010086269A (ja) * 2008-09-30 2010-04-15 Mazda Motor Corp 車両同定装置及びそれを用いた運転支援装置
JP2010217956A (ja) * 2009-03-13 2010-09-30 Omron Corp 情報処理装置及び方法、プログラム、並びに情報処理システム
CN101690666B (zh) * 2009-10-13 2011-05-04 北京工业大学 汽车驾驶员驾驶工作负荷测量方法
JP2011175388A (ja) 2010-02-23 2011-09-08 Nec System Technologies Ltd Idカード及びその表示切替方法,プログラム
JP2011175368A (ja) * 2010-02-23 2011-09-08 Clarion Co Ltd 車両制御装置
JP2011221573A (ja) * 2010-04-02 2011-11-04 Denso Corp 運転支援装置および運転支援システム
DE102010052128A1 (de) * 2010-11-22 2012-05-24 GM Global Technology Operations LLC Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004343399A (ja) * 2003-05-15 2004-12-02 Alpine Electronics Inc 車載システム
JP2009048564A (ja) * 2007-08-22 2009-03-05 Toyota Motor Corp 車両位置予測装置
WO2010084568A1 (ja) * 2009-01-20 2010-07-29 トヨタ自動車株式会社 隊列走行制御システム及び車両
JP2010205123A (ja) * 2009-03-05 2010-09-16 Nec System Technologies Ltd 運転支援方法、運転支援装置及び運転支援用プログラム
JP2010272083A (ja) * 2009-05-25 2010-12-02 Denso Corp 車載通信装置および通信システム
WO2012056688A1 (ja) * 2010-10-27 2012-05-03 三洋電機株式会社 端末装置
JP2012186742A (ja) * 2011-03-08 2012-09-27 Sanyo Electric Co Ltd 端末接続制御装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015232533A (ja) * 2014-06-11 2015-12-24 三菱電機株式会社 表示制御システムおよび表示制御方法
CN104537860A (zh) * 2015-01-12 2015-04-22 小米科技有限责任公司 行车安全提示方法及装置
CN104537860B (zh) * 2015-01-12 2017-10-10 小米科技有限责任公司 行车安全提示方法及装置
CN105989745A (zh) * 2015-02-05 2016-10-05 华为技术有限公司 一种车辆违章信息的获取方法、装置及系统
JP2017079014A (ja) * 2015-10-21 2017-04-27 株式会社デンソー 運転支援システム、情報送信装置、及び、運転支援装置
CN105632217A (zh) * 2015-11-26 2016-06-01 东莞酷派软件技术有限公司 一种基于车联网的行车安全预警方法及系统
WO2018146808A1 (ja) * 2017-02-13 2018-08-16 三菱電機株式会社 情報制御装置、情報制御システムおよび情報制御方法
JPWO2018146808A1 (ja) * 2017-02-13 2019-04-18 三菱電機株式会社 情報制御装置、情報制御システムおよび情報制御方法
JP2019125255A (ja) * 2018-01-18 2019-07-25 トヨタ自動車株式会社 エージェント連携システム、エージェント連携方法およびデータ構造
JP7163581B2 (ja) 2018-01-18 2022-11-01 トヨタ自動車株式会社 エージェント連携システムおよびエージェント連携方法
JP2020160878A (ja) * 2019-03-27 2020-10-01 日産自動車株式会社 運転支援方法及び運転支援装置
JP2021005244A (ja) * 2019-06-26 2021-01-14 Pciソリューションズ株式会社 通信装置、通信システム及び通信装置のプログラム

Also Published As

Publication number Publication date
CN104704541B (zh) 2017-09-26
DE112012006975T5 (de) 2015-08-06
US20150206434A1 (en) 2015-07-23
JPWO2014054151A1 (ja) 2016-08-25
JP5931208B2 (ja) 2016-06-08
CN104704541A (zh) 2015-06-10
US9396658B2 (en) 2016-07-19

Similar Documents

Publication Publication Date Title
JP5931208B2 (ja) 車載情報処理装置
JP5278292B2 (ja) 情報提示装置
CN112533812B (zh) 车辆的行驶控制方法及行驶控制装置
JP5397735B2 (ja) 車両用緊急車両接近検出システム
JP5885852B2 (ja) 車載情報処理装置
JPWO2017085981A1 (ja) 運転支援装置及び運転支援方法、並びに移動体
KR20190007286A (ko) 차량용 주행 시스템 및 차량
JP5885853B2 (ja) 車載情報処理装置
CN112601689B (zh) 车辆的行驶控制方法及行驶控制装置
WO2017149655A1 (ja) 逆走抑制装置、逆走抑制方法及び逆走抑制システム
US20150198448A1 (en) Information notification system, transmitting device, and receiving device
JP2007286706A (ja) 運転支援装置
JPWO2010041315A1 (ja) 運転支援装置及び方法
US20080074286A1 (en) Emergency vehicle alert system and method for using the same
JP2004312752A (ja) 自動車用ユーザインターフェースおよび通信システム並びに関連操作方法
JP2011502885A (ja) 車両通信システムおよび方法
JP2017045448A (ja) 誤った走行方向で走行中の車両について警告する方法及びシステム
JP5884478B2 (ja) 車載機、車両用報知システム、および携帯端末
KR20180059663A (ko) 긴급차량 접근 알림 신호 시스템
JP4802942B2 (ja) 車両用運転支援装置、及び、運転支援システム
JP4453579B2 (ja) 車載電話システム
JP2020050204A (ja) 車両の走行制御方法及び走行制御装置
JP2007115079A (ja) 運転支援装置
CN110167781B (zh) 显示装置以及显示方法
JP2019006365A (ja) 車両用表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12885979

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014539538

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14420312

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112012006975

Country of ref document: DE

Ref document number: 1120120069757

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12885979

Country of ref document: EP

Kind code of ref document: A1