WO2017056227A1 - 車載機器制御装置及び車載機器制御方法 - Google Patents

車載機器制御装置及び車載機器制御方法 Download PDF

Info

Publication number
WO2017056227A1
WO2017056227A1 PCT/JP2015/077721 JP2015077721W WO2017056227A1 WO 2017056227 A1 WO2017056227 A1 WO 2017056227A1 JP 2015077721 W JP2015077721 W JP 2015077721W WO 2017056227 A1 WO2017056227 A1 WO 2017056227A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
control
point
unit
information
Prior art date
Application number
PCT/JP2015/077721
Other languages
English (en)
French (fr)
Inventor
橋本 隆志
雅夫 山根
則政 岸
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to PCT/JP2015/077721 priority Critical patent/WO2017056227A1/ja
Publication of WO2017056227A1 publication Critical patent/WO2017056227A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements

Definitions

  • the present invention relates to a vehicle-mounted device control apparatus and a vehicle-mounted device control method for controlling a device mounted on a vehicle.
  • adjustment data representing a relationship between a preset location and audio output is stored in advance, and audio is referred to the adjustment data according to the current position of the vehicle.
  • a technique for adjusting the output has been proposed (see Patent Document 1).
  • Patent Document 1 adjusts sound based on position information, when controlling various in-vehicle devices so as to automatically perform a preferable operation for the occupant, There is a possibility that it cannot be controlled properly.
  • an object of the present invention is to provide an in-vehicle device control apparatus and an in-vehicle device control method that can efficiently reduce operations of various in-vehicle devices.
  • the in-vehicle device control device includes a plurality of sensors that respectively detect at least one of a surrounding environment and a traveling state of the vehicle, and information from a predetermined sensor associated with each predetermined control point in the map information among the plurality of sensors.
  • the vehicle status is determined based on the travel position and information acquired from the predetermined sensor, and on-vehicle equipment that is a control target associated with each control point is controlled based on the vehicle status.
  • an in-vehicle device control apparatus and an in-vehicle device control method capable of efficiently reducing operations of various in-vehicle devices by acquiring information from a predetermined sensor for each point where the in-vehicle devices are controlled. Can be provided.
  • FIG. 1 is a block diagram illustrating an example of a configuration of an in-vehicle device control apparatus according to an embodiment of the present invention.
  • FIG. 2 is a flowchart for explaining an example of a vehicle-mounted device control method using the vehicle-mounted device control apparatus according to the embodiment of the present invention.
  • FIG. 3 is a flowchart for explaining an example of a vehicle-mounted device control method using the vehicle-mounted device control apparatus according to the embodiment of the present invention.
  • FIG. 4 is a flowchart for explaining an example of a vehicle-mounted device control method using the vehicle-mounted device control apparatus according to the embodiment of the present invention.
  • FIG. 5 is a diagram for explaining the operation of the in-vehicle device control apparatus according to the first example of the embodiment of the present invention.
  • FIG. 1 is a block diagram illustrating an example of a configuration of an in-vehicle device control apparatus according to an embodiment of the present invention.
  • FIG. 2 is a flowchart for explaining an example of a vehicle-
  • FIG. 6 is a diagram for explaining the operation of the in-vehicle device control apparatus according to the second example of the embodiment of the present invention.
  • FIG. 7 is a diagram for explaining the operation of the in-vehicle device control apparatus according to the third example of the embodiment of the present invention.
  • the in-vehicle device control device includes a positioning device 10, a sensor group 20 including a plurality of sensors, a communication interface (I / F) 30, a storage device 40, and a controller. 50, an input I / F 60, and a plurality of in-vehicle devices 8-1, 8-2, ..., 8-n.
  • the in-vehicle device control apparatus according to the embodiment of the present invention is mounted on a vehicle C (see FIG. 3 and the like), and various on-vehicle devices 8-1, 8-2,.
  • vehicle-mounted device 8 is controlled.
  • the in-vehicle device 8 includes, for example, a power window, a door mirror, a back view monitor, a side view monitor, a proximity sensor, a millimeter wave sensor, a headlamp, a direction indicator, a room lamp, a door lock, a sliding door, a display, a speaker, and an audio device.
  • a power window for example, a door mirror, a back view monitor, a side view monitor, a proximity sensor, a millimeter wave sensor, a headlamp, a direction indicator, a room lamp, a door lock, a sliding door, a display, a speaker, and an audio device.
  • a sensor group 20 described later.
  • the positioning device 10 measures the current position of the vehicle C on the earth by a positioning system such as a global positioning system (GPS).
  • the positioning device 10 is composed of, for example, a GPS receiver.
  • the positioning device 10 sequentially outputs the measured current position to the controller 50.
  • the sensor group 20 includes, for example, a vehicle sensor that detects the traveling state of the vehicle C, such as a speed sensor, an acceleration sensor, an angular velocity sensor, a steering angle sensor, and an orientation sensor, a camera, a laser range finder (LRF), an ultrasonic sensor, and a millimeter sensor. It can be comprised from the surrounding sensor which detects the surrounding environment of the vehicles C, such as a wave sensor, an infrared sensor, and a raindrop sensor.
  • the vehicle sensors in the sensor group 20 detect the speed of the vehicle C, the three-axis acceleration and angular velocity in the three-dimensional orthogonal coordinate system, and the like, and sequentially output the detection results to the controller 50. Driving of the ambient sensors of the sensor group 20 is controlled by the controller 50, and detection results are sequentially output to the controller 50.
  • the communication I / F 30 is, for example, a communication device that transmits and receives signals to and from the outside wirelessly.
  • the communication I / F 30 receives various types of information from the outside by, for example, an intelligent road traffic system (ITS) that transmits traffic information such as traffic jam information and traffic regulations, weather information, and the like in real time.
  • ITS includes VICS (Vehicle Information and Communication System: registered trademark), telematics, and the like.
  • the communication I / F 30 sequentially outputs the received information to the controller 50.
  • the storage device 40 includes a map information storage unit 41, a sensor storage unit 42, an operation storage unit 43, and an area storage unit 44.
  • the storage device 40 can be composed of a semiconductor memory, a magnetic disk, or the like.
  • the storage device 40 may store a program necessary for processing performed in the controller 50.
  • Each unit constituting the storage device 40 may be constituted by one piece of hardware or a plurality of pieces of hardware.
  • the map information storage unit 41 stores map information including, for example, lanes for each road, features around the road, road type, facility information, and the like. Further, the map information storage unit 41 stores a control point indicating a point where a predetermined in-vehicle device 8 is controlled.
  • the sensor storage unit 42 stores a predetermined sensor associated with each control point in the map information in the sensor group 20 as a situation determination sensor. The number of situation determination sensors associated with each control point may be one, two or more, or zero.
  • the operation storage unit 43 stores the in-vehicle device 8 to be controlled and the operation of the control target for each control point in the map information.
  • the operation storage unit 43 stores a first operation in which a control target is in a predetermined state for each control point and a second operation in a state immediately before the first operation. Further, the operation storage unit 43 may store a normal operation and an operation according to the situation of the vehicle C as the first operation to be controlled associated with each control point.
  • the area storage unit 44 For each control point in the map information, the area storage unit 44 is defined by a first point at which a control target is stored in the operation storage unit 43 and a second point at which a second operation is started. Store the control area.
  • the area storage unit 44 may store a function for calculating the first point and the second point for each control target.
  • the input I / F 60 receives, for example, an occupant's operation and outputs a signal corresponding to the operation to the controller 50.
  • the input I / F 60 may be configured integrally with a display that is one of the in-vehicle devices 8 as a touch panel display.
  • the input I / F 60 may be accepted as an occupant operation by recognizing the occupant's voice.
  • the input I / F 60 can control the in-vehicle device 8 by outputting a signal corresponding to the operation of the occupant to the controller 50.
  • the controller 50 includes a travel position acquisition unit 51, an information acquisition unit 52, a situation determination unit 53, a control area calculation unit 54, a device control unit 55, and a learning processing unit 56.
  • the controller 50 can be configured by, for example, a microcontroller that is an integrated circuit including a central processing unit (CPU), a memory, an input / output I / F, and the like.
  • a plurality of information processing units (51 to 56) constituting the controller 50 are realized by the CPU executing a computer program preinstalled in the microcontroller.
  • Each part which comprises the controller 50 may be comprised from integral hardware, and may be comprised from separate hardware.
  • the microcontroller may also be used as an electronic control unit (ECU) used for other control related to the vehicle such as automatic driving control.
  • ECU electronice control unit
  • the traveling position acquisition unit 51 acquires the traveling position of the vehicle C in the map information based on the current position measured by the positioning device 10 and the momentum of the vehicle C detected by the sensor group 20.
  • the travel position acquisition unit 51 further calculates the relative position of the vehicle C with respect to the feature stored in the map information storage unit 41 from the position of the feature detected by the sensor group 20, thereby obtaining the map information.
  • a detailed traveling position of the vehicle C may be acquired.
  • the information acquisition unit 52 Based on the travel position acquired by the travel position acquisition unit 51 and the content stored in the sensor storage unit 42, the information acquisition unit 52 includes, from the sensor for situation determination, previously associated with each control point in the sensor group 20. Acquire various information. For example, the information acquisition unit 52 acquires information from a predetermined sensor in response to the distance from the travel position to the control point being less than a predetermined threshold.
  • the status determination unit 53 determines the status of the vehicle C based on the travel position acquired by the travel position acquisition unit 51 and the information acquired by the information acquisition unit 52.
  • the situation determination unit 53 determines a situation to be determined for each control point in advance, and determines a situation according to the control point based on the information acquired by the information acquisition unit 52. For example, the situation determination unit 53 determines the situation of the vehicle C in response to the distance from the travel position to the control point being less than a predetermined threshold.
  • the control region calculation unit 54 calculates, for each control point, a first point where the control target starts the first action and a second point where the second action starts according to the control target.
  • a control area which is an area for setting the control target in a predetermined state, is calculated.
  • the control area calculation unit 54 calculates a first point and a second point with respect to the control point when the traveling position of the vehicle C is a predetermined distance to the control point.
  • the control area calculation unit 54 calculates the first point and the second point, the distance from the vehicle C to the first point is shorter than the distance from the vehicle C to the control point.
  • the device control unit 55 controls the in-vehicle device 8 that is a control target associated in advance for each control point based on the situation determined by the situation determination unit 53. That is, the device control unit 55 reads the operation according to the situation determined by the situation determination unit 53 from the operation storage unit 43, and the in-vehicle device 8 to be controlled performs the first operation and the first operation according to the situation of the vehicle C. The in-vehicle device 8 is controlled to perform two operations. The device control unit 55 starts the first operation when the traveling position of the vehicle C acquired by the traveling position acquisition unit 51 reaches the first point, and starts the second operation when the second position reaches the second point. As described above, the control target corresponding to the control point is controlled.
  • the learning processing unit 56 stores the first operation and the second operation stored in the operation storage unit 43 by the occupant's operation on the input I / F 60, the control region calculated by the control region calculation unit 54, and the region storage unit 44. When there is an input for changing at least one of the control areas, each value is changed according to the input content. In addition, the learning processing unit 56 obtains functions stored in the operation storage unit 43 and the region storage unit 44, functions used for processing in the control region calculation unit 54, threshold values, and the like based on the travel history and input from the input I / F 60. It may be changed.
  • step S101 the travel position acquisition unit 51 acquires the travel position of the vehicle C in the map information based on the current position measured by the positioning device 10 and the detection result of the sensor group 20.
  • step S102 the control area calculation unit 54 refers to the map information storage unit 41 and searches for a control point existing in the traveling direction of the vehicle C.
  • step S103 the control area calculation unit 54 refers to the operation storage unit 43, and determines whether there is an in-vehicle device 8 to be controlled corresponding to the searched control point. If there is a control target, the process proceeds to step S104. If there is no control target, the process returns to step S101 and the process is repeated.
  • step S104 the control region calculation unit 54 calculates the first point where the control object starts the first action and the second point where the second action starts according to the control object. Correspondingly, a control region that is a region in which the control target is in a predetermined state is calculated.
  • step S105 the control region calculation unit 54 determines whether or not the travel position of the vehicle C acquired by the travel position acquisition unit 51 has reached the first point calculated in step S104 and has reached the control region. To do.
  • the control area calculation unit 54 repeats the process of step S105 until the traveling position of the vehicle C reaches the control area.
  • step S106 the information acquisition unit 52 refers to the sensor storage unit 42 and determines whether there is a situation determination sensor associated with the control point corresponding to the first point. If there is a situation determination sensor, the process proceeds to step S107. If there is no situation determination sensor, the process proceeds to step S115.
  • step S107 the information acquisition unit 52 reads and acquires various types of information from the situation determination sensor associated with the control point.
  • step S108 the situation determination unit 53 determines the situation of the vehicle C in the control region based on the information acquired by the information acquisition unit 52 in step S107.
  • step S109 the device control unit 55 refers to the operation storage unit 43 and determines whether or not there is an operation according to the situation determined in step S108, thereby causing the control target to perform a normal operation or an operation. Is changed to determine whether to perform exceptional operations according to the situation. If the operation is changed and an exceptional operation is performed, the process proceeds to step S110. If the normal operation is performed, the process proceeds to step S114.
  • step S110 the device control unit 55 selects to control the control target so as to perform the exceptional operation corresponding to the situation determined by the situation determination unit 53, which is stored in the operation storage unit 43.
  • step S111 the learning processing unit 56 presents an occupant with an option to accept or reject the operation selected in step S110 by the in-vehicle device 8 that is an output I / F (presentation unit) such as a display or a speaker. Let me choose.
  • the learning processing unit 56 receives a signal indicating acceptance or rejection in response to an operation performed by the occupant on the input I / F 60. If acceptance is input, the process proceeds to step S112. If rejection is input, the process proceeds to step S113.
  • step S112 the learning processing unit 56 increments the score value of “accept” for the exceptional action selected in step S110.
  • the device control unit 55 controls the control target so that the exceptional operation selected in step S110 is started as the first operation, and the process proceeds to step S117.
  • step S113 the learning processing unit 56 increments the score value of “rejection” for the exceptional action selected in step S110.
  • the device control unit 55 controls the control target so that the normal operation associated with the control point is started as the first operation, and the process proceeds to step S117.
  • step S114 the device control unit 55 controls the control target so as to start the normal operation associated with the control point, and the process proceeds to step S117.
  • step S115 the operation storage unit 43 stores the current state of the in-vehicle device 8 to be controlled.
  • step S116 the device control unit 55 controls the in-vehicle device 8 to be controlled so that the normal operation associated with the control point is started as the first operation.
  • step S117 the operation storage unit 43 stores the first operation amount to be controlled that has been changed by the completion of the first operation performed in any of steps S112 to S114, S116.
  • step S118 the device control unit 55 determines whether or not the travel position of the vehicle C acquired by the travel position acquisition unit 51 has reached the second point calculated in step S104 and has left the control area. .
  • the equipment control unit 55 repeats the process of step S118 until the traveling position of the vehicle C leaves the control area.
  • step S119 the device control unit 55 refers to the operation storage unit 43 and controls the in-vehicle device 8 that is the control target so as to start the second operation for returning to the state immediately before the first operation.
  • step S120 the learning processing unit 56 performs the first operation or the second operation stored in the operation storage unit 43 by the occupant's operation on the input I / F 60, the control region calculated by the control region calculation unit 54, and the region storage. It is determined whether or not there is an input for changing at least one of the control areas stored in the unit 44. If there is an input, the process proceeds to step S121. If there is no input, the process proceeds to step S122.
  • step S121 the learning processing unit 56 changes each value according to the input content. For example, when the first operation started in step S116 is changed according to the signal from the input I / F 60, the changed operation is stored as the first operation amount in step S117.
  • the learning processing unit 56 includes the first operation or the second operation stored in the operation storage unit 43 based on the changed content, the travel history, and the like, the control region calculated by the control region calculation unit 54, and the region storage unit 44.
  • the control area and the like stored in the memory can be changed.
  • step S122 the learning processing unit 56 determines whether or not there is a change in the acceptance or rejection score value in steps S111 to S113. If there is a change, the process proceeds to step S123. If there is no change, the process returns to step S101.
  • step S123 the learning processing unit 56 calculates a score value for the exceptional action selected in step S110 according to a predetermined rule based on the acceptance or rejection score value.
  • the learning processing unit 56 may omit the calculation of the score value for the exceptional action according to the number of times the score value is calculated for the exceptional action.
  • step S124 the learning processing unit 56 determines whether or not the score value calculated in step S123 exceeds a predetermined threshold value. If the score value exceeds the threshold value, the process proceeds to step S125. If the score value does not exceed the threshold value, the process proceeds to step S126.
  • step S125 the learning processing unit 56 changes the stored content of the operation storage unit 43 so as to perform the exceptional operation selected in step S110 from the next time.
  • step S126 the learning processing unit 56 changes the stored content of the operation storage unit 43 so that the exceptional operation selected in step S110 is not performed from the next time.
  • steps S111 to S113 may be omitted according to the score value of the exception processing calculated in step S123 or the number of selections of options in step S111.
  • the exceptional operation selected in step S110 may be performed in step S110.
  • the information acquisition unit 52 refers to the sensor storage unit 42 in step S106 and It is determined that there is an associated situation determination sensor.
  • the situation determination sensor is a speed sensor that detects the speed of the vehicle C1, a steering angle sensor that detects the steering angle, a sensor that detects the state of the direction indicator, and a sensor that measures the distance from the vehicle C1 to the intersection J. Etc. can be adopted.
  • the information acquisition unit 52 acquires various types of information from the situation determination sensor.
  • the situation determination unit 53 determines that the vehicle C1 is about to turn left (or right) as the situation of the vehicle C1 based on the information acquired from the situation determination sensor. For example, when the vehicle speed is lower than a predetermined threshold and the steering angle is higher than the predetermined threshold, the situation determination unit 53 determines that the vehicle C1 is about to turn left or right.
  • the situation determination unit 53 can further improve the accuracy of situation determination by determining the situation based on the presence / absence of operation of the direction indicator.
  • the situation determination unit 53 may determine the situation based on the lane acquired by the travel position acquisition unit 51.
  • the device control unit 55 refers to the operation storage unit 43 and determines that there is an exceptional operation corresponding to the situation in which the vehicle C1 is about to turn left.
  • the device control unit 55 controls the control target so that the exceptional operation is performed as the first operation in S110.
  • the controlled object and the exceptional action are, for example, driving of a proximity sensor such as an ultrasonic sensor, a camera for turning right and left and a monitor, and the driving may be only a sensor in a turning direction.
  • the video imaged by the camera can be viewed by the occupant by being displayed on the display. Thereby, the power consumption of the vehicle-mounted device 8 that is the control target can be reduced, and the pedestrian D's entrainment or the like when turning left can be reduced.
  • step S106 If there is no situation determination sensor in step S106, or if it is determined in step S108 that the vehicle C1 is going to go straight through the intersection J, the device control unit 55 does nothing as normal operation in step S114 or S116. Do not do it.
  • the operation storage unit 43 may store the control target and the first operation in a blank state as the normal operation.
  • the situation determination unit 53 may determine that the lane change is about to be made as the situation of the vehicle C2, as in the vehicle C2 shown in FIG. For example, when the vehicle speed is higher than a predetermined threshold and the steering angle is lower than the predetermined threshold, the situation determination unit 53 determines that the vehicle C1 is about to change lanes. The situation determination unit 53 can further improve the accuracy of situation determination by determining the situation based on the presence / absence of operation of the direction indicator. The situation determination unit 53 may determine the situation based on the lane acquired by the travel position acquisition unit 51.
  • the device control unit 55 refers to the operation storage unit 43 and determines that there is an exceptional operation according to the situation in which the vehicle C2 is about to change lanes.
  • the device control unit 55 controls the control target so that the exceptional operation is performed as the first operation.
  • the controlled object and the exceptional operation are, for example, driving of a rear side sensor such as a millimeter wave sensor, a camera and a monitor for supporting lane change, and the driving may be only a sensor in the direction of the lane change destination. Thereby, the power consumption of the in-vehicle device 8 that is the control target can be reduced, and the contact with the other vehicle E behind the vehicle when the lane is changed can be reduced.
  • the situation determination unit 53 may determine that the situation of the vehicle C3 is going to turn left and right from the non-priority road to the priority road, as in the vehicle C3 shown in FIG. For example, the situation determination unit 53 determines that the vehicle C3 is going to turn left or right from the non-priority road by acquiring the number of lanes, the presence / absence of traffic lights, etc. from the map information in addition to the vehicle speed and the steering angle. do it.
  • the device control unit 55 refers to the operation storage unit 43 and determines that there is an exceptional operation according to the situation in which the vehicle C3 is going to turn right or left from the non-priority road.
  • the device control unit 55 controls the control target so that the exceptional operation is performed as the first operation.
  • the control target and the exceptional operation are, for example, driving of a proximity sensor such as a millimeter wave sensor, a camera for turning right and left, and a monitor.
  • the left / right turn support camera is mounted at the front end of the vehicle C3 and shoots images on both sides in front. Thereby, the power consumption of the vehicle-mounted device 8 that is the control target can be reduced, and contact with the other at the time of turning right or left can be reduced.
  • a narrow path K as shown in FIG. 6 is set in the map information storage unit 41 as one of the control points.
  • the information acquisition unit 52 refers to the sensor storage unit 42 in step S106 and determines that there is a situation determination sensor associated with the narrow road K.
  • a situation determination sensor In this case, an ultrasonic sensor, LRF, camera, or the like can be used as the situation determination sensor.
  • the information acquisition unit 52 acquires various types of information from the situation determination sensor.
  • step S108 the situation determination unit 53 determines that the oncoming vehicle F is approaching as the situation of the vehicle C based on the information acquired from the situation determination sensor. For example, the situation determination unit 53 determines that the vehicle C approaches the oncoming vehicle F when the distance from the oncoming vehicle F or the end of the narrow road K is equal to or less than a predetermined threshold.
  • step S109 the device control unit 55 refers to the operation storage unit 43 and determines that there is an exceptional operation according to the situation in which the vehicle C approaches the oncoming vehicle F.
  • the device control unit 55 controls the control target so that the exceptional operation is performed as the first operation in S110.
  • Control objects and exceptional operations are, for example, storing a door mirror and starting a corner pole. Thereby, a contact with the edge part of the narrow path K or the oncoming vehicle F can be reduced.
  • a gate G as shown in FIG. 7 is set in the map information storage unit 41 as one of the control points.
  • the gate G is a gate that requires work by the driver, such as an entrance / exit management gate, an entrance / exit of a pay parking lot that requires acquisition and payment of a parking ticket.
  • the control region calculation unit 54 determines that the travel point R of the vehicle C is the first point P1 before the gate G and the second point in the back of the gate G in step S104. P2 is calculated.
  • the operation storage unit 43 stores, as the first operation, the normal operation of fully opening the power window of the driver's seat that is the control target with respect to the gate G.
  • the control region calculation unit 54 calculates a first point P1 and a second point P2 that are a predetermined distance (for example, 50 m) from the gate G in the travel route R.
  • the control area calculation unit 54 may calculate the first point and the second point according to the speed of the vehicle C when the traveling position of the vehicle C is a predetermined distance to the control point.
  • the control region calculation unit 54 determines the first time to reach the gate G based on the speed of the vehicle C and the distance to the gate G, which is the control point, for a predetermined time (for example, 3 seconds).
  • the second point where the time since the departure from the point and the gate G is a predetermined time (for example, 3 seconds) is calculated.
  • the control region calculation unit 54 may calculate the first point and the second point using a preset speed profile at the time of deceleration or a speed profile based on a past travel history.
  • the first point and the second point may be calculated as an application of the above-described configuration, for example, a point where the time to the point where the distance to the gate G becomes a predetermined distance becomes a predetermined time. .
  • control area calculation unit 54 calculates the first point and the second point based on the time during which the vehicle C travels while reaching the control point according to the type of the in-vehicle device 8 to be controlled. It may be.
  • the in-vehicle device 8 includes devices having a transition time from the start to the completion of the operation, such as a power window and a door mirror. When the in-vehicle device 8 having such a transition time is a control target, the vehicle C reaches the control point by calculating the first point and the second point based on the time during which the vehicle C travels. The first operation can be surely completed, and the second operation can be completed efficiently after passing through the control point.
  • the information acquisition unit 52 refers to the sensor storage unit 42 in step S106 and determines that there is a situation determination sensor associated with the gate G.
  • a raindrop sensor or the like can be used as the situation determination sensor.
  • the information acquisition unit 52 acquires information indicating the presence or absence of rain, snow, or the like.
  • step S108 the situation determination unit 53 determines that the vehicle C is traveling in rain or the like based on the information acquired from the situation determination sensor.
  • the situation determination unit 53 may determine the weather based on weather information acquired via the communication I / F 30.
  • step S109 the device control unit 55 refers to the operation storage unit 43 and determines that there is an exceptional operation corresponding to the situation in which the vehicle C travels in rain or the like.
  • the device control unit 55 controls the control target so that the exceptional operation is performed as the first operation in S110.
  • the controlled object and the exceptional operation are, for example, that the opening degree of the power window is set to an extent necessary for the driver to perform an operation on the gate. Thereby, the opening degree of a power window can be made small at the time of rain, etc., and it can reduce that rain etc. enter into a vehicle interior.
  • step S106 If there is no situation determination sensor in step S106, or if it is determined that the sky is clear in step S108, the device controller 55 fully opens the power window as a normal operation in step S114 or S116.
  • the vehicle is obtained by selectively acquiring information from the predetermined sensor associated with each control point that controls the predetermined in-vehicle device 8.
  • the situation of C can be judged, and the operation of various in-vehicle devices can be efficiently reduced with the minimum amount of information required.
  • the user's operation with respect to various vehicle equipment 8 is reduced efficiently by calculating a 1st point and a 2nd spot. be able to.
  • control device for each user, by presenting to the user whether or not to change the control method of the control target according to the situation determined by the situation determination unit 53. Appropriate control can be performed.
  • control region calculation unit 54 can calculate various control regions based on a function corresponding to the type of control target stored in the region storage unit 44.
  • the control area may be calculated concentrically with the control point as the center.
  • the device control unit 55 may regard a point that reaches the control region from the outside as the first point and a point that leaves the control region to the outside as the second point.
  • the processing circuit includes a programmed processing device such as a processing device including an electrical circuit.
  • the processing circuitry may include devices such as application specific integrated circuits (ASICs) and circuit components arranged to perform the described functions.
  • ASICs application specific integrated circuits
  • the present invention includes various embodiments that are not described here, such as a configuration in which the above-described configurations are applied to each other. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

車載機器制御装置は、車両の周囲環境及び走行状態の少なくともいずれかをそれぞれ検出する複数のセンサを備え、複数のセンサのうち、地図情報における所定の制御地点毎に関連付けられた所定のセンサから情報を取得し、走行位置及び所定のセンサから取得された情報に基づいて、車両の状況を判断し、車両の状況に基づいて、制御地点毎に関連付けられた制御対象である車載機器を制御する。

Description

車載機器制御装置及び車載機器制御方法
 本発明は、車両に搭載された機器を制御する車載機器制御装置及び車載機器制御方法に関する。
 音声出力により車両の乗員に情報を提供する装置において、予め設定された場所と音声出力との関係を表す調整用データを予め格納し、車両の現在位置に応じて調整用データを参照して音声出力を調整する技術が提案されている(特許文献1参照)。
特開2005-31018号公報
 しかしながら、特許文献1に記載の技術は、位置情報に基づいて音声を調整するため、乗員にとって好ましい動作を自動的に行うように、様々な車載機器を制御する場合、状況に応じて車載機器を適切に制御できない可能性がある。
 本発明は、上記問題点を鑑み、様々な車載機器の操作を効率的に低減することができる車載機器制御装置及び車載機器制御方法を提供することを目的とする。
 車載機器制御装置は、車両の周囲環境及び走行状態の少なくともいずれかをそれぞれ検出する複数のセンサを備え、複数のセンサのうち、地図情報における所定の制御地点毎に関連付けられた所定のセンサから情報を取得し、走行位置及び所定のセンサから取得された情報に基づいて、車両の状況を判断し、車両の状況に基づいて、制御地点毎に関連付けられた制御対象である車載機器を制御する。
 本発明によれば、車載機器の制御を行う地点毎に所定のセンサから情報を取得することにより、様々な車載機器の操作を効率的に低減することができる車載機器制御装置及び車載機器制御方法を提供することができる。
図1は、本発明の実施の形態に係る車載機器制御装置の構成の一例を説明するブロック図である。 図2は、本発明の実施の形態に係る車載機器制御装置を用いた車載機器制御方法の一例を説明するフローチャートである。 図3は、本発明の実施の形態に係る車載機器制御装置を用いた車載機器制御方法の一例を説明するフローチャートである。 図4は、本発明の実施の形態に係る車載機器制御装置を用いた車載機器制御方法の一例を説明するフローチャートである。 図5は、本発明の実施の形態の第1実施例に係る車載機器制御装置の動作を説明する図である。 図6は、本発明の実施の形態の第2実施例に係る車載機器制御装置の動作を説明する図である。 図7は、本発明の実施の形態の第3実施例に係る車載機器制御装置の動作を説明する図である。
 図面を参照して、本発明の実施の形態を説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。
(車載機器制御装置)
 本実施の形態に係る車載機器制御装置は、図1に示すように、測位装置10と、複数のセンサからなるセンサ群20と、通信インターフェース(I/F)30と、記憶装置40と、コントローラ50と、入力I/F60と、複数の車載機器8-1,8-2,…,8-nとを備える。本発明の実施の形態に係る車載機器制御装置は、車両C(図3等参照)に搭載され、車両Cに搭載された様々な車載機器8-1,8-2,…,8-n(以下、総称する場合において「車載機器8」という)を制御する。
 車載機器8は、例えば、パワーウィンドウ、ドアミラー、バックビューモニタ、サイドビューモニタ、近接センサ、ミリ波センサ、前照灯、方向指示器、ルームランプ、ドアロック、スライドドア、ディスプレイ、スピーカ、オーディオ機器、各種アクチュエータ等、車両Cに搭載され、制御可能な機器のうち、車両Cの走行に直接的に関与しないものである。車載機器8は、後述のセンサ群20を含む。
 測位装置10は、全地球測位システム(GPS)等の測位システムにより、車両Cの地球上における現在位置を測定する。測位装置10は、例えばGPS受信機からなる。測位装置10は、測定した現在位置をコントローラ50に逐次出力する。
 センサ群20は、例えば、速度センサ、加速度センサ、角速度センサ、操舵角センサ、方位センサ等の車両Cの走行状態を検出する車両センサと、カメラ、レーザーレンジファインダー(LRF)、超音波センサ、ミリ波センサ、赤外線センサ、雨滴センサ等の車両Cの周囲環境を検出する周囲センサとから構成可能である。センサ群20の車両センサは、各センサにより車両Cの速度や、3次元直交座標系における3軸の加速度及び角速度等を検出し、検出結果をコントローラ50に逐次出力する。センサ群20の周囲センサは、コントローラ50により駆動を制御され、検出結果をコントローラ50に逐次出力する。
 通信I/F30は、例えば、無線で外部と信号を送受信する通信機である。通信I/F30は、例えば、渋滞情報、交通規制等の交通情報や、天気情報等をリアルタイムに送信する高度道路交通システム(ITS)により、外部から種々の情報を受信する。ITSは、VICS(Vehicle Information and Communication System:登録商標)、テレマティクス等を含む。通信I/F30は、受信した情報をコントローラ50に逐次出力する。
 記憶装置40は、地図情報記憶部41と、センサ記憶部42と、動作記憶部43と、領域記憶部44とを備える。記憶装置40は、半導体メモリ、磁気ディスク等から構成可能である。記憶装置40は、その他、コントローラ50において行われる処理に必要なプログラムを記憶するようにしてもよい。記憶装置40を構成する各部は、1つのハードウェアから構成されてもよく、複数のハードウェアから構成されてもよい。
 地図情報記憶部41は、例えば、道路毎の車線、道路周辺の地物、道路種別、施設情報等を含む地図情報を記憶する。また、地図情報記憶部41は、所定の車載機器8が制御される地点を示す制御地点を記憶する。センサ記憶部42は、センサ群20のうち、地図情報における制御地点毎に関連付けられた所定のセンサを、状況判断用センサとして記憶する。各制御地点に関連付けられる状況判断用センサの数は、1であっても2以上であってもよく、0であってもよい。
 動作記憶部43は、地図情報における制御地点毎に、制御対象となる車載機器8及び制御対象の動作を記憶する。動作記憶部43は、制御地点毎に制御対象が所定の状態となる第1動作と、第1動作直前の状態となる第2動作とを記憶する。また、動作記憶部43は、各制御地点に関連付けられる制御対象の第1動作として、通常の動作と、車両Cの状況に応じた動作とを記憶するようにしてもよい。
 領域記憶部44は、地図情報における制御地点毎に、制御対象が動作記憶部43に記憶される第1動作を開始する第1地点と、第2動作を開始する第2地点とにより定義される制御領域を記憶する。領域記憶部44は、制御対象毎の第1地点及び第2地点を算出するための関数を記憶するようにしてもよい。
 入力I/F60は、例えば、乗員の操作を受け付け、操作に応じた信号をコントローラ50に出力する。入力I/F60は、タッチパネルディスプレイとして車載機器8の1つであるディスプレイと共に一体に構成されてもよい。或いは、入力I/F60は、乗員の音声を認識することにより、乗員の操作として受け付けるようにしてもよい。その他、入力I/F60は、乗員の操作に応じた信号をコントローラ50に出力することにより、車載機器8を制御することができる。
 コントローラ50は、走行位置取得部51と、情報取得部52と、状況判断部53と、制御領域算出部54と、機器制御部55と、学習処理部56とを有する。コントローラ50は、例えば、中央演算処理装置(CPU)、メモリ、及び入出力I/F等を備える集積回路であるマイクロコントローラにより構成可能である。この場合、マイクロコントローラに予めインストールされたコンピュータプログラムをCPUが実行することにより、コントローラ50を構成する複数の情報処理部(51~56)が実現される。コントローラ50を構成する各部は、一体のハードウェアから構成されてもよく、別個のハードウェアから構成されてもよい。マイクロコントローラは、例えば自動運転制御等の車両に関わる他の制御に用いる電子制御ユニット(ECU)と兼用されてもよい。
 走行位置取得部51は、測位装置10により測定された現在位置と、センサ群20により検出される車両Cの運動量に基づいて、地図情報における車両Cの走行位置を取得する。走行位置取得部51は、更に、センサ群20により検出される地物の位置から、地図情報記憶部41に記憶される地物に対する車両Cの相対的な位置を算出することにより、地図情報における車両Cの詳細な走行位置を取得するようにしてもよい。
 情報取得部52は、走行位置取得部51により取得される走行位置及びセンサ記憶部42に記憶される内容に基づいて、センサ群20のうち、制御地点毎に予め関連付けられた状況判断用センサから各種情報を取得する。情報取得部52は、例えば、走行位置から制御地点までの距離が所定の閾値未満となることに応じて、所定のセンサから情報を取得する。
 状況判断部53は、走行位置取得部51により取得された走行位置及び情報取得部52により取得された情報に基づいて、車両Cの状況を判断する。状況判断部53は、制御地点毎に判断すべき状況を予め設定され、制御地点に応じた状況を、情報取得部52により取得された情報に基づいて判断する。状況判断部53は、例えば、走行位置から制御地点までの距離が所定の閾値未満となることに応じて、車両Cの状況を判断する。
 制御領域算出部54は、1つの制御地点毎に、制御対象に応じて、制御対象が第1動作を開始する第1地点と、第2動作を開始する第2地点とを算出することにより、制御対象を所定の状態とする領域である制御領域を算出する。制御領域算出部54は、車両Cの走行位置が制御地点まで所定の距離となるとき、制御地点に対する第1地点及び第2地点をそれぞれ算出する。制御領域算出部54が第1地点及び第2地点を算出する時点において、車両Cから第1地点までの距離は、車両Cから制御地点までの距離より短い。
 機器制御部55は、状況判断部53により判断された状況に基づいて、制御地点毎に予め関連付けられた制御対象である車載機器8を制御する。すなわち、機器制御部55は、状況判断部53により判断された状況に応じた動作を動作記憶部43から読み出し、制御対象となる車載機器8が、車両Cの状況に応じた第1動作及び第2動作を行うように車載機器8を制御する。機器制御部55は、走行位置取得部51により取得される車両Cの走行位置が第1地点に到達したときに第1動作を開始し、第2地点に到達したときに第2動作を開始するように、制御地点に対応する制御対象を制御する。
 学習処理部56は、入力I/F60に対する乗員の操作により、動作記憶部43により記憶された第1動作及び第2動作、制御領域算出部54により算出された制御領域、領域記憶部44に記憶された制御領域の少なくともいずれかを変更させる入力があった場合、入力内容に応じて各値を変更する。また、学習処理部56は、走行履歴や入力I/F60からの入力に基づいて、動作記憶部43や領域記憶部44の記憶内容、制御領域算出部54の処理に用いられる関数及び閾値等を変更するようにしてもよい。
 (車載機器制御方法)
 図2~図4のフローチャートを参照して、本発明の実施の形態に係る車載機器制御装置を用いた車載機器制御方法の一例を説明する。
 先ず、ステップS101において、走行位置取得部51は、測位装置10により測定された現在位置と、センサ群20検出結果に基づいて、地図情報における車両Cの走行位置を取得する。
 ステップS102において、制御領域算出部54は、地図情報記憶部41を参照し、車両Cの進行方向に存在する制御地点を検索する。
 ステップS103において、制御領域算出部54は、動作記憶部43を参照し、検索された制御地点に対応する制御対象となる車載機器8があるか否かを判定する。制御対象がある場合、ステップS104に処理を進め、制御対象がない場合、ステップS101に戻り処理を繰り返す。
 ステップS104において、制御領域算出部54は、制御対象に応じて、制御対象が第1動作を開始する第1地点と、第2動作を開始する第2地点とを算出することにより、制御地点に対応し、制御対象を所定の状態とする領域である制御領域を算出する。
 ステップS105において、制御領域算出部54は、走行位置取得部51により取得される車両Cの走行位置が、ステップS104において算出された第1地点に到達し、制御領域に到達したか否かを判定する。制御領域算出部54は、車両Cの走行位置が制御領域に到達するまで、ステップS105の処理を繰り返す。
 ステップS106において、情報取得部52は、センサ記憶部42を参照し、第1地点に対応する制御地点に関連付けられた状況判断用センサがあるか否か判定する。状況判断用センサがある場合、ステップS107に処理を進め、状況判断用センサがない場合、ステップS115に処理を進める。
 ステップS107において、情報取得部52は、制御地点に関連付けられた状況判断用センサから各種情報を読み出し、取得する。
 ステップS108において、状況判断部53は、ステップS107において情報取得部52により取得された情報に基づいて、制御領域における車両Cの状況を判断する。
 ステップS109において、機器制御部55は、動作記憶部43を参照し、ステップS108において判断された状況に応じた動作があるか否かを判定することにより、制御対象に通常動作をさせるか、動作を変更して状況に応じた例外動作をさせるかを判定する。動作を変更し、例外動作を行う場合、ステップS110に処理を進め、通常動作を行う場合、ステップS114に処理を進める。
 ステップS110において、機器制御部55は、動作記憶部43に記憶される、状況判断部53により判断された状況に応じた例外動作を行うように制御対象を制御することを選択する。
 ステップS111において、学習処理部56は、ディスプレイ又はスピーカ等の出力I/F(提示部)である車載機器8により、ステップS110において選択した動作を行うことに対する受諾又は拒否の選択肢を乗員に提示し、選択させる。学習処理部56は、乗員の入力I/F60に対する操作に応じて、受諾又は拒否を示す信号を入力される。受諾が入力された場合、ステップS112に処理を進め、拒否が入力された場合、ステップS113に処理を進める。
 ステップS112において、学習処理部56は、ステップS110において選択された例外動作に対する「受諾」のスコア値をインクリメントする。また、機器制御部55は、ステップS110において選択された例外動作を第1動作として開始するように制御対象を制御し、ステップS117に処理を進める。
 ステップS113において、学習処理部56は、ステップS110において選択された例外動作に対する「拒否」のスコア値をインクリメントする。また、機器制御部55は、制御地点に関連付けられた通常動作を第1動作として開始するように制御対象を制御し、ステップS117に処理を進める。
 ステップS109において動作をしないと判定された場合、ステップS114において、機器制御部55は、制御地点に関連付けられた通常動作を開始するように制御対象を制御し、ステップS117に処理を進める。
 一方、ステップS106において制御地点に関連付けられた状況判断用センサがないと判定された場合、ステップS115において、動作記憶部43は、制御対象となる車載機器8の現在の状態を記憶する。
 ステップS116において、機器制御部55は、制御地点に関連付けられた通常動作を第1動作として開始するように制御対象となる車載機器8を制御する。
 ステップS117において、動作記憶部43は、ステップS112~S114,S116のいずれかにおいて行われた第1動作の完了までに変更された制御対象の第1動作量を記憶する。
 ステップS118において、機器制御部55は、走行位置取得部51により取得される車両Cの走行位置が、ステップS104において算出された第2地点に到達し、制御領域から離脱したか否かを判定する。機器制御部55は、車両Cの走行位置が制御領域から離脱するまで、ステップS118の処理を繰り返す。
 ステップS119において、機器制御部55は、動作記憶部43を参照し、第1動作直前の状態に戻す第2動作を開始するように制御対象である車載機器8を制御する。
 ステップS120において、学習処理部56は、入力I/F60に対する乗員の操作により、動作記憶部43により記憶された第1動作又は第2動作、制御領域算出部54により算出された制御領域、領域記憶部44に記憶された制御領域の少なくともいずれかを変更させる入力があったか否かを判定する。入力があった場合、ステップS121に処理を進め、入力がなかった場合、ステップS122に処理を進める。
 ステップS121において、学習処理部56は、入力内容に応じて各値を変更する。例えば、ステップS116において開始された第1動作が入力I/F60からの信号に応じて変更された場合、変更された動作が、ステップS117において第1動作量として記憶される。学習処理部56は、変更された内容や走行履歴等に基づいて、動作記憶部43により記憶された第1動作又は第2動作、制御領域算出部54により算出された制御領域、領域記憶部44に記憶された制御領域等を変更することができる。
 ステップS122において、学習処理部56は、ステップS111~S113における受諾又は拒否のスコア値に変更があるか否かを判定する。変更がある場合、ステップS123に処理を進め、変更がない場合、ステップS101に処理を戻す。
 ステップS123において、学習処理部56は、受諾又は拒否のスコア値に基づいて、予め決定された法則により、ステップS110において選択された例外動作に対するスコア値を算出する。学習処理部56は、例外動作に対するスコア値の算出回数に応じて、例外動作に対するスコア値の算出を省略するようにしてもよい。
 ステップS124において、学習処理部56は、ステップS123において算出されたスコア値が所定の閾値を超えているか否かを判定する。スコア値が閾値を超える場合、ステップS125に処理を進め、スコア値が閾値を超えない場合、ステップS126に処理を進める。
 ステップS125において、学習処理部56は、次回以降、ステップS110において選択された例外動作を行うように、動作記憶部43の記憶内容を変更する。或いは、ステップS126において、学習処理部56は、次回以降、ステップS110において選択された例外動作を行わないように、動作記憶部43の記憶内容を変更する。
 なお、ステップS111~S113の処理は、ステップS123において算出された例外処理のスコア値、又はステップS111における選択肢の選択回数に応じて省略するようにしてもよい。この場合、ステップS110において選択された例外動作が、ステップS110において行われるようにすればよい。
(第1実施例)
 本発明の実施の形態の第1実施例に係る車載機器制御装置は、地図情報記憶部41に、制御地点の1つとして、図6に示すような交差点Jが設定される。
 例えば、車両C1が片道3車線の道路の最左端の車線を走行し、前方の交差点Jに接近している場合、情報取得部52は、ステップS106においてセンサ記憶部42を参照し、交差点Jに関連付けられた状況判断用センサがあると判定する。この場合、状況判断用センサは、車両C1の速度を検出する速度センサ、操舵角を検出する操舵角センサ、方向指示器の状態を検出するセンサ、車両C1から交差点Jまでの距離を測定するセンサ等を採用可能である。情報取得部52は、ステップS107において、状況判断用センサから各種情報を取得する。
 状況判断部53は、ステップS108において、状況判断用センサから取得された情報に基づいて、車両C1の状況として、左折(又は右折)しようとしていると判断する。例えば、状況判断部53は、車速が所定の閾値より低く、操舵角が所定の閾値より大きい場合、車両C1が右左折しようとする状況と判断する。状況判断部53は、方向指示器の操作の有無に基づいて状況を判断することにより、更に状況判断の精度を向上することができる。状況判断部53は、走行位置取得部51により取得された車線等により状況を判断するようにしてもよい。
 機器制御部55は、ステップS109において、動作記憶部43を参照し、車両C1が左折しようとする状況に応じた例外動作があると判定する。機器制御部55は、S110において例外動作を第1動作として行うように制御対象を制御する。制御対象及び例外動作は、例えば、超音波センサ等の近接センサや右左折支援用のカメラ及びモニタの駆動であり、駆動は旋回する方向のセンサのみでもよい。カメラにより撮影された映像は、ディスプレイに表示されることにより、乗員に視認されることができる。これにより、制御対象である車載機器8の消費電力を低減することができる他、左折時における歩行者Dの巻き込み等を低減することができる。
 ステップS106において状況判断用センサがない場合、又は、ステップS108において車両C1が交差点Jを直進しようとする状況と判断された場合、機器制御部55は、ステップS114又はS116において、通常動作として何も行わないようにすればよい。すなわち、動作記憶部43は、通常動作として制御対象及び第1動作をブランクの状態で記憶するようにすればよい。
 また、状況判断部53は、図5に示す車両C2のように、車両C2の状況として、車線変更しようとしていると判断するようにしてもよい。状況判断部53は、例えば、車速が所定の閾値より高く、操舵角が所定の閾値より小さい場合、車両C1が車線変更しようとする状況と判断する。状況判断部53は、方向指示器の操作の有無に基づいて状況を判断することにより、更に状況判断の精度を向上することができる。状況判断部53は、走行位置取得部51により取得された車線等により状況を判断するようにしてもよい。
 機器制御部55は、動作記憶部43を参照し、車両C2が車線変更しようとする状況に応じた例外動作があると判定する。機器制御部55は、例外動作を第1動作として行うように制御対象を制御する。制御対象及び例外動作は、例えば、ミリ波センサ等の後側方センサや車線変更支援用のカメラ及びモニタの駆動であり、駆動は車線変更先の方向のセンサのみでもよい。これにより、制御対象である車載機器8の消費電力を低減することができる他、車線変更時における後方の他車両Eとの接触等を低減することができる。
 また、状況判断部53は、図5に示す車両C3のように、車両C3の状況として、非優先道路から優先道路に右左折しようとしていると判断するようにしてもよい。状況判断部53は、例えば、車速や操舵角の他、地図情報から車線の数や信号機の有無等を取得することにより、車両C3が非優先道路から右左折しようとする状況と判断するようにすればよい。
 機器制御部55は、動作記憶部43を参照し、車両C3が非優先道路から右左折しようとする状況に応じた例外動作があると判定する。機器制御部55は、例外動作を第1動作として行うように制御対象を制御する。制御対象及び例外動作は、例えば、ミリ波センサ等の近接センサや右左折支援用のカメラ及びモニタの駆動である。右左折支援用のカメラは、車両C3の前端部に搭載され、前方における両側方の映像を撮影する。これにより、制御対象である車載機器8の消費電力を低減することができる他、右左折時における他との接触を低減することができる。
(第2実施例)
 本発明の実施の形態の第2実施例に係る車載機器制御装置は、地図情報記憶部41に、制御地点の1つとして、図6に示すような狭路Kが設定される。
 例えば、車両Cが狭路Kを走行中の場合、情報取得部52は、ステップS106においてセンサ記憶部42を参照し、狭路Kに関連付けられた状況判断用センサがあると判定する。この場合、状況判断用センサは、超音波センサ、LRF、カメラ等を採用可能である。情報取得部52は、ステップS107において、状況判断用センサから各種情報を取得する。
 状況判断部53は、ステップS108において、状況判断用センサから取得された情報に基づいて、車両Cの状況として、対向車Fが接近していると判断する。例えば、状況判断部53は、対向車F又は狭路Kの端部との距離が所定の閾値以下となる場合、車両Cが対向車Fと接近する状況と判断する。
 機器制御部55は、ステップS109において、動作記憶部43を参照し、車両Cが対向車Fと接近する状況に応じた例外動作があると判定する。機器制御部55は、S110において例外動作を第1動作として行うように制御対象を制御する。制御対象及び例外動作は、例えば、ドアミラーの格納、コーナーポールの立ち上げである。これにより、狭路Kの端部又は対向車Fとの接触を低減することができる。
(第3実施例)
 本発明の実施の形態の第3実施例に係る車載機器制御装置は、地図情報記憶部41に、制御地点の1つとして、図7に示すようなゲートGが設定される。ゲートGは、例えば、入退場管理ゲート、駐車券の取得や精算が必要な有料駐車場の出入口等、運転者による作業が必要なゲートである。
 制御領域算出部54は、ステップS103において進行方向にゲートGが存在する場合、ステップS104において、車両Cの走行経路Rに、ゲートGの手前の第1地点P1、ゲートGの奥の第2地点P2を算出する。動作記憶部43は、例えば、ゲートGに対して、制御対象である運転席のパワーウィンドウを全開する通常動作を第1動作として記憶する。制御領域算出部54は、走行経路RにおいてゲートGから所定の距離(例えば50m)となる第1地点P1及び第2地点P2を算出する。
 或いは、制御領域算出部54は、車両Cの走行位置が制御地点まで所定の距離となるときの車両Cの速度に応じて、第1地点及び第2地点を算出するようにしてもよい。すなわち、制御領域算出部54は、車両Cの速度と、制御地点であるゲートGまでの距離とに基づいて、ゲートGに到達するまでの時間が所定の時間(例えば3秒)となる第1地点及びゲートGを出発してからの時間が所定の時間(例えば3秒)となる第2地点を算出する。このとき、制御領域算出部54は、予め設定された減速時の速度プロファイルや、過去の走行履歴に基づいた速度プロファイルを用いて第1地点及び第2地点を算出するようにしてもよい。また、第1地点及び第2地点は、上述の構成の応用として、例えば、ゲートGまでの距離が所定の距離となる地点までの時間が所定の時間となる地点のように算出されてもよい。
 また、制御領域算出部54は、制御対象となる車載機器8の種類に応じて、車両Cが制御地点に到達する間に走行する時間に基づいて、第1地点及び第2地点を算出するようにしてもよい。車載機器8は、パワーウィンドウ、ドアミラー等、動作の開始から完了までの遷移時間を有する機器が含まれる。このような遷移時間を有する車載機器8が制御対象となる場合、車両Cが走行する時間に基づいて、第1地点及び第2地点を算出することにより、車両Cが制御地点に到達するまでに、確実に第1動作を完了させることができ、制御地点を通過した後、効率的に第2動作を完了させることができる。
 ステップS105において車両Cが第1地点P1に到達すると、情報取得部52は、ステップS106においてセンサ記憶部42を参照し、ゲートGに関連付けられた状況判断用センサがあると判定する。この場合、状況判断用センサは、雨滴センサ等を採用可能である。情報取得部52は、ステップS107において、雨、雪等の有無を示す情報を取得する。
 状況判断部53は、ステップS108において、状況判断用センサから取得された情報に基づいて、車両Cが雨等の中を走行していると判断する。状況判断部53は、通信I/F30を介して取得された天気情報により、天候を判断するようにしてもよい。
 機器制御部55は、ステップS109において、動作記憶部43を参照し、車両Cが雨等の中を走行する状況に応じた例外動作があると判定する。機器制御部55は、S110において例外動作を第1動作として行うように制御対象を制御する。制御対象及び例外動作は、例えば、パワーウィンドウの開度を、運転者がゲートに対する操作を行うのに必要な程度とすることである。これにより、雨天時等にパワーウィンドウの開度を小さくすることができ、車室内に雨等が入り込むことを低減することができる。
 ステップS106において状況判断用センサがない場合、又は、ステップS108において晴天等と判断された場合、機器制御部55は、ステップS114又はS116において、通常動作としてパワーウィンドウを全開にする。
 以上のように、本実施の形態に係る車載機器制御装置によれば、所定の車載機器8の制御を行う制御地点毎に関連付けられた所定のセンサから選択的に情報を取得することにより、車両Cの状況を判断することができ、様々な車載機器の操作を必要最低限の情報量で効率的に低減することができる
 また、本実施の形態に係る車載機器制御装置によれば、制御対象に応じて、第1地点及び第2地点を算出することにより、様々な車載機器8に対するユーザの操作を効率的に低減することができる。
 また、本実施の形態に係る車載機器制御装置によれば、車両Cの状況に応じて、車両Cの周囲を撮影するカメラの映像をディスプレイに表示することにより、例えば、他との接触の可能性が高い場面における安全性を向上することができる
 また、本実施の形態に係る車載機器制御装置によれば、状況判断部53により判断された状況に応じて制御対象の制御方法を変更するか否かをユーザに提示することにより、ユーザ毎に適した制御を行うことができる。
(その他の実施の形態)
 上記のように、本発明を上記の実施の形態によって記載したが、この開示の一部をなす論述及び図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
 例えば、上述の実施の形態において、制御領域算出部54は、領域記憶部44に記憶された制御対象の種類に応じた関数に基づいて、種々の制御領域を算出することができる。例えば、制御領域は、制御地点を中心とする同心円状に算出されてもよい。この場合、機器制御部55は、外部から制御領域に到達する地点を第1地点とみなし、制御領域から外部に離脱する点を第2地点とみなせばよい。
 また、上述の実施の形態に記載される各機能は、1または複数の処理回路により実行され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含むようにしてもよい。
 上記の他、上記の各構成を相互に応用した構成等、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
C 車両
8 車載機器
20 センサ群(複数のセンサ)
41 地図情報記憶部
51 走行位置取得部
52 情報取得部
53 状況判断部
54 制御領域算出部
55 機器制御部
56 学習処理部

Claims (5)

  1.  地図情報を記憶する地図情報記憶部と、
     前記地図情報における車両の走行位置を取得する走行位置取得部と、
     前記車両の周囲環境及び走行状態の少なくともいずれかをそれぞれ検出する複数のセンサと、
     前記複数のセンサのうち、前記地図情報における所定の制御地点毎に関連付けられた所定のセンサから情報を取得する情報取得部と、
     前記走行位置取得部により取得された走行位置及び前記情報取得部により取得された情報に基づいて、前記車両の状況を判断する状況判断部と、
     前記状況判断部により判断された状況に基づいて、前記制御地点毎に関連付けられた制御対象である車載機器を制御する機器制御部と
     を備えることを特徴とする車載機器制御装置。
  2.  前記制御対象が前記状況判断部により判断された状況に基づいて所定の状態となる第1動作を開始する第1地点と、前記制御対象が前記第1動作の直前の状態となる第2動作を開始する第2地点とを算出する制御領域算出部を更に備え、
     前記機器制御部は、前記車両の走行位置が前記第1地点に到達したときに前記第1動作を開始し、前記第2地点に到達したときに前記第2動作を開始するように前記制御対象を制御することを特徴とする請求項1に記載の車載機器制御装置。
  3.  映像を表示するディスプレイを前記車載機器として更に備え、
     前記複数のセンサは、前記車両の周囲を撮影するカメラを備え、
     前記機器制御部は、前記情報取得部により取得された情報として、前記カメラにより撮影された映像を前記ディスプレイに表示することを特徴とする請求項1又は2に記載の車載機器制御装置。
  4.  前記状況判断部により判断された状況に基づいて前記制御対象を制御するか否かの選択肢を前記車両の乗員に提示する出力インターフェースと、
     前記乗員による前記選択肢に対する選択を受け付ける入力インターフェースとを更に備え、
     前記機器制御部は、前記乗員による選択に基づいて、前記制御対象の制御方法を変更することを特徴とする請求項1~3のいずれか1項に記載の車載機器制御装置。
  5.  地図情報における車両の走行位置を取得することと、
     前記車両の周囲環境及び走行状態の少なくともいずれかをそれぞれ検出する複数のセンサのうち、前記地図情報における所定の制御地点毎に関連付けられた所定のセンサから情報を取得することと、
     前記走行位置及び前記所定のセンサから取得された情報に基づいて、前記車両の状況を判断することと、
     前記車両の状況に基づいて、前記制御地点毎に関連付けられた制御対象である車載機器を制御することと
     を含むことを特徴とする車載機器制御方法。
     
PCT/JP2015/077721 2015-09-30 2015-09-30 車載機器制御装置及び車載機器制御方法 WO2017056227A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/077721 WO2017056227A1 (ja) 2015-09-30 2015-09-30 車載機器制御装置及び車載機器制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/077721 WO2017056227A1 (ja) 2015-09-30 2015-09-30 車載機器制御装置及び車載機器制御方法

Publications (1)

Publication Number Publication Date
WO2017056227A1 true WO2017056227A1 (ja) 2017-04-06

Family

ID=58422897

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/077721 WO2017056227A1 (ja) 2015-09-30 2015-09-30 車載機器制御装置及び車載機器制御方法

Country Status (1)

Country Link
WO (1) WO2017056227A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000127869A (ja) * 1998-10-26 2000-05-09 Tokai Rika Co Ltd 自動車用付帯装置の自動制御システム
JP2009184633A (ja) * 2008-02-08 2009-08-20 Denso Corp 車両制御システム
JP2012071833A (ja) * 2011-12-27 2012-04-12 Nissan Motor Co Ltd 車両用表示装置および車両用映像表示制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000127869A (ja) * 1998-10-26 2000-05-09 Tokai Rika Co Ltd 自動車用付帯装置の自動制御システム
JP2009184633A (ja) * 2008-02-08 2009-08-20 Denso Corp 車両制御システム
JP2012071833A (ja) * 2011-12-27 2012-04-12 Nissan Motor Co Ltd 車両用表示装置および車両用映像表示制御方法

Similar Documents

Publication Publication Date Title
US11597396B2 (en) Vehicle control device
CN107176165B (zh) 车辆的控制装置
US9902398B2 (en) Driving control device
KR102179124B1 (ko) 출고 지원 방법 및 장치
US9507345B2 (en) Vehicle control system and method
US20170337810A1 (en) Traffic condition estimation apparatus, vehicle control system, route guidance apparatus, traffic condition estimation method, and traffic condition estimation program
US11267468B2 (en) Automatic driving assistance apparatus
US11124203B2 (en) Autonomous driving device and autonomous driving control method that displays the following road traveling route
WO2017056224A1 (ja) 情報提示装置及び情報提示方法
US10173680B2 (en) Vehicle speed control device
US11964668B2 (en) Vehicle travel control method and travel control device
JP6930152B2 (ja) 自動運転システム
US10896338B2 (en) Control system
EP3207494B1 (en) Systems and methods for traffic sign validation
JP6652024B2 (ja) 車両制御方法及び車両制御装置
EP3971770A2 (en) Emergency vehicle detection fusing audio and visual data
JP2017156954A (ja) 自動運転システム
JP2020045039A (ja) 車両制御方法及び車両制御装置
EP4102323B1 (en) Vehicle remote control device, vehicle remote control system, vehicle remote control method, and vehicle remote control program
CN212391730U (zh) 用于自动驾驶车辆的光探测和测距装置
WO2017056227A1 (ja) 車載機器制御装置及び車載機器制御方法
JP6606952B2 (ja) 車載機器制御装置及び車載機器制御方法
US20230182769A1 (en) Drive assist apparatus
JP6892666B1 (ja) 自動運転車
US12036984B2 (en) Vehicle travel control apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15905381

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15905381

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP