WO2019030802A1 - 車両制御システム、車両制御方法、およびプログラム - Google Patents

車両制御システム、車両制御方法、およびプログラム Download PDF

Info

Publication number
WO2019030802A1
WO2019030802A1 PCT/JP2017/028595 JP2017028595W WO2019030802A1 WO 2019030802 A1 WO2019030802 A1 WO 2019030802A1 JP 2017028595 W JP2017028595 W JP 2017028595W WO 2019030802 A1 WO2019030802 A1 WO 2019030802A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
occupant
action
information
unit
Prior art date
Application number
PCT/JP2017/028595
Other languages
English (en)
French (fr)
Inventor
尚 村山
佐知子 中澤
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to CN201780093691.6A priority Critical patent/CN111033596A/zh
Priority to DE112017007832.6T priority patent/DE112017007832T5/de
Priority to PCT/JP2017/028595 priority patent/WO2019030802A1/ja
Priority to JP2019535459A priority patent/JP6800340B2/ja
Priority to US16/634,180 priority patent/US20200231178A1/en
Publication of WO2019030802A1 publication Critical patent/WO2019030802A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/082Selecting or switching between different modes of propelling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0013Planning or execution of driving tasks specially adapted for occupant comfort
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00274Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/215Selection or confirmation of options
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles

Definitions

  • the present invention relates to a vehicle control system, a vehicle control method, and a program.
  • Patent Document 1 when a lane change event occurs during automatic driving, a vehicle is disclosed that notifies an occupant of a planned route before the behavior of the vehicle changes (see, for example, Patent Document 1).
  • a lane change event may be executed regardless of the occupant's intention.
  • the intention of the occupant may not be sufficiently reflected.
  • the present invention has been made in consideration of such circumstances, and it is an object of the present invention to provide a vehicle control support device, a vehicle control method, and a program capable of controlling an in-vehicle device by reflecting the intention of the occupant. It is one of the purposes.
  • an interface for receiving input of information by an occupant of a vehicle, and controlling the interface when selecting an action related to a change in behavior of the vehicle with respect to an event generated while the vehicle is traveling. Acquisition by an inquiry unit inquiring the occupant of the vehicle whether to execute the action, an information processing unit acquiring information indicating acceptance or rejection of the occupant with respect to the inquiry input to the interface, and the information processing unit And a controller configured to execute control of in-vehicle devices of the vehicle according to the action according to the information indicating whether the occupant is authorized or not.
  • control unit does not make an inquiry to the occupant by the inquiry unit when the first type of event occurs among the events, and the in-vehicle device according to the action
  • the control is executed, and when an event of the second type other than the event of the first type occurs, the control of the in-vehicle device according to the action is performed according to the information indicating acceptance or non-acceptance of the occupant acquired by the information processing unit. It is something to execute.
  • control unit causes the other vehicle to interrupt and the information processing unit
  • the control unit controls the vehicle so as not to interrupt the other vehicle.
  • the control of the interface is performed by receiving an input of information by an occupant of the vehicle.
  • the vehicle occupant is inquired as to whether or not the action should be performed, information indicating the acceptance or non-acceptance of the occupant with respect to the inquiry input to the interface is acquired, and the action is performed according to the acquired information indicating It is a vehicle control method which performs control of the in-vehicle apparatus of the said vehicle according to.
  • the computer controls an interface for receiving information input by an occupant of the vehicle when selecting an action related to a change in behavior of the vehicle with respect to an event that occurs while the vehicle is traveling.
  • FIG. 1 is a block diagram of a vehicle system 1 including an automatic driving control unit 100. It is a figure which shows a mode that the relative position and attitude
  • FIG. 6 is a diagram showing an example of an image IM displayed on a display unit 32 and an audio VO output from a speaker 34. It is a figure which shows an example of the scene where the passenger
  • FIG. 6 is a diagram showing an example of an audio VO1 output from a speaker 34 and an image IM2 displayed on a display unit 32.
  • 5 is a flowchart illustrating an example of the flow of processing executed by an information processing unit 124;
  • FIG. 16 is a view showing an example of an image displayed on the display unit 32 of the modification 1; It is a figure showing an example of the yes or no information 162.
  • FIG. 1 It is a block diagram of the vehicle system 1 containing 100 A of automatic driving
  • FIG. 1 is a block diagram of a vehicle system 1 including an automatic driving control unit 100.
  • the vehicle on which the vehicle system 1 is mounted is, for example, a vehicle such as a two-wheeled vehicle, a three-wheeled vehicle, or a four-wheeled vehicle, and a driving source thereof is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof.
  • the electric motor operates using the power generated by a generator connected to the internal combustion engine or the discharge power of a secondary battery or a fuel cell.
  • the vehicle system 1 includes, for example, a camera 10, a radar device 12, a finder 14, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, and an ETC (Electronic Toll Collection system) in-vehicle device 40.
  • Navigation device 50 MPU (Micro-Processing Unit) 60, vehicle sensor 70, driver operation element 80, in-vehicle camera 90, automatic driving control unit 100, traveling driving force output device 200, brake A device 210 and a steering device 220 are provided.
  • These devices and devices are mutually connected by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network or the like.
  • CAN Controller Area Network
  • serial communication line a wireless communication network or the like.
  • the configuration shown in FIG. 1 is merely an example, and a part of the configuration may be omitted, or another configuration may be added.
  • the HMI 30 is an example of an “interface”.
  • the camera 10 is, for example, a digital camera using a solid-state imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).
  • CMOS complementary metal oxide semiconductor
  • One or more cameras 10 are attached to any part of a vehicle (hereinafter referred to as a host vehicle M) on which the vehicle system 1 is mounted.
  • the camera 10 When imaging the front, the camera 10 is attached to the top of the front windshield, the rear surface of the rearview mirror, or the like.
  • the camera 10 periodically and repeatedly captures the periphery of the vehicle M.
  • the camera 10 may be a stereo camera.
  • the radar device 12 emits radio waves such as millimeter waves around the host vehicle M and detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and direction) of the object.
  • radio waves such as millimeter waves around the host vehicle M and detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and direction) of the object.
  • One or more of the radar devices 12 are attached to any part of the host vehicle M.
  • the radar device 12 may detect the position and the velocity of the object by a frequency modulated continuous wave (FM-CW) method.
  • FM-CW frequency modulated continuous wave
  • the finder 14 is LIDAR (Light Detection and Ranging, or Laser Imaging Detection and Ranging) which measures scattered light with respect to the irradiation light and detects the distance to the object.
  • LIDAR Light Detection and Ranging, or Laser Imaging Detection and Ranging
  • One or more finders 14 are attached to any part of the host vehicle M.
  • the object recognition device 16 performs sensor fusion processing on the detection result of a part or all of the camera 10, the radar device 12, and the finder 14 to recognize the position, type, speed, etc. of the object.
  • the object recognition device 16 outputs the recognition result to the automatic driving control unit 100.
  • the communication device 20 communicates with another vehicle around the host vehicle M, for example, using a cellular network, Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or wireless It communicates with various server devices via the base station.
  • a cellular network for example, using a cellular network, Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or wireless It communicates with various server devices via the base station.
  • the HMI 30 presents various information to the occupant of the host vehicle M, and accepts input operation by the occupant.
  • the HMI 30 includes a display 32, a speaker 34, and a microphone 36.
  • the display unit 32 may have, for example, a combination of a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display and a touch pad.
  • the display unit 32 is located, for example, under a front windshield and installed on a dashboard provided in front of the driver's seat and the front passenger's seat.
  • the display unit 32 may be installed, for example, in front of the driver's seat, and may function as an instrument panel (facia) for displaying instruments such as a speedometer and a tachometer.
  • the HMI 30 also includes various display devices, a buzzer, a touch panel, a switch, a keyboard, and the like.
  • the display unit 32 may be, for example, a HUD (Head Up Display) that causes a virtual image to be viewed by the eyes of the occupant seated in the driver's seat by projecting an image on a part of the front windshield in front of the driver's seat. Good.
  • HUD Head Up Display
  • the speaker 34 outputs an audio according to the instruction of the information processing unit 124.
  • the microphone 36 outputs the voice input by the occupant to the voice processing unit 150.
  • the navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a path determination unit 53, and stores the first map information 54 in a storage device such as an HDD (Hard Disk Drive) or a flash memory. Hold
  • the GNSS receiver specifies the position of the host vehicle M based on the signal received from the GNSS satellite. The position of the host vehicle M may be identified or supplemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 70.
  • the navigation HMI 52 includes a display device, a speaker, a touch panel, keys and the like. The navigation HMI 52 may be partially or entirely shared with the above-described HMI 30.
  • the route determination unit 53 for example, the route from the position of the vehicle M specified by the GNSS receiver 51 (or any position input) to the destination input by the occupant using the navigation HMI 52 is 1 Determine with reference to the map information 54.
  • the first map information 54 is, for example, information in which a road shape is represented by a link indicating a road and a node connected by the link.
  • the first map information 54 may include road curvature, POI (Point Of Interest) information, and the like.
  • the path determined by the path determination unit 53 is output to the MPU 60.
  • the navigation device 50 may perform route guidance using the navigation HMI 52 based on the route determined by the route determination unit 53.
  • the navigation device 50 may be realized, for example, by the function of a terminal device such as a smartphone or a tablet terminal owned by the user.
  • the navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20, and acquire the route returned from the navigation server.
  • the MPU 60 functions as, for example, a recommended lane determination unit 61, and holds the second map information 62 in a storage device such as an HDD or a flash memory.
  • the recommended lane determination unit 61 divides the route provided from the navigation device 50 into a plurality of blocks (for example, in units of 100 [m] in the traveling direction of the vehicle), and refers to the second map information 62 for each block. Determine your target lane.
  • the recommended lane determination unit 61 determines which lane to travel from the left.
  • the recommended lane determination unit 61 determines the recommended lane so that the host vehicle M can travel on a reasonable route for traveling to a branch destination when a branch point, a junction point, or the like exists in the route.
  • the second map information 62 is map information that is more accurate than the first map information 54.
  • the second map information 62 includes, for example, information on the center of the lane or information on the boundary of the lane. Further, the second map information 62 may include road information, traffic regulation information, address information (address / zip code), facility information, telephone number information, and the like.
  • the road information includes information indicating the type of road such as expressways, toll roads, national roads, and prefectural roads, the number of lanes of the road, the width of each lane, the slope of the road, the position of the road (longitude, latitude, height 3) (including three-dimensional coordinates), curvature of a curve of a lane, locations of merging and branching points of lanes, and information such as signs provided on roads.
  • the second map information 62 may be updated as needed by accessing another device using the communication device 20.
  • the second map information 62 information indicating the aspect of the road near the entrance toll gate or the exit toll gate is stored.
  • the information which shows the aspect of a road is information including the information regarding a lane, the width
  • the vehicle sensor 70 includes a vehicle speed sensor that detects the speed of the host vehicle M, an acceleration sensor that detects acceleration, a yaw rate sensor that detects an angular velocity around the vertical axis, and an azimuth sensor that detects the direction of the host vehicle M.
  • the operating element 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, and other operating elements.
  • a sensor for detecting the amount of operation or the presence or absence of an operation is attached to the driving operation element 80, and the detection result is the automatic driving control unit 100 or the traveling driving force output device 200, the brake device 210, and the steering device. It is output to one or both of 220.
  • the in-vehicle camera 90 captures an image of the upper body centering on the face of the occupant seated in the driver's seat.
  • the captured image of the in-vehicle camera 90 is output to the automatic driving control unit 100.
  • the automatic driving control unit 100 includes, for example, a first control unit 120, a second control unit 140, an audio processing unit 150, and a storage unit 160.
  • Each of the first control unit 120, the second control unit 140, and the audio processing unit 150 is realized by a processor such as a central processing unit (CPU) executing a program (software).
  • CPU central processing unit
  • some or all of the functional units may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), etc. It may be realized by cooperation of hardware.
  • the storage unit 160 is, for example, a nonvolatile storage device such as a ROM (Read Only Memory), an EEPROM (Electrically Erasable and Programmable Read Only Memory), an HDD (Hard Disk Drive), a RAM (Random Access Memory), a register, etc. It is realized by volatile storage.
  • the first control unit 120 is an example of a “control unit”.
  • the first control unit 120 includes, for example, an external world recognition unit 121, a vehicle position recognition unit 122, an action plan generation unit 123, and an information processing unit 124.
  • the external world recognition unit 121 recognizes the position of the surrounding vehicle and the state of the speed, acceleration, and the like based on the information input from the camera 10, the radar device 12, and the finder 14 via the object recognition device 16.
  • the position of the nearby vehicle may be represented by a representative point such as the center of gravity or a corner of the nearby vehicle, or may be represented by an area represented by the contour of the nearby vehicle.
  • the "state" of the surrounding vehicle may include the acceleration or jerk of the surrounding vehicle, or the "action state” (e.g., whether or not a lane change is being made or is going to be made).
  • the external world recognition unit 121 may also recognize the positions of guardrails, utility poles, parked vehicles, pedestrians, and other objects in addition to surrounding vehicles.
  • the host vehicle position recognition unit 122 recognizes, for example, the lane in which the host vehicle M is traveling (traveling lane) and the relative position and posture of the host vehicle M with respect to the traveling lane.
  • the vehicle position recognition unit 122 may use a pattern of road division lines obtained from the second map information 62 (for example, an array of solid lines and broken lines) and a periphery of the vehicle M recognized from an image captured by the camera 10.
  • the travel lane is recognized by comparing it with the pattern of road division lines. In this recognition, the position of the host vehicle M acquired from the navigation device 50 or the processing result by the INS may be added.
  • FIG. 2 is a diagram showing how the host vehicle position recognition unit 122 recognizes the relative position and posture of the host vehicle M with respect to the traveling lane L1.
  • the host vehicle position recognition unit 122 makes, for example, a deviation OS of the reference point (for example, the center of gravity) of the host vehicle M from the center CL of the travel lane and a center of the travel lane CL in the traveling direction of the host vehicle M
  • the angle ⁇ is recognized as the relative position and posture of the host vehicle M with respect to the driving lane L1.
  • the host vehicle position recognition unit 122 recognizes the position of the reference point of the host vehicle M with respect to any one side end of the host lane L1 as the relative position of the host vehicle M with respect to the traveling lane. It is also good.
  • the relative position of the vehicle M recognized by the vehicle position recognition unit 122 is provided to the recommended lane determination unit 61 and the action plan generation unit 123.
  • the action plan generation unit 123 determines events to be sequentially executed in automatic driving so as to travel on the recommended lane determined by the recommended lane determination unit 61 and to correspond to the surrounding situation of the host vehicle M.
  • Events include, for example, a constant-speed travel event that travels the same traffic lane at a constant speed, a follow-up travel event that follows a preceding vehicle, a lane change event, a merging event, a branch event, an emergency stop event, and automatic driving There is a handover event or the like for switching to the manual operation.
  • an action for avoidance may be planned based on the peripheral situation of the host vehicle M (the presence of surrounding vehicles and pedestrians, lane constriction due to road construction, and the like).
  • the action plan generation unit 123 generates a target track on which the vehicle M travels in the future.
  • the target trajectory includes, for example, a velocity component.
  • a target trajectory sets a plurality of future reference times for each predetermined sampling time (for example, about 0 comma [sec]), and is generated as a set of target points (orbit points) to reach those reference times. Ru. For this reason, when the distance between the track points is wide, it indicates that the section between the track points travels at high speed.
  • FIG. 3 is a diagram showing how a target track is generated based on a recommended lane.
  • the recommended lanes are set to be convenient to travel along the route to the destination.
  • the action plan generation unit 123 When the action plan generation unit 123 approaches a predetermined distance before the switching point of the recommended lane (may be determined according to the type of event), it activates a lane change event, a branch event, a merging event, and the like. When it is necessary to avoid an obstacle during the execution of each event, an avoidance trajectory is generated as illustrated.
  • the action plan generation unit 123 generates, for example, a plurality of target trajectory candidates, and selects an optimal target trajectory at that time based on the viewpoint of safety and efficiency.
  • the action plan generation unit 123 executes control of the in-vehicle device according to the action (details will be described later) according to the information indicating the permission of the occupant acquired by the information processing unit 124.
  • the information processing unit 124 includes an inquiry unit 125.
  • the inquiry unit 125 controls the HMI 30 according to the action of the occupant of the host vehicle M when selecting an action related to a change in the behavior of the host vehicle M in response to an event occurring while the host vehicle M is traveling. Inquire about the availability of The information processing unit 124 acquires information indicating acceptance or rejection of the occupant in response to the inquiry input to the HMI 30.
  • the event is, for example, an event that occurs based on the situation outside the host vehicle M.
  • the event generated based on the situation outside the host vehicle M is, for example, an event determined by the action plan generation unit 123 based on the recognition result of the external world recognition unit 121 or an event for receiving a request signal described later .
  • the action is, for example, controlling the steering of the host vehicle M or controlling acceleration or deceleration to cause the host vehicle M to generate a predetermined behavior expected in advance. More specifically, the action at the time of receiving the request signal is, for example, to interrupt another vehicle in front of the own vehicle M.
  • the action related to the behavior change of the vehicle means changing the vehicle line in automatic driving or passing, inter-vehicle communication with other vehicles while traveling, and stopping the own vehicle for the pedestrian who is going to cross, to the pedestrian It includes display and digital signage directed outside the vehicle, such as displaying pedestrian crossings on the road surface to encourage crossing.
  • the action related to the behavior change of the vehicle may include a predetermined notification for another vehicle existing in the vicinity of the host vehicle M, an object (person), another notification, and the like.
  • the second control unit 140 includes a traveling control unit 141.
  • the traveling control unit 141 controls the traveling driving force output device 200, the brake device 210, and the steering device 220 so that the host vehicle M passes the target trajectory generated by the action plan generating unit 123 at a scheduled time. Do.
  • the voice processing unit 150 causes the speaker 34 to output a voice inquiring as to whether the other vehicle merges or changes lanes, in accordance with the instruction from the inquiring unit 125.
  • the voice processing unit 150 acquires a response to the above-described acceptance or rejection inquiry input to the microphone 36, analyzes the acquired information, and converts the information into text information.
  • the voice processing unit 150 compares the converted text information with the information stored in the storage unit 160 to determine whether the response to the inquiry indicates acceptance or non-acceptance.
  • the information stored in the storage unit 160 is, for example, a phrase indicating a plurality of consents associated with the inquiry and a phrase indicating a plurality of non-acceptances.
  • the voice processing unit 150 determines that the occupant has accepted the inquiry, and the response to the inquiry indicates non-acceptance. If it does not match the phrase, it is determined that the occupant is dissatisfied with the inquiry.
  • the match is not limited to the perfect match, but includes the case where a part of the match is found.
  • the traveling driving force output device 200 outputs traveling driving force (torque) for the vehicle to travel to the driving wheels.
  • the traveling driving force output device 200 includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and an ECU that controls these.
  • the ECU controls the above configuration in accordance with the information input from the traveling control unit 141 or the information input from the drive operator 80.
  • the brake device 210 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU.
  • the brake ECU controls the electric motor in accordance with the information input from the travel control unit 141 or the information input from the drive operator 80 so that the brake torque corresponding to the braking operation is output to each wheel.
  • the brake device 210 may include, as a backup, a mechanism for transmitting the hydraulic pressure generated by the operation of the brake pedal included in the drive operator 80 to the cylinder via the master cylinder.
  • the brake device 210 is not limited to the above-described configuration, and may be an electronically controlled hydraulic brake device that transmits the hydraulic pressure of the master cylinder to the cylinder by controlling the actuator according to the information input from the travel control unit 141 Good.
  • the steering device 220 includes, for example, a steering ECU and an electric motor.
  • the electric motor for example, applies a force to the rack and pinion mechanism to change the direction of the steered wheels.
  • the steering ECU drives the electric motor to change the direction of the steered wheels in accordance with the information input from the traveling control unit 141 or the information input from the drive operator 80.
  • FIG. 4 is a view showing an example of a scene in which the host vehicle M receives a request signal.
  • the vehicle M travels in the lane L2 on the road having the lanes L1 to L3.
  • another vehicle m is traveling ahead of the host vehicle M.
  • the lane L2 is a merging lane and disappears in front of the other vehicle m.
  • the other vehicle m transmits a request signal to the host vehicle M.
  • the request signal is, for example, a signal including information for inquiring the host vehicle M "Are you going to change lanes (join), but are you sure?" And whether to change lanes.
  • the other vehicle m transmits the ID (identification information) of the own vehicle M, information indicating the position of the other vehicle m, and information indicating the speed to the own vehicle M together with the request signal.
  • the information processing unit 124 recognizes the position of the other vehicle m based on the information transmitted by the other vehicle m and the position of the other vehicle m recognized by the external world recognition unit 121 And identify the other vehicle m. Then, the inquiry unit 125 causes the speaker 34 to output information inquiring as to whether or not the other vehicle m is to be inserted.
  • the information to be inquired is, for example, information such as “There is a request for lane change from another vehicle m ahead of the left lane (lane L1). Do you permit?”.
  • the information processing unit 124 causes the display unit 32 to display an image indicating information on the periphery of the host vehicle M.
  • FIG. 5 is a diagram showing an example of an image IM displayed on the display unit 32 when receiving a request signal and an audio VO output from the speaker 34. As shown in FIG.
  • FIG. 6 is a view showing an example of a scene in which the occupant of the host vehicle M permits lane change.
  • the voice processing unit 150 causes the occupant of the host vehicle M to respond to the inquiry. It is determined whether or not it has been accepted, and the determination result is output to the information processing unit 124.
  • the information processing unit 124 permits the lane change of the other vehicle m.
  • an image IM1 indicating the behavior of the host vehicle M and the situation around the host vehicle M is displayed on the display unit 32.
  • FIG. 7 is a diagram showing an example of a scene in which the host vehicle M transmits information indicating that the other vehicle m is permitted to change the lane, and the other vehicle m changes the lane to the lane L2.
  • the information processing unit 124 transmits, to the other vehicle m, information indicating permission of lane change, ID of the host vehicle M, position information of the host vehicle M, and information indicating the speed of the host vehicle M.
  • the other vehicle m receives the information indicating permission of the lane change, the ID of the own vehicle M, the position information of the own vehicle M, and the information indicating the speed of the own vehicle M. It identifies and changes lanes ahead of the host vehicle M in the lane L2.
  • Fig. 8 is a view showing an example of a scene in which the other vehicle m transmits information indicating appreciation to the host vehicle M.
  • the information processing unit 124 causes the speaker 34 to output a voice indicating that the other vehicle m has been appreciated based on the received information.
  • the information processing unit 124 receives information indicating that the other vehicle m is grateful, the information processing unit 124 causes the speaker 34 to output information indicating that the evaluation for being a good driver (good driver evaluation) is increased.
  • the good driver evaluation is an evaluation that rises according to the number of times the other vehicle m has appreciated. Information on the good driver evaluation is stored in the storage unit 160.
  • FIG. 9 is a view showing an example of the voice VO1 output from the speaker 34 and the image IM2 displayed on the display unit 32 after the other vehicle m changes lanes to the lane L2.
  • the good driver evaluation is represented by the number of stars in the image IM2.
  • FIG. 10 is a flowchart showing an example of the flow of processing executed by the information processing unit 124.
  • the information processing unit 124 determines whether a request signal has been received from another vehicle m (step S100). When the request signal is received from the other vehicle m, the information processing unit 124 specifies the other vehicle m which has transmitted the request signal based on the information transmitted by the other vehicle m (step S102).
  • the inquiring unit 125 inquires the occupant whether or not to allow the lane change of the other vehicle m (step S104).
  • the information processing unit 124 determines whether the occupant has permitted the lane change (step S106).
  • the information processing unit 124 transmits, to the other vehicle m, information indicating that the lane change is permitted (Step S108). At this time, the host vehicle M may decelerate. When the other vehicle m receives the information indicating that the lane change is permitted from the host vehicle M, the other vehicle m changes the lane to the lane in which the host vehicle M travels.
  • the information processing unit 124 determines whether the lane change of the other vehicle m has ended and information indicating gratitude has been received (step S110). When it is determined that the lane change of the other vehicle m is completed and information indicating appreciation is received, the information processing unit 124 causes the occupant of the host vehicle M to evaluate the driver of the superior vehicle (step S112).
  • the information processing unit 124 transmits, to the other vehicle m, information indicating that the lane change is not permitted (step S114). Transmitting information indicating that the lane change has not been permitted to the other vehicle m is an example of “control to prevent the other vehicle m from being interrupted”. At this time, the host vehicle M may accelerate or maintain the current speed. Thus, the processing of one routine of this flowchart ends.
  • the occupant of the host vehicle M can determine whether to accept the request for changing the lane transmitted from the other vehicle m. As a result, by performing control that reflects the intention of the occupant, it is possible to improve the reliability of the control of the vehicle.
  • the inquiry unit 125 may determine whether to inquire the occupant of the in-vehicle device of the host vehicle M according to the type of the event. For example, the inquiry unit 125 does not inquire the occupant when an event of the first type among the events occurs. In this case, the control unit of the in-vehicle device executes control of the in-vehicle device according to the action on the first type of event. On the other hand, when an event of the second type other than the first type of event occurs among the events, the inquiry unit 125 inquires the occupant.
  • the control unit of the in-vehicle device executes control of the in-vehicle device according to the action for the event of the second type in accordance with the information indicating whether the occupant has obtained or not obtained by the information processing unit 124.
  • the inquiry unit 125 does not make an inquiry to the occupant when an event of receiving a mail in the HMI 30 occurs.
  • the control unit that controls the HMI 30 causes the speaker to output the content of the received e-mail to the speaker.
  • the inquiry unit 125 inquires of the occupant when an event that a videophone call is received to the HMI 30 occurs.
  • the control unit that controls the HMI 30 connects the other party of the videophone call and the HMI 30 when an incoming call is accepted by the occupant.
  • the above-described first type of event or the second type of event may be an event that is arbitrarily determined in advance.
  • the first type of event is an event planned in advance, an event planned in advance by the action plan generation unit 123, or the like.
  • the event of the second type is an event different from an event planned in advance, and an event which occurs suddenly (but, among the events which occur suddenly, the vehicle M travels smoothly) Except for the events required for
  • the first type of event is a lane change event or a branch event which has been determined in advance.
  • the event of the second type may be an event that receives the request signal described above, an event related to a videophone call, or the like.
  • FIG. 11 is a view showing an example of an image displayed on the display unit 32 of the first modification. As illustrated, different images may be displayed in the areas AR1 to AR3 on the display unit 32. For example, in the area AR1, an image IM11 indicating the behavior of the host vehicle M and the periphery of the host vehicle M recognized by the external world recognition unit 121 is displayed. For example, in the area AR2, an image IM12 selected by the user is displayed.
  • the image IM12 selected by the user is, for example, an image having an entertainment property, information such as a moving image (for example, a movie), map information, and a tourist spot of a destination. Further, for example, in the area AR3, an image IM13 including information (text information corresponding to a request signal, text information indicating thanks, etc.) transmitted from another vehicle m, text information uttered by an occupant of the host vehicle M, etc. Is displayed.
  • information text information corresponding to a request signal, text information indicating thanks, etc.
  • a part of the images IM11 to IM13 may be omitted by the state of the host vehicle M or the operation of the occupant.
  • the image IM12 is displayed on the display unit 32 in the areas AR1 to AR3, and after receiving the request signal from the other vehicle m, as shown in FIG.
  • the IM 13 may be displayed on the display unit 32.
  • Information processing unit 124 stores in the storage unit 160 the history of the occupant's acceptance or rejection in response to an inquiry from the other vehicle m, refers to the acceptance or rejection information stored in the storage unit 160, and the more answer of acceptance or rejection An inquiry may be made to the passenger as to whether the lane change has been made or not so as to be an answer of.
  • FIG. 12 is a diagram showing an example of the yes / no information 162.
  • the acceptance / rejection information is information in which information indicating a response (acceptance or non-acceptance) to the request signal is associated with the date and time when the request signal is received.
  • the information processing unit 124 makes an inquiry such that the response indicating that the greater number of the lane change permission / disapproval of the lane change is accepted in the acceptance / non-permission information 162.
  • the information processing unit 124 makes an inquiry such as “Can you permit the lane change?” And accepts the lane change If the percentage is lower than the percentage of non-compliance, make an inquiry such as “Does not allow lane change?”.
  • the information processing unit 124 makes an inquiry that the user can easily answer based on the information stored in the approval / disapproval information 162, the convenience for the user is further improved.
  • the automatic driving control unit 100 controls the HMI 30 to inquire the occupant of the host vehicle M whether or not the control according to the action can be performed, and the input is made to the HMI 30 By acquiring information indicating the acceptance or non-acceptance of the occupant in response to the inquiry, and executing the control of the in-vehicle device of the host vehicle M according to the action according to the acquired information indicating the acceptance or non-acceptance of the occupant, Control can be performed.
  • the second embodiment will be described.
  • the second embodiment further includes a learning unit that learns geographical factors or environmental factors by linking them with the pass / fail of the occupant corresponding to the action.
  • a learning unit that learns geographical factors or environmental factors by linking them with the pass / fail of the occupant corresponding to the action.
  • FIG. 13 is a block diagram of a vehicle system 1 including an autonomous driving control unit 100A of the second embodiment.
  • the autonomous driving control unit 100A further includes a learning unit 152 in addition to the functional configuration of the autonomous driving control unit 100 of the first embodiment.
  • the learning unit 152 performs, for example, machine learning on the target information 164.
  • FIG. 14 shows an example of the target information 164.
  • the target information 164 is, for example, information in which the contents of a response to an inquiry from another vehicle m, the date and time of response, geographical factors, and environmental factors are associated with one another.
  • Geographical factors include the type of road of the host vehicle M (general road or high speed), the position on the road (lane, etc.), the road where the host vehicle M (driver) passes well, or the host vehicle M Is a road unfamiliar to
  • the information processing unit 124 acquires the geographical factor in which the host vehicle M is traveling from the information stored in the storage device of the host vehicle M and the information acquired by the navigation device 50.
  • Environmental factors include weather, time, day and night, day of the week, season, temperature, road congestion, driving speed, driver's condition and so on.
  • the state of the driver includes the degree of fatigue of the driver, the degree of stress, and the like.
  • the information processing unit 124 acquires environmental factors from information stored in the storage device of the host vehicle M, a sensor provided on the host vehicle M, and information provided by a server device that provides information.
  • the state of the driver is, for example, estimated based on information measured by a sensor provided on the steering wheel, a sensor attached to the driver, or the like.
  • the learning unit 152 learns geographical factors or environmental factors in association with the pass / fail of the occupant corresponding to the action. In this way, it is learned in what geographical or environmental factors the occupants tend to be permitted to change lanes.
  • the information processing unit 124 selects the geographical factor or the environmental factor in which the host vehicle M is traveling. Inquire the crew so that the answer is that the crew consents.
  • the learning unit 152 may learn the situation in the passenger compartment of the host vehicle M by linking it with the yes or no of the occupant corresponding to the action.
  • the situation in the passenger compartment of the host vehicle M is stored with respect to the information indicating acceptance or non-approval.
  • the condition in the passenger compartment includes the presence or absence of a passenger, the type of an image displayed on the display unit 32 (map information, a movie, etc.), and the like.
  • the request signal is transmitted when the other vehicle m changes lanes (joins) has been described, but instead (or in addition), the lane change for the host vehicle M is changed.
  • the occupant may be inquired as to whether or not the host vehicle M changes lanes.
  • Requesting the host vehicle M to change lanes means that a vehicle traveling behind the host vehicle M in the lane in which the host vehicle M travels is the host vehicle M on a road where there are multiple lanes having the same traveling direction. Ask for a lane change. That is, the rear vehicle requests to change lanes to the host vehicle M to yield the road.
  • the automatic driving control unit 100 inquires the occupant whether or not to execute a predetermined action.
  • the action may be executed when a response to execute the inquiry is obtained.
  • the predetermined event is, for example, an event (an example of a second type of event) that occurs when another vehicle m having a speed equal to or lower than the legal speed is present in front.
  • the predetermined action is an action of passing the other vehicle m ahead.
  • the information processing unit 124 inquires of the occupant whether or not to pass the other vehicle m ahead, and when it receives a response to pass it, the automatic driving control unit 100 (100A) performs control to pass the other vehicle m ahead. Make it run.
  • the predetermined event is not limited to the situation outside the host vehicle M, and may be an event that occurs based on the situation of the host vehicle M.
  • the event that occurs is an event (an example of a second type of event) that causes a speaker to reproduce predetermined music based on the position of the host vehicle M.
  • the predetermined action at this time is, for example, an action for reproducing predetermined music and outputting the music to the speaker.
  • the information processing unit 124 inquired as to whether or not the recommended song is to be reproduced and output to the speaker 34 when traveling the position, and obtained a response to output
  • the device control unit is instructed to reproduce the recommended song and output it to the speaker.
  • the device control unit is a control unit that is mounted on the host vehicle M and controls a predetermined device so as to output the recommended music to the speaker.
  • the device control unit is an example of the “control unit”.
  • the device control unit selects a recommended song with reference to correspondence information in which the position information stored in the storage device mounted on the host vehicle M is associated with the recommended song. For example, a song having a sea theme is associated with position information corresponding to a road along the sea.
  • the inquiry unit 125 may inquire about whether to reproduce a recommended song associated with the traveling state of the host vehicle M, instead of the traveling position of the host vehicle M. For example, in this case, in the correspondence information, a tune for relieving stress is associated with a traveling state in which the host vehicle M is caught in a traffic jam and repeats slowing or stopping.
  • produces may be an event which generate
  • the event that occurs is an event (an example of a second type of event) that changes the operation state of the air conditioner of the host vehicle M based on the in-vehicle status of the host vehicle M.
  • the predetermined action at this time is an action to increase (or decrease) the output degree of the air conditioner of the host vehicle M. For example, when the temperature in the vehicle compartment reaches a predetermined temperature or more in summer, the information processing unit 124 inquires the occupant whether to adjust the cooling so as to lower the temperature in the vehicle interior, and responds that the cooling is adjusted. When it is obtained, the air conditioner control unit is instructed to adjust the cooling.
  • the air conditioner control unit is a control unit that is mounted on the host vehicle M and controls the air conditioner.
  • the air conditioner control unit is an example of the “control unit”.
  • the event that occurs may be an event (an example of a second type of event) in which the navigation device 50 changes the route to the destination.
  • the predetermined action is an action that the navigation device 50 searches for a route to the destination again and sets it.
  • the information processing unit 124 inquires of the occupant whether or not to search the route again, and instructs the control unit of the navigation device 50 to search the route again when a response to search is obtained.
  • the control unit that controls the navigation device 50 is an example of a “control unit”.
  • the inquiry image may be displayed on the display unit 32, and the occupant may respond by performing an input operation on the display unit 32.
  • the response may be a predetermined gesture.
  • the occupant performs a predetermined gesture on the in-vehicle camera 90.
  • the autonomous driving control unit 100 may analyze the image captured by the in-vehicle camera 90, and determine whether the occupant has performed a predetermined gesture based on the analysis result.
  • the interface is controlled when the HMI 30 that receives the information input by the occupant of the vehicle and the action related to the behavior change of the vehicle is selected for the event that occurs while the host vehicle M is traveling.
  • the information processing unit 124 inquires the occupant of the host vehicle M about the executability of the action, and acquires information indicating acceptance or non-acceptance of the occupant in response to the inquiry input to the interface; By providing the control unit 120 that executes control of the on-vehicle device of the host vehicle M according to the action according to the information indicating the acceptance or rejection, it is possible to control the on-vehicle device reflecting the intention of the occupant.
  • FIG. 15 is a diagram illustrating an example of a hardware configuration of an automatic driving control unit 100100A according to the embodiment.
  • the automatic operation control unit 100, 100A includes a communication controller 100-1, a CPU 100-2, a RAM 100-3, a ROM 100-4, a secondary storage device 100-5 such as a flash memory or an HDD, and a drive device 100-6. They are mutually connected by a bus or a dedicated communication line. A portable storage medium such as an optical disk is attached to the drive device 100-6.
  • the program 100-5a stored in the secondary storage device 100-5 is expanded on the RAM 100-3 by a DMA controller (not shown) or the like, and is executed by the CPU 100-2 so that the first control unit 120 and the audio processing The unit 150 is realized. Further, the program referred to by the CPU 100-2 may be stored in a portable storage medium attached to the drive device 100-6, or may be downloaded from another device via the network NW.
  • the above embodiment can be expressed as follows.
  • the storage device outputs information to the hardware processor when selecting an action related to a change in behavior of the vehicle in response to an event that occurs while the vehicle is traveling, and inputs information by an occupant of the vehicle.
  • the information indicating the acceptance or rejection of the occupant for the inquiry input to the interface is obtained.
  • a program for executing control of in-vehicle devices of the vehicle according to the action is stored in accordance with the acquired information indicating the approval or disapproval of the occupant.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

車両制御システムは、車両の乗員による情報の入力を受け付けるインターフェースと、前記車両が前記車両の走行中に発生するイベントに対して前記車両の挙動変化に関するアクションを選択する際に、前記インターフェースを制御して前記車両の乗員に対して前記アクションに応じた制御の実行可否を問い合わせる問合せ部と、前記インターフェースに対して入力された前記問い合わせに対する前記乗員の諾否を示す情報を取得する情報処理部と、前記情報処理部により取得された前記乗員の諾否を示す情報に従って、前記アクションに応じた前記車両の車載機器の制御を実行する前記制御部とを備える。

Description

車両制御システム、車両制御方法、およびプログラム
 本発明は、車両制御システム、車両制御方法、およびプログラムに関する。
 従来、自動運転中においてレーンチェンジイベントが発生した際に、車両の挙動が変化する前に計画された経路を乗員に通知する車両が開示されている(例えば特許文献1参照)。
米国特許第8738213号明細書
 しなしながら、上記の車両では、乗員の意思に関わらず、レーンチェンジイベントが実行される場合があった。このように、従来の車両制御においては、乗員の意志が十分に反映されない場合があった。
 本発明は、このような事情を考慮してなされたものであり、乗員の意志を反映させて車載機器の制御を行うことができる車両制御援装置、車両制御方法、およびプログラムを提供することを目的の一つとする。
 (1):車両の乗員による情報の入力を受け付けるインターフェースと、前記車両が前記車両の走行中に発生するイベントに対して前記車両の挙動変化に関するアクションを選択する際に、前記インターフェースを制御して前記車両の乗員に対して前記アクションの実行可否を問い合わせる問合せ部と、前記インターフェースに対して入力された前記問い合わせに対する前記乗員の諾否を示す情報を取得する情報処理部と、前記情報処理部により取得された前記乗員の諾否を示す情報に従って、前記アクションに応じた前記車両の車載機器の制御を実行する制御部とを備える車両制御システムである。
 (2):(1)であって、前記制御部は、前記イベントのうち第1種別のイベントが発生した時には前記問合せ部による乗員への問い合わせを行わずに前記アクションに応じた前記車載機器の制御を実行し、前記第1種別のイベント以外の第2種別のイベントが発生した時には前記情報処理部により取得された前記乗員の諾否を示す情報に従って、前記アクションに応じた前記車載機器の制御を実行するものである。
 (3):(1)または(2)であって、前記イベントは、前記車両外の状況に基づいて発生するものである。
 (4):(1)~(3)であって、前記アクションは、前記車両の操舵を制御すること、または加減速を制御することのうち少なくとも一方を含むものである。
 (5):(1)~(4)であって、前記アクションは、前記車両の前方に他車両を割り込ませる動作であるものである。
 (6):(1)~(5)であって、前記イベントは、他車両から割り込みのリクエスト信号を受信することを含み、前記リクエスト信号を受信した際の前記アクションは、前記車両の前方に前記他車両を割り込ませる動作であるものである。
 (7):(5)または(6)であって、前記制御部は、前記情報処理部により前記割り込みの承諾を示す情報が取得された場合は、前記他車両を割り込ませ、前記情報処理部により前記割り込みの非承諾を示す情報が取得された場合は、前記他車両を割り込ませないように前記車両を制御するものである。
 (8):(1)~(7)であって、前記アクションに対応する前記乗員の諾否の履歴を記憶する記憶部を、更に備え、前記問合せ部は、前記記憶部により記憶された履歴に基づいて、前記諾否のうち多い方の回答が承諾する旨の回答になるように前記問い合わせを乗員に行うものである。
 (9): (1)~(8)であって、地理的要因または環境的要因を、前記アクションに対応する前記乗員の諾否に紐付けて学習する学習部を、更に備え、前記問合せ部は、乗員への問い合わせを行う際の前記地理的要因または前記環境的要因と、前記学習部の学習結果に基づいて、乗員が承諾する旨の回答を行う確率が高くなるように前記問い合わせを乗員に行うものである。
 (10): コンピュータが、車両が前記車両の走行中に発生するイベントに対して前記車両の挙動変化に関するアクションを選択する際に、車両の乗員による情報の入力を受け付けるインターフェースを制御して前記車両の乗員に対して前記アクションの実行可否を問い合わせ、前記インターフェースに対して入力された前記問い合わせに対する前記乗員の諾否を示す情報を取得し、前記取得された前記乗員の諾否を示す情報に従って前記アクションに応じた前記車両の車載機器の制御を実行する車両制御方法である。
 (11):コンピュータに、車両が前記車両の走行中に発生するイベントに対して前記車両の挙動変化に関するアクションを選択する際に、車両の乗員による情報の入力を受け付けるインターフェースを制御して前記車両の乗員に対して前記アクションの実行可否を問い合わせさせ、前記インターフェースに対して入力された前記問い合わせに対する前記乗員の諾否を示す情報を取得させ、前記取得された前記乗員の諾否を示す情報に従って前記アクションに応じた前記車両の車載機器の制御を実行させるプログラムである。
 (1)~(7)、(10)、(11)によれば、乗員の意志を反映させて車載機器の制御を行うことができる。この結果、乗員の車両の制御に対する信頼性を向上させることができる。
 (8)、(9)によれば、乗員が承諾する旨の回答をしやすいように問い合わせを行うことにより、より乗員の車両の制御に対する信頼性を向上させることができる。また、利用者にとっての利便性が向上する。
自動運転制御ユニット100を含む車両システム1の構成図である。 自車位置認識部122により走行車線L1に対する自車両Mの相対位置および姿勢が認識される様子を示す図である。 推奨車線に基づいて目標軌道が生成される様子を示す図である。 自車両Mがリクエスト信号を受信する場面の一例を示す図である。 表示部32に表示される画像IMおよびスピーカ34から出力される音声VOの一例を示す図である。 自車両Mの乗員が車線変更を許可した場面の一例を示す図である。 自車両Mが他車両mに車線変更を許可することを示す情報を送信し、他車両mが車線L2に車線変更する場面の一例を示す図である。 他車両mが感謝を示す情報を自車両Mに送信した場面の一例を示す図である。 スピーカ34により出力される音声VO1および表示部32に表示される画像IM2の一例を示す図である。 情報処理部124により実行される処理の流れの一例を示すフローチャートである。 変形例1の表示部32に表示される画像の一例を示す図である。 諾否情報162の一例を示す図である。 第2の実施形態の自動運転制御ユニット100Aを含む車両システム1の構成図である。 対象情報164の一例を示す図である。 実施形態の自動運転制御ユニット100、100Aのハードウェア構成の一例を示す図である。
 以下、図面を参照し、本発明の車両制御システム、車両制御方法、およびプログラムの実施形態について説明する。
 <第1の実施形態>
 [全体構成]
 図1は、自動運転制御ユニット100を含む車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
 車両システム1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、ETC(Electronic Toll Collection system)車載器40と、ナビゲーション装置50と、MPU(Micro-Processing Unit)60と、車両センサ70と、運転操作子80と、車室内カメラ90と、自動運転制御ユニット100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。HMI30は、「インターフェース」の一例である。
 カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両Mと称する)の任意の箇所に一つまたは複数が取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
 レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
 ファインダ14は、照射光に対する散乱光を測定し、対象までの距離を検出するLIDAR(Light Detection and Ranging、或いはLaser Imaging Detection and Ranging)である。ファインダ14は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。
 物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御ユニット100に出力する。
 通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
 HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、表示部32、スピーカ34、およびマイク36を含む。表示部32は、例えば、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイなどの表示装置とタッチパッドとを組み合わせた構成であってよい。表示部32は、例えば、フロントウインドシールドの下に位置し、運転席および助手席の正面に設けられたダッシュボードに設置される。
 また、表示部32は、例えば、運転席正面に設置され、スピードメーターやタコメーターなどの計器類を表示するインストルメントパネル(フェイシア)として機能してもよい。また、HMI30は、各種表示装置、ブザー、タッチパネル、スイッチ、キーボードなどを含む。また、表示部32は、例えば、運転席前方のフロントウインドシールドの一部に画像を投影することで、運転席に着座した乗員の眼に虚像を視認させるHUD(Head Up Display)であってもよい。
 スピーカ34は、情報処理部124の指示に従って音声を出力する。マイク36は、乗員によって入力された音声を音声処理部150に出力する。
 ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備え、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ70の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。経路決定部53により決定された経路は、MPU60に出力される。また、ナビゲーション装置50は、経路決定部53により決定された経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。なお、ナビゲーション装置50は、例えば、ユーザの保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。また、ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから返信された経路を取得してもよい。
 MPU60は、例えば、推奨車線決定部61として機能し、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに目標車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、経路において分岐箇所や合流箇所などが存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
 第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。道路情報には、高速道路、有料道路、国道、都道府県道といった道路の種別を表す情報や、道路の車線数、各車線の幅員、道路の勾配、道路の位置(経度、緯度、高さを含む3次元座標)、車線のカーブの曲率、車線の合流および分岐ポイントの位置、道路に設けられた標識等の情報が含まれる。第2地図情報62は、通信装置20を用いて他装置にアクセスすることにより、随時、アップデートされてよい。
 また、第2地図情報62には、入口料金所や出口料金所付近の道路の態様を示す情報が記憶されている。道路の態様を示す情報とは、例えば、車線に関する情報や、道路の幅、標示に関する情報等を含む情報である。
 車両センサ70は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
 運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイールその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御ユニット100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一方または双方に出力される。
 車室内カメラ90は、運転席に着座した乗員の顔を中心として上半身を撮像する。車室内カメラ90の撮像画像は、自動運転制御ユニット100に出力される。
 自動運転制御ユニット100は、例えば、第1制御部120と、第2制御部140と、音声処理部150と、記憶部160とを備える。第1制御部120、第2制御部140、および音声処理部150は、それぞれ、CPU(Central Processing Unit)などのプロセッサがプログラム(ソフトウェア)を実行することで実現される。また、各機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)などのハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。記憶部160は、例えば、ROM(Read Only Memory)、EEPROM(Electrically Erasable and Programmable Read Only Memory)、HDD(Hard Disk Drive)等の不揮発性の記憶装置と、RAM(Random Access Memory)、レジスタ等の揮発性の記憶装置によって実現される。第1制御部120は、「制御部」の一例である。
 第1制御部120は、例えば、外界認識部121と、自車位置認識部122と、行動計画生成部123と、情報処理部124とを備える。
 外界認識部121は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力される情報に基づいて、周辺車両の位置、および速度、加速度等の状態を認識する。周辺車両の位置は、その周辺車両の重心やコーナー等の代表点で表されてもよいし、周辺車両の輪郭で表現された領域で表されてもよい。周辺車両の「状態」とは、周辺車両の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。また、外界認識部121は、周辺車両に加えて、ガードレールや電柱、駐車車両、歩行者その他の物体の位置を認識してもよい。
 自車位置認識部122は、例えば、自車両Mが走行している車線(走行車線)、並びに走行車線に対する自車両Mの相対位置および姿勢を認識する。自車位置認識部122は、例えば、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。
 そして、自車位置認識部122は、例えば、走行車線に対する自車両Mの位置や姿勢を認識する。図2は、自車位置認識部122により走行車線L1に対する自車両Mの相対位置および姿勢が認識される様子を示す図である。自車位置認識部122は、例えば、自車両Mの基準点(例えば重心)の走行車線中央CLからの乖離OS、および自車両Mの進行方向の走行車線中央CLを連ねた線に対してなす角度θを、走行車線L1に対する自車両Mの相対位置および姿勢として認識する。なお、これに代えて、自車位置認識部122は、自車線L1のいずれかの側端部に対する自車両Mの基準点の位置などを、走行車線に対する自車両Mの相対位置として認識してもよい。自車位置認識部122により認識される自車両Mの相対位置は、推奨車線決定部61および行動計画生成部123に提供される。
 行動計画生成部123は、推奨車線決定部61により決定された推奨車線を走行するように、且つ、自車両Mの周辺状況に対応できるように、自動運転において順次実行されるイベントを決定する。イベントには、例えば、一定速度で同じ走行車線を走行する定速走行イベント、前走車両に追従する追従走行イベント、車線変更イベント、合流イベント、分岐イベント、緊急停止イベント、自動運転を終了して手動運転に切り替えるためのハンドオーバイベントなどがある。また、これらのイベントの実行中に、自車両Mの周辺状況(周辺車両や歩行者の存在、道路工事による車線狭窄など)に基づいて、回避のための行動が計画される場合もある。
 行動計画生成部123は、自車両Mが将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとに将来の基準時刻を複数設定し、それらの基準時刻に到達すべき目標地点(軌道点)の集合として生成される。このため、軌道点同士の間隔が広い場合、その軌道点の間の区間を高速に走行することを示している。
 図3は、推奨車線に基づいて目標軌道が生成される様子を示す図である。図示するように、推奨車線は、目的地までの経路に沿って走行するのに都合が良いように設定される。行動計画生成部123は、推奨車線の切り替わり地点の所定距離手前(イベントの種類に応じて決定されてよい)に差し掛かると、車線変更イベント、分岐イベント、合流イベントなどを起動する。各イベントの実行中に、障害物を回避する必要が生じた場合には、図示するように回避軌道が生成される。
 行動計画生成部123は、例えば、目標軌道の候補を複数生成し、安全性と効率性の観点に基づいて、その時点での最適な目標軌道を選択する。
 行動計画生成部123は、情報処理部124により取得された乗員の許諾を示す情報に従ってアクション(詳細は後述)に応じた車載機器の制御を実行する。
 情報処理部124は、問合せ部125を備える。問合せ部125は、自車両Mが走行中に発生するイベントに対して自車両Mの挙動変化に関するアクションを選択する際に、HMI30を制御して自車両Mの乗員に対してアクションに応じた制御の実行可否を問い合わせる。情報処理部124は、HMI30に対して入力された問い合わせに対する乗員の諾否を示す情報を取得する。
 イベントは、例えば、自車両Mの車外の状況に基づいて、発生するイベントである。自車両Mの車外の状況に基づいて発生するイベントとは、例えば、外界認識部121の認識結果に基づいて行動計画生成部123により決定されるイベントや、後述するリクエスト信号を受信するイベントである。アクションとは、例えば、自車両Mの操舵を制御すること、または加減速を制御することによって、予め期待される所定の挙動を自車両Mに発生させることである。より具体的には、リクエスト信号を受信した際のアクションとは、例えば自車両Mの前方に他車両を割り込ませることである。
 また、車両の挙動変化に関するアクションとは、自動運転における自動車線変更や追い越し、または走行中における他車両との車車間通信、横断しようとしている歩行者に対して自車両が停止して歩行者へ横断を促すために横断歩道を路面に表示するなどの車外に向けた表示やデジタルサイネージを含む。また、車両の挙動変化に関するアクションは、自車両Mの周辺に存在する他車両や、物体(人)に対する所定の通知や、その他の通知等を含んでもよい。
 第2制御部140は、走行制御部141を備える。走行制御部141は、行動計画生成部123によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。
 音声処理部150は、問合せ部125の指示に従って、スピーカ34に他車両の合流や車線変更等の諾否を問い合わせる音声を出力させる。また、音声処理部150は、マイク36に入力された上記の諾否の問い合わせに対する応答を取得し、取得した情報を解析して、テキスト情報に変換する。音声処理部150は、例えば、変換したテキスト情報と記憶部160に記憶された情報とを比較して、問い合わせに対する応答が承諾を示しているか、非承諾を示しているかを判定する。記憶部160に記憶された情報とは、例えば、問い合わせに対応付けられた複数の承諾を示すフレーズおよび複数の非承諾を示すフレーズである。
 音声処理部150は、例えば、問い合わせに対する応答が承諾を示しているフレーズと合致している場合は、乗員が問い合わせに対して承諾していると判定し、問い合わせに対する応答が非承諾を示しているフレーズと合致していない場合は、乗員が問い合わせに対して非承諾であると判定する。なお、合致とは完全一致に限らず、一部が合致している場合も含む。
 走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECUとを備える。ECUは、走行制御部141から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
 ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、走行制御部141から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、走行制御部141から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
 ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、走行制御部141から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
 [割り込みリクエスト信号を受信した際の処理]
 他車両から割り込みリクエスト信号(以下、リクエスト信号)を受信した際、自車両Mの乗員が割り込みを承諾した場合に、他車両を自車両Mの前方に割り込ませる。
 図4は、自車両Mがリクエスト信号を受信する場面の一例を示す図である。図示する例では、車線L1~L3を有する道路において、自車両Mが車線L2を走行している。また、車線L2において、自車両Mの前方を他車両mが走行している。車線L2は、合流車線であり、他車両mの前方で消失する。
 上記のような状況において、他車両mが、自車両Mにリクエスト信号を送信する。リクエスト信号は、例えば自車両Mに対して、「車線変更(合流)したいのですがよろしいでしょうか?」と車線変更の諾否を問い合わせる情報を含む信号である。また、他車両mは、リクエスト信号と共に、自車両MのID(識別情報)や、他車両mの位置を示す情報、速度を示す情報を自車両Mに送信する。
 自車両Mがリクエスト信号を受信すると、情報処理部124が、他車両mにより送信された情報と、外界認識部121により認識された他車両mの位置とに基づいて他車両mの位置を認識し、他車両mを特定する。そして、問合せ部125が、スピーカ34に他車両mを割り込ませるか否かの諾否を問い合わせる情報を出力させる。問い合わせる情報は、例えば「左車線(車線L1)前方の他車両mより車線変更の要請があります。許可しますか?」などの情報である。なお、この際、情報処理部124は、表示部32に自車両Mの周辺の情報を示す画像を表示させる。また、情報処理部124は、画像においてリクエスト信号を送信した他車両mを他の車両に比して強調してもよい。図5は、リクエスト信号を受信した際に表示部32に表示される画像IMおよびスピーカ34から出力される音声VOの一例を示す図である。
 諾否の問い合わせ情報に対して、図6に示すように自車両Mの乗員が車線変更を許可した場合、自車両Mは、例えば速度を落とし、図7に示すように他車両mに車線変更を許可したことを示す情報等を他車両mに送信する。図6は、自車両Mの乗員が車線変更を許可した場面の一例を示す図である。例えば、自車両Mの乗員が諾否の問い合わせに対して、例えば「いいよ、入れてあげて」とマイク36に対して発話した場合、音声処理部150は、自車両Mの乗員が問い合わせに対して承諾したか否かを判定し、判定結果を情報処理部124に出力する。情報処理部124は、乗員が他車両mの車線変更を承諾している場合、他車両mの車線変更を許可する。また、他車両mの車線変更を許可して自車両Mの速度が小さくなった場合、この自車両Mの挙動および自車両Mの周辺の状況を示す画像IM1が表示部32に表示される。
 図7は、自車両Mが他車両mに車線変更を許可することを示す情報を送信し、他車両mが車線L2に車線変更する場面の一例を示す図である。情報処理部124は、車線変更を許可することを示す情報、自車両MのID、自車両Mの位置情報、および自車両Mの速度を示す情報を他車両mに送信する。他車両mは、車線変更を許可することを示す情報、自車両MのID,自車両Mの位置情報、および自車両Mの速度を示す情報を受信すると、車線変更を許可した自車両Mを特定し、車線L2において自車両Mの前方に車線変更する。
 他車両mが車線L2に車線変更した際に、他車両mの乗員が感謝を示す発話(例えば「サンキュー(Thank yоu)」などをマイク36に入力した場合、他車両mは、感謝を示す情報を自車両Mに送信する。図8は、他車両mが感謝を示す情報を自車両Mに送信した場面の一例を示す図である。
 自車両Mが、他車両mから感謝を示す情報を受信すると、情報処理部124は、受信した情報に基づいて、他車両mから感謝されたことを示す音声をスピーカ34に出力させる。また、情報処理部124は、他車両mから感謝されたことを示す情報を受信した場合、優良ドライバであることに対する評価(優良ドライバ評価)が上がったことを示す情報をスピーカ34に出力させる。
 優良ドライバ評価は、他車両mから感謝された回数に応じて上昇する評価である。優良ドライバ評価に関する情報は記憶部160に記憶される。図9は、他車両mが車線L2に車線変更した後にスピーカ34により出力される音声VO1および表示部32に表示される画像IM2の一例を示す図である。なお、優良ドライバ評価は、画像IM2において星印の数によって表される。
 [フローチャート]
 図10は、情報処理部124により実行される処理の流れの一例を示すフローチャートである。まず、情報処理部124が、他車両mからリクエスト信号を受信したか否かを判定する(ステップS100)。他車両mからリクエスト信号を受信すると、情報処理部124は、他車両mにより送信された情報に基づいて、リクエスト信号を送信した他車両mを特定する(ステップS102)。次に、問合せ部125は、他車両mの車線変更を許可するか否かを乗員に問い合わせる(ステップS104)。次に、情報処理部124は、乗員が車線変更を許可したか否かを判定する(ステップS106)。
 乗員が車線変更を許可した場合、情報処理部124は、車線変更を許可したことを示す情報を他車両mに送信する(ステップS108)。この際、自車両Mは、減速してもよい。他車両mは、自車両Mから車線変更を許可したことを示す情報を受信すると、自車両Mが走行する車線に車線変更する。
 次に、情報処理部124は、外界認識部121の認識結果に基づいて、他車両mの車線変更が終了し、感謝を示す情報を受信したか否かを判定する(ステップS110)。他車両mの車線変更が終了したと判定し、感謝を示す情報を受信した場合、情報処理部124は、自車両Mの乗員に対して優良ドライバの評価を上昇させる(ステップS112)。
 乗員が車線変更を許可しなかった場合、情報処理部124は、車線変更を許可しなかったことを示す情報を他車両mに送信する(ステップS114)。車線変更を許可しなかったことを示す情報を他車両mに送信することは、「他車両mを割り込ませないように制御する」ことの一例である。また、この際、自車両Mは、加速してもよいし、現在の速度を維持してもよい。これにより本フローチャートの1ルーチンの処理は終了する。
 上述した処理により、他車両mから送信された車線変更の要求に対して、自車両Mの乗員は承諾するか否かを決定することができる。この結果、乗員の意思を反映した制御が行われることにより、車両の制御に対する信頼性を向上させることができる。
 なお、問合せ部125は、イベントの種別に応じて、自車両Mの車載機器の乗員に問い合わせるか否かを決定してもよい。例えば、問合せ部125は、イベントのうち第1種別のイベントが発生した時には乗員への問い合わせを行わない。この場合、車載機器の制御部は、第1種別のイベントに対するアクションに応じた車載機器の制御を実行する。これに対して、問合せ部125は、イベントのうち第1種別のイベント以外の第2種別のイベントが発生した時には乗員への問い合わせを行う。この場合、車載機器の制御部は、情報処理部124により取得された乗員の諾否を示す情報に従って、第2種別のイベントに対するアクションに応じた車載機器の制御を実行する。例えば、問合せ部125は、HMI30においてメールを受信したイベントが発生した時には乗員への問い合わせを行わない。この場合、HMI30を制御する制御部は、受信したメールの内容を音声でスピーカに出力させる。例えば、問合せ部125は、HMI30にテレビ電話を着信したイベントが発生した時には乗員への問い合わせを行う。この場合、HMI30を制御する制御部は、乗員によって着信が許諾された場合、テレビ電話の相手とHMI30とを接続する。
 また、上記の第1種別のイベント、または第2種別のイベントは、予め任意に定められたイベントであってよい。例えば、第1種別のイベントとは、予め計画されていたイベントや、行動計画生成部123により予め計画されていたイベント等である。例えば、第2種別のイベントとは、予め計画されていたイベントとは異なるイベントであって、突発的に発生するイベント(ただし、突発的に発生するイベントのうち、自車両Mが滑らかに走行するのに必要なイベントは除く)である。例えば、第1種別のイベントとは、予め定められていた車線変更イベントや、分岐イベントである。例えば、第2種別のイベントとは、前述したリクエスト信号を受信するイベントや、テレビ電話に関するイベント等であってもよい。
 上述したように、イベントの種別に応じて、自車両Mの車載機器の乗員に問い合わせるか否かを決定されるため、より利用者にとっての利便性が向上する。
 [変形例1]
 表示部32には、自車両Mの挙動および自車両Mの周辺を示す画像のみでなく、他の画像も表示されてもよい。図11は、変形例1の表示部32に表示される画像の一例を示す図である。図示するように、表示部32には領域AR1~AR3に異なる画像が表示されてもよい。例えば、領域AR1には、自車両Mの挙動、および外界認識部121により認識された自車両Mの周辺を示す画像IM11が表示される。例えば、領域AR2には、利用者によって選択された画像IM12が表示される。利用者によって選択される画像IM12は、例えば、エンターテイメント性を有する画像や、動画(例えば映画)、地図情報、目的地の観光スポットなどの情報である。また、例えば、領域AR3には、他車両mから送信された情報(リクエスト信号に応じたテキスト情報や感謝を示すテキスト情報等)や、自車両Mの乗員が発話したテキスト情報等を含む画像IM13が表示される。
 なお、画像IM11~IM13一部は、自車両Mの状態、または乗員の操作によって省略されてもよい。例えば、他車両mからリクエスト信号を受信する前は領域AR1~AR3には画像IM12が表示部32に表示され、他車両mからリクエスト信号を受信した後は、図11に示すように画像IM11~IM13が表示部32に表示されてもよい。
 上述したように、表示部32に表示される画像が、自車両Mの状態に応じて変更されるため、利用者にとっての利便性が向上する。
 [変形例2]
 情報処理部124は、他車両mからの問い合わせに対する乗員の諾否の履歴を記憶部160に記憶させ、記憶部160に記憶させた諾否情報を参照し、諾否のうち多い方の回答が承諾する旨の回答になるように車線変更の諾否について問い合わせを乗員に行ってもよい。
 図12は、諾否情報162の一例を示す図である。諾否情報は、リクエスト信号を受信した日時に対して、リクエスト信号に対する応答(承諾または非承諾)を示す情報が対応付けられた情報である。例えば、情報処理部124は、諾否情報162において、車線変更の諾否のうち多い方の回答が承諾する旨の回答となるように問い合わせを行う。例えば、情報処理部124は、車線変更を承諾する割合が非承諾の割合に比して高い場合、「車線変更を許可して良いですか?」のような問い合わせを行い、車線変更を承諾する割合が非承諾の割合に比して低い場合、「車線変更を許可しなくて良いですか?」のような問い合わせを行う。
 上述したように、情報処理部124は、諾否情報162に記憶された情報に基づいて、利用者が回答しやすい問い合わせを行うため、利用者にとっての利便性がより向上する。
 以上説明した第1の実施形態によれば、自動運転制御ユニット100が、HMI30を制御して自車両Mの乗員に対してアクションに応じた制御の実行可否を問い合わせ、HMI30に対して入力された問い合わせに対する乗員の諾否を示す情報を取得し、取得した乗員の諾否を示す情報に従って、アクションに応じた自車両Mの車載機器の制御を実行することにより、乗員の意志を反映させて車載機器の制御を行うことができる。
 <第2の実施形態>
 第2の実施形態について説明する。第2の実施形態は、地理的要因または環境的要因を、アクションに対応する乗員の諾否に紐付けて学習する学習部を更に備える。以下、第1の実施形態との相違点を中心に説明する。
 図13は、第2の実施形態の自動運転制御ユニット100Aを含む車両システム1の構成図である。自動運転制御ユニット100Aは、第1の実施形態の自動運転制御ユニット100の機能構成に加え、更に学習部152を備える。
 学習部152は、対象情報164に対して、例えば機械学習を行う。図14は、対象情報164の一例を示す図である。対象情報164は、例えば、他車両mからの問い合わせに対する応答の内容、応答日時、地理的要因、および環境的要因が互いに対応付けられた情報である。
 地理的要因とは、自車両Mの道路の種別(一般道や、高速、)や、道路上の位置(車線等)、自車両M(運転者)がよく通る道路であるか、自車両Mにとって不慣れな道路であるか等である。情報処理部124は、自車両Mの記憶装置に記憶された情報や、ナビゲーション装置50により取得された情報から自車両Mが走行している地理的要因を取得する。
 環境的要因とは、天候や、時刻、昼夜、曜日、季節、気温、道路の混雑状況、走行速度、ドライバの状態等である。ドライバの状態とは、ドライバの疲労度や、ストレス度等である。情報処理部124は、自車両Mの記憶装置に記憶された情報や、自車両Mに設けられたセンサ、情報を提供するサーバ装置により提供された情報から環境要因を取得する。ドライバの状態は、例えば、ステアリングホイールに設けられたセンサや、ドライバに装着されたセンサ等により計測された情報に基づいて推定されたものである。学習部152は、地理的要因または環境的要因を、アクションに対応する乗員の諾否に紐付けて学習する。これにより、どのような地理的要因または環境的要因において乗員は車線変更を許諾する傾向にあるかが学習される。
 情報処理部124は、自車両Mが走行している地理的要因または環境的要因と、学習部152の学習結果とに基づいて、自車両Mが走行している地理的要因または環境的要因において乗員が承諾する旨の回答になるように問い合わせを乗員に行う。
 なお、学習部152は、地理的要因および環境的要因に加え(または代えて)、自車両Mの車室内の状況を、アクションに対応する乗員の諾否に紐付けて学習してもよい。この場合、対象情報164には、承諾または非承諾を示す情報に対して、自車両Mの車室内の状況が記憶されている。車室内の状況とは、同乗者の有無や、表示部32に表示されていた画像の種別(地図情報や映画等)等である。
 以上説明した第2の実施形態では、地理的要因または環境的要因を、アクションに対応する前記乗員の諾否に紐付けて学習する学習部を、更に備えることにより、より乗員が承諾する旨の回答になるように問い合わせを乗員に行うことができる。
 [その他]
 なお、上述した例では、他車両mが車線変更(合流)する際にリクエスト信号が送信される例について説明したが、これに代えて(または加えて)、自車両Mに対して車線変更を依頼するリクエスト信号が送信された場合に、自車両Mが車線変更するか否かを乗員に問い合わせてもよい。自車両Mに対して車線変更を依頼するとは、進行方向が同一である複数車線が存在する道路で、自車両Mが走行する車線において、自車両Mの後方を走行する車両が、自車両Mに車線変更を依頼することである。すなわち、自車両Mに車線変更して道を譲ることを、後方車両が依頼することである。
 また、他車両mからリクエスト信号が送信されたか否かに関わらず、所定のイベントが発生した場合に、自動運転制御ユニット100(100A)は乗員に所定のアクションを実行するか否かを問い合わせて、問い合わせに対して実行する旨の応答を得た場合にアクションを実行してもよい。
 所定のイベントとは、例えば、法定速度以下の他車両mが前方に存在する場合に、発生するイベント(第2種別のイベントの一例)である。この場合、所定のアクションは、前方の他車両mを追い越すアクションである。例えば、情報処理部124は、前方の他車両mを追い越すか否かを乗員に問い合わせ、追い越すとの応答を得た場合に、前方の他車両mを追い越す制御を自動運転制御ユニット100(100A)に実行させる。
 また、所定のイベントとは、自車両Mの車外の状況に限らず、自車両Mの状況に基づいて、発生するイベントであってもよい。例えば、発生するイベントとは、自車両Mの位置に基づいて、所定の音楽を再生しスピーカに出力させるイベント(第2種別のイベントの一例)である。この際の所定のアクションは、例えば、所定の音楽を再生しスピーカに出力させるアクションである。例えば、情報処理部124は、自車両Mの走行位置に基づいて、その位置を走行する際におすすめの曲を再生しスピーカ34に出力させるか否かを問い合わせ、出力させるとの応答を得た場合に、おすすめの曲を再生しスピーカに出力させるように機器制御部に指示する。この場合、機器制御部は、自車両Mに搭載され、おすすめ曲をスピーカに出力させるように所定の装置を制御する制御部である。機器制御部は、「制御部」の一例である。
 機器制御部は、自車両Mに搭載された記憶装置に記憶された位置情報と、おすすめの曲とが対応付けられた対応情報を参照して、おすすめの曲を選択する。例えば、海沿いの道に対応する位置情報に対しては、海をテーマにした曲が対応付けられている。
 また、問合せ部125は、自車両Mの走行位置に代えて、自車両Mの走行状態に対応付けられたおすすめの曲を再生するか否かを問い合わせてもよい。例えば、この場合、対応情報において、自車両Mが渋滞に巻き込まれ、徐行や停止を繰り返す走行状態に対しては、ストレスを緩和させる曲が対応付けられている。
 また、発生するイベントは、自車両Mの車外の状況に限らず、自車両Mの車内の状況に基づいて、発生するイベントであってもよい。この場合、発生するイベントとは、自車両Mの車内の状況に基づいて、自車両Mのエアコンディショナーの作動状態を変更させるイベント(第2種別のイベントの一例)である。この際の所定のアクションとは、自車両Mのエアコンディショナーの出力度合を上昇(または低下)させるアクションである。例えば、情報処理部124は、夏に車室内の温度が所定温度以上になった場合において、乗員に車室内の温度を下げるように冷房を調整するか否かを問い合わせ、冷房を調整するとの応答を得た場合に、冷房を調整するようにエアコンディショナー制御部に指示する。エアコンディショナー制御部は、自車両Mに搭載され、エアコンディショナーを制御する制御部である。エアコンディショナー制御部は、「制御部」の一例である。
 また、発生するイベントは、ナビゲーション装置50が目的地への経路を変更するイベント(第2種別のイベントの一例)であってもよい。この場合、所定のアクションは、ナビゲーション装置50が目的地への経路を再度検索して設定するアクションである。例えば、情報処理部124は、乗員に再度経路を検索するか否かを問い合わせ、検索するとの応答を得た場合に、再度経路を検索するようにナビゲーション装置50の制御部に指示する。ナビゲーション装置50を制御する制御部は、「制御部」の一例である。
 また、上記の実施形態では、音声によって問い合わせ、または応答がされるものとして説明したが、これに限定されない。例えば、表示部32に問い合わせ画像を表示させ、乗員は表示部32に対して入力操作を行うことによって、応答を行ってもよい。また、応答は、所定のジェスチャーであってもよい。例えば、乗員は、車室内カメラ90に対して所定のジェスチャーを行う。自動運転制御ユニット100は、車室内カメラ90により撮像された画像を解析し、解析結果に基づいて乗員が所定のジェスチャーを行ったか否かを判定してもよい。
 以上説明した実施形態によれば、車両の乗員による情報の入力を受け付けるHMI30と、自車両Mの走行中に発生するイベントに対して車両の挙動変化に関するアクションを選択する際に、インターフェースを制御して自車両Mの乗員に対してアクションの実行可否を問い合わせ、インターフェースに対して入力された問い合わせに対する乗員の諾否を示す情報を取得する情報処理部124と、情報処理部124により取得された乗員の諾否を示す情報に従って、アクションに応じた自車両Mの車載機器の制御を実行する制御部120とを備えることにより、乗員の意志を反映させて車載機器の制御を行うことができる。
 [ハードウェア構成]
 上述した実施形態の自動運転制御ユニット100、100Aは、例えば、図15に示すようなハードウェアの構成により実現される。図15は、実施形態の自動運転制御ユニット100100Aのハードウェア構成の一例を示す図である。
 自動運転制御ユニット100、100Aは、通信コントローラ100-1、CPU100-2、RAM100-3、ROM100-4、フラッシュメモリやHDDなどの二次記憶装置100-5、およびドライブ装置100-6が、内部バスあるいは専用通信線によって相互に接続された構成となっている。ドライブ装置100-6には、光ディスクなどの可搬型記憶媒体が装着される。二次記憶装置100-5に格納されたプログラム100-5aがDMAコントローラ(不図示)などによってRAM100-3に展開され、CPU100-2によって実行されることで、第1制御部120、および音声処理部150が実現される。また、CPU100-2が参照するプログラムは、ドライブ装置100-6に装着された可搬型記憶媒体に格納されていてもよいし、ネットワークNWを介して他の装置からダウンロードされてもよい。
 上記実施形態は、以下のように表現することができる。
 記憶装置とハードウェアプロセッサを備え、
 前記記憶装置には前記ハードウェアプロセッサに
 車両が前記車両の走行中に発生するイベントに対して前記車両の挙動変化に関するアクションを選択する際に、情報を出力し、車両の乗員による情報の入力を受け付けるインターフェースを制御して前記車両の乗員に対して前記アクションの実行可否を問い合わせさせ、
 前記インターフェースに対して入力された前記問い合わせに対する前記乗員の諾否を示す情報を取得させ、
 前記取得された前記乗員の諾否を示す情報に従って、前記アクションに応じた前記車両の車載機器の制御を実行させるためのプログラムが格納されている。
 以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…車両システム、32…表示部、34…車線変更した後にスピーカ、36…マイク、100、100A…自動運転制御ユニット、120…第1制御部、124…情報処理部、125…問合せ部、150…音声処理部、152…学習部、160…記憶部、162…諾否情報、164…対象情報、M…自車両、m…他車両

Claims (11)

  1.  車両の乗員による情報の入力を受け付けるインターフェースと、
     前記車両が前記車両の走行中に発生するイベントに対して前記車両の挙動変化に関するアクションを選択する際に、前記インターフェースを制御して前記車両の乗員に対して前記アクションの実行可否を問い合わせる問合せ部と、
     前記インターフェースに対して入力された前記問い合わせに対する前記乗員の諾否を示す情報を取得する情報処理部と、
     前記情報処理部により取得された前記乗員の諾否を示す情報に従って、前記アクションに応じた前記車両の車載機器の制御を実行する制御部と、
     を備える車両制御システム。
  2.  前記制御部は、前記イベントのうち第1種別のイベントが発生した時には前記問合せ部による乗員への問い合わせを行わずに前記アクションに応じた前記車載機器の制御を実行し、前記第1種別のイベント以外の第2種別のイベントが発生した時には前記情報処理部により取得された前記乗員の諾否を示す情報に従って、前記アクションに応じた前記車載機器の制御を実行する、
     請求項1に記載の車両制御システム。
  3.  前記イベントは、前記車両外の状況に基づいて発生する、
     請求項1または請求項2に記載の車両制御システム。
  4.  前記アクションは、前記車両の操舵を制御すること、または加減速を制御することのうち少なくとも一方を含む、
     請求項1から3のうちいずれか1項に記載の車両制御システム。
  5.  前記アクションは、前記車両の前方に他車両を割り込ませる動作である、
     請求項1から4のうちいずれか1項に記載の車両制御システム。
  6.  前記イベントは、他車両から割り込みのリクエスト信号を受信することを含み、
     前記リクエスト信号を受信した際の前記アクションは、前記車両の前方に前記他車両を割り込ませる動作である、
     請求項1から5のうちいずれか1項に記載の車両制御システム。
  7.  前記制御部は、前記情報処理部により前記割り込みの承諾を示す情報が取得された場合は、前記他車両を割り込ませ、前記情報処理部により前記割り込みの非承諾を示す情報が取得された場合は、前記他車両を割り込ませないように前記車両を制御する、
     請求項5または請求項6に記載の車両制御システム。
  8.  前記アクションに対応する前記乗員の諾否の履歴を記憶する記憶部を、更に備え、
     前記問合せ部は、前記記憶部により記憶された履歴に基づいて、前記諾否のうち多い方の回答が承諾する旨の回答になるように前記問い合わせを乗員に行う、
     請求項1から7のうちいずれか1項に記載の車両制御システム。
  9.  地理的要因または環境的要因を、前記アクションに対応する前記乗員の諾否に紐付けて学習する学習部を、更に備え、
     前記問合せ部は、乗員への問い合わせを行う際の前記地理的要因または前記環境的要因と、前記学習部の学習結果に基づいて、乗員が承諾する旨の回答を行う確率が高くなるように前記問い合わせを乗員に行う、
     請求項1から8のうちいずれか1項に記載の車両制御システム。
  10.  コンピュータが、
     車両が前記車両の走行中に発生するイベントに対して前記車両の挙動変化に関するアクションを選択する際に、車両の乗員による情報の入力を受け付けるインターフェースを制御して前記車両の乗員に対して前記アクションの実行可否を問い合わせ、
     前記インターフェースに対して入力された前記問い合わせに対する前記乗員の諾否を示す情報を取得し、
     前記取得された前記乗員の諾否を示す情報に従って前記アクションに応じた前記車両の車載機器の制御を実行する、
     車両制御方法。
  11.  コンピュータに、
     車両が前記車両の走行中に発生するイベントに対して前記車両の挙動変化に関するアクションを選択する際に、車両の乗員による情報の入力を受け付けるインターフェースを制御して前記車両の乗員に対して前記アクションの実行可否を問い合わせさせ、
     前記インターフェースに対して入力された前記問い合わせに対する前記乗員の諾否を示す情報を取得させ、
     前記取得された前記乗員の諾否を示す情報に従って前記アクションに応じた前記車両の車載機器の制御を実行させる、
     プログラム。
PCT/JP2017/028595 2017-08-07 2017-08-07 車両制御システム、車両制御方法、およびプログラム WO2019030802A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201780093691.6A CN111033596A (zh) 2017-08-07 2017-08-07 车辆控制系统、车辆控制方法及程序
DE112017007832.6T DE112017007832T5 (de) 2017-08-07 2017-08-07 Fahrzeugsteuersystem, Fahrzeugsteuerverfahren und Programm
PCT/JP2017/028595 WO2019030802A1 (ja) 2017-08-07 2017-08-07 車両制御システム、車両制御方法、およびプログラム
JP2019535459A JP6800340B2 (ja) 2017-08-07 2017-08-07 車両制御システム、車両制御方法、およびプログラム
US16/634,180 US20200231178A1 (en) 2017-08-07 2017-08-07 Vehicle control system, vehicle control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/028595 WO2019030802A1 (ja) 2017-08-07 2017-08-07 車両制御システム、車両制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2019030802A1 true WO2019030802A1 (ja) 2019-02-14

Family

ID=65272026

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/028595 WO2019030802A1 (ja) 2017-08-07 2017-08-07 車両制御システム、車両制御方法、およびプログラム

Country Status (5)

Country Link
US (1) US20200231178A1 (ja)
JP (1) JP6800340B2 (ja)
CN (1) CN111033596A (ja)
DE (1) DE112017007832T5 (ja)
WO (1) WO2019030802A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6704568B1 (ja) * 2019-11-29 2020-06-03 ニューラルポケット株式会社 情報処理システム、情報処理装置、端末装置、サーバ装置、プログラム、又は方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11447135B2 (en) * 2018-06-29 2022-09-20 Nissan Motor Co., Ltd. Drive assisting method and vehicle control device
JP7023817B2 (ja) * 2018-09-19 2022-02-22 本田技研工業株式会社 表示システム、表示方法、およびプログラム
JP2023047174A (ja) * 2021-09-24 2023-04-05 トヨタ自動車株式会社 車両用表示制御装置、車両用表示装置、車両、車両用表示制御方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316772A (ja) * 2006-05-23 2007-12-06 Kenwood Corp 車載用割込み情報交換装置、プログラム及び方法
WO2016113926A1 (ja) * 2015-01-13 2016-07-21 日産自動車株式会社 走行制御装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7382274B1 (en) * 2000-01-21 2008-06-03 Agere Systems Inc. Vehicle interaction communication system
US8346426B1 (en) * 2010-04-28 2013-01-01 Google Inc. User interface for displaying internal state of autonomous driving system
JP6325098B2 (ja) * 2014-06-06 2018-05-16 日立オートモティブシステムズ株式会社 車両の走行制御装置
US10697790B2 (en) * 2014-06-10 2020-06-30 Clarion Co., Ltd. Lane selecting device, vehicle control system and lane selecting method
US10486701B2 (en) * 2015-03-18 2019-11-26 Nec Corporation Driving control device, driving control method and vehicle-to-vehicle communication system
US10315665B2 (en) * 2016-01-29 2019-06-11 Faraday & Future Inc. System and method for driver pattern recognition, identification, and prediction

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316772A (ja) * 2006-05-23 2007-12-06 Kenwood Corp 車載用割込み情報交換装置、プログラム及び方法
WO2016113926A1 (ja) * 2015-01-13 2016-07-21 日産自動車株式会社 走行制御装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6704568B1 (ja) * 2019-11-29 2020-06-03 ニューラルポケット株式会社 情報処理システム、情報処理装置、端末装置、サーバ装置、プログラム、又は方法
WO2021106180A1 (ja) * 2019-11-29 2021-06-03 ニューラルポケット株式会社 情報処理システム、情報処理装置、端末装置、サーバ装置、プログラム、又は方法

Also Published As

Publication number Publication date
US20200231178A1 (en) 2020-07-23
JP6800340B2 (ja) 2020-12-16
DE112017007832T5 (de) 2020-04-16
CN111033596A (zh) 2020-04-17
JPWO2019030802A1 (ja) 2020-05-28

Similar Documents

Publication Publication Date Title
JP6715959B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6646168B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US20170313321A1 (en) Vehicle control system, vehicle control method, and vehicle control program
JP6428746B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6623468B2 (ja) 車両制御装置、車両制御方法、および車両制御プログラム
WO2018116409A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
WO2018123344A1 (ja) 車両制御装置、車両制御方法、及びプログラム
JP6676196B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JPWO2018122966A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
WO2018116461A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JPWO2018123014A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6811308B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6696006B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US11230290B2 (en) Vehicle control device, vehicle control method, and program
WO2018142560A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6800340B2 (ja) 車両制御システム、車両制御方法、およびプログラム
WO2018179958A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JPWO2018179359A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
WO2018230530A1 (ja) 車両制御システム、車両制御方法、およびプログラム
WO2018142562A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6663343B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6781335B2 (ja) 車両制御システム、サーバ装置、車両制御方法、および車両制御プログラム
CN113053034B (zh) 车辆操作权管理装置、车辆操作权管理方法及存储介质
US20220001896A1 (en) Control device, control method, and storage medium
WO2022145286A1 (ja) 情報処理装置、情報処理方法、プログラム、移動装置、及び、情報処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17920731

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019535459

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 17920731

Country of ref document: EP

Kind code of ref document: A1