WO2017057060A1 - 運転制御装置、および運転制御方法、並びにプログラム - Google Patents

運転制御装置、および運転制御方法、並びにプログラム Download PDF

Info

Publication number
WO2017057060A1
WO2017057060A1 PCT/JP2016/077433 JP2016077433W WO2017057060A1 WO 2017057060 A1 WO2017057060 A1 WO 2017057060A1 JP 2016077433 W JP2016077433 W JP 2016077433W WO 2017057060 A1 WO2017057060 A1 WO 2017057060A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
driver
verification
personalization function
driving
Prior art date
Application number
PCT/JP2016/077433
Other languages
English (en)
French (fr)
Inventor
河本 献太
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP16851234.1A priority Critical patent/EP3357780B1/en
Priority to US15/761,884 priority patent/US11281211B2/en
Priority to CN201680055610.9A priority patent/CN108137052B/zh
Priority to JP2017543148A priority patent/JP6773040B2/ja
Publication of WO2017057060A1 publication Critical patent/WO2017057060A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0051Handover processes from occupants to vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/082Selecting or switching between different modes of propelling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/085Changing the parameters of the control units, e.g. changing limit values, working points by control input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0013Planning or execution of driving tasks specially adapted for occupant comfort
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/043Identity of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/047Prioritizing desires of multiple occupants, e.g. when setting climate control or driving behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style

Definitions

  • the present disclosure relates to a driving control device, a driving control method, and a program, and in particular, a driving control device and driving control capable of improving safety and comfort in automatic driving of a movable device represented by an automobile.
  • the present invention relates to a method and a program.
  • a so-called automatic driving technique is being realized in which a vehicle or the like is driven without a driver's operation using an in-vehicle sensor typified by GPS (Global Positioning System) (see, for example, Patent Document 1).
  • GPS Global Positioning System
  • the automobile is provided with sensors for monitoring various conditions including speed, acceleration, position, and the like.
  • detection results detected by these various sensors that change every moment. Based on the above, the next operation is determined.
  • the operation is determined by using multiple detection results such as current position information, travel speed, surrounding congestion status, and traffic congestion prediction, such as the route (route) and lane selection considering traffic jams.
  • processing time is required, and in other cases, it is not possible to take processing time to determine an operation such as avoiding a collision with a pedestrian or automobile that has jumped out.
  • the present disclosure has been made in view of such a situation, and in particular, can improve safety and comfort during movement in automatic driving.
  • An operation control device includes an operation unit that receives an input of a driving operation of a driver who drives a moving body, a detection unit that detects a state of the moving body, operation information related to the driving operation, A learning unit that learns a personalization function related to the driving operation of the driver based on a detection result of the detection unit, and an operation of the moving body is controlled based on the detection result and the personalization function.
  • An operation control unit including an operation control unit.
  • a learning result storage unit that stores the personalization function learned by the learning unit can be further included, and the driving mode of the moving body corresponds to an input of a driving operation received by the driver. And a manual operation mode that operates in accordance with the detection result and the personalization function verified by the verification unit so as to include an automatic operation mode that operates without requiring a driving operation by the driver.
  • the learning unit may include a personalization function related to the driving operation of the driver based on operation information related to the driving operation and a detection result of the detection unit. Learning is performed, and the personalization function that is the learning result can be stored in the learning result storage unit.
  • the verification result acquired by the verification unit may be a result of running the simulation in the automatic driving mode using the personalization function stored in the learning result storage unit by the external verification device.
  • the verification unit does not have the abnormality. It is possible to further include an update unit that updates the personalization function verified as the personalization function stored in the learning result storage unit.
  • the operation control unit in the automatic operation mode, based on the detection result and the personalization function stored in the personalization function storage unit and verified by the verification unit, The operation can be controlled.
  • the learning result storage unit and the personalization function storage unit can store the personalization function for each driver.
  • the learning result storage unit and the personalization function storage unit store the personalization function individually for each driver and for each of a plurality of modes set for each driver. Can do.
  • the operation control unit is made to authenticate the driver, and the learning unit is made to learn the personalization function for each driver authenticated by the operation control unit and store the personalization function in the learning result storage unit. can do.
  • the driver is authenticated, the personalized function of the authenticated driver verified by the verification unit is read from the personalization function storage unit, the detection result, and The operation of the mobile object can be controlled based on the personalization function verified by the verification unit.
  • the driving control method receives an input of a driving operation of a driver driving a moving body, detects a state of the moving body, operation information related to the driving operation, and a detection result of the detection unit
  • the driver control method includes a step of learning a personalization function related to the driving operation of the driver based on the control, and controlling an operation of the moving body based on the detection result and the personalization function.
  • a program includes an operation unit that receives an input of a driving operation of a driver who drives a moving body, a detection unit that detects a state of the moving body, operation information related to the driving operation, and the detection A learning unit that learns a personalization function related to the driving operation of the driver based on a detection result of the unit, and an operation that controls the operation of the moving body based on the detection result and the personalization function It is a program that causes a computer to function as a control unit.
  • an input of a driving operation of a driver who drives a mobile body is received, a state of the mobile body is detected, and based on operation information related to the driving operation and the detection result, A personalization function related to the driving operation of the driver is learned, and the operation of the moving body is controlled based on the detection result and the personalization function.
  • FIG. 5 is a flowchart for explaining a conflict resolution process in FIG. 4.
  • FIG. 5 is a flowchart for explaining a conflict resolution process in FIG. 4.
  • FIG. 5 is a figure explaining the display which shows that competition generate
  • FIG. 11 is a diagram illustrating a configuration example of a general-purpose personal computer.
  • FIG. 1 is a block diagram illustrating a configuration example of an embodiment of an automobile operation control device to which the present disclosure is applied.
  • FIG. 1 is a device that is mounted on a car and controls the driving of the car.
  • the operation control device of FIG. 1 is described by taking an example of a device that controls the operation of an automobile.
  • a driver such as an aircraft or a ship other than an automobile can operate ( The vehicle can be applied to other vehicles as long as the vehicle operates by maneuvering.
  • the driving control device 11 in FIG. 1 controls driving of an automobile, but there are two kinds of driving modes.
  • the first mode is a manual driving mode in which the driver operates the automobile by operating a steering wheel and a brake.
  • the second mode is an automatic driving mode in which the automobile is automatically driven without the driver intervening in the driving operation.
  • the operation mode can be selectively set by the user, and the operation control device 11 controls the operation of the automobile in the set operation mode.
  • the operation control device 11 performs the operation content of the driver's operation unit 31, for example, the operation content (steering angle, pedaling force, etc.) when operating the steering wheel and the brake, and the outside world. 12 and based on the detection results of the detection unit 34 composed of various sensors linked to the behavior of the car body, a personalized function reflecting driving habits and habits for each driver is generated by learning, and the driving ends. Update when you do.
  • the operation control device 11 controls the vehicle body operation unit 33 including a plurality of devices that operate the outside world 12 and the car body, and from various sensors that are linked to the behavior of the outside world 12 and the car body of the car.
  • the detection result of the detection unit 34 is acquired, and the operation of each device constituting the vehicle body operation unit 33 is determined based on the acquired detection result in order to realize automatic driving.
  • the operation control device 11 determines the operation of each device constituting the vehicle body operation unit 33 based on the detection result of the detection unit 34 composed of various sensors in the automatic operation mode, the personalization function obtained by learning is obtained. Thus, the driving operation is corrected, and various devices constituting the vehicle body operation unit 33 are operated to realize automatic driving corresponding to the driver's habit and habit.
  • the operation control device 11 obtains two types of operations, a contemplation operation and a reflection operation, based on the detection result of the detection unit 34, and based on the obtained two types of operations. To determine the final automatic operation.
  • the pondering operation is an operation that is determined with sufficiently high accuracy by using the detection result of the detection unit 34, although it takes a relatively long processing time by detailed processing.
  • the contemplation operation is used when an operation in a very short time is not required.
  • the reflection operation is an operation that uses the detection result of the detection unit 34 but is determined at a high speed without processing time by a relatively simple process than the process for determining the contemplation operation.
  • the reflection operation is mainly used when an operation in a very short time is required.
  • the operation control device 11 determines the operation contents of various devices constituting the vehicle body operation unit 33 for realizing the automatic operation using the contemplation operation and the reflection operation.
  • the operation control device 11 includes an automatic operation control block 21, a personalization block 22, an operation unit 31, a manual operation control unit 32, a vehicle body operation unit 33, a detection unit 34, and a display unit 35.
  • the automatic driving control block 21 controls the operation of various devices constituting the vehicle body operating unit 33 in the automatic driving mode based on various detection results detected by the detecting unit 34 and the personalization function.
  • the manual operation control unit 32 includes various types of components that constitute the vehicle body operation unit 33 in the manual operation mode in accordance with operation signals when the driver operates each device for operating the vehicle body, such as steering and brakes. Control the operation of the device.
  • the personalization block 22 includes the operation content of the operation unit 31 operated by the driver in the manual operation mode, and the detection result of the detection unit 34 detected according to the operation of various components constituting the vehicle body operation unit 33. From this, the driver's personalization function is obtained by learning and supplied in the automatic driving mode. The personalization function reflects personal habits and habits in the driving behavior of the driver. Therefore, the operation of various devices constituting the vehicle body operation unit 33 determined in the automatic driving mode is corrected by using the personalization function, so that the driving operation in the automatic driving mode can be changed for each driver. This makes it possible to customize the system so that the comfort in automatic driving can be improved.
  • the operation unit 31 is equipped with an operation control device 11 such as a winker, a wiper, a window washer, a horn, a light, and an instrument panel in addition to various operation devices related to driving such as a steering, a brake pedal, and an accelerator pedal.
  • an operation control device 11 such as a winker, a wiper, a window washer, a horn, a light
  • an instrument panel in addition to various operation devices related to driving such as a steering, a brake pedal, and an accelerator pedal.
  • Almost all operations that can be operated in the vehicle by the driver as a user such as an operation device related to the operation of various devices constituting the body of the vehicle, and an operation device that switches between the manual operation mode and the automatic operation mode
  • An operation signal corresponding to the above is generated and supplied to the personalization block 22 and the manual operation control unit 32.
  • the manual operation control unit 32 supplies commands for instructing various operations to the vehicle body operation unit 33 to operate the vehicle body constituting the vehicle operation unit 33. Operate various devices.
  • the vehicle body operation unit 33 is composed of a specific device group that operates the vehicle body of the automobile, for example, various device groups that operate the vehicle body of the automobile such as steering wheels, brakes, and engines.
  • the detection unit 34 is a sensor group that detects various states related to the operation of the vehicle body of the automobile on which the operation control device 11 is mounted.
  • the GPS Global Positioning System
  • the steering wheel steering Angular that detects the position of the automobile
  • the steering wheel steering Angular velocity
  • three-dimensional acceleration sensor yaw / roll / pitch sensor
  • camera image sensor (including stereo camera sensor, etc.)
  • raindrop detection sensor fog sensor
  • illuminance sensor pressure sensor
  • tire pressure sensor tire pressure sensor
  • millimeter wave radar millimeter wave sensor
  • infrared sensor beacon sensor
  • temperature and pressure sensors of various devices and the like
  • the display unit 35 is a display device including, for example, an LCD (Liquid Crystal Display) provided on the instrument panel, and the current operation mode is either an automatic operation mode or a manual operation mode, or an automatic operation. Displays various information in the mode and manual operation mode.
  • the display unit 35 may function as a touch panel, for example, as a structure integrated with the operation unit 31. With such a configuration, for example, the automatic operation mode and the manual operation mode are switched. An operation button or the like may be displayed, and an input may be received and switched by a touch operation.
  • the automatic operation control block 21 is a block that determines the operation of various devices of the vehicle body operation unit 33 of the automobile in the automatic operation mode. More specifically, the automatic operation control block 21 includes a reflection operation determination unit 51, a contemplation operation determination unit 52, an automatic operation control unit 53, and a personalization function storage unit 54.
  • the reflection operation determination unit 51 compares various processes of the various devices constituting the vehicle body operation unit 33 in the automatic operation mode with simple processing as compared with processing in the contemplation operation determination unit 52 described later. The operation is determined, and a command corresponding to the determined operation is supplied to the automatic operation control unit 53.
  • the reflection operation determination unit 51 determines that there is a possibility of a collision when the distance to the vehicle ahead is shorter than a predetermined distance and higher than a predetermined speed by, for example, millimeter wave radar. Then, a steering operation for taking an emergency avoidance action, an operation for operating a so-called pre-crash safety device such as an automatic brake, and the like are determined. Then, the reflection operation determination unit 51 reads out the personalization function set by reflecting the driving habits and habits of the driver for each driver from the personalization function storage unit 54, and uses it as a command corresponding to the reflection operation. Then, a correction reflecting the driver's preference is added and supplied to the automatic driving control unit 53.
  • the reflection operation includes many highly urgent operations that need to be determined in a very short time. For this reason, the reflection operation may include a large number of predetermined operations with respect to the detection result, and in this way, an operation capable of a reaction in an extremely short time can be determined. It becomes possible.
  • the operation determined by the reflection operation determination unit 51 is simply referred to as a reflection operation.
  • the contemplation operation determining unit 52 performs detailed processing based on the detection result of the detection unit 34 as compared with the processing in the reflection operation determination unit 51, and performs various processes constituting the vehicle body operation unit 33 in the automatic operation mode. The operation is determined and a corresponding command is supplied to the automatic operation control unit 53. Then, the pondering action determination unit 52 reads out the personalization function set by reflecting the driving habits and habits of the driver for each driver from the personalization function storage unit 54, and uses it as a command corresponding to the pondering action. Then, a correction reflecting the driver's preference is added and supplied to the automatic driving control unit 53.
  • the contemplation operation determination unit 52 determines, for example, an operation for controlling a steering operation when passing an oncoming vehicle on a narrow road.
  • the inter-vehicle distance between the oncoming vehicle and the own vehicle changes every moment, and a plurality of times of steering.
  • the movement of the vehicle body according to the operation is estimated, and an operation that takes a relatively long time for processing such as an operation according to the estimation result is determined.
  • the operation determined by the contemplation operation determining unit 52 is simply referred to as a contemplation operation.
  • the automatic operation control unit 53 is based on the reflection operation command supplied from the reflection operation determination unit 51 and the contemplation operation command determined by the contemplation operation determination unit 52. The operation is determined and a corresponding command is supplied to the vehicle body operation unit 33.
  • the reflection operation determining unit 51 can generally determine the reflection operation in a shorter time than the processing time until the contemplation operation determining unit 52 determines the contemplation operation. However, depending on the condition of the detection result obtained from the detection unit 34, the processing time until the contemplation operation is determined may be shorter than the processing time until the reflection operation is determined. It may be simultaneous.
  • the automatic operation control unit 53 determines the operation based on the reflection operation and the contemplation operation, generally assuming that the processing results are the same, and sends the corresponding operation signal to the vehicle operation. To the unit 33.
  • the automatic operation operation is determined by the set solution mode among the following solution modes.
  • the solution mode the first solution mode that prioritizes either the contemplation operation or the reflection operation, the first-come-first-serve priority, or the second solution mode that replaces the last-come-first-use, the first one that prioritizes the one with higher priority or confidence
  • there are eight types of solution modes including an eighth solution mode that attempts to solve by intervening the judgment of the driver.
  • the eight types of resolution modes listed here are only examples, and other resolution modes may be set.
  • the automatic operation control unit 53 stores the setting contents of the solution mode, and determines the operation of the vehicle body operation unit 33 in the automatic operation mode using the contemplation operation and the reflection operation in accordance with the stored solution mode. , Supplied to the vehicle body operating unit 33.
  • the contemplation action determination unit 52 includes an environment recognition unit 71, a local map processing unit 72, a global map processing unit 73, a route planning unit 74, and an action planning unit 75.
  • the environment recognition unit 71 recognizes the environment of the host vehicle, generates environment information as a recognition result, and supplies it to the local map processing unit 72.
  • the environment information of the own vehicle here is information required in the local map processing unit 72 and the global map processing unit 73. For example, a position on the earth (a position on the route set as a route on the map) ), GPS images, and lanes on the road on which the vehicle is traveling, images taken by an image sensor for recognizing road surface conditions, and the like.
  • the environmental information also includes surrounding environmental information such as beacon information including traveling speed, weather, traffic information, etc. of the own vehicle, traffic jam information, and the like.
  • the local map processing unit 72 is based on the local map such as the position of the lane on the road being traveled, the traveling speed, the detailed road shape, the sign, the signal, and the like. Information about the narrow area around the vehicle body is extracted as local information and supplied to the action planning unit 75. In addition, the local map processing unit 72 supplies environment information to the global map processing unit 73.
  • the global map processing unit 73 is a vehicle body based on a global map such as beacon information and GPS information included in environmental information such as traffic information such as traffic conditions such as traffic jam conditions and accident information and traffic jam prediction on the route from the departure point to the destination. Information on the surrounding area is extracted as global information and supplied to the route planning unit 74.
  • the local information is information in a relatively narrow range related to the periphery of the vehicle body based on the local map (map information in a relatively close range from the vehicle body).
  • the global information is information on a relatively wide range around the vehicle body based on a global map (map information in a relatively far range from the vehicle body) on a route to be traveled.
  • the route planning unit 74 plans the travel route of the vehicle based on the global information supplied from the global map processing unit 73 and supplies the route planning information to the action planning unit 75.
  • the action plan unit 75 plans an action for operating the vehicle body operation unit 33 based on the local information and the route plan information, and supplies a command corresponding to the contemplation operation to the automatic operation control unit 53. More specifically, for example, the action plan unit 75 next turns right based on local information, such as detailed road shape, information on the lane being traveled, and information on the route obtained from the global information. If you need to change the lane based on the current driving lane and the route to turn or turn left, carefully consider the steering angle, brake timing, accelerator opening, etc. required to change the lane And the corresponding command is supplied to the automatic operation control unit 53.
  • the personalization block 22 includes a personalization function learning unit 91, a learning result storage unit 82, a learning result verification unit 93, a verification result determination unit 94, and a personalization function update unit 95.
  • the personalization function learning unit 91 learns a personalization function for each driver based on the operation signal supplied from the operation unit 31 and various detection results supplied from the detection unit 34 in the manual operation mode. And stored in the learning result storage unit 92. That is, the personalization function learning unit 91 is based on the operation signal when the driver actually operates the operation unit 31 in the manual operation mode and the detection result of the detection unit 34 based on the operation signal.
  • the personalization function that reflects the habits and habits related to driving is obtained through learning. Therefore, the personalization function can strongly reflect the habits and habits of each driver by increasing the learning time according to the length of the driving time in the manual driving mode.
  • the personalization function learning unit 91 may set a plurality of personalization functions for the same driver. That is, the driving operation of the driver is not always constant but changes depending on the physical condition and the mental state.
  • the required personalization function can be set as a personalization function for each of a plurality of driving modes for the same driver for each driver's mood.
  • the first mode can be a personalization function when driving such as “relaxing safety” where the operation of the brake or accelerator is loosely determined from the operation signal of the eyes.
  • the personalization function for driving such as “crimping behavior” obtained from an operation signal for stopping the brake operation at a short distance or an operation signal for repeatedly turning on / off the accelerator is set as the second mode. be able to.
  • the third personalization function obtained from the average value or the weighted average value of the parameters of the “loose safety” and the “millet behavior” can be set as the third mode.
  • the automatic driving operation is switched according to the driver's current mood.
  • a mode corresponding to the mood of each driver in the personalization function is referred to as a user mode. Therefore, the personalization function can be learned for each driver and for each user mode in the manual driving mode, and is also supported for each driver and for each user mode in the automatic driving mode. It is possible to add corrections to be performed.
  • the learning result verification unit 93 reads a personalization function that is a learning result stored in the learning result storage unit 92 when the driving is finished, and the like, and sends it to the external verification device 13 via a network represented by the Internet. Supply, request verification of personalization function and get verification result.
  • the verification device 13 is a device realized by, for example, cloud computing.
  • the verification device 13 acquires the personalization function and virtually performs the personalization function by simulation.
  • safety is verified and the verification result is supplied to the driving control device 11.
  • the verification device 13 adds a correction by a personalization function to a command virtually determined by the automatic operation control unit 53 and repeats a simulation when the vehicle body operation unit 33 is operated for a predetermined time.
  • the automatic driving at the time of using the personalization function is reproduced, the driving information at this time is recorded as the verification result, and supplied to the driving control device 11.
  • the detailed configuration of the verification device 13 will be described later with reference to FIG.
  • the verification result determination unit 94 acquires the verification result, which is a simulation result using a personalization function, from the verification device 13, for example, an assumed crisis avoidance action is sufficiently taken during the simulation, and an accident or the like occurs. It is verified whether or not the safety of the personalization function is assured depending on whether or not it is done. Then, the verification result determination unit 94 determines the verification result of the verification device 13 and supplies the determination result to the personalization function update unit 95.
  • the personalization function update unit 95 stores the determination result for the verification result in the learning result storage unit 92 when it is considered that an accident or the like does not occur even if the command is corrected by the personalization function.
  • the stored personalization function that is secured by the verification device 13 is read out, and the personalization function stored in the personalization function storage unit 54 is updated.
  • the user's preference is reflected and various commands for the vehicle body operation unit 33 are corrected by a personalization function that ensures safety, thereby realizing the driving control processing in the automatic driving mode. Can be made. As a result, safe and comfortable automatic driving can be realized in the automatic driving mode.
  • the personalization function supplied to the verification device 13 has a problem in the verification result, the verification device 13 further receives data supplied when a problem occurs and feeds it back to the personalization function learning unit 91. May be used for re-learning.
  • the operation mode is set to either the automatic operation mode or the manual operation mode, but here it is assumed that the manual operation mode is set by default, and after the operation is started, It shall be switched to the automatic operation mode.
  • the default operation mode may be either an automatic operation mode or a manual operation mode, and may be set freely.
  • step S11 the manual operation control unit 32 determines whether or not the operation unit 31 has been operated to start operation, and the same processing is repeated until the operation is started. That is, in this case, for example, it is determined whether or not driving is started based on whether or not the operation unit 31 including a start button for starting the engine or enabling driving operation is operated. You may do it. If it is determined in step S11 that the operation has started, the process proceeds to step S12.
  • step S12 the manual operation control unit 32 authenticates the driver.
  • the manual operation control unit 32 displays on the display unit 35 a display image that prompts input of information for specifying the driver as shown in the left part of FIG.
  • the driver is identified according to the situation.
  • FIG. 3 An example of a display image displayed when it is assumed that the display unit 35 is a touch panel integrated with the operation unit 31 is shown.
  • the operation buttons 101-1 to 101-3 are displayed from the left below, and “Taro” and “Taro” as driver names registered in advance are respectively displayed at the corresponding positions. “Hanako” and “Jiro” are displayed.
  • the operation button 101-3 is operated to display a column 102 indicating that “Jiro” is selected. Therefore, in this case, the manual operation control unit 32 recognizes that the driver is “Jiro”.
  • a registration image may be separately displayed to prompt registration.
  • the driver may be specified by facial image authentication using a camera that captures the interior of the vehicle, or the driver can be specified by fingerprint authentication, palm authentication, vein authentication, retina authentication, and voiceprint authentication. Any other authentication method may be used.
  • step S13 the manual operation control unit 32 sets a user mode. That is, for example, the manual operation control unit 32 displays a user mode that is a personalization function mode set according to the driver's mood as shown in the right part of FIG. 3 and prompts the user to select one of them. An image is displayed, an operation input is received, and a user mode is specified according to the received operation content.
  • a user mode is specified according to the received operation content.
  • buttons 105-1 to 105-3 are displayed from the left. Is displayed, and “relaxing safety”, “balance”, and “milling behavior” are displayed as corresponding user modes at corresponding positions.
  • a column 106 is displayed indicating that the button 105-3 has been operated to select “milling behavior”. In such a case, the manual operation control unit 32 recognizes that the user mode is “milling behavior”.
  • the user mode may also be set by means other than the touch panel.
  • the user mode may be set by voice input or may be selected by a physical button or switch.
  • a new user mode may be set, and in this case, an image prompting registration of the new user mode may be displayed.
  • step S14 when the contemplation operation and the reflection operation compete in the automatic operation mode, the manual operation control unit 32 displays an image that prompts the user to set a solution mode for resolving the conflict, and the set solution mode Is stored in the automatic operation control unit 53.
  • the first solution mode that prioritizes either the contemplation operation or the reflection operation, the first-come-first-serve priority, or the second solution mode that replaces the later-arrival, the third first that prioritizes the one with higher priority or certainty
  • the solution mode the fourth solution mode in which both are weighted average or majority vote, the fifth solution mode in which both sides are added to the input and recalculated on both sides, the command itself takes precedence Eight types of solutions, the sixth solution mode that gives priority to the degree, and the seventh solution mode that stops either without stopping or continues the current situation, or the eighth mode that accepts driver intervention and solves it Which mode is to be selected, and any of the resolution modes, if any, are set.
  • this processing is performed in any of the first to eighth resolution modes, and in each resolution mode, a resolution mode in which options exist.
  • a resolution mode in which options exist.
  • an image provided with a selection button for selecting one of them may be displayed, and the resolution mode pressed for either may be set.
  • a selection button that can always select the solution mode physically may be provided on the operation unit 31, or may always be fixedly set to one of the solution modes.
  • the solution mode in which options exist is, for example, the first solution mode. That is, since the first solution mode is a mode that prioritizes either the contemplation operation or the reflection operation, the item that should be prioritized for either the contemplation operation or the reflection operation is an option. For this reason, when the first solution mode is selected, it is also necessary to set either a contemplation operation or a reflection operation option. Accordingly, in the solution modes other than the fifth, sixth, and eighth modes, it is necessary to set options as well.
  • step S14 the solution mode selection process in step S14 is not necessarily required once it has been set, so it should be executed only when a request is received from the driver. Also good.
  • any resolution mode may be set as a default. Further, in the case where a physical button is provided, the setting may be changed immediately at any timing when the physical button is operated.
  • step S15 the manual operation control unit 32 determines whether or not the operation mode is the automatic operation mode.
  • the operation mode which is either the automatic operation mode or the manual operation mode, is switched by, for example, a state in which a changeover switch (not shown) or the like is always displayed on the display unit 35 and the changeover switch is operated. It may be determined whether or not the operation mode has been switched based on whether or not an operation has been performed.
  • step S15 for example, when it is determined that the switching operation is performed and the automatic operation mode is changed from the default manual operation mode, the process proceeds to step S16, and the automatic operation process is executed.
  • the control subject is switched from the manual operation control unit 32 to the automatic operation control unit 53, and the automatic operation control unit 53 executes the automatic operation process.
  • step S15 when the default is not the automatic operation mode but the manual operation mode, the process proceeds to step S17, and the manual operation process is executed.
  • the control subject remains the manual operation control unit 32 and executes manual operation processing.
  • step S17 when the process so far is the automatic operation process, when the process is switched to the manual operation mode by the process of step S15, the process is executed in step S17. In this case, the control subject is switched from the automatic operation control unit 53 to the manual operation control unit 32, and the manual operation process is executed.
  • the control subject is the manual operation control unit 32.
  • the control subject is the automatic operation control unit 53, and the process described in the flowchart of FIG. 2 executes the same process as the manual operation control unit 32. Shall. Details of the automatic operation process and the manual operation process will be described later.
  • step S18 the manual operation control unit 32 determines whether or not the operation unit 31 is operated and an operation for ending the operation is performed. In step S18, when the operation for terminating the operation is not performed, the process proceeds to step S19.
  • step S19 the manual operation control unit 32 determines whether or not the driver has changed. For example, the manual operation control unit 32 determines whether or not the operation unit 31 has been operated to perform an operation for applying for a driver change. In step S19, for example, when the driver is changed, the process returns to step S12. That is, the driver authentication process, the user mode setting, and the solution mode setting are performed for the changed driver by the processes in steps S12 to S14, and the subsequent processes are executed.
  • step S19 if there is no driver change in step S19, the process returns to step S15. That is, the processes in steps S12 to S14 are skipped.
  • step S18 If it is determined in step S18 that the operation has been completed, the process proceeds to step S20.
  • step S20 the personalization block 22 executes a personalization function update process, verifies the personalization function learned by manual operation, and updates the personalization function according to the verification result.
  • the details of the personalization function update process will be described later.
  • step S31 the detection unit 34 supplies all of the plurality of detection results detected by the various sensor groups to the automatic operation control block 21 and the personalization block 22.
  • step S32 the reflection operation determining unit 51 determines the reflection operation based on the detection result (or a partial result of the detection result).
  • step S ⁇ b> 33 the reflection operation determination unit 51 belongs to the authenticated driver among the personalization functions stored in the personalization function storage unit 54, and corresponds to the currently set user mode.
  • the read function is read, and the action determined as the reflection action is corrected by the read personalization function.
  • step S34 the pondering action determination unit 52 executes a pondering action determination process to determine the pondering action.
  • step S 51 the environment recognition unit 71 extracts environment information based on the detection result supplied from the detection unit 34 and supplies the environment information to the local map processing unit 72.
  • step S52 the local map processing unit 72 extracts local information composed of information around the vehicle from the environment information and supplies the local information to the action planning unit 75.
  • the local map processing unit 72 supplies environment information to the global map processing unit 73.
  • step S53 the global map processing unit 73 extracts global information including map information around the route on which the vehicle will travel, traffic information on the route, and the like from the environment information, and supplies the extracted information to the route planning unit 74.
  • step S54 the route planning unit 74 plans the travel route of the host vehicle based on the global information supplied from the global map processing unit 73, and supplies the route to the action planning unit 75 as a route plan. That is, for example, the route planning unit 74 searches for a route from the current position to the destination based on traffic information, and if there is a traffic jam on the route, the route planning unit 74 avoids the traffic jam and finds a route that reaches the destination. Plan your route by searching.
  • step S55 the action plan unit 75 plans an action for operating the vehicle body operation unit 33 based on the local information and the route plan, sets the plan result as a contemplation operation, and sends a corresponding command to the automatic operation control unit 53.
  • the action planning unit 75 for example, makes a right turn based on the detailed information on the shape of the road, the information on the lane being traveled, and the information on the route obtained from the global information. If it is necessary to change the lane based on the relationship between the route to make a left turn and the current driving lane, the steering angle, brake timing, accelerator opening, etc. for changing the lane are determined as pondering actions.
  • the command is supplied to the automatic operation control unit 53.
  • the environment information is obtained from the detection result
  • the local information and the global information are obtained from the environment information
  • the route is set from the global information
  • the contemplation operation is obtained from the set route and the local information.
  • step S35 the action planning unit 75 of the pondering action determination unit 52 is an authenticated driver among the personalization functions stored in the personalization function storage unit 54, and is the currently set user.
  • the personalization function corresponding to the mode is read, and the action determined as the contemplation action is corrected with the read personalization function.
  • step S36 the automatic operation control unit 53 determines whether or not the contemplation operation and the reflection operation do not match and a conflict has occurred. If it is determined in step S34 that a conflict has occurred, the process proceeds to step S35.
  • step S ⁇ b> 37 the automatic operation control unit 53 executes the conflict resolution process to resolve the conflict between the contemplation operation and the reflection operation, determines the operation to be performed by the vehicle body operation unit 33, and determines the determined operation. A corresponding command is supplied to the vehicle body operation unit 33.
  • the contention resolution process will be described later in detail with reference to FIGS.
  • step S36 If it is determined in step S36 that no conflict has occurred, the process of step S37 is skipped.
  • step S38 the automatic operation control unit 53 supplies a command corresponding to an operation to be executed by the vehicle body operation unit 33 to the vehicle operation unit 33. That is, when the reflection operation and the pondering operation match, the automatic operation control unit 53 supplies a command corresponding to the matched operation to the vehicle body operation unit 33, and the reflection operation and the pondering operation do not match and compete. In this case, a command corresponding to the operation determined by the conflict resolution process is supplied to the vehicle body operation unit 33. As a result, the vehicle body operation unit 33 operates in accordance with a command from the automatic operation control unit 53.
  • each of the reflection operation and the contemplation operation is corrected by the personalization function learned when the driver is driving in the manual operation mode, so that the driving of the authenticated driver can be performed. It is possible to achieve an operation that reflects habits and habits, and it is possible to realize safe automatic driving and comfortable automatic driving for each driver.
  • the processing related to the reflection operation and the processing related to the contemplation operation described above are the reflection operation determination configured in parallel between the detection unit 34 and the automatic operation control unit 53, as is apparent from the block diagram of FIG. This process is performed by the unit 51 and the contemplation operation determination unit 52. Therefore, the processing related to the reflection operation and the processing related to the contemplation operation are actually processing performed in parallel, that is, simultaneously.
  • processing related to the reflection operation is performed first, and then processing related to the contemplation operation is performed, but this is a result expressed for convenience in one flowchart, As a matter of course, it may be expressed so that the process related to the contemplation operation is performed first and the process related to the reflection operation is performed thereafter.
  • the process related to the reflection operation and the process related to the contemplation operation may be expressed as individual flowcharts that are simultaneously processed in parallel.
  • the process after step S36 in FIG. 4 is a process performed after both the process related to the reflection operation and the process related to the contemplation operation are completed.
  • step S71 the automatic driving control unit 53 displays information on the display unit 35 indicating that the contemplation operation and the reflection operation do not coincide with each other, and contemplates the driver. Presents that there is a conflict between the reflex action and the reflex action.
  • the automatic operation control unit 53 indicates that a competition has occurred in the instrument panel 111 of the automobile on which the operation control device 11 is mounted, corresponding to the display unit 35.
  • a mark 124 is displayed.
  • the speedometer 121, the tachometer 122, and the fuel meter 123 are displayed from the left as meters indicated by disk-shaped needles, and a mark indicating that a conflict has occurred.
  • the 124 is displayed as a mark composed of arrows in three directions on the upper left portion of the fuel meter 123.
  • the driver can recognize that the contemplation operation and the reflection operation do not match and are competing. If necessary, the driver can switch to manual operation mode and detect the possibility of driving manually. It is possible to suppress the operation.
  • the mark 124 is displayed and presented to the driver is shown.
  • the occurrence of the conflict may be presented by other methods.
  • the occurrence of competition may be presented by vibrating a voice or a sheet.
  • step S72 the automatic operation control unit 53 determines whether or not the solution mode when the conflict occurs is a solution mode in which either the contemplation operation or the reflection operation is preferentially selected. For example, when it is determined in step S72 that the solution mode is selected with priority given to either the contemplation operation or the reflection operation, the process proceeds to step S73.
  • step S73 the automatic operation control unit 53 determines which one of the contemplation operation or the reflection operation is set out of the preset solution modes, and the process proceeds to step S85 (FIG. 7).
  • the reflection operation is an action that follows the front car while maintaining the lane that is currently running, and the contemplation operation considers the route to the destination and avoids construction and traffic jams. It is assumed that the operation corresponds to the result of searching for a simple route.
  • the route searched for as a route that avoids construction traffic as a pondering operation is run. Priority will be given to such operations. As a result, the route of the automobile can be guided to a detour that avoids traffic jams, and the required time can be shortened.
  • the reflection operation detects an obstacle of a certain size or more with the forward millimeter wave radar
  • the operation is an emergency brake operation
  • the contemplation operation is a constant speed operation in the lane according to the surrounding environment. It is assumed that the operation is to realize
  • the reflection operation when the reflection operation is set to be prioritized, if there is a sudden jump on the road, an accident can be avoided with a very short operation by the reflection operation.
  • step S72 If it is determined in step S72 that either the contemplation operation or the reflection operation is not the preferentially selected solution mode, the process proceeds to step S74.
  • step S74 the automatic operation control unit 53 determines whether or not the solution mode when a conflict occurs is a solution mode in which either first-come-first-served or late-arrival replacement is selected. In step S74, for example, when it is determined that the solution mode is selected in which either first-come-first-served or late-arrival replacement is selected, the process proceeds to step S75.
  • step S75 the automatic operation control unit 53 determines the operation set in the method set in either the first-come-first-served or the second-arrival replacement among the preset solution modes as the determining operation, Proceed to S85 (FIG. 7).
  • Execution time is specified explicitly or implicitly (4ms, etc.) for the commands that indicate each of the reflection operation and reflection operation. Normally, the commands arrived in the order of arrival. The information is accumulated in the list and executed in order from the top of the list, and as a result, the operation is determined with the first priority. This realizes accelerator, steering control, predictive driving, etc. in a fixed time loop. Therefore, when first-come-first-served is set, the operation is determined by general processing.
  • each control module issues commands in a timely manner according to changes in the situation such as interrupts, and does nothing if the previous behavior is not changed.
  • the command that represents the previous action is rewritten with the last-arrived command, and the action is immediately switched to the action represented by the last-arrived command, thereby realizing a sharp action. It becomes possible. Therefore, in this case, whether the operation is a reflection operation or a contemplation operation is not a factor that determines the operation, and in any case, the command of the current operation is rewritten by the command of the later operation. It will be.
  • step S74 determines whether the solution mode is one of first-come-first-served or late-arrival replacement.
  • step S76 the automatic operation control unit 53 determines whether or not the solution mode when the conflict occurs is a solution mode in which a higher priority or certainty factor is selected. In step S76, for example, when it is determined that the solution mode is selected with the higher priority or certainty, the process proceeds to step S77.
  • step S77 the automatic operation control unit 53 determines the operation in which the higher priority or certainty among the preset solution modes is selected as the determining operation, and the process proceeds to step S85 (FIG. 7).
  • Commands that indicate various actions such as contemplation and reflection operations that are issued urgently according to changes in the status of interrupts, etc. have a high priority flag, and correspond to commands accumulated in the list and commands currently being executed
  • the automatic operation control unit 53 replaces it with a new one (emergency brake or the like) even after canceling. Therefore, in this case, the determined operation may be a reflection operation or a contemplation operation.
  • the priority of the reflection operation and the contemplation operation may be selected according to the reliability of the information recognized as the environmental information without giving priority.
  • the reflection operation and the contemplation operation are respectively an operation for increasing the speed and an operation for decreasing the speed.
  • the operation for increasing the speed is determined, and when the reliability of the environmental information is high such that there is an obstacle ahead, the speed is increased.
  • the operation of dropping the image may be determined.
  • the reflection operation and the contemplation operation are an operation of overtaking a front vehicle that is ahead and moves in the same direction as itself, and an operation of following a front vehicle that moves in the same direction as itself.
  • the reliability of the environmental information that the preceding vehicle moving in the same direction as the vehicle ahead is a bicycle
  • the operation of overtaking the bicycle is the decision operation, and the vehicle moves in the same direction as itself.
  • the action of following the car may be determined.
  • the determined operation may be a reflection operation or a contemplation operation.
  • step S76 when it is determined that the solution mode is not the solution mode in which the higher priority or certainty is selected, the process proceeds to step S78.
  • step S78 the automatic operation control unit 53 determines whether or not the solution mode when the conflict occurs is a solution mode in which an operation is determined by either weighted average or majority decision.
  • step S78 for example, when it is determined that the mode is the resolution mode in which the operation is determined by either weighted average or majority decision, the process proceeds to step S79.
  • step S79 the automatic operation control unit 53 sets the operation determined by either the weighted average or the majority decision among the preset solution modes as the determining operation, and the process proceeds to step S85 (FIG. 7). move on.
  • the action is determined by the weighted average using the respective certainty factors. May be.
  • the reflection operation determination unit 51 and the contemplation operation determination unit 52 both determine a plurality of operations for a plurality of various devices constituting the vehicle body operation unit 33, and there is contention.
  • the generated operations are also a plurality of operations for a plurality of various devices. For example, when an emergency stop is performed to avoid a collision with an obstacle existing ahead, each of the brake and the steering, such as an operation of applying a brake and an operation of taking an avoidance action by steering The operation is determined. Therefore, in the case of a two-choice discrete operation where the emergency brake is applied or not applied, the operation may be determined by majority using these plural operations.
  • step S78 when it is determined that the solution mode is not determined by either weighted average or majority decision, the process proceeds to step S80.
  • step S80 the automatic operation control unit 53 determines whether or not the solution mode when the conflict occurs is a solution mode in which the operation is determined using the mutual results of the reflection operation and the contemplation operation. In step S80, for example, when it is determined that the mode is a solution mode in which the operation is determined using the mutual results of the reflection operation and the contemplation operation, the process proceeds to step S81.
  • step S81 the automatic operation control unit 53 sets the operation determined using the mutual results of the reflection operation and the contemplation operation as the determination operation, and the process proceeds to step S85 (FIG. 7).
  • the reflection operation and the contemplation operation are operations obtained individually, but when there is a discrepancy between the judgments of the two, the automatic operation control unit 53, for example, the reflection operation determination unit 51 and the contemplation operation determination unit 52 Are controlled so that the mutual operations are recalculated by using the result obtained by the mutual processing as a reference value so that the two operations are matched.
  • the automatic operation control unit 53 controls, for example, the reflection operation determination unit 51 and the contemplation operation determination unit 52 and repeats recalculation for obtaining the reflection operation and the contemplation operation until a predetermined number of repetitions is reached. , Match both actions.
  • step S80 If it is determined in step S80 that the mode is not the solution mode in which the operation is determined using the mutual results of the reflection operation and the contemplation operation, the process proceeds to step S82.
  • step S82 the automatic operation control unit 53 determines whether or not the solution mode when the conflict occurs is a solution mode in which the operation is determined according to the priority of the command instructing the operation of the reflection operation and the contemplation operation. judge.
  • step S82 for example, when it is determined that the mode is a resolution mode in which the operation is determined according to the priority of the command instructing the operation of the reflection operation and the contemplation operation, the process proceeds to step S83.
  • step S83 the automatic operation control unit 53 sets the operation determined according to the priority of the command instructing the operation of the reflection operation and the contemplation operation as the determination operation, and the process proceeds to step S85 (FIG. 7).
  • a command such as an emergency brake is defined in advance and it is set as either a reflection operation or a contemplation operation, it is handled with the highest priority regardless of the reflection operation and the contemplation operation.
  • commands other than emergency commands may have superiority or inferiority relationships, and when operations compete, the operations may be determined according to the priority of the commands.
  • the superiority or inferiority of the command may be set in advance in the order of, for example, stop> straight forward in lane> lane departure> back.
  • step S82 If it is determined in step S82 that the mode is not the resolution mode in which the operation is determined according to the priority of the command instructing the operation of the reflection operation and the contemplation operation, the process proceeds to step S84.
  • step S84 the automatic driving control unit 53 executes a driver intervention process, resolves the conflict by intervening the operation of the driver, and determines the operation. In other words, in this case, it is regarded as a solution mode in which driver intervention is accepted and resolved.
  • step S101 the automatic operation control unit 53 controls the display unit 35 to display each of the conflicting reflection operation and contemplation operation as a solution candidate, and an image that prompts the solution of the conflict by selecting one of them. indicate.
  • the conflicting operation is set as the solution candidate column 131, and “a) lane keeping” and “b) right lane. "Change to” is displayed. “A) Keep lane” and “b) Change to right lane” in the solution candidate column 131 can be selected by touching each with a touch panel.
  • step S102 the automatic operation control unit 53 determines whether or not any of the solution candidates has been selected by operating the operation unit 31.
  • step S102 for example, when either “a) lane keeping” or “b) change to right lane” is selected in the solution candidate column 131 shown in FIG. 10, the process proceeds to step S103.
  • step S103 the automatic operation control unit 53 sets the operation of the selected solution candidate among the solution candidates displayed in the solution candidate column 131 as the determining operation.
  • step S102 if no solution candidate in the solution candidate column 131 is selected in step S102, the process proceeds to step S104.
  • step S104 the automatic operation control unit 53 determines whether the operation unit 31 is operated and the automatic operation mode is released.
  • step S104 for example, an operation corresponding to an intention display that is expected to cancel the automatic operation mode is detected when a changeover switch or button displayed on the display unit 35 is operated or a brake pedal or an accelerator pedal is depressed. Then, it is considered that the cancellation of the automatic operation mode is requested, and the process proceeds to step S105.
  • step S105 the automatic operation control unit 53 ends the automatic operation mode and switches to the manual operation mode. Through this process, the manual operation control unit 32 subsequently executes the manual operation process.
  • step S104 determines whether the cancellation of the automatic operation mode is not requested. If it is determined in step S104 that the cancellation of the automatic operation mode is not requested, the process proceeds to step S106.
  • step S106 the automatic operation control unit 53 determines whether or not a predetermined time has elapsed since the occurrence of the competition. If it is determined in step S106 that the predetermined time has not elapsed, the process returns to step S101, and the processes in steps S101 to S106 are repeated until the predetermined time has elapsed. If it is determined in step S106 that the predetermined time has elapsed, the process proceeds to step S107.
  • step S ⁇ b> 107 the automatic operation control unit 53 stops the traveling of the automobile, or regards the operation for continuing the current state as the resolution mode for determining, and stops the operation or continues the current state. Is determined. In this case, it is regarded as a solution mode in which either the reflection operation or the contemplation operation is stopped without being performed or the current state is continued.
  • the set operation is determined.
  • the driver is intervened (either operation is determined, or the automatic operation mode is canceled to enter the manual operation mode, It is possible to determine the operation by setting the driver to the driving state. Further, when there is no intervention by the driver, the stop operation or the current operation is continued, and it is possible to stop safely or to promote the manual operation by the driver. .
  • the operation is determined by one of the preset solution modes, and the automatic operation mode can be continued.
  • the conflict cannot be resolved in the automatic driving mode, it is possible to prompt the driver to intervene as necessary.
  • step S85 the automatic operation control unit 53 determines whether or not the repeated stop operation is selected as the determining operation within a predetermined time. For example, the repeated stop operation is selected as the determining operation within the predetermined time. If it is determined that the process has been performed, the process proceeds to step S86.
  • step S86 the automatic operation control unit 53 displays an interface (slide bar IF) image including a slide bar for adjusting a threshold value and a parameter for controlling the safety factor necessary for determining the reflection operation and the contemplation operation. Displaying on the display unit 35 prompts adjustment of a parameter for controlling the threshold value and the safety factor. That is, the automatic operation control unit 53 displays an image including a slide bar IF as shown in FIG. 11, for example, and urges adjustment of parameters for controlling the threshold value and the safety factor by adjusting the slide bar. In FIG. 11, a mark 151 indicating that a conflict has occurred is displayed below the tachometer 122, and further below that, parameters for controlling threshold values and safety factors related to the contemplation operation and the reflection operation are displayed.
  • a gauge 141 for expressing with a continuous variable and a slide bar 142 for setting a parameter for controlling the threshold value and the safety factor are displayed.
  • the slide bar 142 is moved in the left-right direction in the figure by a touch panel operation, thereby setting a threshold value and a parameter for controlling the safety factor according to the position with respect to the gauge 141.
  • parameters for controlling the threshold value and the safety factor are set using the slide bar IF.
  • other parameters can be set if they can be set using the slide bar IF.
  • the weight added to each operation is set when determining the operation with the weighted average. You may be able to do it.
  • step S87 the automatic operation control unit 53 determines whether or not the slide bar 142 has been operated left and right, and repeats the same processing until it is assumed that the slide bar 142 has been operated. When the slide bar 142 is operated, the process proceeds to step S88.
  • step S88 the automatic operation control unit 53 obtains an operation that is a weighted average of the pondering operation and the reflection operation in accordance with the weight set by the slide bar 142, and determines the operation that is the weighted average as a determining operation. .
  • step S85 If it is determined in step S85 that the repeated stop operation is not determined within a predetermined time, the processes in steps S86 to S88 are skipped.
  • the situation in which the stop operation is repeatedly selected as the decision operation within a predetermined time may be, for example, an operation for passing the oncoming vehicle on a narrow road.
  • the pondering operation determines the direction to go with reference to the global map information, the reflection operation observes the surrounding situation, and the space width around the vehicle body is set as (vehicle width + margin ⁇ ) If it is less than the width, the stop operation is determined as the decision operation.
  • the driver does not directly control the behavior of the vehicle using the accelerator or the steering wheel, but controls the vehicle by adjusting the abstracted adjustment parameters using the slide bar 142. Is possible.
  • the adjustment can be made easier by decelerating the speed of the automobile in response to the adjustment value consisting of the weight set by the slide bar 142 deviating from the standard value.
  • a first value that seems to have almost no margin and a second value that has a margin as a margin are set. Then, the first reflection operation and the second reflection operation, the first reflection operation, and the second reflection operation are obtained for each.
  • the operation is determined based on each of the first reflection operation, the second reflection operation, the first contemplation operation, and the second contemplation operation so as to reduce competition. can do.
  • the reflection operation and the contemplation operation are determined to be either an operation of moving forward or an operation of stopping, the first reflection operation, the second reflection operation, and the first contemplation operation, and the determining operation is determined according to the combination of the second pondering operations.
  • the combination of the first reflection operation / second reflection operation is shown in the vertical direction, and the combination of the first reflection operation / second reflection operation is shown in the horizontal direction.
  • the mark that allows the forward movement as the determination action by the combination of the first reflection action / second reflection action and the first reflection action / second reflection action is “G”, and the forward movement is not allowed.
  • the mark for the stop operation is “N”.
  • the first reflection operation with the small margin and the first contemplation are considered.
  • the first reflection movement is the stop movement
  • the second reflection movement is the forward movement (N / G) and the first pondering operation / second pondering operation both recognize the forward movement (G / G), or the first pondering operation is a stop operation
  • the forward operation ( G) is the decision operation.
  • the first reflection operation with a small margin among the first reflection operation / second reflection operation and the combination of the first reflection operation / second reflection operation, and the first reflection operation When the pondering operation is a stop operation (N / X: X may be N or G), the first reflection operation is a forward operation, but the second reflection operation is a stop operation (G / N ) And the first pondering operation / second pondering operation recognizes a stop operation (N / N), or the first pondering operation is a forward operation, When the second contemplation operation is a stop operation (G / N), and the first reflection operation / second reflection operation are both stop operations (N / N), the stop operation (N) is It is a decision operation.
  • the combination of the first reflection operation / second reflection operation and the first contemplation operation / second contemplation operation is a forward operation (G / G), and both When it is a stop operation (N / N) (triangle mark in the figure), it becomes the first competitive state, and is a combination of the forward operation and the stop operation, and the stop action and the forward operation (square mark in the figure). ) When a second race condition occurs.
  • the result is a match between the reflection operation and the contemplation operation. Therefore, the stop operation is performed, and in the second competitive state, the results are mutually contradictory.
  • the race may be resolved by intervening the driver.
  • the seven types of conflict resolution modes described above may be switched and set in each of the first conflict state and the second conflict state in FIG.
  • the reflection operation and the contemplation operation determine a plurality of operations with different margins, and the operations are determined by a plurality of operation patterns, so that the occurrence of competition can be reduced. It becomes possible to make it smooth.
  • the automatic operation control unit 53 has been described with respect to the process of determining the operation by resolving the conflict in any of the eight preset resolution modes.
  • the conflict may be resolved by using a network such as the Internet or by an external server or a conflict resolution device separately realized by cloud computing.
  • the personalization function learning unit 91 in the personalization block 22 includes a learning model for learning the driver's personalization function specified by the authentication, and a storage destination DB (database) in the learning result storage unit 92. Is selected according to the driver and the user mode. In the case where the learning model and the storage destination DB are not registered in the learning result storage unit 92 in advance, the personalization function learning unit 91 belongs to the driver and should be personalized to be learned according to the user mode. Create a new function and storage DB.
  • step S122 the personalization function learning unit 91 acquires detection results detected by various sensors by the detection unit.
  • step S123 the personalization function learning unit 91 acquires operation information related to the driving operation of the driver based on the operation signal supplied from the operation unit 31. At this time, the manual operation control unit 32 also acquires a similar operation signal.
  • step S124 the personalization function learning unit 91 is a driver identified by authentication using the operation information acquired from the operation unit 31 and the detection result acquired from the detection unit 34, and the user mode at that time
  • the personalization function is learned by the learning model corresponding to the habits and habits.
  • step S125 the personalization function learning unit 91 stores the personalization function acquired by learning in the learning result storage unit 92 in association with the user mode at that time, which is the driver specified by the authentication. .
  • step S126 based on the operation information, the manual operation control unit 32 supplies a command for executing a corresponding operation to the vehicle body operation unit 33 configured by a device that functions various operations of the vehicle body.
  • the operation unit 33 is operated.
  • the personalization function is learned according to the user mode based on the operation information of the operation unit 31 operated by the driver and the detection result detected by the detection unit 34, and the learning result storage unit 92 stores the personalization function.
  • the manual operation control unit 32 supplies a command corresponding to the operation information to the vehicle body operation unit 33 to control the manual operation of the automobile.
  • the vehicle is stopped.
  • the vehicle travels in a predetermined lane, and smoothly decelerates and stops in accordance with the preceding vehicle or the white line stop line due to a red signal or the like.
  • the personalization function learning unit 91 extracts operation information corresponding to an operation in which the vehicle driven by the driver stops in the lane from the operation information constituting the driving operation history of the driver, and configures the set Xstop. .
  • the learning problem in this case is represented by a function represented by the following formula (2).
  • the function fstop (St) is a function obtained from the detection result relating to the operation that stops in the lane.
  • function approximation learning is performed on the history data Xstop including the operation information when stopping in the lane so that the output value of the machine expressed by the following equation (5) approaches the teacher signal ai. .
  • a learning device for example, a learning device called Deep Learning using a multi-layer feedforward neural network can be adopted.
  • Deep Learning a learning device called Deep Learning using a multi-layer feedforward neural network.
  • Machine Learning Professional Series Deep Learning see Machine Learning Professional Series Deep Learning (Takayuki Okaya, Kodansha Scientific).
  • any function approximator can be used.
  • the operation information at in the detection result St in a predetermined situation may be learned by reverse reinforcement learning using the driving operation of the driver as a teacher signal.
  • the data used for learning may be other than those described above, for example, information related to drivers, information related to passengers, information related to in-vehicle environment, information related to outside environment, and Information related to the driving plan of the car may be used.
  • the vital information of the driver heart rate, pulse, blood pressure, body temperature, blood glucose level, breath alcohol concentration, blood alcohol concentration, blood oxygen concentration, arousal level, concentration level
  • Emotion, emotion, brain wave, etc. driver's posture, line of sight, body motion information, etc.
  • one or more of information related to exercise or action state may be included.
  • the information related to passengers includes the number of people, age, gender, seat position, use of safety devices such as seat belts, and passenger vital information (heart rate, pulse, blood pressure, body temperature, blood sugar level, breath alcohol concentration). Blood alcohol concentration, blood oxygen concentration, arousal level, concentration level, emotion, emotion, brain wave, etc.) one of the passenger's posture, line of sight, body motion information, etc., or information related to exercise / behavioral state or Multiple may be included.
  • information related to the environment in the vehicle includes environmental measurements (temperature, humidity, air volume, vibration, noise, illuminance, oxygen concentration, etc.) in the vehicle (driver's seat, front passenger seat, etc.)
  • environmental measurements temperature, humidity, air volume, vibration, noise, illuminance, oxygen concentration, etc.
  • Onboard sensor data real-time information related to vehicle movement, vehicle position, direction of travel (and their measurement accuracy), vehicle speed, angular velocity, acceleration, angular acceleration (and their measurement accuracy), accelerator, Operation values related to braking and steering.
  • Operation information of blinkers, wipers, and other on-board equipment, operating status of safety devices such as ABS (Antilock Brake System), TCS (Traction Control System), LKAS (Lane Keep Assist System), ACC (Adaptive Cruise Control), and failures Related information or one or more of warning information and error information may be included.
  • ABS Antilock Brake System
  • TCS Traction Control System
  • LKAS Lane Keep Assist System
  • ACC Adaptive Cruise Control
  • failures Related information or one or more of warning information and error information may be included.
  • Information related to the environment outside the vehicle includes the position and traveling direction of nearby vehicles (including motorcycles), speed, angular velocity, acceleration, angular acceleration (and their measurement accuracy), and nearby vehicles ( Operation status of brake lights, winkers, hazard lights, etc. of motorcycles (including motorcycles), V2V (Vehicle To Vehicle) communication data from nearby vehicles (including motorcycles), positions of surrounding light vehicles and Direction of travel, velocity, angular velocity, acceleration, angular acceleration (and their measurement accuracy), the position and direction of the surrounding pedestrians, speed, angular velocity, acceleration, angular acceleration (and their measurement accuracy), surroundings, especially Information on traffic conditions in front of the vehicle, information on accidents and construction on the road on which the vehicle is traveling, lane closure, etc., V2X (Vehicle from surrounding pedestrians or vehicle infrastructure) To X (X: Everything)) communication data and the vehicle may include one or more information about the climate and weather local traveling.
  • information related to the driving plan of the car includes the departure place and departure time, the destination (multiple candidates) or the area to be driven, the current location and current time, and the departure place to the destination (candidate).
  • One or more of the traveling (planned) routes may be included.
  • the personalization function update process is generally executed after the driving control process is completed, but at any other timing if the driving control process is not performed. Is also good.
  • step S141 the learning result verification unit 93 reads out the personalization function stored in the learning result storage unit 92.
  • the learning result verification unit 93 reads out the personalization function stored in the learning result storage unit 92.
  • step S142 the learning result verification unit 93 supplies the read personalization function to the external verification device 13 via a network represented by the Internet or the like, and requests verification.
  • the verification device 13 executes the verification process to verify whether there is a problem in the operation such as the safety of the personalization function. The verification process will be described later in FIG.
  • step S143 the verification result determination unit 94 acquires the verification result from the verification device 13.
  • step S144 the verification result determination unit 94 determines whether or not the corrected operation can be realized in the virtual space by using the personalization function based on the verification result. In step S144, for example, when it is considered that the correct operation using the personalization function has realized a problem-free driving in the virtual space, the process proceeds to step S145.
  • step S145 the verification result determination unit 94 notifies the personalization function update unit 95 that the operation in which the command correction operation using the personalization function has no problem has been realized.
  • the personalization function update unit 95 is a personalization function stored in the learning result storage unit 92 and learned in a state without a problem, and stored in the personalization function storage unit 54. And updating the personalization function of the corresponding user mode.
  • step S144 for example, when it is determined that the operation for correcting the command by the personalization function has not realized a problem-free driving, the processing in step S145 is skipped and the personalization function is not updated.
  • step S145 when there are personalization functions for a plurality of drivers and personalization functions for which a plurality of user modes are set, verification processing is performed individually and updated according to individual verification results. .
  • a personalization function is obtained by learning individually for each driver and for each user mode of the driver, and further, verification processing is individually performed, and a personalization function is used for each.
  • the personalization function is updated when there is no problem in the automatic driving process by the correction operation to which the correction is applied.
  • the personalization functions such as network weights are updated to those after learning.
  • the “dictionary data” for calculating the operation information at for the detection result St is updated.
  • the calculation algorithm itself is changed, and the function that calculates the operation information at that becomes the output result with the detection result St as an input.
  • the execution code itself may be replaced.
  • the verification device 13 verifies the safety of the personalization function requested to be verified by the operation control device 11 by executing verification processing. More specifically, the verification device 13 virtually reproduces the driving by the simulation in the automatic driving mode and using the personalization function in the virtual space, with the vehicle equipped with the operation control device 11 described above. The safety of the personalization function is verified by confirming the occurrence of malfunctions such as accidents.
  • the verification device 13 includes a departure destination random setting unit 181, a route generation unit 182, a checkpoint position calculation unit 183, an action determination model calculation unit 184, a simulator 185, an event generation unit 186, and a state calculation unit 187.
  • the departure destination random setting unit 181 randomly sets a departure point and a destination in the virtual space, and supplies them to the route generation unit 182 and the state calculation unit 187.
  • the route generation unit 182 sets a route from the departure point and destination set by the departure destination random setting unit 181 and supplies the route to the checkpoint position calculation unit 183.
  • the check point position calculation unit 183 calculates the next check point on the generated route, and sets a target operation gt for the check point.
  • the check point here is a point at which a state is calculated and an action is determined on the route map shown in FIG. 16, for example.
  • the positions indicated by black dots on the route r set along the road R drawn on the map are the check points c1 to cn. Then, at each of the check points c1 to cn, a target gt for the next driving operation is set.
  • the sensor model noise model generation unit 188 constructs models of various sensors constituting the detection unit 34, generates a noise model in each sensor, and supplies the model to the state calculation unit 187.
  • the state calculation unit 187 is supplied from the travel position in the virtual space supplied from the simulator 185, event information such as a person jumping out or weather change supplied from the event generation unit 186, and the sensor model noise model generation unit 188. Based on the sensor model and noise model information, the detection result (observed value) that will be detected by the detection unit 34 is calculated as the state St.
  • the state St is a virtual detection result of the detection unit 34 mounted on the automobile on which the operation control device 11 is mounted and the personalization function is learned.
  • the detection result may be various other information, and by using various information, it becomes possible to contribute to “personalization” more. For example, it is possible to reflect changes in habits and habits related to driving on expressways and ordinary roads, day and night.
  • the action determination model calculation unit 184 receives the driving operation target gt at the checkpoint supplied from the checkpoint position calculation unit 183 and the state St supplied from the state calculation unit 187 from the verification unit 190.
  • the behavior determination model at is determined by using the supplied personalization function requested to be verified, and supplied to the simulator 185. This behavior determination model at corresponds to the driver's operation information described above.
  • the simulator 185 reproduces the travel (motion) of the vehicle on which the driving control device 11 is mounted in the virtual space based on the behavior determination model at supplied from the behavior determination model calculation unit 184, and the result is used as an event.
  • the data is supplied to the generation unit 186, the state calculation unit 187, and the recording unit 189.
  • the operation in the virtual space obtained by the simulator 185 is theoretically the operation itself of the automobile determined by the automatic driving control block 21.
  • the event generation unit 186 generates an event triggered by the operation result at the checkpoint, which is sequentially supplied from the simulator 185, and supplies the event to the state calculation unit 187 and the recording unit 189.
  • the recording unit 189 records the simulation result supplied from the simulator 185 and the various events supplied from the event generation unit 186 in association with each check point. That is, the recording unit 189 sequentially records the verification results of the automobile on which the operation control device 11 is mounted in the virtual space while the verification process is being executed.
  • the verification unit 190 receives the personalization function requested from the operation control device 11 via the network typified by the Internet, and supplies the received personalization function to the behavior determination model calculation unit 184. . In addition, the verification unit 190 reads the verification result recorded in the recording unit 189 and supplies the verification result to the operation control apparatus 11 in association with the personalization function requested to be verified.
  • step S161 the verification unit 190 determines whether or not the operation control device 11 has requested verification of the personalization function via the network, and repeats the same processing until it is requested. For example, if the verification is requested together with the personalization function by the process of step S142 in FIG. 14, the process proceeds to step S162.
  • step S162 the verification unit 190 acquires the transmitted personalization function and supplies it to the behavior determination model calculation unit 184.
  • step S163 the departure destination random setting unit 181 sets the departure point and the destination at random in the virtual space in the simulator 185, and supplies them to the route generation unit 182 and the state calculation unit 187.
  • step S164 the route generation unit 182 generates a route based on the starting point and destination set randomly by the starting point random setting unit 181 and supplies the generated route to the checkpoint position calculation unit 183.
  • step S165 the checkpoint position calculation unit 183 calculates the position of the next checkpoint on the route based on the supplied route, sets a target operation gt for the checkpoint, and determines the behavior determination model. It supplies to the calculation part 184.
  • step S166 the state calculation unit 187 sets a departure time and a departure place in the simulator 185.
  • step S167 the sensor model noise model generation unit 188 generates sensor model and noise model information, and supplies the information to the state calculation unit 187.
  • step S168 the state calculation unit 187 calculates the state St based on the current time, position, sensor model, and noise model information in the simulator 185, and supplies the state St to the behavior determination model calculation unit 184.
  • the state st is calculated in consideration of the generated event.
  • step S170 the simulator 185 executes a physical simulation based on the behavior determination model at, and supplies the execution result to the event generation unit 186, the state calculation unit 187, and the recording unit 189. That is, the simulator 185 reproduces the traveling state when the driving operation specified by the behavior determination model at is applied to the automobile on which the driving control device 11 is mounted in the virtual space.
  • step S171 the event generation unit 186 generates an event corresponding to the behavior of the vehicle on which the driving control device 11 is mounted in the virtual space supplied from the simulator 185, and the state calculation unit 187 and the recording unit 189 Supply.
  • step S172 the recording unit 189 records the event generated by the event generation unit 186 and the physical simulation result of the simulator 185 in association with the checkpoint.
  • step S173 the verification unit 190 determines whether the verification is finished. The end of the verification process is set according to the time for which the simulation is continued, or set at the timing when the vehicle arrives at the destination. If it is determined in step S173 that the process is not ended, the process proceeds to step S174.
  • step S174 the check point position calculation unit 183 calculates the position of the next check point, sets a target operation gt of the driving operation at the check point, and supplies it to the action determination model calculation unit 184. The process returns to step S167.
  • steps S167 to S174 are repeated until the verification process is completed.
  • step S173 If it is determined in step S173 that the verification has been completed, the process proceeds to step S175.
  • step S175 the verification unit 190 generates a verification result based on the simulation result recorded in the recording unit 189.
  • step S176 the verification unit 190 supplies the generated verification result to the operation control apparatus 11.
  • target gt and state St of the driving operation are “highway driving”, “general road (lane) driving”, “intersection passing”, “stop / deceleration”, “non-lane area driving (parking) Automobile operation modes such as “parking lots, etc.”, “during U-turn”, and “during shoulder parking” may be added, which may facilitate learning of the personalization function.
  • the verification device 13 is configured as an external device via a network typified by the Internet.
  • the operation control device 11 is provided by strengthening hardware functions. You may do it.
  • the verification unit 201 has the same basic functions as the verification unit 190, but if the verification result is a personalized function with a problem in the verification result, the verification unit 201 operates the failure data and the correct answer data in addition to the verification result. This is supplied to the control device 11.
  • the driving control device 11 of FIG. 19 is different from the driving control device 11 of FIG. 1 in that the personalization function learning unit 91 and the learning result verification unit 93 are replaced with the personalization function learning unit 91 and the learning result.
  • the verification unit 212 is provided.
  • the learning result verification unit 212 basically has the same function as the learning result verification unit 93, but further receives the verification result, failure data, and correct data transmitted from the verification device 13 of FIG. At this time, when the verification result indicating that there is a problem in the personalization function requested for verification is transmitted, the learning result verification unit 212 receives the failure data and the correct answer data transmitted together with the failure data. The correct answer data is fed back to the personalization function learning unit 211.
  • the personalization function learning unit 211 basically has the same function as that of the personalization function learning unit 91. However, when failure data and correct answer data are acquired from the learning result verification unit 212, this is used for subsequent function learning. Use.
  • step S216 the verification unit 201 determines whether or not the verification result has no problem. If there is a problem with the verification result, the process proceeds to step S218.
  • step S218 the verification unit 201 supplies failure data and correct data together with the verification result to the operation control apparatus 11.
  • step S243 the learning result verification unit 212 acquires failure data and correct answer data together with the verification result.
  • step S244 If there is a problem with the personalization function in step S244, the process proceeds to step S246.
  • step S246 the learning result verification unit 212 supplies the failure data and the correct answer data to the personalization function learning unit 211 for feedback.
  • the learning result verification unit 212 can learn using the failure data and the correct answer data, so that it is possible to realize relearning.
  • correct data is not essential.
  • Second Modification >> In the above, the example of the verification device 13 that transmits the failure data and the correct answer data to the operation control device 11 in addition to the verification result has been described. However, when there is a problem with the personalization function, the verification device 13 performs the simulation You may make it easy to update the personalization function by returning the personalization function that has been retrained and corrected to the operation control device 11 as the correction function. By doing in this way, in the operation control apparatus 11, even if the perfect personalization function cannot be completed in learning, it becomes possible to receive the correction function and realize the update at an early stage.
  • the verification device 13 in FIG. 22 is different from the verification device 13 in FIG. 18 in that a verification unit 221 is provided instead of the verification unit 201.
  • the basic function of the verification unit 221 is the same as that of the verification unit 201. Further, if the verification result is a personalized function having a problem in the verification result, the personalization function is retrained (relearned) to obtain a correction function. The failure data, the correct answer data, and the correction function are generated and supplied to the operation control device 11 in addition to the verification result. At this time, the verification unit 221 performs verification processing on the correction function in the same manner as the method that verified the personalization function, and transmits the verification result to the operation control apparatus 11. Therefore, in this case, the verification unit 221 transmits the failure data and the correct answer data to the operation control device 11 together with the two types of verification results of the personalization function requested for verification and the correction function.
  • the personalization function learning unit 211 differs from the operation control device 11 of FIG. 19 in that the personalization function learning unit 211, the learning result verification unit 212, the verification result determination unit 94, and the personalization function update unit 95 are different. Instead, a personalization function learning unit 231, a learning result verification unit 232, a verification result determination unit 233, and a personalization function update unit 234 are provided.
  • the learning result verification unit 232 basically has the same function as that of the learning result verification unit 212, but further includes the verification result, failure data, correct data, and correction function transmitted from the verification device 13 of FIG. Receive. At this time, when the verification result indicating that there is a problem in the personalization function requested to be verified is transmitted, the learning result verification unit 232 receives the failure data and the correct answer data and the correction function transmitted together. Then, the failure data, the correct answer data, and the correction function are fed back to the personalization function learning unit 231.
  • the personalization function learning unit 231 basically has the same function as the personalization function learning unit 211. However, when the failure data, the correct answer data, and the correction function are acquired from the learning result verification unit 232, the following function is obtained. Use this for learning.
  • the basic function of the verification result determination unit 233 is the same as that of the verification result determination unit 94. However, when the correction function is also transmitted, the personalization function is based on the correction function verification result. If there is no problem in the verification result, the personalization function is updated with the correction function.
  • the personalization function update unit 234 basically has the same function as the personalization function update unit 95. However, if there is no problem in the verification result of the correction function, the personalization function update unit 234 stores the personalization function as a correction function. The corresponding personalization function stored in the unit 54 is updated.
  • step S276 the verification unit 221 determines whether the verification result has no problem. If there is a problem with the verification result, the process proceeds to step S278.
  • step S278 the verification unit 221 corrects by retraining (relearning) the personalization function, generates a correction function, and further verifies it.
  • step S279 the verification unit 190 supplies failure data and the correction function to the operation control apparatus 11 together with the verification result of the correction function.
  • correction function may not necessarily reach a level at which safety is confirmed, depending on the amount of learning. However, since the learning required until the correction function is completed is completed to some extent, it is possible to improve the learning efficiency by learning using this.
  • step S303 the learning result verification unit 232 acquires failure data and a correction function together with the verification result.
  • step S304 If there is a problem with the personalization function by the verification result determination unit 233 in step S304, the process proceeds to step S306.
  • step S306 the verification result determination unit 233 determines whether there is a problem in the correction function. If it is determined in step S306 that there is a problem, the process proceeds to step S307.
  • step S307 the learning result verification unit 232 supplies the failure data and the correction function to the personalization function learning unit 231 and feeds it back.
  • This process enables re-learning, and further, since learning has progressed to some extent, it is possible to improve learning efficiency.
  • step S306 the process proceeds to step S305. That is, in this case, in step S305, the personalization function update unit 234 updates the personalization function stored in the personalization function storage unit 54 with the received correction function.
  • the correction function is obtained by retraining.
  • the personalization function can be updated immediately. For this reason, even a driver who usually does not drive much can efficiently update the personalization function.
  • First application example The technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be realized as an apparatus mounted on any type of automobile such as an automobile, an electric automobile, a hybrid electric automobile, and a motorcycle.
  • FIG. 26 is a block diagram illustrating an example of a schematic configuration of an automobile control system 2000 to which the technology according to the present disclosure can be applied.
  • the automobile control system 2000 includes a plurality of electronic control units connected via a communication network 2010.
  • the automobile control system 2000 includes a drive system control unit 2100, a body system control unit 2200, a battery control unit 2300, an out-vehicle information detection unit 2400, an in-vehicle information detection unit 2500, and an integrated control unit 2600.
  • the communication network 2010 connecting these control units is compliant with any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used for various calculations, and a drive circuit that drives various devices to be controlled. Is provided.
  • Each control unit includes a network I / F for performing communication with other control units via the communication network 2010, and wired or wireless communication with devices or sensors inside and outside the vehicle. A communication I / F for performing communication is provided. In FIG.
  • a microcomputer 2610 As a functional configuration of the integrated control unit 2600, a microcomputer 2610, a general-purpose communication I / F 2620, a dedicated communication I / F 2630, a positioning unit 2640, a beacon receiving unit 2650, an in-vehicle device I / F 2660, an audio image output unit 2670, An in-vehicle network I / F 2680 and a storage unit 2690 are illustrated.
  • other control units include a microcomputer, a communication I / F, a storage unit, and the like.
  • the drive system control unit 2100 controls the operation of the device related to the drive system of the automobile according to various programs.
  • the drive system control unit 2100 includes a driving force generator for generating driving force of an automobile such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting driving force to wheels, and a steering angle of the automobile. It functions as a steering mechanism that adjusts and a control device such as Zc that generates the braking force of the automobile.
  • the drive system control unit 2100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • the vehicle state detector 2110 is connected to the drive system control unit 2100.
  • the vehicle state detection unit 2110 includes, for example, a gyro sensor that detects the angular velocity of the rotational movement of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, or the operation amount of the accelerator pedal, the operation amount of the brake pedal, the steering wheel steering At least one of sensors for detecting an angle, an engine speed, a rotational speed of a wheel, or the like is included.
  • the drive system control unit 2100 performs arithmetic processing using a signal input from the vehicle state detection unit 2110 to control an internal combustion engine, a drive motor, an electric power steering device, a brake device, or the like.
  • the body system control unit 2200 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 2200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 2200 can be input with radio waves transmitted from a portable device that substitutes for a key or signals of various switches.
  • the body system control unit 2200 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the automobile.
  • the battery control unit 2300 controls the secondary battery 2310 that is a power supply source of the drive motor according to various programs. For example, information such as battery temperature, battery output voltage, or remaining battery capacity is input to the battery control unit 2300 from a battery device including the secondary battery 2310. The battery control unit 2300 performs arithmetic processing using these signals, and controls the temperature adjustment control of the secondary battery 2310 or the cooling device provided in the battery device.
  • the outside information detection unit 2400 detects information outside the automobile on which the automobile control system 2000 is mounted.
  • the vehicle exterior information detection unit 2400 is connected to at least one of the imaging unit 2410 and the vehicle exterior information detection unit 2420.
  • the imaging unit 2410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the vehicle outside information detection unit 2420 detects, for example, the current weather or an environmental sensor for detecting the weather, or other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 2000.
  • a surrounding information detection sensor is included.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects sunlight intensity, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the imaging unit 2410 and the outside information detection unit 2420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 27 shows an example of installation positions of the imaging unit 2410 and the vehicle outside information detection unit 2420.
  • the imaging units 2910, 2912, 2914, 2916, and 2918 are provided at, for example, at least one position among the front nose, the side mirror, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior of the automobile 2900.
  • An imaging unit 2910 provided in the front nose and an imaging unit 2918 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the automobile 2900.
  • the imaging units 2912 and 2914 provided in the side mirror mainly acquire images of the side of the automobile 2900.
  • An imaging unit 2916 provided in the rear bumper or the back door mainly acquires an image behind the automobile 2900.
  • An imaging unit 2918 provided on the upper part of the windshield in the passenger compartment is mainly used for detecting a preceding car, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 27 shows an example of the shooting range of each of the imaging units 2910, 2912, 2914, and 2916.
  • the imaging range a indicates the imaging range of the imaging unit 2910 provided in the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging units 2912 and 2914 provided in the side mirrors, respectively
  • the imaging range d The imaging range of the imaging unit 2916 provided in the rear bumper or the back door is shown.
  • an overhead view image of the automobile 2900 viewed from above is obtained.
  • the vehicle outside information detection units 2920, 2922, 2924, 2926, 2928, and 2930 provided on the front, rear, side, corner, and windshield of the vehicle interior of the automobile 2900 may be ultrasonic sensors or radar devices, for example.
  • the vehicle outside information detection units 2920, 2926, and 2930 provided on the front nose, the rear bumper, the back door, and the windshield in the vehicle interior of the automobile 2900 may be LIDAR devices, for example.
  • These outside-vehicle information detection units 2920 to 2930 are mainly used for detecting a preceding car, a pedestrian, an obstacle, and the like.
  • the vehicle outside information detection unit 2400 causes the imaging unit 2410 to capture an image outside the vehicle and receives the captured image data.
  • the vehicle exterior information detection unit 2400 receives detection information from the vehicle exterior information detection unit 2420 connected thereto.
  • the vehicle outside information detection unit 2420 is an ultrasonic sensor, a radar device, or a LIDAR device
  • the vehicle outside information detection unit 2400 transmits ultrasonic waves, electromagnetic waves, or the like, and receives received reflected wave information.
  • the outside information detection unit 2400 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on a road surface based on the received information.
  • the vehicle outside information detection unit 2400 may perform environment recognition processing for recognizing rainfall, fog, road surface conditions, or the like based on the received information.
  • the vehicle outside information detection unit 2400 may calculate a distance to an object outside the vehicle based on the received information.
  • the outside information detection unit 2400 may perform image recognition processing or distance detection processing for recognizing a person, a vehicle, an obstacle, a sign, a character on a road surface, or the like based on the received image data.
  • the vehicle exterior information detection unit 2400 performs processing such as distortion correction or alignment on the received image data, and combines the image data captured by the different imaging units 2410 to generate an overhead image or a panoramic image. Also good.
  • the vehicle exterior information detection unit 2400 may perform viewpoint conversion processing using image data captured by different imaging units 2410.
  • the in-vehicle information detection unit 2500 detects in-vehicle information.
  • a driver state detection unit 2510 that detects the driver's state is connected to the in-vehicle information detection unit 2500.
  • the driver state detection unit 2510 may include a camera that captures an image of the driver, a biological sensor that detects biological information of the driver, a microphone that collects sound in the passenger compartment, and the like.
  • the biometric sensor is provided, for example, on a seat surface or a steering wheel, and detects biometric information of an occupant sitting on the seat or a driver holding the steering wheel.
  • the vehicle interior information detection unit 2500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 2510, and determines whether the driver is asleep. May be.
  • the vehicle interior information detection unit 2500 may perform a process such as a noise canceling process on the collected audio signal.
  • the integrated control unit 2600 controls the overall operation in the automobile control system 2000 according to various programs.
  • An input unit 2800 is connected to the integrated control unit 2600.
  • the input unit 2800 is realized by a device that can be input by a passenger, such as a touch panel, a button, a microphone, a switch, or a lever.
  • the input unit 2800 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device such as a mobile phone or a PDA (Personal Digital Assistant) that supports the operation of the automobile control system 2000. May be.
  • the input unit 2800 may be, for example, a camera. In this case, the passenger can input information using a gesture.
  • the input unit 2800 may include, for example, an input control circuit that generates an input signal based on information input by a passenger or the like using the input unit 2800 and outputs the input signal to the integrated control unit 2600.
  • a passenger or the like operates the input unit 2800 to input various data or instruct a processing operation to the automobile control system 2000.
  • the storage unit 2690 may include a RAM (Random Access Memory) that stores various programs executed by the microcomputer and a ROM (Read Only Memory) that stores various parameters, calculation results, sensor values, and the like.
  • the storage unit 2690 may be realized by a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • General-purpose communication I / F 2620 is a general-purpose communication I / F that mediates communication with various devices existing in the external environment 2750.
  • the general-purpose communication I / F 2620 is a cellular communication protocol such as GSM (registered trademark) (Global System of Mobile communications), WiMAX, Long Term Term Evolution (LTE) or LTE-A (LTE-Advanced), or a wireless LAN (Wi-Fi). (Also referred to as (registered trademark)) may be implemented.
  • GSM Global System of Mobile communications
  • WiMAX Wireless Term Evolution
  • LTE Long Term Term Evolution
  • LTE-A LTE-Advanced
  • Wi-Fi wireless LAN
  • the general-purpose communication I / F 2620 is connected to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or an operator-specific network) via, for example, a base station or an access point. May be. Further, the general-purpose communication I / F 2620 is connected to a terminal (for example, a pedestrian or a shop terminal, or an MTC (Machine Type Communication) terminal) that exists in the vicinity of the automobile using, for example, P2P (Peer To To Peer) technology. May be.
  • a terminal for example, a pedestrian or a shop terminal, or an MTC (Machine Type Communication) terminal
  • P2P Peer To To Peer
  • the dedicated communication I / F 2630 is a communication I / F that supports a communication protocol formulated for use in automobiles.
  • the dedicated communication I / F 2630 may implement a standard protocol such as WAVE (Wireless Access in Vehicle Environment) or DSRC (Dedicated Short Range Communication), which is a combination of the lower layer IEEE 802.11p and the upper layer IEEE 1609, for example.
  • the dedicated communication I / F 2630 is typically V2X, which is a concept including one or more of vehicle-to-vehicle communication, vehicle-to-infrastructure communication, and vehicle-to-pedestrian communication. Perform communication.
  • the positioning unit 2640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a Global Positioning System (GPS) satellite), performs positioning, and performs the latitude, longitude, and altitude of the vehicle.
  • the position information including is generated.
  • the positioning unit 2640 may specify the current position by exchanging signals with the wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smartphone having a positioning function.
  • the beacon receiving unit 2650 receives, for example, radio waves or electromagnetic waves transmitted from radio stations installed on the road, and acquires information such as the current position, traffic jams, closed roads, or required time. Note that the function of the beacon receiving unit 2650 may be included in the dedicated communication I / F 2630 described above.
  • the in-vehicle device I / F 2660 is a communication interface that mediates connections between the microcomputer 2610 and various devices existing in the vehicle.
  • the in-vehicle device I / F 2660 may establish a wireless connection by using a wireless communication protocol such as a wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • the in-vehicle device I / F 2660 may establish a wired connection via a connection terminal (and a cable if necessary).
  • the in-vehicle device I / F 2660 exchanges a control signal or a data signal with, for example, a mobile device or wearable device that a passenger has, or an information device that is carried in or attached to an automobile.
  • the in-vehicle network I / F 2680 is an interface that mediates communication between the microcomputer 2610 and the communication network 2010.
  • the in-vehicle network I / F 2680 transmits and receives signals and the like in accordance with a predetermined protocol supported by the communication network 2010.
  • the microcomputer 2610 of the integrated control unit 2600 is connected via at least one of a general-purpose communication I / F 2620, a dedicated communication I / F 2630, a positioning unit 2640, a beacon receiving unit 2650, an in-vehicle device I / F 2660, and an in-vehicle network I / F 2680.
  • the vehicle control system 2000 is controlled in accordance with various programs based on the information acquired in this manner.
  • the microcomputer 2610 calculates a control target value of the driving force generation device, the steering mechanism, or the braking device based on the acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 2100. Also good.
  • the microcomputer 2610 may perform cooperative control for the purpose of avoiding or mitigating the collision of an automobile, following traveling based on the inter-vehicle distance, traveling maintaining the vehicle speed, automatic driving, and the like.
  • the microcomputer 2610 is information acquired via at least one of the general-purpose communication I / F 2620, the dedicated communication I / F 2630, the positioning unit 2640, the beacon receiving unit 2650, the in-vehicle device I / F 2660, and the in-vehicle network I / F 2680. Based on the above, local map information including peripheral information of the current position of the vehicle may be created. Further, the microcomputer 2610 may generate a warning signal by predicting a danger such as an automobile collision, approach of a pedestrian or the like or approaching a closed road, based on the acquired information. The warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the audio image output unit 2670 transmits an output signal of at least one of the audio and the image to an output device capable of visually or audibly notifying the passenger or the outside of the vehicle.
  • an audio speaker 2710, a display unit 2720, and an instrument panel 2730 are illustrated as output devices.
  • the display unit 2720 may include at least one of an on-board display and a head-up display, for example.
  • the display unit 2720 may have an AR (Augmented Reality) display function.
  • the output device may be another device such as a headphone, a projector, or a lamp other than these devices.
  • the display device can display the results obtained by various processes performed by the microcomputer 2610 or information received from other control units in various formats such as text, images, tables, and graphs. Display visually. Further, when the output device is an audio output device, the audio output device converts an audio signal made up of reproduced audio data or acoustic data into an analog signal and outputs it aurally.
  • At least two control units connected via the communication network 2010 may be integrated as one control unit.
  • each control unit may be configured by a plurality of control units.
  • the vehicle control system 2000 may include another control unit not shown.
  • some or all of the functions of any of the control units may be given to other control units.
  • the predetermined arithmetic processing may be performed by any one of the control units.
  • a sensor or device connected to one of the control units may be connected to another control unit, and a plurality of control units may transmit / receive detection information to / from each other via the communication network 2010. .
  • the operation control apparatus 11 can be applied to the integrated control unit 2600 of the application example illustrated in FIG.
  • the automatic operation control block 21, the personalization block 22, and the manual operation control unit 32 of the operation control device 11 of FIG. 1 correspond to the microcomputer 2610, the storage unit 2690, and the in-vehicle network I / F 2680 of the integrated control unit 2600.
  • the personalization block 22 can implement
  • the components of the operation control device 11 described with reference to FIG. 1 is a module for the integrated control unit 2600 shown in FIG. 26 (for example, an integrated circuit module configured with one die). It may be realized.
  • the operation control apparatus 11 described with reference to FIG. 1 may be realized by a plurality of control units of the automobile control system 2000 illustrated in FIG. That is, the detection unit 34 may be realized by at least one of the vehicle exterior information detection unit 2400 and the vehicle interior detection unit 2500 of the automatic control system 2000 illustrated in FIG.
  • a computer program for realizing each function of the operation control device 11 described with reference to FIG. 1 can be installed in any control unit or the like. It is also possible to provide a computer-readable recording medium in which such a computer program is stored.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed via a network, for example, without using a recording medium.
  • Second application example >> ⁇ Example executed by software>
  • a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.
  • FIG. 28 shows a configuration example of a general-purpose personal computer.
  • This personal computer incorporates a CPU (Central Processing Unit) 3001.
  • An input / output interface 3005 is connected to the CPU 3001 via a bus 3004.
  • a ROM (Read Only Memory) 3002 and a RAM (Random Access Memory) 3003 are connected to the bus 3004.
  • the input / output interface 3005 includes an input unit 3006 including an input device such as a keyboard and a mouse for a user to input an operation command, an output unit 3007 for outputting a processing operation screen and an image of the processing result to a display device, a program and various types
  • a storage unit 3008 including a hard disk drive for storing data, a LAN (Local Area Network) adapter, and the like are connected to a communication unit 3009 that executes communication processing via a network represented by the Internet.
  • magnetic disks including flexible disks
  • optical disks including CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc)), magneto-optical disks (including MD (Mini Disc)), or semiconductors
  • a drive 3010 for reading / writing data from / to a removable medium 3011 such as a memory is connected.
  • the CPU 3001 is read from a program stored in the ROM 3002 or a removable medium 3011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, installed in the storage unit 3008, and loaded from the storage unit 3008 to the RAM 3003. Various processes are executed according to the program.
  • the RAM 3003 also appropriately stores data necessary for the CPU 3001 to execute various processes.
  • the CPU 3001 loads the program stored in the storage unit 3008 to the RAM 3003 via the input / output interface 3005 and the bus 3004 and executes the program, for example. Is performed.
  • the program executed by the computer (CPU 3001) can be provided by being recorded in, for example, a removable medium 3011 as a package medium or the like.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 3008 via the input / output interface 3005 by attaching the removable medium 3011 to the drive 3010.
  • the program can be received by the communication unit 3009 via a wired or wireless transmission medium and installed in the storage unit 3008.
  • the program can be installed in the ROM 3002 or the storage unit 3008 in advance.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
  • the present disclosure can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is processed jointly.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • this indication can also take the following structures.
  • An operation unit that receives an input of a driving operation of a driver who drives the mobile body, A detection unit for detecting a state of the moving body; A learning unit that learns a personalization function related to the driving operation of the driver based on operation information related to the driving operation and a detection result of the detection unit; An operation control unit that controls an operation of the moving body based on the detection result and the personalization function;
  • the operation control device according to ⁇ 1>, further including a verification unit that requests an external verification device to verify the personalization function learned by the learning unit and obtains a verification result.
  • a learning result storage unit that stores the personalization function learned by the learning unit,
  • the driving mode of the mobile body is based on the manual operation mode that operates according to the input of the driving operation received by the driver, the detection result, and the personalization function verified by the verification unit, An automatic operation mode that operates without the need for a driving operation by the driver,
  • the learning unit learns a personalization function related to the driving operation of the driver based on operation information related to the driving operation and a detection result of the detection unit in the manual driving mode, and stores the learning result
  • the unit stores the personalization function that is the learning result.
  • the operation control device according to ⁇ 2>.
  • the verification result acquired by the verification unit is a result of running the simulation in the automatic driving mode using the personalization function stored in the learning result storage unit by the external verification device ⁇
  • the operation control apparatus according to 3>.
  • a personalization function storage unit that stores the personalization function having no abnormality in the verification result acquired by the verification unit; Of the personalization functions stored in the learning result storage unit, the personalization function verified by the verification unit as having no abnormality is updated as the personalization function stored in the learning result storage unit.
  • the operation control device according to ⁇ 4>, further including an update unit.
  • the movement control unit is configured to move the movement based on the detection result and the personalization function verified by the verification unit stored in the personalization function storage unit in the automatic operation mode.
  • the operation control device wherein the operation of the body is controlled.
  • the driving control device wherein the learning result storage unit and the personalization function storage unit store the personalization function for each driver.
  • the learning result storage unit and the personalization function storage unit store the personalization function individually for each driver and for each of a plurality of modes set for each driver ⁇ 7
  • the operation control device according to>.
  • the operation control unit authenticates the driver,
  • the driving control device according to ⁇ 8>, wherein the learning unit learns the personalization function for each driver authenticated by the operation control unit and stores the learning function in the learning result storage unit.
  • the operation control unit authenticates the driver, reads the personalized function of the authenticated driver verified by the verification unit from the personalization function storage unit, the detection result, and The operation control device according to ⁇ 8>, wherein the operation of the moving body is controlled based on the personalization function verified by the verification unit.
  • ⁇ 11> Accepting the input of the driving operation of the driver who drives the mobile body, Detecting the state of the moving object; Based on the operation information related to the driving operation and the detection result of the detection unit, the personalization function related to the driving operation of the driver is learned, An operation control method comprising a step of controlling an operation of the moving body based on the detection result and the personalization function.
  • ⁇ 12> an operation unit that receives an input of a driving operation of a driver who drives the mobile body; A detection unit for detecting a state of the moving body; A learning unit that learns a personalization function related to the driving operation of the driver based on operation information related to the driving operation and a detection result of the detection unit; A program that causes a computer to function as an operation control unit that controls the operation of the moving object based on the detection result and the personalization function.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本開示は、運転者の運転操作と各種センサの検出結果に基づいて、運転者毎の癖や習慣に対応して学習した個人化関数を安全に更新させることができるようにする運転制御装置、および運転制御方法、並びにプログラムに関する。 手動運転により運転者が行う運転操作と、車体に設けられた各種センサの検出結果に基づいて、運転者毎の個人化関数を学習により求める。求めた個人化関数を用いて、検証シミュレーションを実行し、安全が確認されたとき、新たな個人化関数として更新する。検出結果に基づいて、自動運転をさせるときに求められる動作コマンドを、個人化関数により補正することで、運転者の癖や習慣が反映された自動運転を実現できるので、安全で、かつ、快適な自動運転を実現することができる。本開示は、自動運転する自動車に適用することができる。

Description

運転制御装置、および運転制御方法、並びにプログラム
 本開示は、運転制御装置、および運転制御方法、並びにプログラムに関し、特に、自動車に代表される移動可能な装置の自動運転における安全性および快適性を向上できるようにした運転制御装置、および運転制御方法、並びにプログラムに関する。
 GPS(Global Positioning System)などに代表される車載センサを用いて、運転者が操作することなく自動車等を運転させる、いわゆる自動運転技術が実現しつつある(例えば、特許文献1参照)。
特開2008-290680号公報
 ところで、自動車には、速度、加速度、および位置などを含む、各種の状況を監視するセンサが設けられており、自動運転においては、この各種のセンサにより検出された、時々刻々と変化する検出結果に基づいて、次の動作を決定している。
 ところが、自動運転における動作には、渋滞を考慮した行程(ルート)や車線の選択といった、現在の位置情報、移動速度、周辺の混雑状況、および渋滞予測といった複数の検出結果を用いて動作の決定に処理時間が必要となるものもあれば、飛び出してきた歩行者や自動車との衝突を回避するといった動作の決定に処理時間を掛けられないものもある。
 仮に、これらの動作の決定に必要とされる処理時間が異なる処理を並列して実行したとしても、求められた動作に競合が発生した場合については、いずれかの選択を誤ることで安全性を確保した自動運転を実現できなくなる恐れがあった。
 また、安全性を確保しつつ、目的地に確実に移動する自動運転を実現できたとしても、必ずしも運転者(ユーザ)の嗜好に応じた運転は実現されず、快適な自動運転を実現することができない可能性があった。
 すなわち、例えば、ブレーキが掛けられる際に、停止しようとする位置に対して、自らが運転しているときよりも早いタイミングであると感じたり、逆に、遅いタイミングであると感じる可能性があり、乗っているだけでストレスとなる恐れがある。このように、自動運転により安全に移動することはできるものの、乗っていてもストレスを感じることで、快適な運転を実現できない可能性があった。
 本開示は、このような状況に鑑みてなされたものであり、特に、自動運転における移動時の安全性と快適性とを向上できるようにするものである。
 本開示の一側面の運転制御装置は、移動体を運転する運転者の運転操作の入力を受け付ける操作部と、前記移動体の状態を検出する検出部と、前記運転操作に係る操作情報と、前記検出部の検出結果に基づいて、前記運転者の前記運転操作に係る個人化関数を学習する学習部と、前記検出結果、および、前記個人化関数に基づいて、前記移動体の動作を制御する動作制御部とを含む運転制御装置である。
 ネットワークを介して、外部の検証装置に、前記学習部により学習された個人化関数の検証を要求し、検証結果を取得する検証部をさらに含ませるようにすることができる。
 前記学習部により学習された個人化関数を記憶する学習結果記憶部をさらに含ませるようにすることができ、前記移動体の運転モードには、前記運転者により受け付けられた運転操作の入力に応じて動作する手動運転モードと、前記検出結果、および、前記検証部により検証された前記個人化関数に基づいて、前記運転者による運転操作を必要とせずに動作する自動運転モードとを含ませるようにすることができ、前記学習部には、前記手動運転モードにおいて、前記運転操作に係る操作情報と、前記検出部の検出結果に基づいて、前記運転者の前記運転操作に係る個人化関数を学習させ、前記学習結果記憶部には、前記学習結果となる個人化関数を記憶させるようにすることができる。
 前記検証部が取得する検証結果は、前記外部の検証装置により、前記学習結果記憶部に記憶された個人化関数が用いられて、前記自動運転モードでシミュレーション走行させた結果とすることができる。
 前記検証部が取得した検証結果に異常がない前記個人化関数を記憶する個人化関数記憶部と、前記学習結果記憶部に記憶された前記個人化関数のうち、前記検証部により前記異常のないことが検証された前記個人化関数を、前記学習結果記憶部に記憶された前記個人化関数として更新する更新部とをさらに含ませるようにすることができる。
 前記動作制御部には、前記自動運転モードにおいて、前記検出結果、および、前記個人化関数記憶部に記憶されている、前記検証部により検証された前記個人化関数に基づいて、前記移動体の動作を制御させるようにすることができる。
 前記学習結果記憶部、および前記個人化関数記憶部には、前記個人化関数を前記運転者毎で記憶させるようにすることができる。
 前記学習結果記憶部、および前記個人化関数記憶部には、前記個人化関数を前記運転者毎に個別で、かつ、前記運転者毎に設定される複数のモード毎に記憶させるようにすることができる。
 前記動作制御部には、前記運転者を認証させ、前記学習部は、前記動作制御部により認証された運転者毎に、前記個人化関数を学習させ、前記学習結果記憶部に記憶させるようにすることができる。
 前記動作制御部には、前記運転者を認証させ、前記認証した運転者の、前記検証部により検証された前記個人化関数を前記個人化関数記憶部より読み出させ、前記検出結果、および、前記検証部により検証された前記個人化関数に基づいて、前記移動体の動作を制御させるようにすることができる。
 本開示の一側面の運転制御方法は、移動体を運転する運転者の運転操作の入力を受け付け、前記移動体の状態を検出し、前記運転操作に係る操作情報と、前記検出部の検出結果に基づいて、前記運転者の前記運転操作に係る個人化関数を学習し、前記検出結果、および、前記個人化関数に基づいて、前記移動体の動作を制御するステップを含む運転制御方法である。
 本開示の一側面のプログラムは、移動体を運転する運転者の運転操作の入力を受け付ける操作部と、前記移動体の状態を検出する検出部と、前記運転操作に係る操作情報と、前記検出部の検出結果に基づいて、前記運転者の前記運転操作に係る個人化関数を学習する学習部と、前記検出結果、および、前記個人化関数に基づいて、前記移動体の動作を制御する動作制御部としてコンピュータを機能させるプログラムである。
 本開示の一側面においては、移動体を運転する運転者の運転操作の入力が受け付けられ、前記移動体の状態が検出され、前記運転操作に係る操作情報と、前記検出結果に基づいて、前記運転者の前記運転操作に係る個人化関数が学習され、前記検出結果、および、前記個人化関数に基づいて、前記移動体の動作が制御される。
 本開示の一側面によれば、自動運転における移動時の安全性と快適性を向上させることが可能となる。
本開示を適用した運転制御装置の構成例を説明する図である。 図1の運転制御装置による運転制御処理を説明するフローチャートである。 運転者の認証に使用する表示画像を説明する図である。 図2の自動運転処理を説明するフローチャートである。 図4の熟考動作決定処理を説明するフローチャートである。 図4の競合解決処理を説明するフローチャートである。 図4の競合解決処理を説明するフローチャートである。 反射動作と熟考動作とで競合が発生したことを示す表示を説明する図である。 図6の運転者介入解決処理を説明するフローチャートである。 運転者介入解決処理における選択肢を提示する例を説明する図である。 運転者介入解決処理におけるスライドバーを提示する例を説明する図である。 競合の発生を抑制する例を説明する図である。 図2の手動運転処理を説明するフローチャートである。 図2の個人化関数更新処理を説明するフローチャートである。 本開示を適用した検証装置の構成例を説明する図である。 チェックポイントを説明する図である。 図15の検証装置による検証処理を説明するフローチャートである。 本開示を適用した検証装置の第1の変形例を説明する図である。 本開示を適用した運転制御装置の第1の変形例を説明する図である。 図18の検証装置による検証処理を説明するフローチャートである。 図19の運転制御装置による個人化関数更新処理を説明するフローチャートである。 本開示を適用した検証装置の第2の変形例を説明する図である。 本開示を適用した運転制御装置の第2の変形例を説明する図である。 図22の検証装置による検証処理を説明するフローチャートである。 図23の運転制御装置による個人化関数更新処理を説明するフローチャートである。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 従来の受信機の受信動作部における低消費電力動作を説明する図である。 汎用のパーソナルコンピュータの構成例を説明する図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、以下の順序で説明を行う。
  1.本開示の実施の形態
  2.第1の変形例
  3.第2の変形例
  4.第1の応用例
  5.第2の応用例
 <<1.本開示の実施の形態>>
 <運転制御装置の構成例>
 図1は、本開示を適用した自動車の運転制御装置の一実施の形態の構成例を示すブロック図である。
 図1の運転制御装置は、自動車に搭載され、自動車の運転を制御する装置である。尚、図1の運転制御装置は、自動車の運転を制御する装置であることを例にして説明するものであるが、自動車以外の航空機や船舶など、運転者(操縦者を含む)が運転(操縦)することで動作する乗物等であれば、その他のものにおいても適用することができるものである。
 図1の運転制御装置11は、自動車の運転を制御するものであるが、運転モードが2種類あり、第1のモードは、運転者がステアリングやブレーキを操作して自動車を運転させる手動運転モードであり、第2のモードは、運転者が運転操作に介入することなく、自動車を自動的に運転させる自動運転モードである。
 この運転モードは、ユーザにより選択的に設定することが可能であり、運転制御装置11は、設定された運転モードで自動車の運転を制御する。
 より詳細には、手動運転モードの場合、運転制御装置11は、運転者の操作部31の操作内容、例えば、ステアリング、およびブレーキを操作する際の操作内容(舵角、踏力など)と、外界12や自動車の車体の挙動に連動する各種センサからなる検出部34の検出結果に基づいて、運転者毎の運転の癖や習慣などが反映された個人化関数を学習により生成して運転が終了した際に更新する。
 一方、自動運転モードの場合、運転制御装置11は、外界12や自動車の車体を動作させる複数の機器からなる車体動作部33を制御し、外界12や自動車の車体の挙動に連動する各種センサからなる検出部34の検出結果を取得し、取得した検出結果に基づいて、自動運転を実現させるために、車体動作部33を構成する各機器の動作を決定する。
 さらに、運転制御装置11は、自動運転モードにおいて、各種センサからなる検出部34の検出結果に基づいて、車体動作部33を構成する各機器の動作を決定すると、学習により得られた個人化関数により運転動作に補正を加えて、車体動作部33を構成する各種の機器を動作させることにより、運転者の癖や習慣に対応した自動運転を実現する。
 より詳細には、自動運転モードの場合、運転制御装置11は、検出部34の検出結果に基づいて、熟考動作と反射動作との2種類の動作を求め、求められた2種類の動作に基づいて、最終的な自動運転の動作を決定する。
 ここで、熟考動作とは、検出部34の検出結果を利用して、詳細な処理により、比較的処理時間が掛かるものの、十分に高い精度で決定される動作である。熟考動作は、ごく短時間での動作が必要とされない場合に用いられる。
 また、反射動作とは、検出部34の検出結果を利用するが、熟考動作を決定するための処理よりも比較的簡易な処理により、処理時間が掛からず、高速に決定される動作である。反射動作は、主に、ごく短時間での動作が必要な場合に用いられる。
 運転制御装置11は、この熟考動作と反射動作とを利用して、自動運転を実現させるための車体動作部33を構成する各種の機器の動作内容を決定する。
 より詳細には、運転制御装置11は、自動運転制御ブロック21、個人化ブロック22、操作部31、手動運転制御部32、車体動作部33、検出部34、および表示部35を備えている。
 自動運転制御ブロック21は、検出部34により検出される各種の検出結果と、個人化関数とにより、自動運転モードにおける車体動作部33を構成する各種の機器の動作を制御する。
 これに対して、手動運転制御部32は、ステアリングやブレーキといった運転者が車体を動作させるための各機器を操作するときの操作信号に応じて、手動運転モードにおける車体動作部33を構成する各種の機器の動作を制御する。
 個人化ブロック22は、手動運転モードにおける運転者により操作される操作部31の操作内容と、車体動作部33を構成する各種の構成機器の動作に応じて検出される検出部34の検出結果とから、運転者の個人化関数を学習により求めて、自動運転モードの際に供給する。個人化関数は、運転者の運転動作における個人的な癖や習慣を反映させるものである。したがって、自動運転モードにおいて決定される車体動作部33を構成する各種機器の動作が、個人化関数が利用されて補正されることにより、自動運転モードにおける運転動作を、運転者毎の癖や習慣を反映させてカスタマイズさせることが可能となり、自動運転における快適さを向上させることが可能となる。
 操作部31は、ステアリング、ブレーキペダル、およびアクセルペダルといった運転に係る各種の操作装置に加えて、その他、ウィンカー、ワイパー、ウィンドウォッシャ、ホーン、ライト、インストルメントパネル等、運転制御装置11が搭載される自動車の車体を構成する各種機器の操作に係る操作装置、並びに、手動運転モード、および自動運転モードを切り替える操作装置等、ユーザたる運転者が自動車内で操作することができるもののほぼ全ての操作に応じた操作信号を発生し、個人化ブロック22、および手動運転制御部32に供給する。
 手動運転制御部32は、操作部31より供給されてくる操作信号に基づいて、車体動作部33に、各種の動作を指示するコマンドを供給し、車体動作部33を構成する自動車の車体を動作させる各種の機器を動作させる。
 車体動作部33は、自動車の車体を動作させる具体的な機器群からなるものであり、例えば、操舵輪、ブレーキ、およびエンジンなどの自動車の車体を動作させる各種の機器群である。
 検出部34は、運転制御装置11が搭載される自動車の車体の動作に係る各種の状態を検出するセンサ群であり、例えば、自動車の位置を検出するGPS(Global Positioning System)、操舵輪の舵角、速度、3次元加速度センサ、ヨー・ロール・ピッチセンサ、カメラ(イメージセンサ)(ステレオカメラセンサ等含む)、雨滴検出センサ、濃霧センサ、照度センサ、気圧センサ、タイヤ気圧センサ、ミリ波レーダ(ミリ波センサ)、赤外線センサ、ビーコンセンサ、並びに、各種機器の温度および圧力センサ等などからなり、検出結果を自動運転制御ブロック21、および個人化ブロック22に供給する。
 表示部35は、例えば、インストルメントパネルに設けられるLCD(Liquid Crystal Display)などからなる表示装置であり、現在の運転モードが自動運転モード、および手動運転モードのいずれであるか、または、自動運転モードや手動運転モードにおける各種の情報を表示する。表示部35は、操作部31と一体化した構造として、例えば、タッチパネルとして機能するようにしてもよく、このような構成とすることで、例えば、自動運転モード、および手動運転モードを切り替えるための操作ボタンなどを表示させて、タッチ操作により入力を受け付けて切り替えられるようにしてもよい。
 自動運転制御ブロック21は、自動運転モードにおける自動車の車体動作部33の各種の機器の動作を決定するブロックである。より詳細には、自動運転制御ブロック21は、反射動作決定部51、熟考動作決定部52、自動運転制御部53、および個人化関数記憶部54より構成されている。
 反射動作決定部51は、検出部34の検出結果に基づいて、後述する熟考動作決定部52における処理と比較して、簡易な処理により自動運転モードにおける車体動作部33を構成する各種の機器の動作を決定し、決定した動作に対応するコマンドを自動運転制御部53に供給する。
 反射動作決定部51は、例えば、ミリ波レーダ等により前方の自動車との距離が所定の距離よりも短く、かつ、所定の速度より高速であるような場合、衝突の恐れがあるものと判断し、緊急回避行動をとるためのステアリング操作や、自動ブレーキ等、いわゆるプリクラッシュセーフティ装置を動作させるための動作などを決定する。そして、反射動作決定部51は、運転者毎に運転者の運転の癖や習慣が反映されて設定されている個人化関数を個人化関数記憶部54より読み出して、反射動作に対応するコマンドに、運転者の嗜好を反映した補正を加えて自動運転制御部53に供給する。
 すなわち、反射動作は、極短時間で判断される必要のある、緊急性の高い動作を多く含むものである。このため、反射動作は、検出結果に対して、ある程度、予め決められた動作を多く含むようにしてもよく、このようにすることで、より極短時間での反応が可能な動作を決定することが可能となる。以降においては、この反射動作決定部51により決定される動作を、単に、反射動作と称するものとする。
 熟考動作決定部52は、検出部34の検出結果に基づいて、反射動作決定部51における処理と比較して、詳細な処理を行って自動運転モードにおける車体動作部33を構成する各種の機器の動作を決定し、対応するコマンドを自動運転制御部53に供給する。そして、熟考動作決定部52は、運転者毎に運転者の運転の癖や習慣が反映されて設定されている個人化関数を個人化関数記憶部54より読み出して、熟考動作に対応するコマンドに、運転者の嗜好を反映した補正を加えて自動運転制御部53に供給する。
 このように運転者の嗜好が反射動作、および熟考動作のそれぞれに反映されることにより、運転者毎に自動運転モードにおける快適性を向上させることが可能となる。
 熟考動作決定部52は、例えば、狭い道路で対向車とすれ違う際のステアリング操作を制御する動作を決定するものであり、対向車と自車との時々刻々と変わる車間距離や、複数回数のステアリング操作に応じた車体の動きを推定し、推定結果に応じた動作などの比較的処理に時間が掛かる動作を決定する。以降においては、この熟考動作決定部52により決定される動作を、単に、熟考動作と称するものとする。
 自動運転制御部53は、反射動作決定部51より供給されてくる反射動作のコマンドと、熟考動作決定部52により決定される熟考動作のコマンドとに基づいて、自動運転モードにおける車体動作部33の動作を決定し、対応するコマンドを車体動作部33に供給する。
 反射動作決定部51は、一般に、熟考動作決定部52において熟考動作を決定するまでの処理時間よりも、より短時間で反射動作を決定することができる。ただし、検出部34から得られる検出結果の条件に応じて、熟考動作が決定されるまでの処理時間の方が、反射動作が決定されるまでの処理時間よりも短いこともあり、また、略同時であることもある。
 さらに、自動運転制御部53は、反射動作と熟考動作とに基づいて、一般的には、相互の処理結果が一致していることを前提として、動作を決定し、対応する動作信号を車体動作部33に供給する。
 しかしながら、反射動作と熟考動作とは、検出結果に応じて、競合することがあるため、以下のような複数の解決モードのうち、設定された解決モードにより自動運転の動作を決定する。
 すなわち、解決モードには、熟考動作または反射動作のいずれかを優先する第1の解決モード、先着優先、または、後着置き換える第2の解決モード、優先度または確信度の高い方を優先する第3の解決モード、両者の動作を利用した重付平均とするか、または多数決とする第4の解決モード、双方が反対している事実を入力に加えて、双方で再計算する第5の解決モード、コマンド自体の優先度を優先する第6の解決モード、並びに、どちらも出さず停止させるか、現状を継続させる第7の解決モードの7種類がある。さらに、運転者の判断を介入させることで解決を図る第8の解決モードを含めて8種類の解決モードがある。尚、ここで挙げられた8種類の解決モードは、一例に過ぎず、さらに、その他の解決モードを設定するようにしてもよい。
 上述した8種類の解決モードのうち、いずれの解決モードにより競合を解決するのかについては、操作部31により予め設定することが可能である。したがって、自動運転制御部53は、解決モードの設定内容を記憶し、記憶されている解決モードにしたがって、熟考動作、および反射動作を利用して自動運転モードにおける車体動作部33の動作を決定し、車体動作部33に供給する。
 熟考動作決定部52は、環境認識部71、ローカルマップ処理部72、グローバルマップ処理部73、経路計画部74、および行動計画部75を備えている。
 環境認識部71は、自車の環境を認識し、認識結果としての環境情報を生成し、ローカルマップ処理部72に供給する。ここでいう自車の環境情報とは、ローカルマップ処理部72およびグローバルマップ処理部73において必要とされる情報であり、例えば、地球上の位置(地図上で経路として設定されたルート上の位置)を示すGPS情報や、走行している道路上での車線、路面状況などを認識するためのイメージセンサなどにより撮像された画像などである。また、環境情報は、自車の走行速度、天候、交通情報等を含むビーコン情報といった周囲の環境情報や渋滞情報等をも含む。
 ローカルマップ処理部72は、検出結果に基づいて抽出された環境情報より、走行中の道路上の車線の位置、走行速度、詳細な道路の形状、標識、信号等などの、ローカルマップに基づいた車体周辺であって狭域の情報をローカル情報として抽出し、行動計画部75に供給する。また、ローカルマップ処理部72は、環境情報をグローバルマップ処理部73に供給する。
 グローバルマップ処理部73は、出発地から目的地までのルート上における渋滞状況や事故情報、並びに渋滞予測といった交通情報など、環境情報に含まれる、ビーコン情報やGPS情報などのグローバルマップに基づいた車体周辺であって広域の情報をグローバル情報として抽出し、経路計画部74に供給する。
 すなわち、ローカル情報は、ローカルマップ(車体から比較的近距離の範囲の地図情報)に基づいた自動車の車体周辺に関する比較的狭い範囲の情報である。これに対して、グローバル情報は、グローバルマップ(車体から比較的遠距離の範囲の地図情報)に基づいた自動車の車体周辺であって、これから走行するルート上に関する比較的広い範囲の情報である。
 経路計画部74は、グローバルマップ処理部73より供給されてくるグローバル情報に基づいて、自車の走行経路を計画し、経路計画情報として行動計画部75に供給する。
 行動計画部75は、ローカル情報と経路計画情報とに基づいて、車体動作部33を動作させるための行動を計画し、熟考動作として対応するコマンドを自動運転制御部53に供給する。より具体的には、行動計画部75は、例えば、ローカル情報である、詳細な道の形状、走行中の車線の情報と、グローバル情報により求められた経路の情報に基づいて、次に、右折する、または、左折するといった経路と、現在の走行車線との関係から車線を変更させる必要がある場合、車線を変更させるために必要なステアリングの舵角、ブレーキタイミング、アクセル開度等を熟考動作として決定し、対応するコマンドを自動運転制御部53に供給する。
 個人化ブロック22は、個人化関数学習部91、学習結果記憶部82、学習結果検証部93、検証結果判定部94、および個人化関数更新部95を備えている。
 個人化関数学習部91は、手動運転モードにおける、操作部31より供給されてくる操作信号、および検出部34より供給されてくる各種の検出結果に基づいて、運転者毎の個人化関数を学習により求めて、学習結果記憶部92に記憶させる。すなわち、個人化関数学習部91は、運転者が、手動運転モードで操作部31を実際に操作して運転する際の操作信号と、その際の検出部34の検出結果に基づいて、運転者の運転に係る癖や習慣などを反映した個人化関数を学習により求めるものである。したがって、手動運転モードによる運転時間の長さに応じて、学習時間が長くなることにより、個人化関数は、各運転者の癖や習慣を強く反映させるものとすることができる。
 また、個人化関数学習部91は、同一の運転者に対して複数の個人化関数を設定するようにしてもよい。すなわち、運転者の運転動作は、常に一定ではなく、体調や精神状態などにより変化するものである。
 このため、求められる個人化関数を運転者の気分毎に、同一運転者に対して複数の運転モード毎の個人化関数として設定することができる。
 例えば、ブレーキやアクセルの操作がゆったり目の操作信号から求められる「ゆったり安全」といった運転をするときの個人化関数を第1のモードとすることができる。また、ブレーキ操作が短距離で停止させるような操作信号や、アクセルのオンオフが激しく繰り返されるような操作信号から求められる「キビキビ行動」といった運転をするときの個人化関数を第2のモードとすることができる。そして、この「ゆったり安全」と「キビキビ行動」のそれぞれのパラメータの平均値や重付平均値などから得られる第3の個人化関数を第3のモードとすることができる。
 このように同一の運転者に対しても複数の個人化関数を、手動運転モードにおける運転者の気分に合わせて設定することで、運転者のその時の気分に応じて自動運転の動作を切り替えることが可能となり、より快適な自動運転を実現することが可能となる。尚、この個人化関数における運転者毎の気分に応じたモードをユーザモードと称するものとする。したがって、個人化関数は、手動運転モードにおいて、運転者毎に、かつ、ユーザモード毎に学習させることが可能であり、自動運転モードにおいても、運転者毎に、かつ、ユーザモード毎に、対応する補正を加えることが可能となる。
 学習結果検証部93は、運転が終了したときなどに、学習結果記憶部92に記憶されている学習結果である個人化関数を読み出し、インターネットに代表されるネットワークを介して外部の検証装置13に供給し、個人化関数の検証を要求し、検証結果を取得する。
 検証装置13は、例えば、クラウドコンピューティングにより実現される装置であり、運転制御装置11より個人化関数の検証の依頼があるとき、個人化関数を取得して、シミュレーションにより仮想的に個人化関数を用いた自動運転を実現することで、安全性を検証し、検証結果を運転制御装置11に供給する。より詳細には、検証装置13は、仮想的に自動運転制御部53が決定するコマンドに個人化関数による補正を加えて、車体動作部33を動作させた場合のシミュレーションを所定時間だけ繰り返すことで、個人化関数を利用した時の自動運転を再現して、このときの走行情報を検証結果として記録し、運転制御装置11に供給する。尚、検証装置13の詳細な構成については、図15を参照して後述する。
 検証結果判定部94は、個人化関数を用いたシミュレーション結果である検証結果を検証装置13より取得すると、例えば、シミュレーション中に、想定した危機回避行動などが十分にとれており、事故等が発生していないか等により、個人化関数の安全が保障されたものであるか否かを検証する。そして、検証結果判定部94は、検証装置13の検証結果を判定し、判定結果を個人化関数更新部95に供給する。
 個人化関数更新部95は、検証結果に対する判定結果が、個人化関数による補正をコマンドに施しても事故等が発生することのない安全なものであるとみなされるとき、学習結果記憶部92に記憶されている、検証装置13により安全が保障された個人化関数を読み出して、個人化関数記憶部54に記憶されている個人化関数を更新する。
 このような一連の処理により、ユーザの嗜好を反映させて、かつ、安全性を確保した個人化関数により、車体動作部33に対する各種のコマンドを補正して、自動運転モードにおける運転制御処理を実現させることができる。結果として、自動運転モードにおいて、安全で、かつ、快適な自動運転を実現することが可能となる。尚、検証装置13に供給した個人化関数が、検証結果に問題があった場合、検証装置13より、さらに、問題が発生した場合のデータの供給を受けて、個人化関数学習部91にフィードバックさせて、再学習に利用させるようにしてもよい。
 <運転制御処理>
 次に、図2のフローチャートを参照して、図1の運転制御装置11における運転制御処理について説明する。尚、通常、運転モードは、自動運転モード、または、手動運転モードのいずれかに設定されているが、ここでは、デフォルトで手動運転モードが設定されているものとし、運転が開始された後、自動運転モードにも切り替えられるものとする。また、デフォルトの運転モードは、自動運転モード、および、手動運転モードのいずれであってもよく、自由に設定できるようにしてもよい。
 ステップS11において、手動運転制御部32は、操作部31が操作されて、運転が開始されたか否かを判定し、開始されるまで、同様の処理を繰り返す。すなわち、この場合、例えば、エンジンを始動させたり、運転動作を可能とさせるためのスタートボタンなどからなる操作部31が操作されたか否かに基づいて、運転が開始されたか否かが判定されるようにしてもよい。ステップS11において、運転が開始されたと判定された場合、処理は、ステップS12に進む。
 ステップS12において、手動運転制御部32は、運転者を認証する。例えば、手動運転制御部32は、図3の左部で示されるような運転者を特定する情報の入力を促すような表示画像を表示部35に表示し、操作入力を受け付けて受け付けた操作内容に応じて運転者を特定する。
 尚、図3の左部においては、表示部35が、操作部31と一体となったタッチパネルであることを想定したときに表示される表示画像の例が示されており、最上段に「運転者の確認」と表示され、その下に左から、操作ボタン101-1乃至101-3が表示されており、それぞれ対応する位置に、予め登録されている運転者の名前として「太郎」、「花子」、および「次郎」がそれぞれ表示されている。そして、図3の左部においては、操作ボタン101-3が操作されて、「次郎」が選択されていることを示すコラム102が表示されている。したがって、この場合、手動運転制御部32は、運転者が「次郎」であることを認識する。また、新たなユーザである場合については、別途、登録画像を表示して、登録を促すようにしてもよい。
 また、運転者の特定は、車内を撮像するカメラなどにより顔画像認証で実現するようにしてもよいし、指紋認証、掌認証、静脈認証、網膜認証、および声紋認証など、運転者が特定可能であれば、他の認証方法であってもよいものである。
 ステップS13において、手動運転制御部32は、ユーザモードを設定する。すなわち、例えば、手動運転制御部32は、図3の右部で示されるような運転者の気分に応じて設定された個人化関数のモードであるユーザモードを表示し、いずれかの選択を促す画像を表示し、操作入力を受け付けて受け付けた操作内容に応じてユーザモードを特定する。
 すなわち、図3の右部においては、最上段に「次郎さんの今日の運転」と表示され、その下に、選択可能なユーザモードが表示されており、左からボタン105-1乃至105-3が表示され、対応する位置にそれぞれの対応するユーザモードとして、「ゆったり安全」、「バランス」、および「キビキビ行動」が表示されている。そして、図3の右部においては、ボタン105-3が操作されて、「キビキビ行動」が選択されていることを示すコラム106が表示されている。このような場合、手動運転制御部32は、ユーザモードが「キビキビ行動」であることを認識する。
 尚、ユーザモードについても、タッチパネル以外の手段により設定するようにしてもよく、例えば、音声入力などで設定するようにしてもよいし、物理的なボタンやスイッチで選択できるようにしてもよい。また、新規のユーザモードを設定できるようにしてもよく、この場合、新規のユーザモードの登録を促す画像を表示するようにしてもよい。
 ステップS14において、手動運転制御部32は、自動運転モードにおいて、熟考動作と反射動作とが競合した際に、競合を解決するための解決モードの設定を促す画像を表示し、設定された解決モードを自動運転制御部53に記憶させる。
 すなわち、熟考動作または反射動作のいずれかを優先する第1の解決モード、先着優先、または、後着置き換える第2の解決モード、優先度または確信度の高い方を優先する第3の第1の解決モード、両者の重付平均とするか、または多数決とする第4の解決モード、双方が反対している事実を入力に加えて、双方で再計算する第5の解決モード、コマンド自体の優先度を優先する第6の解決モード、並びに、どちらも出さず停止させるか、現状を継続させる第7の解決モード、または、運転者の介入を受け付けて解決させる第8のモードの8種類の解決モードのいずれとするか、並びに、各解決モードのうち選択肢があれば、そのいずれとするかが設定される。
 この処理は、具体的には、例えば、図3の右部と同様に、第1の解決モード乃至第8の解決モードのいずれか、並びに、各解決モードで、さらに、選択肢が存在する解決モードについては、そのいずれとするかを選択する選択ボタンを設けた画像が表示されるようにして、いずれか押下された解決モードが設定されるようにしてもよい。また、物理的に常に解決モードを選択できる選択ボタンを操作部31に設けるようにしてもよいし、常に、いずれかの解決モードに固定的に設定されるようにしてもよい。
 選択肢が存在する解決モードとは、例えば、第1の解決モードである。すなわち、第1の解決モードは、熟考動作または反射動作のいずれかを優先するモードであるので、熟考動作、または、反射動作のいずれか優先すべき項目が選択肢とされることになる。このため、第1の解決モードが選択される場合については、併せて、熟考動作、または、反射動作のいずれかの選択肢も設定される必要がある。したがって、第5,第6、および第8以外の解決モードにおいては、同様に選択肢も設定される必要がある。
 尚、このステップS14の解決モードの選択処理は、一度設定された後は、必ず必要とされる処理ではないので、運転者からの要求があった場合にのみ実行される処理とするようにしてもよい。また、デフォルトとして、いずれかの解決モードが設定されているようにしてもよい。さらに、物理ボタンが設けられるような場合については、どのようなタイミングにおいても、物理ボタンが操作されたタイミングにおいて、直ちに設定が変更されるようにしてもよい。
 ステップS15において、手動運転制御部32は、運転モードが自動運転モードであるか否かを判定する。自動運転モードおよび手動運転モードのいずれかである運転モードは、例えば、表示部35上に切替スイッチ(図示せず)などが常に表示される状態とし、切替スイッチが操作されるなどして、切替操作がなされたか否かにより、運転モードが切り替えられたか否かを判定するようにしてもよい。
 また、物理的な操作スイッチやボタン(いずれも図示せず)を設けるようにして、切り替えられるようにしてもよい。ステップS15において、例えば、切替操作がなされて、デフォルトである手動運転モードから自動運転モードにされたとみなされた場合、処理は、ステップS16に進み、自動運転処理が実行される。この場合、制御主体は、手動運転制御部32から自動運転制御部53に切り替えられ、自動運転制御部53が自動運転処理を実行する。
 一方、ステップS15において、デフォルトのまま、自動運転モードではなく、手動運転モードであった場合については、処理は、ステップS17に進み、手動運転処理が実行される。この場合、制御主体は、手動運転制御部32のままであり、手動運転処理を実行する。
 また、これまでの処理が自動運転処理であった場合、ステップS15の処理により、手動運転モードに切り替えられた場合については、処理は、ステップS17において、手動運転処理が実行される。この場合、制御主体は、自動運転制御部53から手動運転制御部32に切り替えられて、手動運転処理が実行される。
 尚、以降においては、特に断りがない場合、デフォルトの手動運転モードであるものとして、すなわち、制御主体が手動運転制御部32であるものとして説明を進めるものとする。ただし、自動運転モードによる処理がなされている場合については、制御主体は、自動運転制御部53となり、図2のフローチャートにおいて説明される処理については、手動運転制御部32と同様の処理を実行するものとする。また、自動運転処理および手動運転処理については、詳細を後述するものとする。
 ステップS18において、手動運転制御部32は、操作部31が操作されて、運転が終了となる操作がなされたか否かを判定する。ステップS18において、運転を終了させる操作がなされていない場合、処理は、ステップS19に進む。
 ステップS19において、手動運転制御部32は、運転者が変更したか否かを判定する。例えば、手動運転制御部32は、操作部31が操作されて、運転者の変更が申請されるような操作がなされたか否かを判定する。ステップS19において、例えば、運転者の変更があった場合、処理は、ステップS12に戻る。すなわち、変更された運転者に対してステップS12乃至S14の処理により、運転者の認証処理、ユーザモードの設定、および解決モードの設定がなされ、以降の処理が実行される。
 一方、ステップS19において、運転者の変更がない場合、処理は、ステップS15に戻る。すなわち、ステップS12乃至S14の処理がスキップされる。
 ステップS18において、運転終了の操作がなされたとみなされた場合、処理は、ステップS20に進む。
 ステップS20において、個人化ブロック22は、個人化関数更新処理を実行し、手動運転により学習された個人化関数を検証し、検証結果に応じて個人化関数を更新する。尚、個人化関数更新処理については、詳細を後述するものとする。
 以上の処理により、自動運転モードと手動運転モードとを切り替えた運転制御を実現することが可能となり、また、後述する手動運転モードにおいて学習された個人化関数を学習により生成し、さらに、更新することが可能となる。
 <自動運転処理>
 次に、図4のフローチャートを参照して、図1の運転制御装置11による自動運転処理について説明する。
 ステップS31において、検出部34は、各種センサ群により検出される複数の検出結果の全てを自動運転制御ブロック21、および個人化ブロック22に供給する。
 ステップS32において、反射動作決定部51は、検出結果(または、検出結果の一部の結果)に基づいて、反射動作を決定する。
 ステップS33において、反射動作決定部51は、個人化関数記憶部54に記憶されている個人化関数のうち、認証された運転者のものであって、現在設定されているユーザモードに対応する個人化関数を読み出し、反射動作として決定された動作を、読み出した個人化関数で補正する。
 ステップS34において、熟考動作決定部52は、熟考動作決定処理を実行して熟考動作を決定する。
 <熟考動作決定処理>
 ここで、図5のフローチャートを参照して、熟考動作決定処理について説明する。
 ステップS51において、環境認識部71は、検出部34より供給されてくる検出結果に基づいて、環境情報を抽出し、ローカルマップ処理部72に供給する。
 ステップS52において、ローカルマップ処理部72は、環境情報より自車の周辺の情報からなるローカル情報を抽出して行動計画部75に供給する。また、ローカルマップ処理部72は、環境情報をグローバルマップ処理部73に供給する。
 ステップS53において、グローバルマップ処理部73は、環境情報より、自車がこれから走行する経路周辺のマップ情報や経路上の交通情報などを含むグローバル情報を抽出して、経路計画部74に供給する。
 ステップS54において、経路計画部74は、グローバルマップ処理部73より供給されてくるグローバル情報に基づいて、自車の走行経路を計画し、経路計画として行動計画部75に供給する。すなわち、経路計画部74は、例えば、交通情報に基づいて、現在位置から目的地までの経路を探索し、経路上に渋滞が存在するような場合、渋滞を回避して目的に到達する経路を探索することで、経路を計画する。
 ステップS55において、行動計画部75は、ローカル情報と経路計画とに基づいて、車体動作部33を動作せるための行動を計画し、計画結果を熟考動作とし、対応するコマンドを自動運転制御部53に供給する。すなわち、行動計画部75は、例えば、ローカル情報である、詳細な道の形状、走行中の車線の情報と、グローバル情報により求められた経路の情報に基づいて、次に、右折する、または、左折するといった経路と、現在の走行車線との関係から車線を変更させる必要がある場合、車線を変更させるためのステアリングの舵角、ブレーキタイミング、アクセル開度等を熟考動作として決定し、対応するコマンドを自動運転制御部53に供給する。
 以上の処理により、検出結果から環境情報が求められ、環境情報からローカル情報とグローバル情報が求められ、グローバル情報から経路が設定され、設定された経路とローカル情報とから熟考動作が求められる。
 ここで、図4のフローチャートの説明に戻る。
 ステップS35において、熟考動作決定部52の行動計画部75は、個人化関数記憶部54に記憶されている個人化関数のうち、認証された運転者のものであって、現在設定されているユーザモードに対応する個人化関数を読み出し、熟考動作として決定された動作を、読み出した個人化関数で補正する。
 ステップS36において、自動運転制御部53は、熟考動作と反射動作とが一致せず、競合が発生しているか否かを判定する。ステップS34において、競合が発生していると判定された場合、処理は、ステップS35に進む。
 ステップS37において、自動運転制御部53は、競合解決処理を実行して、熟考動作と反射動作との競合を解決させて、車体動作部33が実行すべき動作を決定して、決定した動作に対応するコマンドを車体動作部33に供給する。尚、競合解決処理については、図6,図7を参照して、詳細を後述する。
 尚、ステップS36において、競合が発生していないとみなされた場合、ステップS37の処理はスキップされる。
 そして、ステップS38において、自動運転制御部53は、車体動作部33が実行すべき動作に対応するコマンドを車体動作部33に供給する。すなわち、自動運転制御部53は、反射動作と熟考動作とが一致した場合、その一致した動作に対応するコマンドを車体動作部33に供給し、反射動作と熟考動作とが一致せず、競合した場合、競合解決処理により決定された動作に対応するコマンドを車体動作部33に供給する。結果として、車体動作部33が、自動運転制御部53からのコマンドに従って動作する。
 結果として、後述するように、運転者が手動運転モードで、自らが運転する際に学習される個人化関数により反射動作および熟考動作それぞれが補正されることで、認証された運転者の運転の癖や習慣を反映させた動作にすることが可能となり、安全な自動運転を実現すると共に、運転者毎の快適な自動運転を実現することが可能となる。
 尚、図4においては、ステップS32,S33の処理により実現される反射動作の決定、および、決定された反射動作の個人化関数による補正からなる一連の反射動作に係る処理がなされた後、ステップS34,S35の処理により実現される熟考動作の決定、および、決定された熟考動作の個人化関数による補正に係る一連の熟考動作に係る処理がなされるように記載されている。
 しかしながら、上述した反射動作に係る処理と熟考動作に係る処理とは、図1のブロック図からも明らかな通り、検出部34と自動運転制御部53の間で、並列に構成される反射動作決定部51と熟考動作決定部52とでそれぞれになされる処理である。従って、反射動作に係る処理と熟考動作に係る処理とは、現実には、並列に、すなわち、同時になされる処理である。図4のフローチャートでは、先に反射動作に係る処理がなされ、その後に熟考動作に係る処理がなされるように表現されているものの、これは1つのフローチャートで便宜的に表現した結果であるので、当然のことながら、先に熟考動作に係る処理がなされ、その後に反射動作に係る処理がなされるように表現されてもよいものである。また、同様の理由から、反射動作に係る処理と熟考動作に係る処理とは、同時に並列処理される個別のフローチャートとして表現されてもよいものである。この場合、図4におけるステップS36以降の処理は、反射動作に係る処理と熟考動作に係る処理との双方が完了した以降でなされる処理となる。
 <競合解決処理>
 次に、図6,図7のフローチャートを参照して、競合解決処理について説明する。
 ステップS71(図6)において、自動運転制御部53は、熟考動作と反射動作とが一致せず、競合が発生していることを示す情報を表示部35に表示して、運転者に熟考動作と反射動作との間で競合が発生していることを提示する。自動運転制御部53は、例えば、図8で示されるように、表示部35に対応する、運転制御装置11が搭載されている自動車のインストルメントパネル111に、競合が発生していることを示すマーク124を表示する。尚、図8のインストルメントパネル111には、左からスピードメータ121、タコメータ122、および燃料メータ123が円盤状の針で示されるメータとして表示されており、競合が発生していることを示すマーク124が、燃料メータ123の左上部に3方向の矢印からなるマークとして表示されている。運転者は、このマーク124を視認することで、熟考動作と反射動作とが一致せずに競合していることを認識することができる。運転者は、必要に応じて自らが手動運転モードに切り替えて、手動で運転することになる可能性を察知することが可能となるため、突然、自らが運転する必要が生じることにより、不用意な動作をしてしまうことを抑制することが可能となる。
 尚、競合が発生した場合の例として、マーク124を表示して運転者に提示する例について示されているが、競合の発生の提示については、これ以外の方法で提示するようにしてもよく、例えば、音声やシートを振動させるなどして競合の発生を提示するようにしてもよい。
 ステップS72において、自動運転制御部53は、競合が発生した場合の解決モードが、熟考動作または反射動作のいずれかが優先して選択される解決モードであるか否かを判定する。ステップS72において、例えば、熟考動作または反射動作のいずれかが優先して選択される解決モードであると判定された場合、処理は、ステップS73に進む。
 ステップS73において、自動運転制御部53は、予め設定された解決モードのうち、熟考動作または反射動作のいずれか設定されている方を決定動作とし、処理は、ステップS85(図7)に進む。
 例えば、反射動作が、現在走行しているレーンを維持しつつ前車に追従するような行動であるものとし、熟考動作が、目的地までの経路を考慮して、工事や渋滞を回避するような経路を探索した結果に応じた動作であるものとする。
 ここで、熟考動作が優先されるように設定されている場合、新たに得た渋滞情報等で最適経路が変わったときには、熟考動作として工事渋滞を回避するような経路として探索された経路を走行するような動作を優先することになる。結果として、自動車の経路は、渋滞を回避する迂回路へと誘導される動作が実現されることになり、所要時間を短縮することが可能となる。
 また、反射動作が、前方ミリ波レーダにより一定以上の大きさの障害物を検知した場合、緊急ブレーキの操作を行う動作であるものとし、熟考動作が、周囲の環境に応じたレーン内定速運転を実現する動作であるものとする。
 ここで、反射動作が優先されるように設定されている場合、道路上への急な飛び出しがあったときには、反射動作によるごく短時間の動作で事故を回避することができる。
 また、ステップS72において、熟考動作または反射動作のいずれかが優先して選択される解決モードではないと判定された場合、処理は、ステップS74に進む。
 ステップS74において、自動運転制御部53は、競合が発生した場合の解決モードが、先着優先、または、後着置き換えのいずれかが選択される解決モードであるか否かを判定する。ステップS74において、例えば、先着優先、または、後着置き換えのいずれかが選択される解決モードであると判定された場合、処理は、ステップS75に進む。
 ステップS75において、自動運転制御部53は、予め設定された解決モードのうち、先着優先、または、後着置き換えのいずれか設定されている方式で設定される動作を決定動作とし、処理は、ステップS85(図7)に進む。
 熟考動作、および反射動作のそれぞれの動作を指示するコマンドには、それぞれ実行時間が明示的に、または、暗黙的に指定されており(4msなど)、通常は到着したコマンドが、到着した順序でリストに蓄積され、リストの先頭から順番に実行され、結果として、先着優先で動作が決定される。これによって、一定時間ループでのアクセルやステアリング制御や予測運転などを実現する。したがって、先着優先が設定されている場合、一般的な処理により動作が決定されるものとされる。
 また、各制御モジュールは割り込みなどの状況の変化に応じてタイムリにコマンドを発行し、これまでの行動を変更しない場合は何もしない。一方、コマンドが新しく到着した場合、後着のコマンドで、それまでの動作を表すコマンドを書き換えて、直ちに行動を後着のコマンドにより表される動作に切り替えることで、きびきびとした動作を実現することが可能となる。したがって、この場合、反射動作、および熟考動作のいずれであるかは、動作を決定する要因にはならず、いずれであっても、後着の動作のコマンドにより、現状の動作のコマンドが書き換えられることになる。
 また、ステップS74において、先着優先、または、後着置き換えのいずれかが選択される解決モードではないと判定された場合、処理は、ステップS76に進む。
 ステップS76において、自動運転制御部53は、競合が発生した場合の解決モードが、優先度または確信度の高い方が選択される解決モードであるか否かを判定する。ステップS76において、例えば、優先度または確信度の高い方が選択される解決モードであると判定された場合、処理は、ステップS77に進む。
 ステップS77において、自動運転制御部53は、予め設定された解決モードのうち、優先度または確信度の高い方が選択される動作を決定動作とし、処理は、ステップS85(図7)に進む。
 割り込みなどの状況の変化に応じて緊急に発行される熟考動作および反射動作の各種動作を指示するコマンドには高い優先度フラグがついており、リストに蓄積されるコマンドや現在実行中のコマンドに対応する優先度フラグが、新着のコマンドの優先度フラグよりも低い場合、自動運転制御部53は、キャンセルしてでも、新しいもの(緊急ブレーキなど)に置き換える。したがって、この場合、決定される動作は、反射動作でも熟考動作でもよい。
 また、反射動作、および熟考動作の優先度については、優劣をつけず、環境情報として認識された情報の信頼度に応じて、いずれかを選択するようにしてもよい。
 すなわち、例えば、反射動作、および熟考動作が、それぞれスピードを上げる動作、およびスピードを落とす動作であるものとする。このような場合、例えば、前方が空いているという環境情報の信頼度が高いときには、スピードを上げる動作が決定動作とされ、前方に障害物が存在するといった環境情報の信頼度が高いときには、スピードを落とす動作が決定動作とされるようにしてもよい。
 また、例えば、反射動作、および熟考動作が、それぞれ前方であって、自らと同一方向に移動する前車を追い越すという動作、および、自らと同一方向に移動する前車に追従するという動作であるものとする。この場合、前方において、自らと同一の方向に移動する前車が自転車であるという環境情報の信頼度が高い場合、自転車を追い越すという動作が決定動作とされ、自らと同一の方向に移動する前車が自動車であるという環境情報の信頼度が高い場合、自動車に追従するという動作が決定動作とされるようにしてもよい。
 したがって、この場合においても、決定される動作は、反射動作でも熟考動作でもよい。
 ステップS76において、優先度または確信度の高い方が選択される解決モードではないと判定された場合、処理は、ステップS78に進む。
 ステップS78において、自動運転制御部53は、競合が発生した場合の解決モードが、重付平均、または、多数決のいずれかにより動作を決定する解決モードであるか否かを判定する。ステップS78において、例えば、重付平均、または、多数決のいずれかにより動作を決定する解決モードであると判定された場合、処理は、ステップS79に進む。
 ステップS79において、自動運転制御部53は、予め設定された解決モードのうち、重付平均、または、多数決のいずれかにより決定される動作を決定動作とし、処理は、ステップS85(図7)に進む。
 すなわち、環境情報に応じて、反射動作および熟考動作のいずれもが、操舵角などの連続値を設定する動作である場合、それぞれの確信度を用いた重付平均によって行動が決定されるようにしてもよい。
 尚、実際には、反射動作決定部51、および熟考動作決定部52は、いずれにおいても、車体動作部33を構成する複数の各種機器に対して、複数の動作を決定しており、競合が発生する動作についても、複数の各種機器に対しる、複数の動作である。例えば、前方に存在する障害物に対しての衝突を回避するために緊急停止をさせるような場合、ブレーキを掛けるといった動作と、ステアリングにより回避行動をとるための動作といった、ブレーキとステアリングとのそれぞれに対して動作が決定されることになる。したがって、緊急ブレーキを掛けるか、または、掛けないといった2択の離散的な動作である場合については、これらの複数の動作を利用して、多数決により、動作を決定するようにしてもよい。
 ステップS78において、重付平均、または、多数決のいずれかにより動作を決定する解決モードではないと判定された場合、処理は、ステップS80に進む。
 ステップS80において、自動運転制御部53は、競合が発生した場合の解決モードが、反射動作および熟考動作の相互の結果を利用して動作を決定する解決モードであるか否かを判定する。ステップS80において、例えば、反射動作および熟考動作の相互の結果を利用して動作を決定する解決モードであると判定された場合、処理は、ステップS81に進む。
 ステップS81において、自動運転制御部53は、反射動作および熟考動作の相互の結果を利用して決定される動作を決定動作とし、処理は、ステップS85(図7)に進む。
 すなわち、反射動作および熟考動作は、それぞれ個別に求められた動作であるが、両者の判断に食い違いが生じる場合、自動運転制御部53は、例えば、反射動作決定部51と熟考動作決定部52とを制御して、相互の動作を、相互の処理により求められた結果を参考値として使用して再計算させ、双方の動作を一致させるようにする。または、自動運転制御部53は、例えば、反射動作決定部51と熟考動作決定部52とを制御して、規定の繰り返し回数に達するまで、反射動作および熟考動作を求めるための再計算を繰り返させ、双方の動作を一致させる。
 ステップS80において、反射動作および熟考動作の相互の結果を利用して動作を決定する解決モードではないと判定された場合、処理は、ステップS82に進む。
 ステップS82において、自動運転制御部53は、競合が発生した場合の解決モードが、反射動作および熟考動作の動作を指示するコマンドの優先度に応じて動作を決定する解決モードであるか否かを判定する。ステップS82において、例えば、反射動作および熟考動作の動作を指示するコマンドの優先度に応じて動作を決定する解決モードであると判定された場合、処理は、ステップS83に進む。
 ステップS83において、自動運転制御部53は、反射動作および熟考動作の動作を指示するコマンドの優先度に応じて決定する動作を決定動作とし、処理は、ステップS85(図7)に進む。
 すなわち、緊急ブレーキなどのコマンドを事前に定義しておき、それが反射動作および熟考動作のいずれかの動作とされた場合、反射動作および熟考動作に依らず最優先で取り扱う。また、緊急コマンド以外でもコマンドに優劣関係を設けておき、動作が競合した場合、その優先度の優劣に応じて動作が決定されるようにしてもよい。コマンドの優劣は、例えば、停止>レーン内直進>レーン逸脱>バックといった順序で予め設定されるようにしてもよい。
 ステップS82において、反射動作および熟考動作の動作を指示するコマンドの優先度に応じて動作を決定する解決モードではないと判定された場合、処理は、ステップS84に進む。
 ステップS84において、自動運転制御部53は、運転者介入処理を実行して、競合を運転者の操作を介入して解決させて、動作を決定する。すなわち、この場合、運転者の介入を受け付けて解決させる解決モードであるものとみなされることになる。
 <運転者介入処理>
 ここで、図9のフローチャートを参照して、運転者介入処理について説明する。
 ステップS101において、自動運転制御部53は、表示部35を制御して、競合している反射動作および熟考動作のそれぞれを、解決候補として表示し、いずれかの選択により競合の解決を促す画像を表示する。
 すなわち、例えば、図10のインストルメントパネル111における競合が発生したことを示すマーク124の右側に、競合している動作を解決候補欄131として、「a)車線維持」、および「b)右車線に変更」を表示する。この解決候補欄131の「a)車線維持」、および「b)右車線に変更」は、それぞれタッチパネルによりタッチすることで選択することができる。
 ステップS102において、自動運転制御部53は、操作部31が操作されて、いずれかの解決候補が選択されたか否かを判定する。ステップS102において、例えば、図10で示される解決候補欄131の「a)車線維持」、または「b)右車線に変更」のいずれかが選択されると、処理は、ステップS103に進む。
 ステップS103において、自動運転制御部53は、解決候補欄131に表示された解決候補のうち、選択された解決候補の動作を決定動作とする。
 一方、ステップS102において、解決候補欄131のいずれの解決候補も選択されなかった場合、処理は、ステップS104に進む。
 ステップS104において、自動運転制御部53は、操作部31が操作されて、自動運転モードが解除されたか否かを判定する。ステップS104において、例えば、表示部35に表示されている切替スイッチやボタンが操作されたり、ブレーキペダルやアクセルペダルが踏み込まれて、自動運転モードを解除するとみられる意思表示に対応する動作が検出されると、自動運転モードの解除が要求されたものとみなして、処理は、ステップS105に進む。
 ステップS105において、自動運転制御部53は、自動運転モードを終了し、手動運転モードに切り替える。この処理により、以降においては、手動運転制御部32が、手動運転処理を実行する。
 さらに、ステップS104において、自動運転モードの解除が要求されていないとみなされた場合、処理は、ステップS106に進む。
 ステップS106において、自動運転制御部53は、競合が発生してから所定時間が経過したか否かを判定する。ステップS106において、所定時間が経過していないとみなされた場合、処理は、ステップS101に戻り、所定時間が経過するまで、ステップS101乃至S106の処理が繰り返される。そして、ステップS106において、所定時間が経過したとみなされた場合、処理は、ステップS107に進む。
 ステップS107において、自動運転制御部53は、自動車の走行を停止させるか、または、現状を継続する動作を決定動作とする解決モードであるものとみなし、停止させるか、または、現状を継続する動作を決定動作とする。この場合、反射動作および熟考動作のどちらも出さず停止させるか、現状を継続させる解決モードであるとみなされる。
 すなわち、反射動作および熟考動作の競合が解決できない、または、反射動作および熟考動作のいずれのコマンドをも蓄積するリストに何もないような場合、停止動作、または、現状の動作を継続する動作のうち、設定された動作が決定動作とされる。
 すなわち、以上の処理により、反射動作および熟考動作の競合が解決できない場合に、運転者を介入させる(いずれかの動作を決定させる、または、自動運転モードを解除させて手動運転モードとし、運転者自らが運転する状態にする)ことで、動作を決定させることが可能となる。また、運転者の介入がない場合については、停止動作、または、現状の動作が継続される状態となり、安全に停止させるか、または、運転者による手動運転を促す状態とすることが可能となる。
 ここで、図6,図7のフローチャートの説明に戻る。
 これまでの処理により、予め設定した解決モードのいずれかにより動作が決定され、自動運転モードを継続することが可能となる。また、自動運転モードでは競合が解決できない場合については、必要に応じて、運転者の介入を促すことが可能となる。
 ステップS85(図7)において、自動運転制御部53は、所定時間内に繰り返し停止動作が決定動作として選択されているか否かを判定し、例えば、所定時間内に繰り返し停止動作が決定動作として選択されていると判定された場合、処理は、ステップS86に進む。
 ステップS86において、自動運転制御部53は、反射動作や熟考動作を決定するために必要な閾値や安全率を制御するパラメータを調整するためのスライドバーを備えたインタフェース(スライドバーIF)画像などを表示部35に表示させることで、閾値や安全率を制御するパラメータの調整を促す。すなわち、自動運転制御部53は、例えば、図11で示されるようなスライドバーIFからなる画像を表示し、スライドバーを調整することで閾値や安全率を制御するパラメータの調整を促す。図11においては、タコメータ122の下に、競合が発生していることを示すマーク151が表示されると共に、さらに、その下に、熟考動作および反射動作に係る閾値や安全率を制御するパラメータを連続変量で表現するときのゲージ141と、その閾値や安全率を制御するパラメータを設定するためのスライドバー142が表示されている。スライドバー142は、例えば、タッチパネル操作により、図中の左右方向に移動させることで、ゲージ141に対する位置に応じた閾値や安全率を制御するパラメータを設定する。
 尚、ここでは、閾値や安全率を制御するパラメータについて、スライドバーIFを用いて設定する例について説明しているが、スライドバーIFを用いて設定できるものであれば、その他のパラメータを設定するようにしてもよく、例えば、反射動作および熟考動作が、それぞれ連続変量で扱えるようなものであれば、その重付平均で動作を決定する際に、それぞれの動作に付加される重みなどを設定できるようにしてもよい。
 ステップS87において、自動運転制御部53は、スライドバー142が左右に操作されたか否かを判定し、操作されているとみなされるまで、同様の処理を繰り返す。そして、スライドバー142が操作されると処理は、ステップS88に進む。
 ステップS88において、自動運転制御部53は、スライドバー142により設定された重みに応じて、熟考動作および反射動作の重付平均となる動作を求め、この重付平均となる動作を決定動作とする。
 尚、ステップS85において、所定時間内に繰り返し停止動作が決定動作とされていないとみなされた場合、ステップS86乃至S88の処理がスキップされる。
 すなわち、所定時間内に繰り返し停止動作が決定動作として選択される状況は、例えば、狭路で、対向車とすれ違うための動作などが考えられる。このとき、熟考動作が、グローバルな地図情報を参照して進むべき方向を決定し、反射動作が周辺の状況を観測し、自らの車体周辺のスペース幅が(自車幅+マージンθ)で設定される幅以下なら停止動作を決定動作とするものとする。
 この状況において、例えば、道路脇に自転車等が止めてあると、自車幅に対して十分なマージンを取ることが難しく、決定動作が停止動作となる状態から脱出できない状態となる可能性がある。このような状態は、デッドロックと呼ばれ、安全な動作を選択し続ける結果、停止動作が繰り返し決定動作とされ、そのままの状態となってしまう。
 ここで、スライドバー142を用いてマージンθを変更することで、運転者が周囲の状況を見ながら、自動車の挙動を調整することが可能となる。より詳細には、運転者は、アクセルやハンドルを用いて自動車の挙動を直接制御するのではなく、スライドバー142を用いて、抽象化された調整パラメータを調整することで、自動車を制御することが可能となる。
 一般に、これらの調整パラメータを正しく設定することは普通の運転者にとっては難しいが、このようにスライドバー142により調整できるようにすることで現実世界との対応が取りやすく、運転者によらず容易に調整することが可能になる。
 尚、このスライドバー142により設定される重みからなる調整値が標準の値からずれるのに応じて、自動車の速度を減速させることで、調整をより容易にすることが可能となる。
 <競合の発生を抑制する工夫について>
 以上においては、競合が発生した場合、予め設定された解決モードに応じて、反射動作と熟考動作とを利用して競合を解決する例について説明してきた。しかしながら、競合の発生そのものを抑制することで、運転制御処理を、よりスムーズなものとすることができる。
 例えば、反射動作および熟考動作を求めるにあたり、それぞれの動作を決定するに当たって設定されるマージンについて、ほぼマージンがないとみられるような第1の値と、マージンとして余裕のある第2の値とを設定し、それぞれについて第1の反射動作、および第2の反射動作、並びに第1の熟考動作、および第2の熟考動作を求める。
 そして、この第1の反射動作、および第2の反射動作、並びに第1の熟考動作、および第2の熟考動作のそれぞれの動作に基づいて動作を決定するようにして、競合を低減させるようにすることができる。
 例えば、反射動作と熟考動作とが、前進する動作、または、停止する動作のいずれかを決定動作とする場合、第1の反射動作、および第2の反射動作、並びに第1の熟考動作、および第2の熟考動作の組み合わせに応じて、決定動作を決定する。
 すなわち、図12においては、縦方向に第1の反射動作/第2の反射動作の組み合わせが示されており、横方向に第1の熟考動作/第2の熟考動作の組み合わせが示されている。また、第1の反射動作/第2の反射動作と、第1の熟考動作/第2の熟考動作との組み合わせにより決定動作として前進動作を認めるマークが「G」であり、前進動作を認めず停止動作とするマークが「N」である。
 すなわち、図12において、第1の反射動作/第2の反射動作と、第1の熟考動作/第2の熟考動作との組み合わせのうち、マージンが小さい第1の反射動作と、第1の熟考動作とがいずれも前進動作(G/X:Xは、NでもGでもよい)を認めている場合、第1の反射動作では停止動作であるが、第2の反射動作が前進動作(N/G)であって、かつ、第1の熟考動作/第2の熟考動作が、いずれも前進動作(G/G)を認めている場合、または、第1の熟考動作では停止動作であるが、第2の熟考動作が前進動作(N/G)であって、かつ、第1の反射動作/第2の反射動作が、いずれも前進動作(G/G)を認めている場合、前進動作(G)が決定動作とされる。
 逆に、図12において、第1の反射動作/第2の反射動作と、第1の熟考動作/第2の熟考動作との組み合わせのうち、マージンが小さい第1の反射動作と、第1の熟考動作とがいずれも停止動作(N/X:Xは、NでもGでもよい)である場合、第1の反射動作では前進動作であるが、第2の反射動作が停止動作(G/N)であって、かつ、第1の熟考動作/第2の熟考動作が、いずれも停止動作(N/N)を認めている場合、または、第1の熟考動作では前進動作であるが、第2の熟考動作が停止動作(G/N)であって、かつ、第1の反射動作/第2の反射動作が、いずれも停止動作(N/N)である場合、停止動作(N)が決定動作とされる。
 そして、このような場合、第1の反射動作/第2の反射動作と、第1の熟考動作/第2の熟考動作との組み合わせが、いずれも前進動作(G/G)、および、いずれも停止動作(N/N)である(図中の三角印である)とき第1の競合状態となり、前進動作および停止動作、並びに停止動作および前進動作の組み合わせである(図中の四角印である)とき第2の競合状態となる。
 このような場合、第1の競合状態においては、反射動作と熟考動作とで対局する結果となるため、停止動作とするようにし、第2の競合状態においては、相互に相反する結果となるため、運転者を介入して競合状態を解決させるようにしてもよい。
 また、図12における第1の競合状態および第2の競合状態のそれぞれにおいて、上述した7種類の競合解決モードを切り替えて設定するようにしてもよい。
 このように、反射動作と熟考動作とが、それぞれ異なるマージンで複数の動作を決定し、複数の動作のパターンにより動作を決定することで、競合の発生を低減させることができ、運転制御処理をスムーズなものにさせることが可能となる。
 さらに、以上においては、競合が発生した場合、自動運転制御部53が、予め設定された8種類の解決モードのいずれかにより競合を解決して、動作を決定する処理について説明してきたが、より厳密な競合の解決を実現するため、インターネット等のネットワークを利用して外部のサーバやクラウドコンピューティングにより別途実現される競合解決装置等により競合を解決させるようにしてもよい。
 <手動運転処理>
 次に、図13のフローチャートを参照して、手動運転処理について説明する。
 ステップS121において、個人化ブロック22における個人化関数学習部91は、認証により特定されている運転者の個人化関数を学習するための学習モデルと、学習結果記憶部92における格納先DB(データベース)を、運転者と、ユーザモードに応じて選択する。尚、予め学習モデルや格納先DBが学習結果記憶部92に登録されていない場合については、個人化関数学習部91が、運転者のものであって、ユーザモードに応じた学習すべき個人化関数と格納先DBを新規に作成する。
 ステップS122において、個人化関数学習部91は、検出部34により各種のセンサにより検出された検出結果を取得する。
 ステップS123において、個人化関数学習部91は、操作部31より供給されてくる操作信号に基づいて、運転者の運転操作に拘わる操作情報を取得する。このとき、手動運転制御部32も、同様の操作信号を取得する。
 ステップS124において、個人化関数学習部91は、操作部31より取得した操作情報と、検出部34より取得した検出結果とを用いて、認証により特定された運転者であって、その時のユーザモードの癖や習慣に対応する学習モデルにより個人化関数を学習させる。
 ステップS125において、個人化関数学習部91は、学習により獲得された個人化関数を、認証により特定された運転者であって、その時のユーザモードに対応付けて、学習結果記憶部92に記憶させる。
 ステップS126において、手動運転制御部32は、操作情報に基づいて、車体の各種の動作を機能させる機器から構成される車体動作部33に対して、対応する動作を実行させるコマンドを供給し、車体動作部33を動作させる。
 以上の処理により、運転者により操作された操作部31の操作情報と検出部34により検出された検出結果に基づいて、個人化関数がユーザモードに応じて学習されて、学習結果記憶部92に記憶される。この際、手動運転制御部32が、操作情報に対応するコマンドを車体動作部33に供給し、自動車の手動運転を制御することになる。
 <個人化関数の学習>
 ここで、個人化関数の学習について説明する。
 時刻tにおける検出部34における検出結果(観測値)をStとして、運転者の操作情報をatとし、さらに、その時点での運転操作の目標をgtであるものとする。ここで、運転者の操作を直接真似ようとする場合、学習は、以下の式(1)により定義される関数を個人化関数として学習する処理となる。
Figure JPOXMLDOC01-appb-M000001
                           ・・・(1)
 例えば、自動車を停止させる動作を考えるものとする。ここで想定されるのは、自動車が所定のレーン内を走行し、赤信号等の理由により前車、または、白線停止線に合わせて、なめらかに減速し、そして停止するものとする。
 この場合、早めにブレーキを踏むのが好きな人もいれば、前車までの距離をギリギリまで詰めて急減速して停止するのが好きな人もいる。さらには、車間の間隔をあけて前車の挙動に左右されず、自分の好みの速度で停止することを好む人もいる。
 個人化関数学習部91は、運転者の運転操作履歴を構成する操作情報の中から、運転者が運転する自動車がレーン内で停止する動作に該当する操作情報を抽出し、集合Xstopを構成する。この場合の学習問題は、以下の式(2)で示される関数で表される。
Figure JPOXMLDOC01-appb-M000002
                           ・・・(2)
 関数fstop(St)は、レーン内で停止する動作に係る検出結果より得られる関数である。
 ここで、目的は運転者の行動の模倣なので、以下の式(3)を実現することが学習となる。
Figure JPOXMLDOC01-appb-M000003
                           ・・・(3)
 誤差関数としては、例えば、以下の式(4)を用いることができる。
Figure JPOXMLDOC01-appb-M000004
                           ・・・(4)
 すると、レーン内に停止するときの操作情報からなる履歴データXstopに対して、以下の式(5)で表現される機械の出力値を教師信号aiに近づけるような関数近似学習を行うことになる。
Figure JPOXMLDOC01-appb-M000005
                           ・・・(5)
 学習器としては、例えば、多層のフィードフォーワードニューラルネットワークを用いた、Deep Learningと呼ばれる学習器を採用することができる。Deep Learningの学習について詳しくは、例えば、機械学習プロフェッショナルシリーズ深層学習(岡谷貴之,講談社サイエンティフィク)を参照されたい。もちろん、これに限らず任意の関数近似器を用いることができる。
 尚、運転者の運転操作を教師信号として、逆強化学習により、所定の状況での検出結果Stにおける操作情報atを学習させるようにしてもよい。
 また、学習に用いられるデータとしては、上述したもの以外のものであってもよく、例えば、運転者に関わる情報、同乗者に関わる情報、車中環境に関わる情報、車外環境に関わる情報、および自動車の走行プランに関わる情報などを利用してもよい。
 ここで、運転者に関わる具体的な情報としては、運転者のバイタル情報(心拍、脈拍、血圧、体温、血糖値、呼気アルコール濃度、血中アルコール濃度、血中酸素濃度、覚醒度、集中度、感情、情動、脳波等)、運転者の姿勢、視線、体動情報等、運動、または、行動状態に関わる情報の1つもしくは複数を含んでもよい。
 また、同乗者に関わる情報としては、人数、年齢、性別、座席位置、またシートベルト等の安全装置の使用状況、同乗者のバイタル情報(心拍、脈拍、血圧、体温、血糖値、呼気アルコール濃度、血中アルコール濃度、血中酸素濃度、覚醒度、集中度、感情、情動、脳波等)前記同乗者の姿勢、視線、体動情報等、または、運動・行動状態に関わる情報の1つもしくは複数を含んでもよい。
 さらに、車中環境に関わる情報としては、車内(運転席、助手席ほか、各座席位置で)の環境測定値(気温、湿度、風量、振動、騒音、照度、酸素濃度等)、対象自動車に搭載されているセンサデータ、自動車の運動に関わるリアルタイムの情報、自動車の位置、進行方向(及びそれらの測定精度)、自動車の速度、角速度、加速度、角加速度(及びそれらの測定精度)、アクセル、ブレーキ、操舵に関する操作値。ウィンカー、ワイパー、その他搭載機器の操作情報、ABS(Antilock Brake System)、TCS(Traction Control System)、LKAS(Lane Keep Assist System)、ACC(Adaptive Cruise Control)等の安全装置の作動状況、および、故障関連の情報、または警告情報やエラー情報の1つもしくは複数を含んでもよい。
 また、車外環境に関わる情報としては、周囲の近接自動車(自動2輪車を含む)の位置および進行方向、また速度、角速度、加速度、角加速度(及びそれらの測定精度)、周囲の近接自動車(自動2輪車を含む)のブレーキランプ、ウィンカー、ハザードランプ等の作動状況、周囲の近接自動車(自動2輪車を含む)からのV2V(Vehicle To Vehicle)通信データ、周囲の軽自動車の位置および進行方向、また速度、角速度、加速度、角加速度(及びそれらの測定精度)、周囲の歩行者の位置および進行方向、また速度、角速度、加速度、角加速度(及びそれらの測定精度)、周辺、とくに前方の信号の状態、また、当該自動車が走行する道路における事故や工事、レーン閉鎖等に関する情報、周囲の歩行者あるいは車外インフラからのV2X(Vehicle To X(X:Everything))通信データや当該自動車が走行する地域の気候及び天候に関する情報の1つもしくは複数を含んでもよい。
 さらに、当該自動車の走行プランに関わる情報としては、出発地及び出発時刻、また目的地(の複数の候補)もしくは走行する予定の地域、現在地及び現在時刻、および出発地から目的地(候補)までの走行(予定)ルートの1つもしくは複数を含んでもよい。
 <個人化関数更新処理>
 次に、図14のフローチャートを参照して、個人化関数更新処理について説明する。
 個人化関数更新処理は、図2を参照して説明したように、一般に、運転制御処理が終了した後に実行されるが、運転制御処理がなされていないタイミングであれば、その他のタイミングであってもよいものである。
 ステップS141において、学習結果検証部93は、学習結果記憶部92に記憶されている個人化関数を読み出す。複数の個人化関数や、複数のユーザモード毎の個人化関数が存在する場合、それらを個別に識別して読み出す。
 ステップS142において、学習結果検証部93は、インターネット等に代表されるネットワークを介して外部の検証装置13に対して、読み出した個人化関数を供給し、検証を要求する。この処理により、検証装置13は、検証処理を実行して、個人化関数の安全性等、動作に問題があるか否かを検証する。尚、検証処理については、図15以降において後述するものとする。
 ステップS143において、検証結果判定部94は、検証装置13より検証結果を取得する。
 ステップS144において、検証結果判定部94は、検証結果に基づいて、個人化関数が用いられることにより、補正が加えられた動作が問題のない運転を仮想空間において実現できたか否かを判定する。ステップS144において、例えば、個人化関数を用いた補正動作が問題のない運転を仮想空間において実現できたとみなされた場合、処理は、ステップS145に進む。
 ステップS145において、検証結果判定部94は、個人化関数によるコマンドの補正動作が問題ない運転を実現したことを個人化関数更新部95に通知する。この通知により、個人化関数更新部95は、学習結果記憶部92に記憶されている、問題がない状態に学習がなされた個人化関数で、個人化関数記憶部54に記憶されている、対応する運転者であって、対応するユーザモードの個人化関数を更新する。
 尚、ステップS144において、例えば、個人化関数によるコマンドの補正動作が問題のない運転を実現できなかったとみなされた場合、ステップS145の処理がスキップされて、個人化関数の更新がなされない。また、複数の運転者の個人化関数や、複数のユーザモードが設定されている個人化関数が存在する場合、それぞれ個別に検証処理がなされて、個別の検証結果に応じて、更新がなされる。
 すなわち、以上の処理により、運転者毎に、かつ、運転者のユーザモード毎に、個別に個人化関数が学習により求められ、さらに、個別に検証処理がなされ、それぞれについて個人化関数が用いられることにより補正が加えられた補正動作による自動運転処理に問題がないとき、個人化関数が更新される。
 これにより、手動運転モードにおける運転者の運転に係る癖や習慣が反映されるように学習された個人化関数のうち、検証処理により異常がないとみなされた個人化関数だけが更新されるようになる。
 結果として、自動運転モードであっても、運転者毎に、かつ、運転者のユーザモード毎に対象となる運転者の手動運転モードにおける運転の癖や習慣が反映された自動運転制御を安全に実現することが可能となる。
 また、ニューラルネットワークであれば、ネットワーク重みなどの個人化関数を学習後のものに更新する。一般には検出結果Stに対して操作情報atを計算するための「辞書データ」が更新されるが、計算アルゴリズム自体が変更され、検出結果Stを入力として出力結果となる操作情報atを計算する関数の実行コード自体を入れ替えるようにしてもよい。
 <検証装置の構成例>
 次に、図15のブロック図を参照して、検証装置13の構成例について説明する。
 検証装置13は、検証処理を実行することにより、運転制御装置11より検証が要求された個人化関数の、安全性等を検証するものである。より具体的には、検証装置13は、仮想空間において、上述した運転制御装置11を搭載した自動車を、自動運転モードで、かつ、個人化関数を用いて、シミュレーションによる走行を仮想的に再現させ、事故等の不具合の発生の有無を確認することで、個人化関数の安全性等を検証する。
 より具体的には、検証装置13は、出発目的地ランダム設定部181、経路生成部182、チェックポイント位置計算部183、行動決定モデル算出部184、シミュレータ185、イベント発生部186、状態算出部187、センサモデルノイズモデル発生部188、記録部189、および検証部190を備えている。
 出発目的地ランダム設定部181は、仮想空間内における出発地と目的地とをランダムに設定し、経路生成部182および状態算出部187に供給する。
 経路生成部182は、出発目的地ランダム設定部181により設定された出発地と目的地とから経路を設定し、チェックポイント位置計算部183に供給する。
 チェックポイント位置計算部183は、生成された経路上の次のチェックポイントを計算し、チェックポイントでの運転操作の目標gtを設定する。ここでいうチェックポイントとは、例えば、図16で示されるルートマップ上において、状態が算出され、行動が決定されるポイントである。図16においては、地図上に描かれた道路Rに沿って設定された経路r上の黒点で示された位置がチェックポイントc1乃至cnである。そして、このチェックポイントc1乃至cnのそれぞれにおいて、次の運転操作の目標gtが設定される。
 運転操作の目標gtとしては、走行予定経路上の「次のチェックポイントの(自車に対する)相対位置、相対姿勢角」や「チェックポイント通過時の速度、加速度プロファイル」「走行予定経路の(チェックポイントにおける)曲率」などが具体例として挙げられる。停止シーンでは、例えば、前方100m(の停止線)で(クルマの向きは現在のまま)、速度および加速度は0といったものとなる。
 センサモデルノイズモデル発生部188は、検出部34を構成する各種のセンサのモデルを構築し、それぞれのセンサにおけるノイズのモデルを発生し、状態算出部187に供給する。
 状態算出部187は、シミュレータ185より供給される仮想空間内の走行位置、イベント発生部186により供給される、人の飛び出しや天候の変化といったイベントの情報、センサモデルノイズモデル発生部188より供給されるセンサモデルおよびノイズモデルの情報に基づいて、検出部34により検出されるであろう検出結果(観測値)を状態Stとして算出する。
 より具体的には、状態Stは、運転制御装置11を搭載し個人化関数が学習された自動車に搭載されている検出部34の仮想的な検出結果であり、例えば、「ミリ波レーダの検出結果」、および「ステレオカメラにより撮像された画像」、または、それらを処理して得られる「周囲の近接車両の位置および進行方向、また速度、角速度、加速度、角加速度」と、「自動車の位置、進行方向、また速度、角速度、加速度、角加速度」である。また、検出結果は、その他、様々な情報であってもよく、様々な情報を利用することで、より「個人化」に寄与することが可能となる。例えば、高速道路および一般道や、昼および夜での運転に係る癖や習慣の変化をも反映させることが可能となる。
 尚、シミュレータ185により走行状態が再現される出発地については、出発目的地ランダム設定部181より供給される情報が利用される。
 行動決定モデル算出部184は、チェックポイント位置計算部183より供給されてくるチェックポイントでの運転操作の目標gtと、状態算出部187より供給されてくる状態Stとに基づいて、検証部190より供給されてくる検証が要求された個人化関数を用いて、行動決定モデルatを決定し、シミュレータ185に供給する。この行動決定モデルatは、上述した運転者の操作情報に対応するものである。
 シミュレータ185は、行動決定モデル算出部184より供給されてくる行動決定モデルatに基づいて、仮想空間内で、運転制御装置11が搭載された自動車の走行(動作)を再現し、その結果をイベント発生部186、状態算出部187、および記録部189に供給する。シミュレータ185により求められる仮想空間内の動作は、理論的には、自動運転制御ブロック21により決定された自動車の動作そのものである。
 イベント発生部186は、シミュレータ185より順次供給されてくる、チェックポイントでの動作結果をトリガとしてイベントを発生し、状態算出部187および記録部189に供給する。
 記録部189は、シミュレータ185より供給されてくるシミュレーション結果と、イベント発生部186より供給されてくる各種イベントとを、チェックポイント毎に対応付けて記録する。すなわち、記録部189が、この検証処理が実行されている間の仮想空間内における運転制御装置11が搭載されている自動車の検証結果を順次記録する。
 検証部190は、インターネットに代表されるネットワークを介して運転制御装置11より供給されてくる検証が要求された個人化関数を受け付けると共に、受け付けた個人化関数を行動決定モデル算出部184に供給する。また、検証部190は、記録部189に記録されている検証結果を読み出し、検証が要求された個人化関数に対応付けて運転制御装置11に供給する。
 <検証処理>
 次に、図17のフローチャートを参照して、図15の検証装置13による検証処理について説明する。
 ステップS161において、検証部190は、運転制御装置11よりネットワークを介して個人化関数の検証が要求されてきたか否かを判定し、要求されるまで、同様の処理を繰り返す。例えば、図14におけるステップS142の処理により、個人化関数と共に、その検証が要求されてきた場合、処理は、ステップS162に進む。
 ステップS162において、検証部190は、送信されてきた個人化関数を取得し、行動決定モデル算出部184に供給する。
 ステップS163において、出発目的地ランダム設定部181は、シミュレータ185における仮想空間内において、ランダムに出発地と目的地を設定して経路生成部182および状態算出部187に供給する。
 ステップS164において、経路生成部182は、出発目的地ランダム設定部181により、ランダムに設定された出発地と目的地とに基づいて、経路を生成し、チェックポイント位置計算部183に供給する。
 ステップS165において、チェックポイント位置計算部183は、供給されてきた経路に基づいて、経路上に次のチェックポイントの位置を計算し、チェックポイントでの運転操作の目標gtを設定し、行動決定モデル算出部184に供給する。
 ステップS166において、状態算出部187は、シミュレータ185における出発時刻および出発地を設定する。
 ステップS167において、センサモデルノイズモデル発生部188は、センサモデルおよびノイズモデルの情報を発生し、状態算出部187に供給する。
 ステップS168において、状態算出部187は、シミュレータ185における現在時刻、位置、センサモデルおよびノイズモデルの情報に基づいて、状態Stを算出し、行動決定モデル算出部184に供給する。尚、後述するイベント発生部186によりイベントが発生されている場合については、発生されたイベントも考慮して状態stが算出される。
 ステップS169において、行動決定モデル算出部184は、検証が要求されている個人化関数を用いて、行動決定モデルatを算出し、シミュレータ185に供給する。より詳細には、検証が要求されている個人化関数fである場合、行動決定モデル算出部184は、個人化関数fに状態Stおよび運転操作の目標gtの情報を入力し、行動決定モデルat(=f(st,gt))を算出する。
 ステップS170において、シミュレータ185は、行動決定モデルatに基づいて、物理シミュレーションを実行し、実行結果をイベント発生部186、状態算出部187、および記録部189に供給する。すなわち、シミュレータ185は、仮想空間内で運転制御装置11が搭載された自動車に対して、行動決定モデルatで特定された運転操作が加えられたときの走行状態を再現する。
 ステップS171において、イベント発生部186は、シミュレータ185より供給されてくる仮想空間内での運転制御装置11が搭載された自動車の挙動に応じたイベントを発生し、状態算出部187および記録部189に供給する。
 ステップS172において、記録部189は、イベント発生部186により発生されたイベント、およびシミュレータ185の物理シミュレーション結果を、チェックポイントに対応付けて記録する。
 ステップS173において、検証部190は、検証が終了したか否かを判定する。検証処理の終了は、シミュレーションを実行し続ける時間などにより設定されたり、目的地に到着したタイミングなどに設定される。ステップS173において、終了ではない場合、処理は、ステップS174に進む。
 ステップS174において、チェックポイント位置計算部183は、次のチェックポイントの位置を計算し、そのチェックポイントでの運転操作の目標gtを設定して、行動決定モデル算出部184に供給し、処理は、ステップS167に戻る。
 すなわち、検証処理が終了するまで、ステップS167乃至S174の処理が繰り返される。
 そして、ステップS173において、検証終了であるとみなされた場合、処理は、ステップS175に進む。
 ステップS175において、検証部190は、記録部189に記録されているシミュレーション結果に基づいて、検証結果を生成する。
 ステップS176において、検証部190は、生成した検証結果を運転制御装置11に供給する。
 以上の処理により、個人化関数により自動運転処理を実行した場合における安全性を検証することが可能となる。尚、検証結果が、運転制御装置11に送信されると、図14におけるステップS143以降の処理により、事故などが発生せず、問題がない場合にのみ個人化関数が更新されることになる。
 尚、運転操作の目標gtや状態Stとして、「高速道路走行中」、「一般道(レーン)走行中」、「交差点通過中」、「停止・減速中」、「非レーン領域走行中(駐車場など)」、「Uターン中」、および「路肩駐車中」といった自動車の動作モードを加えるようにしてもよく、これにより、個人化関数の学習を容易にできることがある。
 また、以上においては、検証装置13が、インターネットに代表されるネットワークを介した外部の装置として構成される例について説明してきたが、ハードウェアの機能を強化させることで、運転制御装置11に設けるようにしてもよい。
 <<2.第1の変形例>>
 以上においては、検証処理において求められた検証結果だけを検証装置13から運転制御装置11に供給する例について説明してきたが、検証結果に加えて、シミュレーションなどで事故が発生しまったような失敗データや、事故を回避可能な正解データを併せて運転制御装置11に供給するようにしてもよい。このようにすることで、運転制御装置11においては、失敗データや正解データのフィードバックを受けて、再学習を実現することが可能となる。
 <検証装置の第1の変形例における構成例>
 次に、図18のブロックを参照して、検証結果に加えて、失敗データおよび正解データを併せて運転制御装置11に供給するようにした検証装置13の構成例について説明する。尚、図18において、図15の検証装置13と同一の機能を備えた構成については、同一の名称、および同一の符号を付しており、その説明は省略するものとする。すなわち、図18の検証装置13において、図15の検証装置13と異なる点は、検証部190に代えて、検証部201を設けた点である。
 検証部201は、基本的な機能は検証部190と同様であるが、さらに、検証結果に問題がある個人化関数であった場合、検証結果に加えて、失敗データおよび正解データを併せて運転制御装置11に供給する。
 <運転制御装置の第1の変形例における構成例>
 次に、図19を参照して、検証装置13から、検証結果に加えて、失敗データおよび正解データを受信する運転制御装置11の構成例について説明する。尚、図19において、図1の運転制御装置11と同一の機能を備えた構成については、同一の名称、および同一の符号を付しており、その説明は省略するものとする。
 すなわち、図19の運転制御装置11において、図1の運転制御装置11と異なる点は、個人化関数学習部91、および学習結果検証部93に代えて、個人化関数学習部211、および学習結果検証部212を設けた点である。
 学習結果検証部212は、基本的に、学習結果検証部93と同様の機能を備えるが、さらに、図19の検証装置13から送信されてくる検証結果、失敗データおよび正解データを受信する。このとき、学習結果検証部212は、検証を依頼した個人化関数に問題があることを示す検証結果が送信されてくるとき、併せて送られてくる失敗データおよび正解データを受信すると、失敗データおよび正解データを個人化関数学習部211にフィードバックする。
 個人化関数学習部211は、基本的に、個人化関数学習部91と同様の機能を備えるが、さらに、学習結果検証部212より失敗データおよび正解データを取得すると、以降の関数学習にこれを利用する。
 <図18の検証装置による検証処理>
 ここで、図20のフローチャートを参照して、検証結果に加えて、失敗データおよび正解データを運転制御装置11に送信する図18の検証装置13による検証処理について説明する。尚、図20のステップS201乃至S215,S217の処理については、図17のステップS161乃至S176と同様の処理であるので、その説明は省略するものとする。
 すなわち、ステップS216において、検証部201は、検証結果が問題のないものであるか否かを判定する。ここで、検証結果に問題がある場合、処理は、ステップS218に進む。
 ステップS218において、検証部201は、検証結果と共に、失敗データおよび正解データを運転制御装置11に供給する。
 以上の処理により、個人化関数に問題がある場合、検証結果と共に、失敗データおよび正解データを運転制御装置11に供給することが可能となる。
 <図19の運転制御装置11による個人化関数更新処理>
 次に、図21のフローチャートを参照して、検証結果と共に、失敗データおよび正解データが送信されてくる、図19の運転制御装置11における個人化関数更新処理について説明する。尚、図19におけるステップS241,S242,S244、およびS245の処理は、図14におけるステップS141、S142、S144、およびS145の処理と同様であるので、その説明は適宜省略するものとする。
 すなわち、ステップS243において、学習結果検証部212は、検証結果と共に、失敗データおよび正解データを取得する。
 そして、ステップS244において、個人化関数に問題がある場合、処理は、ステップS246に進む。
 ステップS246において、学習結果検証部212は、失敗データおよび正解データを個人化関数学習部211に供給し、フィードバックする。
 以上の処理により、学習結果検証部212は、失敗データおよび正解データを用いた学習が可能となるため、再学習を実現することが可能となる。尚、再学習において必要とされるのは、失敗データであるため、正解データは必須ではない。
 <<3.第2の変形例>>
 以上においては、検証結果に加えて、失敗データおよび正解データを運転制御装置11に送信させる検証装置13の例について説明してきたが、個人化関数に問題がある場合、検証装置13において、シミュレーションにより再訓練し、矯正した個人化関数を矯正関数として運転制御装置11に戻すことで個人化関数の更新を行い易くするようにしてもよい。このようにすることで、運転制御装置11においては、学習において完全な個人化関数が完成できない状態でも、矯正関数を受け取り、更新を早期に実現することが可能となる。
 <検証装置の第2の変形例における構成例>
 次に、図22のブロックを参照して、検証結果に問題があった場合の個人化関数を再訓練により矯正した矯正関数を生成し、検証結果に加えて、失敗データおよび正解データ、並びに、矯正関数を併せて運転制御装置11に供給するようにした検証装置13の構成例について説明する。尚、図22において、図18の検証装置13と同一の機能を備えた構成については、同一の名称、および同一の符号を付しており、その説明は省略するものとする。
 すなわち、図22の検証装置13において、図18の検証装置13と異なる点は、検証部201に代えて、検証部221を設けた点である。
 検証部221は、基本的な機能は検証部201と同様であるが、さらに、検証結果に問題がある個人化関数であった場合、個人化関数を再訓練(再学習)させて矯正関数を生成し、検証結果に加えて、失敗データおよび正解データ、並びに、矯正関数を併せて運転制御装置11に供給する。この際、検証部221は、個人化関数を検証した方法と同手法で矯正関数についても検証処理を施し、検証結果を運転制御装置11に送信する。したがって、この場合、検証部221は、検証が要求された個人化関数、および矯正関数の2種類の検証結果と共に、失敗データおよび正解データを運転制御装置11に送信する。
 <運転制御装置の第1の変形例における構成例>
 次に、図23を参照して、検証装置13から、検証結果に加えて、失敗データおよび正解データ、並びに、矯正関数を受信する運転制御装置11の構成例について説明する。尚、図23において、図19の運転制御装置11と同一の機能を備えた構成については、同一の名称、および同一の符号を付しており、その説明は省略するものとする。
 すなわち、図23の運転制御装置11において、図19の運転制御装置11と異なる点は、個人化関数学習部211、学習結果検証部212、検証結果判定部94、および個人化関数更新部95に代えて、個人化関数学習部231、学習結果検証部232、検証結果判定部233、および個人化関数更新部234を設けた点である。
 学習結果検証部232は、基本的に、学習結果検証部212と同様の機能を備えるが、さらに、図22の検証装置13から送信されてくる検証結果、失敗データおよび正解データ、並びに矯正関数を受信する。このとき、学習結果検証部232は、検証を依頼した個人化関数に問題があることを示す検証結果が送信されてくるとき、併せて送られてくる失敗データおよび正解データ、並びに矯正関数を受信すると、失敗データおよび正解データ、並びに矯正関数を個人化関数学習部231にフィードバックする。
 個人化関数学習部231は、基本的に、個人化関数学習部211と同様の機能を備えるが、さらに、学習結果検証部232より失敗データおよび正解データ、並びに矯正関数を取得すると、以降の関数学習にこれを利用する。
 さらに、検証結果判定部233は、基本的な機能が検証結果判定部94と同様であるが、さらに、矯正関数も併せて送信されてくるとき、矯正関数の検証結果に基づいて、個人化関数の更新を判定し、検証結果に問題がなければ、個人化関数を矯正関数で更新させる。
 個人化関数更新部234は、基本的には、個人化関数更新部95と同様の機能を備えているが、さらに、矯正関数の検証結果に問題がない場合、矯正関数で、個人化関数記憶部54に記憶されている、対応する個人化関数を更新する。
 <図22の検証装置における検証処理>
 ここで、図24のフローチャートを参照して、検証結果に問題がある場合、再訓練により個人化関数を矯正した矯正関数を生成するときの検証処理について説明する。尚、図20のステップS261乃至S275,S277の処理については、図17のステップS161乃至S176と同様の処理であるので、その説明は省略するものとする。
 すなわち、ステップS276において、検証部221は、検証結果が問題のないものであるか否かを判定する。ここで、検証結果に問題がある場合、処理は、ステップS278に進む。
 ステップS278において、検証部221は、個人化関数の再訓練(再学習)を行うことで矯正し、矯正関数を生成し、さらに、検証する。
 ステップS279において、検証部190は、矯正関数の検証結果と共に、失敗データおよび矯正関数を運転制御装置11に供給する。
 尚、矯正関数は、学習量に応じて、必ずしも安全性が確認されるレベルにまで達したものとならない可能性がある。しかしながら、矯正関数が完成するまでに必要とされる学習がある程度なされた状態となるため、これを利用した学習により学習効率を向上させることが可能となる。
 以上の処理により、検証結果と共に、失敗データおよび矯正関数を運転制御装置11に供給することが可能となる。
 <図23の運転制御装置における個人化関数更新処理>
 次に、図25のフローチャートを参照して、検証結果と共に、失敗データおよび矯正関数が送信されてくるときの運転制御装置11における個人化関数更新処理について説明する。尚、図21におけるステップS301,S302,S304、およびS305の処理は、図14におけるステップS141、S142、S144、およびS145の処理と同様であるので、その説明は適宜省略するものとする。
 すなわち、ステップS303において、学習結果検証部232は、検証結果と共に、失敗データおよび矯正関数を取得する。
 そして、ステップS304において、検証結果判定部233により個人化関数に問題がある場合、処理は、ステップS306に進む。
 ステップS306において、検証結果判定部233は、矯正関数に問題があるか否かを判定する。ステップS306において、問題があるとみなされた場合、処理は、ステップS307に進む。
 ステップS307において、学習結果検証部232は、失敗データおよび矯正関数を個人化関数学習部231に供給し、フィードバックする。
 この処理により再学習が可能となり、さらに、ある程度学習が進んだ状態であるので、学習効率を向上させることが可能となる。
 一方、ステップS306において、矯正関数に問題がない場合、処理は、ステップS305に進む。すなわち、この場合、ステップS305において、個人化関数更新部234は、個人化関数記憶部54に記憶されている個人化関数を、送信されてきた矯正関数により更新する。
 以上の処理により、個人化関数が検証装置13により検証された後、問題がある場合、再訓練により矯正関数が求められ、問題がないレベルの矯正関数が求められれば、運転制御装置11は、個人化関数を直ちに更新することが可能となる。このため、普段、あまり運転しない運転者であっても効率よく個人化関数を更新することが可能となる。
 また、矯正関数が不完全であっても、ある程度学習が進んだ矯正関数と失敗データを用いて再学習させることができるので、学習効率を向上させることが可能となる。
 <<4.第1の応用例>>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車などのいずれかの種類の自動車に搭載される装置として実現されてもよい。
 図26は、本開示に係る技術が適用され得る自動車制御システム2000の概略的な構成の一例を示すブロック図である。自動車制御システム2000は、通信ネットワーク2010を介して接続された複数の電子制御ユニットを備える。図26に示した例では、自動車制御システム2000は、駆動系制御ユニット2100、ボディ系制御ユニット2200、バッテリ制御ユニット2300、車外情報検出ユニット2400、車内情報検出ユニット2500、及び統合制御ユニット2600を備える。これらの複数の制御ユニットを接続する通信ネットワーク2010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク2010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図26では、統合制御ユニット2600の機能構成として、マイクロコンピュータ2610、汎用通信I/F2620、専用通信I/F2630、測位部2640、ビーコン受信部2650、車内機器I/F2660、音声画像出力部2670、車載ネットワークI/F2680及び記憶部2690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット2100は、各種プログラムにしたがって自動車の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット2100は、内燃機関又は駆動用モータ等の自動車の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、自動車の舵角を調節するステアリング機構、及び、自動車の制動力を発生させるZc等の制御装置として機能する。駆動系制御ユニット2100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット2100には、自動車状態検出部2110が接続される。自動車状態検出部2110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、自動車の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット2100は、自動車状態検出部2110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット2200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット2200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット2200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット2200は、これらの電波又は信号の入力を受け付け、自動車のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット2300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池2310を制御する。例えば、バッテリ制御ユニット2300には、二次電池2310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット2300は、これらの信号を用いて演算処理を行い、二次電池2310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット2400は、自動車制御システム2000を搭載した自動車の外部の情報を検出する。例えば、車外情報検出ユニット2400には、撮像部2410及び車外情報検出部2420のうちの少なくとも一方が接続される。撮像部2410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部2420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、自動車制御システム2000を搭載した自動車の周囲の他の自動車、障害物又は歩行者等を検出するための周囲情報検出センサが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部2410及び車外情報検出部2420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図27は、撮像部2410及び車外情報検出部2420の設置位置の例を示す。撮像部2910,2912,2914,2916,2918は、例えば、自動車2900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部2910及び車室内のフロントガラスの上部に備えられる撮像部2918は、主として自動車2900の前方の画像を取得する。サイドミラーに備えられる撮像部2912,2914は、主として自動車2900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部2916は、主として自動車2900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部2918は、主として先行自動車又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図27には、それぞれの撮像部2910,2912,2914,2916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部2910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部2912,2914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部2916の撮像範囲を示す。例えば、撮像部2910,2912,2914,2916で撮像された画像データが重ね合わせられることにより、自動車2900を上方から見た俯瞰画像が得られる。
 自動車2900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部2920,2922,2924,2926,2928,2930は、例えば超音波センサ又はレーダ装置であってよい。自動車2900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部2920,2926,2930は、例えばLIDAR装置であってよい。これらの車外情報検出部2920乃至2930は、主として先行自動車、歩行者又は障害物等の検出に用いられる。
 図26に戻って説明を続ける。車外情報検出ユニット2400は、撮像部2410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット2400は、接続されている車外情報検出部2420から検出情報を受信する。車外情報検出部2420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット2400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット2400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット2400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット2400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット2400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット2400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部2410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット2400は、異なる撮像部2410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット2500は、車内の情報を検出する。車内情報検出ユニット2500には、例えば、運転者の状態を検出する運転者状態検出部2510が接続される。運転者状態検出部2510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット2500は、運転者状態検出部2510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット2500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット2600は、各種プログラムにしたがって自動車制御システム2000内の動作全般を制御する。統合制御ユニット2600には、入力部2800が接続されている。入力部2800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。入力部2800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、自動車制御システム2000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部2800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。さらに、入力部2800は、例えば、上記の入力部2800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット2600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部2800を操作することにより、自動車制御システム2000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部2690は、マイクロコンピュータにより実行される各種プログラムを記憶するRAM(Random Access Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するROM(Read Only Memory)を含んでいてもよい。また、記憶部2690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F2620は、外部環境2750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F2620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F2620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F2620は、例えばP2P(Peer To Peer)技術を用いて、自動車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F2630は、自動車における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F2630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、又はDSRC(Dedicated Short Range Communications)といった標準プロトコルを実装してよい。専用通信I/F2630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部2640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、自動車の緯度、経度及び高度を含む位置情報を生成する。なお、測位部2640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部2650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部2650の機能は、上述した専用通信I/F2630に含まれてもよい。
 車内機器I/F2660は、マイクロコンピュータ2610と車内に存在する様々な機器との間の接続を仲介する通信インタフェースである。車内機器I/F2660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F2660は、図示しない接続端子(及び、必要であればケーブル)を介して有線接続を確立してもよい。車内機器I/F2660は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は自動車に搬入され若しくは取り付けられる情報機器との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F2680は、マイクロコンピュータ2610と通信ネットワーク2010との間の通信を仲介するインタフェースである。車載ネットワークI/F2680は、通信ネットワーク2010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット2600のマイクロコンピュータ2610は、汎用通信I/F2620、専用通信I/F2630、測位部2640、ビーコン受信部2650、車内機器I/F2660及び車載ネットワークI/F2680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、自動車制御システム2000を制御する。例えば、マイクロコンピュータ2610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット2100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ2610は、自動車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ2610は、汎用通信I/F2620、専用通信I/F2630、測位部2640、ビーコン受信部2650、車内機器I/F2660及び車載ネットワークI/F2680のうちの少なくとも一つを介して取得される情報に基づき、自動車の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ2610は、取得される情報に基づき、自動車の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部2670は、自動車の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図26の例では、出力装置として、オーディオスピーカ2710、表示部2720及びインストルメントパネル2730が例示されている。表示部2720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部2720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ2610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図26に示した例において、通信ネットワーク2010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、自動車制御システム2000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク2010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク2010を介して相互に検出情報を送受信してもよい。
 以上説明した自動車制御システム2000において、図1を用いて説明した本実施形態に係る運転制御装置11は、図26に示した応用例の統合制御ユニット2600に適用することができる。例えば、図1の運転制御装置11の自動運転制御ブロック21、個人化ブロック22、および手動運転制御部32は、統合制御ユニット2600のマイクロコンピュータ2610、記憶部2690、車載ネットワークI/F2680に相当する。例えば、統合制御ユニット2600が自動運転制御ブロック21として機能することにより、自動運転を安全に実現することができる。また、個人化ブロック22が、個人化関数を学習することにより、運転者毎の嗜好に応じた自動運転を実現することができる。
 また、図1を用いて説明した運転制御装置11の少なくとも一部の構成要素は、図26に示した統合制御ユニット2600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、図1を用いて説明した運転制御装置11が、図26に示した自動車制御システム2000の複数の制御ユニットによって実現されてもよい。すなわち、検出部34は、例えば、図26に示した自動制御システム2000の車外情報検出ユニット2400、および車内検出ユニット2500の少なくともいずれかによって実現されるようにしてもよい。
 なお、図1を用いて説明した運転制御装置11の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 <<5.第2の応用例>>
 <ソフトウェアにより実行させる例>
 ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
 図28は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)3001を内蔵している。CPU3001にはバス3004を介して、入出力インタ-フェイス3005が接続されている。バス3004には、ROM(Read Only Memory)3002およびRAM(Random Access Memory)3003が接続されている。
 入出力インタ-フェイス3005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部3006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部3007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部3008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部3009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア3011に対してデータを読み書きするドライブ3010が接続されている。
 CPU3001は、ROM3002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア3011ら読み出されて記憶部3008にインストールされ、記憶部3008からRAM3003にロードされたプログラムに従って各種の処理を実行する。RAM3003にはまた、CPU3001が各種の処理を実行する上において必要なデータなども適宜記憶される。
 以上のように構成されるコンピュータでは、CPU3001が、例えば、記憶部3008に記憶されているプログラムを、入出力インタフェース3005及びバス3004を介して、RAM3003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU3001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア3011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア3011をドライブ3010に装着することにより、入出力インタフェース3005を介して、記憶部3008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部3009で受信し、記憶部3008にインストールすることができる。その他、プログラムは、ROM3002や記憶部3008に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 尚、本開示は、以下のような構成も取ることができる。
<1> 移動体を運転する運転者の運転操作の入力を受け付ける操作部と、
 前記移動体の状態を検出する検出部と、
 前記運転操作に係る操作情報と、前記検出部の検出結果に基づいて、前記運転者の前記運転操作に係る個人化関数を学習する学習部と、
 前記検出結果、および、前記個人化関数に基づいて、前記移動体の動作を制御する動作制御部とを含む
 運転制御装置。
<2> ネットワークを介して、外部の検証装置に、前記学習部により学習された個人化関数の検証を要求し、検証結果を取得する検証部をさらに含む
 <1>に記載の運転制御装置。
<3> 前記学習部により学習された個人化関数を記憶する学習結果記憶部をさらに含み、
 前記移動体の運転モードは、前記運転者により受け付けられた運転操作の入力に応じて動作する手動運転モードと、前記検出結果、および、前記検証部により検証された前記個人化関数に基づいて、前記運転者による運転操作を必要とせずに動作する自動運転モードとを含み、
 前記学習部は、前記手動運転モードにおいて、前記運転操作に係る操作情報と、前記検出部の検出結果に基づいて、前記運転者の前記運転操作に係る個人化関数を学習し、前記学習結果記憶部は、前記学習結果となる個人化関数を記憶する
 <2>に記載の運転制御装置。
<4> 前記検証部が取得する検証結果は、前記外部の検証装置により、前記学習結果記憶部に記憶された個人化関数が用いられて、前記自動運転モードでシミュレーション走行させた結果である
 <3>に記載の運転制御装置。
<5> 前記検証部が取得した検証結果に異常がない前記個人化関数を記憶する個人化関数記憶部と、
 前記学習結果記憶部に記憶された前記個人化関数のうち、前記検証部により前記異常のないことが検証された前記個人化関数を、前記学習結果記憶部に記憶された前記個人化関数として更新する更新部とをさらに含む
 <4>に記載の運転制御装置。
<6> 前記動作制御部は、前記自動運転モードにおいて、前記検出結果、および、前記個人化関数記憶部に記憶されている、前記検証部により検証された前記個人化関数に基づいて、前記移動体の動作を制御する
 <5>に記載の運転制御装置。
<7> 前記学習結果記憶部、および前記個人化関数記憶部は、前記個人化関数を前記運転者毎で記憶する
 <5>に記載の運転制御装置。
<8> 前記学習結果記憶部、および前記個人化関数記憶部は、前記個人化関数を前記運転者毎に個別で、かつ、前記運転者毎に設定される複数のモード毎に記憶する
 <7>に記載の運転制御装置。
<9> 前記動作制御部は、前記運転者を認証し、
 前記学習部は、前記動作制御部により認証された運転者毎に、前記個人化関数を学習し、前記学習結果記憶部に記憶させる
 <8>に記載の運転制御装置。
<10> 前記動作制御部は、前記運転者を認証し、前記認証した運転者の、前記検証部により検証された前記個人化関数を前記個人化関数記憶部より読み出し、前記検出結果、および、前記検証部により検証された前記個人化関数に基づいて、前記移動体の動作を制御する
 <8>に記載の運転制御装置。
<11> 移動体を運転する運転者の運転操作の入力を受け付け、
 前記移動体の状態を検出し、
 前記運転操作に係る操作情報と、前記検出部の検出結果に基づいて、前記運転者の前記運転操作に係る個人化関数を学習し、
 前記検出結果、および、前記個人化関数に基づいて、前記移動体の動作を制御するステップを含む
 運転制御方法。
<12> 移動体を運転する運転者の運転操作の入力を受け付ける操作部と、
 前記移動体の状態を検出する検出部と、
 前記運転操作に係る操作情報と、前記検出部の検出結果に基づいて、前記運転者の前記運転操作に係る個人化関数を学習する学習部と、
 前記検出結果、および、前記個人化関数に基づいて、前記移動体の動作を制御する動作制御部としてコンピュータを機能させる
 プログラム。
 11 運転制御装置, 12 外界, 13 検証装置, 21 自動運転制御ブロック, 22 個人化ブロック, 31 操作部, 32 手動運転制御部, 33 車体動作部, 34 検出部, 51 反射動作決定部, 52 熟考動作決定部, 53 自動運転制御部, 54 個人化関数記憶部, 71 環境認識部, 72 ローカルマップ処理部, 73 グローバルマップ処理部, 74 経路計画部, 75 行動計画部, 91 個人化関数学習部, 92 学習結果記憶部, 93 学習結果検証部, 94 検証結果判定部, 95 個人化関数更新部, 181 出発目的地ランダム設定部, 182 経路生成部, 183 チェックポイント位置計算部, 184 行動決定モデル算出部, 185 シミュレータ, 186 イベント発生部, 187 状態算出部, 188 センサモデルノイズモデル発生部, 189 記憶部, 190 検証部, 201 検証部, 211 個人化関数学習部, 212 学習結果検証部, 221 検証部, 231 個人化関数学習部, 232 学習結果検証部, 233 検証結果判定部, 234 個人化関数更新部

Claims (12)

  1.  移動体を運転する運転者の運転操作の入力を受け付ける操作部と、
     前記移動体の状態を検出する検出部と、
     前記運転操作に係る操作情報と、前記検出部の検出結果に基づいて、前記運転者の前記運転操作に係る個人化関数を学習する学習部と、
     前記検出結果、および、前記個人化関数に基づいて、前記移動体の動作を制御する動作制御部とを含む
     運転制御装置。
  2.  ネットワークを介して、外部の検証装置に、前記学習部により学習された個人化関数の検証を要求し、検証結果を取得する検証部をさらに含む
     請求項1に記載の運転制御装置。
  3.  前記学習部により学習された個人化関数を記憶する学習結果記憶部をさらに含み、
     前記移動体の運転モードは、前記運転者により受け付けられた運転操作の入力に応じて動作する手動運転モードと、前記検出結果、および、前記検証部により検証された前記個人化関数に基づいて、前記運転者による運転操作を必要とせずに動作する自動運転モードとを含み、
     前記学習部は、前記手動運転モードにおいて、前記運転操作に係る操作情報と、前記検出部の検出結果に基づいて、前記運転者の前記運転操作に係る個人化関数を学習し、前記学習結果記憶部は、前記学習結果となる個人化関数を記憶する
     請求項2に記載の運転制御装置。
  4.  前記検証部が取得する検証結果は、前記外部の検証装置により、前記学習結果記憶部に記憶された個人化関数が用いられて、前記自動運転モードでシミュレーション走行させた結果である
     請求項3に記載の運転制御装置。
  5.  前記検証部が取得した検証結果に異常がない前記個人化関数を記憶する個人化関数記憶部と、
     前記学習結果記憶部に記憶された前記個人化関数のうち、前記検証部により前記異常のないことが検証された前記個人化関数を、前記学習結果記憶部に記憶された前記個人化関数として更新する更新部とをさらに含む
     請求項4に記載の運転制御装置。
  6.  前記動作制御部は、前記自動運転モードにおいて、前記検出結果、および、前記個人化関数記憶部に記憶されている、前記検証部により検証された前記個人化関数に基づいて、前記移動体の動作を制御する
     請求項5に記載の運転制御装置。
  7.  前記学習結果記憶部、および前記個人化関数記憶部は、前記個人化関数を前記運転者毎で記憶する
     請求項5に記載の運転制御装置。
  8.  前記学習結果記憶部、および前記個人化関数記憶部は、前記個人化関数を前記運転者毎に個別で、かつ、前記運転者毎に設定される複数のモード毎に記憶する
     請求項7に記載の運転制御装置。
  9.  前記動作制御部は、前記運転者を認証し、
     前記学習部は、前記動作制御部により認証された運転者毎に、前記個人化関数を学習し、前記学習結果記憶部に記憶させる
     請求項8に記載の運転制御装置。
  10.  前記動作制御部は、前記運転者を認証し、前記認証した運転者の、前記検証部により検証された前記個人化関数を前記個人化関数記憶部より読み出し、前記検出結果、および、前記検証部により検証された前記個人化関数に基づいて、前記移動体の動作を制御する
     請求項8に記載の運転制御装置。
  11.  移動体を運転する運転者の運転操作の入力を受け付け、
     前記移動体の状態を検出し、
     前記運転操作に係る操作情報と、前記検出部の検出結果に基づいて、前記運転者の前記運転操作に係る個人化関数を学習し、
     前記検出結果、および、前記個人化関数に基づいて、前記移動体の動作を制御するステップを含む
     運転制御方法。
  12.  移動体を運転する運転者の運転操作の入力を受け付ける操作部と、
     前記移動体の状態を検出する検出部と、
     前記運転操作に係る操作情報と、前記検出部の検出結果に基づいて、前記運転者の前記運転操作に係る個人化関数を学習する学習部と、
     前記検出結果、および、前記個人化関数に基づいて、前記移動体の動作を制御する動作制御部としてコンピュータを機能させる
     プログラム。
PCT/JP2016/077433 2015-09-30 2016-09-16 運転制御装置、および運転制御方法、並びにプログラム WO2017057060A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP16851234.1A EP3357780B1 (en) 2015-09-30 2016-09-16 Driving control device, driving control method, and program
US15/761,884 US11281211B2 (en) 2015-09-30 2016-09-16 Driving control apparatus, driving control method, and program
CN201680055610.9A CN108137052B (zh) 2015-09-30 2016-09-16 驾驶控制装置、驾驶控制方法和计算机可读介质
JP2017543148A JP6773040B2 (ja) 2015-09-30 2016-09-16 情報処理システム、および情報処理システムの情報処理方法、情報処理装置、並びにプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015194556 2015-09-30
JP2015-194556 2015-09-30

Publications (1)

Publication Number Publication Date
WO2017057060A1 true WO2017057060A1 (ja) 2017-04-06

Family

ID=58427495

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/077433 WO2017057060A1 (ja) 2015-09-30 2016-09-16 運転制御装置、および運転制御方法、並びにプログラム

Country Status (5)

Country Link
US (1) US11281211B2 (ja)
EP (1) EP3357780B1 (ja)
JP (1) JP6773040B2 (ja)
CN (1) CN108137052B (ja)
WO (1) WO2017057060A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018216184A1 (ja) * 2017-05-25 2018-11-29 日産自動車株式会社 駐車制御方法及び駐車制御装置
CN108944938A (zh) * 2017-05-29 2018-12-07 大众汽车有限公司 用于辅助位于车辆中的车辆乘客的方法和装置
WO2019030923A1 (ja) * 2017-08-10 2019-02-14 日産自動車株式会社 駐車制御方法及び駐車制御装置
WO2019030922A1 (ja) * 2017-08-10 2019-02-14 日産自動車株式会社 駐車制御方法及び駐車制御装置
WO2019058460A1 (ja) * 2017-09-20 2019-03-28 日産自動車株式会社 走行支援方法及び走行支援装置
WO2019058462A1 (ja) * 2017-09-20 2019-03-28 日産自動車株式会社 走行特性学習方法及び走行支援装置
JP2019131147A (ja) * 2018-02-02 2019-08-08 本田技研工業株式会社 制御装置
KR102103450B1 (ko) * 2019-01-30 2020-04-22 한국기술교육대학교 산학협력단 분산 시뮬레이션 기반 첨단 운전자 지원 시스템
KR20200067651A (ko) * 2018-12-04 2020-06-12 현대자동차주식회사 운전자의 주행 성향 판단 장치 및 방법
JP2021500259A (ja) * 2017-10-27 2021-01-07 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト 駐車プロセスを制御するための方法
WO2022004448A1 (ja) * 2020-07-03 2022-01-06 ソニーグループ株式会社 情報処理装置、および情報処理方法、情報処理システム、並びにプログラム
JP2022519915A (ja) * 2019-03-19 2022-03-25 馭勢科技(北京)有限公司 自動運転システムのアップグレード方法、自動運転システム及び車載機器
JP2022521808A (ja) * 2019-03-19 2022-04-12 馭勢科技(北京)有限公司 自動運転システムのアップグレード方法、自動運転システム及び車載機器
US11345354B2 (en) 2019-03-25 2022-05-31 Subaru Corporation Vehicle control device, vehicle control method and computer-readable medium containing program

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6431594B2 (ja) * 2015-03-31 2018-11-28 日立オートモティブシステムズ株式会社 自動運転制御装置
KR102498091B1 (ko) 2015-09-30 2023-02-09 소니그룹주식회사 운전 제어 장치 및 운전 제어 방법, 그리고 프로그램
EP3466789B1 (en) * 2016-05-27 2020-12-16 Nissan Motor Co., Ltd. Driving control method and driving control device
JP6827197B2 (ja) * 2016-07-22 2021-02-10 パナソニックIpマネジメント株式会社 情報推定システム及び情報推定方法
WO2018029758A1 (ja) * 2016-08-08 2018-02-15 日産自動車株式会社 自動運転車両の制御方法及び制御装置
US11119480B2 (en) * 2016-10-20 2021-09-14 Magna Electronics Inc. Vehicle control system that learns different driving characteristics
JP6702217B2 (ja) * 2017-02-06 2020-05-27 株式会社デンソー 自動運転装置
JP6723428B2 (ja) * 2017-02-22 2020-07-15 ジヤトコ株式会社 車両制御装置及び車両制御方法
CN109109784A (zh) * 2017-06-22 2019-01-01 吴俊逸 根据用户行为而提供车辆剩余行驶信息的系统及其方法
US10571919B2 (en) * 2017-07-26 2020-02-25 Lenovo (Singapore) Pte. Ltd. Systems and methods to identify directions based on use of autonomous vehicle function
CN107491073B (zh) * 2017-09-05 2021-04-02 百度在线网络技术(北京)有限公司 无人驾驶车辆的数据训练方法和装置
US10496098B2 (en) * 2017-09-12 2019-12-03 Baidu Usa Llc Road segment-based routing guidance system for autonomous driving vehicles
US11180154B2 (en) * 2017-10-17 2021-11-23 The Regents Of The University Of Michigan Fingerprinting drivers based on vehicle turns
US11130497B2 (en) * 2017-12-18 2021-09-28 Plusai Limited Method and system for ensemble vehicle control prediction in autonomous driving vehicles
US20190185012A1 (en) 2017-12-18 2019-06-20 PlusAI Corp Method and system for personalized motion planning in autonomous driving vehicles
US11273836B2 (en) 2017-12-18 2022-03-15 Plusai, Inc. Method and system for human-like driving lane planning in autonomous driving vehicles
US11048832B2 (en) * 2018-01-12 2021-06-29 Intel Corporation Simulated vehicle operation modeling with real vehicle profiles
US10710607B2 (en) 2018-02-12 2020-07-14 Lenovo (Singapore) Pte. Ltd. Systems and methods for identifying first route to destination as involving less human driving of vehicle than second route to destination
US20190265717A1 (en) * 2018-02-28 2019-08-29 Walmart Apollo, Llc System and method for remotely receiving deliveries using an autonomous wagon
DE112019001046T5 (de) * 2018-02-28 2020-11-26 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und mobiler körper
US10843689B2 (en) * 2018-06-13 2020-11-24 Toyota Jidosha Kabushiki Kaisha Collision avoidance for a connected vehicle based on a digital behavioral twin
CN108819951B (zh) * 2018-07-27 2020-11-17 重庆大学 一种考虑驾驶员驾驶技能的人机共驾横向驾驶权分配方法
US10906553B2 (en) * 2018-07-30 2021-02-02 Toyota Motor Engineering & Manufactuiring North America, Inc. Systems and methods for vehicle acceleration event prediction inhibit
US10752258B2 (en) * 2018-09-17 2020-08-25 GM Global Technology Operations LLC Apparatus and method for audible driver confirmation for maneuvers in an autonomous vehicle
US11036370B2 (en) 2018-09-25 2021-06-15 Intel Corporation Computer-assisted or autonomous driving vehicles social network
FR3086622B1 (fr) * 2018-09-28 2022-06-24 Renault Sas Dispositif de planification d'un chemin et/ou d'une trajectoire d'un vehicule automobile
CN109902562B (zh) * 2019-01-16 2022-07-01 重庆邮电大学 一种基于强化学习的驾驶员异常姿态监测方法
AT521718A1 (de) * 2019-02-14 2020-04-15 Avl List Gmbh Verfahren zur Steuerung eines Fahrzeugs
CN109808694B (zh) * 2019-02-28 2020-06-09 北京航空航天大学 一种车辆控制方法及装置
KR20200135630A (ko) * 2019-05-23 2020-12-03 현대자동차주식회사 자율 주행 차량의 제어장치 및 그 방법
JP7124797B2 (ja) * 2019-06-28 2022-08-24 トヨタ自動車株式会社 機械学習方法および移動ロボット
KR20210011557A (ko) * 2019-07-22 2021-02-02 현대자동차주식회사 자율 주행 제어 장치, 그를 포함한 시스템 및 그 방법
KR20190098735A (ko) * 2019-08-01 2019-08-22 엘지전자 주식회사 차량 단말 및 그의 동작 방법
US11420645B2 (en) * 2019-12-11 2022-08-23 At&T Intellectual Property I, L.P. Method and apparatus for personalizing autonomous transportation
US20210258751A1 (en) 2020-02-18 2021-08-19 Lenovo (Singapore) Pte. Ltd. Responding to a signal indicating that an autonomous driving feature has been overridden by alerting plural vehicles
CN112654548B (zh) * 2020-05-09 2022-04-05 华为技术有限公司 一种自适应优化自动驾驶系统的方法及装置
JP7409222B2 (ja) * 2020-05-14 2024-01-09 マツダ株式会社 移動体の制御装置
WO2022040399A1 (en) * 2020-08-19 2022-02-24 Cornell University Simulation-based optimization framework for controlling electric vehicles
CN112477872B (zh) * 2020-11-26 2022-05-27 中国第一汽车股份有限公司 一种参数标定方法、装置、设备及存储介质
US11563241B2 (en) * 2021-02-10 2023-01-24 Dennis Palatov Apparatus and methods for removable battery module with internal relay and internal controller
US20230249694A1 (en) * 2022-02-07 2023-08-10 Ford Global Technologies, Llc Methods and systems for vehicle operation
AT526003A2 (de) * 2022-03-28 2023-10-15 Schmidt Dipl Ing Eugen Ein Fahrerasssistenzsystem als „virtuelle KopilotIn“, das Hilfestellung angepasst an die Fähigkeiten und Charaktermerkmale der FahrerIn leistet und kommuniziert
DE102022203954A1 (de) 2022-04-25 2023-10-26 Volkswagen Aktiengesellschaft Verfahren und Informationsvorrichtung zum Informieren eines Nutzers eines Fahrzeugs mit einem Fahrerassistenzsystem in Bezug auf eine Aktion des Fahrerassistenzsystems

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07108849A (ja) * 1993-10-13 1995-04-25 Hitachi Ltd 車の自動走行制御装置
JP2002195063A (ja) * 2000-12-22 2002-07-10 Toyota Motor Corp 運転支援装置
JP2006349003A (ja) * 2005-06-14 2006-12-28 Aisin Aw Co Ltd 車両制御装置及び車両制御方法
JP2015089801A (ja) * 2013-11-07 2015-05-11 株式会社デンソー 運転制御装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19916808A1 (de) * 1999-04-14 2000-11-02 Bayerische Motoren Werke Ag Verfahren zur Erstellung oder Änderung eines individuellen Fahrprogramms
JP4952268B2 (ja) 2007-01-24 2012-06-13 トヨタ自動車株式会社 走行制御計画生成装置
JP4985103B2 (ja) 2007-05-28 2012-07-25 トヨタ自動車株式会社 車両の自動運転装置
JP5063637B2 (ja) 2009-03-24 2012-10-31 日立オートモティブシステムズ株式会社 車両運転支援装置
DE102009050399A1 (de) 2009-10-22 2011-05-05 Audi Ag Verfahren zur Steuerung des Betriebs eines vollautomatischen, zur unabhängigen Fahrzeugführung ausgebildeten Fahrerassistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
DE102010061829A1 (de) 2010-11-24 2012-05-24 Continental Teves Ag & Co. Ohg Verfahren und Abstandskontrolleinrichtung zur Vermeidung von Kollisionen eines Kraftfahrzeugs in einer Fahrsituation mit geringem Seitenabstand
US8527199B1 (en) * 2012-05-17 2013-09-03 Google Inc. Automatic collection of quality control statistics for maps used in autonomous driving
JP6065018B2 (ja) 2012-11-13 2017-01-25 トヨタ自動車株式会社 運転支援装置及び運転支援方法
JP6056682B2 (ja) 2013-06-27 2017-01-11 株式会社デンソー 車両用情報提供装置
JP2015058902A (ja) 2013-09-20 2015-03-30 富士重工業株式会社 車両の走行制御装置
US20150166069A1 (en) * 2013-12-18 2015-06-18 Ford Global Technologies, Llc Autonomous driving style learning
KR20150076627A (ko) 2013-12-27 2015-07-07 한국전자통신연구원 차량 운전 학습 시스템 및 방법
US9349284B2 (en) 2014-04-24 2016-05-24 International Business Machines Corporation Regional driving trend modification using autonomous vehicles
KR102051142B1 (ko) 2014-06-13 2019-12-02 현대모비스 주식회사 차량용 운전자 위험 지수 관리 시스템 및 그 방법
US9766625B2 (en) * 2014-07-25 2017-09-19 Here Global B.V. Personalized driving of autonomously driven vehicles
CN104590274A (zh) * 2014-11-26 2015-05-06 浙江吉利汽车研究院有限公司 一种驾驶行为自适应系统及驾驶行为自适应方法
DE102015004550A1 (de) * 2015-04-08 2016-10-13 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
JP6074553B1 (ja) * 2015-04-21 2017-02-01 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム
US10077056B1 (en) * 2015-04-24 2018-09-18 State Farm Mutual Automobile Insurance Company Managing self-driving behavior of autonomous or semi-autonomous vehicle based upon actual driving behavior of driver
US9914460B2 (en) 2015-09-25 2018-03-13 Mcafee, Llc Contextual scoring of automobile drivers
KR102498091B1 (ko) 2015-09-30 2023-02-09 소니그룹주식회사 운전 제어 장치 및 운전 제어 방법, 그리고 프로그램
KR102137213B1 (ko) 2015-11-16 2020-08-13 삼성전자 주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
DE102015016956A1 (de) * 2015-12-24 2016-09-15 Daimler Ag Verfahren zum Lernen eines Fahrbetriebes eines autonom fahrenden Fahrzeuges
US9536149B1 (en) 2016-02-04 2017-01-03 Proxy Technologies, Inc. Electronic assessments, and methods of use and manufacture thereof
US20170297586A1 (en) 2016-04-13 2017-10-19 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for driver preferences for autonomous vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07108849A (ja) * 1993-10-13 1995-04-25 Hitachi Ltd 車の自動走行制御装置
JP2002195063A (ja) * 2000-12-22 2002-07-10 Toyota Motor Corp 運転支援装置
JP2006349003A (ja) * 2005-06-14 2006-12-28 Aisin Aw Co Ltd 車両制御装置及び車両制御方法
JP2015089801A (ja) * 2013-11-07 2015-05-11 株式会社デンソー 運転制御装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3357780A4 *

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110621550B (zh) * 2017-05-25 2020-11-13 日产自动车株式会社 泊车控制方法以及泊车控制装置
CN110621550A (zh) * 2017-05-25 2019-12-27 日产自动车株式会社 泊车控制方法以及泊车控制装置
JPWO2018216184A1 (ja) * 2017-05-25 2020-03-19 日産自動車株式会社 駐車制御方法及び駐車制御装置
WO2018216184A1 (ja) * 2017-05-25 2018-11-29 日産自動車株式会社 駐車制御方法及び駐車制御装置
US10773714B2 (en) 2017-05-25 2020-09-15 Nissan Motor Co., Ltd. Parking control method and parking control apparatus
CN108944938A (zh) * 2017-05-29 2018-12-07 大众汽车有限公司 用于辅助位于车辆中的车辆乘客的方法和装置
JPWO2019030922A1 (ja) * 2017-08-10 2020-09-10 日産自動車株式会社 駐車制御方法及び駐車制御装置
WO2019030923A1 (ja) * 2017-08-10 2019-02-14 日産自動車株式会社 駐車制御方法及び駐車制御装置
WO2019030922A1 (ja) * 2017-08-10 2019-02-14 日産自動車株式会社 駐車制御方法及び駐車制御装置
US11104328B2 (en) 2017-08-10 2021-08-31 Nissan Motor Co., Ltd. Parking control method and parking control device
US11091155B2 (en) 2017-08-10 2021-08-17 Nissan Motor Co., Ltd. Parking control method and parking control device
JPWO2019030923A1 (ja) * 2017-08-10 2020-09-24 日産自動車株式会社 駐車制御方法及び駐車制御装置
JPWO2019058462A1 (ja) * 2017-09-20 2020-11-05 日産自動車株式会社 走行特性学習方法及び走行支援装置
WO2019058460A1 (ja) * 2017-09-20 2019-03-28 日産自動車株式会社 走行支援方法及び走行支援装置
CN111149138A (zh) * 2017-09-20 2020-05-12 日产自动车株式会社 行驶特性学习方法及行驶辅助装置
CN111108539A (zh) * 2017-09-20 2020-05-05 日产自动车株式会社 行驶支持方法以及行驶支持装置
RU2743829C1 (ru) * 2017-09-20 2021-02-26 Ниссан Мотор Ко., Лтд. Способ помощи при движении и устройство помощи при движении
WO2019058462A1 (ja) * 2017-09-20 2019-03-28 日産自動車株式会社 走行特性学習方法及び走行支援装置
JP7377196B2 (ja) 2017-10-27 2023-11-09 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト 駐車処理を制御する方法
US11718286B2 (en) 2017-10-27 2023-08-08 Continental Teves Ag & Co. Ohg Method for controlling a parking process
JP2021500259A (ja) * 2017-10-27 2021-01-07 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト 駐車プロセスを制御するための方法
JP2019131147A (ja) * 2018-02-02 2019-08-08 本田技研工業株式会社 制御装置
KR20200067651A (ko) * 2018-12-04 2020-06-12 현대자동차주식회사 운전자의 주행 성향 판단 장치 및 방법
KR102587094B1 (ko) * 2018-12-04 2023-10-11 현대자동차주식회사 운전자의 주행 성향 판단 장치 및 방법
KR102103450B1 (ko) * 2019-01-30 2020-04-22 한국기술교육대학교 산학협력단 분산 시뮬레이션 기반 첨단 운전자 지원 시스템
JP2022519915A (ja) * 2019-03-19 2022-03-25 馭勢科技(北京)有限公司 自動運転システムのアップグレード方法、自動運転システム及び車載機器
JP2022521808A (ja) * 2019-03-19 2022-04-12 馭勢科技(北京)有限公司 自動運転システムのアップグレード方法、自動運転システム及び車載機器
JP7104250B2 (ja) 2019-03-19 2022-07-20 馭勢科技(北京)有限公司 自動運転システムのアップグレード方法、自動運転システム及び車載機器
JP7121864B2 (ja) 2019-03-19 2022-08-18 馭勢科技(北京)有限公司 自動運転システムのアップグレード方法、自動運転システム及び車載機器
US11447144B2 (en) 2019-03-19 2022-09-20 Uisee Technologies (Beijing) Ltd. Methods for updating autonomous driving system, autonomous driving systems, and on-board apparatuses
US11345354B2 (en) 2019-03-25 2022-05-31 Subaru Corporation Vehicle control device, vehicle control method and computer-readable medium containing program
WO2022004448A1 (ja) * 2020-07-03 2022-01-06 ソニーグループ株式会社 情報処理装置、および情報処理方法、情報処理システム、並びにプログラム

Also Published As

Publication number Publication date
US11281211B2 (en) 2022-03-22
CN108137052B (zh) 2021-09-07
EP3357780A4 (en) 2019-05-22
EP3357780A1 (en) 2018-08-08
EP3357780B1 (en) 2022-10-26
JP6773040B2 (ja) 2020-10-21
JPWO2017057060A1 (ja) 2018-08-09
US20180259956A1 (en) 2018-09-13
CN108137052A (zh) 2018-06-08

Similar Documents

Publication Publication Date Title
JP6773040B2 (ja) 情報処理システム、および情報処理システムの情報処理方法、情報処理装置、並びにプログラム
JP6922739B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US10719084B2 (en) Method for platooning of vehicles and vehicle using same
CN108241371B (zh) 自动驾驶系统
JP6773046B2 (ja) 運転支援装置及び運転支援方法、並びに移動体
US10684620B2 (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
KR101730321B1 (ko) 운전자 보조 장치 및 그 제어방법
KR102267331B1 (ko) 자율 주행 차량과 이를 이용한 보행자 안내 시스템 및 방법
KR20190005442A (ko) 차량용 주행 시스템 및 차량
US20220348217A1 (en) Electronic apparatus for vehicles and operation method thereof
KR102209421B1 (ko) 자율 주행 차량과 이를 이용한 주행 제어 시스템 및 방법
US20190276044A1 (en) User interface apparatus for vehicle and vehicle including the same
JP6906175B2 (ja) 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム
KR20190038055A (ko) 차량 주행 제어 장치 및 차량 주행 방법
KR20200095318A (ko) 영상 출력 장치
KR20210143344A (ko) 차량 제어 장치 및 그 장치의 제어 방법
US20210055116A1 (en) Get-off point guidance method and vehicular electronic device for the guidance
US11907086B2 (en) Infotainment device for vehicle and method for operating same
KR20200023671A (ko) 차량에 구비된 차량용 로봇 및 차량용 로봇의 제어방법
WO2024043053A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2024009829A1 (ja) 情報処理装置、情報処理方法および車両制御システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16851234

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017543148

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15761884

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016851234

Country of ref document: EP