WO2019142276A1 - 運転制御装置、運転制御方法及び運転制御プログラム - Google Patents

運転制御装置、運転制御方法及び運転制御プログラム Download PDF

Info

Publication number
WO2019142276A1
WO2019142276A1 PCT/JP2018/001255 JP2018001255W WO2019142276A1 WO 2019142276 A1 WO2019142276 A1 WO 2019142276A1 JP 2018001255 W JP2018001255 W JP 2018001255W WO 2019142276 A1 WO2019142276 A1 WO 2019142276A1
Authority
WO
WIPO (PCT)
Prior art keywords
mode
operation control
driving
acquisition unit
driver
Prior art date
Application number
PCT/JP2018/001255
Other languages
English (en)
French (fr)
Inventor
喜秋 津田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to US16/770,977 priority Critical patent/US11639183B2/en
Priority to JP2019566039A priority patent/JP6869380B2/ja
Priority to CN201880085953.9A priority patent/CN111587198A/zh
Priority to PCT/JP2018/001255 priority patent/WO2019142276A1/ja
Priority to DE112018006880.3T priority patent/DE112018006880T5/de
Publication of WO2019142276A1 publication Critical patent/WO2019142276A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/182Selecting between different operative modes, e.g. comfort and performance modes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Definitions

  • the present invention relates to an automatic driving technology of a mobile object such as a vehicle.
  • the autonomous driving vehicle detects obstacles and moving objects by detecting the surroundings of the vehicle with various sensors mounted on the vehicle, and travels by operating a steering wheel or the like so as to avoid the obstacles and moving objects. .
  • a number of sensors such as a camera, a laser, and a radar are mounted on the vehicle.
  • the autonomous driving vehicle detects the surroundings of the vehicle by combining the sensor alone or a plurality of sensors, and determines the presence or absence of an obstacle such as another vehicle and a person or a structure around the vehicle.
  • the autonomous driving vehicle grasps the traveling position of the vehicle by matching the vehicle speed pulse and traveling speed of the vehicle, the GPS (Global Positioning System) signal, and the three-dimensional map data.
  • the autonomous driving vehicle specifies the future position of the vehicle from the current position, the vehicle speed, and the vehicle speed pulse. Then, the autonomous driving vehicle carries out the autonomous driving according to the judgment of the computer in consideration of the presence or absence of the obstacle and the current and future positions of the vehicle.
  • the autonomous driving vehicle travels according to the judgment of the computer, but the driver and the passenger on the autonomous driving vehicle feel discomfort and fear based on a behavior different from the manual driving by the driver with respect to the behavior of the vehicle. There is a possibility to feel.
  • the driver adjusts the speed of the vehicle and drives according to the surrounding environment of the vehicle such as rain, snow and fog.
  • the autonomous driving vehicle travels under the design conditions of the vehicle designer, the driver and the passenger may feel discomfort and fear.
  • An object of the present invention is to reduce discomfort and fear felt by a driver and a passenger by automatic driving.
  • the operation control device is A mode acquisition unit that acquires an operation mode according to a designated type that is a designated driver type among the driver types provided for each driving skill; According to a control method indicated by the operation mode acquired by the mode acquisition unit, an operation control unit configured to automatically drive the moving body is provided.
  • the mobile unit is driven automatically according to the control method indicated by the driving mode corresponding to the designated type among the driver types provided for each driving skill.
  • automatic driving is performed in accordance with a control method suitable for the driving skill of the driver or the like, so that the feeling of incongruity and fear of the driver and the passenger can be reduced by the automatic driving.
  • FIG. 1 is a configuration diagram of an operation control device 10 according to Embodiment 1.
  • FIG. 4 is a flowchart showing the operation of the operation control device 10 according to the first embodiment.
  • FIG. 2 shows a mode storage unit 31 according to the first embodiment.
  • FIG. 8 is a block diagram of an operation control device 10 according to a first modification. Explanatory drawing of operation
  • FIG. FIG. 10 is a block diagram of an operation control device 10 according to a modification 3; 10 is a flowchart showing the operation of the operation control device 10 according to a third modification.
  • FIG. 8 is a block diagram of an operation control device 10 according to a third embodiment.
  • 10 is a flowchart showing the operation of the operation control device 10 according to the third embodiment.
  • FIG. 10 is a block diagram of an operation control device 10 according to a modification 4;
  • Embodiment 1 *** Description of the configuration *** The configuration of the operation control device 10 according to the first embodiment will be described with reference to FIG.
  • the operation control device 10 is a computer mounted on the mobile unit 100.
  • the moving body 100 is a vehicle.
  • mobile 100 may be other types of vehicles such as ships and aircraft.
  • the operation control apparatus 10 may be configured to be integral with the moving body 100 or may be configured to be separable from the moving body 100.
  • the operation control device 10 includes hardware of a processor 11, a memory 12, a storage 13, and a communication interface 14.
  • the processor 11 is connected to other hardware via a signal line to control these other hardware.
  • the processor 11 is an integrated circuit (IC) that performs processing.
  • the processor 11 is, as a specific example, a central processing unit (CPU), a digital signal processor (DSP), or a graphics processing unit (GPU).
  • CPU central processing unit
  • DSP digital signal processor
  • GPU graphics processing unit
  • the memory 12 is a storage device that temporarily stores data.
  • the memory 12 is, as a specific example, a static random access memory (SRAM) or a dynamic random access memory (DRAM).
  • SRAM static random access memory
  • DRAM dynamic random access memory
  • the storage 13 is a storage device for storing data.
  • the storage 13 is an HDD (Hard Disk Drive) as a specific example.
  • the storage 13 is an SD (registered trademark, Secure Digital) memory card, CF (Compact Flash, registered trademark), NAND flash, flexible disk, optical disk, compact disk, Blu-ray (registered trademark) disk, DVD (Digital Versatile Disk), etc. It may be a portable recording medium.
  • the communication interface 14 is an interface for communicating with an external device.
  • the communication interface 14 is, as a specific example, a port of Ethernet (registered trademark), USB (Universal Serial Bus), or HDMI (registered trademark, High-Definition Multimedia Interface).
  • the operation control device 10 is connected to the sensor 101 mounted on the mobile unit 100 via the communication interface 14.
  • the sensor 101 includes a millimeter wave radar, a rider, a camera, a position determination device, and the like.
  • the positioning device is included in the positioning signal by positioning reinforcement information obtained from the quasi-zenith satellite and mobile data communication based on positioning signals from GNSS (Global Navigation Satellite System) satellites such as GPS satellites and quasi-zenith satellites.
  • GNSS Global Navigation Satellite System
  • the error is corrected, and highly accurate three-dimensional self-position information of 50 cm or less is measured.
  • the position locating device is an INS (Inertial Navigation System) composite processing in which observation information of GNSS satellite positioning and observation information such as a gyro, an acceleration sensor, and a vehicle speed pulse are closely coupled. Errors may be reduced.
  • INS Inertial Navigation System
  • the operation control device 10 includes a mode acquisition unit 21 and an operation control unit 22 as functional components.
  • the functions of each functional component of the operation control device 10 are realized by software.
  • the storage 13 stores a program for realizing the function of each functional component of the operation control device 10 and data used for operation control.
  • the program is read into the memory 12 by the processor 11 and executed by the processor 11. Thereby, the function of each functional component of operation control device 10 is realized.
  • the storage 13 implements the function of the mode storage unit 31.
  • the storage 13 stores data of a highly accurate three-dimensional map 32 of 50 cm or less.
  • the three-dimensional map 32 stores dynamic map data (DMD), which is map data used for automatic driving of the autonomous driving vehicle 200.
  • the DMD is composed of static information, semi-static information, semi-dynamic information, and dynamic information.
  • Static information of DMD is three-dimensional basic map data.
  • the static information of the DMD is composed of three-dimensional position coordinates and linear vector data indicating a feature including road surface information, lane information, and a three-dimensional structure.
  • Quasi-static information, quasi-dynamic information, and dynamic information are dynamic data that changes from moment to moment.
  • the quasi-static information, the quasi-dynamic information, and the dynamic information are data to be superimposed on the static information based on the position reference base.
  • the semi-static information includes traffic control information, road construction information, wide-area weather information, etc.
  • the semi-dynamic information includes accident information, congestion information, narrow-area weather information, etc.
  • Dynamic information is ITS It contains information (such as surrounding vehicles, pedestrians, and signal information). Further, the three-dimensional ((high accuracy)) map 32 may store additional information corresponding to static information of the DMD.
  • processors 11 Only one processor 11 is shown in FIG. However, a plurality of processors 11 may be provided, and a plurality of processors 11 may cooperatively execute programs for realizing the respective functions.
  • the operation of the operation control apparatus 10 according to the first embodiment will be described with reference to FIGS. 2 and 3.
  • the operation of the operation control apparatus 10 according to the first embodiment corresponds to the operation control method according to the first embodiment. Further, the operation of the operation control apparatus 10 according to the first embodiment corresponds to the process of the operation control program according to the first embodiment.
  • the process shown in FIG. 2 is executed at the start of the automatic operation or the like.
  • Step S11 in FIG. 2 mode acquisition process
  • the mode acquisition unit 21 acquires an operation mode according to a designated type that is a designated driver type among the driver types provided for each driving skill. Specifically, the mode acquisition unit 21 receives the designated type in which the input device connected via the communication interface 14 is operated by the driver or the like and input. The mode acquisition unit 21 reads an operation mode corresponding to the designated type from the mode storage unit 31. The mode acquisition unit 21 writes the read operation mode in the memory 12.
  • the mode storage unit 31 stores an operation mode for each driver type.
  • the driver type is provided for each driving skill, such as seniors, middle-class cars and beginners.
  • the driving skill or driving characteristics tend to differ depending on whether they are elderly or not and gender. Therefore, in FIG. 3, in addition to the advanced driver, the intermediate vehicle, and the beginner, the driver types are classified into elderly people and women.
  • the driving mode indicates a control method of automatic driving according to driving skill.
  • the operation mode indicates a control method such as the speed with respect to the speed limit and how the curve bends.
  • the speed relative to the speed limit means how fast the vehicle travels with respect to the speed limit.
  • the speed for the speed limit travels at the speed limit if the driver type is advanced or intermediate car, and the speed at which the speed limit is multiplied by 0.8 if the driver type is beginner Indicates that you want to In addition, how the curve bends means speed control when turning the curve, steering wheel control, and the like. For example, if the driver type is advanced, the curve starts to decrease speed 10 m before the curve, and if the driver type is intermediate, it starts to decrease speed 15 m before the curve. If the driver type is beginner, it indicates that the vehicle starts to drop speed 20 m before the curve.
  • position information for travel control may be stored according to the driver type of the driving mode.
  • the position coordinate data of the driver type at the point where the inclination angle is 0.5 degrees or more at the time of upslope of the road and the downward inclination at 0.3 degrees or more at the time of downward inclination is stored.
  • position coordinate data of the driver type indicating the position of a point decelerating before the curve, and position coordinate data of the driver type of the travel locus (travel line) along the curve are included. Stored.
  • Each point of the traveling control position information is set based on three-dimensional coordinates of static information of the dynamic map, for example, Xm in the lane direction (direction along the lane) and the lane width direction (road Perpendicular to the lane) is given as Ym.
  • Step S12 in FIG. 2 operation control process
  • the operation control unit 22 automatically operates the moving body 100 in accordance with the control method indicated by the operation mode acquired in step S11. Specifically, the operation control unit 22 reads the operation mode from the memory 12. Then, the operation control unit 22 uses the position of the obstacle detected by the sensor, the current and future positions of the moving body 100 specified by the GPS signal and the like, and the map data to make the moving body 100 an obstacle. Automatic operation is performed according to the control method indicated by the operation mode so that the mobile unit 100 travels along the planned movement route while avoiding a collision. That is, the operation control unit 22 automatically operates the moving body 100 by controlling devices such as an accelerator, a brake, and a steering wheel of the moving body 100 through the communication interface 14.
  • devices such as an accelerator, a brake, and a steering wheel of the moving body 100 through the communication interface 14.
  • the operation control unit 22 accelerates from a point where the inclination angle is 0.5 ° or more, and when the road is downhill, the engine inclination is 0.3 ° or more. Control such as adjusting the torque of the vehicle motor so that In addition, at the time of curve, the operation control unit 22 performs control such as operating the steering wheel so that the moving object 100 enters inward from the center of the lane in which the moving object 100 is traveling from a point where bending starts 0.3 degrees or more from the straight line. In particular, the operation control unit 22 performs control in accordance with the control method indicated by the operation mode, in addition to the control described above. For example, if the designated type is beginner, the vehicle travels at a speed obtained by multiplying the speed limit by 0.8, and starts to curve at a point 0.3 degrees or more from the straight line as the start of the curve. Control to start dropping.
  • the driving control unit 22 relates the positional information measured by the sensor 101 to the positional information for traveling control according to the driver type of the driving mode in the additional information of the three-dimensional ((high accuracy)) map 32.
  • the operation control unit 22 obtains the current position from the positioning information of the sensor 101, and refers to the travel control position information in the additional information of the three-dimensional map 32 corresponding to the current position.
  • operation control part 22 performs control which applies a brake at a point according to driver classification by making a point which begins to curve 0.3 degree from a straight line start of a curve.
  • the operation control unit 22 compares the position information of the moving body 100 obtained by the sensor 101 with the position information for travel control defined in the additional information of the three-dimensional map 32, and the position information of the moving body 100 is three-dimensional map 32.
  • the automatic brake is operated.
  • the operation control unit 22 performs an operation of turning the steering wheel at the braking point in the case of advanced riders and strongly reducing the speed below the predetermined speed at the braking point, and in the case of intermediate riders with medium strength. Perform braking operation and turn the handle when decelerating below the predetermined speed, and for beginners, brake with a weaker strength than medium, and turn the handle when decelerating below the predetermined speed Do.
  • automatic driving control can be performed by different travel control methods according to the driver type of the driving mode in conjunction with the static information of the dynamic map.
  • the operation control apparatus 10 automatically operates the mobile unit 100 in accordance with the control method indicated by the operation mode corresponding to the designated type.
  • driving close to the operation of a person with high skill level is performed, and comfortable driving is realized, while driving similar to the driving skill of the driver and the passenger is realized at important points. Therefore, it is possible to reduce the sense of discomfort and fear that the driver and the passenger feel by automatic driving.
  • the driver and the passenger give a feeling of fear, the driver and the passenger feel fear for the centrifugal force of the curve and move to the opposite side etc., the center of gravity of the moving body 100 moves. As a result, the control of the mobile unit 100 is overloaded, which leads to the loss of safety.
  • each functional component is realized by software.
  • each functional component may be realized by hardware. The differences between this first modification and the first embodiment will be described.
  • the operation control device 10 includes an electronic circuit 15 instead of the processor 11, the memory 12, and the storage 13.
  • the electronic circuit 15 is a dedicated circuit that implements the functions of the functional components, the memory 12 and the storage 13.
  • the electronic circuit 15 may be a single circuit, a complex circuit, a programmed processor, a parallel programmed processor, a logic IC, a gate array (GA), an application specific integrated circuit (ASIC), or a field-programmable gate array (FPGA). is assumed. Each functional component may be realized by one electronic circuit 15, or each functional component may be distributed to a plurality of electronic circuits 15.
  • ⁇ Modification 2> As a second modification, some of the functional components may be realized by hardware, and the other functional components may be realized by software.
  • the processor 11, the memory 12, the storage 13, and the electronic circuit 15 are referred to as processing circuits. That is, the function of each functional component is realized by the processing circuit.
  • the second embodiment differs from the first embodiment in that the driving mode is determined according to the road information of the planned travel route, which is a route to which the mobile unit 100 is to travel. In the second embodiment, this difference will be described, and the description of the same point will be omitted.
  • the operation of the operation control apparatus 10 according to the second embodiment will be described with reference to FIGS. 2 and 5.
  • the operation of the operation control apparatus 10 according to the second embodiment corresponds to the operation control method according to the second embodiment.
  • the operation of the operation control apparatus 10 according to the second embodiment corresponds to the process of the operation control program according to the second embodiment.
  • the process shown in FIG. 2 is executed periodically or every time the vehicle moves by the reference distance.
  • Step S11 in FIG. 2 mode acquisition process
  • the mode acquisition unit 21 acquires the driving mode according to the designated type and the road information of the planned travel route of the mobile unit 100. Specifically, the mode acquisition unit 21 transmits the designated type and the planned movement route of the mobile unit 100 to a roadside device present around the mobile unit 100. Then, an operation mode according to the designated type and the road information of the planned travel route of the mobile unit 100 is transmitted from the roadside machine to the operation control apparatus 10.
  • the roadside machine holds road information on roads around the roadside machine.
  • the road information is, for example, a road surface condition such as whether the road is dry, wet, or frozen, weather such as whether it is fine weather, rainy weather or fog, and either a straight line or a gentle curve. It indicates road conditions such as whether there is a steep curve or not.
  • the mode acquisition unit 21 acquires the operation mode transmitted from the roadside device.
  • the mode acquisition unit 21 writes the acquired operation mode in the memory 12.
  • the mode acquisition unit 21 may acquire the operation mode from another device such as a server outside the moving body 100 instead of the roadside device.
  • step S12 is the same as that of the first embodiment.
  • the operating mode may be changed. For example, in the mild curve sections 1 and 2, the automatic driving is performed in the beginner mode, and in the steep curve sections 1 and 2, the automatic driving is performed in the advanced mode.
  • the operation control apparatus 10 determines the operation mode according to not only the designated type but also the road information of the planned travel route of the moving object 100. As a result, a more appropriate operation mode is selected, and highly safe automatic operation can be realized.
  • the operation mode is determined by the roadside machine.
  • the driving control device 10 may acquire road information, and the driving control device 10 may determine the driving mode.
  • the operation control device 10 includes a road information acquisition unit 23 in addition to the functional components shown in FIG.
  • the road information acquisition unit 23 is realized by software or hardware as the other functional components.
  • the road information acquisition unit 23 transmits the planned movement route of the mobile unit 100 to the roadside device. Then, road information of the planned travel route of the mobile unit 100 is transmitted from the roadside machine to the operation control device 10. The road information acquisition unit 23 acquires the road information transmitted from the roadside machine. The road information acquisition unit 23 writes the acquired road information in the memory 12. The road information acquisition unit 23 may acquire road information from another device such as a server external to the mobile unit 100 instead of the roadside machine.
  • Step S22 in FIG. 7 Mode Acquisition Process
  • the mode acquisition unit 21 reads from the memory 12 the road information acquired in step S21.
  • the mode acquisition unit 21 acquires from the mode storage unit 31 an operation mode according to the designated type and the read road information.
  • the mode storage unit 31 stores an operation mode for each driver type and road information.
  • Step S23 of FIG. 7 is the same as step S22 of FIG.
  • the third embodiment is different from the first and second embodiments in that it is possible to learn manual driving by a driver and to select a learning data mode in which control close to manual driving is performed as an operation mode. In the third embodiment, this difference will be described, and the description of the same point will be omitted. Although the case where a function is added to the first embodiment will be described in the third embodiment, it is also possible to add a function to the second embodiment.
  • the operation control device 10 differs from the operation control device 10 illustrated in FIG. 1 in that the operation control device 10 includes a learning unit 24. Further, the operation control device 10 shown in FIG. 1 differs from the operation control device 10 in that the storage 13 realizes the function of the learning data storage unit 33.
  • the learning unit 24 is realized by software or hardware as the other functional components.
  • the operation of the operation control device 10 according to the third embodiment will be described with reference to FIG.
  • the operation of the operation control apparatus 10 according to the third embodiment corresponds to the operation control method according to the third embodiment.
  • the operation of the operation control apparatus 10 according to the third embodiment corresponds to the process of the operation control program according to the third embodiment.
  • the process shown in FIG. 9 is executed periodically or every time it moves by the reference distance.
  • Step S31 in FIG. 9 Control Determination Process
  • the learning unit 24 determines whether the mobile unit 100 is manually operated by the driver or automatically operated. Specifically, the driver selects either manual driving or automatic driving. The learning unit 24 determines whether manual operation or automatic operation is performed by acquiring the selected information. When the manual operation is performed, the learning unit 24 proceeds the process to step S32. On the other hand, when the automatic operation is performed, the learning unit 24 proceeds with the process to step S33.
  • Step S32 in FIG. 9 learning process
  • the learning unit 24 accumulates the behavior of the mobile unit 100 during the manual operation in the learning data storage unit 33 as learning data. Specifically, the learning unit 24 acquires, as learning data, data such as the speed of the moving object 100, the method of acceleration at the time of start, and the timing at which the steering wheel is turned on a curve. Then, the learning unit 24 accumulates the acquired learning data in the learning data storage unit 33.
  • Step S33 in FIG. 9 Mode Acquisition Process
  • the mode acquisition unit 21 acquires an operation mode corresponding to a designated type that is a designated driver type among the driver types provided for each driving skill.
  • the driver may be designated as the driver type.
  • the mode acquisition unit 21 acquires, as the operation mode, a learning data mode indicating the control method specified from the learning data accumulated in step S32.
  • Step S34 in FIG. 9 operation control processing
  • the operation control unit 22 automatically operates the mobile unit 100 according to the control method indicated by the operation mode acquired in step S33.
  • the learning data mode is acquired in step S33
  • the operation control unit 22 automatically operates the mobile body according to the control method specified from the learning data.
  • the operation control unit 22 reads the learning data from the learning data storage unit 33.
  • the operation control unit 22 controls the moving body 100 according to the speed indicated by the read learning data, the method of acceleration at the time of start, the timing at which the steering wheel is turned at a curve, and the like.
  • the operation control apparatus 10 accumulates the behavior of the mobile unit 100 at the time of the manual operation as learning data, and reflects it in the automatic operation. Thereby, automatic driving close to manual driving by the driver can be realized. Therefore, it is possible to reduce the sense of discomfort and fear that the driver and the passenger feel by automatic driving.
  • the operation control apparatus 10 includes a road information acquisition unit 23 in addition to the functional components shown in FIG.
  • the road information acquisition unit 23 is realized by software or hardware as the other functional components.
  • step 31 and step S33 of FIG. 9 is the same as that of the third embodiment.
  • Step S32 in FIG. 9 learning process
  • the learning unit 24 accumulates the behavior of the mobile unit 100 during the manual operation in the learning data storage unit 33 as learning data.
  • the road information acquisition unit 23 transmits the planned movement route of the mobile unit 100 to the roadside machine.
  • road information of the planned travel route of the mobile unit 100 is transmitted from the roadside machine to the operation control device 10.
  • the road information acquisition unit 23 acquires the road information transmitted from the roadside machine.
  • the learning unit 24 stores, in the learning data storage unit 33, along with the road information of the moving route acquired by the road information acquiring unit 23, learning data when moving the moving route.
  • Step S34 in FIG. 9 operation control processing
  • the operation control unit 22 automatically operates the moving body 100 according to the control method indicated by the operation mode acquired in step S33.
  • the road information acquisition unit 23 acquires road information of the planned travel route of the mobile unit 100, as in step S32.
  • the driving control unit 22 automatically drives the mobile unit 100 according to the control method specified from the learning data corresponding to the road information acquired by the road information acquiring unit 23 among the learning data accumulated in the learning data storage unit 33. Do.
  • the road information indicates that the moving route is a straight line
  • the mobile unit 100 is driven automatically according to the learning data stored together with the road information that the moving route is a straight line.
  • the mobile unit 100 is automatically driven in accordance with the learning data stored together with the road information that the moving route is a gentle curve.

Abstract

モード取得部(21)は、運転者の運転技量毎に設けられた運転者種別のうち、運転者又は同乗者から運転者種別の指定を受け付ける。モード取得部(21)は、指定された運転者種別である指定種別に応じた運転モードを取得する。運転モードは、運転技量に応じた自動運転の制御方法を示す。運転制御部(22)は、モード取得部(21)によって取得された運転モードが示す制御方法に従い、移動体(100)を自動運転することで、運転技量に合った自動運転を実現する。

Description

運転制御装置、運転制御方法及び運転制御プログラム
 この発明は、車両といった移動体の自動運転技術に関する。
 自動運転技術に関する研究がされている(特許文献1参照)。
 自動運転車両は、車両に搭載された各種センサで車両の周囲を検知することにより、障害物及び移動物体を把握し、これら障害物や移動物体を回避するようにハンドル等を操作して走行する。
 具体的には、自動運転車両は、車両にカメラとレーザとレーダといった多数のセンサが搭載される。自動運転車両は、前記センサ単独もしくは複数のセンサを組み合せて車両の周囲を検知して、車両を中心とする周囲に他の車両及び人または構造物といった障害物の有無を判別する。また、自動運転車両は、車両が走行している位置を、車両の車速パルス及び走行速度と、GPS(Global Positioning System)信号と、3次元地図データとをマッチングさせることにより把握する。また、自動運転車両は、現在位置と車両速度と車速パルスとから車両の未来の位置を特定する。そして、自動運転車両は、障害物の有無と、車両の現在及び未来の位置とを考慮して、コンピュータの判断に従い自動運転を実施する。
国際公開2017/179151号
 自動運転車両は、コンピュータの判断に従い走行するが、自動運転車両に搭乗している運転者及び同乗者は、車両の挙動に対して、運転者による手動運転と異なる挙動に基づく違和感及び恐怖感を感じる可能性がある。
 また、雨と雪と霧といった車両周囲状況に応じて、運転者は車両速度を調整して運転する。しかし、自動運転車両は、車両設計者の設計条件で走行するため、運転者及び同乗者は、違和感及び恐怖感を感じる可能性がある。
 この発明は、自動運転により運転者及び同乗者が感じる違和感及び恐怖感を軽減することを目的とする。
 この発明に係る運転制御装置は、
 運転技量毎に設けられた運転者種別のうち指定された運転者種別である指定種別に応じた運転モードを取得するモード取得部と、
 前記モード取得部によって取得された運転モードが示す制御方法に従い、移動体を自動運転する運転制御部と
を備える。
 この発明では、運転技量毎に設けられた運転者種別のうち指定種別に応じた運転モードが示す制御方法に従い、移動体を自動運転する。これにより、運転者等の運転技量に合った制御方法で自動運転されるので、自動運転により運転者及び同乗者が感じる違和感及び恐怖感を軽減することができる。
実施の形態1に係る運転制御装置10の構成図。 実施の形態1に係る運転制御装置10の動作を示すフローチャート。 実施の形態1に係るモード記憶部31を示す図。 変形例1に係る運転制御装置10の構成図。 実施の形態2に係る運転制御装置10の動作の説明図。 変形例3に係る運転制御装置10の構成図。 変形例3に係る運転制御装置10の動作を示すフローチャート。 実施の形態3に係る運転制御装置10の構成図。 実施の形態3に係る運転制御装置10の動作を示すフローチャート。 変形例4に係る運転制御装置10の構成図。
 実施の形態1.
 ***構成の説明***
 図1を参照して、実施の形態1に係る運転制御装置10の構成を説明する。
 運転制御装置10は、移動体100に搭載されるコンピュータである。実施の形態1では、移動体100は車両であるとする。しかし、移動体100は、船及び航空機といった他の種別の乗り物であってもよい。
 運転制御装置10は、移動体100と一体不可分な構成であってもよいし、移動体100と分離可能な構成であってもよい。
 運転制御装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
 メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)である。
 ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDD(Hard Disk Drive)である。また、ストレージ13は、SD(登録商標,Secure Digital)メモリカード、CF(CompactFlash,登録商標)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disk)といった可搬記録媒体であってもよい。
 通信インタフェース14は、外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB(Universal Serial Bus)、HDMI(登録商標,High-Definition Multimedia Interface)のポートである。
 運転制御装置10は、通信インタフェース14を介して、移動体100に搭載されたセンサ101と接続されている。
 センサ101は、ミリ波レーダと、ライダーと、カメラと、位置標定装置となどを含む。位置標定装置は、GPS衛星及び準天頂衛星のようなGNSS(Global Navigation Satellite System)衛星からの測位信号に基いて、準天頂衛星や移動体データ通信から得られる測位補強情報により測位信号に含まれる誤差を補正し、50cm以下の高精度な3次元の自己位置情報を計測する。なお、位置標定装置は、GNSS衛星測位の観測情報と、ジャイロ、加速度センサ、車速パルス等の観測情報を密結合させたINS(Inertial Navigation System;慣性航法測位)複合処理によって、自己位置精度の位置誤差を低減してもよい。
 運転制御装置10は、機能構成要素として、モード取得部21と、運転制御部22とを備える。運転制御装置10の各機能構成要素の機能はソフトウェアにより実現される。
 ストレージ13には、運転制御装置10の各機能構成要素の機能を実現するプログラムと、運転制御に用いるデータとが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、運転制御装置10の各機能構成要素の機能が実現される。
 また、ストレージ13は、モード記憶部31の機能を実現する。
 また、ストレージ13は、50cm以下の高精度な3次元地図32のデータが格納されている。
 3次元地図32は、自動運転車200の自動運転に使用される地図データである、ダイナミックマップデータ(DMD)が記憶されている。DMDは、静的情報と、準静的情報と、準動的情報と、動的情報とからなる。DMDの静的情報は、3次元の基盤的地図データである。DMDの静的情報は、路面情報と、車線情報と、3次元構造物となどを含む地物を示す3次元位置座標や線形ベクトルデータから構成される。準静的情報と、準動的情報と、動的情報とは、時々刻々と変化する動的データである。準静的情報と、準動的情報と、動的情報とは、位置参照基盤を基に静的情報に重畳されるデータである。準静的情報は交通規制情報と、道路工事情報と、広域気象情報となどを含み、準動的情報は事故情報と、渋滞情報と、狭域気象情報となどを含み、動的情報はITS情報(周辺車両と、歩行者と、信号情報となど)を含む。
 また、3次元((高精度))地図32は、DMDの静的情報に対応した付加情報が格納されてもよい。
 図1では、プロセッサ11は、1つだけ示されていた。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。
 ***動作の説明***
 図2及び図3を参照して、実施の形態1に係る運転制御装置10の動作を説明する。
 実施の形態1に係る運転制御装置10の動作は、実施の形態1に係る運転制御方法に相当する。また、実施の形態1に係る運転制御装置10の動作は、実施の形態1に係る運転制御プログラムの処理に相当する。
 実施の形態1では、自動運転の開始時等に図2に示す処理が実行される。
 (図2のステップS11:モード取得処理)
 モード取得部21は、運転技量毎に設けられた運転者種別のうち指定された運転者種別である指定種別に応じた運転モードを取得する。
 具体的には、モード取得部21は、通信インタフェース14を介して接続された入力装置が運転者等によって操作され入力された指定種別を受け付ける。モード取得部21は、指定種別に対応する運転モードをモード記憶部31から読み出す。モード取得部21は、読み出された運転モードをメモリ12に書き込む。
 図3に示すように、モード記憶部31は、運転者種別毎に、運転モードを記憶する。
 運転者種別は、上級者と中級車と初級者といった運転技量毎に設けられている。なお、運転技量あるいは運転特性は、高齢者であるか否かと、性別とによっても異なる傾向がある。そのため、図3では、運転者種別は、上級者と中級車と初級者とに加え、高齢者と女性という種別が設けられている。
 運転モードは、運転技量に応じた自動運転の制御方法を示す。具体例としては、運転モードは、制限速度に対する速度と、カーブの曲がり方といった制御方法を示す。制限速度に対する速度は、制限速度に対してどの程度の速度で走行するかを意味する。例えば、制限速度に対する速度は、運転者種別が上級者又は中級車の場合には、制限速度で走行し、運転者種別が初級者の場合には制限速度に0.8を乗じた速度で走行するといったことを示す。また、カーブの曲り方は、カーブを曲る際の速度制御と、ハンドル制御と等を意味する。例えば、カーブの曲り方は、運転者種別が上級者の場合には、カーブの手前10mで速度を落とし始め、運転者種別が中級者の場合には、カーブの手前15mで速度を落とし始め、運転者種別が初級者の場合には、カーブの手前20mで速度を落とし始めるといったことを示す。
 また、3次元地図32の付加情報は、運転モードの運転者種別に応じた走行制御用位置情報が格納されてもよい。
 例えば、走行制御用位置情報には、道路の上り傾斜時は傾斜角度が0.5度以上となる地点の運転者種別の位置座標データと、下り傾斜時は下り傾斜が0.3度以上になった地点の運転者種別の位置座標データとが格納される。
 また、走行制御用位置情報には、カーブの手前で減速する地点の位置を示す運転者種別の位置座標データと、カーブに沿った走行軌跡(走行ライン)の運転者種別の位置座標データとが格納される。
 これらの走行制御用位置情報の各地点は、ダイナミックマップの静的情報の3次元座標に基いて設定され、例えば位置参照基準から、車線方向(車線に沿う方向)にXm、車線幅方向(道路車線に対し垂直方向)にYmのように与えられる。
 (図2のステップS12:運転制御処理)
 運転制御部22は、ステップS11で取得された運転モードが示す制御方法に従い、移動体100を自動運転する。
 具体的には、運転制御部22は、メモリ12から運転モードを読み出す。そして、運転制御部22は、センサで検知された障害物の位置と、GPS信号等によって特定された移動体100の現在及び未来の位置と、地図データと用いて、移動体100が障害物に衝突しないようにしつつ、移動体100が移動予定経路を進むように、運転モードが示す制御方法に従い自動運転する。つまり、運転制御部22は、通信インタフェース14を介して、移動体100のアクセルとブレーキとハンドルといった機器を制御して、移動体100を自動運転する。
 この際、運転制御部22は、例えば、道路が上り傾斜時は傾斜角度が0.5度以上となる地点から加速し、下り傾斜時は下り傾斜が0.3度以上になった場合エンジンブレーキがかかるように車両モータのトルクを調整するといった制御を行う。また、運転制御部22は、カーブ時は、直線から0.3度以上曲がり始める地点から移動体100が走行中の車線の中心から内側に入るようにハンドルを操作するといった制御を行う。特に、運転制御部22は、上述した制御に加え、運転モードが示す制御方法に従う制御を行う。例えば、指定種別が初級者の場合には、制限速度に0.8を乗じた速度で走行し、直線から0.3度以上曲がり始める地点をカーブの開始として、カーブの開始の手前20mで速度を落とし始めるといった制御を行う。
 また、運転制御部22は、センサ101の測位した位置情報と、3次元((高精度))地図32の付加情報における運転モードの運転者種別に応じた走行制御用位置情報との対応関係に基いて、運転者種別毎に異なる走行制御方法で移動体100の自動運転を制御してもよい。
 例えば、運転制御部22は、センサ101の測位情報から現在位置を得て、当該現在位置に対応した3次元地図32の付加情報における走行制御用位置情報を参照する。そして、運転制御部22は、カーブ時は、直線から0.3度曲がり始める点をカーブの開始として、運転者種別に応じた地点でブレーキを掛ける制御を行う。道路幅6.5mの場合、運転者種別が上級者の場合は、カーブ開始の手前10m、かつ、道路センターラインから外側に向かって5mの地点をブレーキングポイントとし、中級者の場合は、カーブ開始の手前15m、かつ、道路センターラインから外側に向かって4mの地点をブレーキングポイントとし、初級者の場合は、カーブ開始の手前20m、かつ、道路センターラインから外側に向かって3mの地点をブレーキングポイントとする。
 運転制御部22は、センサ101によって得られた移動体100の位置情報と3次元地図32の付加情報に規定する走行制御用位置情報とを比較し、移動体100の位置情報が3次元地図32の付加情報に規定するブレーキングポイントに到達したか否かを判断して、到達したと判断された時点で自動ブレーキを作動させる。また、運転制御部22は、ブレーキングポイントにおいて、上級者の場合は強めにブレーキングし、所定速度以下に減速した時点でハンドルを回す操作を行い、中級者の場合は中程度の強さでブレーキングし、所定速度以下に減速した時点でハンドルを回す操作を行い、初級者の場合は中程度よりも弱めの強さでブレーキングし、所定速度以下に減速した時点でハンドルを回す操作を行う。
 かくして、ダイナミックマップの静的情報に連動させて、運転モードの運転者種別に応じて異なる走行制御方法で自動運転制御を行うことが可能となる。
 ***実施の形態1の効果***
 以上のように、実施の形態1に係る運転制御装置10は、指定種別に応じた運転モードが示す制御方法に従い、移動体100を自動運転する。
 これにより、原則として、習熟度の高い人の操作に近い運転が行われ、快適な運転が実現されつつ、要所では運転者及び同乗者の運転技量に近い運転が実現される。そのため、自動運転により運転者及び同乗者が感じる違和感及び恐怖感を軽減することができる。
 なお、運転者及び同乗者に対して恐怖感を与えてしまうと、運転者及び同乗者がカーブの遠心力に恐怖を感じて、反対側等に移動することで、移動体100の重心が移動し、移動体100の制御に負荷がかかるといった安全性を損なうことに繋がる。
 ***他の構成***
 <変形例1>
 実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例1として、各機能構成要素はハードウェアで実現されてもよい。この変形例1について、実施の形態1と異なる点を説明する。
 図4を参照して、変形例1に係る運転制御装置10の構成を説明する。
 各機能構成要素がハードウェアで実現される場合には、運転制御装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
 電子回路15としては、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)が想定される。
 各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
 <変形例2>
 変形例2として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
 プロセッサ11とメモリ12とストレージ13と電子回路15とを処理回路という。つまり、各機能構成要素の機能は、処理回路により実現される。
 実施の形態2.
 実施の形態2は、移動体100が移動する予定の経路である移動予定経路の道路情報に応じて運転モードを決定する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
 ***動作の説明***
 図2及び図5を参照して、実施の形態2に係る運転制御装置10の動作を説明する。
 実施の形態2に係る運転制御装置10の動作は、実施の形態2に係る運転制御方法に相当する。また、実施の形態2に係る運転制御装置10の動作は、実施の形態2に係る運転制御プログラムの処理に相当する。
 実施の形態2では、定期的に、あるいは、基準距離だけ移動する毎に、図2に示す処理が実行される。
 (図2のステップS11:モード取得処理)
 モード取得部21は、指定種別と、移動体100の移動予定経路の道路情報とに応じた運転モードを取得する。
 具体的には、モード取得部21は、指定種別と移動体100の移動予定経路とを移動体100の周辺に存在する路側機に送信する。すると、路側機から、指定種別と、移動体100の移動予定経路の道路情報とに応じた運転モードが運転制御装置10に送信される。ここで、路側機は、路側機の周辺の道路についての道路情報を保持しているものとする。道路情報は、具体例としては、道路が乾いているか、濡れているか、凍っているかといった路面状態と、晴天か雨天か霧が発生しているかといった天候と、直線であるか、緩やかなカーブであるか、急なカーブであるかといった道路状態と等を示す。モード取得部21は、路側機から送信された運転モードを取得する。モード取得部21は、取得された運転モードをメモリ12に書き込む。
 なお、モード取得部21は、路側機に代えて、移動体100の外部のサーバといった他の装置から運転モードを取得してもよい。
 ステップS12の処理は、実施の形態1と同じである。
 定期的に、あるいは、基準距離だけ移動する毎に、図2に示す処理が実行されるため、図5に示すように、移動予定経路を分割した区間毎に、その区間の道路情報に応じて運転モードが変更される可能性がある。例えば、緩やかなカーブ区間1,2では、初級者モードで自動運転され、急なカーブ区間1,2では、上級者モードで自動運転がされる。
 ***実施の形態2の効果***
 以上のように、実施の形態2に係る運転制御装置10は、指定種別だけでなく、移動体100の移動予定経路の道路情報に応じて運転モードを決定する。これにより、より適切な運転モードが選択され、安全性の高い自動運転を実現することが可能である。
 ***他の構成***
 <変形例3>
 実施の形態2では、路側機によって運転モードが決定された。しかし、運転制御装置10が道路情報を取得して、運転制御装置10が運転モードを決定してもよい。
 この場合には、図6に示すように、運転制御装置10は、図1に示す機能構成要素に加え、道路情報取得部23を備える。道路情報取得部23は、他の機能構成要素と同様に、ソフトウェア又はハードウェアで実現される。
 図7を参照して、変形例3に係る運転制御装置10の動作を説明する。
 (図7のステップS21:道路情報取得処理)
 道路情報取得部23は、移動体100の移動予定経路を路側機に送信する。すると、路側機から、移動体100の移動予定経路の道路情報が運転制御装置10に送信される。道路情報取得部23は、路側機から送信された道路情報を取得する。道路情報取得部23は、取得された道路情報をメモリ12に書き込む。
 なお、道路情報取得部23は、路側機に代えて、移動体100の外部のサーバといった他の装置から道路情報を取得してもよい。
 (図7のステップS22:モード取得処理)
 モード取得部21は、ステップS21で取得された道路情報をメモリ12から読み出す。モード取得部21は、指定種別と、読み出された道路情報とに応じた運転モードをモード記憶部31から取得する。ここでは、モード記憶部31は、運転者種別及び道路情報毎に、運転モードを記憶している。
 図7のステップS23は、図2のステップS22と同じである。
 実施の形態3.
 実施の形態3は、運転者による手動運転を学習し、運転モードとして手動運転に近い制御を行う学習データモードを選択可能な点が実施の形態1,2と異なる。実施の形態3では、この異なる点を説明し、同一の点については説明を省略する。
 実施の形態3では、実施の形態1に機能を追加した場合を説明するが、実施の形態2に機能を追加することも可能である。
 ***構成の説明***
 図8を参照して、実施の形態3に係る運転制御装置10の構成を説明する。
 運転制御装置10は、学習部24を備える点が、図1に示す運転制御装置10と異なる。また、ストレージ13が学習データ記憶部33の機能を実現する点が、図1に示す運転制御装置10と異なる。学習部24は、他の機能構成要素と同様に、ソフトウェア又はハードウェアで実現される。
 ***動作の説明***
 図9を参照して、実施の形態3に係る運転制御装置10の動作を説明する。
 実施の形態3に係る運転制御装置10の動作は、実施の形態3に係る運転制御方法に相当する。また、実施の形態3に係る運転制御装置10の動作は、実施の形態3に係る運転制御プログラムの処理に相当する。
 実施の形態3では、定期的に、あるいは、基準距離だけ移動する毎に、図9に示す処理が実行される。
 (図9のステップS31:制御判定処理)
 学習部24は、移動体100が運転手による手動運転がされるか、自動運転がされるかを判定する。具体的には、運転手によって手動運転と自動運転とのどちらかが選択される。学習部24は、選択された情報を取得することにより、手動運転がされるか、自動運転がされるかを判定する。
 学習部24は、手動運転がされる場合には、処理をステップS32に進める。一方、学習部24は、自動運転がされる場合には、処理をステップS33に進める。
 (図9のステップS32:学習処理)
 学習部24は、手動運転時における移動体100の挙動を学習データとして学習データ記憶部33に蓄積する。
 具体的には、学習部24は、移動体100の速度と、発進時の加速の仕方と、カーブでのハンドルを切るタイミングといったデータを学習データとして取得する。そして、学習部24は、取得された学習データを学習データ記憶部33に蓄積する。
 (図9のステップS33:モード取得処理)
 図2のステップS11と同様に、モード取得部21は、運転技量毎に設けられた運転者種別のうち指定された運転者種別である指定種別に応じた運転モードを取得する。
 但し、実施の形態3では、運転者種別として運転者が指定される場合がある。運転者種別として運転者が指定された場合には、モード取得部21は、ステップS32で蓄積された学習データから特定される制御方法を示す学習データモードを運転モードとして取得する。
 (図9のステップS34:運転制御処理)
 図2のステップS12と同様に、運転制御部22は、ステップS33で取得された運転モードが示す制御方法に従い、移動体100を自動運転する。
 運転制御部22は、ステップS33で学習データモードが取得された場合には、学習データから特定される制御方法に従い、移動体を自動運転する。具体的には、運転制御部22は、学習データ記憶部33から学習データを読み出す。運転制御部22は、読み出された学習データが示す速度と、発進時の加速の仕方と、カーブでのハンドルを切るタイミングと等に従い、移動体100を制御する。
 ***実施の形態3の効果***
 以上のように、実施の形態3に係る運転制御装置10は、手動運転時の移動体100の挙動を学習データとして蓄積しておき、自動運転に反映する。これにより、運転手による手動運転に近い自動運転を実現できる。そのため、自動運転により運転者及び同乗者が感じる違和感及び恐怖感を軽減することができる。
 ***他の構成***
 <変形例4>
 実施の形態3では、単に手動運転時の移動体100の挙動を学習データとした。しかし、直線と緩やかなカーブと急なカーブいった道路情報毎の移動体100の挙動を学習データとしてもよい。これにより、運転者による手動運転により近い自動運転を実現できる。
 この場合には、図10に示すように、運転制御装置10は、図8に示す機能構成要素に加え、道路情報取得部23を備える。道路情報取得部23は、他の機能構成要素と同様に、ソフトウェア又はハードウェアで実現される。
 図9を参照して、変形例4に係る運転制御装置10の動作を説明する。
 図9のステップ31及びステップS33の処理は、実施の形態3と同じである。
 (図9のステップS32:学習処理)
 学習部24は、手動運転時における移動体100の挙動を学習データとして学習データ記憶部33に蓄積する。
 この際、道路情報取得部23は、移動体100の移動予定経路を路側機に送信する。すると、路側機から、移動体100の移動予定経路の道路情報が運転制御装置10に送信される。道路情報取得部23は、路側機から送信された道路情報を取得する。学習部24は、道路情報取得部23によって取得された移動経路の道路情報とともに、移動経路を移動した際の学習データを学習データ記憶部33に蓄積する。
 (図9のステップS34:運転制御処理)
 運転制御部22は、ステップS33で取得された運転モードが示す制御方法に従い、移動体100を自動運転する。
 ステップS33で学習データモードが取得された場合には、道路情報取得部23は、ステップS32と同様に移動体100の移動予定経路の道路情報を取得する。運転制御部22は、学習データ記憶部33に蓄積された学習データのうち、道路情報取得部23によって取得された道路情報に対応する学習データから特定される制御方法に従い、移動体100を自動運転する。例えば、移動経路が直線であることを道路情報が示す場合には、移動経路が直線であることを道路情報とともに記憶された学習データに従い、移動体100を自動運転する。また、移動経路が緩やかなカーブであることを道路情報が示す場合には、移動経路が緩やかなカーブであることを道路情報とともに記憶された学習データに従い、移動体100を自動運転する。
 10 運転制御装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 電子回路、21 モード取得部、22 運転制御部、23 道路情報取得部、24 学習部、31 モード記憶部、100 移動体。

Claims (8)

  1.  運転技量毎に設けられた運転者種別のうち指定された運転者種別である指定種別に応じた運転モードを取得するモード取得部と、
     前記モード取得部によって取得された運転モードが示す制御方法に従い、移動体を自動運転する運転制御部と
    を備える運転制御装置。
  2.  前記モード取得部は、前記指定種別を路側機に送信し、前記指定種別と、前記移動体の移動予定経路の道路情報とに応じた運転モードを路側機から取得する
    請求項1に記載の運転制御装置。
  3.  前記運転制御装置は、さらに、
     前記移動体の移動予定経路の道路情報を取得する道路情報取得部
    を備え、
     前記モード取得部は、前記指定種別と、前記道路情報取得部によって取得された道路情報とに応じた運転モードを取得する
    請求項1に記載の運転制御装置。
  4.  前記運転制御装置は、さらに、
     手動運転時における前記移動体の挙動を学習データとして蓄積する学習部
    を備え、
     前記モード取得部は、前記運転者種別として運転者が指定された場合には、前記学習部によって蓄積された前記学習データから特定される制御方法を示す学習データモードを前記運転モードとして取得し、
     前記運転制御部は、前記学習データモードが取得された場合には、前記学習データから特定される制御方法に従い、前記移動体を自動運転する
    請求項1に記載の運転制御装置。
  5.  前記運転制御装置は、さらに、
     前記移動体の移動予定経路の道路情報を取得する道路情報取得部
    を備え、
     前記学習部は、移動経路の道路情報とともに、前記移動経路を移動した際の前記学習データを蓄積し、
     前記運転制御部は、前記学習データモードが取得された場合には、蓄積された学習データのうち、前記道路情報取得部によって取得された道路情報に対応する学習データから特定される制御方法に従い、前記移動体を自動運転する
    請求項4に記載の運転制御装置。
  6.  前記運転制御部は、位置標定装置によって得られる前記移動体の位置に基いて、記憶装置に記憶された地図データを参照し、前記運転モードが示す走行制御方法に従い、前記移動体を自動運転する
    請求項1から5までのいずれか1項に記載の運転制御装置。
  7.  モード取得部が、運転技量毎に設けられた運転者種別のうち指定された運転者種別である指定種別に応じた運転モードを取得し、
     運転制御部が、取得された運転モードが示す制御方法に従い、移動体を自動運転する運転制御方法。
  8.  運転技量毎に設けられた運転者種別のうち指定された運転者種別である指定種別に応じた運転モードを取得するモード取得処理と、
     前記モード取得処理によって取得された運転モードが示す制御方法に従い、移動体を自動運転する運転制御処理と
    をコンピュータに実行させる運転制御プログラム。
PCT/JP2018/001255 2018-01-17 2018-01-17 運転制御装置、運転制御方法及び運転制御プログラム WO2019142276A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US16/770,977 US11639183B2 (en) 2018-01-17 2018-01-17 Driving control device, driving control method, and computer readable medium
JP2019566039A JP6869380B2 (ja) 2018-01-17 2018-01-17 運転制御装置、運転制御方法及び運転制御プログラム
CN201880085953.9A CN111587198A (zh) 2018-01-17 2018-01-17 驾驶控制装置、驾驶控制方法及驾驶控制程序
PCT/JP2018/001255 WO2019142276A1 (ja) 2018-01-17 2018-01-17 運転制御装置、運転制御方法及び運転制御プログラム
DE112018006880.3T DE112018006880T5 (de) 2018-01-17 2018-01-17 Fahrsteuervorrichtung, fahrsteuerverfahren und fahrsteuerprogramm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/001255 WO2019142276A1 (ja) 2018-01-17 2018-01-17 運転制御装置、運転制御方法及び運転制御プログラム

Publications (1)

Publication Number Publication Date
WO2019142276A1 true WO2019142276A1 (ja) 2019-07-25

Family

ID=67302086

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/001255 WO2019142276A1 (ja) 2018-01-17 2018-01-17 運転制御装置、運転制御方法及び運転制御プログラム

Country Status (5)

Country Link
US (1) US11639183B2 (ja)
JP (1) JP6869380B2 (ja)
CN (1) CN111587198A (ja)
DE (1) DE112018006880T5 (ja)
WO (1) WO2019142276A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021070536A (ja) * 2019-10-29 2021-05-06 三菱ロジスネクスト株式会社 無人運転と有人運転とに切り替え可能な荷役車

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015089801A (ja) * 2013-11-07 2015-05-11 株式会社デンソー 運転制御装置
JP2016018238A (ja) * 2014-07-04 2016-02-01 株式会社デンソー 車両の運転モード制御装置
WO2016052507A1 (ja) * 2014-09-30 2016-04-07 エイディシーテクノロジー株式会社 自動運転制御装置
WO2016152873A1 (ja) * 2015-03-24 2016-09-29 パイオニア株式会社 自動運転支援装置、制御方法、プログラム及び記憶媒体
JP2016215658A (ja) * 2015-05-14 2016-12-22 アルパイン株式会社 自動運転装置および自動運転システム
JP2017182278A (ja) * 2016-03-29 2017-10-05 株式会社デンソー 退避指示装置及び退避指示方法
JP2017220096A (ja) * 2016-06-09 2017-12-14 株式会社デンソー 車両用運転支援システム
JP2017227445A (ja) * 2016-06-20 2017-12-28 三菱電機株式会社 自動運転装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3608219B2 (ja) 1994-05-16 2005-01-05 株式会社日立製作所 車両の安全走行制御システム及び車両の安全走行制御方法
JP4639997B2 (ja) * 2005-02-18 2011-02-23 トヨタ自動車株式会社 車両の減速制御装置
US7266438B2 (en) * 2005-08-26 2007-09-04 Gm Global Technology Operations, Inc. Method of assisting driver to negotiate a roadway
JP2007133486A (ja) * 2005-11-08 2007-05-31 Nissan Motor Co Ltd 運転支援装置
JP5056707B2 (ja) 2008-10-01 2012-10-24 トヨタ自動車株式会社 車速制御装置
US20100209888A1 (en) * 2009-02-18 2010-08-19 Gm Global Technology Operations, Inc. Vehicle stability enhancement control adaptation to driving skill based on curve-handling maneuvers
DE102010001873A1 (de) * 2010-02-12 2011-08-18 ZF Friedrichshafen AG, 88046 Verfahren zur Bestimmung und Schaltung des optimalen Ganges vor der Einfahrt in eine Kurve bei einem Kraftfahrzeug umfassend ein Automatgetriebe
JP5578331B2 (ja) * 2011-12-26 2014-08-27 トヨタ自動車株式会社 車両の走行軌跡制御装置
JP6020285B2 (ja) * 2013-03-26 2016-11-02 アイシン・エィ・ダブリュ株式会社 走行支援システム、走行支援方法及びコンピュータプログラム
JP6273864B2 (ja) * 2014-01-27 2018-02-07 アイシン・エィ・ダブリュ株式会社 自動運転支援システム、自動運転支援方法及びコンピュータプログラム
EP3114574A4 (en) * 2014-03-03 2018-03-07 Inrix, Inc. Traffic obstruction detection
US9463804B2 (en) 2014-11-11 2016-10-11 Ford Global Tehnologies, LLC Vehicle cornering modes
JP6410655B2 (ja) * 2015-03-31 2018-10-24 アイシン・エィ・ダブリュ株式会社 道路形状検出システム、道路形状検出方法及びコンピュータプログラム
KR102368812B1 (ko) * 2015-06-29 2022-02-28 엘지전자 주식회사 차량 운전 보조 방법 및 차량
JP6565615B2 (ja) * 2015-11-06 2019-08-28 株式会社デンソー 車両制御装置
JP6575818B2 (ja) 2016-03-25 2019-09-18 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、運転支援システム、プログラム
US10676101B2 (en) 2016-04-13 2020-06-09 Honda Motor Co., Ltd. Vehicle control system, vehicle control method, and vehicle control program
JP6368957B2 (ja) * 2016-05-10 2018-08-08 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
US10710610B2 (en) * 2016-05-27 2020-07-14 Nissan Motor Co., Ltd. Driving control method and driving control apparatus
US9963106B1 (en) * 2016-11-07 2018-05-08 Nio Usa, Inc. Method and system for authentication in autonomous vehicles
US20180170392A1 (en) * 2016-12-20 2018-06-21 Baidu Usa Llc Method and System to Recognize Individual Driving Preference for Autonomous Vehicles
US10124807B2 (en) * 2017-01-23 2018-11-13 GM Global Technology Operations LLC Systems and methods for classifying driver skill level and handling type
US10895465B2 (en) * 2017-10-12 2021-01-19 Toyota Jidosha Kabushiki Kaisha Optimizing a route selection for a highly autonomous vehicle

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015089801A (ja) * 2013-11-07 2015-05-11 株式会社デンソー 運転制御装置
JP2016018238A (ja) * 2014-07-04 2016-02-01 株式会社デンソー 車両の運転モード制御装置
WO2016052507A1 (ja) * 2014-09-30 2016-04-07 エイディシーテクノロジー株式会社 自動運転制御装置
WO2016152873A1 (ja) * 2015-03-24 2016-09-29 パイオニア株式会社 自動運転支援装置、制御方法、プログラム及び記憶媒体
JP2016215658A (ja) * 2015-05-14 2016-12-22 アルパイン株式会社 自動運転装置および自動運転システム
JP2017182278A (ja) * 2016-03-29 2017-10-05 株式会社デンソー 退避指示装置及び退避指示方法
JP2017220096A (ja) * 2016-06-09 2017-12-14 株式会社デンソー 車両用運転支援システム
JP2017227445A (ja) * 2016-06-20 2017-12-28 三菱電機株式会社 自動運転装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021070536A (ja) * 2019-10-29 2021-05-06 三菱ロジスネクスト株式会社 無人運転と有人運転とに切り替え可能な荷役車

Also Published As

Publication number Publication date
JP6869380B2 (ja) 2021-05-12
US11639183B2 (en) 2023-05-02
JPWO2019142276A1 (ja) 2020-10-22
DE112018006880T5 (de) 2020-11-12
US20200385015A1 (en) 2020-12-10
CN111587198A (zh) 2020-08-25

Similar Documents

Publication Publication Date Title
US10884422B2 (en) Method for generating trajectories for autonomous driving vehicles (ADVS)
US10996679B2 (en) Method to evaluate trajectory candidates for autonomous driving vehicles (ADVs)
EP3633408B1 (en) Planning driven perception system for autonomous driving vehicles
KR102070530B1 (ko) 모션 계획에 기초한 자율 주행 차량의 운행 방법 및 시스템
CN105984464B (zh) 车辆控制装置
KR102042945B1 (ko) 자율 주행 차량을 위한 차로 연석 보조의 차로 이탈 점검 및 차로 유지 시스템
KR102042946B1 (ko) 자율 주행 차량을 위한 감속 연석 기반 방향 검출 및 차선 유지 시스템
US10606273B2 (en) System and method for trajectory re-planning of autonomous driving vehicles
US10569651B2 (en) Speed control and steering control assistant based on pitch status and roll status of autonomous driving vehicle
EP3352039A1 (en) Method for keeping distance between an autonomous driving vehicle and a following vehicle using a braking light
EP3378707A1 (en) Collision prediction and forward airbag deployment system for autonomous driving vehicles
KR20190094095A (ko) 자율 주행 차량의 제어 피드백에 기초한 맵 업데이트 방법 및 시스템
EP3327530A1 (en) Method for determining command delays of autonomous vehicles
KR20180088633A (ko) 자율 주행 차량의 완전 정지를 위한 속력 제어
EP3524494B1 (en) Lane self-localization system using multiple cameras for autonomous driving vehicles
US11440471B2 (en) Automated warning system to detect a front vehicle slips backwards
WO2020062034A1 (en) A tunnel-based planning system for autonomous driving vehicles
JP6930152B2 (ja) 自動運転システム
EP3694756B1 (en) Spiral curve based vertical parking planner system for autonomous driving vehicles
US20210107498A1 (en) Safe transition from autonomous-to-manual driving mode with assistance of autonomous driving system
JP7009490B2 (ja) 自動運転車両のための制御主導型の3ポイントターン計画
US10438074B2 (en) Method and system for controlling door locks of autonomous driving vehicles based on lane information
EP3700796B1 (en) Methods for obstacle filtering for non-nudge planning system in autonomous driving vehicle
EP3655837B1 (en) Enumeration-based three-point turn planning for autonomous driving vehicles
WO2020132942A1 (en) A mutual nudge algorithm for self-reverse lane of autonomous driving

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18900918

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019566039

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 18900918

Country of ref document: EP

Kind code of ref document: A1