WO2019026199A1 - 車両制御装置、および車両制御方法、プログラム - Google Patents

車両制御装置、および車両制御方法、プログラム Download PDF

Info

Publication number
WO2019026199A1
WO2019026199A1 PCT/JP2017/028012 JP2017028012W WO2019026199A1 WO 2019026199 A1 WO2019026199 A1 WO 2019026199A1 JP 2017028012 W JP2017028012 W JP 2017028012W WO 2019026199 A1 WO2019026199 A1 WO 2019026199A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
driver
control
line
determination unit
Prior art date
Application number
PCT/JP2017/028012
Other languages
English (en)
French (fr)
Inventor
渡 木間塚
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to PCT/JP2017/028012 priority Critical patent/WO2019026199A1/ja
Priority to CN201780092380.8A priority patent/CN110785334B/zh
Publication of WO2019026199A1 publication Critical patent/WO2019026199A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/02Control of vehicle driving stability
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers

Definitions

  • the present invention relates to a vehicle control device, a vehicle control method, and a program.
  • the present invention has been made in consideration of such circumstances, and it is an object of the present invention to provide a vehicle control support device, a vehicle control method, and a program that can improve the comfort of the occupant.
  • a determination unit that determines an area in which the driver is looking at the line, and a function that operates according to the operation by the driver and causes the vehicle to travel so as to approach a first reference position that is a relative position to the travel lane
  • the control unit performs control of 1, and when the determination unit determines that the driver is not looking away from the predetermined area, or in the specific area which is an area different from the predetermined area.
  • the position of the vehicle when it is determined that it is determined that the driver is looking at the line of sight, which is automatically activated and it is determined that the line of sight is away from the predetermined area or directed to the specific area
  • a control unit that executes a second control for causing the vehicle to travel so as to approach a second reference position based on the symbol.
  • the predetermined area is a predetermined area in the outside in front of the vehicle
  • the specific area is a specific area in a cabin of the vehicle.
  • any one of (1) to (3) wherein the determination unit determines whether or not the driver has moved the gaze from the predetermined area to an on-vehicle device that can be operated by the driver.
  • the control unit performs the second control when the determination unit determines that the driver has moved the gaze from the predetermined area to the in-vehicle device when the operation is not performed. It is something to execute.
  • the unit executes the second control when it is determined by the determination unit that the driver has moved the line of sight toward the rear seat from the predetermined area when the operation is not performed. It is.
  • the control unit is further determined by the determination unit that the driver is not looking away from the predetermined area, and the driver determination unit determines that the driver determination unit is within the setting area.
  • the second control is executed when it is determined that the driver's hand is positioned.
  • the determination unit checks the periphery of the vehicle provided on the vehicle at the end of the line of sight after the driver removes the line of sight It is determined whether or not the mirror unit or the display unit displays an image obtained by imaging the periphery of the vehicle, and the control unit is configured to determine from the predetermined area by the determination unit when the operation is not performed. The second control is not performed when it is determined that the mirror unit or the display unit is the destination of the line of sight after the driver removes the line of sight.
  • control unit causes the vehicle to travel so as to approach the first reference position after executing the second control for a predetermined time It is.
  • a driver determination unit that determines whether or not the driver's hand is positioned in a set area set for the in-vehicle apparatus that can be operated by the driver, and in response to an operation by the driver
  • a control unit that executes a first control that operates and causes the vehicle to travel so as to approach a first reference position that is a relative position with respect to a traveling lane, and the driver determination unit It operates automatically when it is determined that a hand is located, and the position of the vehicle when it is determined that the driver's hand is located within the setting area
  • a control unit that executes a second control for causing the vehicle to travel so as to approach a second reference position.
  • An inquiry determination unit that determines whether an inquiry requiring a response from the driver has been performed, and operates in response to an operation by the driver to approach a first reference position that is a relative position to the traveling lane
  • Control unit that executes a first control for causing the vehicle to travel to the vehicle, and is automatically activated when it is determined by the inquiry determination unit that the inquiry has been made, and when it is determined that the inquiry is performed
  • a control unit that executes a second control that causes the vehicle to travel so as to approach a second reference position based on the position of the vehicle.
  • the inquiry is an inquiry by voice guidance from a vehicle-mounted device, and the response is performed by the driver's voice.
  • the comfort of the occupant can be improved.
  • the second control is performed to further improve the passenger's comfort when an inquiry or conversation that causes the driver to start thinking operation is performed. be able to.
  • FIG. 6 is a view showing an example of the installation position of the touch panel 12; It is the figure which illustrated the position ahead of a look in the case where it is judged that a driver removed a look from a predetermined field. It is a figure for demonstrating the process of a driver
  • 5 is a flowchart showing a flow of processing executed by the driving support device 100. It is a flowchart which shows the flow of the other example of a gaze determination process.
  • It is a figure which shows an example of the behavior of the own vehicle M of the modification 1.
  • FIG. It is a figure which shows an example of the behavior of the own vehicle M of the modification 2.
  • FIG. It is a figure which shows an example of a structure of the vehicle by which 100 A of driving assistance devices of 2nd Embodiment are mounted. It is a figure showing an example of the hardware constitutions of driving support device 100 of an embodiment.
  • FIG. 1 is a diagram showing an example of a configuration of a vehicle (hereinafter, the own vehicle M) on which the driving support device 100 is mounted.
  • a vehicle hereinafter, the own vehicle M
  • an HMI Human Machine Interface
  • a radar device 20 a camera 22, an image recognition device 24, and a vehicle sensor 30 are connected to the driving assistance device 100.
  • a traveling driving force output device 40, a braking device 42, a steering device 44, and a vehicle interior camera 50 are connected to the driving assistance device 100.
  • the driving support device 100 includes, for example, a sight line determination unit 110, a driver detection unit 120, a lane keeping support control unit 130, and a follow running support control unit 150. These components are realized, for example, by execution of a program (software) by a hardware processor such as a central processing unit (CPU). In addition, some or all of these components may be hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit), etc. Circuit (including circuitry) or may be realized by cooperation of software and hardware.
  • LSI Large Scale Integration
  • ASIC Application Specific Integrated Circuit
  • FPGA Field-Programmable Gate Array
  • GPU Graphics Processing Unit
  • the lane keeping support control unit 130 and the following run support control unit 150 may be realized by one processor or may be realized by a plurality of processors.
  • the driving support device 100 may be a system in which a plurality of ECUs (Electronic Control Units) are combined.
  • the HMI 10 is a device that receives an operation from the occupant of the host vehicle M and outputs information.
  • the HMI 10 includes, for example, a touch panel 12 and switches (not shown).
  • the touch panel 12 may be configured by combining a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display with a touch pad, for example.
  • the touch panel 12 is an example of the “vehicle-mounted device”.
  • the HMI may include in-vehicle devices other than the touch panel 12.
  • FIG. 2 is a view showing an example of the installation position of the touch panel 12.
  • the touch panel 12 is located below the front window shield and installed on a dashboard provided in front of the driver's seat and the front passenger's seat.
  • the touch panel 12 may be installed, for example, in front of the driver's seat, and may function as an instrument panel (facia) that displays instruments such as a speedometer and a tachometer.
  • a steering wheel provided in front of the driver's seat is provided with a main switch 14 and a LKAS (Lane Keeping Assistance System) operating switch 16 described later.
  • the main switch 14 and the LKAS operating switch 16 may be configured to be included in the HMI 10.
  • the steering wheel may also be provided with an ACC (Adaptive Cruise Control) switch or a switch for causing the other vehicle to execute predetermined control.
  • ACC Adaptive Cruise Control
  • the radar device 20 emits radio waves such as millimeter waves in front of the host vehicle M, and detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and orientation) of the object.
  • radio waves such as millimeter waves
  • reflected waves radio waves
  • One or more of the radar devices 20 are attached to any part of the host vehicle M.
  • the radar device 20 may detect the position and the velocity of the object by a frequency modulated continuous wave (FM-CW) method.
  • FM-CW frequency modulated continuous wave
  • the camera 22 is a digital camera using a solid-state imaging device such as, for example, a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).
  • CMOS complementary metal oxide semiconductor
  • One or more cameras 22 are attached to any part of the host vehicle M.
  • the camera 22 When imaging the front, the camera 22 is attached to the top of the front window shield, the rear surface of the rearview mirror, or the like.
  • the camera 22 periodically and repeatedly images the periphery of the vehicle M.
  • the camera 22 may be a stereo camera.
  • the camera 22 outputs the captured image to the image recognition device 24.
  • the image recognition device 24 performs image processing on the image captured by the camera 22 and recognizes the position, type, speed, and the like of an object present around the host vehicle M.
  • the image recognition device 24 outputs the recognition result to the driving support device 100.
  • the vehicle sensor 30 includes a vehicle speed sensor that detects the speed of the host vehicle M, an acceleration sensor that detects acceleration, a yaw rate sensor that detects an angular velocity around the vertical axis, and an azimuth sensor that detects the direction of the host vehicle M.
  • the vehicle sensor 30 outputs the detection result to the driving support device 100.
  • the traveling driving force output device 40 outputs traveling driving force (torque) for the host vehicle M to travel to the driving wheels.
  • the traveling driving force output device 40 includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and an ECU that controls these.
  • the ECU controls the above configuration in accordance with the information input from the driving support device 100 or the information input from the driving operator (not shown).
  • the brake device 42 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU.
  • the brake ECU controls the electric motor in accordance with the information input from the drive assist device 100 or the information input from the drive operator, and outputs the brake torque corresponding to the braking operation to each wheel.
  • the brake device 42 may include, as a backup, a mechanism that transmits the hydraulic pressure generated by the operation of the brake pedal included in the operation operator to the cylinder via the master cylinder.
  • the brake device 42 is not limited to the above-described configuration, and may be an electronically controlled hydraulic brake device that transmits an oil pressure of a master cylinder to a cylinder by controlling an actuator according to information input from the driving support device 100. Good.
  • the steering device 44 includes, for example, a steering ECU and an electric motor.
  • the electric motor for example, applies a force to the rack and pinion mechanism to change the direction of the steered wheels.
  • the steering ECU drives the electric motor to change the direction of the steered wheels in accordance with the information input from the driving support device 100 or the information input from the driver.
  • the in-vehicle camera 50 captures an image of the upper body of the occupant seated in the driver's seat.
  • the captured image of the in-vehicle camera 50 is output to the driving support device 100.
  • the gaze determination unit 110 performs gaze determination processing as follows.
  • the gaze determination unit 110 analyzes an image captured by the in-vehicle camera 50.
  • the gaze determination unit 110 determines the area in which the driver is directing the gaze based on the analysis result, and outputs the determination result to the lane maintenance support control unit 130.
  • the predetermined area is, for example, an area considered to be necessary to be viewed when the driver performs forward monitoring.
  • the gaze determination unit 110 detects the positional relationship between the head and the eyes of the driver and the combination of the reference point and the movement point in the eyes from the image using a method such as template matching. Then, based on the position of the eye relative to the head and the position of the movement point relative to the reference point, the line-of-sight determination unit 110 performs processing such as conversion from an image plane to a real plane to derive the direction of the line of sight. For example, if the reference point is the corner of the eye, the moving point is the iris. When the reference point is a corneal reflection area, the moving point is a pupil.
  • the corneal reflection region is a reflection region of infrared light in the cornea when the vehicle interior camera 50 or the like irradiates the driver with infrared light.
  • the sight line determination unit 110 determines whether or not the derived direction of the sight line is directed to a predetermined area.
  • the sight line determination unit 110 may determine whether the sight line of the driver is directed to a predetermined area directly from the image, based on the information stored in the storage device included in the driving support device 100.
  • the above storage device stores information indicating whether or not the line of sight exists within a predetermined area with respect to the relationship between the driver's head orientation, the position of the reference point, and the position of the movement point in the image. There is.
  • FIG. 3 is a diagram exemplifying the position ahead of the line of sight when it is determined that the driver has removed the line of sight from the predetermined area.
  • the following description will be made using XY coordinates as necessary.
  • the X direction is the central axis direction of the host vehicle M
  • the Y direction is the width direction of the host vehicle M.
  • the area AR is a determination area for determining whether the driver is facing a predetermined area.
  • the line-of-sight determination unit 110 obtains a position D1 located ahead of the derived direction of the line of sight of the driver.
  • the gaze determination unit 110 determines that the driver's gaze is directed into the area AR.
  • the line of sight determination unit 110 determines that the driver has removed the line of sight from the predetermined area because the line of sight D2 is outside the predetermined area.
  • the line-of-sight determination unit 110 determines whether the quick eye movement (so-called saccade) performed to obtain foveal fixation is performed by determining the movement of the driver's eyes as described above. can do.
  • the area AR in FIG. 3 is merely an example and may be arbitrarily set.
  • the line-of-sight determination unit 110 determines that the driver of the host vehicle M has deviated from the predetermined area when the time when the driver of the host vehicle M has deviated from the area AR is equal to or longer than a predetermined time.
  • the area AR may be set by being divided into a plurality.
  • predetermined areas may be set for the rearview mirror and the side mirror. In this case, when the driver removes the line of sight from the area AR for a moment (less than a predetermined time) and moves the line of sight to the room mirror or the side mirror, the line of sight determination unit 110 removes the driver from the predetermined area. It does not judge that it did.
  • the area AR may be set to a display-type side mirror or a display-type rear mirror that displays an image captured by an imaging unit that captures an area around the vehicle.
  • the gaze determination unit 110 may determine the tip of the driver's gaze based on the direction of the driver's head.
  • the driver detection unit 120 can be operated by the driver based on an image captured by the in-vehicle camera 50 or another camera, a detection result of an infrared sensor, a capacitance sensor or the like, or a driver's operation on the in-vehicle device It is determined whether a part of the driver's body (for example, an arm or hand) is located in a setting area set for a suitable on-vehicle device (for example, the touch panel 12). Output. Further, the driver detection unit 120 may combine these to determine whether or not a part of the driver's body (for example, an arm or a hand) is located in the setting area.
  • the infrared sensor is provided at such a position as to detect an object when the object enters the setting area.
  • the capacitance sensor is, for example, a sensor provided on a touch panel.
  • the capacitance sensor outputs information indicating a change in capacitance to the driver detection unit 120 when the driver touches the touch panel.
  • operator detection part 120 detects that the driver touched the touch panel, when the information which shows the change of electrostatic capacitance is acquired.
  • the above-described capacitance sensor detects a change in capacitance when the driver brings his hand close to the touch panel (for example, when the hand is brought close to a position of about 15 to 20 cm from the touch panel 12), It may be a sensor that outputs information indicating a change in capacitance to the driver detection unit 120.
  • FIG. 4 is a diagram for explaining the processing of the driver detection unit.
  • FIG. 4 is an example when the touch panel 12 is viewed from the plus Y direction.
  • the setting area AR1 is set on the touch panel 12.
  • the driver's hand enters immediately before the operation (predetermined time before the operation) It is set for the area.
  • the driver detection unit 120 outputs information indicating that the driver's hand has entered to the lane keeping assist control unit 130 when the driver's hand has entered the setting area AR1.
  • the lane keeping support control unit 130 includes, for example, a recognition processing unit 132 and a steering support control unit 134.
  • the recognition processing unit 132 starts processing for recognizing the relative position and posture of the host vehicle M with respect to the traveling lane. For example, the recognition processing unit 132 recognizes an area divided by the two division lines closest to the host vehicle M among the division lines of the road as a traveling lane, and the relative position and orientation of the host vehicle M with respect to the traveling lane Recognize
  • the steering assist control unit 134 controls the steering device 44 such that the host vehicle M approaches the own lane (for example, the center of the own lane) recognized by the recognition processing unit 132.
  • first control Such control is referred to as “first control”.
  • the middle of the lane is an example of the “first reference position” which is a relative position to the traveling lane.
  • the LKAS activation switch 16 does not receive an operation until the predetermined time elapses after the main switch 14 is operated (operation invalid state), and receives the operation after the predetermined time elapses (operation valid state) It becomes.
  • the predetermined time is set, for example, in advance to a time longer than a time required to recognize the traveling lane and the position and orientation of the vehicle M with respect to the lane after the recognition processing unit 132 starts processing. .
  • the steering assistance control unit 134 performs first control such that the host vehicle M passes above the lane center of the host lane. Apply a reaction force to the steering wheel shaft.
  • the reaction force at this time is steering torque in the same direction as the steering torque applied to the shaft when the steering wheel is turned to the lane center side.
  • the second control may be performed as described above even when the main switch 14 and the LKAS operation switch 16 are not operated.
  • the second control may be executed when the speed of the host vehicle M is equal to or higher than a predetermined speed, or when the host vehicle M is traveling on a motorway, or the speed is equal to or higher than a predetermined speed. And may be performed when traveling on a freeway.
  • the steering assistance control unit 134 determines that the sight line has been removed as the second control.
  • a reaction force is applied to the shaft of the steering wheel so as to approach a second reference position based on the position of M.
  • the reaction force at this time is a steering torque in the same direction as the steering torque applied to the shaft when the steering wheel is turned to the second reference position side.
  • FIG. 5 is a diagram showing an example of the relationship between the reaction force and the relative position of the host vehicle M with respect to the host lane.
  • the vertical axis represents the absolute value of the reaction force (steering torque) applied to the shaft of the steering wheel
  • the horizontal axis represents the distance in the vehicle width direction of the lane.
  • LM R represents a demarcation line in the traveling direction right
  • LM L represents the lane mark in the traveling direction left.
  • the minimum point of the reaction force may be a first reference.
  • the position is set, and the reaction force is increased as the host vehicle M moves away from the lane center CL.
  • the steering assistance control unit 134 sets the minimum point of the reaction force to the second reference position, and increases the reaction force as the host vehicle M moves away from the second reference position PL.
  • FIG. 6 is a diagram showing an example of the behavior of the host vehicle M when the first control and the second control are performed.
  • FIG. 6 (A) shows the behavior of the host vehicle M when the first control is executed in the traveling lane LM
  • FIG. 6 (B) shows the host vehicle M when the second control is executed. Shows the behavior of Recognition processing unit 132, for example, as shown in FIG. 6 (A), recognizes the lane mark LM R and LM L, traveling the area between the partition lines LM R and LM L on the vehicle M of the vehicle M It recognizes as a lane LM.
  • the recognition processing unit 132 recognizes the deviation OS of the reference point P of the host vehicle M (for example, the center in the width direction of the host vehicle M) from the lane center CL as the relative position of the host vehicle M with respect to the traveling lane LM. Further, the recognition processing unit 132 recognizes an angle ⁇ between the traveling direction of the host vehicle M and the lane center CL as the posture of the host vehicle M with respect to the traveling lane LM. Instead of this, the recognition processing unit 132 recognizes the position of the reference point of the vehicle M with respect to any one side end of the vehicle lane LM as the relative position of the vehicle M with respect to the recognized traveling lane. It is also good.
  • the host vehicle M is controlled such that the host vehicle M passes above the lane center CL of the host lane.
  • the host vehicle M is controlled such that the host vehicle M passes above the second reference position PL.
  • the steering assistance control unit 134 controls the reference point P of the host vehicle M and the center of the lane
  • the second reference position PL is set so that the host vehicle M can travel straight ahead smoothly between CL and CL.
  • the host vehicle M travels so that the reference point P of the host vehicle M smoothly overlaps the second reference position PL.
  • the behavior of the host vehicle M is suppressed from being steep, and the comfort of the occupant of the host vehicle M is improved.
  • the lane keeping support control unit 130 executes the second control based on the detection result of the driver detection unit 120, for example. For example, when the LKAS activation switch 16 is not operated, the steering assistance control unit 134 performs the second control when the driver detection unit 120 detects that the driver's hand has entered the setting area AR1. Run. In such a case, the lane keeping control is automatically performed to improve the comfort of the occupant.
  • FIG. 7 is a flow chart showing a flow of processing of the first control.
  • the recognition processing unit 132 acquires an image obtained by capturing a road surface (step S100).
  • the recognition processing unit 132 detects a lane from the image acquired in step S100 (step S102).
  • the recognition processing unit 132 derives a first target line based on the first reference position (step S104).
  • the first target line is a line overlapping the lane center CL.
  • the recognition processing unit 132 derives a first advancing line for advancing the first target line (step S106).
  • the first travel line is a line on which the host vehicle M travels, and is a line set so that the host vehicle M smoothly enters the first target line from the current position.
  • the recognition processing unit 132 derives the degree of deviation between the first traveling line derived in step S106 and the position of the host vehicle M (step S108).
  • the steering assist control unit 134 controls steering so as to advance the first target line based on the degree of deviation derived in step S108 (step S110).
  • FIG. 8 is a flowchart showing the flow of processing of the second control.
  • the processes in step S200 and step S202 in FIG. 8 are the same as the processes in step S100 and step S102 in FIG.
  • step S204 the recognition processing unit 132 derives a second target line based on the second reference position (step S204).
  • the second target line is a line overlapping on the second reference position.
  • the recognition processing unit 132 derives a second progression line for advancing the second target line (step S206).
  • the second travel line is a line on which the host vehicle M travels, and is a line set so that the host vehicle M smoothly enters the second target line from the current position.
  • the recognition processing unit 132 derives the degree of deviation between the second traveling line derived in step S206 and the position of the host vehicle M (step S208).
  • the steering assist control unit 134 controls the steering so as to advance the second target line based on the degree of deviation derived in step S208 (step S210).
  • the follow-up running support control unit 150 includes, for example, a vehicle recognition unit 152 and a speed support control unit 154.
  • the vehicle recognition unit 152 recognizes the position and the speed of the own vehicle M existing around the own vehicle M based on the detection result of the radar device 20 and the recognition result of the image recognition device 24.
  • the speed assistance control unit 154 calls the peripheral vehicles (hereinafter, referred to as a forward traveling vehicle) within a predetermined distance (for example, about 50 m) ahead of the host vehicle M.
  • Driving motor output device 40 and brake device 42 so that host vehicle M follows host vehicle M, and host vehicle M within a predetermined set vehicle speed (for example, 50 to 100 [km / h]). Accelerate or decelerate.
  • “Following” is, for example, a traveling mode in which the relative distance (inter-vehicle distance) between the host vehicle M and the preceding vehicle is maintained constant.
  • following driving support control When the vehicle recognition unit 152 does not recognize a leading vehicle, the speed assistance control unit 154 may simply cause the host vehicle M to travel within the range of the set vehicle speed.
  • FIG. 9 is a flowchart showing a flow of processing executed by the driving support device 100.
  • the lane keeping support control unit 130 determines whether the LKAS operation switch 16 has been operated (step S300). When the LKAS activation switch 16 is operated, the lane keeping assist control unit 130 executes the first control (step S302).
  • the line-of-sight determination process is, for example, a process of determining whether or not the driver's line of sight deviates from a predetermined area. Further, the sight line determination process may be the process of the flowchart of FIG. 10 described later.
  • the lane keeping support control unit 130 determines whether or not a predetermined condition is satisfied based on the result of the sight line determination process (step S306).
  • the predetermined condition is, for example, that the driver's line of sight deviates from the predetermined area.
  • the process of said step S304 and S306 may be abbreviate
  • the driving support apparatus 100 executes the second control and the following driving support control (step S308). If the predetermined condition is not satisfied, the driver detection unit 120 determines whether the position of the driver's hand is present in the setting area (step S310). If the position of the driver's hand is present in the set area, the lane change support unit 130 executes the second control (step S312). If the position of the driver's hand does not exist in the set area, the processing of one routine of this flowchart ends. Note that the processing in steps S310 and S312 described above may be prioritized over the gaze determination processing (processing in steps S304 and S306). In addition, the driving support device 100 may execute the second control when the predetermined condition is satisfied in step S306 and the position of the driver's hand is within the setting area.
  • the lane change maintenance support unit 130 performs the second condition when the predetermined condition or the driver's hand is present in the setting area. Thus, the occupant's comfort can be improved.
  • FIG. 10 is a flowchart showing a flow of another example of the gaze determination process.
  • the line-of-sight determination unit 110 acquires positional information of the tip of the line of sight of the driver (step S400).
  • the line-of-sight determination unit 110 compares the position information of the line of sight acquired at the previous time with the position information of the line of sight acquired at step S400 to derive the movement amount of the line of sight per unit time. It is determined whether the derived movement amount is larger than a predetermined value ⁇ (step S402).
  • the sight line determination unit 110 determines whether the sight line is directed outside the predetermined area (step S404). That the line of sight is directed outside the predetermined area means, for example, that the line of sight is directed outside the area AR or outside the area set for the mirror or the side mirror. Further, the fact that the line of sight is directed outside the predetermined area may be, for example, the direction of the on-vehicle apparatus operable by the driver or the direction of the rear seat.
  • the line-of-sight determination unit 110 determines whether the time for which the user gazes outside the predetermined area exceeds the predetermined time ⁇ (step S406).
  • step S408 determines that the predetermined condition is satisfied. If a negative determination result is obtained in step S402, S404, or S406, the sight line determination unit 110 determines that the predetermined condition is not satisfied (step S410). Thus, the processing of one routine of this flowchart ends. The process of one or both of step S402 or S406 may be omitted.
  • the "outside the predetermined area” may be determined to be changed to the "specific area".
  • the specific area is an area different from the predetermined area, and is an area previously set arbitrarily.
  • the specific area is, for example, the direction of the in-vehicle device operable by the driver or the direction of the rear seat.
  • the timing is earlier.
  • a second control may be performed. For example, in the case where the line of sight is directed outside the predetermined area and the line of sight is not directed to the specific area, if the predetermined time ⁇ is exceeded, it is determined that the predetermined condition is satisfied and the line of sight is predetermined. When the line of sight is directed to the outside of the area and to the specific area, it may be determined that the predetermined condition is satisfied if the predetermined time ⁇ 1 shorter than the predetermined time ⁇ is exceeded.
  • the lane change maintenance support unit 130 is described as controlling the host vehicle M so as to approach the second reference position PL in the second control, but after traveling the second reference position PL for a predetermined time The host vehicle M may be controlled to approach the first reference position.
  • FIG. 11 is a diagram showing an example of the behavior of the vehicle M of the first modification.
  • the lane change maintenance support unit 130 performs an operation so as to approach the first reference position CL.
  • the host vehicle M is controlled to cause the vehicle M to travel.
  • the host vehicle M travels so as to approach the first reference position after traveling for a predetermined time so as to approach the second reference position PL.
  • the host vehicle M travels so as to approach the first reference position from the state of traveling the second reference position PL, the host vehicle M is controlled to travel smoothly along the first reference position.
  • the lane change maintenance support unit 130 performs step (or gradually) over time from the position of the vehicle when it is determined in the second control that the driver is looking away from the predetermined area. 1) A position approaching the reference position is set as a second reference position. That is, the lane change maintenance support unit 130 updates the second position so as to approach the first reference position in stages.
  • FIG. 12 is a diagram showing an example of the behavior of the vehicle M of the second modification.
  • the minimum point of the reaction force moves in the order of the second reference positions PL to PL3 and the first reference position.
  • the second reference positions PL, PL1, PL2, PL3 are positions closer to the lane center CL in this order.
  • the lane change maintenance support unit 130 causes the host vehicle M to travel so as to approach the second reference position PL.
  • the lane change maintenance support unit 130 sets the second reference position PL1 at time t + 1, the second reference position PL2 at time t + 2, and the second reference position PL3 at time t + 3, and sets the second reference at each time
  • the host vehicle M is driven to approach the position.
  • the lane change maintenance support unit 130 causes the host vehicle M to travel so as to approach the first reference position at time t + 4.
  • the host vehicle M is controlled to approach the lane center CL in stages. As a result, the vehicle travels smoothly toward the center of the lane.
  • the second control is performed when it is determined that the in-vehicle device has made an inquiry requiring a response from the driver.
  • the second reference position in the second embodiment is a position based on the position of the vehicle when the above inquiry is made.
  • FIG. 13 is a diagram showing an example of the configuration of a vehicle equipped with the driving support device 100A of the second embodiment.
  • the driving support apparatus 100A further includes an inquiry determination unit 122 in addition to the functional configuration of the driving support apparatus 100 according to the first embodiment.
  • the inquiry determination unit 122 determines whether an inquiry requiring a response from the driver has been made.
  • the inquiry requiring a response from the driver is, for example, an inquiry by voice guidance from the in-vehicle device.
  • the response is, for example, a response made by the driver's voice (utterance).
  • the in-vehicle device is a navigation device
  • a query requiring a response from the driver is sent to the driver by the navigation device, such as "Do you want to change the route that is congested?" It is.
  • Such an inquiry triggers the driver to start thinking. Therefore, the comfort of the occupant can be improved by executing the second control as described later.
  • vehicle-mounted apparatuses such as said navigation apparatus
  • the recognition control unit is not limited to the navigation device, and may be included in the driving support unit 100A.
  • the recognition control unit recognizes the meaning of the response to the query and executes control according to the recognition result. For example, when the driver utters "Please change the route" in response to the above inquiry, the recognition control unit recognizes the meaning and resets the route for avoiding traffic congestion.
  • the lane keeping support control unit 130 operates in response to the driver's operation, and executes the first control for causing the host vehicle M to travel so as to approach the first reference position, which is a relative position with respect to the travel lane.
  • Control unit that automatically operates when it is determined by the inquiry determination unit 122 that an inquiry has been made, and is at a second reference position based on the position of the vehicle when it is determined that the inquiry has been performed.
  • the second control for causing the host vehicle M to travel so as to approach is performed. The second control may be continued until it is determined that the thinking operation described later is completed.
  • the inquiry determination unit 122 distinguishes the driver's utterance and the occupant's utterance based on the voice information stored in advance in the storage device.
  • the voice information is a driver's voice or a passenger's voice stored in advance.
  • the inquiry determination unit 122 causes an occupant other than the driver to start thinking operation with respect to the driver based on the inquiry information or the conversation information that is a trigger for starting the thinking operation previously stored in the storage device.
  • the determination result may be output to the lane keeping support control unit 130.
  • the inquiry that triggers the driver's thinking operation may be an inquiry when the occupant searches for an address in the navigation device.
  • the inquiry when the address is searched is an inquiry such as "Please tell the address (prefecture, city, street address, address, etc.)" to the driver by the navigation device.
  • the inquiry that triggers the driver's thinking operation may be any of the following (1) to (5).
  • the navigation device HMI 10.
  • the navigation device inquires by voice as (1) "Please say a command.”
  • the command is, for example, searching for a destination, selecting a song, making a call, or the like.
  • the navigation device (2) "Please tell me the prefecture", (3) "city Please talk about Michimura (continuation address). "(4)" Please tell me the address. "
  • the navigation device searches the map information, etc. Control voice output, etc., and setting the destination to the above-specified destination.
  • control is performed (that is, when the navigation device is in a state capable of searching for or setting an address)
  • the inquiry determination unit 122 outputs the information indicating that the thinking operation is completed to the lane keeping assist control unit 130.
  • the line maintenance support control unit 130 acquires the information indicating that the thinking operation is completed from the inquiry determination unit 122, the line maintenance support control unit 130 cancels the second control and executes the first control.
  • the vehicle can start the next process by the end of a series of conversations between the navigation device and the driver in each example described above or the termination of the conversations. You may judge by having changed to the state.
  • the inquiry determination unit 122 determines whether or not the above-described series of conversations has ended based on the information of predetermined conversations stored in advance in the storage device.
  • a predetermined utterance of the occupant may be recognized as a trigger for starting the thinking operation.
  • the predetermined utterance of the occupant is, for example, a predetermined utterance performed in response to the inquiry of the above (1).
  • the second control is executed based on an inquiry made by the navigation device or a response to the inquiry.
  • An equivalent process may be performed based on the inquiry to be performed or the response to the inquiry.
  • one or both of the sight line determination unit 110 and the driver detection unit 120 may be omitted.
  • the comfort of the occupant can be improved by performing the second control when it is determined that the inquiry requiring the driver's response has been performed.
  • the sight line determination unit 110 that determines the area in which the driver is turning the line, and the operation according to the operation by the driver, approaches the first reference position that is the relative position to the traveling lane
  • the lane change maintenance support unit 130 that executes the first control for causing the host vehicle M to travel, and the line-of-sight determination unit 110 determines that the driver is removing the line of sight from the predetermined area, or The line of sight is automatically removed from the predetermined area or directed to the specific area when it is determined that the driver is looking at the specific area which is an area different from the predetermined area.
  • a lane change maintenance support unit 130 that executes a second control that causes the vehicle M to travel so as to approach the second reference position based on the position of the vehicle M when it is determined that comfortable It is possible to improve the.
  • the driving support devices 100 and 100A of the above-described embodiment are realized by, for example, a hardware configuration as shown in FIG.
  • FIG. 14 is a diagram showing an example of the hardware configuration of the driving support device 100, 100A of the embodiment.
  • the communication controller 100-1, CPU 100-2, RAM 100-3, ROM 100-4, secondary storage device 100-5 such as flash memory and HDD, and drive device 100-6 have internal buses. Alternatively, they are mutually connected by dedicated communication lines. A portable storage medium such as an optical disk is attached to the drive device 100-6.
  • the program 100-5a stored in the secondary storage device 100-5 is expanded on the RAM 100-3 by a DMA controller (not shown) or the like, and is executed by the CPU 100-2, whereby the sight line determination unit 110 and the driver detection unit An inquiry determination unit 122, a lane keeping support control unit 130, and a following movement support control unit 150 are realized.
  • the program referred to by the CPU 100-2 may be stored in a portable storage medium attached to the drive device 100-6, or may be downloaded from another device via the network NW.
  • the above embodiment can be expressed as follows.
  • a first control is performed that operates in response to an operation by the driver and causes the vehicle to travel so as to approach a first reference position that is a relative position to the traveling lane. Automatically when it is determined that the driver is looking away from a predetermined area, or when it is determined that the driver is looking at a specific area that is different from the predetermined area
  • a program for executing the second control to cause the control is stored.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

車両制御装置は、運転者が視線を向けている領域を判定する判定部と、運転者による操作に応じて作動し、走行車線に対する相対位置である第1基準位置に近づくように車両を走行させる第1の制御を実行する制御部であって、前記判定部により所定の領域から前記運転者が視線を外していると判定された場合、または前記所定の領域とは異なる領域である特定領域に前記運転者が視線を向けていると判定された場合に自動的に作動し、前記視線を前記所定の領域から外している、または前記特定領域に向けていると判定された際の前記車両の位置を基準とした第2基準位置に近づくように前記車両を走行させる第2の制御を実行する制御部とを備える。

Description

車両制御装置、および車両制御方法、プログラム
 本発明は、車両制御装置、および車両制御方法、プログラムに関する。
 従来、車両運転者により操作される所定スイッチが制御実行を許可するオン状態にある場合に、自車両を走行車線に沿って走行させる車線維持制御を実行する通常時制御実行手段と、車両運転者が脇見状態にあるか否かを判別する脇見状態判別手段と、前記所定スイッチが制御実行を許可しないオフ状態にある状況において、前記脇見状態判別手段により車両運転者が脇見状態にあると判別される場合に、前記車線維持制御を実行する脇見時制御実行手段と、を備えることを特徴とする車両用走行制御装置が開示されている(例えば特許文献1参照)。
特許第4835291号
 しなしながら、上述したように、脇見状態であると判別された場合に、所定スイッチが制御実行を許可するオン状態にある場合と同様に車両を制御すると、車両の挙動によっては乗員に不快感を与えてしまう場合があった。
 本発明は、このような事情を考慮してなされたものであり、乗員の快適性を向上させることができる車両制御援装置、車両制御方法、およびプログラムを提供することを目的の一つとする。
 (1):運転者が視線を向けている領域を判定する判定部と、運転者による操作に応じて作動し、走行車線に対する相対位置である第1基準位置に近づくように車両を走行させる第1の制御を実行する制御部であって、前記判定部により所定の領域から前記運転者が視線を外していると判定された場合、または前記所定の領域とは異なる領域である特定領域に前記運転者が視線を向けていると判定された場合に自動的に作動し、前記視線を前記所定の領域から外している、または前記特定領域に向けていると判定された際の前記車両の位置を基準とした第2基準位置に近づくように前記車両を走行させる第2の制御を実行する制御部とを備える車両制御装置である。
 (2):(1)であって、前記所定の領域は、前記車両前方の外界における所定の領域であり、前記特定領域は、前記車両の車室内における特定領域であるものである。
 (3):(1)または(2)であって、第1基準位置は、前記走行車線の中央線上の位置であるものである。
 (4):(1)から(3)のいずれかであって、前記判定部は、前記所定の領域から前記運転者が視線を運転者による操作可能な車載機器に移動させたか否かを判定し、前記制御部は、前記操作がされていない場合において、前記判定部により前記所定の領域から前記運転者が視線を前記車載機器に移動させたと判定された場合に、前記第2の制御を実行するものである。
 (5):(1)から(4)のいずれかであって、前記判定部は、前記運転者が前記所定の領域から視線を後部座席の方向に移動させたか否かを判定し、前記制御部は、前記操作がされていない場合において、前記判定部により前記所定の領域から前記運転者が視線を後部座席の方向に移動させたと判定された場合に、前記第2の制御を実行するものである。
 (6):(1)から(3)のいずれかであって、前記制御部は、前記判定部により所定の領域外かつ前記特定領域に視線を向けていると判定された場合、前記判定部により所定の領域外に視線を向けかつ前記特定領域に視線を向けていないと判定された場合に比して、より早いタイミングで第2の制御を実行するものである。
 (7):(1)から(6)のいずれかであって、前記制御部は、前記車両の速度が所定の速度以上である場合に、前記第2の制御を実行するものである。
 (8):(1)から(7)のいずれかであって、前記制御部は、前記車両が高速道路を走行中である場合に、前記第2の制御を実行するものである。
 (9):(1)から(8)のいずれかであって、前記運転者による操作可能な車載機器に対して設定された設定領域内に前記運転者の手が位置しているか否かを判定する運転者判定部を、更に備え、前記制御部は、前記判定部により前記所定の領域から前記運転者が視線を外していると判定され、且つ前記運転者判定部により前記設定領域内に前記運転者の手が位置していると判定された場合に、前記第2の制御を実行するものである。
 (10):(1)から(9)のいずれかであって、前記判定部は、前記運転者が視線を外した後に視線を向けた先が車両に設けられた車両の周辺を確認するためのミラー部、または前記車両の周辺を撮像した画像を表示する表示部であるか否かを判定し、前記制御部は、前記操作がされていない場合において、前記判定部により前記所定の領域から前記運転者が視線を外した後に視線を向けた先が前記ミラー部、または前記表示部であると判定された場合に、前記第2の制御を実行しないものである。
 (11):(1)から(10)のいずれかであって、前記制御部は、前記第2の制御を所定時間実行した後に、前記第1基準位置に近づくように前記車両を走行させるものである。
 (12):(1)から(10)のいずれかであって、前記制御部は、前記第2の制御において、前記視線を外していると判定された際の前記車両の位置から徐々に前記第1基準位置に近づく位置を、前記第2基準位置として設定するものである。
 (13):運転者による操作可能な車載機器に対して設定された設定領域内に前記運転者の手が位置しているか否かを判定する運転者判定部と、運転者による操作に応じて作動し、走行車線に対する相対位置である第1基準位置に近づくように車両を走行させる第1の制御を実行する制御部であって、前記運転者判定部により前記設定領域内に前記運転者の手が位置していることと判定された場合に自動的に作動し、前記設定領域内に前記運転者の手が位置していることが判定された際の前記車両の位置を基準とした第2基準位置に近づくように前記車両を走行させる第2の制御を実行する制御部とを備える車両制御装置である。
 (14):運転者からの応答を要する問合せが行われたか否かを判定する問い合わせ判定部と、運転者による操作に応じて作動し、走行車線に対する相対位置である第1基準位置に近づくように車両を走行させる第1の制御を実行する制御部であって、前記問い合わせ判定部により前記問合せが行われたと判定された場合に自動的に作動し、前記問合せが行われたと判定された際の前記車両の位置を基準とした第2基準位置に近づくように前記車両を走行させる第2の制御を実行する制御部とを備える車両制御装置である。
 (15):(14)であって、前記問合せは車載機器からの音声案内による問合せであり、前記応答は前記運転者の音声によって行われるものである。
 (1)~(6)、(9)~(13)によれば、乗員の快適性を向上させることができる。
 (7)、(8)によれば、横方向に関する車両の挙動が、乗員の快適性に対して影響する状況において、乗員の快適性を向上させることができる。
 (14)、(15)によれば、運転者の思考動作を開始するきっかけとなる問い合わせや会話が行われた場合に、第2制御が実行されることにより、乗員の快適性をより向上させることができる。
運転支援装置100が搭載された車両の構成の一例を示す図である。 タッチパネル12の設置位置の一例を示す図である。 所定の領域から運転者が視線を外したと判定される場合の視線の先の位置を例示した図である。 運転者検知部の処理について説明するための図である。 反力と自車線に対する自車両Mの相対位置との関係の一例を示す図である。 第1の制御および第2の制御が実行された際の自車両Mの挙動の一例を示す図である。 第1の制御の処理の流れを示すフローチャートである。 第2の制御の処理の流れを示すフローチャートである。 運転支援装置100により実行される処理の流れを示すフローチャートである。 視線判定処理の他の例の流れを示すフローチャートである。 変形例1の自車両Mの挙動の一例を示す図である。 変形例2の自車両Mの挙動の一例を示す図である。 第2実施形態の運転支援装置100Aが搭載された車両の構成の一例を示す図である。 実施形態の運転支援装置100のハードウェア構成の一例を示す図である。
 <第1実施形態>
 図1は、運転支援装置100が搭載された車両(以下、自車両M)の構成の一例を示す図である。運転支援装置100には、例えば、HMI(Human Machine Interface)10、レーダ装置20、カメラ22、画像認識装置24、および車両センサ30が接続される。また、運転支援装置100には、例えば、走行駆動力出力装置40、ブレーキ装置42、ステアリング装置44、および車室内カメラ50が接続される。
 運転支援装置100は、例えば、視線判定部110と、運転者検知部120と、車線維持支援制御部130と、追従走行支援制御部150とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、車線維持支援制御部130、および追従走行支援制御部150は、一つのプロセッサにより実現されてもよいし、複数のプロセッサにより実現されてもよい。後者の場合、運転支援装置100は、複数のECU(Electronic Control Unit)が組み合わされたシステムであってもよい。
 HMI10は、自車両Mの乗員から操作を受け付けると共に、情報を出力する装置である。HMI10は、例えば、タッチパネル12や不図示のスイッチなどを備える。タッチパネル12は、例えば、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイなどの表示装置とタッチパッドとを組み合わせた構成であってよい。タッチパネル12は、「車載機器」の一例である。HMIは、タッチパネル12以外の車載機器を含んでもよい。
 図2は、タッチパネル12の設置位置の一例を示す図である。図示のように、例えば、タッチパネル12は、フロントウィンドウシールドの下に位置し、運転席および助手席の正面に設けられたダッシュボードに設置される。なお、タッチパネル12は、例えば、運転席正面に設置され、スピードメーターやタコメーターなどの計器類を表示するインストルメントパネル(フェイシア)として機能してもよい。運転席の正面に設けられたステアリングホイールには、後述するメインスイッチ14とLKAS(Lane Keeping Assistance System)作動スイッチ16とが設置される。メインスイッチ14およびLKAS作動スイッチ16は、HMI10が備える構成であってよい。また、ステアリングホイールには、ACC(Adaptive Cruise Control)スイッチやその他車両に所定の制御を実行させるスイッチが設けられていてもよい。
 レーダ装置20は、自車両Mの前方にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置20は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置20は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。レーダ装置20は、検出結果を運転支援装置100に出力する。
 カメラ22は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ22は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。前方を撮像する場合、カメラ22は、フロントウィンドウシールド上部やルームミラー裏面等に取り付けられる。カメラ22は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ22は、ステレオカメラであってもよい。カメラ22は、撮像した画像を画像認識装置24に出力する。
 画像認識装置24は、カメラ22により撮像された画像に対して画像処理を行い、自車両Mの周辺に存在する物体の位置、種類、速度などを認識する。画像認識装置24は、認識結果を運転支援装置100に出力する。
 車両センサ30は、自車両Mの速度を検出する車速センサや、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。車両センサ30は、検出結果を運転支援装置100に出力する。
 走行駆動力出力装置40は、自車両Mが走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置40は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECUとを備える。ECUは、運転支援装置100から入力される情報、或いは不図示の運転操作子から入力される情報に従って、上記の構成を制御する。
 ブレーキ装置42は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、運転支援装置100から入力される情報、或いは運転操作子から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置42は、運転操作子に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置42は、上記説明した構成に限らず、運転支援装置100から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
 ステアリング装置44は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、運転支援装置100から入力される情報、或いは運転操作子から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
 車室内カメラ50は、運転席に着座した乗員の上半身を中心に撮像する。車室内カメラ50の撮像画像は、運転支援装置100に出力される。
 [視線判定部]
 視線判定部110は、以下のように視線判定処理を行う。視線判定部110は、車室内カメラ50により撮像された画像を解析する。視線判定部110は、解析結果に基づいて、運転者が視線を向けている領域を判定し、判定結果を車線維持支援制御部130に出力する。所定の領域とは、例えば、運転者によって前方監視を行う際に視認が必要と考えられる領域である。
 例えば、視線判定部110は、テンプレートマッチング等の手法を用いて画像から運転者の頭部と目の位置関係、目における基準点と動点の組み合わせを検出する。そして、視線判定部110は、頭部に対する目の位置、および、基準点に対する動点の位置に基づいて、画像平面から実平面への変換処理などを行って視線の向きを導出する。例えば、基準点が目頭である場合、動点は虹彩である。また、基準点が角膜反射領域である場合、動点は瞳孔である。なお、角膜反射領域とは、車室内カメラ50等が赤外光を運転者に向けて照射した際の角膜における赤外光の反射領域である。このように視線判定部110は導出した視線の向きが所定の領域に向いているか否かを判定する。
 また、視線判定部110は、運転支援装置100が備える記憶装置に記憶された情報に基づいて、画像から直接、運転者の視線が所定の領域に向けられているかを判定してもよい。上記の記憶装置には、画像における運転者の頭部の向きと基準点の位置と動点の位置との関係に対する、視線が所定の領域内に存在するか否かを示す情報が記憶されている。
 図3は、所定の領域から運転者が視線を外したと判定される場合の視線の先の位置を例示した図である。以下、必要に応じてXY座標を用いて説明する。例えば、X方向は、自車両Mの中心軸方向であり、Y方向は、自車両Mの幅方向である。
 領域ARは、運転者が所定の領域を向いているか否かを判定するための判定領域である。例えば、視線判定部110は、導出した運転者の視線の向きの先に位置する位置D1を求める。この場合、位置D1は領域ARに含まれるため、視線判定部110は、運転者の視線は領域AR内に向けられていると判定する。運転者が、視線D1から視線D2に視線を移動した場合、視線D2は所定の領域外であるため、視線判定部110は、所定の領域から運転者が視線を外したと判定する。例えば、視線判定部110は、上記のように運転者の目の動きを判定することにより、中心窩固視を得るために行われるすばやい眼球運動(いわゆるサッケード)が行われているか否かを判定することができる。図3の領域ARは、あくまでも一例であり、任意に設定されてよい。
 また、視線判定部110は、領域ARから自車両Mの運転者が視線を外した時間が所定の時間以上である場合に、所定の領域から自車両Mの運転者が視線を外したと判定してもよい。また、領域ARは、複数に分割して設定されてもよい。例えば、領域ARに加え、更にルームミラーおよびサイドミラーに対して所定の領域が設定されてもよい。この場合、視線判定部110は、運転者が領域ARから一瞬(所定の時間未満)視線を外して、視線をルームミラーまたはサイドミラーに移動させた場合、所定の領域から運転者が視線を外したとは判定しない。
 なお、車両の周辺を撮像する撮像部により撮像された画像を表示するディスプレイ型のサイドミラーやディスプレイ型のバックミラーに対して、領域ARが設定されてもよい。
 また、上述した例では、目の基準点の位置と、動点の位置とに基づいて、運転者の視線の先を判定するものとして説明した。これに代えて、視線判定部110は、運転者の頭部の向きに基づいて、運転者の視線の先を判定してもよい。
 [運転者検知部]
 運転者検知部120は、車室内カメラ50その他のカメラにより撮像された画像、或いは赤外線センサや静電容量センサ等の検知結果、または車載機器に対する運転者の操作に基づいて、運転者による操作可能な車載機器(例えばタッチパネル12)に対して設定された設定領域内に運転者の体の一部(例えば腕や手)が位置しているか否かを判定し、判定結果を運転支援装置100に出力する。また、運転者検知部120は、これらを組み合わせて設定領域内に運転者の体の一部(例えば腕や手)が位置しているか否かを判定してもよい。
 赤外線センサは、設定領域に物体が進入した際に、その物体を検知するような位置に設けられる。静電容量センサは、例えば、タッチパネルに設けられたセンサである。静電容量センサは、運転者が手をタッチパネルに触れた場合に、静電容量の変化を示す情報を運転者検知部120に出力する。運転者検知部120は、静電容量の変化を示す情報を取得した場合に、運転者が手をタッチパネルに触れたことを検知する。上記の静電容量センサは、運転者が手をタッチパネルに近づけた場合(例えば手をタッチパネル12から15~20[cm]程度の位置に近づけた場合)に、静電容量の変化を検知し、静電容量の変化を示す情報を運転者検知部120に出力するセンサであってもよい。
 図4は、運転者検知部の処理について説明するための図である。図4は、プラスY方向からタッチパネル12を見た場合の例である。図示するように、タッチパネル12に対して設定領域AR1が設定されている。設定領域AR1は、例えばタッチパネル12を運転者が運転席に着座した状態で操作しようとした場合に、運転者の手(または体の一部)が操作直前(操作から所定時間前)に進入する領域に対して設定される。運転者検知部120は、設定領域AR1に運転者の手が進入した場合に、運転者の手が進入したことを示す情報を車線維持支援制御部130に出力する。
 [車線維持支援制御(その1)]
 車線維持支援制御部130は、例えば、認識処理部132と、操舵支援制御部134とを備える。認識処理部132は、メインスイッチ14が操作された場合、走行車線に対する自車両Mの相対位置および姿勢を認識するための処理を開始する。例えば、認識処理部132は、道路の区画線の中で自車両Mに最も近い2本の区画線により区画された領域を走行車線として認識し、その走行車線に対する自車両Mの相対位置および姿勢を認識する。
 [第1の制御]
 操舵支援制御部134は、LKAS作動スイッチ16が操作された場合、認識処理部132により認識された自車線(例えば自車線の中央)を自車両Mが近づくように、ステアリング装置44を制御する。以下、このような制御のことを、「第1の制御」と称する。車線の中央は、走行車線に対する相対位置である「第1基準位置」の一例である。
 LKAS作動スイッチ16は、例えば、メインスイッチ14が操作されてから所定時間が経過するまでは操作を受け付けず(操作無効な状態)、所定時間が経過した後操作を受け付ける状態(操作有効な状態)となる。所定時間は、例えば、認識処理部132が処理を開始してから、走行車線や、その車線に対する自車両Mの位置および姿勢が認識されるまでに必要な時間よりも長い時間に予め設定される。
 例えば、操舵支援制御部134は、操作を受け付ける状態となったLKAS作動スイッチ16が乗員から操作を受け付けると、第1の制御として、自車線の車線中央上を自車両Mが通過するように、ステアリングホイールのシャフトに反力を与える。このときの反力は、ステアリングホイールを車線中央側へと切ったときにシャフトに与えられる操舵トルクと同じ方向の操舵トルクである。
 [第2の制御]
 操舵支援制御部134は、LKAS作動スイッチ16が操作されていない場合であっても、視線判定部110により所定の領域から運転者が視線を外したと判定された場合に自動的に作動し、視線を外したと判定された際の自車両Mの位置を基準とした第2基準位置に近づくように、ステアリング装置44を制御する。以下、このような制御のことを、「第2の制御」と称する。
 なお、メインスイッチ14およびLKAS作動スイッチ16が操作されていない場合であっても、上記のように第2の制御が行われてもよい。また、第2の制御は、自車両Mの速度が所定の速度以上である場合、または自車両Mが自動車専用道路を走行中である場合に実行されてもよいし、速度が所定の速度以上であり、且つ高速道路を走行中である場合に実行されてもよい。
 例えば、操舵支援制御部134は、視線判定部110により所定の領域から運転者が視線を外したと判定された場合に、第2の制御として、視線を外したと判定された際の自車両Mの位置を基準とした第2基準位置に近づくように、ステアリングホイールのシャフトに反力を与える。このときの反力は、ステアリングホイールを第2基準位置側へと切ったときにシャフトに与えられる操舵トルクと同じ方向の操舵トルクである。
 図5は、反力と自車線に対する自車両Mの相対位置との関係の一例を示す図である。図中縦軸は、ステアリングホイールのシャフトに付与される反力(操舵トルク)の絶対値を表し、横軸は、車線の車幅方向に関する距離を表している。また、LMは進行方向右側の区画線を表し、LMは進行方向左側の区画線を表している。図示のように、操舵支援制御部134は、例えば、第1の制御を行う場合、反力が最も小さくなる点(以下、「反力の最小点」と称する場合がある)を、第1基準位置に設定し、車線中央CLから自車両Mが遠ざかるほど反力を大きくする。また、操舵支援制御部134は、第2の制御を行う場合、反力の最小点を第2基準位置に設定し、第2基準位置PLから自車両Mが遠ざかるほど反力を大きくする。
 図6は、第1の制御および第2の制御が実行された際の自車両Mの挙動の一例を示す図である。図6(A)は、走行車線LMにおける、第1の制御が実行された際の自車両Mの挙動を示し、図6(B)は、第2の制御が実行された際の自車両Mの挙動を示している。認識処理部132は、例えば、図6(A)に示すように、区画線LMおよびLMを認識し、自車両Mに区画線LMおよびLMの間の領域を自車両Mの走行車線LMとして認識する。そして、認識処理部132は、自車両Mの基準点P(例えば自車両Mの幅方向の中心)の車線中央CLからの乖離OSを、走行車線LMに対する自車両Mの相対位置として認識する。また、認識処理部132は、自車両Mの進行方向と車線中央CLとのなす角度θを、走行車線LMに対する自車両Mの姿勢として認識する。なお、これに代えて、認識処理部132は、自車線LMのいずれかの側端部に対する自車両Mの基準点の位置などを、認識した走行車線に対する自車両Mの相対位置として認識してもよい。
 第1の制御では、図6(A)に示すように、自車両Mは、自車線の車線中央CL上を自車両Mが通過するように自車両Mは制御される。
 第2の制御では、図6(B)に示すように、第2基準位置PL上を自車両Mが通過するように自車両Mは制御される。操舵支援制御部134は、例えば、図6(B)に示すように、自車両Mが直進していない場合(車線に沿って走行していない場合)、自車両Mの基準点Pと車線中央CLとの間であって、自車両Mが滑らかに直進できるように、第2基準位置PLを設定する。これにより、自車両Mは、自車両Mの基準点Pが第2基準位置PLに滑らかに重なるように走行する。この結果、自車両Mの挙動が急峻になることが抑制され、自車両Mの乗員の快適性が向上する。
 [車線維持支援制御(その2)]
 車線維持支援制御部130は、例えば運転者検知部120の検知結果に基づいて、第2の制御を実行する。操舵支援制御部134は、例えば、LKAS作動スイッチ16が操作されていない場合において、運転者検知部120により設定領域AR1に運転者の手が進入したことが検知された場合に、第2の制御を実行する。このような場合、自動で車線維持制御が行われるため、乗員の快適性を向上する。
 [車線維持支援制御のフローチャート]
 図7は、第1の制御の処理の流れを示すフローチャートである。まず、認識処理部132が、路面が撮像された画像を取得する(ステップS100)。次に、認識処理部132は、ステップS100で取得した画像から車線を検出する(ステップS102)。次に、認識処理部132は、第1基準位置を基準にした第1目標ラインを導出する(ステップS104)。第1目標ラインは、車線中央CLに重なるラインである。
 次に、認識処理部132は、第1目標ラインを進行するための第1進行ラインを導出する(ステップS106)。第1進行ラインは、自車両Mが進行するラインであって、自車両Mが現在の位置から第1目標ラインに滑らかに進入するように設定されたラインである。
 次に、認識処理部132は、ステップS106で導出した第1進行ラインと、自車両Mの位置との乖離度合を導出する(ステップS108)。次に、操舵支援制御部134は、ステップS108で導出された乖離度合に基づいて、第1目標ラインを進行するように操舵を制御する(ステップS110)。これにより本フローチャートの1ルーチンの処理は終了する。
 図8は、第2の制御の処理の流れを示すフローチャートである。図8のステップS200、およびステップS202の処理は、図7のステップS100、およびステップS102の処理と同様の処理のため、説明を省略する。
 図8では、ステップS204において、認識処理部132は、第2基準位置を基準にした第2目標ラインを導出する(ステップS204)。第2目標ラインは、第2基準位置上に重なるラインである。次に、認識処理部132は、第2目標ラインを進行するための第2進行ラインを導出する(ステップS206)。第2進行ラインは、自車両Mが進行するラインであって、自車両Mが現在の位置から第2目標ラインに滑らかに進入するように設定されたラインである。次に、認識処理部132は、ステップS206で導出した第2進行ラインと、自車両Mの位置との乖離度合を導出する(ステップS208)。次に、操舵支援制御部134は、ステップS208で導出された乖離度合に基づいて、第2目標ラインを進行するように操舵を制御する(ステップS210)。これにより本フローチャートの1ルーチンの処理は終了する。
 [追従走行支援制御]
 追従走行支援制御部150は、例えば、車両認識部152と、速度支援制御部154とを備える。車両認識部152は、レーダ装置20の検出結果および画像認識装置24の認識結果に基づいて、自車両Mの周辺に存在する自車両Mの位置および速度を認識する。
 速度支援制御部154は、車両認識部152により認識された周辺車両のうち、自車両Mの前方の所定距離(例えば50[m]程度)以内に存在する周辺車両(以下、前走車両と称する)に自車両Mが追従するように、走行駆動力出力装置40およびブレーキ装置42を制御して、予め決められた設定車速(例えば50~100[km/h])の範囲内で自車両Mを加速または減速させる。「追従する」とは、例えば、自車両Mと前走車両との相対距離(車間距離)を一定に維持させる走行態様である。以下、このような制御のことを、「追従走行支援制御」と称して説明する。なお、速度支援制御部154は、車両認識部152により前走車両が認識されていない場合、単に設定車速の範囲内で自車両Mを走行させてよい。
 [運転支援制御の一例]
 図9は、運転支援装置100により実行される処理の流れを示すフローチャートである。車線維持支援制御部130が、LKAS作動スイッチ16が操作されたか否かを判定する(ステップS300)。LKAS作動スイッチ16が操作された場合、車線維持支援制御部130は、第1の制御を実行する(ステップS302)。
 LKAS作動スイッチ16が操作されていない場合、車線維持支援制御部130は、視線判定処理を実行する(ステップS304)。視線判定処理は、例えば、所定の領域から運転者の視線が外れたか否かを判定する処理である。また、視線判定処理は、後述する図10のフローチャートの処理であってもよい。
 次に、車線維持支援制御部130は、視線判定処理の結果に基づいて、所定の条件を満たすか否かを判定する(ステップS306)。所定の条件とは、例えば所定の領域から運転者の視線が外れたことである。なお、上記のステップS304およびS306の処理は省略されてもよい。
 所定の条件を満たす場合、運転支援装置100は、第2の制御および追従走行支援制御を実行する(ステップS308)。所定の条件を満たさない場合、運転者検知部120が、運転者の手の位置が設定領域内に存在するか否かを判定する(ステップS310)。運転者の手の位置が設定領域内に存在する場合、車線変更維持支援部130は、第2の制御を実行する(ステップS312)。運転者の手の位置が設定領域内に存在しない場合、本フローチャートの1ルーチンの処理は終了する。なお、上記のステップS310およびS312の処理は視線判定処理(ステップS304およびS306の処理)よりも優先されてもよい。また、運転支援装置100は、ステップS306で所定の条件を満たし、且つ運転者の手の位置が設定領域内である場合に、第2の制御を実行してもよい。
 上述したように、車線変更維持支援部130は、LKAS作動スイッチ16が操作されていない場合であっても、所定の条件または、運転者の手が設定領域内に存在している場合、第2の制御を行うため、乗員の快適性を向上させることができる。
 [視線判定処理の他の例]
 図10は、視線判定処理の他の例の流れを示すフローチャートである。まず、視線判定部110が、運転者の視線の先の位置情報を取得する(ステップS400)。次に、視線判定部110が、前回に取得した視線の先の位置情報と、ステップS400で取得した視線の先の位置情報とを比較して、単位時間当たりの視線の移動量を導出し、導出した移動量が所定値αよりも大きいか否かを判定する(ステップS402)。
 導出した移動量が所定値αよりも大きい場合、視線判定部110は、所定の領域外に視線が向けられているか否かを判定する(ステップS404)。所定の領域外に視線が向けられているとは、例えば、領域AR外またはミラーやサイドミラーに対して設定される領域外に視線が向けられていることである。また、所定の領域外に視線が向けられているとは、例えば運転者による操作可能な車載機器の方向や、後部座席の方向であってもよい。所定の領域外に視線が向けられている場合、視線判定部110は、所定の領域外を注視した時間が所定の時間βを超えるか否かを判定する(ステップS406)。
 所定の領域外を注視した時間が所定の時間βを超える場合、視線判定部110は、所定の条件を満たすと判定する(ステップS408)。ステップS402、S404、またはS406で否定的な判定結果を得た場合、視線判定部110は、所定の条件を満たさないと判定する(ステップS410)。これにより本フローチャートの1ルーチンの処理は終了する。なお、ステップS402またはS406一方または双方の処理は省略されてもよい。
 上述した処理により、運転者の視線の状態をより精度よく監視することができ、より適切に第2の制御を実行するか否かを判断することができる。
 なお、上述した処理では、「所定の領域外」に視線が向けられているか否か判定し、「所定の領域外」を注視する時間が所定時間βを超えるか否かを判定するものとしたが、上記「所定の領域外」は「特定領域」に変更されて判定されてもよい。特定領域とは、所定の領域とは異なる領域であって、予め任意に設定された領域である。特定領域とは、例えば、運転者による操作可能な車載機器の方向や、後部座席の方向である。
 また、上記処理において、視線が所定の領域外かつ特定領域に視線が向けられている場合、視線が所定の領域外に向けられ、かつ特定領域に視線が向けられていない場合、より早いタイミングで第2の制御が実行されてもよい。例えば、視線が所定の領域外に向けられ、かつ特定領域に視線が向けられていない場合においては、所定時間βを超えている場合、所定の条件を満たしていると判定され、視線が所定の領域外かつ特定領域に視線が向けられている場合においては、所定時間βより短い所定時間β1を超えている場合、所定の条件を満たしていると判定されてもよい。
 [第2の制御の変形例1]
 上述した例では、車線変更維持支援部130は、第2の制御において第2基準位置PLに近づくように自車両Mを制御するものとして説明したが、第2基準位置PLを所定時間走行した後、第1基準位置に近づくように自車両Mを制御してもよい。
 図11は、変形例1の自車両Mの挙動の一例を示す図である。例えば、車線変更維持支援部130は、時刻t+1および時刻t+2において、第2基準位置PLに近づくように自車両Mを走行させた後、時刻t+3以降では、第1基準位置CLに近づくように自車両Mを走行させるように自車両Mを制御する。
 上述したように処理が行われることにより、自車両Mは、第2基準位置PLに近づくように所定時間の間走行した後、第1基準位置に近づくように走行する。なお、自車両Mは、第2基準位置PLを走行している状態から、第1基準位置に近づくように走行する場合、滑らかに第1基準位置に沿って走行するように制御される。
 [第2の制御の変形例2]
 また、車線変更維持支援部130は、第2の制御において、所定の領域から運転者が視線を外していると判定された際の車両の位置から段階的(または徐々)に時間の経過とともに第1基準位置に近づく位置を、第2基準位置として設定する。すなわち、車線変更維持支援部130は、第2の位置を段階的に第1基準位置に近づけるように更新する。
 図12は、変形例2の自車両Mの挙動の一例を示す図である。図示する例では、反力の最小点が、第2基準位置PL~PL3、第1基準位置の順で移動する。第2基準位置PL、PL1、PL2、PL3は、この順で車線中央CLに近い位置である。車線変更維持支援部130は、例えば、時刻tにおいて運転者が所定の領域から視線を外した場合、第2基準位置PLに近づくように自車両Mを走行させる。その後、車線変更維持支援部130は、時刻t+1では第2基準位置PL1、時刻t+2では第2基準位置位置PL2、時刻t+3では第2基準位置PL3を設定し、それぞれの時刻において設定した第2基準位置に近づくように自車両Mを走行させる。そして、車線変更維持支援部130は、時刻t+4では第1基準位置に近づくように自車両Mを走行させる。
 上述したように処理が行われることにより、自車両Mは、段階的に車線中央CLに近づくように制御される。この結果、車両は、滑らかに車線の中央に近づくように走行する。
 <第2実施形態>
 第2実施形態について説明する。第2実施形態は、車載機器により運転者による応答を要する問い合わせが行われたと判定された場合に第2の制御が行われる。また、第2実施形態の第2基準位置は、上記の問い合わせが行われた際の車両の位置を基準とした位置である。以下、第1実施形態の相違点を中心に説明する。
 図13は、第2実施形態の運転支援装置100Aが搭載された車両の構成の一例を示す図である。運転支援装置100Aは、第1実施形態の運転支援装置100の機能構成に加え、問い合わせ判定部122を更に備える。
 問い合わせ判定部122は、運転者からの応答を要する問合せが行われたか否かを判定する。運転者からの応答を要する問合せは、例えば、車載機器からの音声案内による問合せである。応答は、例えば、運転者の音声(発話)により行われる応答である。例えば、車載機器が、ナビゲーション装置である場合、運転者からの応答を要する問い合わせは、ナビゲーション装置によって運転者に対して行われる「この先、渋滞していますルートを変更しますか?」などの問い合わせである。このような問い合わせは、運転者の思考動作を開始するきっかけとなる。このため、後述するように第2制御が実行されることにより、乗員の快適性を向上させることができる。
 なお、上記のナビゲーション装置などの車載機器は、運転者の音声が入力されるマイクと、マイクに入力された音声を解析し、入力された音声に対応する意味情報を認識する認識制御部を備える。なお、認識制御部は、ナビゲーション装置に限らず、運転支援部100Aに含まれてもよい。認識制御部は、問い合わせに対する応答の意味を認識し、認識結果に応じた制御を実行する。例えば、上記の問い合わせに対して、運転者が「ルートを変更してください」と発話した場合、認識制御部は、その意味を認識し、渋滞を回避するルートを再設定する。
 第2実施形態の車線維持支援制御部130は、運転者による操作に応じて作動し、走行車線に対する相対位置である第1基準位置に近づくように自車両Mを走行させる第1の制御を実行する制御部であって、問い合わせ判定部122により問合せが行われたと判定された場合に自動的に作動し、問合せが行われたと判定された際の車両の位置を基準とした第2基準位置に近づくように自車両Mを走行させる第2の制御を実行する。なお、第2の制御は、後述する思考動作が完了したと判定されるまで継続されてよい。
 なお、上述した例では、問い合わせを行ったり、運転者の音声を認識したりする車載機器によって、運転者が思考動作を開始するきっかけが発生する例について説明したが、これに代えて(または加えて)、運転者が思考動作を開始するきっかけは、車両の乗員が運転者に対して行った問い合わせや、会話であってもよい。この場合、問い合わせ判定部122は、予め記憶装置に記憶された音声情報に基づいて、運転者の発話や乗員の発話を区別する。音声情報とは、事前に記憶された運転者の音声や乗員の音声である。
 そして、問い合わせ判定部122は、予め記憶装置に記憶された思考動作を開始するきっかけとなる問い合わせ情報や会話の情報に基づいて、運転者以外の乗員が運転者に対して思考動作を開始するきっかけとなる問い合わせや会話を発話したか否かを判定し、判定結果を車線維持支援制御部130に出力してもよい。これにより、運転者と乗員との会話においても、条件を満たす場合に第2制御が実行されることにより、乗員の快適性を向上させることができる。
 また、運転者の思考動作を開始するきっかけとなる問い合わせは、乗員がナビゲーション装置において住所検索をする際の問い合わせであってもよい。住所が検索される際の問い合わせとは、ナビゲーション装置によって運転者に対して行われる「住所(都道府県や、市区町村、番地等)をお話し下さい。」などの問い合わせである。
 また、運転者の思考動作を開始するきっかけとなる問い合わせは、以下に示す(1)~(5)のうちいずれかの問い合わせであってもよい。例えば、乗員が所定のボタンを操作すると、ナビゲーション装置(HMI10)は、(1)「コマンドをお話し下さい。」と音声で問い合わせを行う。コマンドとは、例えば、目的地を探すや、曲を選ぶ、電話をかけることなどである。運転者が、上記(1)の問い合わせに対して、「目的地を探す。」と返答した場合、例えば、ナビゲーション装置は、(2)「都道府県をお話し下さい。」、(3)「市区町村(続きの住所)をお話し下さい。」、(4)「番地をお話し下さい。」の順で問い合わせを行う。
 運転者が、上記(2)~(4)の問い合わせに対して返答した場合、ナビゲーション装置は、地図情報を検索などして「○○県△△市××町1番地を目的地に設定します。」などの音声を出力したり、目的地を上記の指定された目的地に設定したりする制御を行う。このような制御が行われた場合(すなわちナビゲーション装置が住所を検索、または設定することが可能な状態となった場合)、運転者の思考動作は完了したと判定する。問い合わせ判定部122は、ナビゲーション装置から思考動作の完了を示す情報を取得すると、思考動作を完了したことを示す情報を車線維持支援制御部130に出力する。線維持支援制御部130は、問い合わせ判定部122から思考動作が完了したことを示す情報を取得すると第2の制御を中止し、第1の制御を実行する。
 また、運転者の思考動作の完了は、上述した各例におけるナビゲーション装置と運転者との一連の会話が終了したこと、または上記の会話の終了によって車両(ナビゲーション装置)が次の処理を開始できる状態に遷移したことにより判定してもよい。問い合わせ判定部122は、予め記憶装置に記憶された予め定められた会話の情報に基づいて、上記の一連の会話が終了した否かを判定する。
 なお、上記のような問い合わせに代えて、乗員の所定の発話が、思考動作の開始するきっかけとして認識されてもよい。乗員の所定の発話とは、例えば、上記(1)の問い合わせに対して行った所定の発話である。
 また、上記の例では、ナビゲーション装置によって行われる問い合わせや、問い合わせに対する返答に基づいて、第2の制御が実行されるか否かについて説明したが、ナビゲーション装置に限らず、他の車載機器によって行われる問い合わせや、問い合わせに対する返答に基づいて、同等の処理が行われてもよい。
 また、第2実施形態の運転者支援装置100において、視線判定部110または運転者検知部120の一方または双方は省略されてもよい。
 以上説明した第2実施形態によれば、運転者による応答を要する問い合わせが行われたと判定された場合に第2の制御が行われることにより、乗員の快適性を向上させることができる。
 以上説明した実施形態によれば、運転者が視線を向けている領域を判定する視線判定部110と、運転者による操作に応じて作動し、走行車線に対する相対位置である第1基準位置に近づくように自車両Mを走行させる第1の制御を実行する車線変更維持支援部130であって、視線判定部110により所定の領域から運転者が視線を外していると判定された場合、または前記所定の領域とは異なる領域である特定領域に前記運転者が視線を向けていると判定された場合に自動的に、視線を前記所定の領域から外している、または前記特定領域に向けていると判定された際の自車両Mの位置を基準とした第2基準位置に近づくように自車両Mを走行させる第2の制御を実行する車線変更維持支援部130とを備えることにより、乗員の快適性を向上させることができる。
 <ハードウェア構成>
 上述した実施形態の運転支援装置100、100Aは、例えば、図14に示すようなハードウェアの構成により実現される。図14は、実施形態の運転支援装置100、100Aのハードウェア構成の一例を示す図である。
 運転支援装置100、100Aは、通信コントローラ100-1、CPU100-2、RAM100-3、ROM100-4、フラッシュメモリやHDDなどの二次記憶装置100-5、およびドライブ装置100-6が、内部バスあるいは専用通信線によって相互に接続された構成となっている。ドライブ装置100-6には、光ディスクなどの可搬型記憶媒体が装着される。二次記憶装置100-5に格納されたプログラム100-5aがDMAコントローラ(不図示)などによってRAM100-3に展開され、CPU100-2によって実行されることで、視線判定部110、運転者検知部120、問い合わせ判定部122、車線維持支援制御部130、および追従走行支援制御部150が実現される。また、CPU100-2が参照するプログラムは、ドライブ装置100-6に装着された可搬型記憶媒体に格納されていてもよいし、ネットワークNWを介して他の装置からダウンロードされてもよい。
 上記実施形態は、以下のように表現することができる。
 記憶装置とハードウェアプロセッサを備え、
 前記記憶装置には前記ハードウェアプロセッサに
 運転者が視線を向けている領域を判定させ、
 運転者による操作に応じて作動させ、走行車線に対する相対位置である第1基準位置に近づくように車両を走行させる第1の制御を実行させ、
 所定の領域から前記運転者が視線を外していると判定された場合、または前記所定の領域とは異なる領域である特定領域に前記運転者が視線を向けていると判定された場合に自動的に作動させ、前記視線を前記所定の領域から外している、または前記特定領域に向けていると判定された際の前記車両の位置を基準とした第2基準位置に近づくように前記車両を走行させる第2の制御を実行させるためのプログラムが格納されている。
 以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
10‥HMI、12…タッチパネル、14…メインスイッチ、16…LKAS作動スイッチ、20…レーダ装置、22…カメラ、24…画像認識装置、30…車両センサ、100…運転支援装置、110…視線判定部、120…運転者検知部、130…車線維持支援制御部、132…認識処理部、134…操舵支援制御部、150…追従走行支援制御部、152…車両認識部、154…速度支援制御部

Claims (15)

  1.  運転者が視線を向けている領域を判定する判定部と、
     運転者による操作に応じて作動し、走行車線に対する相対位置である第1基準位置に近づくように車両を走行させる第1の制御を実行する制御部であって、
     前記判定部により所定の領域から前記運転者が視線を外していると判定された場合、または前記所定の領域とは異なる領域である特定領域に前記運転者が視線を向けていると判定された場合に自動的に作動し、前記視線を前記所定の領域から外している、または前記特定領域に向けていると判定された際の前記車両の位置を基準とした第2基準位置に近づくように前記車両を走行させる第2の制御を実行する制御部と、
     を備える車両制御装置。
  2.  前記所定の領域は、前記車両前方の外界における所定の領域であり、
     前記特定領域は、前記車両の車室内における特定領域である、
     請求項1に記載の車両制御装置。
  3.  第1基準位置は、前記走行車線の中央線上の位置である、
     請求項1または請求項2に記載の車両制御装置。
  4.  前記判定部は、前記所定の領域から前記運転者が視線を運転者による操作可能な車載機器に移動させたか否かを判定し、
     前記制御部は、前記操作がされていない場合において、前記判定部により前記所定の領域から前記運転者が視線を前記車載機器に移動させたと判定された場合に、前記第2の制御を実行する、
     請求項1から3のうちいずれか1項に記載の車両制御装置。
  5.  前記判定部は、前記運転者が前記所定の領域から視線を後部座席の方向に移動させたか否かを判定し、
     前記制御部は、前記操作がされていない場合において、前記判定部により前記所定の領域から前記運転者が視線を後部座席の方向に移動させたと判定された場合に、前記第2の制御を実行する、
     請求項1から4のうちいずれか1項に記載の車両制御装置。
  6.  前記制御部は、前記判定部により所定の領域外かつ前記特定領域に視線を向けていると判定された場合、前記判定部により所定の領域外に視線を向けかつ前記特定領域に視線を向けていないと判定された場合に比して、より早いタイミングで第2の制御を実行する、
     請求項1から3のうちいずれか1項に記載の車両制御装置。
  7.  前記制御部は、前記車両の速度が所定の速度以上である場合に、前記第2の制御を実行する、
     請求項1から6のうちいずれか1項に記載の車両制御装置。
  8.  前記制御部は、前記車両が高速道路を走行中である場合に、前記第2の制御を実行する、
     請求項1から7のうちいずれか1項に記載の車両制御装置。
  9.  前記運転者による操作可能な車載機器に対して設定された設定領域内に前記運転者の手が位置しているか否かを判定する運転者判定部を、更に備え、
     前記制御部は、前記判定部により前記所定の領域から前記運転者が視線を外していると判定され、且つ前記運転者判定部により前記設定領域内に前記運転者の手が位置していることが判定された場合に、前記第2の制御を実行する、
     請求項1から8のうちいずれか1項に記載の車両制御装置。
  10.  前記判定部は、前記運転者が視線を外した後に視線を向けた先が車両に設けられた車両の周辺を確認するためのミラー部、または前記車両の周辺を撮像した画像を表示する表示部であるか否かを判定し、
     前記制御部は、前記操作がされていない場合において、前記判定部により前記所定の領域から前記運転者が視線を外した後に視線を向けた先が前記ミラー部、または前記表示部であると判定された場合には、前記第2の制御を実行しない、
     請求項1から9のうちいずれか1項に記載の車両制御装置。
  11.  前記制御部は、前記第2の制御を所定時間実行した後に、前記第1基準位置に近づくように前記車両を走行させる、
     請求項1から10のうちいずれか1項に記載の車両制御装置。
  12.  前記制御部は、前記第2の制御において、前記視線を外していると判定された際の前記車両の位置から徐々に前記第1基準位置に近づく位置を、前記第2基準位置として設定する、
     請求項1から10のうちいずれか1項に記載の車両制御装置。
  13.  運転者による操作可能な車載機器に対して設定された設定領域内に前記運転者の手が位置しているか否かを判定する運転者判定部と、
     運転者による操作に応じて作動し、走行車線に対する相対位置である第1基準位置に近づくように車両を走行させる第1の制御を実行する制御部であって、
     前記運転者判定部により前記設定領域内に前記運転者の手が位置していると判定された場合に自動的に作動し、前記設定領域内に前記運転者の手が位置していると判定された際の前記車両の位置を基準とした第2基準位置に近づくように前記車両を走行させる第2の制御を実行する制御部と、
     を備える車両制御装置。
  14.  運転者からの応答を要する問合せが行われたか否かを判定する問い合わせ判定部と、
     運転者による操作に応じて作動し、走行車線に対する相対位置である第1基準位置に近づくように車両を走行させる第1の制御を実行する制御部であって、
     前記問い合わせ判定部により前記問合せが行われたと判定された場合に自動的に作動し、前記問合せが行われたと判定された際の前記車両の位置を基準とした第2基準位置に近づくように前記車両を走行させる第2の制御を実行する制御部と、
     を備える車両制御装置。
  15.  前記問合せは車載機器からの音声案内による問合せであり、
     前記応答は前記運転者の音声によって行われる、
     請求項14に記載の車両制御装置。
PCT/JP2017/028012 2017-08-02 2017-08-02 車両制御装置、および車両制御方法、プログラム WO2019026199A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2017/028012 WO2019026199A1 (ja) 2017-08-02 2017-08-02 車両制御装置、および車両制御方法、プログラム
CN201780092380.8A CN110785334B (zh) 2017-08-02 2017-08-02 车辆控制装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/028012 WO2019026199A1 (ja) 2017-08-02 2017-08-02 車両制御装置、および車両制御方法、プログラム

Publications (1)

Publication Number Publication Date
WO2019026199A1 true WO2019026199A1 (ja) 2019-02-07

Family

ID=65232477

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/028012 WO2019026199A1 (ja) 2017-08-02 2017-08-02 車両制御装置、および車両制御方法、プログラム

Country Status (2)

Country Link
CN (1) CN110785334B (ja)
WO (1) WO2019026199A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111746438A (zh) * 2019-03-27 2020-10-09 本田技研工业株式会社 车辆控制装置、车辆控制方法及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021144336A (ja) * 2020-03-10 2021-09-24 トヨタ自動車株式会社 情報処理装置、情報処理システム、及び、情報処理方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007140978A (ja) * 2005-11-18 2007-06-07 Toyota Motor Corp 走行支援装置
JP2008018835A (ja) * 2006-07-12 2008-01-31 Toyota Motor Corp 車両用走行制御装置
JP2008174092A (ja) * 2007-01-18 2008-07-31 Aisin Seiki Co Ltd 速度制御装置
JP2010049383A (ja) * 2008-08-20 2010-03-04 Mazda Motor Corp 車両の警報装置
JP2011164712A (ja) * 2010-02-04 2011-08-25 Honda Motor Co Ltd 脇見警報装置
JP2011227663A (ja) * 2010-04-19 2011-11-10 Denso Corp 運転補助装置、及びプログラム
JP2012014472A (ja) * 2010-06-30 2012-01-19 Sumitomo Electric Ind Ltd 交通情報処理装置、交通情報処理システム、プログラム、及び交通情報処理方法
JP2014101100A (ja) * 2012-11-22 2014-06-05 Mazda Motor Corp 車両の運転支援装置
JP2014225099A (ja) * 2013-05-15 2014-12-04 本田技研工業株式会社 運転支援装置および運転支援方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8301343B2 (en) * 2007-05-02 2012-10-30 Toyota Jidosha Kabushiki Kaisha Vehicle behavior control device
WO2010016244A1 (ja) * 2008-08-05 2010-02-11 パナソニック株式会社 運転注意量判定装置、方法およびプログラム
KR20140064388A (ko) * 2012-11-20 2014-05-28 현대모비스 주식회사 차량의 차선 유지 제어 방법 및 이를 구현하는 차선 유지 제어 장치

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007140978A (ja) * 2005-11-18 2007-06-07 Toyota Motor Corp 走行支援装置
JP2008018835A (ja) * 2006-07-12 2008-01-31 Toyota Motor Corp 車両用走行制御装置
JP2008174092A (ja) * 2007-01-18 2008-07-31 Aisin Seiki Co Ltd 速度制御装置
JP2010049383A (ja) * 2008-08-20 2010-03-04 Mazda Motor Corp 車両の警報装置
JP2011164712A (ja) * 2010-02-04 2011-08-25 Honda Motor Co Ltd 脇見警報装置
JP2011227663A (ja) * 2010-04-19 2011-11-10 Denso Corp 運転補助装置、及びプログラム
JP2012014472A (ja) * 2010-06-30 2012-01-19 Sumitomo Electric Ind Ltd 交通情報処理装置、交通情報処理システム、プログラム、及び交通情報処理方法
JP2014101100A (ja) * 2012-11-22 2014-06-05 Mazda Motor Corp 車両の運転支援装置
JP2014225099A (ja) * 2013-05-15 2014-12-04 本田技研工業株式会社 運転支援装置および運転支援方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111746438A (zh) * 2019-03-27 2020-10-09 本田技研工业株式会社 车辆控制装置、车辆控制方法及存储介质
CN111746438B (zh) * 2019-03-27 2023-10-31 本田技研工业株式会社 车辆控制装置、车辆控制方法及存储介质

Also Published As

Publication number Publication date
CN110785334B (zh) 2023-01-10
CN110785334A (zh) 2020-02-11

Similar Documents

Publication Publication Date Title
JP6972294B2 (ja) 車両制御システム、車両制御方法、およびプログラム
WO2018220827A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
WO2018221350A1 (ja) 車両制御システム、車両制御方法、およびプログラム
JP2019006275A (ja) 車両制御システム、車両制御方法、および車両制御プログラム
WO2018220826A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP2017218020A (ja) 車両制御装置、車両制御方法、および車両制御プログラム
US20180141569A1 (en) Vehicle control system, vehicle control method, and vehicle control program
US11945442B2 (en) Autonomous driving system and control method for autonomous driving system
JP2017226343A (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US11505193B2 (en) Vehicle control apparatus, vehicle control method, and storage medium
JP2022022350A (ja) 車両制御システム、車両制御方法、およびプログラム
JPWO2019058781A1 (ja) 駐車支援装置
JP6885003B2 (ja) 車両制御装置
WO2019026199A1 (ja) 車両制御装置、および車両制御方法、プログラム
JP2020117218A (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP2023150579A (ja) 制御装置、制御方法、およびプログラム
JP6975215B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2022152607A (ja) 運転支援装置、運転支援方法、及びプログラム
JP4884929B2 (ja) 車両の走行制御装置
US20230311886A1 (en) Vehicle control device, vehicle control method, and storage medium
US20230316778A1 (en) Vehicle control device, vehicle control method, and storage medium
US20230311938A1 (en) Vehicle control device, vehicle control method, and storage medium
US20230311939A1 (en) Vehicle control device, vehicle control method, and storage medium
US20230311887A1 (en) Vehicle system, control method, and storage medium
US20240092376A1 (en) Vehicle control device, vehicle control method, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17920204

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17920204

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP