WO2018062477A1 - 車載装置、制御方法及びプログラム - Google Patents

車載装置、制御方法及びプログラム Download PDF

Info

Publication number
WO2018062477A1
WO2018062477A1 PCT/JP2017/035455 JP2017035455W WO2018062477A1 WO 2018062477 A1 WO2018062477 A1 WO 2018062477A1 JP 2017035455 W JP2017035455 W JP 2017035455W WO 2018062477 A1 WO2018062477 A1 WO 2018062477A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
state
processing
information
input
Prior art date
Application number
PCT/JP2017/035455
Other languages
English (en)
French (fr)
Inventor
明 後藤田
誠 倉橋
宏 永田
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to EP17856426.6A priority Critical patent/EP3521124A4/en
Priority to US16/338,389 priority patent/US20200027351A1/en
Priority to JP2018542920A priority patent/JPWO2018062477A1/ja
Publication of WO2018062477A1 publication Critical patent/WO2018062477A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/22
    • B60K35/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/085Changing the parameters of the control units, e.g. changing limit values, working points by control input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • B60K2360/1434
    • B60K2360/162
    • B60K2360/175
    • B60K2360/176
    • B60K2360/179
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4026Cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects

Definitions

  • the present invention relates to an in-vehicle device, a control method, and a program.
  • Patent Document 1 discloses a traveling control device for controlling traveling of a vehicle.
  • the travel control device is configured to reduce a sense of discomfort and anxiety that a driver or an occupant feels about automatic travel control.
  • the travel control device determines the driving action content to be taken by the host vehicle based on the outside world recognition information received from the outside world sensor or the like and the host vehicle information that is information including the position and the running speed of the host vehicle.
  • Patent Document 1 According to the technology described in Patent Document 1, a vehicle driver can grasp the contents controlled by the automatic travel control (driving action contents) and the cause of the control (driving action factors). However, Patent Document 1 does not disclose the processing after grasping.
  • An example of the problem of the present invention is to reduce the burden on the driver during automatic traveling control.
  • a monitoring unit that monitors the state of an object based on the output of a sensor mounted on the vehicle;
  • a generating unit that generates processing information for causing the vehicle to execute processing according to the state;
  • a control unit that causes the output device to output cause information indicating at least one of the object and the state causing the processing;
  • An accepting unit that accepts an input for changing the process caused by the cause indicated by the cause information;
  • Have The generation unit is an in-vehicle device that generates processing information in which the processing is changed based on a reception result of the reception unit.
  • the invention according to claim 11
  • Run The generating step is a control method for generating processing information in which the processing is changed based on an acceptance result of the accepting step.
  • the invention according to claim 12
  • Computer Monitoring means for monitoring the state of an object based on the output of a sensor mounted on the vehicle;
  • Generating means for generating processing information for causing the vehicle to execute processing according to the state;
  • Control means for causing the output device to output cause information indicating at least one of the object and the state causing the processing;
  • Accepting means for accepting an input for changing the process caused by the cause indicated by the cause information;
  • Function as The generating unit is a program that generates processing information in which the processing is changed based on an acceptance result of the accepting unit.
  • FIG. 1 It is a figure which shows an example of the functional block diagram of the vehicle window apparatus of this embodiment. It is a block diagram which shows an example of the hardware constitutions of the vehicle-mounted apparatus of this embodiment. It is a figure which shows typically an example of the data which the vehicle-mounted apparatus of this embodiment processes. It is a figure which shows typically an example of the image output by the vehicle-mounted apparatus of this embodiment. It is a figure which shows typically an example of the image output by the vehicle-mounted apparatus of this embodiment. It is a figure which shows typically an example of the image output by the vehicle-mounted apparatus of this embodiment. It is a flowchart which shows an example of the flow of a process of the vehicle-mounted apparatus of this embodiment.
  • the in-vehicle device of the present embodiment monitors the state of an object (eg, a pedestrian, a forward vehicle, etc.) based on the output of a sensor mounted on the host vehicle. Then, the in-vehicle device of the present embodiment causes the host vehicle to execute processing (eg, deceleration, stop, reverse, lane change, acceleration, route change) according to the state of the object.
  • processing eg, deceleration, stop, reverse, lane change, acceleration, route change
  • the in-vehicle device of the present embodiment causes the output device to output cause information indicating at least one of the object and the state causing the processing. Furthermore, the vehicle-mounted device according to the present embodiment accepts an input for changing processing due to the cause indicated by the cause information. For example, an input for canceling a process caused by the cause, an input for changing a recognition result of the target object or its state, and the like are accepted. And the vehicle-mounted apparatus of this embodiment controls the own vehicle according to the said input.
  • the in-vehicle device of the present embodiment decelerates and stops the vehicle in front of the pedestrian crossing accordingly.
  • the in-vehicle device according to the present embodiment causes “deceleration / stop” during execution as “the pedestrians”, “the pedestrians are standing near the pedestrian crossing”, “the pedestrians cross “Standing near the sidewalk”.
  • the driver can grasp the cause of “deceleration / stop” while the host vehicle is executing.
  • the driver can input to change the process (deceleration / stop) due to the notified cause.
  • the driver can perform an input to cancel the above-described processing due to the cause, an input to change a recognition result (eg, a pedestrian or its state) related to the cause, and the like.
  • the in-vehicle device executes processing according to the input. For example, if the cause of the above processing (deceleration / stop) disappears due to the cancellation of the above processing (deceleration / stop) due to the above cause or the change of the recognition result, the execution of the above processing (deceleration / stop) is cancelled. To do.
  • the in-vehicle device controls the host vehicle based on the state after release. For example, the in-vehicle device starts or accelerates the host vehicle.
  • the operation of the host vehicle by the automatic travel control is continued only by performing a predetermined input without switching to the manual operation under the situation as described above. be able to. As a result, the burden on the driver can be reduced.
  • the in-vehicle device is a device that is mounted on a vehicle and controls the host vehicle.
  • the in-vehicle device is, for example, an ECU (Electronic Control Unit).
  • ECU Electronic Control Unit
  • the “own vehicle” used in the following description means a vehicle to be controlled by the in-vehicle device.
  • FIG. 1 shows an example of a functional block diagram of the in-vehicle device 10 of the present embodiment.
  • the in-vehicle device 10 includes a monitoring unit 11, a generation unit 12, a control unit 13, a reception unit 14, and an output unit 15.
  • Each functional unit includes an arbitrary computer CPU (Central Processing Unit), a memory, a program loaded into the memory, a storage unit such as a hard disk for storing the program (a program stored in advance from the stage of shipping the device) It is also possible to store a program downloaded from a storage medium such as a CD (Compact Disc) or a server on the Internet), and any combination of hardware and software centering on a network connection interface.
  • CPU Central Processing Unit
  • memory a memory
  • a program loaded into the memory a storage unit such as a hard disk for storing the program (a program stored in advance from the stage of shipping the device)
  • a storage unit such as a hard disk for storing the program (a program stored in advance from the stage of shipping the device)
  • a storage unit such as a hard disk for storing the program (a program stored in advance from the stage of shipping the device)
  • a storage medium such as a CD (Compact Disc) or a server on the Internet
  • FIG. 2 is a block diagram illustrating a hardware configuration of the in-vehicle device 10 of the present embodiment.
  • the in-vehicle device 10 includes a processor 1A, a memory 2A, an input / output interface 3A, a peripheral circuit 4A, and a bus 5A.
  • the peripheral circuit 4A includes various modules. The peripheral circuit 4A may not be provided.
  • the bus 5A is a data transmission path through which the processor 1A, the memory 2A, the peripheral circuit 4A, and the input / output interface 3A transmit / receive data to / from each other.
  • the processor 1A is an arithmetic processing unit such as a CPU or a GPU (Graphics Processing Unit).
  • the memory 2A is a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory).
  • the input / output interface 3A is an interface for acquiring information from an input device (eg, keyboard, mouse, microphone, etc.), external device, external server, external sensor, etc., and an output device (eg, display, speaker, printer, mailer). Etc.), an interface for outputting information to an external device, an external server, etc.
  • the processor 1A can issue a command to each module and perform a calculation based on the calculation result.
  • the monitoring unit 11 monitors the state of the object based on the output of the sensor mounted on the host vehicle.
  • the monitoring unit 11 acquires outputs from sensors that collect information related to the external environment of the host vehicle, for example, a camera (eg, a camera that captures the outside of the host vehicle), a rider (laser radar), a radar, and the like.
  • the monitoring part 11 may acquire the information collected by the sunser installed on the road by road-to-vehicle communication.
  • the monitoring unit 11 analyzes the output of the sensor and recognizes the object and the state of the object. For example, the monitoring unit 11 may extract a target object from an image captured by a camera using a feature amount of the appearance of each of the plurality of target objects held in advance.
  • the target object is an object that affects the control of the host vehicle, and examples thereof include pedestrians, other vehicles, forward vehicles, oncoming vehicles, bicycles, falling objects, traffic lights, road signs, pedestrian crossings, landmarks, and the like. However, it is not limited to these.
  • the monitoring part 11 recognizes the state for every extracted target object. For example, a plurality of states are prepared for each object in advance, and the monitoring unit 11 may determine which state the extracted object is in. The state of the object can be determined based on the situation around the object, the condition of the object itself, and the like.
  • Examples of the state where the target object is a pedestrian include “scheduled to cross the front pedestrian crossing”, “crossing the front pedestrian crossing”, “crossed the front pedestrian crossing”, and “walking the sidewalk” , “Other” and the like are exemplified, but not limited thereto.
  • the monitoring unit 11 may check the situation around the pedestrian (eg, whether there is a pedestrian crossing), the situation of the pedestrian itself (eg, whether the pedestrian is facing the pedestrian crossing, The pedestrian's state can be determined based on whether or not the vehicle is moving toward and where the person is walking.
  • Examples of the state in which the target object is a forward vehicle include “running”, “temporarily stopped”, “parking”, “decelerating”, “others”, and the like.
  • the monitoring unit 11 may, for example, the situation around the target vehicle (eg, the front signal is red, the pedestrian crosses the front), the situation of the target vehicle itself (eg: whether the vehicle is stopped, a brake lamp
  • the state of the target vehicle can be determined based on whether or not is lit, whether or not the engine is running, and the like.
  • the monitoring unit 11 can specify a position in the image (a position in the frame) for each extracted object. Further, the monitoring unit 11 can specify the relative position based on the own vehicle (the position of the rider or the radar) based on the output of the rider, the radar, or the like for each of the extracted objects.
  • the monitoring unit 11 can register the result of the processing as described above.
  • 3 and 10 schematically show examples of registered contents.
  • the type of the extracted object, its position, its state, and the presence / absence of release input are associated with each other.
  • the type of the extracted object, its position, and its state are associated with each other.
  • the type of each of a plurality of extracted objects is recorded in the object column. For example, pedestrians, vehicles ahead, bicycles, etc. are recorded.
  • the position column records the position of each of the plurality of extracted objects, for example, the position in the image captured by the camera, the relative position based on the own vehicle detected by the rider, radar, etc.
  • the In the status column the status recognized in the above process is recorded. For example, scheduled to cross the front pedestrian crossing, crossing the front pedestrian crossing, etc. are recorded. In the field of presence / absence of cancellation input, information indicating whether or not the reception unit 14 described below has received the cancellation input is recorded.
  • the monitoring unit 11 acquires an image (sensor information) of a frame to be processed from moving images taken by the camera (S10).
  • the monitoring part 11 recognizes the target object reflected in the image of the frame to be processed (image taken by the camera) (S11). After that, the monitoring unit 11 recognizes each of the recognized objects in the object recognized in the previous frame image (eg, the object registered in the registration information (eg, information in FIGS. 3 and 10) at that time). ) Or not. This determination can be realized using any conventional technique.
  • the monitoring unit 11 issues new identification information (eg, serial number) and recognizes the object recognized in the image of the frame to be processed. Is associated with the identification information.
  • the identification information of the object already issued is associated with the object recognized in the image of the frame to be processed. .
  • the monitoring unit 11 associates the identification information of the target extracted from the image of the processing target frame with the position of the target in the image.
  • the monitoring unit 11 determines each state for each object extracted from the image of the frame to be processed (S12). And the monitoring part 11 matches the recognition result of a state with the identification information of the target object recognized in the image of the frame of a process target.
  • the monitoring unit 11 updates the registration information (for example, information in FIGS. 3 and 10) based on the recognition result obtained from the image of the processing target frame as described above (S13).
  • the monitoring unit 11 recognizes the object recognized in the image of the frame to be processed Identification information, the position in the image, and the state are newly registered in registration information (for example, information in FIGS. 3 and 10).
  • the monitoring unit 11 recognizes the object in the image of the frame to be processed. Based on the identification information of the target object, the position in the image, and the determination result of the state, the information of the target object registered in the registration information (for example, information in FIGS. 3 and 10) is updated.
  • the monitoring unit 11 can delete information satisfying the predetermined condition from the registration information (for example, information in FIGS. 3 and 10). For example, the monitoring unit 11 does not match the object recognized in the image of the frame to be processed among the objects registered in the registration information (for example, information in FIGS. 3 and 10), that is, Information regarding an object that has not been recognized in the image of the processing target frame may be deleted from the registration information (for example, information in FIGS. 3 and 10).
  • the monitoring unit 11 repeats the above processing, for example.
  • the above processing is merely an example, and other processing may be adopted as long as the same result can be realized.
  • the object tracking function widely known in the image processing may be used to recognize the object appearing in the image of the previous frame in the image of the frame to be processed.
  • a new target object that has not been extracted in the previous frame may be recognized in the image of the frame to be processed using the feature quantity of the appearance of the target object registered in advance.
  • control unit 13 indicates at least one of an object and a state causing the process while the host vehicle is executing a predetermined process (e.g., deceleration, stop, reverse, lane change).
  • a predetermined process e.g., deceleration, stop, reverse, lane change.
  • the control unit 13 can grasp the target object and the state causing the processing based on the registration information (for example, information in FIGS. 3 and 10), and can output cause information indicating the contents.
  • the control unit 13 indicates that the vehicle is in a state of executing a predetermined process (eg, deceleration, stop, reverse, lane change) in the state column.
  • a predetermined process eg, deceleration, stop, reverse, lane change
  • an object that indicates that release input is not accepted is specified. Then, the identified object and the state of the object are grasped as the cause of the processing.
  • control unit 13 indicates that the vehicle is in a state of executing predetermined processing (e.g., deceleration, stop, reverse, lane change) in the state column. Identify the target object. Then, the identified object and the state of the object are grasped as the cause of the processing.
  • predetermined processing e.g., deceleration, stop, reverse, lane change
  • each of the plurality of states of the object may be associated with the process executed when each is detected in advance. For example, based on such correspondence information, the control unit 13 selects the object and state that caused each process from information registered in the registration information (for example, information in FIGS. 3 and 10). You may grasp.
  • processing such as “deceleration”, “stop”, “lane change”, “follow vehicle forward”, and the like may be determined corresponding to “(object) vehicle ahead: (state) temporarily stopped”.
  • processing such as “deceleration”, “stop”, “lane change”, “reverse”, and the like may be determined corresponding to “(object) forward vehicle: (state) parked”.
  • processing such as “Deceleration”, “Stop”, “Changing lanes”, “Reversing” is defined in response to “(Object) Obstacles that impede driving: (State) Stopped” Good.
  • Examples of the output device include, but are not limited to, a display device, a head-up display device, a head-mounted display device, a projection device, a smartphone, a tablet, and a speaker installed in the vehicle.
  • the in-vehicle device 10 may have the output device.
  • the output device may be configured to be physically and / or logically separated from the in-vehicle device 10.
  • the output device and the in-vehicle device 10 are configured to be communicable with each other by wire and / or wireless.
  • FIG. 4 shows an output example by the control unit 13.
  • the control unit 13 outputs an image in which cause information is superimposed on a real-time image captured by the camera.
  • “reason for stop 1” and “reason for stop 2” shown in association with two pedestrians located on the left are cause information.
  • the display position of the cause information in the image is determined based on the positions (see FIG. 3) in the images of the two pedestrians (objects).
  • the driver can grasp that the host vehicle has decelerated and stopped because of the presence of two pedestrians located near the pedestrian crossing.
  • FIG. 5 shows another output example by the control unit 13.
  • the control unit 13 outputs an image in which cause information is superimposed on a real-time image captured by the camera.
  • stop reason 1 shown in association with the vehicle located in front of the host vehicle is cause information.
  • the forward vehicle is stopped by the side of the road.
  • the display position of the cause information in the image is determined based on the position in the image of the preceding vehicle (target object) (see FIGS. 3 and 10).
  • the driver can grasp that the own vehicle has decelerated and stopped due to the presence of the forward vehicle that is located in the same lane as the own vehicle and is stopped.
  • control unit 13 may cause the output device to output text information such as “Decelerates and stops because a stopped front vehicle is detected”. You may output the said sentence with a speaker. In this case, as shown in FIG. 8, display that associates the text information with the target object may be performed.
  • text information corresponding to each of the plurality of causes may be output to the output device.
  • control unit 13 may output the information as described above before the vehicle executes the process due to the cause.
  • text information for announcing the processing may be output, such as “Since a stopped front vehicle is detected, the vehicle will decelerate and stop after ⁇ seconds”. In this way, the driver or the like can make mental preparations.
  • display that associates the text information with the target object may be performed.
  • the cause information as described above may be displayed at a predetermined position on the windshield of the host vehicle. That is, the position on the windshield corresponding to each object (actual object) seen through the windshield as viewed from the driver (eg, a straight line connecting the position of the driver's eyes and the position of the object (actual object), and the front Cause information corresponding to each object can be displayed at the intersection with the glass. Means for realizing such display can be realized based on the prior art.
  • the accepting unit 14 accepts an input for changing the process caused by the cause indicated by the cause information output by the control unit 13. For example, an input for canceling the process due to the cause, an input for changing the object that caused the cause, and its state, and the like are accepted.
  • the accepting unit 14 can accept the input via any input device such as a touch panel display device, operation buttons, a camera, a microphone, and a line-of-sight detection device.
  • images as shown in FIGS. 4 to 6, 8 and 9 may be output via the touch panel display device.
  • the reception unit 14 receives characters such as “stop reason 1” and “stop reason 2” shown in FIG. 4 and FIG. 5 and objects corresponding to the characters via the touch panel display device.
  • An input to touch may be accepted.
  • the reception part 14 may receive the said input as an input which cancels execution of the process resulting from the touched cause.
  • the registration information shown in FIG. 3 is updated. In other words, corresponding to the cause of the touch (predetermined state of the predetermined object), it is registered in the column of presence / absence of release input.
  • the control unit 13 reads “processing caused by the cause (deceleration, stop). “Do you want to cancel the execution of“ Yes or NO ”? And the reception part 14 may receive the input of "Yes” with respect to the said guidance as an input which cancels execution of the process resulting from the cause.
  • the registration information shown in FIG. 3 is updated. In other words, corresponding to the cause of the touch (predetermined state of the predetermined object), it is registered in the column of presence / absence of release input.
  • control unit 13 in response to an input of touching a character such as “stop reason 1” or “stop reason 2” or an object corresponding to the character, the control unit 13 “changes the recognition result? Yes or NO. Or the like may be output to the output device. Then, when the reception unit 14 receives an input of “Yes”, the control unit 13 may cause the output device to output information for changing the recognition result.
  • control unit 13 may output the current recognition result.
  • the recognition result may include an object recognition result and a state recognition result. Specific examples include “pedestrians scheduled to cross”, “pedestrians crossing”, “temporarily stopped vehicles”, and the like, but are not limited thereto.
  • control unit 13 may output a list of candidate recognition results after the change. For example, if the current recognition result is “Pedestrians scheduled to cross”, “Pedestrians crossing”, etc., “Standing pedestrians”, “Traffic organizers”, etc. It may be output as a list of candidates. Further, when the current recognition result is “temporarily stopped vehicle”, “parked vehicle”, “failed vehicle”, and the like may be output as a list of recognition result candidates after the change.
  • the reception part 14 may receive the recognition result after a change from the list of the output candidates.
  • the registration information shown in FIGS. 3 and 10 is updated. That is, the information in the object column, the information in the state column, and the like are updated corresponding to the cause of the touch (the predetermined state of the predetermined object).
  • control unit 13 may output a current recognition result and output a guidance such as “Which recognition result should be changed? Object or state” to the output device. And if the reception part 14 receives the input of "target object”, you may output the list of candidates of the target object after a change. For example, when the current recognition result is “pedestrian”, “bronze statue”, “doll”, “transportation person”, and the like may be output as a list of candidate objects after the change. In addition, when the current recognition result is “an obstacle that hinders driving”, “an obstacle that can be stepped on” or the like may be output as a list of candidates for the object after the change.
  • a list of candidate candidates after the change may be output.
  • the current recognition result is “scheduled to cross”, “standby” or the like may be output as a list of candidate objects after the change.
  • the reception part 14 may receive the recognition result after a change from the list of the output candidates.
  • the registration information shown in FIGS. 3 and 10 is updated. That is, the information in the object column, the information in the state column, and the like are updated corresponding to the cause of the touch (the predetermined state of the predetermined object).
  • the reception unit 14 guides “Decelerates and stops because a front vehicle that has stopped is detected” or corresponds to the guidance via the touch panel display device. You may receive the input which touches an area (for example, the area where the square surrounding the said character is displayed). And the reception part 14 may receive the said input as an input which cancels execution of the process resulting from the touched cause. In addition, the receiving unit 14 may cause the output device to output a guide such as “Do you want to cancel the execution of the process (deceleration, stop) due to the cause? Yes or NO” in response to the input. And you may accept the input of "Yes” with respect to the said guidance as an input which cancels execution of the process resulting from the cause. In addition, the reception part 14 may receive the input which changes a recognition result similarly to the above.
  • the receiving unit 14 may receive an input similar to the example using the touch panel display device by receiving an input for selecting a predetermined area on the image using the operation button and the cursor displayed on the image. Good.
  • the reception unit 14 performs a predetermined operation of the driver with the camera (for example, an operation of touching the cause information displayed on the windshield, etc.) ) May be received to receive the change input.
  • an abstract map may be displayed on the touch panel display device, and the reason for the stop may be expressed by arranging the position of the vehicle and the detected object (eg, person, other vehicle, etc.) icon.
  • the reception part 14 may receive the input which changes the process resulting from the cause similarly to the above by operation which touches an icon.
  • the reception unit 14 acquires the passenger's voice using a microphone, detects the predetermined voice by analyzing the acquired voice (that is, specifies the content of the statement), and receives the input of the change. Good. For example, sounds such as “deceleration cancellation” and “pedestrian has no intention of crossing” are detected.
  • the reception unit 14 may select an object whose recognition result is to be changed by detecting the sight line of the passenger using the sight line detection device.
  • the object ahead of the line of sight may be selected as the object whose recognition result is to be changed.
  • another device may be used, or the blink detection result of the line-of-sight detection device may be used.
  • the control unit 13 outputs, to the output device, one or more pieces of cause information that caused the execution of the process (eg, deceleration, stop). Can be made.
  • the control unit 13 outputs, to the output device, one or more pieces of cause information that caused the execution of the process (eg, deceleration, stop).
  • all cause information can be output to the output device.
  • the reception part 14 can receive the input which changes the process (for example, deceleration, stop) resulting from each corresponding to one or some cause information. That is, the reception unit 14 can individually accept an input for changing a process (eg, deceleration, stop) caused by each of a plurality of causes.
  • the generation unit 12 generates processing information for causing the host vehicle to execute processing according to the state of the object. Further, the generation unit 12 can generate processing information whose processing has been changed based on the reception result of the reception unit 14.
  • the output unit 15 outputs the processing information generated by the generation unit 12 to a vehicle control device that controls the vehicle.
  • the generation unit 12 determines the control content of the own vehicle based on the registration information (for example, information in FIGS. 3 and 10) and other various information. And the production
  • the above-mentioned various other information includes information indicating the position of the own vehicle, map information, route information indicating the route to reach the destination, the situation of the outside and surroundings of the own vehicle detected based on the camera, rider, radar, etc.
  • Illustrative examples of the external environment information and sensor information (for example, speed) from various sensors mounted on the host vehicle are not limited thereto.
  • the generation unit 12 performs the process on the host vehicle. May be determined to be executed.
  • the “object in a state in which the host vehicle performs a predetermined process” executes predetermined processes (eg, deceleration, stop, reverse, lane change) on the host vehicle in the registration information state column of FIG.
  • predetermined processes eg, deceleration, stop, reverse, lane change
  • the target object is shown to be in a state in which a predetermined process (eg, deceleration, stop, reverse, lane change) is executed by the host vehicle.
  • each of a plurality of states of an object may be associated with a process executed when each of the states is detected in advance. Then, the generation unit 12 performs, for example, predetermined processing (for example, deceleration, stop) from information registered in the registration information (for example, information in FIGS. 3 and 10) based on such correspondence information.
  • predetermined processing for example, deceleration, stop
  • the cause the state of the object
  • causes to be executed may be specified.
  • the generation unit 12 generates processing information for causing the host vehicle to decelerate and stop when at least one target object that is in a state of causing the host vehicle to decelerate and stop is registered, for example. Then, when the cause of deceleration and stop of the host vehicle disappears due to the reception of the input by the reception unit 14, the generation unit 12 stops the deceleration and stop of the host vehicle. In response to this, for example, the generation unit 12 generates processing information for starting or accelerating the host vehicle.
  • processing such as “deceleration”, “stop”, “lane change”, “following vehicle follow-up”, etc., is determined in response to “(target) forward vehicle: (state) temporarily stopped”.
  • a plurality of processes may be defined for one pair of an object and a state.
  • the control unit 13 can change the lane of the own vehicle (e.g., running, stopped), the surrounding state of the own vehicle (e.g., whether there is a lane to be changed, or other lanes). It may be determined which process is to be executed based on whether or not it is in a state.
  • the generation unit 12 Even if there is an input received by the reception unit 14, if the other cause of deceleration or stop of the own vehicle (due to a predetermined state of other objects) remains, the generation unit 12 The vehicle continues to decelerate and stop.
  • the monitoring unit 11 receives the input for canceling the execution of the predetermined process (first process) due to the state of the target (first target) by the receiving unit 14, and then outputs the output of the sensor thereafter.
  • the object (first object) may be monitored and a predetermined operation by the object (first object) may be detected. And the monitoring part 11 cancels
  • the monitoring unit 11 does not accept the release input of the content of the release input presence / absence column of the registration information (for example, FIG. 3) corresponding to the target (first target). Change the content to indicate.
  • the monitoring part 11 monitors the said target object (1st target object) using the output of a subsequent sensor, The said target object (1st A predetermined motion by one object) may be detected. And the monitoring part 11 may change the recognition result after being changed by reception by the reception part 14 into the recognition result which the monitoring part 11 newly recognized according to the detection of the said predetermined
  • the contents for example, the column for the object and the column for the state
  • the registration information for example, the information in FIGS. 3 and 10.
  • the predetermined operation to be detected may be predetermined for each object or for each state of the object.
  • the movement may be a predetermined action.
  • the object when the object is a vehicle, starting, turning on the blinker, turning off the hazard lamp, and the like may be predetermined operations.
  • the object When the object is a pedestrian standing in the vicinity of a pedestrian crossing, the movement toward the pedestrian crossing may be a predetermined operation.
  • the illustrations here are merely examples, and the present invention is not limited to these.
  • the generation unit 12 can control the host vehicle based on the updated registration information (eg, information in FIGS. 3 and 10).
  • the generation unit 12 Before, the state of the first object is processed as the cause of the first process, and after the first release, the state of the first object is not processed as the cause of the first process, and the first release After canceling, the state of the first object is processed again as the cause of the first processing.
  • ⁇ Specific example 1> For example, assume that the monitoring unit 11 detects a parked vehicle ahead while traveling on a narrow alley. Then, the generation unit 12 has decided to go backward and travel on another road based on the detection result and the surrounding state of the host vehicle (eg, the width of the preceding vehicle, the road width, the vacant width, etc.) (That is, it is determined that it is impossible to move forward while avoiding the preceding vehicle). In such a case, the control unit 13 outputs information indicating that. That is, because there is a parked vehicle ahead, information indicating that the vehicle is moving backward and traveling on another road is output.
  • the driver of the own vehicle confirms that the driver of the parked vehicle in front has returned and has decided to proceed immediately. Then, the driver of the own vehicle performs an input for changing the process (reverse) caused by the displayed cause (the parked vehicle ahead). For example, an input to change the recognition result of the state of the preceding vehicle from “parking” to “temporarily stopped” is performed. Then, the production
  • ⁇ Specific example 2> For example, it is assumed that during traveling, the monitoring unit 11 detects an obstacle that hinders driving that is stopped ahead. Then, the generation unit 12 determines the lane change based on the detection result and the surrounding state of the host vehicle (eg, whether there is a lane to be changed or whether another lane can be changed). Suppose that In such a case, the control unit 13 outputs information indicating that before changing the lane. That is, because there is an obstacle that obstructs driving ahead, a notice of changing lanes is output in ⁇ seconds.
  • the driver of the own vehicle determines that an obstacle determined to hinder driving ahead is an obstacle that can be stepped on. Then, the driver of the own vehicle performs an input for changing the process (lane change) caused by the displayed cause (an obstacle that obstructs the driving stopped in front). For example, an input for changing the recognition result of “obstacle that hinders driving” to “an obstacle that can be stepped on” is performed. Then, the production
  • the monitoring unit 11 detects a forward vehicle traveling at a low speed while traveling on a road of two lanes or more in one way. Then, the generation unit 12 determines the lane change based on the detection result and the surrounding state of the host vehicle (eg, whether there is a lane to be changed or whether another lane can be changed). Suppose that In such a case, the control unit 13 outputs information indicating that before changing the lane. That is, because there is a forward vehicle traveling at a low speed, a notice of changing lanes is output in ⁇ seconds.
  • the driver of the own vehicle determines that there is no effect even if the lane is changed because the traffic is congested. Then, the driver of the own vehicle performs input for changing the process (lane change) caused by the displayed cause (the forward vehicle traveling at a low speed). For example, the input etc. which cancel the lane change resulting from the cause are performed. Then, the production
  • the cause of the process can be notified to the driver by outputting the cause of the process being executed by the host vehicle. And the input for changing the process resulting from the notified cause can be received from a user, and automatic traveling control can be continued based on the received content.
  • the in-vehicle device of the present embodiment when there are a plurality of control causes, it is possible to individually accept an input for changing processing based on them.
  • a human error such as overlooking a cause that should not be changed buried in a plurality of causes may occur.
  • inconveniences such as causing an accident may occur.
  • control causes such an inconvenience can be reduced in the case of the present embodiment that can individually accept input of a change of processing based on them.
  • the in-vehicle device 10 of the present embodiment it is possible to continue monitoring the object related to the cause even after the input of the change is received.
  • a predetermined operation for example, cancellation based on a user input (release of execution of a predetermined process due to a predetermined cause) is canceled, or based on a new recognition result by a computer. Can be processed.
  • the driver mistakenly changes a predetermined process (eg, deceleration, stop) due to a transmission error between the driver and another person (eg, a pedestrian, another vehicle driver).
  • a predetermined process eg, deceleration, stop
  • the released processing eg, deceleration, stop
  • the host vehicle again in response to the target object performing a predetermined operation.
  • the monitoring unit 11 monitors the state of the object using the output of the sensor, and receives an input for canceling the execution of the predetermined process due to the state of the object when a predetermined operation of the object is detected. May be stopped. The process flow will be described with reference to FIG.
  • the monitoring unit 11 monitors the state of the object using the output of the sensor (S20). Then, the determination unit determines the monitoring accuracy (S21).
  • the determination part is not shown in FIG. 1, the vehicle-mounted apparatus 10 may have a determination part.
  • the monitoring accuracy in S21 is, for example, that the state of the object is “a pedestrian is walking on a pedestrian crossing”, “a pedestrian does not cross the pedestrian crossing”, or “a vehicle stopped in front does not start. (The judgment can be made by detecting hazards, turn signals, etc. from the captured image of the parked vehicle), etc. ”, and so on, when the state of the object is clear and the execution of the process to be taken by the host vehicle is clear.
  • Monitoring accuracy is increased.
  • the state of the object classified as “highly accurate monitoring” may be registered in advance. Then, the determination unit may determine whether the state of the object recognized by the monitoring unit 11 is “one with high monitoring accuracy” based on the registered content.
  • the monitoring accuracy is high (Yes in S22), it is not necessary to change the execution of the processing of the own vehicle, and the reception of the reception unit 14 is stopped (S23). If the monitoring accuracy is not high (No in S22), the execution of the processing of the host vehicle can be changed and the reception of the reception unit 14 is continued (S24). As a result, it is possible to suppress the occurrence of an accident caused by a driver's human error in a scene where the vehicle must be stopped or decelerated without fail. In addition, it is possible to reduce the processing in the apparatus when there is no need to reliably stop or decelerate.
  • the determination unit may determine the risk level of the monitoring result of the state of the object based on registration information (see FIG. 12) in which the risk level is set in advance for each state of the object. Good.
  • the risk level may be represented by a numerical value such as a risk level of 1 to 5, for example, or may be indicated by other expressions such as large, medium, and small. In this case, if the determination unit determines that the state of the object is at a risk level equal to or higher than a predetermined level, the change in the execution of the processing of the host vehicle is considered dangerous and the reception of the reception unit 14 is stopped.
  • the monitoring unit 11 monitors the state of the object using the output of the sensor (S30). Then, the determination unit determines the risk level of the object state based on the registered information in which the risk level is set in advance for each state of the target object (S32).
  • the higher the registration information the higher the state of the object that is likely to cause harm to the driver of the vehicle or the object when the execution of the process is canceled, such as “a pedestrian is walking on a pedestrian crossing” Risk level is set.
  • the registration information is higher as the state of the object is less likely to cause harm to the driver of the vehicle or the object even if the execution of the process is canceled, such as “Pedestrians may cross a pedestrian crossing”.
  • a low risk level is set.
  • the determination unit may determine whether the state of the object recognized by the monitoring unit 11 is “high risk”.
  • the type of the object, the state of the object, the vehicle position, etc. when the external server cancels “cancel execution of predetermined processing” from a plurality of vehicles may be received.
  • the external server estimates the conditions under which “cancellation of execution of predetermined processing” is canceled by statistical processing.
  • the external server updates the map data based on the estimated condition and distributes the estimated condition to the vehicle.
  • the receiving unit 14 does not accept the input of “cancellation of execution of the predetermined process (first process)”.
  • display of an area in which an input for canceling execution of a predetermined process due to the state of the target object may be controlled (highlight display, marker overlay display, color change, etc.).
  • the output unit and the input unit are the monitoring center, and the others are unmanned vehicles, respectively. Deploy. In this case, “input for changing the process due to the cause” is received from the input unit of the monitoring center.

Abstract

本発明では、車両に搭載されたセンサの出力に基づき、対象物の状態を判断する監視部(11)と、状態に応じた処理を車両に実行させるための処理情報を生成する生成部(12)と、処理の原因となった対象物及び状態のうち少なくとも一方を示す原因情報を出力装置に出力させる制御部(13)と、原因情報で示される原因に起因する処理を変更するための入力を受付ける受付部(14)と、を有し、生成部(12)は受付部(14)の受付け結果に基づき処理が変更された処理情報を生成する車載装置(10)を提供する。

Description

車載装置、制御方法及びプログラム
 本発明は、車載装置、制御方法及びプログラムに関する。
 特許文献1は、車両の走行を制御するための走行制御装置を開示している。当該走行制御装置は、運転手や乗員が自動走行制御に対して感じる違和感や不安を軽減するよう構成されている。具体的には、当該走行制御装置は、外界センサ等から受信した外界認識情報と、自車両の位置及び走行速度を含む情報である自車両情報とに基づき、自車両が取るべき運転行動内容を決定する手段と、当該運転行動内容を決定する理由になった運転行動要因を特定する手段と、運転行動内容及び運転行動要因を出力する手段とを有する。
特開2015-199439号公報
 特許文献1に記載の技術により、車両の運転手は、自動走行制御により制御された内容(運転行動内容)及び当該制御の原因(運転行動要因)を把握することができる。しかし、特許文献1は、把握した後の処理に関する開示がない。
 例えば、制御の原因に問題(誤検知等)が存在し、その内容の制御が不要な場合が存在し得る。また、コンピュータによる制御の内容と原因に問題はないが、コンピュータで認識できない何らかの理由により、その原因に基づくその制御が不要になる場合がある。例えば、前方の横断歩道付近で立っている複数の歩行者を検出(原因)したため、当該横断歩道の手前で自車両を減速・停止させたが(制御内容)、その歩行者達はそこで会話をしているだけで、横断の意思を有さない場合がある。この場合、その歩行者達と運転手との間のコミュニケーション等により、運転手はその状況を把握できる。しかし、コンピュータがその状況を把握するのは難しい。
 このような場合の処理の一例として、自動運転から手動運転に切り替える例が考えられる。しかし、このような状況が生じる都度、手動運転への切り替えを要求されると、運転手の負担が大きくなり、自動運転のメリットが薄れてしまう。また、車両が完全自動運転車であり、運転手が運転技能を有しない場合は、自動運転から手動運転への移行が出来ない。
 本発明の課題の一例は、自動走行制御時の運転手の負担を軽減することである。
 請求項1に記載の本発明は、
 車両に搭載されたセンサの出力に基づき、対象物の状態を監視する監視部と、
 前記状態に応じた処理を前記車両に実行させるための処理情報を生成する生成部と、
 前記処理の原因となった前記対象物及び前記状態のうち少なくとも一方を示す原因情報を出力装置に出力させる制御部と、
 前記原因情報で示される前記原因に起因する前記処理を変更するための入力を受付ける受付部と、
を有し、
 前記生成部は、前記受付部の受付け結果に基づき、前記処理が変更された処理情報を生成する車載装置である。
 請求項11に記載の発明は、
 コンピュータが、
 車両に搭載されたセンサの出力に基づき、対象物の状態を監視する監視工程と、
 前記状態に応じた処理を前記車両に実行させるための処理情報を生成する生成工程と、
 前記処理の原因となった前記対象物及び前記状態のうち少なくとも一方を示す原因情報を出力装置に出力させる制御工程と、
 前記原因情報で示される前記原因に起因する前記処理を変更するための入力を受付ける受付工程と、
を実行し、
 前記生成工程では、前記受付工程の受付け結果に基づき、前記処理が変更された処理情報を生成する制御方法である。
 請求項12に記載の発明は、
 コンピュータを、
 車両に搭載されたセンサの出力に基づき、対象物の状態を監視する監視手段、
 前記状態に応じた処理を前記車両に実行させるための処理情報を生成する生成手段、
 前記処理の原因となった前記対象物及び前記状態のうち少なくとも一方を示す原因情報を出力装置に出力させる制御手段、
 前記原因情報で示される前記原因に起因する前記処理を変更するための入力を受付ける受付手段、
として機能させ、
 前記生成手段は、前記受付手段の受付け結果に基づき、前記処理が変更された処理情報を生成するプログラムである。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
本実施形態の車窓装置の機能ブロック図の一例を示す図である。 本実施形態の車載装置のハードウエア構成の一例を示すブロック図である。 本実施形態の車載装置が処理するデータの一例を模式的に示す図である。 本実施形態の車載装置により出力される画像の一例を模式的に示す図である。 本実施形態の車載装置により出力される画像の一例を模式的に示す図である。 本実施形態の車載装置により出力される画像の一例を模式的に示す図である。 本実施形態の車載装置の処理の流れの一例を示すフローチャートである。 本実施形態の車載装置により出力される画像の一例を模式的に示す図である。 本実施形態の車載装置により出力される画像の一例を模式的に示す図である。 本実施形態の車載装置が処理するデータの一例を模式的に示す図である。 本実施形態の車載装置の処理の流れの一例を示すフローチャートである。 本実施形態の車載装置が処理するデータの一例を模式的に示す図である。 本実施形態の車載装置の処理の流れの一例を示すフローチャートである。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
 まず、本実施形態の概要を説明する。本実施形態の車載装置は、自車両に搭載されたセンサの出力に基づき、対象物(例:歩行者、前方車両等)の状態を監視する。そして、本実施形態の車載装置は、対象物の状態に応じた処理(例:減速、停止、後退、車線変更、加速、進路変更)を自車両に実行させる。
 また、本実施形態の車載装置は、処理の原因となった対象物及び状態のうち少なくとも一方を示す原因情報を出力装置に出力させる。さらに、本実施形態の車載装置は、当該原因情報で示される原因に起因する処理を変更する入力を受付ける。例えば、当該原因に起因する処理を解除する入力や、当該原因となった対象物やその状態の認識結果を変更する入力等を受付ける。そして、本実施形態の車載装置は、当該入力に従い自車両を制御する。
 本実施形態の概要の理解をより深めるため、一例を説明する。例えば、本実施形態の車載装置は、一または複数の歩行者が前方の横断歩道付近で立っていることを検出すると、それに応じて、当該横断歩道の手前で自車両を減速・停止させる。そして、本実施形態の車載装置は、実行中の「減速・停止」の原因として、「その歩行者達」、「その歩行者達が横断歩道付近で立っていること」、「歩行者が横断歩道付近で立っていること」等を通知する。当該通知により、運転手は、自車両が実行中の「減速・停止」の原因を把握できる。
 ここで、その後のその歩行者達と運転手との間のコミュニケーション等により、その歩行者達はそこで会話をしているだけで、横断の意思を有さないことを、運転手が把握したとする。
 この場合、運転手は、上記通知されている原因に起因する処理(減速・停止)を変更する入力を行うことができる。例えば、運転手は、上記原因に起因する上記処理を解除する入力や、原因に関連する認識結果(例:歩行者やその状態)を変更する入力等を行うことができる。すると、車載装置は、当該入力に応じた処理を実行する。例えば、上記原因に起因する上記処理(減速・停止)の解除や、認識結果の変更等により、上記処理(減速・停止)の原因がなくなった場合、上記処理(減速・停止)の実行を解除する。そして、車載装置は、解除後の状態に基づいて自車両を制御する。例えば、車載装置は自車両を発進又は加速させる。
 このように、本実施形態の車載装置によれば、上述のような状況下において、手動運転に切り替えさせることなく、所定の入力を行わせるのみで、自動走行制御による自車両の運行を継続することができる。結果、運転手の負担を軽減できる。
 次に、本実施形態の車載装置の構成を詳細に説明する。
 車載装置は、車両に搭載され、自車両を制御する装置である。車載装置は、例えば、ECU(Electronic Control Unit)である。なお、以下の説明で用いる「自車両」は、車載装置の制御対象の車両を意味する。
 図1に、本実施形態の車載装置10の機能ブロック図の一例を示す。図示するように、車載装置10は、監視部11と、生成部12と、制御部13と、受付部14と、出力部15とを有する。
 まず、これら機能部を実現する車載装置10のハードウエア構成の一例を説明する。各機能部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
 図2は、本実施形態の車載装置10のハードウエア構成を例示するブロック図である。図2に示すように、車載装置10は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。なお、周辺回路4Aを有さなくてもよい。
 バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPUやGPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、入力装置(例:キーボード、マウス、マイク等)、外部装置、外部サーバ、外部センサ等から情報を取得するためのインターフェイスや、出力装置(例:ディスプレイ、スピーカ、プリンター、メーラ等)、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
 次に、図1に示す各機能部の機能を詳細に説明する。
 監視部11は、自車両に搭載されたセンサの出力に基づき、対象物の状態を監視する。監視部11は、自車両の外部環境に関する情報を収集するセンサ、例えば、カメラ(例:自車両の外部を撮影するカメラ)、ライダー(レーザレーダ)、レーダ等からの出力を取得する。その他、監視部11は、道路上に設置されたサンサーにより収集された情報を路車間通信で取得してもよい。
 そして、監視部11は、センサの出力を解析し、対象物及び対象物の状態を認識する。例えば、監視部11は、予め保持している複数の対象物各々の外観の特徴量を利用して、カメラが撮影した画像内から対象物を抽出してもよい。対象物は、自車両の制御に影響する物体であり、例えば、歩行者、他の車両、前方車両、対向車両、自転車、落下物、信号機、道路標識、横断歩道、ランドマーク等が例示されるが、これらに限定されない。
 そして、監視部11は、抽出した対象物ごとに、その状態を認識する。例えば、予め対象物ごとに複数の状態が用意されており、監視部11は、抽出した対象物がいずれの状態にあるかを判断してもよい。対象物の状態は、対象物の周囲の状況や、対象物そのものの状況等に基づき判断できる。
 対象物が歩行者の場合の状態としては、例えば、「前方の横断歩道を横断予定」、「前方の横断歩道を横断中」、「前方の横断歩道を横断済」、「歩道を歩行中」、「その他」等が例示されるが、これらに限定されない。監視部11は、例えば歩行者の周囲の状況(例:横断歩道が存在するか否か)や、歩行者そのものの状況(例:横断歩道の方を向いているか否か、横断歩道の方に向かって移動しているか否か、どこを歩いているか等)等に基づき、歩行者の状態を判断できる。
 また、対象物が前方車両の場合の状態としては、例えば、「走行中」、「一時停車中」、「駐車中」、「減速中」、「その他」等が例示されるが、これらに限定されない。監視部11は、例えば対象車両の周囲の状況(例:前方の信号が赤、前方を歩行者が横断している)や、対象車両そのものの状況(例:停止しているか否か、ブレーキランプが点灯しているか否か、エンジンがかかっているか否か)等に基づき、対象車両の状態を判断できる。
 また、監視部11は、抽出した対象物ごとに、画像内の位置(フレーム内の位置)を特定することができる。さらに、監視部11は、抽出した対象物ごとに、自車両(ライダーやレーダの位置)を基準にした相対的な位置を、ライダーやレーダ等の出力に基づき特定することができる。
 監視部11は、上述のような処理の結果を登録することができる。図3及び図10に、登録される内容の一例を模式的に示す。図3に示す例では、抽出された対象物の種類と、その位置と、その状態と、解除入力有無とを互いに対応付けている。図10に示す例では、抽出された対象物の種類と、その位置と、その状態とを互いに対応付けている。
 対象物の欄には、抽出された複数の対象物各々の種類が記録される。例えば、歩行者、前方車両、自転車等が記録される。位置の欄には、抽出された複数の対象物各々の位置、例えば、カメラが撮影した画像内の位置や、ライダーやレーダ等で検出した自車両を基準にした相対的な位置等が記録される。状態の欄には、上記処理で認識した状態が記録される。例えば、前方の横断歩道を横断予定、前方の横断歩道を横断中等が記録される。解除入力有無の欄には、以下で説明する受付部14が解除入力を受付けたか否かを示す情報が記録される。
 ここで、監視部11が図3及び図10の登録情報を登録・更新する処理の一例を、図7のフローチャートを用いて説明する。なお、説明する処理はあくまで一例であり、これに限定されない。
 まず、監視部11は、カメラが撮影した動画像の中から、処理対象のフレームの画像(センサ情報)を取得する(S10)。
 そして、監視部11は、処理対象のフレームの画像(カメラが撮影した画像)に写る対象物を認識する(S11)。その後、監視部11は、認識した対象物各々がそれ以前のフレームの画像で認識した対象物(例:その時点で登録情報(例:図3、図10の情報)に登録されている対象物)と同一の対象物であるか否かを判断する。当該判断は従来のあらゆる技術を利用して実現できる。
 それ以前のフレームの画像で認識した対象物と同一の対象物でない場合、監視部11は、新たな識別情報(例:通番)を発行し、処理対象のフレームの画像内で認識したその対象物にその識別情報を対応づける。一方、それ以前のフレームの画像で認識した対象物と同一の対象物である場合、処理対象のフレームの画像内で認識したその対象物に、既に発行されているその対象物の識別情報を対応付ける。
 そして、監視部11は、処理対象のフレームの画像から抽出した対象物の識別情報と、その対象物の画像内の位置とを互いに対応付ける。
 また、監視部11は、処理対象のフレームの画像から抽出した対象物ごとに、各々の状態を判断する(S12)。そして、監視部11は、処理対象のフレームの画像内で認識した対象物の識別情報に、状態の認識結果を対応付ける。
 監視部11は、以上のようにして、処理対象のフレームの画像から得られた認識結果に基づき、登録情報(例:図3、図10の情報)を更新する(S13)。
 処理対象のフレームの画像内で認識した対象物がそれ以前のフレームの画像内で認識した対象物と同一の対象物でない場合、監視部11は、処理対象のフレームの画像内で認識した対象物の識別情報と、画像内の位置と、状態とを、登録情報(例:図3、図10の情報)に新たに登録する。
 一方、処理対象のフレームの画像内で認識した対象物がそれ以前のフレームの画像内で認識した対象物と同一の対象物である場合、監視部11は、処理対象のフレームの画像内で認識した対象物の識別情報と、画像内の位置と、状態の判断結果とに基づき、登録情報(例:図3、図10の情報)に登録されているその対象物の情報を更新する。
 また、監視部11は、所定条件を満たす情報を、登録情報(例:図3、図10の情報)から削除することができる。例えば、監視部11は、登録情報(例:図3、図10の情報)に登録されている対象物のうち、処理対象のフレームの画像内で認識した対象物と一致しなかったもの、すなわち、処理対象のフレームの画像内で認識されなかった対象物に関する情報を、登録情報(例:図3、図10の情報)から削除してもよい。
 監視部11は、例えば上述のような処理を繰り返す。
 なお、上記処理はあくまで一例であり、同様の結果を実現できればその他の処理を採用してもよい。例えば、S11の処理では、画像処理で広く知られている対象追跡機能を利用して、前のフレームの画像に写る対象物を処理対象のフレームの画像内で認識してもよい。また、予め登録されている対象物の外観の特徴量を利用して、前のフレームで抽出されていない新たな対象物を処理対象のフレームの画像内で認識してもよい。
 図1に戻り、制御部13は、自車両が所定の処理(例:減速、停止、後退、車線変更)を実行中に、当該処理の原因となった対象物及び状態のうち少なくとも一方を示す原因情報を、出力装置に出力させる。
 制御部13は、登録情報(例:図3、図10の情報)に基づき、処理の原因となった対象物及び状態を把握し、その内容を示す原因情報を出力することができる。例えば、図3に示す登録情報の場合、制御部13は、状態の欄において、自車両に所定の処理(例:減速、停止、後退、車線変更)を実行させる状態であることを示されており、かつ、解除入力有無の欄において、解除入力を受付けていないことを示されている対象物を特定する。そして、特定した対象物及びその対象物の状態を、処理の原因として把握する。一方、図10に示す登録情報の場合、制御部13は、状態の欄において、自車両に所定の処理(例:減速、停止、後退、車線変更)を実行させる状態であることを示されている対象物を特定する。そして、特定した対象物及びその対象物の状態を、処理の原因として把握する。
 なお、予め、対象物の複数の状態各々と、各々を検出した際に実行される処理とが互いに対応付けられていてもよい。制御部13は、例えば、このような対応情報に基づき、登録情報(例:図3、図10の情報)に登録されている情報の中から、各処理の原因となった対象物及び状態を把握してもよい。
 例えば、「(対象物)歩行者:(状態)前方の横断歩道を横断予定」、「(対象物)歩行者:(状態)前方の横断歩道を横断中」に対応して、「減速」、「停止」等の処理が定められていてもよい。
また、「(対象物)前方車両:(状態)一時停車中」に対応して、「減速」、「停止」、「車線変更」、「前方車両追従」等の処理が定められていてもよい。また、「(対象物)前方車両:(状態)駐車中」に対応して、「減速」、「停止」、「車線変更」、「後退」等の処理が定められていてもよい。また、「(対象物)運転を阻害する障害物:(状態)停止中」に対応して、「減速」、「停止」、「車線変更」、「後退」等の処理が定められていてもよい。
 出力装置の例としては、車両に設置されたディスプレイ装置、ヘッドアップディスプレイ装置、ヘッドマウントディスプレイ装置、投影装置、スマートフォン、タブレット、スピーカ等が例示されるが、これらに限定されない。車載装置10が、当該出力装置を有してもよい。その他、出力装置は、車載装置10と物理的及び/又は論理的に分かれて構成されてもよい。出力装置と車載装置10とが物理的及び/又は論理的に分かれて構成される場合、出力装置と車載装置10は有線及び/又は無線で互いに通信可能に構成される。
 図4に、制御部13による出力例を示す。図示する例では、制御部13は、カメラが撮影したリアルタイムな画像に、原因情報を重畳した画像を出力させている。図中、左の方に位置する2人の歩行者に対応付けて示されている「停止理由1」、「停止理由2」が、原因情報である。原因情報の画像内の表示位置は、2人の歩行者(対象物)の画像内の位置(図3参照)に基づき決定される。
 図4に示す画像によれば、運転手は、横断歩道付近に位置する2人の歩行者の存在のため、自車両が減速、停止したことを把握できる。
 図5に、制御部13による他の出力例を示す。図示する例では、制御部13は、カメラが撮影したリアルタイムな画像に、原因情報を重畳した画像を出力させている。図中、自車両の前方に位置する車両に対応付けて示されている「停止理由1」が、原因情報である。なお、前方車両は、道路の脇に寄せて停車している。原因情報の画像内の表示位置は、前方車両(対象物)の画像内の位置(図3、図10参照)に基づき決定される。
 図5に示す画像によれば、運転手は、自車両と同一レーンに位置し、停車している前方車両の存在のため、自車両が減速、停止したことを把握できる。
 他の出力例として、図6に示すように、制御部13は、「停止している前方車両を検出したため、減速、停止します」等のテキスト情報を、出力装置に出力させてもよい。スピーカで当該文章を出力してもよい。この場合、図8に示すように、テキスト情報と原因となった対象物とを関連付ける表示を行ってもよい。また、図示してないが、処理の原因が複数存在する場合、複数の原因各々に対応するテキスト情報を、出力装置に出力させてもよい。
 なお、制御部13は、原因に起因する処理を車両が実行する前に、上述のような情報を出力させてもよい。この場合、図9に示すように、「停止している前方車両を検出したため、○秒後に、減速、停止します」と、処理を予告するテキスト情報を出力させてもよい。このようにすれば、運転手等は心の準備を行うことができる。また、このような予告情報に基づき、当該原因に起因する処理を変更する入力を受付けることで、無駄な処理(例:停止、原則など)の実行を回避できる。この場合も、図8に示すように、テキスト情報と原因となった対象物とを関連付ける表示を行ってもよい。
 また、ヘッドアップディスプレイ装置を利用する場合、自車両のフロントガラスの所定位置に、上述のような原因情報を表示してもよい。すなわち、運転手からみて、フロントガラス越しに見える対象物(実物)各々に対応するフロントガラス上の位置(例:運転手の目の位置と対象物(実物)の位置とを結ぶ直線と、フロントガラスとの交点)に、各対象物に対応した原因情報を表示することができる。このような表示を実現する手段は、従来技術に基づき実現できる。
 図1に戻り、受付部14は、制御部13が出力する原因情報で示される原因に起因する処理を変更する入力を受付ける。例えば、当該原因に起因する処理を解除する入力や、当該原因となった対象物やその状態を変更する入力等を受付ける。受付部14は、タッチパネルディスプレイ装置、操作ボタン、カメラ、マイク、視線検出装置等のあらゆる入力装置を介して、上記入力を受付けることができる。
 例えば、図4乃至図6、図8及び図9に示すような画像が、タッチパネルディスプレイ装置を介して出力されてもよい。そして、受付部14は、当該タッチパネルディスプレイ装置を介して、例えば図4及び図5に示されている「停止理由1」、「停止理由2」等の文字や、当該文字に対応する対象物をタッチする入力を受付けてもよい。そして、受付部14は、当該入力を、タッチされた原因に起因する処理の実行を解除する入力として受付けてもよい。当該入力に応じて、例えば、図3に示す登録情報が更新される。すなわち、タッチされた原因(所定の対象物の所定の状態)に対応して、解除入力有無の欄に解除されたことが登録される。
 その他、「停止理由1」、「停止理由2」等の文字や、当該文字に対応する対象物をタッチする入力に応じて、制御部13は、「当該原因に起因する処理(減速、停止)の実行を解除しますか?Yes or NO」等の案内を出力装置に出力させてもよい。そして、受付部14は、当該案内に対する「Yes」の入力を、その原因に起因する処理の実行を解除する入力として受付けてもよい。当該入力に応じて、例えば、図3に示す登録情報が更新される。すなわち、タッチされた原因(所定の対象物の所定の状態)に対応して、解除入力有無の欄に解除されたことが登録される。
 その他、「停止理由1」、「停止理由2」等の文字や、当該文字に対応する対象物をタッチする入力に応じて、制御部13は、「認識結果を変更しますか?Yes or NO」等の案内を出力装置に出力させてもよい。そして、受付部14が「Yes」の入力を受付けると、制御部13は、認識結果を変更するための情報を出力装置に出力させてもよい。
 例えば、制御部13は、現時点の認識結果を出力させてもよい。認識結果には、対象物の認識結果及び状態の認識結果が含まれてもよい。具体的には、「横断予定の歩行者」、「横断中の歩行者」、「一時停車車両」等が例示されるが、これらに限定されない。
 また、制御部13は、変更後の認識結果の候補の一覧を出力させてもよい。例えば、現時点の認識結果が「横断予定の歩行者」、「横断中の歩行者」等の場合、「待機している歩行者」、「交通整理の人」等が、変更後の認識結果の候補の一覧として出力されてもよい。また、現時点の認識結果が「一時停車車両」の場合、「駐車車両」、「故障車両」等が、変更後の認識結果の候補の一覧として出力されてもよい。
 そして、受付部14は、出力されている候補の一覧の中から、変更後の認識結果を受付けてもよい。当該入力に応じて、例えば、図3や図10に示す登録情報が更新される。すなわち、タッチされた原因(所定の対象物の所定の状態)に対応して、対象物の欄の情報や、状態の欄の情報等が更新される。
 他の例として、制御部13は、現時点の認識結果を出力させるとともに、「いずれの認識結果を変更しますか?対象物 or 状態」等の案内を出力装置に出力させてもよい。そして、受付部14が「対象物」の入力を受付けると、変更後の対象物の候補の一覧を出力させてもよい。例えば、現時点の認識結果が「歩行者」の場合、「銅像」、「人形」、「交通整理の人」等が、変更後の対象物の候補の一覧として出力されてもよい。また、現時点の認識結果が「運転を阻害する障害物」の場合、「踏んでも大丈夫な障害物」等が、変更後の対象物の候補の一覧として出力されてもよい。一方、受付部14が「状態」の入力を受付けた場合、変更後の対象物の候補の一覧を出力させてもよい。例えば、現時点の認識結果が「横断予定」の場合、「待機中」等が、変更後の対象物の候補の一覧として出力されてもよい。
 そして、受付部14は、出力されている候補の一覧の中から、変更後の認識結果を受付けてもよい。当該入力に応じて、例えば、図3や図10に示す登録情報が更新される。すなわち、タッチされた原因(所定の対象物の所定の状態)に対応して、対象物の欄の情報や、状態の欄の情報等が更新される。
 また、図6に示されている画像の場合、受付部14は、タッチパネルディスプレイ装置を介して、「停止している前方車両を検出したため、減速、停止します」の案内、又は、それに対応するエリア(例:当該文字を囲む四角が表示されているエリア)をタッチする入力を受付けてもよい。そして、受付部14は、当該入力を、タッチされた原因に起因する処理の実行を解除する入力として受付けてもよい。その他、受付部14は、当該入力に応じて、「当該原因に起因する処理(減速、停止)の実行を解除しますか?Yes or NO」等の案内を出力装置に出力させてもよい。そして、当該案内に対する「Yes」の入力を、その原因に起因する処理の実行を解除する入力として受付けてもよい。その他、受付部14は、上記と同様にして、認識結果を変更する入力を受付けてもよい。
 その他、受付部14は、操作ボタン及び画像に表示されたカーソルを利用して画像上の所定エリアを選択する入力を受付けることで、上記タッチパネルディスプレイ装置を利用する例と同様の入力を受付けてもよい。
 その他、ヘッドアップディスプレイ装置を用いて原因情報をフロントガラスに表示している場合、受付部14は、カメラで運転手の所定の動作(例:フロントガラスに表示された原因情報をタッチする動作等)を検出することで、上記変更の入力を受付けてもよい。
 その他、タッチパネルディスプレイ装置に抽象化した地図を表示し、自車位置、検出した対象物(例:人、他車両等)のアイコンを配置して、停止理由を表現してもよい。そして、受付部14は、アイコンをタッチ等する操作により、上記と同様にして、その原因に起因した処理を変更する入力を受付けてもよい。
 その他、受付部14はマイクを用いて搭乗者の音声を取得し、取得した音声を解析することで所定の音声を検出し(すなわち、発言内容を特定し)、上記変更の入力を受付けてもよい。例えば、「減速解除」や「歩行者は横断の意図なし」などの音声を検出する。
 その他、受付部14は視線検出装置を用いて搭乗者の視線を検出することで、認識結果を変更する対象物を選択してもよい。この場合、視線の先の対象物が、認識結果を変更する対象物として選択されてもよい。尚、変更の選択は、別のデバイスを利用しても良いし、視線検出装置の瞬き検出結果などを用いてもよい。
 なお、制御部13は、図4乃至図6、図8及び図9に示すように、処理(例:減速、停止)の実行の原因となった1つ又は複数の原因情報を出力装置に出力させることができる。処理(例:減速、停止)の実行の原因が複数ある場合、すべての原因情報を出力装置に出力させることができる。
 そして、受付部14は、1つ又は複数の原因情報各々に対応して、各々に起因する処理(例:減速、停止)を変更する入力を受付けることができる。すなわち、受付部14は、個別に、複数の原因各々に起因する処理(例:減速、停止)を変更する入力を受付けることができる。
 図1に戻り、生成部12は、対象物の状態に応じた処理を自車両に実行させるための処理情報を生成する。また、生成部12は、受付部14の受付け結果に基づき、処理が変更された処理情報を生成することができる。出力部15は、車両を制御する車両制御装置に、生成部12が生成した処理情報を出力する。
 生成部12は、登録情報(例:図3、図10の情報)、及び、その他の各種情報に基づき、自車両の制御内容を決定する。そして、生成部12は、決定した内容で自車両を制御するための処理情報を生成する。当該処理情報に応じて、例えば、自車両の操舵、ブレーキ、アクセル等の要素が制御される。
 上記その他の各種情報は、自車両の位置を示す情報、地図情報、目的地に到達するまでの経路を示す経路情報、カメラ、ライダー及びレーダ等に基づき検出した自車両の外部及び周辺の状況を示す外界情報、及び、自車両に搭載された各種センサからのセンサ情報(例:速度等)等が例示されるが、これらに限定されない。
 例えば、生成部12は、登録情報(例:図3、図10の情報)において、自車両に所定の処理を実行させる状態の対象物が少なくとも1つ登録されている場合、その処理を自車両に実行させることを決定してもよい。
 「自車両に所定の処理を実行させる状態の対象物」は、例えば、図3の登録情報の状態の欄において、自車両に所定の処理(例:減速、停止、後退、車線変更)を実行させる状態であることを示されており、かつ、解除入力有無の欄において、解除入力を受付けていないことを示されている対象物である。その他、例えば、図10の登録情報の状態の欄において、自車両に所定の処理(例:減速、停止、後退、車線変更)を実行させる状態であることを示されている対象物である。
 上述の通り、予め、対象物の複数の状態各々と、各々を検出した際に実行される処理とが互いに対応付けられていてもよい。そして、生成部12は、例えば、このような対応情報に基づき、登録情報(例:図3、図10の情報)に登録されている情報の中から、所定の処理(例:減速、停止)を実行させる原因(対象物の状態)を特定してもよい。
 生成部12は、例えば、自車両に減速、停止を実行させる状態となっている対象物が少なくとも1つ登録されている場合、自車両に減速、停止させる処理情報を生成する。そして、受付部14による入力の受付けにより、自車両の減速、停止の原因がなくなると、生成部12は、自車両の減速、停止の実行を停止させる。これに応じて、例えば、生成部12は、自車両を発進させたり、加速させたりする処理情報を生成する。
 上述の通り、例えば、「(対象物)前方車両:(状態)一時停車中」に対応して「減速」、「停止」、「車線変更」、「前方車両追従」等の処理が定められるように、対象物と状態のペア1つに複数の処理が定められる場合がある。この場合、制御部13は、例えば、自車両の状態(例:走行中、停止中)や自車両の周囲の状態(例:変更する車線があるか否か、他の車線が車線変更可能な状態か否か)等に基づき、いずれの処理を実行するかを決定してもよい。
 なお、受付部14による入力の受付けがあった場合であっても、自車両の減速、停止のその他の原因(その他の対象物の所定の状態によるもの)が残っている場合、生成部12は、自車両の減速、停止の実行を継続させる。
 ここで、本実施形態の変形例を説明する。
 監視部11は、受付部14により対象物(第1の対象物)の状態に起因する所定の処理(第1の処理)の実行を解除する入力が受付けられた後、その後のセンサの出力を用いて当該対象物(第1の対象物)を監視し、当該対象物(第1の対象物)による所定の動作を検出してもよい。そして、監視部11は、当該所定の動作の検出に応じて、「所定の処理(第1の処理)の実行の解除」を解除する。例えば、監視部11は、当該検出に応じて、当該対象物(第1の対象物)に対応した登録情報(例:図3)の解除入力有無の欄の内容を、解除入力を受付けていないことを示す内容に変更する。
 また、監視部11は、受付部14により認識結果を変更する入力が受付けられた後、その後のセンサの出力を用いて当該対象物(第1の対象物)を監視し、当該対象物(第1の対象物)による所定の動作を検出してもよい。そして、監視部11は、当該所定の動作の検出に応じて、受付部14による受付けにより変更された後の認識結果を、監視部11が新たに認識した認識結果に変更してもよい。これに応じて、登録情報(例:図3、図10の情報)の内容(例:対象物の欄、状態の欄)が更新されてもよい。
 検出する所定の動作は、対象物ごと、又は、対象物の状態毎に予め定められていてもよい。例えば、対象物が歩行者である場合、移動を所定の動作としてもよい。また、対象物が車両である場合、発進、ウインカーの点灯、ハザードランプの消灯等を、所定の動作としてもよい。また、対象物が横断歩道付近に立っている歩行者である場合、当該横断歩道に向かう移動を所定の動作としてもよい。なお、ここでの例示はあくまで一例であり、これらに限定されない。
 生成部12は、更新後の登録情報(例:図3、図10の情報)に基づき、自車両を制御することができる。第1の対象物の状態に起因する第1の処理の実行を解除(第1の解除)した後、当該第1の解除を解除する上記例の場合、生成部12は、第1の解除の前は第1の対象物の状態を第1の処理の原因として処理し、第1の解除の後は第1の対象物の状態を第1の処理の原因として処理せず、第1の解除を解除した後は第1の対象物の状態を再び第1の処理の原因として処理することとなる。
 ここで、他の具体例を説明する。なお、当該具体例はあくまで一例であり、これらに限定されない。
<具体例1>
 例えば、細い路地を走行中、監視部11は、前方の駐車車両を検出したとする。そして、生成部12は、当該検出結果や自車両の周囲の状態(例:前方車両の幅、道幅、空いている幅等)等に基づき、後退して他の道を進むことを決定したとする(すなわち、前方車両を避けて前進するのは不可と判断)。かかる場合、制御部13は、その旨を示す情報を出力させる。すなわち、前方の駐車車両の存在のため、後退して他の道を進むことを示す情報を出力させる。
 ここで、自車両の運転手は、前方の駐車車両の運転手が戻ってきたことを確認し、もうすぐ前に進めると判断したとする。すると、自車両の運転手は、表示されている原因(前方の駐車車両)に起因する処理(後退)を変更するための入力を行う。例えば、前方車両の状態の認識結果を、「駐車中」から「一時停車中」に変更する入力等を行う。すると、生成部12は、変更後の内容に基づき自車両に実行させる処理を再決定する。例えば、認識結果を「駐車中」から「一時停車中」に変更したこと伴い、処理が「後退」から「前方車両追従」に変更されてもよい。
 <具体例2>
 例えば、走行中、監視部11は、前方の停止している運転を阻害する障害物を検出したとする。そして、生成部12は、当該検出結果や自車両の周囲の状態(例:変更する車線があるか否か、他の車線が車線変更可能な状態か否か)等に基づき、車線変更を決定したとする。かかる場合、制御部13は、車線変更前にその旨を示す情報を出力させる。すなわち、前方の運転を阻害する障害物の存在のため、これから○秒後に車線変更する予告を出力させる。
 ここで、自車両の運転手は、前方の運転を阻害すると判断された障害物は踏んでも大丈夫な障害物であると判断したとする。すると、自車両の運転手は、表示されている原因(前方の停止している運転を阻害する障害物)に起因する処理(車線変更)を変更するための入力を行う。例えば、「運転を阻害する障害物」の認識結果を「踏んでも大丈夫な障害物」に変更する入力等を行う。すると、生成部12は、変更後の内容に基づき自車両に実行させる処理を再決定する。例えば、対象物の認識結果を「運転を阻害する障害物」から「踏んでも大丈夫な障害物」に変更したことに伴い、「車線変更」が解除されてもよい。
 <具体例3>
 例えば、片道2車線以上の道路を走行中、監視部11は、低速走行中の前方車両を検出したとする。そして、生成部12は、当該検出結果や自車両の周囲の状態(例:変更する車線があるか否か、他の車線が車線変更可能な状態か否か)等に基づき、車線変更を決定したとする。かかる場合、制御部13は、車線変更前にその旨を示す情報を出力させる。すなわち、低速走行中の前方車両の存在のため、これから○秒後に車線変更する予告を出力させる。
 ここで、自車両の運転手は、渋滞中であるため、車線変更しても特に効果なしと判断したとする。すると、自車両の運転手は、表示されている原因(低速走行中の前方車両)に起因する処理(車線変更)を変更するための入力を行う。例えば、その原因に起因した車線変更を解除する入力等を行う。すると、生成部12は、入力された内容に基づき自車両に実行させる処理を再決定する。例えば、「車線変更」が中止され、「前方車両追従」等の他の処理が決定されてもよい。
 以上説明した本実施形態の車載装置10によれば、自車両が実行中の処理の原因を出力することで、運転手に処理の原因を通知することができる。そして、通知した原因に起因する処理を変更するための入力をユーザから受付け、受付けた内容に基づき自動走行制御を継続することができる。
 このような本実施形態の車載装置によれば、制御の原因に問題(誤検知等)が存在し、その内容の制御が不要な場合や、コンピュータによる制御の内容と原因に問題はないが、コンピュータで認識できない何らかの理由により、その原因に基づくその制御が不要になった場合等においても、手動運転に切り替えさせることなく、所定の入力を行わせるのみで、自動走行制御による自車両の運行を継続できる。結果、自動走行制御時の運転手の負担を軽減することができる。
 また、本実施形態の車載装置によれば、複数の制御原因が存在する場合、個別に、それらに基づく処理を変更する入力を受付けることができる。複数の原因各々に基づく処理の変更の入力をまとめて受付けることができる場合、複数の原因の中に埋もれている変更してはいけない原因を見落とす等の人為的ミスが発生し得る。結果、事故を引き起こす等の不都合が発生し得る。複数の制御原因が存在する場合、個別に、それらに基づく処理の変更の入力を受付けることができる本実施形態の場合、このような不都合を軽減できる。
 また、本実施形態の車載装置10によれば、変更の入力を受付けた後であっても、その原因に関連する対象物の監視を継続することができる。そして、その対象物が所定の動作を行った場合には、例えばユーザ入力に基づく解除(所定の原因に起因する所定の処理の実行の解除)を解除したり、コンピュータによる新たな認識結果に基づいた処理を行ったりできる。
 かかる場合、例えば、運転手と他者(例:歩行者、他の車両の運転手等)との間の伝達ミス等により、運転手が誤って所定の処理(例:減速、停止)の変更入力を行った場合であっても、対象物が所定の動作を行うことに応じて、解除された処理(例:減速、停止)を再び自車両に実行させることができる。結果、運転手の人為的ミスに起因する事故発生を抑制できる。すなわち、安全なシステムを実現できる。
 また、監視部11はセンサの出力を用いて対象物の状態を監視し、当該対象物の所定の動作を検出した場合、対象物の状態に起因する所定の処理の実行を解除する入力の受付を停止してもよい。図11を用いて、当該処理の流れを説明する。
 具体的には、監視部11はセンサの出力を用いて対象物の状態を監視する(S20)。そして、判断部が監視精度を判断する(S21)。なお、図1において判断部は不図示であるが、車載装置10は判断部を有してもよい。
 S21における監視精度は、例えば、対象物の状態が、「歩行者が横断歩道を歩行している」、「歩行者が横断歩道を確実に横断しない」、「前方に停車中の車両が発車しない(停車中の車の撮像画像からハザードやウインカー等を検出することで判断が可能)」等、対象物の状態が明確であり、自車両の取るべき処理の実行が明らかである場合であるほど監視精度は高くなる。予め、「監視精度が高いもの」に分類される対象物の状態が登録されていてもよい。そして、判断部は、当該登録内容に基づき、監視部11により認識された対象物の状態が「監視精度が高いもの」であるか否かを判断してもよい。
 監視精度が高ければ(S22のYes)、自車両の処理の実行は変更する必要がないものとし、受付部14の受付を停止する(S23)。監視精度が高いものでなければ(S22のNo)、自車両の処理の実行は変更可能とし、受付部14の受付を継続する(S24)。結果、確実に停車や減速を行わなければならない場面で、運転手の人為的ミスに起因する事故発生を抑制できる。また、確実に停車や減速を行う必要がない場面で、装置内の処理を軽減できる。
 また、上記の監視精度に替えて、対象物の状態ごとに予め危険度を設定した登録情報(図12参照)に基づき、対象物の状態の監視結果の危険度を判断部が判断してもよい。危険度は、例えば危険度1乃至5のように数値で表されてもよいし、大、中、小等のようにその他の表現で示されてもよい。この場合、判断部が対象物の状態が所定レベル以上の危険度であると判断した場合は、自車両の処理の実行の変更は危険であるものとし、受付部14の受付を停止する。
 ここで、図13のフローチャートを用いて、当該例における車載装置10の処理の流れの一例を説明する。監視部11はセンサの出力を用いて対象物の状態を監視する(S30)。そして、判断部が対象物の状態ごとに予め危険度を設定した登録情報に基づき、対象物の状態の危険度を判断する(S32)。
 例えば、「歩行者が横断歩道を歩行している」等、処理の実行を解除したときに自車両の運転者や対象物に危害が及ぶ可能性が高い対象物の状態ほど、登録情報において高い危険度を設定されている。そして、「歩行者が横断歩道を横断する可能性がある」等、処理の実行を解除しても自車両の運転者や対象物に危害が及ぶ可能性が低い対象物の状態ほど、登録情報において低い危険度を設定されている。判断部は、当該登録情報に基づき、監視部11により認識された対象物の状態が「危険度が高いもの」であるか否かを判断してもよい。
 対象物の状態の危険度が高ければ(S32のYes)、自車両の処理の実行の変更は危険であるものとし、受付部14の受付を停止する(S33)。対象物の状態の危険度が高いものでなければ(S32のNo)、自車両の処理の実行の変更は可能とし、受付部14の受付を継続する(S34)。結果、確実に停車や減速を行わなければならない場面で、運転手の人為的ミスに起因する事故発生を抑制できる。また、確実に停車や減速を行う必要がない場面で、装置内の処理を軽減できる。
 また、外部のサーバが複数の車両から「所定の処理の実行の解除」を解除したときの対象物の種別、対象物の状態、車両位置等を受信してもよい。この場合、外部のサーバは統計処理により「所定の処理の実行の解除」が解除される条件を推定する。外部のサーバは推定した条件に基づいた地図データの更新や、推定した条件の車両への配信を行う。条件が配信された車両の車載装置は、当該条件に合致する対象物を検知したときには、受付部14は、「所定の処理(第1の処理)の実行の解除」の入力を受付けなくする。
 また、対象物の状態に起因する所定の処理の実行を解除する入力が可能な領域の表示を制御(強調表示、マーカの重畳表示、色の変更等)してもよい。
 また、無人タクシーや無人バス等の無人車両と、当該無人車両野の走行を監視する監視センターと、から構成される場合において、出力部及び入力部は監視センターに、それ以外は無人車両にそれぞれ配置する。この場合、監視センターの入力部から「原因に起因する処理を変更するための入力を受付ける。
 以上、図面を参照して実施形態及び実施例について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
 この出願は、2016年9月30日に出願された日本出願特願2016-193932号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (12)

  1.  車両に搭載されたセンサの出力に基づき、対象物の状態を監視する監視部と、
     前記状態に応じた処理を前記車両に実行させるための処理情報を生成する生成部と、
     前記処理の原因となった前記対象物及び前記状態のうち少なくとも一方を示す原因情報を出力装置に出力させる制御部と、
     前記原因情報で示される前記原因に起因する前記処理を変更するための入力を受付ける受付部と、
    を有し、
     前記生成部は、前記受付部の受付け結果に基づき、前記処理が変更された処理情報を生成する車載装置。
  2.  請求項1に記載の車載装置は、
     前記車両を制御する車両制御装置に前記処理情報を出力する出力部を更に備える車載装置。
  3.  請求項1又は2に記載の車載装置において、
     前記制御部は、前記処理の原因となった1つ又は複数の前記原因情報を前記出力装置に出力させ、
     前記受付部は、1つ又は複数の前記原因情報各々に対応して、各々に起因する前記処理を変更する入力を受付ける車載装置。
  4.  請求項1から3のいずれか1項に記載の車載装置において、
     前記処理は、前記車両の移動の停止であり、
     前記制御部は、前記車両の停止の原因となった1つ又は複数の前記原因情報を前記出力装置に出力させ、
     前記受付部は、1つ又は複数の前記原因情報各々に対応して、各々に起因する前記車両の停止を解除する入力を受付ける車載装置。
  5.  請求項1から4のいずれか1項に記載の車載装置において、
     前記生成部は、
      前記受付部により第1の前記対象物の状態に起因する第1の前記処理を解除する入力が受付けられたことで前記第1の処理の原因がなくなると、前記第1の処理の実行を停止させるための処理情報を生成する車載装置。
  6.  請求項5に記載の車載装置において、
     前記生成部は、
      前記受付部により前記第1の対象物の前記第1の状態に起因する前記第1の処理を解除する入力が受付けられた後に、前記監視部により前記第1の対象物の所定の動作が検出されると、前記第1の処理を再び前記車両に実行させるための処理情報を生成する車載装置。
  7.  請求項1から4のいずれか1項に記載の車載装置において、
     前記生成部は、
      前記受付部により第1の前記対象物の状態に起因する第1の前記処理を解除する入力が受付けられた場合であっても、前記第1の処理の原因としてその他の前記対象物の状態が残っている場合、前記第1の処理を継続させる処理情報を生成する車載装置。
  8.  請求項7に記載の車載装置において、
     前記生成部は、
      前記受付部により前記第1の対象物の状態に起因する前記第1の処理を解除する入力が受付けられた後に、前記監視部により前記第1の対象物の所定の動作が検出されると、前記第1の対象物の状態を再び前記第1の処理の原因とする処理情報を生成する車載装置。
  9.  請求項1から8のいずれか1項に記載の車載装置において、
     前記受付部は、前記監視部により判断された前記対象物の状態を変更する入力を受付け、
     前記生成部は、前記対象物の状態の変更の入力に基づいて、前記処理が変更された処理情報を生成することを特徴とする車載装置。
  10.  請求項1に記載の車載装置において、
     前記監視部の監視精度を判断する判断部を更に備え、
     前記受付部は、前記監視精度が高い場合に前記処理を変更するための入力の受付けを停止することを特徴とする車載装置。
  11.  コンピュータが、
     車両に搭載されたセンサの出力に基づき、対象物の状態を判断する監視工程と、
     前記状態に応じた処理を前記車両に実行させるための処理情報を生成する生成工程と、
     前記処理の原因となった前記対象物及び前記状態のうち少なくとも一方を示す原因情報を出力装置に出力させる制御工程と、
     前記原因情報で示される前記原因に起因する前記処理を変更するための入力を受付ける受付工程と、
    を実行し、
     前記生成工程では、前記受付工程の受付け結果に基づき、前記処理が変更された処理情報を生成する制御方法。
  12.  コンピュータを、
     車両に搭載されたセンサの出力に基づき、対象物の状態を判断する監視手段、
     前記状態に応じた処理を前記車両に実行させるための処理情報を生成する生成手段、
     前記処理の原因となった前記対象物及び前記状態のうち少なくとも一方を示す原因情報を出力装置に出力させる制御手段、
     前記原因情報で示される前記原因に起因する前記処理を変更するための入力を受付ける受付手段、
    として機能させ、
     前記生成手段は、前記受付手段の受付け結果に基づき、前記処理が変更された処理情報を生成するプログラム。
PCT/JP2017/035455 2016-09-30 2017-09-29 車載装置、制御方法及びプログラム WO2018062477A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP17856426.6A EP3521124A4 (en) 2016-09-30 2017-09-29 VEHICLE MOUNTED DEVICE, CONTROL METHOD AND PROGRAM
US16/338,389 US20200027351A1 (en) 2016-09-30 2017-09-29 In-vehicle device, control method, and program
JP2018542920A JPWO2018062477A1 (ja) 2016-09-30 2017-09-29 車載装置、制御方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-193932 2016-09-30
JP2016193932 2016-09-30

Publications (1)

Publication Number Publication Date
WO2018062477A1 true WO2018062477A1 (ja) 2018-04-05

Family

ID=61759795

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/035455 WO2018062477A1 (ja) 2016-09-30 2017-09-29 車載装置、制御方法及びプログラム

Country Status (4)

Country Link
US (1) US20200027351A1 (ja)
EP (1) EP3521124A4 (ja)
JP (3) JPWO2018062477A1 (ja)
WO (1) WO2018062477A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021020518A (ja) * 2019-07-25 2021-02-18 株式会社デンソー 車両用表示制御装置および車両用表示制御方法
JP2021117916A (ja) * 2020-01-29 2021-08-10 トヨタ自動車株式会社 運転支援システム
JP2021117925A (ja) * 2020-01-29 2021-08-10 トヨタ自動車株式会社 運転支援システム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6552674B1 (ja) * 2018-04-27 2019-07-31 三菱電機株式会社 検査システム
JP2020052646A (ja) * 2018-09-26 2020-04-02 トヨタ自動車株式会社 車両制御装置
US10661795B1 (en) * 2018-12-20 2020-05-26 Verizon Patent And Licensing Inc. Collision detection platform
US11210946B2 (en) * 2019-07-15 2021-12-28 Verizon Patent And Licensing Inc. Content sharing between vehicles based on a peer-to-peer connection
US11412338B2 (en) 2019-12-06 2022-08-09 Duke Energy Corporation Methods of controlling a digital display based on sensor data, and related systems
WO2021132306A1 (ja) * 2019-12-24 2021-07-01 株式会社Jvcケンウッド 表示制御装置、表示装置、表示制御方法及びプログラム
US20210284191A1 (en) * 2020-03-11 2021-09-16 Cartica Ai Ltd Autonomous driving using local driving patterns
JP2023027669A (ja) * 2021-08-17 2023-03-02 株式会社デンソー 車両用制御装置及び車両用制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002104013A (ja) * 2000-10-03 2002-04-09 Mitsubishi Motors Corp ドライバ体調モニタ
WO2013008299A1 (ja) * 2011-07-11 2013-01-17 トヨタ自動車株式会社 車両の緊急退避装置
JP2016064773A (ja) * 2014-09-25 2016-04-28 株式会社デンソー 車載システム、車両制御装置、および車両制御装置用のプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4089674B2 (ja) * 2004-09-29 2008-05-28 株式会社デンソー 接触脱輪回避ナビゲーションシステム
DE102005047591A1 (de) * 2005-10-05 2007-04-12 Bayerische Motoren Werke Ag Verfahren zur Entlastung des Fahrers bei der Bedienung eines Kraftfahrzeugs
JP2009061795A (ja) * 2007-09-04 2009-03-26 Fujitsu Ten Ltd 駐車支援制御装置
US8374743B2 (en) * 2008-05-16 2013-02-12 GM Global Technology Operations LLC Method and apparatus for driver control of a limited-ability autonomous vehicle
DE102012002581A1 (de) * 2012-02-09 2013-08-29 Daimler Ag Unterstützen eines Fahrers eines Kraftfahrzeugs bei einer Routenführung und einem autonomen Fahrmanöver
DE102013110852A1 (de) * 2013-10-01 2015-04-16 Volkswagen Aktiengesellschaft Verfahren für ein Fahrerassistenzsystem eines Fahrzeugs
JP6537780B2 (ja) * 2014-04-09 2019-07-03 日立オートモティブシステムズ株式会社 走行制御装置、車載用表示装置、及び走行制御システム
WO2016031011A1 (ja) * 2014-08-28 2016-03-03 日産自動車株式会社 走行制御装置および走行制御方法
WO2016109829A1 (en) * 2014-12-31 2016-07-07 Robert Bosch Gmbh Autonomous maneuver notification for autonomous vehicles
CA2973816C (en) * 2015-01-13 2021-07-06 Nissan Motor Co., Ltd. Travel control device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002104013A (ja) * 2000-10-03 2002-04-09 Mitsubishi Motors Corp ドライバ体調モニタ
WO2013008299A1 (ja) * 2011-07-11 2013-01-17 トヨタ自動車株式会社 車両の緊急退避装置
JP2016064773A (ja) * 2014-09-25 2016-04-28 株式会社デンソー 車載システム、車両制御装置、および車両制御装置用のプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021020518A (ja) * 2019-07-25 2021-02-18 株式会社デンソー 車両用表示制御装置および車両用表示制御方法
JP7263962B2 (ja) 2019-07-25 2023-04-25 株式会社デンソー 車両用表示制御装置および車両用表示制御方法
JP2021117916A (ja) * 2020-01-29 2021-08-10 トヨタ自動車株式会社 運転支援システム
JP2021117925A (ja) * 2020-01-29 2021-08-10 トヨタ自動車株式会社 運転支援システム
JP7276181B2 (ja) 2020-01-29 2023-05-18 トヨタ自動車株式会社 運転支援システム
JP7279654B2 (ja) 2020-01-29 2023-05-23 トヨタ自動車株式会社 運転支援システム

Also Published As

Publication number Publication date
JP2023058521A (ja) 2023-04-25
JPWO2018062477A1 (ja) 2019-07-11
US20200027351A1 (en) 2020-01-23
EP3521124A4 (en) 2020-06-17
EP3521124A1 (en) 2019-08-07
JP2021020675A (ja) 2021-02-18

Similar Documents

Publication Publication Date Title
WO2018062477A1 (ja) 車載装置、制御方法及びプログラム
CN106064626B (zh) 车辆行驶控制装置
CN107848537B (zh) 自动驾驶辅助装置、自动驾驶辅助方法以及非暂时性的记录介质
CN110582439B (zh) 驾驶辅助方法以及利用了该驾驶辅助方法的驾驶辅助装置、驾驶辅助系统
US20180321673A1 (en) Driving support device, driving support system, and driving support method
EP3693942A1 (en) Determination device, determination method, and program for determination
WO2017056224A1 (ja) 情報提示装置及び情報提示方法
CN113954871A (zh) 对于自主车辆测试预测
JP6966489B2 (ja) 車両の制御システム、車両の制御方法、およびプログラム
US20210009117A1 (en) Driving assistance system, driving assistance device, and driving assistance method
JP6611085B2 (ja) 車両制御装置
JP6604577B2 (ja) 運転支援方法およびそれを利用した運転支援装置、運転支援システム、自動運転制御装置、車両、プログラム
JP2019077427A (ja) 車両制御装置、インタフェース装置、およびコンピュータ
US20190369636A1 (en) Control system, control method, and non-transitory storage medium
CN111532268B (zh) 车辆及其控制装置以及控制方法
JP5614079B2 (ja) 運転支援装置
JP2008070128A (ja) 走行履歴記録装置および走行履歴記録装置に用いるプログラム
JP2016224553A (ja) 車両用交通情報表示システム
JP2023101547A (ja) 車両制御装置
JP2023138849A (ja) 提示制御装置及び提示制御プログラム
JP2018165762A (ja) 表示制御方法およびそれを利用した表示制御装置、車両、プログラム、表示制御システム
JP2018144569A (ja) 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム
JP7147852B2 (ja) 車両の走行制御方法及び走行制御装置
JP7334768B2 (ja) 提示制御装置及び提示制御プログラム
US20240101135A1 (en) Vehicle-mounted apparatus, processing method, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17856426

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018542920

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017856426

Country of ref document: EP

Effective date: 20190430