WO2017072956A1 - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
WO2017072956A1
WO2017072956A1 PCT/JP2015/080750 JP2015080750W WO2017072956A1 WO 2017072956 A1 WO2017072956 A1 WO 2017072956A1 JP 2015080750 W JP2015080750 W JP 2015080750W WO 2017072956 A1 WO2017072956 A1 WO 2017072956A1
Authority
WO
WIPO (PCT)
Prior art keywords
target object
candidate
vehicle
unit
parking space
Prior art date
Application number
PCT/JP2015/080750
Other languages
English (en)
French (fr)
Inventor
裕樹 境
裕史 狩田
下谷 光生
井上 悟
佐藤 理朗
直志 宮原
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to DE112015007066.4T priority Critical patent/DE112015007066T5/de
Priority to US15/754,852 priority patent/US10618528B2/en
Priority to JP2017547318A priority patent/JP6456516B2/ja
Priority to PCT/JP2015/080750 priority patent/WO2017072956A1/ja
Priority to CN201580084135.3A priority patent/CN108349503B/zh
Publication of WO2017072956A1 publication Critical patent/WO2017072956A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/29
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • B60K2360/149
    • B60K2360/199
    • B60K2360/21
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space

Definitions

  • the present invention relates to a driving support device that supports driving of a vehicle capable of automatic driving.
  • driving support devices that realize comfortable parking by providing functions that support driving operations during driving, such as automatic braking according to obstacle detection, have been developed.
  • driving assistance device As a substitute for all or part of the driving operation performed by the driver in anticipation of fully automatic driving.
  • Patent Document 1 discloses a technique for selecting a parking mode based on a steering angle of a steering wheel when a driver selects one parking mode from a plurality of parking modes in automatic driving.
  • Patent Document 2 discloses a driving support technology that detects a driver's line of sight and assists steering angle control in a direction intended by the driver.
  • Patent Document 1 has a problem that if the steering wheel is turned too much, it is necessary to return the steering angle of the steering wheel, which is troublesome for the driver.
  • Patent Document 2 it is possible to indicate a desired traveling direction with a line of sight, but it cannot be used for a method of selecting and determining a desired parking space after comparing a plurality of parking spaces. There was a problem.
  • patent document 1 and patent document 2 for an automatic tracking function, the same problem as the automatic parking function has arisen.
  • an object of the present invention is to provide a technique that allows a driver to intuitively select and determine a target object to which a vehicle should go. .
  • a driving support device is a driving support device that supports driving of a vehicle capable of automatic driving, and is a candidate for a target object to which the vehicle should go, which is detected based on peripheral information about the vehicle periphery.
  • a candidate acquisition unit for acquiring a target object candidate; an output control unit for displaying a set range set for each of a plurality of target object candidates acquired by the candidate acquisition unit on a head-up display mounted on the vehicle;
  • the candidate selection unit that selects the one target object candidate, and the candidate selection unit selects the target object candidate after the target object candidate is selected by the candidate selection unit and then operated by the driver.
  • the target object candidate and a target object determining unit that determines as a target object.
  • the target object determining unit outputs the determined target object to an
  • the present invention determines, based on line-of-sight information relating to the driver's line of sight of the vehicle, that the driver's line-of-sight position is included in one target object candidate setting range among a plurality of target object candidate setting ranges. If the candidate selection unit that selects the one target object candidate and the target selection candidate is selected by the candidate selection unit and then the decision button that can be operated by the driver is operated, candidate selection is performed.
  • a target object determination unit that determines a target object candidate selected by the unit as a target object. As a result, the driver can intuitively select and determine the target object to which the vehicle should go from among the target object candidates.
  • FIG. 1 is a block diagram illustrating a configuration of a driving support device according to Embodiment 1.
  • FIG. FIG. 6 is a block diagram illustrating a configuration of a driving support device according to a second embodiment.
  • 10 is a flowchart showing an operation of a peripheral recognition unit according to the second embodiment. It is a flowchart which shows operation
  • FIG. 6 is a flowchart illustrating an operation of a storage unit according to the second embodiment.
  • 10 is a diagram illustrating a display example of a head-up display according to Embodiment 2.
  • FIG. 6 is a flowchart illustrating an operation of an output control unit according to the second embodiment.
  • 10 is a flowchart showing an operation of a candidate selection unit according to the second embodiment.
  • 10 is a flowchart illustrating an operation of a target object determining unit according to Embodiment 2.
  • 6 is a flowchart illustrating an operation of an automatic driving determination unit according to the second embodiment.
  • 6 is a flowchart illustrating an operation of an automatic operation control unit according to the second embodiment. It is a block diagram which shows the structure of the driving assistance device which concerns on a modification.
  • FIG. 6 is a block diagram illustrating a configuration of a driving support apparatus according to a third embodiment.
  • 10 is a diagram illustrating a display example of a head-up display according to Embodiment 3.
  • FIG. 10 is a diagram illustrating a display example of a head-up display according to Embodiment 3.
  • FIG. 10 is a diagram illustrating a display example of a head-up display according to Embodiment 3.
  • FIG. 10 is a flowchart illustrating an operation of an output control unit according to the third embodiment.
  • FIG. 10 is a block diagram illustrating a configuration of a driving support device according to a fourth embodiment. 14 is a flowchart showing an operation of a candidate selection unit according to the fourth embodiment.
  • 10 is a flowchart showing the operation of a target object determining unit according to Embodiment 4.
  • FIG. 10 is a block diagram illustrating a configuration of a driving support apparatus according to a fifth embodiment.
  • FIG. 10 is a flowchart showing an operation of a passenger determination acquisition unit according to the fifth embodiment.
  • 10 is a diagram showing a display example of a head-up display according to Embodiment 5.
  • FIG. 10 is a flowchart illustrating an operation of a target object determining unit according to Embodiment 5.
  • FIG. 10 is a block diagram illustrating a configuration of a driving support apparatus according to a sixth embodiment.
  • FIG. 10 is a block diagram illustrating a configuration of a driving support device according to a seventh embodiment.
  • FIG. 10 is a block diagram illustrating a configuration of a driving support apparatus according to an eighth embodiment.
  • FIG. 20 is a diagram illustrating a display example of a head-up display according to an eighth embodiment. It is a block diagram which shows an example of the hardware constitutions of a driving assistance device. It is a block diagram which shows an example of the hardware constitutions of a driving assistance device.
  • the driving support apparatus according to Embodiment 1 of the present invention is an apparatus that supports driving of a vehicle capable of automatic driving.
  • FIG. 1 is a block diagram showing the configuration of the driving support apparatus according to Embodiment 1 of the present invention.
  • own vehicle a vehicle that is capable of automatic driving and that is driven by the driving support device 1 will be described as “own vehicle”.
  • the driving support apparatus 1 in FIG. 1 includes sensing data from a vehicle-mounted sensor (peripheral information related to the periphery of the host vehicle), line-of-sight information from the line-of-sight detection device (line-of-sight information related to the driver's line of sight of the host vehicle), and operation of a decision button Based on the information, the head-up display is controlled, the target object to which the host vehicle is to go is determined, and the determination result is output to a vehicle control ECU (Electronic Control Unit).
  • the driving support device 1 displays the target object candidate, which is a candidate for the target object to which the host vehicle should be directed, on the head-up display so that the target object can be identified, and the host vehicle is directed to the determined target object. It is possible to control the automatic driving of the host vehicle.
  • the target object will be described as a parking space in which the host vehicle is to be parked or another vehicle that the host vehicle is to follow in the following embodiment, but is not limited thereto.
  • the in-vehicle sensor the head-up display, the line-of-sight detection device, the determination button, the automatic driving control unit, and the vehicle control ECU will be briefly described. These are mounted on the host vehicle.
  • in-vehicle sensors examples include “Yuji Fukaya,“ Technological Trends of Automotive Sensors ”, Denso Technical Review, 2006, Vol. 1, p.
  • the various sensors described in Table 2 of “92-99” are applied.
  • the sensing data output from the vehicle-mounted sensor to the driving support device 1 at any time includes, for example, the position and moving direction of the host vehicle, an image of the scenery around the host vehicle, the position of obstacles around the host vehicle, and the like.
  • the head-up display displays various information such as images on the windshield (windshield) of the host vehicle, and displays various information superimposed on the actual scenery for the passenger (driver and passenger). As a result, the driver can view various information while viewing the actual scenery, and thus can drive the host vehicle comfortably.
  • a gaze detection sensor (camera) of Patent Document 2 is applied to the gaze detection device.
  • the line-of-sight information output as needed from the line-of-sight detection device to the driving support device 1 includes, for example, the line-of-sight position of the driver of the host vehicle and whether or not the line-of-sight position is detected.
  • the decision button is assumed to be a push button (hard key), for example, and is disposed at a location where the driver can easily operate (for example, a location around the steering wheel).
  • the automatic driving control unit outputs the control signal to the vehicle control ECU, thereby automatically driving the host vehicle so that the host vehicle is directed to the target object determined by the driving support device 1 (target object determining unit 14). Control is possible.
  • the automatic driving includes a fully automatic driving in which the vehicle performs all driving operations, a semi-automatic driving in which the driver performs some driving operations such as an accelerator and a brake, and limited conditions. This includes at least one of semi-automatic driving in which the vehicle performs all driving operations under the vehicle (for example, the host vehicle is traveling on a highway).
  • the vehicle control ECU can control, for example, at least one of an accelerator, a brake, and a steering wheel of the host vehicle based on a control signal from the automatic driving control unit.
  • the driving support device 1 in FIG. 1 includes a candidate acquisition unit 11, an output control unit 12, a candidate selection unit 13, and a target object determination unit 14. Next, each component of the driving assistance apparatus 1 of FIG. 1 is demonstrated in detail.
  • the candidate acquisition unit 11 acquires a target object candidate that is a target object candidate detected based on sensing data from the in-vehicle sensor. Thereby, for example, the position and range of the target object candidate are acquired.
  • the candidate acquisition unit 11 may acquire the target object candidate detected by the external device based on the sensing data from the external device, or the candidate acquisition unit 11 may acquire the target object candidate based on the sensing data. May be detected (acquired).
  • a setting range is set for the target object candidates acquired by the candidate acquisition unit 11.
  • the range of the target object candidate acquired by the candidate acquisition unit 11 may be set, or a range that is larger or smaller than the range may be set.
  • candidate acquisition part 11 explains as what sets a setting range to each of a plurality of target object candidates, it is not restricted to this.
  • the output control unit 12 causes the head-up display to display the setting range set for each of the plurality of target object candidates acquired by the candidate acquisition unit 11.
  • One target object candidate is selected.
  • the target object determination unit 14 selects the target object candidate selected by the candidate selection unit 13 when the determination button operable by the driver is operated after the candidate selection unit 13 selects the target target candidate. Is determined (determined) as a target object. Then, the target object determination unit 14 outputs the determined target object to the automatic operation control unit.
  • the driver's line-of-sight position is included in the setting range of one target object candidate among the setting ranges of the plurality of target object candidates.
  • the one target object candidate is selected, and when the determination button is operated thereafter, the selected target object candidate is determined as the target object to which the host vehicle should go.
  • the driver can intuitively select and determine the target object from the target object candidates.
  • FIG. 2 is a block diagram showing a configuration of the driving support apparatus according to Embodiment 2 of the present invention.
  • the same or similar components as those in the first embodiment are denoted by the same reference numerals, and different components will be mainly described.
  • the driving support device 1 can control the automatic driving of the host vehicle so that the host vehicle goes to the parking space (the target object to which the host vehicle should head) where the host vehicle should park. It has become. That is, a parking space where the host vehicle is to be parked is applied to the target object.
  • the candidate acquisition part 11 demonstrated in Embodiment 1 is provided with the periphery recognition part 11a and the parking space candidate detection part 11b.
  • each component of the driving assistance apparatus 1 of FIG. 2 is demonstrated in detail.
  • the periphery recognition unit 11a in FIG. 2 generates a periphery map based on sensing data (peripheral information related to the periphery of the vehicle) acquired from the in-vehicle sensor.
  • the surrounding map is a map obtained by modeling various shapes around the host vehicle in a three-dimensional space.
  • the peripheral recognition unit 11a detects white line information detected from a captured image of a front camera (a type of on-vehicle sensor) and information on obstacles such as other vehicles, and the self-measured by a sonar sensor (a type of on-vehicle sensor).
  • a peripheral map that models the white line and the shape of the obstacle in the traveling direction of the host vehicle is generated by combining the distance between the vehicle and the obstacle.
  • the various shapes in the peripheral map may be determined and configured by point groups, but may be determined and configured in units of objects such as walls, white lines, or various moving objects (for example, forward vehicles, pedestrians).
  • the surrounding recognition unit 11a may generate a surrounding map by combining high-accuracy map data, a dynamic map, and the like with sensing data from an in-vehicle sensor.
  • the periphery recognition unit 11a is configured to acquire map data including parking space information in the parking lot, or to acquire the usage status of each parking space in real time via the network.
  • the parking space information in the parking lot and the usage status of each parking space may be included in the surrounding map.
  • FIG. 3 is a flowchart showing the operation of the peripheral recognition unit 11a according to the second embodiment.
  • step S1 the surrounding recognition unit 11a acquires sensing data from the in-vehicle sensor.
  • step S2 the surrounding recognition unit 11a generates a surrounding map based on the acquired sensing data.
  • step S3 the surrounding recognition unit 11a outputs the generated surrounding map to the automatic driving determination unit 17 and the parking space candidate detection unit 11b. Thereafter, the operation of FIG. 3 ends. Note that the operation illustrated in FIG. 3 and the operation described with reference to the flowcharts in FIG. 3 and thereafter are repeatedly performed in real time, for example.
  • the parking space candidate detection unit 11b in FIG. 2 detects (detects) a parking space in which the host vehicle can be parked as a parking space candidate based on the surrounding map generated by the surrounding recognition unit 11a.
  • the parking space candidate is a candidate for the parking space to which the host vehicle should go, and detection of the parking space candidate includes detection of the position and range of the parking space candidate.
  • the candidate acquisition unit 11 acquires a target object candidate such as a parking space candidate and the parking space candidate detection unit 11b detects a target object candidate such as a parking space candidate. is there.
  • the parking space candidate detection unit 11b generates white line information and information on the arrangement interval of other vehicles based on the surrounding map, and detects parking space candidates based on the information.
  • the parking space candidate detection unit 11b may detect the parking space candidates in consideration of these.
  • the parking space candidate detection part 11b sets a setting range to the detected parking space candidate.
  • FIG. 4 is a flowchart showing the operation of the parking space candidate detection unit 11b according to the second embodiment.
  • step S11 the parking space candidate detection unit 11b acquires a surrounding map from the surrounding recognition unit 11a.
  • step S12 the parking space candidate detection unit 11b detects a parking space candidate based on the acquired peripheral map.
  • step S ⁇ b> 13 the parking space candidate detection unit 11 b sets a setting range for the detected parking space candidate and outputs the set range to the storage unit 16 and the output control unit 12. Thereafter, the operation of FIG. 4 ends.
  • the storage unit 16 of FIG. 2 stores the parking space candidate setting range detected by the parking space candidate detection unit 11b and the parking space determined by the target object determination unit 14.
  • FIG. 5 is a flowchart showing the operation of the storage unit 16 according to the second embodiment.
  • step S21 the storage unit 16 proceeds to step S22 when the setting range of the parking space candidate is received from the parking space candidate detection unit 11b, and proceeds to step S23 otherwise.
  • step S ⁇ b> 22 storage unit 16 stores the accepted parking space candidate setting range.
  • storage part 16 may be updated suitably by the parking space candidate detection part 11b.
  • step S23 the storage unit 16 proceeds to step S24 when the parking space determined by the target object determination unit 14 is received, and ends the operation of FIG. 5 otherwise.
  • step S24 the storage unit 16 stores the received parking space (the parking space determined by the target object determining unit 14). Thereafter, the operation of FIG.
  • FIG. 6 is a diagram illustrating a display example of the head-up display according to the second embodiment.
  • the output control unit 12 causes the head-up display to display the set ranges of the plurality of parking space candidates detected by the parking space candidate detection unit 11b.
  • two parking space candidate setting ranges 31 are displayed in a identifiable manner by broken lines.
  • the output control unit 12 displays the driver's line-of-sight position on the head-up display based on the line-of-sight information acquired from the line-of-sight detection device.
  • the driver's line-of-sight position 32 is displayed so as to be identifiable by a mark with + in a circle.
  • FIG. 7 is a flowchart showing the operation of the output control unit 12 according to the second embodiment.
  • step S31 the output control unit 12 acquires the setting range of the latest parking space candidate from the parking space candidate detection unit 11b.
  • the output control unit 12 acquires line-of-sight information from the line-of-sight detection device.
  • step S ⁇ b> 33 the output control unit 12 acquires a previous setting range of parking space candidates from the storage unit 16 more recently.
  • step S34 the output control unit 12 performs control to display the setting range of the parking space candidate acquired in steps S31 and S33 on the head-up display.
  • the setting range of the parking space candidate is displayed in association with the parking space in the actual scenery in an identifiable state.
  • this display control is not performed when the setting range of a parking space candidate is not acquired by step S31 and S33.
  • step S35 the output control unit 12 performs control to display the driver's line-of-sight position on the head-up display based on the line-of-sight information acquired in step S32.
  • the driver's line-of-sight position is displayed in an identifiable state so as to be superimposed on the actual scenery. Note that this display control is not performed when the line-of-sight information is not acquired in step S32, or when the driver's line of sight is directed into the vehicle. Thereafter, the operation of FIG.
  • the candidate selection unit 13 in FIG. 2 is based on the line-of-sight information acquired from the line-of-sight detection device, and the driver's line-of-sight position is one of the parking space candidates in the set range of a plurality of parking space candidates (target object candidates). When it is determined that it is included in the set range, the one parking space candidate is selected.
  • FIG. 8 is a flowchart showing the operation of the candidate selection unit 13 according to the second embodiment.
  • step S41 the candidate selection unit 13 acquires line-of-sight information from the line-of-sight detection device.
  • step S ⁇ b> 42 the candidate selection unit 13 acquires a setting range of parking space candidates from the storage unit 16.
  • step S43 the candidate selection unit 13 determines whether the driver's line-of-sight position based on the acquired line-of-sight information is included in any of the acquired setting ranges of the plurality of parking space candidates. If it is determined that it falls within the set range, the process proceeds to step S44, and if not, the operation in FIG. 8 ends.
  • step S44 the candidate selection unit 13 selects the determined parking space candidate, and outputs the selected parking space candidate to the target object determination unit 14. Thereafter, the operation of FIG.
  • ⁇ Target object determination unit 14 The target object determination unit 14 in FIG. 2 selects the parking space candidate selected by the candidate selection unit 13 when the host vehicle selects the parking space candidate after the candidate selection unit 13 selects the parking space candidate. Determined (fixed) as a parking space to head. Then, the target object determination unit 14 outputs the determined target object to the automatic driving determination unit 17 (substantially the automatic driving control unit 15) or the like.
  • FIG. 9 is a flowchart showing the operation of the target object determining unit 14 according to the second embodiment.
  • step S51 the target object determination unit 14 determines whether the parking space candidate selected by the candidate selection unit 13 has been received. When it determines with having received, it progresses to step S52, and when that is not right, operation
  • step S52 it is driven whether the output control part 12 determines the said parking space candidate by outputting the parking space candidate selected by the candidate selection part 13 to the output control part 12.
  • a display for the person to confirm may be displayed on the head-up display.
  • step S52 the target object determination unit 14 determines whether or not the determination button has been operated. If it is determined that it has been operated, the process proceeds to step S53, and if not, the operation in FIG. 9 ends.
  • step S53 the target object determining unit 14 determines the parking space candidate received in step S51 as a parking space (target object) to which the host vehicle should go, and the determined parking space is stored in the storage unit 16 and automatically. It outputs to the driving judgment part 17. Thereafter, the operation of FIG. 9 ends.
  • the automatic driving determination unit 17 in FIG. 2 causes the host vehicle to go to the parking space or the like based on the surrounding map generated by the surrounding recognition unit 11a.
  • the movement route information is generated.
  • the moving route information includes trajectory information indicating a route to be moved from the current position when the host vehicle goes to a parking space, etc., and a target speed, a target acceleration, and a target snake angle during the movement are arranged in time series. Information.
  • FIG. 10 is a flowchart showing the operation of the automatic driving determination unit 17 according to the second embodiment.
  • step S61 the automatic driving determination unit 17 acquires a surrounding map from the surrounding recognition unit 11a.
  • step S62 it is determined whether the parking space determined by the target object determining unit 14 has been received. When it determines with having received, it progresses to step S63, and when that is not right, it progresses to step S64.
  • step S63 the automatic driving determination unit 17 generates movement route information for heading to the parking space based on the acquired surrounding map and the received parking space. Thereafter, the process proceeds to step S65.
  • step S64 the automatic driving determination unit 17 generates movement route information for continuing the course based on the acquired peripheral map. Thereafter, the process proceeds to step S65.
  • step S65 the automatic driving determination unit 17 outputs the generated movement route information to the automatic driving control unit 15. Thereafter, the operation of FIG.
  • the automatic operation control unit 15 in FIG. 2 outputs the control signal to the vehicle control ECU so that the own vehicle automatically moves so that the own vehicle goes to the parking space (target object) determined by the target object determination unit 14. Control driving.
  • FIG. 11 is a flowchart showing the operation of the automatic operation control unit 15 according to the second embodiment.
  • step S71 the automatic driving control unit 15 acquires the movement route information from the automatic driving determining unit 17.
  • step S72 the automatic driving control unit 15 generates a control signal to be output to the vehicle control ECU based on the acquired travel route information.
  • step S73 the automatic driving control unit 15 outputs the generated control signal to the vehicle control ECU. Thereafter, the operation of FIG. 11 ends.
  • the driver can intuitively select and determine the parking space to which the host vehicle should go from among the parking space candidates.
  • operation of the own vehicle is a fully automatic driving
  • the driver's line-of-sight position 32 is displayed on the head-up display so as to be identifiable (FIG. 6). Therefore, the driver can easily adjust his / her line-of-sight position 32 to the setting range 31 of the candidate parking space to be selected.
  • FIG. 12 is a block diagram illustrating a configuration of the driving support apparatus according to the present modification.
  • the same or similar components as those in the second embodiment are denoted by the same reference numerals, and different components are mainly described.
  • the driver's line-of-sight position (for example, the line-of-sight position in the surrounding map) based on the line-of-sight information is stored in the storage unit 16.
  • the storage unit 16 stores the driver's line-of-sight position based on the line-of-sight information.
  • the output control unit 12 may cause the head-up display to display a display indicating that the parking space corresponding to the line-of-sight position has not been detected.
  • the target object determination unit 14 A parking space candidate is determined as a parking space to which the host vehicle should head.
  • the candidate selection unit 13 may determine whether or not the line-of-sight position stored in the storage unit 16 is included in the parking space candidate setting range.
  • FIG. 13 is a block diagram showing a configuration of the driving support apparatus according to Embodiment 3 of the present invention.
  • the same or similar components as those in the second embodiment are denoted by the same reference numerals, and different components will be mainly described.
  • the driving support apparatus 1 (output control unit 12) according to the third embodiment can control the output device.
  • the output device includes a plurality of audio output devices (for example, a plurality of speakers) mounted on the host vehicle.
  • the output control part 12 changes the display mode of the setting range of the parking space candidate displayed by a head-up display based on the timing which the parking space candidate detection part 11b detected the parking space candidate.
  • FIG. 14 shows a display example of the head-up display before the parking space candidate detection unit 11b newly detects the parking space candidate setting range 31a.
  • FIG. 15 shows a state after the parking space candidate setting range 31a is newly detected. The example of a head-up display is shown.
  • the output control part 12 sets the setting range 31a of the parking space candidate detected nearest by the parking space candidate detection part 11b, and the setting of the parking space candidate detected before the latest. You may make it highlight by the display mode (For example, addition of a display color, a mark or an icon, an animation, etc.) different from the range 31b. As a result, the driver's attention can be directed to the most recently detected parking space candidate.
  • the output control unit 12 has one of the parking space candidates among the setting ranges of the plurality of parking space candidates detected by the parking space candidate detection unit 11 b.
  • the setting range 31c of one parking space candidate and the setting range 31d of other parking space candidates are displayed on the head-up display so as to be distinguishable. That is, the setting range of one parking space candidate selected by the candidate selection unit 13 and the setting range of other parking space candidates are displayed so as to be distinguishable.
  • one parking space candidate setting range 31c is different from the other parking space candidate setting range 31d (for example, display color, addition of mark or icon, animation, etc.) It is assumed that the highlighting is performed.
  • the determination as to whether or not the driver's line-of-sight position 32 is included in the setting range of one parking space candidate is performed by the output control unit 12, It may be done.
  • the output control unit 12 sets the parking space candidate setting range before being determined by the target object determining unit 14 and the parking space setting range determined by the target object determining unit 14. May be displayed in an identifiable manner. Similarly, the output control unit 12 may display the setting range of the parking space candidate recommended by the driving support device 1 and the setting range of other parking space candidates so as to be distinguishable.
  • the output control unit 12 causes the sound output device to output a notification sound (makes a sound output) when changing the display mode of the parking space candidate displayed by the head-up display.
  • the output control unit 12 controls the audio output of a plurality of audio output devices mounted on the host vehicle based on the position of the parking space candidate most recently detected by the parking space candidate detection unit 11b. For example, when the parking space candidate detection unit 11b detects the parking space candidate most recently, the output control unit 12 sends the parking space candidate to the audio output device in the direction of the parking space candidate among the plurality of audio output devices.
  • a notification sound is output with a size corresponding to the distance to the candidate (sound output). The sound at that time may use a tone different from other notification sounds such as obstacle detection. As a result, the driver's attention can be directed to the most recently detected parking space candidate.
  • FIG. 17 is a flowchart showing the operation of the output control unit 12 according to the third embodiment. Of the steps in FIG. 17, steps similar to those in FIG. 7 are denoted by the same reference numerals, and description thereof is omitted as appropriate.
  • step S81 the output control unit 12 determines the parking space to be displayed according to the state of the parking space candidate (the state in which the setting range includes the line-of-sight position or the parking space candidate has been detected most recently). The display mode of the candidate setting range is determined.
  • step S82 the output control unit 12 determines whether the display mode of the parking space candidate displayed by the head-up display has been changed. If it is determined that the change has been made, the process proceeds to step S83; otherwise, the operation of FIG.
  • step S83 the output control unit 12 causes the audio output device to output a notification sound. Thereafter, the operation of FIG.
  • Embodiment 3 the display mode of the setting range of the parking space candidate displayed by a head-up display is changed based on the timing which detected the parking space candidate. Thereby, for example, the driver's attention can be directed to the most recently detected parking space candidate.
  • the voice output device when changing the display mode of the parking space candidate displayed by the head-up display, the voice output device is caused to output the voice. Thereby, the driver can know that the display mode of the parking space candidate has been changed.
  • the sound output of a plurality of sound output devices mounted on the host vehicle is controlled based on the position of the most recently detected parking space candidate.
  • the driver can know the position of the most recently detected parking space candidate using sound.
  • the output control unit 12 is not detected by the parking space candidate detection unit 11b based on the surrounding information generated by the host vehicle, but is based on the surrounding information generated outside the host vehicle (for example, a network).
  • the setting range of the parking space candidate detected by 11b may be displayed in a pop-up on the head-up display. According to such a configuration, it is possible to make it easy to see the setting range of parking space candidates that are difficult to see from the viewpoint of the driver and cannot be detected based on the surrounding information of the host vehicle.
  • FIG. 18 is a block diagram showing a configuration of the driving support apparatus according to Embodiment 4 of the present invention.
  • the same or similar components as those in the second embodiment are denoted by the same reference numerals, and different components will be mainly described.
  • ⁇ Candidate selection unit 13> Operation information for the hold button is input to the driving assistance device 1 according to the fourth embodiment. Then, after the parking space candidate is selected by the candidate selecting unit 13, when the hold button is operated, the candidate selecting unit 13 stores the selected parking space candidate in the storage unit 16. That is, after the parking space candidate is selected by the candidate selection unit 13, the storage unit 16 selects the candidate when the hold button is operated (when a predetermined operation other than the determination button operation is performed). The parking space candidate selected by the unit 13 is stored.
  • FIG. 19 is a flowchart showing the operation of the candidate selection unit 13 according to the fourth embodiment. Of the steps in FIG. 19, steps similar to those in FIG. 8 are denoted by the same reference numerals, and description thereof is omitted as appropriate.
  • step S91 the candidate selection unit 13 determines whether or not the hold button has been operated. If it is determined that it has been operated, the process proceeds to step S92, and if not, the operation in FIG. 19 ends.
  • step S92 the candidate selection unit 13 causes the storage unit 16 to store the parking space candidate selected in step S44.
  • the driving support device 1 extracts the relevant information such as the camera image and GPS (Global Positioning System) position information regarding the parking space candidate from the sensing data, and the related information and the parking space candidate are put on hold. You may memorize
  • GPS Global Positioning System
  • the target object determination unit 14 determines the parking space candidate stored in the storage unit 16 by the candidate selection unit 13 as the parking space to which the host vehicle should go when the determination button is operated after the hold button is operated.
  • FIG. 20 is a flowchart showing the operation of the target object determining unit 14 according to the fourth embodiment. Of the steps in FIG. 20, steps similar to those in FIG. 9 are denoted by the same reference numerals, and description thereof is omitted as appropriate.
  • step S51 the target object determining unit 14 performs the same operation as in step S51 of FIG.
  • the target target determination part 14 determines whether the hold button was operated in step S101. If it is determined that the hold button has been operated, the process proceeds to step S102. If not, the process proceeds to step S52 and the same operation as in the second embodiment is performed.
  • the output control unit 12 may display the stored (held) parking space candidates on the head-up display or other displays. Moreover, when the relevant information mentioned above is memorize
  • step S102 the target object determining unit 14 determines whether or not the determination button has been operated on the stored (held) parking space candidate. At this time, the stored parking space candidates may not be stored again. If it is determined that it has been operated, the process proceeds to step S103. If not, step S102 is repeated until it is determined that it has been operated.
  • step S103 the target object determination unit 14 determines the parking space candidate (the parked parking space candidate) stored in the storage unit 16 as a parking space to which the host vehicle should go, and determines the determined parking space.
  • the data is output to the storage unit 16 and the automatic driving determination unit 17. Thereafter, the operation of FIG.
  • FIG. 21 is a block diagram showing a configuration of the driving support apparatus according to Embodiment 5 of the present invention.
  • the same or similar components as those in the second embodiment are denoted by the same reference numerals, and different components will be mainly described.
  • 21 includes a passenger determination acquisition unit 18 in addition to the components described in the second embodiment.
  • the passenger determination acquisition part 18 acquires the parking space determined by the passenger of the own vehicle or the remote operator.
  • the determination of the parking space by the passenger is “the parking space is determined by operating a determination button that can be operated by the passenger among the parking spaces selected based on the passenger's line-of-sight position”. Will be described below.
  • the determination of the parking space by the passenger is not limited to this. For example, among the parking spaces selected based on the passenger's line-of-sight position, the parking space is determined by a gesture based on the passenger's eye movement. It may be “to be done”.
  • the determination button that can be operated by the passenger is a determination button that is different from the determination button that can be operated by the driver described in the first embodiment and the like, and is disposed at a place that is easily operated by the passenger. And in the following description, a determination button that can be operated by the passenger is referred to as a “determination button for the passenger”, and a determination button that can be operated by the driver is referred to as a “determination button for the driver”.
  • FIG. 22 is a flowchart showing the operation of the passenger determination acquisition unit 18 according to the fifth embodiment.
  • step S ⁇ b> 111 the passenger determination acquisition unit 18, like the candidate selection unit 13, includes the passenger's line-of-sight position in one of the plurality of parking space candidate setting ranges. If it is determined, the one parking space candidate is selected. At this time, as shown in FIG. 23, the output control unit 12 may display the passenger's line-of-sight position 33 on the head-up display so as to be distinguishable from the driver's line-of-sight position 32. Also, when the passenger's line-of-sight position 33 is included in one parking space candidate setting range 31e, the output control unit 12 displays the one parking space candidate setting range 31e on the head-up display so as to be identifiable. You may let them.
  • step S112 the passenger determination acquisition unit 18 determines the parking space candidate selected in step S111 of the host vehicle when the determination button for the passenger is operated, similarly to the target object determination unit 14. Acquired as a parking space determined by the passenger.
  • step S113 the passenger determination acquisition unit 18 outputs the acquired parking space to the target object determination unit 14. Thereafter, the operation of FIG.
  • ⁇ Target object determination unit 14> when the determination button for the driver is not operated, the parking space acquired by the passenger determination acquisition unit 18 is used as a parking space to be determined by the target object determination unit 14. .
  • FIG. 24 is a flowchart showing the operation of the target object determining unit 14 according to the fifth embodiment.
  • step S121 the target object determination unit 14 determines whether or not the parking space acquired by the passenger determination acquisition unit has been received. If it is determined that it has been received, the process proceeds to step S122; otherwise, the operation in FIG. 24 is terminated.
  • step S122 the target object determination unit 14 determines whether or not the parking space is stored in the storage unit 16, that is, whether or not the parking space has already been determined by operating the determination button for the driver. Determine whether. If it is determined that a parking space has been determined, the operation of FIG. 24 is terminated, and if not, the process proceeds to step S123.
  • step S123 the target object determination unit 14 determines the parking space received in step S121 as the parking space to which the host vehicle should go, and outputs the determined parking space to the storage unit 16 and the automatic driving determination unit 17. To do. Thereafter, the operation of FIG.
  • the parking space acquired by the passenger determination acquisition unit 18 should be determined by the target object determination unit 14 when the determination button is not operated by the driver. Used as a parking space. Thereby, since the burden on the driver can be reduced, the driver can concentrate on driving or can determine an appropriate parking space that the driver has not noticed.
  • the determination of the passenger's parking space is invalid. That is, the driver's decision was prioritized over the passenger's decision.
  • the present invention is not limited to this, and the passenger's decision may be given priority over the driver's decision.
  • priority is set for the passenger (driver and passenger), and based on the priority, the determination of the parking space by either the driver or the passenger is given priority over the other. Good.
  • the user ID determined based on the position of the passenger is used in the passenger determination acquisition unit 18, the storage unit 16, the target object determination unit 14, and the like together with the parking space determined by the passenger. It will be.
  • FIG. 25 is a block diagram showing a configuration of the driving support apparatus according to Embodiment 6 of the present invention.
  • the same or similar components as those in the second embodiment are denoted by the same reference numerals, and different components are mainly described.
  • the parking space is determined by operating the determination button.
  • a parking space is determined by the gesture by a driver
  • the target object determination unit 14 moves the driver's eyes based on the line-of-sight information from the line-of-sight detection device after the candidate selection unit 13 selects a parking space candidate. It is determined whether or not a predetermined gesture has been performed. When the target object determination unit 14 determines that the gesture has been performed, the target object determination unit 14 determines the parking space candidate selected by the candidate selection unit 13 as a parking space to which the host vehicle should go.
  • the predetermined gestures described above include, for example, gestures caused by eye movements that are not performed in normal operation unless intended, such as gaze for a certain period of time or blinking for a certain number of times while maintaining the line-of-sight position. Applies.
  • the target object determining unit 14 determines that the gaze is performed when the line-of-sight position based on the line-of-sight information is within a predetermined range for a predetermined time or more, and otherwise, the gaze is performed. What is necessary is just to determine that was not performed.
  • the target object determination unit 14 determines that blinking has occurred when the line-of-sight position is detected intermittently within a predetermined range for a predetermined time or more. It is sufficient to determine that no blink has occurred.
  • the configuration described before the sixth embodiment may also be applied as appropriate in the sixth embodiment.
  • an eye gesture for example, two consecutive blinks
  • an eye gesture for determining a parking space is performed (for example, three consecutive blinks).
  • the parking space candidate selected by the candidate selection unit 13 may be stored in the storage unit 16.
  • FIG. 26 is a block diagram showing a configuration of the driving support apparatus according to Embodiment 7 of the present invention.
  • the same or similar components as those in the sixth embodiment are denoted by the same reference numerals, and different components will be mainly described.
  • parking space candidates are selected according to the driver's line-of-sight position.
  • a parking space candidate is selected according to the driver's pointing position. That is, in the seventh embodiment, a parking space candidate is selected based on the pointing position of the driver, and the parking space is determined by a gesture based on the driver's eye movement.
  • the driving support apparatus 1 acquires pointing information regarding the pointing of the driver of the host vehicle from the pointing detection device.
  • a device used for Leap Motion (registered trademark) or Kinect (registered trademark) is applied to the finger detection device.
  • the candidate selection unit 13 is configured such that the driver's pointing position is one of a plurality of parking space candidate setting ranges based on the pointing information from the pointing detection device. If it is determined that it is included in the set range, the one parking space candidate is selected.
  • the configuration described before the sixth embodiment may be applied as appropriate.
  • an eye gesture for example, three consecutive blinks
  • an eye gesture for determining a parking space for example, two consecutive blinks
  • the parking space candidate selected by the candidate selection unit 13 may be stored in the storage unit 16.
  • any one function may be selectively executed by a user's selection operation. According to such a configuration, the user can determine the parking space by a favorite operation or an operation with a small load on the user.
  • FIG. 27 is a block diagram showing a configuration of the driving support apparatus according to Embodiment 8 of the present invention.
  • the same or similar components as those in the second embodiment are denoted by the same reference numerals, and different components will be mainly described.
  • the driving support apparatus 1 can control automatic driving of the host vehicle so that the host vehicle is directed to another vehicle (target object to which the host vehicle is to travel) that the host vehicle should follow. It has become.
  • another vehicle hereinafter referred to as “following vehicle”
  • following vehicle a vehicle in front of the host vehicle is used as the following vehicle.
  • the following vehicle candidate detection unit 11c is the same as the parking space candidate detection unit 11b described so far, in which the detection target is changed from a parking space to a following vehicle.
  • Other components such as the candidate selection unit 13 are the same as the components described so far except that the target is changed from the parking space to the following vehicle.
  • FIG. 28 is a diagram showing a display example of the head-up display according to the eighth embodiment.
  • the setting range 34 of the following vehicle candidate is displayed so as to be identifiable by a broken line.
  • the candidate selecting unit 13 When the driver's line-of-sight position 32 is included in one of the following vehicle candidate setting ranges 34 among the plurality of following vehicle candidate (following vehicle candidates) setting ranges 34, the candidate selecting unit 13 performs the one following operation. Select a vehicle candidate. Then, when the decision button is operated after the candidate selection unit 13 selects the following vehicle candidate, the target object determination unit 14 causes the host vehicle to go to the following vehicle candidate selected by the candidate selection unit 13. It is determined as a power following vehicle.
  • the driver can intuitively select and determine the following vehicle to which the host vehicle should go from the following vehicle candidates. If the automatic driving of the host vehicle is a fully automatic driving, the above selection and determination are performed without returning to manual driving by overriding, changing lanes, or deviating the line of sight from the front. be able to.
  • the candidate acquisition unit 11, the output control unit 12, the candidate selection unit 13, and the target object determination unit 14 (hereinafter referred to as “candidate acquisition unit 11 etc.”) in the driving support device 1 described above are performed by the processing circuit 91 shown in FIG. Realized. That is, the processing circuit 91 is acquired by the candidate acquisition unit 11 and the candidate acquisition unit 11 that acquire a target object candidate that is a candidate of a target object to which the vehicle should go, detected based on the peripheral information about the vehicle periphery.
  • the candidate selection unit 13 that selects the one target object candidate; After the target object candidate is selected by the candidate selection unit 13, when the determination button that can be operated by the driver is operated, the target object candidate selected by the candidate selection unit 13 is determined as the target object.
  • a target object determining unit 14 outputs the determined target object to the automatic driving control section.
  • Dedicated hardware may be applied to the processing circuit 91, or a processor (CPU, central processing unit, processing unit, arithmetic unit, microprocessor, microcomputer, Digital Signal Processor) that executes a program stored in the memory ) May be applied.
  • the processing circuit 91 When the processing circuit 91 is dedicated hardware, the processing circuit 91 corresponds to, for example, a single circuit, a composite circuit, a programmed processor, a processor programmed in parallel, an ASIC, an FPGA, or a combination thereof. .
  • Each function of each unit such as the candidate acquisition unit 11 may be realized by a plurality of processing circuits 91, or the functions of each unit may be realized by a single processing circuit 91.
  • the processing circuit 91 When the processing circuit 91 is a processor, the functions of the candidate acquisition unit 11 and the like are realized by a combination with software or the like (software, firmware, or software and firmware). Software or the like is described as a program and stored in a memory. As shown in FIG. 30, the processor 92 applied to the processing circuit 91 reads out and executes a program stored in the memory 93, thereby realizing the functions of the respective units.
  • the setting range set for each of the acquired target object candidates is displayed on a head-up display mounted on the vehicle, and the driver's line-of-sight information about the driver's line-of-sight is displayed.
  • the memory 93 is a non-volatile memory such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), or the like.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory EPROM (Erasable Programmable Read Only Memory)
  • EEPROM Electrically Erasable Programmable Read Only Memory
  • a volatile semiconductor memory HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disk), and a drive device thereof are applicable.
  • each function of the candidate acquisition unit 11 and the like is realized by either hardware or software.
  • the present invention is not limited to this, and a configuration in which part of the candidate acquisition unit 11 and the like is realized by dedicated hardware and another part is realized by software or the like may be used.
  • the processing circuit 91 can realize the functions described above by hardware, software, or the like, or a combination thereof.
  • storage part 16 is comprised from the memory 93, they may be comprised from the one memory 93 and each may be comprised from the separate memory 93.
  • the driving support apparatus described above includes an installed navigation device that can be mounted on a vehicle, a Portable Navigation Device, a communication terminal (for example, a mobile terminal such as a mobile phone, a smartphone, and a tablet), and an application installed in these devices.
  • This function can be applied to a driving support system constructed as a system by appropriately combining these functions and a server.
  • each function or each component of the driving support device described above or each function or each component of the peripheral device may be distributed and arranged in each device that constructs the system. It may be arranged in a concentrated manner on the devices.
  • the present invention can be freely combined with each embodiment and each modification within the scope of the invention, or can be appropriately modified and omitted with each embodiment and each modification.

Abstract

運転者が、車両が向かうべき目標対象物を直感的に選択及び決定可能な技術を提供することを目的とする。運転支援装置(1)は、運転者の視線位置が、複数の目標対象物候補の設定範囲のいずれかに含まれると判定した場合に、当該目標対象物候補を選択する候補選択部(13)と、候補選択部(13)で目標対象物候補が選択された後、運転者に操作可能な決定ボタンが操作された場合に、候補選択部(13)で選択された目標対象物候補を目標対象物として決定する目標対象物決定部(14)とを備える。

Description

運転支援装置
 本発明は、自動運転が可能な車両の運転を支援する運転支援装置に関する。
 従来、障害物検知に応じた自動ブレーキなど、運転時の運転操作を支援する機能を提供することで、快適な駐車を実現する運転支援装置が開発されている。将来的には、完全自動運転の実現を見据え、運転者が行う運転操作の全部または一部を運転支援装置が代行することで、運転者の運転負荷が低減されることが期待されている。このような運転支援装置においては、運転者の意思を運転支援装置へ適切に伝えることが快適な運転支援を実現する上で肝要となる。
 なお、自動運転の機能の一つとして、車両を駐車スペースに自動的に駐車させる自動駐車機能が提案されている。例えば特許文献1では、運転者が自動運転において複数の駐車モードから1つの駐車モードを選択する際に、ステアリングホイールの操舵角に基づいて駐車モードを選択する技術が開示されている。また、特許文献2では、運転者の視線を検知し、運転者の意図する方向へと舵角制御を補助する走行支援技術が開示されている。
 また、自動運転の機能の一つとして、車両を他車両に自動的に追従させる自動追従機能も提案されている。
国際公開第2011/155464号 国際公開第2008/136456号
 しかしながら、特許文献1の技術では、ステアリングホイールを回し過ぎると、ステアリングホイールの操舵角を戻す作業が必要となり、運転者にとって煩わしいという問題があった。また、特許文献2の技術では、所望の進行方向を視線で指し示すことは可能であるが、複数の駐車スペースを見比べた上で、所望の駐車スペースを選択及び決定する方法に利用することはできないという問題があった。また、特許文献1及び特許文献2の技術を自動追従機能に利用する場合においても、自動駐車機能と同様の問題が生じていた。
 そこで、本発明は、上記のような問題点を鑑みてなされたものであり、運転者が、車両が向かうべき目標対象物を直感的に選択及び決定可能な技術を提供することを目的とする。
 本発明に係る運転支援装置は、自動運転が可能な車両の運転を支援する運転支援装置であって、車両周辺に関する周辺情報に基づいて検知された、車両が向かうべき目標対象物の候補である目標対象物候補を取得する候補取得部と、候補取得部で取得された複数の目標対象物候補のそれぞれに設定された設定範囲を、車両に搭載されたヘッドアップディスプレイに表示させる出力制御部と、車両の運転者の視線に関する視線情報に基づいて、運転者の視線位置が、複数の目標対象物候補の設定範囲のうちの一の目標対象物候補の設定範囲に含まれると判定した場合に、当該一の目標対象物候補を選択する候補選択部と、候補選択部で目標対象物候補が選択された後、運転者に操作可能な決定ボタンが操作された場合に、候補選択部で選択された目標対象物候補を目標対象物として決定する目標対象物決定部とを備える。目標対象物決定部は、決定した目標対象物に車両が向かうように車両の自動運転を制御可能な自動運転制御部に、決定した目標対象物を出力する。
 本発明は、車両の運転者の視線に関する視線情報に基づいて、運転者の視線位置が、複数の目標対象物候補の設定範囲のうちの一の目標対象物候補の設定範囲に含まれると判定した場合に、当該一の目標対象物候補を選択する候補選択部と、候補選択部で目標対象物候補が選択された後、運転者に操作可能な決定ボタンが操作された場合に、候補選択部で選択された目標対象物候補を目標対象物として決定する目標対象物決定部とを備える。これにより、運転者は、目標対象物候補の中から、車両が向かうべき目標対象物を直感的に選択及び決定することができる。
 本発明の目的、特徴、態様及び利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係る運転支援装置の構成を示すブロック図である。 実施の形態2に係る運転支援装置の構成を示すブロック図である。 実施の形態2に係る周辺認知部の動作を示すフローチャートである。 実施の形態2に係る駐車スペース候補検知部の動作を示すフローチャートである。 実施の形態2に係る記憶部の動作を示すフローチャートである。 実施の形態2に係るヘッドアップディスプレイの表示例を示す図である。 実施の形態2に係る出力制御部の動作を示すフローチャートである。 実施の形態2に係る候補選択部の動作を示すフローチャートである。 実施の形態2に係る目標対象物決定部の動作を示すフローチャートである。 実施の形態2に係る自動運転判断部の動作を示すフローチャートである。 実施の形態2に係る自動運転制御部の動作を示すフローチャートである。 変形例に係る運転支援装置の構成を示すブロック図である。 実施の形態3に係る運転支援装置の構成を示すブロック図である。 実施の形態3に係るヘッドアップディスプレイの表示例を示す図である。 実施の形態3に係るヘッドアップディスプレイの表示例を示す図である。 実施の形態3に係るヘッドアップディスプレイの表示例を示す図である。 実施の形態3に係る出力制御部の動作を示すフローチャートである。 実施の形態4に係る運転支援装置の構成を示すブロック図である。 実施の形態4に係る候補選択部の動作を示すフローチャートである。 実施の形態4に係る目標対象物決定部の動作を示すフローチャートである。 実施の形態5に係る運転支援装置の構成を示すブロック図である。 実施の形態5に係る同乗者決定取得部の動作を示すフローチャートである。 実施の形態5に係るヘッドアップディスプレイの表示例を示す図である。 実施の形態5に係る目標対象物決定部の動作を示すフローチャートである。 実施の形態6に係る運転支援装置の構成を示すブロック図である。 実施の形態7に係る運転支援装置の構成を示すブロック図である。 実施の形態8に係る運転支援装置の構成を示すブロック図である。 実施の形態8に係るヘッドアップディスプレイの表示例を示す図である。 運転支援装置のハードウェア構成の一例を示すブロック図である。 運転支援装置のハードウェア構成の一例を示すブロック図である。
 <実施の形態1>
 本発明の実施の形態1に係る運転支援装置は、自動運転が可能な車両の運転を支援する装置である。図1は、本発明の実施の形態1に係る運転支援装置の構成を示すブロック図である。以下、自動運転が可能な車両であって、運転支援装置1により運転支援される車両を「自車両」と記載して説明する。
 図1の運転支援装置1は、車載センサからのセンシングデータ(自車両周辺に関する周辺情報)と、視線検知デバイスからの視線情報(自車両の運転者の視線に関する視線情報)と、決定ボタンの操作情報とに基づいて、ヘッドアップディスプレイを制御するとともに、自車両が向かうべき目標対象物を決定してその決定結果を車両制御ECU(Electronic Control Unit)に出力する。これにより、運転支援装置1は、自車両が向かうべき目標対象物の候補である目標対象物候補を識別可能にヘッドアップディスプレイに表示させるとともに、決定された目標対象物に自車両が向かうように自車両の自動運転を制御することが可能となっている。なお、目標対象物は、後の実施の形態において自車両が駐車すべき駐車スペース、または、自車両が追従すべき他車両であるものとして説明するが、これらに限ったものではない。
 さて、運転支援装置1について詳細に説明する前に、車載センサ、ヘッドアップディスプレイ、視線検知デバイス、決定ボタン、自動運転制御部、及び、車両制御ECUについて簡単に説明する。なお、これらは自車両に搭載されている。
 車載センサには、例えば、『深谷友次、「自動車用センサの技術動向」、デンソーテクニカルレビュー、2006年、第11巻、No.1、p.92-99』のtable2に記載された各種センサなどが適用される。車載センサから運転支援装置1に随時出力されるセンシングデータには、例えば自車両の位置及び移動方向、自車両周辺の風景の映像、自車両周辺の障害物の位置などが含まれる。
 ヘッドアップディスプレイは、自車両のウィンドシールド(フロントガラス)に画像などの各種情報を表示することにより、搭乗者(運転者及び同乗者)に対して各種情報を実風景に重ねて表示する。これにより、運転者は、実風景を見ながら各種情報を見ることができるので、自車両を快適に運転することができる。
 視線検知デバイスには、例えば特許文献2の視線検出センサ(カメラ)などが適用される。視線検知デバイスから運転支援装置1に随時出力される視線情報には、例えば、自車両の運転者の視線位置、及び、当該視線位置の検出の有無などが含まれる。
 決定ボタンは、例えば押しボタン(ハードキー)などが想定され、運転者が操作しやすい箇所(例えばステアリングホイール周辺箇所など)に配設される。
 自動運転制御部は、制御信号を車両制御ECUに出力することによって、運転支援装置1(目標対象物決定部14)で決定された目標対象物に自車両が向かうように自車両の自動運転を制御可能となっている。なお、本実施の形態1では、自動運転には、車両が全ての運転操作を行う全自動運転と、運転者がアクセル、ブレーキ等の一部の運転操作を行う半自動運転と、限られた条件下(例えば自車両が高速道路を走行しているなど)で車両が全ての運転操作を行う準自動運転との少なくともいずれか1つが含まれる。
 車両制御ECUは、自動運転制御部からの制御信号に基づいて、例えば、自車両のアクセル、ブレーキ及びステアリングホイールの少なくともいずれか1つを制御することが可能となっている。
 次に、運転支援装置1について詳細に説明する。図1の運転支援装置1は、候補取得部11と、出力制御部12と、候補選択部13と、目標対象物決定部14とを備えている。次に、図1の運転支援装置1の各構成要素について詳細に説明する。
 候補取得部11は、車載センサからのセンシングデータに基づいて検知された、目標対象物の候補である目標対象物候補を取得する。これにより、例えば目標対象物候補の位置及び範囲が取得される。なお、候補取得部11は、外部装置がセンシングデータに基づいて検知した目標対象物候補を、当該外部装置から取得してもよいし、候補取得部11が、センシングデータに基づいて目標対象物候補を検知(取得)してもよい。候補取得部11で取得された目標対象物候補には設定範囲が設定される。この設定範囲は、候補取得部11で取得された目標対象物候補の範囲そのものが設定されてもよいし、その範囲よりも大きくしたり小さくしたりした範囲が設定されてもよい。以下では、候補取得部11が、複数の目標対象物候補のそれぞれに設定範囲を設定するものとして説明するが、これに限ったものではない。
 出力制御部12は、候補取得部11で取得された複数の目標対象物候補のそれぞれに設定された設定範囲を、ヘッドアップディスプレイに表示させる。
 候補選択部13は、視線情報に基づいて、運転者の視線位置が、複数の目標対象物候補の設定範囲のうちの一の目標対象物候補の設定範囲に含まれると判定した場合に、当該一の目標対象物候補を選択する。
 目標対象物決定部14は、候補選択部13で目標対象物候補が選択された後、運転者に操作可能な決定ボタンが操作された場合に、候補選択部13で選択された目標対象物候補を目標対象物として決定(確定)する。そして、目標対象物決定部14は、決定した目標対象物を自動運転制御部に出力する。
 <実施の形態1のまとめ>
 以上のような本実施の形態1に係る運転支援装置1によれば、運転者の視線位置が、複数の目標対象物候補の設定範囲のうちの一の目標対象物候補の設定範囲に含まれると判定した場合に、当該一の目標対象物候補を選択し、その後に決定ボタンが操作された場合に、選択された目標対象物候補を自車両が向かうべき目標対象物として決定する。これにより、運転者は、目標対象物候補の中から目標対象物を直感的に選択及び決定することができる。
 <実施の形態2>
 図2は、本発明の実施の形態2に係る運転支援装置の構成を示すブロック図である。以下、本実施の形態2に係る運転支援装置1のうち、実施の形態1と同じまたは類似する構成要素については同じ参照符号を付し、異なる構成要素について主に説明する。
 本実施の形態2に係る運転支援装置1は、自車両が駐車すべき駐車スペース(自車両が向かうべき目標対象物)に自車両が向かうように自車両の自動運転を制御することが可能となっている。つまり、目標対象物に、自車両が駐車すべき駐車スペースが適用されている。
 図2の運転支援装置1は、実施の形態1で説明した構成要素に加えて、自動運転制御部15と、記憶部16と、自動運転判断部17とを備えている。また、実施の形態1で説明した候補取得部11は、周辺認知部11aと、駐車スペース候補検知部11bとを備えている。以下、図2の運転支援装置1の各構成要素について詳細に説明する。
 <周辺認知部11a>
 図2の周辺認知部11aは、車載センサから取得したセンシングデータ(自車両周辺に関する周辺情報)に基づいて、周辺マップを生成する。ここで、周辺マップは、自車両周辺の各種形状を、3次元空間にてモデリングしたマップである。例えば、周辺認知部11aは、フロントカメラ(車載センサの一種)の撮像映像から検出された白線情報及び他車両等の障害物の情報と、ソナーセンサ(車載センサの一種)によって精度よく計測された自車両と障害物との間の距離とを組み合わせて、自車両の進行方向における白線及び障害物の形状をモデリングした周辺マップを生成する。
 なお、周辺マップにおける各種形状は、点群で判別及び構成されてもよいが、壁、白線、または、各種移動体(例えば前方車両、歩行者)などのオブジェクト単位で判別及び構成されてもよい。また、周辺認知部11aは、高精度地図データ及びダイナミックマップなどを、車載センサからのセンシングデータに組み合わせて、周辺マップを生成してもよい。また、周辺認知部11aが、駐車場内の駐車スペース情報を含む地図データを取得したり、ネットワークを経由してリアルタイムで各駐車スペースの利用状況を取得したりするように構成されている場合には、駐車場内の駐車スペース情報、及び、各駐車スペースの利用状況を周辺マップに含めてもよい。
 図3は、本実施の形態2に係る周辺認知部11aの動作を示すフローチャートである。
 ステップS1にて、周辺認知部11aは、車載センサからセンシングデータを取得する。ステップS2にて、周辺認知部11aは、取得したセンシングデータに基づいて、周辺マップを生成する。ステップS3にて、周辺認知部11aは、生成した周辺マップを、自動運転判断部17及び駐車スペース候補検知部11bに出力する。その後、図3の動作を終了する。なお、図3の動作、及び、図3以降のフローチャートを用いて説明する動作は、例えば、リアルタイムで繰り返し行われる。
 <駐車スペース候補検知部11b>
 図2の駐車スペース候補検知部11bは、周辺認知部11aで生成された周辺マップに基づいて、自車両が駐車可能な駐車スペースを、駐車スペース候補として検知(検出)する。ここで、駐車スペース候補は、自車両が向かうべき駐車スペースの候補であり、駐車スペース候補の検知には、駐車スペース候補の位置及び範囲の検知が含まれる。また、候補取得部11が駐車スペース候補などの目標対象物候補を取得することと、駐車スペース候補検知部11bが駐車スペース候補などの目標対象物候補を検知することとは、実質的に同じである。
 例えば、駐車スペース候補検知部11bは、周辺マップに基づいて、白線情報及び他車両の配置間隔の情報などを生成し、それら情報に基づいて、駐車スペース候補を検知する。なお、周辺マップに、駐車場内の駐車スペース情報、及び、各駐車スペースの利用状況が含まれる場合は、駐車スペース候補検知部11bは、これらを考慮して駐車スペース候補を検知してもよい。本実施の形態2では、駐車スペース候補検知部11bは、検知した駐車スペース候補に設定範囲を設定する。
 図4は、本実施の形態2に係る駐車スペース候補検知部11bの動作を示すフローチャートである。
 ステップS11にて、駐車スペース候補検知部11bは、周辺認知部11aから周辺マップを取得する。ステップS12にて、駐車スペース候補検知部11bは、取得した周辺マップに基づいて駐車スペース候補を検知する。ステップS13にて、駐車スペース候補検知部11bは、検知した駐車スペース候補に設定範囲を設定して、記憶部16及び出力制御部12に出力する。その後、図4の動作を終了する。
 <記憶部16>
 図2の記憶部16は、駐車スペース候補検知部11bで検知された駐車スペース候補の設定範囲、及び、目標対象物決定部14で決定された駐車スペースを記憶する。
 図5は、本実施の形態2に係る記憶部16の動作を示すフローチャートである。
 ステップS21にて、記憶部16は、駐車スペース候補検知部11bから駐車スペース候補の設定範囲を受け付けた場合にはステップS22に進み、そうでない場合にはステップS23に進む。ステップS22にて、記憶部16は、受け付けた駐車スペース候補の設定範囲を記憶する。なお、記憶部16に記憶された駐車スペース候補の設定範囲は、駐車スペース候補検知部11bによって適宜更新されてもよい。
 ステップS23にて、記憶部16は、目標対象物決定部14で決定された駐車スペースを受け付けた場合にはステップS24に進み、そうでない場合には図5の動作を終了する。ステップS24にて、記憶部16は、受け付けた駐車スペース(目標対象物決定部14で決定された駐車スペース)を記憶する。その後、図5の動作を終了する。
 <出力制御部12>
 図6は、本実施の形態2に係るヘッドアップディスプレイの表示例を示す図である。
 出力制御部12は、駐車スペース候補検知部11bで検知された複数の駐車スペース候補の設定範囲を識別可能にヘッドアップディスプレイに表示させる。図6では、二つの駐車スペース候補の設定範囲31が、破線によって識別可能に表示されている。
 また、出力制御部12は、視線検知デバイスから取得した視線情報に基づいて、運転者の視線位置を識別可能にヘッドアップディスプレイに表示させる。図6では、運転者の視線位置32は、丸印の中に+が付されたマークによって識別可能に表示されている。
 図7は、本実施の形態2に係る出力制御部12の動作を示すフローチャートである。
 ステップS31にて、出力制御部12は、駐車スペース候補検知部11bから直近の駐車スペース候補の設定範囲を取得する。ステップS32にて、出力制御部12は、視線検知デバイスから視線情報を取得する。ステップS33にて、出力制御部12は、記憶部16から直近よりも過去の駐車スペース候補の設定範囲を取得する。
 ステップS34にて、出力制御部12は、ステップS31及びS33で取得された駐車スペース候補の設定範囲を、ヘッドアップディスプレイに表示させる制御を行う。これにより、図6のように、駐車スペース候補の設定範囲が、識別可能な状態で、実風景内の駐車スペースに付随して表示される。なお、ステップS31及びS33で、駐車スペース候補の設定範囲が取得されなかった場合には、この表示制御は行われない。
 ステップS35にて、出力制御部12は、ステップS32で取得された視線情報に基づく運転者の視線位置を、ヘッドアップディスプレイに表示させる制御を行う。これにより、図6のように、運転者の視線位置が、識別可能な状態で、実風景に重ねて表示される。なお、ステップS32で、視線情報が取得されなかった場合や、運転者の視線が車内に向けられている場合などには、この表示制御は行われない。その後、図7の動作を終了する。
 <候補選択部13>
 図2の候補選択部13は、視線検知デバイスから取得した視線情報に基づいて、運転者の視線位置が、複数の駐車スペース候補(目標対象物候補)の設定範囲うちの一の駐車スペース候補の設定範囲に含まれると判定した場合に、当該一の駐車スペース候補を選択する。
 図8は、本実施の形態2に係る候補選択部13の動作を示すフローチャートである。
 ステップS41にて、候補選択部13は、視線検知デバイスから視線情報を取得する。ステップS42にて、候補選択部13は、記憶部16から駐車スペース候補の設定範囲を取得する。
 ステップS43にて、候補選択部13は、取得した視線情報に基づく運転者の視線位置が、取得した複数の駐車スペース候補の設定範囲のいずれかに含まれるか否かを判定する。設定範囲に含まれると判定した場合にはステップS44に進み、そうでない場合には図8の動作を終了する。
 ステップS44にて、候補選択部13は、判定した駐車スペース候補を選択し、選択した駐車スペース候補を目標対象物決定部14に出力する。その後、図8の動作を終了する。
 <目標対象物決定部14>
 図2の目標対象物決定部14は、候補選択部13で駐車スペース候補が選択された後、決定ボタンが操作された場合に、候補選択部13で選択された駐車スペース候補を、自車両が向かうべき駐車スペースとして決定(確定)する。そして、目標対象物決定部14は、決定した目標対象物を自動運転判断部17(実質的に自動運転制御部15)などに出力する。
 図9は、本実施の形態2に係る目標対象物決定部14の動作を示すフローチャートである。
 ステップS51にて、目標対象物決定部14は、候補選択部13で選択された駐車スペース候補を受け付けたか否かを判定する。受け付けたと判定した場合にはステップS52に進み、そうでない場合には図9の動作を終了する。
 なお、ステップS52に進む際には、候補選択部13で選択された駐車スペース候補を出力制御部12に出力することにより、出力制御部12が、当該駐車スペース候補を決定するか否かを運転者に確認させるための表示を、ヘッドアップディスプレイに表示させてもよい。
 ステップS52にて、目標対象物決定部14は、決定ボタンが操作されたか否かを判定する。操作されたと判定した場合にはステップS53に進み、そうでない場合には図9の動作を終了する。
 ステップS53にて、目標対象物決定部14は、ステップS51で受け付けた駐車スペース候補を、自車両が向かうべき駐車スペース(目標対象物)として決定し、決定した駐車スペースを、記憶部16及び自動運転判断部17に出力する。その後、図9の動作を終了する。
 <自動運転判断部17>
 図2の自動運転判断部17は、目標対象物決定部14で駐車スペースが決定された場合に、周辺認知部11aで生成された周辺マップに基づいて、自車両が当該駐車スペースなどに向かうための移動経路情報を生成する。なお、移動経路情報は、自車両が駐車スペースなどに向かう際に現在位置から移動すべき経路を示す軌跡情報と、当該移動時の目標速度、目標加速度及び目標蛇角とが時系列に並べられた情報とを含む。
 図10は、本実施の形態2に係る自動運転判断部17の動作を示すフローチャートである。
 ステップS61にて、自動運転判断部17は、周辺認知部11aから周辺マップを取得する。ステップS62にて、目標対象物決定部14で決定された駐車スペースを受け付けたか否かを判定する。受け付けたと判定した場合にはステップS63に進み、そうでない場合にはステップS64に進む。
 ステップS63にて、自動運転判断部17は、取得した周辺マップと、受け付けた駐車スペースとに基づいて、当該駐車スペースに向かうための移動経路情報を生成する。その後、ステップS65に進む。
 ステップS64にて、自動運転判断部17は、取得した周辺マップに基づいて、進路を継続して進むための移動経路情報を生成する。その後、ステップS65に進む。
 ステップS65にて、自動運転判断部17は、生成した移動経路情報を自動運転制御部15に出力する。その後、図10の動作を終了する。
 <自動運転制御部15>
 図2の自動運転制御部15は、制御信号を車両制御ECUに出力することによって、目標対象物決定部14で決定された駐車スペース(目標対象物)に自車両が向かうように自車両の自動運転を制御する。
 図11は、本実施の形態2に係る自動運転制御部15の動作を示すフローチャートである。
 ステップS71にて、自動運転制御部15は、自動運転判断部17から移動経路情報を取得する。ステップS72にて、自動運転制御部15は、取得した移動経路情報に基づいて、車両制御ECUに出力すべき制御信号を生成する。ステップS73にて、自動運転制御部15は、生成した制御信号を車両制御ECUに出力する。その後、図11の動作を終了する。
 <実施の形態2のまとめ>
 以上のような本実施の形態2によれば、実施の形態1と同様に、運転者は、駐車スペース候補の中から、自車両が向かうべき駐車スペースを直感的に選択及び決定することができる。なお、自車両の自動運転が完全自動運転である場合には、当該自動駐車の短縮化も期待できる。
 また、本実施の形態2では、運転者の視線位置32を識別可能に、ヘッドアップディスプレイに表示させる(図6)。したがって、運転者は、自身の視線位置32を、選択したい駐車スペース候補の設定範囲31に容易に合わせることができる。
 <変形例>
 図12は、本変形例に係る運転支援装置の構成を示すブロック図である。以下、本変形例に係る運転支援装置1のうち、実施の形態2と同じまたは類似する構成要素については同じ参照符号を付し、異なる構成要素について主に説明する。
 本変形例では、決定ボタンが、候補選択部13による駐車スペース候補の選択前に操作された場合に、視線情報に基づく運転者の視線位置(例えば周辺マップにおける視線位置)を記憶部16に記憶する。つまり決定ボタンが、候補選択部13による駐車スペース候補の選択前に操作された場合に、記憶部16は、視線情報に基づく運転者の視線位置を記憶する。この際、出力制御部12は、視線位置に対応する駐車スペースを未検知である旨の表示を、ヘッドアップディスプレイに表示させてもよい。
 記憶部16に記憶された視線位置が、決定ボタンの操作後に駐車スペース候補検知部11bで検知された駐車スペース候補の設定範囲に含まれると判定した場合に、目標対象物決定部14は、当該駐車スペース候補を、自車両が向かうべき駐車スペースとして決定する。
 以上のような本変形例によれば、運転支援装置1が駐車スペースを検知する前に、運転者が決定ボタンを操作すれば、当該駐車スペースを仮決定することができる。したがって、運転者にとって使いやすい運転支援装置1を実現することができる。なお、記憶部16に記憶された視線位置が、駐車スペース候補の設定範囲に含まれるか否かの判定は、候補選択部13によって行われてもよい。
 <実施の形態3>
 図13は、本発明の実施の形態3に係る運転支援装置の構成を示すブロック図である。以下、本実施の形態3に係る運転支援装置1のうち、実施の形態2と同じまたは類似する構成要素については同じ参照符号を付し、異なる構成要素について主に説明する。
 本実施の形態3に係る運転支援装置1(出力制御部12)は、出力デバイスを制御することが可能となっている。ここで、出力デバイスは、上述したヘッドアップディスプレイに加え、自車両に搭載された複数の音声出力装置(例えば複数のスピーカ)などを含んでいる。
 まず、出力制御部12によるヘッドアップディスプレイの表示制御について説明する。
 本実施の形態3では、出力制御部12は、駐車スペース候補検知部11bで駐車スペース候補を検知したタイミングに基づいて、ヘッドアップディスプレイにより表示される駐車スペース候補の設定範囲の表示態様を変更する。図14に、駐車スペース候補検知部11bが駐車スペース候補の設定範囲31aを新しく検知する前のヘッドアップディスプレイの表示例を示し、図15に、駐車スペース候補の設定範囲31aを新しく検知した後のヘッドアップディスプレイの表示例を示す。図14及び図15に示すように、出力制御部12は、駐車スペース候補検知部11bで直近に検知された駐車スペース候補の設定範囲31aを、直近よりも過去に検知された駐車スペース候補の設定範囲31bと異なる表示態様(例えば表示色、マークまたはアイコンの付加、アニメーションなど)で強調表示するようにしてもよい。これにより、運転者の注意を、直近に検知された駐車スペース候補に向けることができる。
 また、出力制御部12は、図16に示すように、運転者の視線位置32が、駐車スペース候補検知部11bで検知された複数の駐車スペース候補の設定範囲のうちの一の駐車スペース候補の設定範囲31cに含まれる場合に、一の駐車スペース候補の設定範囲31cと、それ以外の駐車スペース候補の設定範囲31dとを識別可能にヘッドアップディスプレイに表示させる。つまり、候補選択部13により選択された一の駐車スペース候補の設定範囲と、それ以外の駐車スペース候補の設定範囲とが識別可能に表示される。
 なお、識別可能な表示としては、例えば、一の駐車スペース候補の設定範囲31cを、それ以外の駐車スペース候補の設定範囲31dと異なる表示態様(例えば表示色、マークまたはアイコンの付加、アニメーションなど)で強調表示することなどが想定される。またここでは、運転者の視線位置32が、一の駐車スペース候補の設定範囲に含まれるか否かの判定は、出力制御部12によって行われるものとして説明しているが、候補選択部13によって行われてもよい。
 上述の表示制御と同様にして、出力制御部12は、目標対象物決定部14により決定される前の駐車スペース候補の設定範囲と、目標対象物決定部14により決定された駐車スペースの設定範囲とを識別可能に表示してもよい。また同様に、出力制御部12は、運転支援装置1が推奨する駐車スペース候補の設定範囲と、それ以外の駐車スペース候補の設定範囲とを識別可能に表示してもよい。
 次に、出力制御部12による複数の音声出力装置の音声出力制御について説明する。
 出力制御部12は、ヘッドアップディスプレイにより表示される駐車スペース候補の表示態様を変更する場合に、音声出力装置に報知音を出力させる(音声出力させる)。
 また、出力制御部12は、駐車スペース候補検知部11bで直近に検知された駐車スペース候補の位置に基づいて、自車両に搭載された複数の音声出力装置の音声出力を制御する。例えば、出力制御部12は、駐車スペース候補検知部11bで駐車スペース候補が直近に検知された場合に、複数の音声出力装置のうち当該駐車スペース候補の方向にある音声出力装置に、当該駐車スペース候補までの距離に対応する大きさで、報知音を出力させる(音声出力させる)。その際の音は、障害物検知等の他の報知音と異なる音色を用いてもよい。これにより、運転者の注意を、直近に検知された駐車スペース候補に向けることができる。
 図17は、本実施の形態3に係る出力制御部12の動作を示すフローチャートである。なお、図17のステップのうち、図7と同様のステップには同じ符号を付し、その説明については適宜省略する。
 ステップS31~S33にて、出力制御部12は、図7のステップS31~S33と同様の動作を行う。その後、ステップS81にて、出力制御部12は、駐車スペース候補の状態(設定範囲が視線位置を含むか、駐車スペース候補が直近に検知されたかなどの状態)に応じて、表示すべき駐車スペース候補の設定範囲の表示態様を決定する。
 ステップS34及びS35にて、出力制御部12は、図7のステップS34及びS35と同様の動作を行う。その後、ステップS82にて、出力制御部12は、ヘッドアップディスプレイにより表示される駐車スペース候補の表示態様が変更されたか否かを判定する。変更されたと判定した場合にはステップS83に進み、そうでない場合には図17の動作を終了する。
 ステップS83にて、出力制御部12は、音声出力装置に報知音を出力させる。その後、図17の動作を終了する。
 <実施の形態3のまとめ>
 本実施の形態3では、駐車スペース候補を検知したタイミングに基づいて、ヘッドアップディスプレイにより表示される駐車スペース候補の設定範囲の表示態様を変更する。これにより、例えば、運転者の注意を、直近に検知された駐車スペース候補に向けることができる。
 また、本実施の形態3では、運転者の視線位置が、複数の駐車スペース候補の設定範囲のうちの一の駐車スペース候補の設定範囲に含まれる場合に、一の駐車スペース候補の設定範囲と、それ以外の駐車スペース候補の設定範囲とを識別可能にヘッドアップディスプレイに表示させる。これにより、運転者は、どの設定範囲が選択されているかを知った上で、駐車スペースの決定を行うことができる。
 さらに、本実施の形態3では、ヘッドアップディスプレイにより表示される駐車スペース候補の表示態様を変更する場合に、音声出力装置に音声出力させる。これにより、運転者は、駐車スペース候補の表示態様が変更されたことを知ることができる。
 また、本実施の形態3では、直近に検知された駐車スペース候補の位置に基づいて、自車両に搭載された複数の音声出力装置の音声出力を制御する。これにより、運転者は、直近に検知された駐車スペース候補の位置を、音を頼りに知ることができる。
 <変形例>
 出力制御部12は、自車両で生成された周辺情報に基づいて駐車スペース候補検知部11bによって検知されずに、自車両外部(例えばネットワーク)で生成された周辺情報に基づいて駐車スペース候補検知部11bによって検知された駐車スペース候補の設定範囲を、ヘッドアップディスプレイにポップアップ表示させてもよい。このような構成によれば、自車両の周辺情報に基づいて検知できないような、運転者視点から見えにくい駐車スペース候補の設定範囲を、見やすくすることができる。
 <実施の形態4>
 図18は、本発明の実施の形態4に係る運転支援装置の構成を示すブロック図である。以下、本実施の形態4に係る運転支援装置1のうち、実施の形態2と同じまたは類似する構成要素については同じ参照符号を付し、異なる構成要素について主に説明する。
 <候補選択部13>
 本実施の形態4に係る運転支援装置1には、保留ボタンの操作情報が入力される。そして、候補選択部13で駐車スペース候補が選択された後、保留ボタンが操作された場合に、候補選択部13は、選択した駐車スペース候補を記憶部16に記憶させる。つまり、候補選択部13で駐車スペース候補が選択された後、保留ボタンが操作された場合(決定ボタンの操作以外の予め定められた操作が行われた場合)に、記憶部16は、候補選択部13で選択された駐車スペース候補を記憶する。
 図19は、本実施の形態4に係る候補選択部13の動作を示すフローチャートである。なお、図19のステップのうち、図8と同様のステップには同じ符号を付し、その説明については適宜省略する。
 ステップS41~S44にて、候補選択部13は、図8のステップS41~S44と同様の動作を行う。ステップS44の後、ステップS91にて、候補選択部13は、保留ボタンが操作されたか否かを判定する。操作されたと判定した場合にはステップS92に進み、そうでない場合には図19の動作を終了する。
 ステップS92にて、候補選択部13は、ステップS44で選択した駐車スペース候補を記憶部16に記憶させる。この際、運転支援装置1は、センシングデータから、駐車スペース候補に関する、カメラの映像及びGPS(Global Positioning System)の位置情報などの関連情報を抽出し、当該関連情報と、当該駐車スペース候補が保留されたこととを駐車スペース候補とともに記憶部16に記憶してもよい。このような構成によれば、記憶された(保留された)駐車スペース候補が、どのような駐車スペースであるかを運転者に提示することができる。その後、図19の動作を終了する。
 <目標対象物決定部14>
 目標対象物決定部14は、保留ボタン操作後に決定ボタンが操作された場合に、候補選択部13により記憶部16に記憶された駐車スペース候補を、自車両が向かうべき駐車スペースとして決定する。
 図20は、本実施の形態4に係る目標対象物決定部14の動作を示すフローチャートである。なお、図20のステップのうち、図9と同様のステップには同じ符号を付し、その説明については適宜省略する。
 ステップS51にて、目標対象物決定部14は、図9のステップS51と同様の動作を行う。ステップS51にて候補選択部13で選択された駐車スペース候補を受け付けたと判定した場合に、ステップS101にて、目標対象物決定部14は、保留ボタンが操作されたか否かを判定する。保留ボタンが操作されたと判定した場合にはステップS102に進み、そうでない場合にはステップS52に進んで実施の形態2と同様の動作が行われる。
 なお、ステップS101からステップS102に進む際に、出力制御部12は、記憶された(保留された)駐車スペース候補を、ヘッドアップディスプレイ、またはそれ以外のディスプレイに表示させてもよい。また、上述した関連情報が記憶部16に記憶されている場合には、出力制御部12は、駐車スペース候補の表示とともに関連情報も表示させてもよい。
 ステップS102にて、目標対象物決定部14は、記憶された(保留された)駐車スペース候補に対して決定ボタンが操作されたか否かを判定する。この際、記憶された(保留された)駐車スペース候補に対しては、再度の保留できないようにしてもよい。操作されたと判定した場合にはステップS103に進み、そうでない場合には操作されたと判定するまでステップS102を繰り返し行う。
 ステップS103にて、目標対象物決定部14は、記憶部16に記憶された駐車スペース候補(保留された駐車スペース候補)を、自車両が向かうべき駐車スペースとして決定し、決定した駐車スペースを、記憶部16及び自動運転判断部17に出力する。その後、図20の動作を終了する。
 <実施の形態4のまとめ>
 以上のような本実施の形態4によれば、決定ボタンの操作以外の予め定められた操作が行われた場合に、候補選択部13で選択された駐車スペース候補が記憶部16に記憶され、予め定められた操作後に決定ボタンが操作された場合に、記憶部16に記憶された駐車スペース候補を、自車両が向かうべき駐車スペースとして決定する。これにより、自車両が向かうべき駐車スペースの決定を保留することができる。したがって、運転者にとって使いやすい運転支援装置1を実現することができる。
 <実施の形態5>
 図21は、本発明の実施の形態5に係る運転支援装置の構成を示すブロック図である。以下、本実施の形態5に係る運転支援装置1のうち、実施の形態2と同じまたは類似する構成要素については同じ参照符号を付し、異なる構成要素について主に説明する。
 図21の運転支援装置1は、実施の形態2で説明した構成要素に加えて、同乗者決定取得部18を備えている。
 <同乗者決定取得部18>
 同乗者決定取得部18は、自車両の同乗者または遠隔操作者によって決定された駐車スペースを取得する。
 以下では、同乗者による駐車スペースの決定について説明するが、遠隔操作者による駐車スペースの決定も同様である。また以下の説明では、同乗者による駐車スペースの決定は、「同乗者の視線位置に基づき選択された駐車スペースのうち、同乗者に操作可能な決定ボタンが操作されることによって駐車スペースが決定されること」であるものとして以下説明する。ただし、同乗者による駐車スペースの決定は、これに限ったものではなく、例えば、「同乗者の視線位置に基づき選択された駐車スペースのうち、同乗者の目の動きによるジェスチャによって駐車スペースが決定されること」であってもよい。
 なお、同乗者に操作可能な決定ボタンは、実施の形態1などで説明した運転者に操作可能な決定ボタンとは別の決定ボタンであり、同乗者に操作されやすい箇所に配設されるものとする。以下の説明では、同乗者に操作可能な決定ボタンを「同乗者用の決定ボタン」と記し、運転者に操作可能な決定ボタンを「運転者用の決定ボタン」と記す。
 図22は、本実施の形態5に係る同乗者決定取得部18の動作を示すフローチャートである。
 ステップS111にて、同乗者決定取得部18は、候補選択部13と同様に、同乗者の視線位置が、複数の駐車スペース候補の設定範囲のうちの一の駐車スペース候補の設定範囲に含まれると判定した場合に、当該一の駐車スペース候補を選択する。この際、出力制御部12は、図23に示すように、同乗者の視線位置33を、運転者の視線位置32と識別可能にヘッドアップディスプレイに表示させてもよい。また、同乗者の視線位置33が、一の駐車スペース候補の設定範囲31eに含まれる場合に、出力制御部12は、当該一の駐車スペース候補の設定範囲31eを識別可能にヘッドアップディスプレイに表示させてもよい。
 ステップS112にて、同乗者決定取得部18は、目標対象物決定部14と同様に、同乗者用の決定ボタンが操作された場合に、ステップS111で選択された駐車スペース候補を、自車両の同乗者によって決定された駐車スペースとして取得する。
 ステップS113にて、同乗者決定取得部18は、取得した駐車スペースを、目標対象物決定部14に出力する。その後、図22の動作を終了する。
 <目標対象物決定部14>
 本実施の形態5では、運転者用の決定ボタンが操作されなかった場合に、同乗者決定取得部18で取得された駐車スペースが、目標対象物決定部14で決定すべき駐車スペースとして用いられる。
 図24は、本実施の形態5に係る目標対象物決定部14の動作を示すフローチャートである。
 ステップS121にて、目標対象物決定部14は、同乗者決定取得部で取得された駐車スペースを受け付けたか否かを判定する。受け付けたと判定した場合にはステップS122に進み、そうでない場合には図24の動作を終了する。
 ステップS122にて、目標対象物決定部14は、記憶部16に駐車スペースが記憶されているか否か、つまり、運転者用の決定ボタンが操作されたことによってすでに駐車スペースが決定されているか否かを判定する。駐車スペースが決定されていると判定した場合には図24の動作を終了し、そうでない場合にはステップS123に進む。
 ステップS123にて、目標対象物決定部14は、ステップS121で受け付けた駐車スペースを、自車両が向かうべき駐車スペースとして決定し、決定した駐車スペースを、記憶部16及び自動運転判断部17に出力する。その後、図24の動作を終了する。
 <実施の形態5のまとめ>
 以上のような本実施の形態5によれば、運転者により決定ボタンが操作されなかった場合に、同乗者決定取得部18で取得された駐車スペースが、目標対象物決定部14で決定すべき駐車スペースとして用いられる。これにより、運転者の負担を軽減することができるので、運転者は運転に集中することができたり、運転者が気付かなかった適切な駐車スペースを決定したりすることができる。
 なお、以上の説明では、運転者が決定ボタンを操作して駐車スペースをすでに決定していた場合には、同乗者の駐車スペースの決定は無効となっていた。つまり、運転者の決定が、同乗者の決定よりも優先されていた。しかしこれに限ったものではなく、同乗者の決定が、運転者の決定よりも優先されてもよい。また、搭乗者(運転者及び同乗者)に優先度を設定し、その優先度に基づいて、運転者及び同乗者のいずれか一方による駐車スペースの決定を、他方よりも優先させるようにしてもよい。この際、搭乗者の位置を基準に決定されるユーザIDが、搭乗者が決定した駐車スペースと一緒に同乗者決定取得部18、記憶部16、及び、目標対象物決定部14などで用いられることになる。
 <実施の形態6>
 図25は、本発明の実施の形態6に係る運転支援装置の構成を示すブロック図である。以下、本実施の形態6に係る運転支援装置1のうち、実施の形態2と同じまたは類似する構成要素については同じ参照符号を付し、異なる構成要素について主に説明する。
 実施の形態1~5では、決定ボタンの操作によって駐車スペースを決定した。これに対して、本実施の形態6では、運転者の目の動きによるジェスチャによって駐車スペースを決定する。つまり、本実施の形態6では、運転者の視線位置によって駐車スペース候補を選択し、運転者の目の動きによるジェスチャによって駐車スペースを決定する。
 その一例として、本実施の形態6に係る目標対象物決定部14は、候補選択部13で駐車スペース候補が選択された後、視線検知デバイスからの視線情報に基づいて、運転者の目の動きによる予め定められたジェスチャが行われたか否かを判定する。そして、目標対象物決定部14は、当該ジェスチャが行われたと判定した場合に、候補選択部13で選択された駐車スペース候補を、自車両が向かうべき駐車スペースとして決定する。
 なお、上述の予め定められたジェスチャには、例えば、一定時間以上の凝視、視線位置を維持したままの一定回数以上の瞬きなど、意図しなければ通常の運転では行われない目の動きによるジェスチャが適用される。例えば、目標対象物決定部14は、視線情報に基づく視線位置が、予め定められた時間以上、予め定められた範囲内にある場合には凝視が行われたと判定し、そうでない場合には凝視が行われなかったと判定すればよい。また例えば、目標対象物決定部14は、予め定められた時間以上、予め定められた範囲内において、視線位置が断続的に検知された場合には瞬きが行われたと判定し、そうでない場合には瞬きが行われなかったと判定すればよい。
 <実施の形態6のまとめ>
 以上のような本実施の形態6によれば、実施の形態2と同様に、運転者は、駐車スペース候補の中から、自車両が向かうべき駐車スペースを直感的に選択及び決定することができる。
 なお、本実施の形態6においても、本実施の形態6よりも前に説明した構成が適宜適用されてもよい。例えば、本実施の形態6に実施の形態4を適用する場合には、駐車スペースを決定する目のジェスチャ(例えば2回連続の瞬き)と異なる目のジェスチャ(例えば3回連続の瞬き)が行われた場合に、候補選択部13で選択された駐車スペース候補が記憶部16に記憶されてもよい。
 <実施の形態7>
 図26は、本発明の実施の形態7に係る運転支援装置の構成を示すブロック図である。以下、本実施の形態7に係る運転支援装置1のうち、実施の形態6と同じまたは類似する構成要素については同じ参照符号を付し、異なる構成要素について主に説明する。
 実施の形態6では、運転者の視線位置によって駐車スペース候補を選択した。これに対して、本実施の形態7では、運転者の指差位置によって駐車スペース候補を選択する。つまり、本実施の形態7では、運転者の指差位置によって駐車スペース候補を選択し、運転者の目の動きによるジェスチャによって駐車スペースを決定する。
 ここで、本実施の形態7に係る運転支援装置1は、指差検知デバイスから、自車両の運転者の指差しに関する指差情報を取得する。なお、指差検知デバイスには、例えば、Leap Motion(登録商標)、または、Kinect(登録商標)などに用いられているデバイスが適用される。
 本実施の形態7に係る候補選択部13は、指差検知デバイスからの指差情報に基づいて、運転者の指差位置が、複数の駐車スペース候補の設定範囲のうちの一の駐車スペース候補の設定範囲に含まれると判定した場合に、当該一の駐車スペース候補を選択する。
 <実施の形態7のまとめ>
 以上のような本実施の形態7によれば、実施の形態2と同様に、運転者は、駐車スペース候補の中から、自車両が向かうべき駐車スペースを直感的に選択及び決定することができる。
 なお、本実施の形態7においても、実施の形態6よりも前に説明した構成が適宜適用されてもよい。例えば、本実施の形態7に実施の形態4を適用する場合には、駐車スペースを決定する目のジェスチャ(例えば2回連続の瞬き)と異なる目のジェスチャ(例えば3回連続の瞬き)が行われた場合に、候補選択部13で選択された駐車スペース候補が記憶部16に記憶されてもよい。
 また、実施の形態2,6,7の機能のうちの少なくともいずれか2つを組み合わせた構成において、ユーザの選択操作によりいずれか1つの機能が選択的に実行されてもよい。このような構成によれば、ユーザは、好みの操作で、または、自身にとって負荷が少ない操作で駐車スペースを決定することができる。
 <実施の形態8>
 図27は、本発明の実施の形態8に係る運転支援装置の構成を示すブロック図である。以下、本実施の形態8に係る運転支援装置1のうち、実施の形態2と同じまたは類似する構成要素については同じ参照符号を付し、異なる構成要素について主に説明する。
 本実施の形態8に係る運転支援装置1は、自車両が追従すべき他車両(自車両が向かうべき目標対象物)に自車両が向かうように自車両の自動運転を制御することが可能となっている。つまり、目標対象物には、実施の形態1~7で説明した駐車スペースではなく、自車両が追従すべき他車両(以下「追従車両」と記す)が適用されている。なお、追従車両には、例えば自車両の前方の車両が適用される。
 追従車両候補検知部11cは、これまで説明した駐車スペース候補検知部11bにおいて、検知対象を駐車スペースから追従車両に変更したものと同様である。候補選択部13などの他の構成要素においても、対象が駐車スペースから追従車両に変更する点を除けば、これまで説明した構成要素と同様である。
 図28は、本実施の形態8に係るヘッドアップディスプレイの表示例を示す図である。図28では、追従車両の候補の設定範囲34は、破線によって識別可能に表示されている。
 運転者の視線位置32が、複数の追従車両候補(追従車両の候補)の設定範囲34のうちの一の追従車両候補の設定範囲34に含まれる場合に、候補選択部13は当該一の追従車両候補を選択する。そして、候補選択部13で追従車両候補が選択された後、決定ボタンが操作された場合に、目標対象物決定部14は、候補選択部13で選択された追従車両候補を、自車両が向かうべき追従車両として決定する。
 <実施の形態8のまとめ>
 以上のような本実施の形態8によれば、運転者は、追従車両候補の中から、自車両が向かうべき追従車両を直感的に選択及び決定することができる。なお、自車両の自動運転が完全自動運転である場合には、一旦、オーバーライドにより手動運転に戻したり、車線変更したり、視線を前方から逸脱させたりすることなく、上述の選択及び決定を行うことができる。
 <その他の変形例>
 上述した運転支援装置1における候補取得部11、出力制御部12、候補選択部13及び目標対象物決定部14(以下「候補取得部11等」と記す)は、図29に示す処理回路91により実現される。すなわち、処理回路91は、車両周辺に関する周辺情報に基づいて検知された、車両が向かうべき目標対象物の候補である目標対象物候補を取得する候補取得部11と、候補取得部11で取得された複数の目標対象物候補のそれぞれに設定された設定範囲を、車両に搭載されたヘッドアップディスプレイに表示させる出力制御部12と、車両の運転者の視線に関する視線情報に基づいて、運転者の視線位置が、複数の目標対象物候補の設定範囲のうちの一の目標対象物候補の設定範囲に含まれると判定した場合に、当該一の目標対象物候補を選択する候補選択部13と、候補選択部13で目標対象物候補が選択された後、運転者に操作可能な決定ボタンが操作された場合に、候補選択部13で選択された目標対象物候補を目標対象物として決定するとともに、決定した目標対象物を自動運転制御部に出力する目標対象物決定部14と、を備える。処理回路91には、専用のハードウェアが適用されてもよいし、メモリに格納されるプログラムを実行するプロセッサ(CPU、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、Digital Signal Processor)が適用されてもよい。
 処理回路91が専用のハードウェアである場合、処理回路91は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらを組み合わせたものが該当する。候補取得部11等の各部の機能それぞれは、複数の処理回路91で実現されてもよいし、各部の機能をまとめて一つの処理回路91で実現されてもよい。
 処理回路91がプロセッサである場合、候補取得部11等の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェア)との組み合わせにより実現される。ソフトウェア等はプログラムとして記述され、メモリに格納される。図30に示すように、処理回路91に適用されるプロセッサ92は、メモリ93に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、運転支援装置1は、処理回路91により実行されるときに、車両周辺に関する周辺情報に基づいて検知された、車両が向かうべき目標対象物の候補である目標対象物候補を取得するステップと、取得された複数の目標対象物候補のそれぞれに設定された設定範囲を、車両に搭載されたヘッドアップディスプレイに表示させるステップと、車両の運転者の視線に関する視線情報に基づいて、運転者の視線位置が、複数の目標対象物候補の設定範囲のうちの一の目標対象物候補の設定範囲に含まれると判定した場合に、当該一の目標対象物候補を選択するステップと、目標対象物候補が選択された後、運転者に操作可能な決定ボタンが操作された場合に、選択された目標対象物候補を目標対象物として決定するとともに、決定した目標対象物を自動運転制御部に出力するステップと、が結果的に実行されることになるプログラムを格納するためのメモリ93を備える。換言すれば、このプログラムは、候補取得部11等の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリ93には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリー、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)及びそのドライブ装置等が該当する。
 以上、候補取得部11等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、候補取得部11等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。
 以上のように、処理回路91は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。なお、記憶部16は、メモリ93から構成されるが、それらは一のメモリ93から構成されてもよいし、それぞれは個別のメモリ93から構成されてもよい。
 また、以上で説明した運転支援装置は、車両に搭載可能な備え付けられたナビゲーション装置、Portable Navigation Device、通信端末(例えば携帯電話、スマートフォン、及びタブレットなどの携帯端末)、及びこれらにインストールされるアプリケーションの機能、並びにサーバなどを適宜に組み合わせてシステムとして構築される運転支援システムに適用することができる。この場合、以上で説明した運転支援装置の各機能もしくは各構成要素またはその周辺装置の各機能もしくは各構成要素は、前記システムを構築する各機器に分散して配置されてもよいし、いずれかの機器に集中して配置されてもよい。
 なお、本発明は、その発明の範囲内において、各実施の形態及び各変形例を自由に組み合わせたり、各実施の形態及び各変形例を適宜、変形、省略したりすることが可能である。
 本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、本発明がそれに限定されるものではない。例示されていない無数の変形例が、本発明の範囲から外れることなく想定され得るものと解される。
 1 運転支援装置、11 候補取得部、12 出力制御部、13 候補選択部、14 目標対象物決定部、16 記憶部、18 同乗者決定取得部、31,31a,31b,31c,31d,31e,34 設定範囲、32 視線位置、91 処理回路、92 プロセッサ、93 メモリ。

Claims (13)

  1.  自動運転が可能な車両の運転を支援する運転支援装置であって、
     前記車両周辺に関する周辺情報に基づいて検知された、前記車両が向かうべき目標対象物の候補である目標対象物候補を取得する候補取得部と、
     前記候補取得部で取得された複数の前記目標対象物候補のそれぞれに設定された設定範囲を、前記車両に搭載されたヘッドアップディスプレイに表示させる出力制御部と、
     前記車両の運転者の視線に関する視線情報に基づいて、前記運転者の視線位置が、前記複数の目標対象物候補の前記設定範囲のうちの一の前記目標対象物候補の前記設定範囲に含まれると判定した場合に、当該一の目標対象物候補を選択する候補選択部と、
     前記候補選択部で前記目標対象物候補が選択された後、前記運転者に操作可能な決定ボタンが操作された場合に、前記候補選択部で選択された前記目標対象物候補を前記目標対象物として決定する目標対象物決定部と
    を備え、
     前記目標対象物決定部は、
     決定した前記目標対象物に前記車両が向かうように前記車両の前記自動運転を制御可能な自動運転制御部に、決定した前記目標対象物を出力する、運転支援装置。
  2.  請求項1に記載の運転支援装置であって、
     前記決定ボタンが、前記候補選択部による前記目標対象物候補の選択前に操作された場合に、前記視線情報に基づく前記運転者の視線位置を記憶する記憶部をさらに備え、
     前記記憶部に記憶された視線位置が、前記決定ボタンの操作後に前記候補取得部で取得された前記目標対象物候補の前記設定範囲に含まれる場合に、当該目標対象物候補が、前記目標対象物決定部で決定すべき前記目標対象物として用いられる、運転支援装置。
  3.  請求項1に記載の運転支援装置であって、
     前記出力制御部は、
     前記運転者の視線位置を識別可能に、前記ヘッドアップディスプレイに表示させる、運転支援装置。
  4.  請求項1に記載の運転支援装置であって、
     前記出力制御部は、
     前記運転者の視線位置が、前記候補取得部で取得された複数の前記目標対象物候補の前記設定範囲のうちの一の前記目標対象物候補の前記設定範囲に含まれる場合に、前記一の目標対象物候補の前記設定範囲と、それ以外の前記目標対象物候補の前記設定範囲とを識別可能に前記ヘッドアップディスプレイに表示させる、運転支援装置。
  5.  請求項1に記載の運転支援装置であって、
     前記出力制御部は、
     前記候補取得部で前記目標対象物候補を取得したタイミングに基づいて、前記ヘッドアップディスプレイにより表示される前記目標対象物候補の前記設定範囲の表示態様を変更する、運転支援装置。
  6.  請求項1に記載の運転支援装置であって、
     前記出力制御部は、
     前記ヘッドアップディスプレイにより表示される前記目標対象物候補の表示態様を変更する場合に、前記車両に搭載された音声出力装置に音声出力させる、運転支援装置。
  7.  請求項1に記載の運転支援装置であって、
     前記出力制御部は、
     前記候補取得部で直近に取得された前記目標対象物候補の位置に基づいて、前記車両に搭載された複数の音声出力装置の音声出力を制御する、運転支援装置。
  8.  請求項1に記載の運転支援装置であって、
     前記出力制御部は、
     前記車両で生成された前記周辺情報に基づいて検知されずに、前記車両外部で生成された前記周辺情報に基づいて検知された前記目標対象物候補の前記設定範囲を、前記ヘッドアップディスプレイにポップアップ表示させる、運転支援装置。
  9.  請求項1に記載の運転支援装置であって、
     前記候補選択部で前記目標対象物候補が選択された後、前記決定ボタンの操作以外の予め定められた操作が行われた場合に、前記候補選択部で選択された前記目標対象物候補を記憶する記憶部をさらに備え、
     前記目標対象物決定部は、
     前記予め定められた操作後に前記決定ボタンが操作された場合に、前記記憶部に記憶された前記目標対象物候補を前記目標対象物として決定する、運転支援装置。
  10.  請求項1に記載の運転支援装置であって、
     前記車両の同乗者または遠隔操作者によって決定された前記目標対象物を取得する同乗者決定取得部をさらに備え、
     前記決定ボタンが操作されなかった場合に、前記同乗者決定取得部で取得された前記目標対象物が、前記目標対象物決定部で決定すべき前記目標対象物として用いられる、運転支援装置。
  11.  請求項1に記載の運転支援装置であって、
     前記目標対象物は、
     前記車両が駐車すべき駐車スペース、または、前記車両が追従すべき他車両を含む、運転支援装置。
  12.  自動運転が可能な車両の運転を支援する運転支援装置であって、
     前記車両周辺に関する周辺情報に基づいて検知された、前記車両が向かうべき目標対象物の候補である目標対象物候補を取得する候補取得部と、
     前記候補取得部で取得された複数の前記目標対象物候補のそれぞれに設定された設定範囲を、前記車両に搭載されたヘッドアップディスプレイに表示させる出力制御部と、
     前記車両の運転者の視線に関する視線情報に基づいて、前記運転者の視線位置が、前記複数の目標対象物候補の前記設定範囲のうちの一の前記目標対象物候補の前記設定範囲に含まれると判定した場合に、当該一の目標対象物候補を選択する候補選択部と、
     前記候補選択部で前記目標対象物候補が選択された後、前記視線情報に基づいて、前記運転者の目の動きによる予め定められたジェスチャが行われたと判定した場合に、前記候補選択部で選択された前記目標対象物候補を前記目標対象物として決定する目標対象物決定部とを備え、
     前記目標対象物決定部は、
     決定した前記目標対象物に前記車両が向かうように前記車両の前記自動運転を制御可能な自動運転制御部に、決定した前記目標対象物を出力する、運転支援装置。
  13.  自動運転が可能な車両の運転を支援する運転支援装置であって、
     前記車両周辺に関する周辺情報に基づいて検知された、前記車両が向かうべき目標対象物の候補である目標対象物候補を取得する候補取得部と、
     前記候補取得部で取得された複数の前記目標対象物候補のそれぞれに設定された設定範囲を、前記車両に搭載されたヘッドアップディスプレイに表示させる出力制御部と、
     前記車両の運転者の指差しに関する指差情報に基づいて、前記運転者の指差位置が、前記複数の目標対象物候補の前記設定範囲のうちの一の前記目標対象物候補の前記設定範囲に含まれると判定した場合に、当該一の目標対象物候補を選択する候補選択部と、
     前記候補選択部で前記目標対象物候補が選択された後、前記車両の運転者の視線に関する視線情報に基づいて、前記運転者の目の動きによる予め定められたジェスチャが行われたと判定した場合に、前記候補選択部で選択された前記目標対象物候補を前記目標対象物として決定する目標対象物決定部と
    を備え、
     前記目標対象物決定部は、
     決定した前記目標対象物に前記車両が向かうように前記車両の前記自動運転を制御可能な自動運転制御部に、決定した前記目標対象物を出力する、運転支援装置。
PCT/JP2015/080750 2015-10-30 2015-10-30 運転支援装置 WO2017072956A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE112015007066.4T DE112015007066T5 (de) 2015-10-30 2015-10-30 Fahrunterstützungsvorrichtung
US15/754,852 US10618528B2 (en) 2015-10-30 2015-10-30 Driving assistance apparatus
JP2017547318A JP6456516B2 (ja) 2015-10-30 2015-10-30 運転支援装置
PCT/JP2015/080750 WO2017072956A1 (ja) 2015-10-30 2015-10-30 運転支援装置
CN201580084135.3A CN108349503B (zh) 2015-10-30 2015-10-30 驾驶辅助装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/080750 WO2017072956A1 (ja) 2015-10-30 2015-10-30 運転支援装置

Publications (1)

Publication Number Publication Date
WO2017072956A1 true WO2017072956A1 (ja) 2017-05-04

Family

ID=58629987

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/080750 WO2017072956A1 (ja) 2015-10-30 2015-10-30 運転支援装置

Country Status (5)

Country Link
US (1) US10618528B2 (ja)
JP (1) JP6456516B2 (ja)
CN (1) CN108349503B (ja)
DE (1) DE112015007066T5 (ja)
WO (1) WO2017072956A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019031107A1 (ja) * 2017-08-07 2019-02-14 日立オートモティブシステムズ株式会社 駐車制御装置及び方法
JP2019215214A (ja) * 2018-06-12 2019-12-19 矢崎総業株式会社 車両制御システム
WO2020003558A1 (ja) * 2018-06-26 2020-01-02 クラリオン株式会社 駐車支援装置
KR102099407B1 (ko) * 2018-11-27 2020-05-15 주식회사 파크에이아이 자율 주행 방법 및 자율 주행 장치
JPWO2020110186A1 (ja) * 2018-11-27 2021-05-20 三菱電機株式会社 運転計画変更指示装置および運転計画変更指示方法
US11790783B2 (en) 2018-09-14 2023-10-17 Panasonic Holdings Corporation Pedestrian device, vehicle-mounted device, mobile body guidance system, and mobile body guidance method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017140890A (ja) * 2016-02-09 2017-08-17 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
DE112016007237T5 (de) * 2016-10-19 2019-06-27 Ford Motor Company Ein system und verfahren zum identifizieren von unbelegten parkpositionen
JP2020165692A (ja) * 2019-03-28 2020-10-08 本田技研工業株式会社 制御装置、制御方法およびプログラム
CN112319496A (zh) * 2019-08-01 2021-02-05 北京小马智行科技有限公司 自动驾驶车辆的故障处理方法、装置及存储介质
CN113173179B (zh) * 2021-06-09 2023-02-21 中国第一汽车股份有限公司 一种驾驶模式切换提示方法、装置及车辆
JP2023051132A (ja) * 2021-09-30 2023-04-11 トヨタ自動車株式会社 運転支援システム、運転支援方法、運転支援プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1086698A (ja) * 1996-09-12 1998-04-07 Hitachi Ltd 自動車の走行制御装置
JP2007099199A (ja) * 2005-10-07 2007-04-19 Denso Corp 画面移動型表示装置
WO2007058325A1 (ja) * 2005-11-17 2007-05-24 Aisin Seiki Kabushiki Kaisha 駐車支援装置及び駐車支援方法
WO2014181543A1 (ja) * 2013-05-09 2014-11-13 株式会社デンソー 視線入力装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006172215A (ja) * 2004-12-16 2006-06-29 Fuji Photo Film Co Ltd 運転支援システム
EP2143611B1 (en) 2007-05-02 2013-04-10 Toyota Jidosha Kabushiki Kaisha Vehicle behavior controller
CN102933429B (zh) 2010-06-09 2015-04-29 日产自动车株式会社 停车模式选择装置以及停车模式选择方法
US20120224060A1 (en) * 2011-02-10 2012-09-06 Integrated Night Vision Systems Inc. Reducing Driver Distraction Using a Heads-Up Display
US10339711B2 (en) * 2013-03-15 2019-07-02 Honda Motor Co., Ltd. System and method for providing augmented reality based directions based on verbal and gestural cues
US9285587B2 (en) * 2013-03-15 2016-03-15 Inrix, Inc. Window-oriented displays for travel user interfaces
US20160054795A1 (en) * 2013-05-29 2016-02-25 Mitsubishi Electric Corporation Information display device
EP3031388B1 (en) * 2013-08-08 2020-01-15 Panasonic Intellectual Property Management Co., Ltd. Visual field-calculating unit and visual field-calculating method
US9354073B2 (en) * 2013-12-09 2016-05-31 Harman International Industries, Inc. Eye gaze enabled navigation system
WO2015094371A1 (en) * 2013-12-20 2015-06-25 Intel Corporation Systems and methods for augmented reality in a head-up display
US9639968B2 (en) * 2014-02-18 2017-05-02 Harman International Industries, Inc. Generating an augmented view of a location of interest
JP6481846B2 (ja) * 2014-03-27 2019-03-13 日本精機株式会社 車両用警報装置
TWI522257B (zh) * 2014-07-09 2016-02-21 原相科技股份有限公司 車用安全系統及其運作方法
JP6149824B2 (ja) * 2014-08-22 2017-06-21 トヨタ自動車株式会社 車載装置、車載装置の制御方法及び車載装置の制御プログラム
DE112015004431B4 (de) * 2014-09-29 2021-07-29 Yazaki Corporation Fahrzeuganzeigevorrichtung
US9690104B2 (en) * 2014-12-08 2017-06-27 Hyundai Motor Company Augmented reality HUD display method and device for vehicle
JP6372402B2 (ja) * 2015-03-16 2018-08-15 株式会社デンソー 画像生成装置
EP3072710B1 (en) * 2015-03-24 2018-03-28 LG Electronics Inc. Vehicle, mobile terminal and method for controlling the same
TWI578021B (zh) * 2015-08-19 2017-04-11 國立臺北科技大學 擴增實境互動系統及其動態資訊互動顯示方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1086698A (ja) * 1996-09-12 1998-04-07 Hitachi Ltd 自動車の走行制御装置
JP2007099199A (ja) * 2005-10-07 2007-04-19 Denso Corp 画面移動型表示装置
WO2007058325A1 (ja) * 2005-11-17 2007-05-24 Aisin Seiki Kabushiki Kaisha 駐車支援装置及び駐車支援方法
WO2014181543A1 (ja) * 2013-05-09 2014-11-13 株式会社デンソー 視線入力装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019031107A1 (ja) * 2017-08-07 2019-02-14 日立オートモティブシステムズ株式会社 駐車制御装置及び方法
JPWO2019031107A1 (ja) * 2017-08-07 2020-04-09 日立オートモティブシステムズ株式会社 駐車制御装置及び方法
US11372415B2 (en) 2018-06-12 2022-06-28 Yazaki Corporation Vehicle control system
JP2019215214A (ja) * 2018-06-12 2019-12-19 矢崎総業株式会社 車両制御システム
WO2019239629A1 (ja) * 2018-06-12 2019-12-19 矢崎総業株式会社 車両制御システム
JP7146466B2 (ja) 2018-06-12 2022-10-04 矢崎総業株式会社 車両制御システム
WO2020003558A1 (ja) * 2018-06-26 2020-01-02 クラリオン株式会社 駐車支援装置
JP2020001479A (ja) * 2018-06-26 2020-01-09 クラリオン株式会社 駐車支援装置
US11472401B2 (en) 2018-06-26 2022-10-18 Clarion Co., Ltd. Parking assistance device
JP7188916B2 (ja) 2018-06-26 2022-12-13 フォルシアクラリオン・エレクトロニクス株式会社 駐車支援装置
US11790783B2 (en) 2018-09-14 2023-10-17 Panasonic Holdings Corporation Pedestrian device, vehicle-mounted device, mobile body guidance system, and mobile body guidance method
JPWO2020110186A1 (ja) * 2018-11-27 2021-05-20 三菱電機株式会社 運転計画変更指示装置および運転計画変更指示方法
JP7051263B2 (ja) 2018-11-27 2022-04-11 三菱電機株式会社 運転計画変更指示装置および運転計画変更指示方法
KR102099407B1 (ko) * 2018-11-27 2020-05-15 주식회사 파크에이아이 자율 주행 방법 및 자율 주행 장치

Also Published As

Publication number Publication date
US20180244286A1 (en) 2018-08-30
JPWO2017072956A1 (ja) 2018-02-15
CN108349503B (zh) 2022-08-02
US10618528B2 (en) 2020-04-14
JP6456516B2 (ja) 2019-01-23
DE112015007066T5 (de) 2018-07-12
CN108349503A (zh) 2018-07-31

Similar Documents

Publication Publication Date Title
JP6456516B2 (ja) 運転支援装置
CN107430007B (zh) 基于自动-手动驾驶偏好比例的路线选择
KR102070530B1 (ko) 모션 계획에 기초한 자율 주행 차량의 운행 방법 및 시스템
CN106062514B (zh) 便携式装置与车辆头端单元之间的交互
EP3395600B1 (en) In-vehicle device
WO2015136874A1 (ja) 表示制御装置、表示装置、表示制御プログラム、表示制御方法、及び記録媒体
EP3334626A1 (en) Autonomous vehicle human driver takeover mechanism using electrodes
JP6448804B2 (ja) 表示制御装置、表示装置および表示制御方法
JP6851482B2 (ja) 操作支援装置および操作支援方法
JPWO2018078732A1 (ja) 表示制御装置、表示装置および表示制御方法
JP6430031B2 (ja) 出力制御装置及び出力制御方法
JPWO2018066026A1 (ja) 自動運転制御パラメータ変更装置および自動運転制御パラメータ変更方法
US20200011693A1 (en) Device and method for assisting driving of vehicles
JP2008021234A (ja) 運転支援画像表示システム及び車載装置
JP6656359B2 (ja) 駐車支援用表示制御装置および駐車支援用表示制御方法
WO2015033470A1 (ja) 運転支援装置および運転支援方法
KR20210100187A (ko) 자율 주행 차량 운전자의 운전자 정보의 출력을 제어하고 운전자 주의력을 유지하기 위한 장치 및 방법
JP7051263B2 (ja) 運転計画変更指示装置および運転計画変更指示方法
JP2019082856A (ja) 表示装置、表示制御方法、及びプログラム
JPWO2018167815A1 (ja) 表示制御装置及び表示制御方法
JP6475413B2 (ja) ナビゲーションシステム
US20220306145A1 (en) Assistance device for supporting switching between automatic driving mode and manual driving mode
JP7357784B2 (ja) 警報制御装置及び警報制御方法
US20210293569A1 (en) System for navigation route guidance
JP6432312B2 (ja) ナビゲーションシステム、ナビゲーション方法、及びナビゲーションプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15907320

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017547318

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15754852

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112015007066

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15907320

Country of ref document: EP

Kind code of ref document: A1