WO2021084618A1 - 運転支援装置および運転支援方法 - Google Patents

運転支援装置および運転支援方法 Download PDF

Info

Publication number
WO2021084618A1
WO2021084618A1 PCT/JP2019/042380 JP2019042380W WO2021084618A1 WO 2021084618 A1 WO2021084618 A1 WO 2021084618A1 JP 2019042380 W JP2019042380 W JP 2019042380W WO 2021084618 A1 WO2021084618 A1 WO 2021084618A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
person
gesture
driving support
support device
Prior art date
Application number
PCT/JP2019/042380
Other languages
English (en)
French (fr)
Inventor
下谷 光生
直志 宮原
義典 上野
圭作 福田
家田 邦代
祐介 荒井
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2019/042380 priority Critical patent/WO2021084618A1/ja
Priority to JP2021553932A priority patent/JP7313465B2/ja
Publication of WO2021084618A1 publication Critical patent/WO2021084618A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions

Definitions

  • the present invention relates to a vehicle driving support device, and more particularly to a technique for controlling a vehicle in response to a person's gesture.
  • Patent Document 1 when the gesture detection unit of a taxi vehicle detects a person making a gesture requesting that the taxi stop, the automatic driving system of the vehicle stops the vehicle in the vicinity of the person. The technology to make it is proposed.
  • Patent Document 1 is effective for vehicles that pick up and drop off unspecified passengers such as taxis, but is not suitable for general vehicles such as private cars. This is because when this technology is applied to a general vehicle, the gesture detection unit reacts to the gesture of a person unrelated to the vehicle, and the vehicle may be stopped unnecessarily.
  • the present invention has been made to solve the above problems, and an object of the present invention is to provide a driving support device capable of controlling a vehicle in response only to a gesture of a person related to the vehicle. ..
  • the driving support device determines whether or not a vehicle-related person storage unit that stores a vehicle-related person who is a person related to the vehicle and a person outside the vehicle who is a person around the vehicle is a vehicle-related person. It is provided with a vehicle-related person determination unit, a gesture recognition unit that recognizes the gesture of a person outside the vehicle, and a vehicle control unit that controls the vehicle based on the gesture of the person outside the vehicle determined to be a vehicle-related person.
  • the present invention since the vehicle is controlled only in response to the gesture of the vehicle-related person stored in the vehicle-related person storage unit, it is possible to react to the gesture of a person unrelated to the vehicle. Be prevented. Therefore, the present invention can be applied to various vehicles including general vehicles.
  • FIG. It is a figure which shows the structure of the driving support device which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation of the driving support apparatus which concerns on Embodiment 1.
  • FIG. It is a figure which shows the hardware configuration example of the driving support device. It is a figure which shows the hardware configuration example of the driving support device. It is a figure which shows the structure of the driving support device which concerns on Embodiment 2. It is a figure which shows the structure of the driving support device which concerns on Embodiment 3. It is a figure which shows the structure of the driving support device which concerns on Embodiment 4. It is a flowchart which shows the operation of the driving support apparatus which concerns on Embodiment 4. It is a flowchart which shows the operation of the driving support apparatus which concerns on Embodiment 4. It is a figure which shows the structure of the driving support device which concerns on Embodiment 6.
  • FIG. 1 is a diagram showing a configuration of a driving support device 10 according to the first embodiment.
  • the driving support device 10 is mounted on the vehicle 1 and is connected to the vehicle outside photographing device 21 and the traveling control device 22 included in the vehicle 1.
  • the vehicle outside photographing device 21 is a camera that photographs the periphery of the vehicle 1, and is used here for the purpose of photographing a person (hereinafter referred to as “outside vehicle person”) in the vicinity of the vehicle 1.
  • the travel control device 22 is a control device that controls the travel system of the vehicle 1, that is, controls the braking, driving, and steering of the vehicle 1.
  • the driving support device 10 includes a vehicle-related person storage unit 11, a vehicle-related person determination unit 12, a gesture recognition unit 13, and a vehicle control unit 14.
  • the vehicle-related person storage unit 11 is a storage medium for storing a person related to the vehicle 1 (hereinafter referred to as "vehicle-related person").
  • vehicle-related person stores an image (for example, a face photograph) of the vehicle-related person as information for identifying the vehicle-related person.
  • the owner of the vehicle 1 can store an arbitrary person in the vehicle-related person storage unit 11. For example, when the vehicle 1 is a private vehicle, it is assumed that the vehicle-related person storage unit 11 stores images of the family and friends of the owner of the vehicle 1.
  • the vehicle-related person determination unit 12 collates the image of the vehicle-related person taken by the vehicle-outside photographing device 21 with the image of the vehicle-related person stored in the vehicle-related person storage unit 11, so that the vehicle-related person is the vehicle-related person. Judge whether or not.
  • the gesture recognition unit 13 recognizes the gesture performed by the person outside the vehicle by analyzing the image of the person outside the vehicle taken by the outside vehicle photographing device 21.
  • Several predetermined gesture patterns are registered in the gesture recognition unit 13, and in the gesture recognition unit 13, the gesture of the person outside the vehicle, which can be seen from the image taken by the vehicle outside shooting device 21, is one of the prescribed gesture patterns.
  • the gesture recognition unit 13 recognizes what the gesture of the person outside the vehicle means. For example, when the gesture of a person outside the vehicle matches a gesture pattern meaning "stop" (for example, a gesture pattern of waving both hands), the gesture recognition unit 13 recognizes that the gesture means "stop".
  • the vehicle control unit 14 controls the travel control device 22 based on the gesture of the person outside the vehicle recognized by the gesture recognition unit 13. By doing so, the traveling of the vehicle 1 is controlled. For example, when the gesture of a person outside the vehicle determined to be related to the vehicle is recognized to mean "stop", the vehicle control unit 14 stops the vehicle 1.
  • a person outside the vehicle who is determined to be a vehicle-related person by the vehicle-related person determination unit 12 may be simply referred to as a "vehicle-related person".
  • the vehicle 1 is a private vehicle and the image of the owner's family of the vehicle 1 is stored in the vehicle-related person storage unit 11 of the driving support device 10.
  • the vehicle-related person determination unit 12 collates the image of the wife taken by the vehicle-outside photographing device 21 with the image of the vehicle-related person stored in the vehicle-related person storage unit 11, and the wife is a vehicle-related person. Judge that there is.
  • the gesture recognition unit 13 analyzes the image of the wife taken by the outside vehicle photographing device 21 and recognizes that the wife is performing the “stop” gesture.
  • the vehicle control unit 14 controls the travel control device 22 to stop the vehicle 1 in response to the "stop" gesture of the wife who is involved in the vehicle.
  • the driving support device 10 controls the vehicle 1 in response only to the gestures of the vehicle-related persons stored in advance in the vehicle-related person storage unit 11. That is, the driving support device 10 can prevent the vehicle 1 from being controlled in response to a gesture of a person unrelated to the vehicle 1. Therefore, the driving support device 10 can be applied to various vehicles including general vehicles.
  • step ST101 the gesture recognition unit 13 analyzes the image taken by the vehicle outside photographing device 21 and determines whether or not the person outside the vehicle is performing a gesture (step). ST101). If there is no person outside the vehicle, or if the person outside the vehicle is not making any gesture (NO in step ST101), step ST101 is repeated.
  • step ST101 determines whether or not the gesture of the person outside the vehicle matches any of the prescribed gesture patterns (step ST102). If the gesture of the person outside the vehicle does not match any gesture pattern (NO in step ST102), the process returns to step ST101.
  • step ST102 If the gesture of the person outside the vehicle matches any of the gesture patterns (YES in step ST102), the gesture recognition unit 13 recognizes the gesture of the person outside the vehicle (step ST103). Further, the vehicle-related person determination unit 12 collates the image of the person outside the vehicle who made the gesture with the image of the vehicle-related person stored in the vehicle-related person storage unit 11, so that the person outside the vehicle is related to the vehicle. It is determined whether or not the person is a person (step ST104). If the person outside the vehicle who made the gesture is not related to the vehicle (NO in step ST104), the process returns to step ST101.
  • the vehicle control unit 14 is a travel control device based on the gesture of the person outside the vehicle (vehicle-related person) recognized by the gesture recognition unit 13. By controlling 22, the traveling of the vehicle 1 is controlled (step ST105). Then, the process returns to step ST101.
  • the driving support device 10 repeatedly executes the above operations.
  • the vehicle-related person determination unit 12 determines whether or not the person outside the vehicle is a vehicle-related person, but the order is The reverse is also possible. That is, even if the vehicle-related person determination unit 12 first determines whether or not the person outside the vehicle is a vehicle-related person, and then the gesture recognition unit 13 recognizes only the gesture of the person outside the vehicle determined to be a vehicle-related person. Good (that is, the gesture recognition unit 13 does not have to recognize the gesture of a person outside the vehicle who is not related to the vehicle).
  • the vehicle control unit 14 stops the vehicle 1, but the vehicle 1 may be decelerated without stopping. For example, even if the vehicle 1 is temporarily decelerated, the effect that the driver of the vehicle 1 can be made aware that there is a vehicle-related person who makes a "stop" gesture can be obtained.
  • the vehicle control unit 14 is a vehicle-related person when the driving authority of the vehicle 1 is in the vehicle 1, that is, when the driver or the automatic driving device in the vehicle 1 has the driving authority of the vehicle 1.
  • the vehicle 1 may be controlled based on the gesture of a person outside the vehicle.
  • the automatic driving device When the automatic driving device has the driving authority of the vehicle 1" is not only when the automatic driving device automates all the driving operations of the vehicle 1, but also when only a part of the driving operations are automated. It may be included if it is.
  • the definition of the automation level (autonomous driving level) of the automatic driving of an automobile will be described. According to SAE (Society of Automotive Engineers) International's J3016 (September 2016) and its Japanese reference translation, JASO TP1804 (February 2018), the automatic driving level of the automatic driving system is defined as follows. Has been done.
  • Level 0 no driving automation: driver performs some or all dynamic driving tasks
  • Level 1 driving assistance: system performs either vertical or horizontal vehicle motion control subtasks in a limited area
  • Level 2 Partial Driving Automation: System Performs Both Vertical and Horizontal Vehicle Motion Control Subtasks in Limited Area
  • Level 3 Consditional Driving Automation: System Performs All Dynamic Driving Tasks in Limited Area
  • Level 4 advanced operation automation: The system responds to all dynamic operation tasks and when it is difficult to continue operation.
  • Level 5 (fully automated operation): The system executes an unlimited number of responses to all dynamic operation tasks and when it is difficult to continue operation (that is, not within the limited area). Means all operational and tactical functions (excluding strategic functions such as itinerary planning and waypoint selection) that must be performed in real time when operating a vehicle in road traffic.
  • a "limited area” is a specific condition (geographical constraint, road surface constraint, environmental constraint, traffic constraint, speed constraint, temporal constraint) designed to operate the system or its function. (Including restrictions, etc.).
  • the automatic driving level is defined in this way, for example, the case where the automatic driving level is level 4 or higher may be treated as the above-mentioned "when the automatic driving device has the driving authority of vehicle 1".
  • the vehicle control unit 14 does not have to react to the gesture of the person concerned with the vehicle even if the person outside the vehicle is a person related to the vehicle. That is, the vehicle control unit 14 may control the vehicle 1 based on the gesture of the vehicle-related person when the vehicle-related person does not have the driving authority.
  • gestures recognized by the gesture recognition unit 13 There are no restrictions on the types and numbers of gestures recognized by the gesture recognition unit 13, that is, gesture patterns registered in the gesture recognition unit 13.
  • a gesture of crossing both hands a gesture of making an "X" mark with both hands
  • a gesture of waving one hand slowly a gesture of waving one hand violently, and the like may be recognized by the gesture recognition unit 13.
  • a gesture of waving both hands, a gesture of crossing both hands, and a gesture of waving one hand slowly are defined as gestures that mean "stop” or "wait”
  • a gesture of waving one hand violently is defined as a gesture that means "come”. It is supposed to be defined.
  • gestures are general gestures that everyone often performs, but since the vehicle control unit 14 does not react to anything other than the gestures of the vehicle personnel, even if such gestures are included in the recognition target, the vehicle control It is prevented that the part 14 reacts unnecessarily.
  • FIG. 3 and 4 are diagrams showing an example of the hardware configuration of the driving support device 10, respectively.
  • Each function of the component of the driving support device 10 shown in FIG. 1 is realized by, for example, the processing circuit 50 shown in FIG. That is, the driving support device 10 stores a vehicle-related person who is a person related to the vehicle, determines whether or not the person outside the vehicle who is a person around the vehicle is a person related to the vehicle, and makes a gesture of the person outside the vehicle.
  • the processing circuit 50 for recognizing and controlling the vehicle based on the gesture of a person outside the vehicle determined to be related to the vehicle is provided.
  • the processing circuit 50 may be dedicated hardware, or is a processor (Central Processing Unit (CPU), processing unit, arithmetic unit, microprocessor, microprocessor, etc.) that executes a program stored in the memory. It may be configured by using a DSP (also called a Digital Signal Processor)).
  • processor Central Processing Unit (CPU)
  • processing unit processing unit
  • arithmetic unit microprocessor
  • microprocessor microprocessor
  • etc. that executes a program stored in the memory. It may be configured by using a DSP (also called a Digital Signal Processor)).
  • DSP Digital Signal Processor
  • the processing circuit 50 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable). GateArray), or a combination of these, etc.
  • the functions of the components of the driving support device 10 may be realized by individual processing circuits, or these functions may be collectively realized by one processing circuit.
  • FIG. 4 shows an example of the hardware configuration of the driving support device 10 when the processing circuit 50 is configured by using the processor 51 that executes the program.
  • the functions of the components of the driving support device 10 are realized by software (software, firmware, or a combination of software and firmware).
  • the software or the like is described as a program and stored in the memory 52.
  • the processor 51 realizes the functions of each part by reading and executing the program stored in the memory 52. That is, when the driving support device 10 is executed by the processor 51, the process of storing the vehicle-related person who is a person related to the vehicle and whether the person outside the vehicle who is a person around the vehicle is a vehicle-related person.
  • a program that eventually executes a process of determining whether or not the vehicle is present, a process of recognizing the gesture of a person outside the vehicle, and a process of controlling the vehicle based on the gesture of the person outside the vehicle determined to be related to the vehicle.
  • a memory 52 for storing the above is provided. In other words, it can be said that this program causes the computer to execute the procedure and method of operation of the components of the driving support device 10.
  • the memory 52 is a non-volatile or non-volatile memory such as a RAM (RandomAccessMemory), a ROM (ReadOnlyMemory), a flash memory, an EPROM (ErasableProgrammableReadOnlyMemory), or an EEPROM (ElectricallyErasableProgrammableReadOnlyMemory). Volatile semiconductor memory, HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disc) and its drive device, etc., or any storage medium used in the future. You may.
  • RAM RandomAccessMemory
  • ROM ReadOnlyMemory
  • flash memory an EPROM (ErasableProgrammableReadOnlyMemory), or an EEPROM (ElectricallyErasableProgrammableReadOnlyMemory).
  • Volatile semiconductor memory Volatile semiconductor memory, HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk,
  • the present invention is not limited to this, and a configuration in which a part of the components of the driving support device 10 is realized by dedicated hardware and another part of the components is realized by software or the like may be used.
  • the function is realized by the processing circuit 50 as dedicated hardware, and for some other components, the processing circuit 50 as the processor 51 is stored in the memory 52. It is possible to realize the function by reading and executing it.
  • the driving support device 10 can realize each of the above-mentioned functions by hardware, software, or a combination thereof.
  • FIG. 5 is a diagram showing a configuration of the driving support device 10 according to the second embodiment.
  • the configuration of the driving support device 10 of FIG. 5 is the configuration of FIG. 1 with the addition of the in-vehicle notification unit 15.
  • the in-vehicle notification device 23 included in the vehicle 1 is connected to the driving support device 10.
  • the in-vehicle notification device 23 is a means for notifying the driver of the vehicle 1 of various types of information, and is composed of, for example, a display device that visually outputs information, a speaker that outputs information audibly, and the like. ..
  • the display device as the in-vehicle notification device 23 may be, for example, a display device arranged on the instrument panel or the center panel, or by using the windshield of the vehicle 1 as a screen, the image is directly displayed in the driver's field of view. It may be a head-up display or the like. Further, the display device as the in-vehicle notification device 23 does not have to be dedicated to the driving support device 10, and may be shared with, for example, a navigation device or an electronic mirror.
  • the in-vehicle notification unit 15 notifies the driver of the vehicle 1 through the in-vehicle notification device 23 based on the gesture of the person outside the vehicle determined to be related to the vehicle. For example, the in-vehicle notification unit 15 displays an image of the vehicle-related person on the screen of the in-vehicle notification device 23 when the gesture of the vehicle-related person is recognized, or serves as an in-vehicle notification device 23 in which the vehicle-related person is photographed. A mark emphasizing the person concerned with the vehicle is superimposed on the screen of the electronic mirror of the vehicle, and a voice (for example, a message such as "Please stop") explaining the meaning of the gesture of the person concerned with the vehicle is output from the speaker of the in-vehicle notification device 23.
  • a voice for example, a message such as "Please stop
  • the image of the vehicle-related person displayed on the vehicle-in-vehicle notification device 23 by the in-vehicle notification unit 15 may be a live-action image taken by the vehicle-outside photographing device 21 or an image stored in the vehicle-related person storage unit 11. It may be a profile image (so-called "avatar") of a vehicle-related person registered in advance.
  • avatar profile image
  • the operations of the vehicle control unit 14 and the in-vehicle notification unit 15 change according to the type of gesture performed by the vehicle-related person. For example, a gesture of waving both hands, a gesture of crossing both hands, and a gesture of waving one hand slowly are defined as gestures meaning "stop” or "wait", and a gesture of waving one hand violently means “come”. Suppose it is defined as.
  • the vehicle control unit 14 and the vehicle interior notification unit 15 (A)
  • the in-vehicle notification unit 15 gives a voice notification such as "Please wait" to the driver.
  • the vehicle-related persons stored in the vehicle-related person storage unit 11 are classified according to their attributes, and the operations of the vehicle control unit 14 and the in-vehicle notification unit 15 change according to the attributes of the vehicle-related persons who made the gesture. May be good. For example, when a vehicle-related person is classified into three attributes of "family,””acquaintance,” and “another person,” and the vehicle-related person makes a gesture of waving both hands, the vehicle control unit 14 and the vehicle interior notification unit 15 (A) When the attribute of the vehicle-related person who made the gesture is "family", the vehicle control unit 14 stops the vehicle 1 and the in-vehicle notification unit 15 gives a voice notification such as "Please wait" to the driver.
  • the gesture recognition unit 13 may change the type of the gesture to be recognized and the meaning of the gesture to be recognized according to the attributes of the vehicle-related persons. For example, a unique gesture pattern that can be communicated only between family members may be defined as a gesture recognized by the gesture recognition unit 13 when the attribute of the vehicle-related person who made the gesture is "family". In addition, a unique gesture pattern may be defined for each person involved in the vehicle.
  • the operations of the vehicle control unit 14 and the in-vehicle notification unit 15 may be changed according to the state of the vehicle 1. For example, if the vehicle 1 is stopped when the gesture of the vehicle-related person is recognized, the vehicle control unit 14 does nothing, the in-vehicle notification unit 15 notifies the driver, and the vehicle 1 is running. If so, the vehicle interior notification unit 15 may do nothing and the vehicle control unit 14 may stop the vehicle 1.
  • FIG. 6 is a diagram showing a configuration of the driving support device 10 according to the third embodiment.
  • the configuration of the driving support device 10 of FIG. 6 is obtained by adding an external notification unit 16 to the configuration of FIG. Further, the driving support device 10 is connected to the vehicle outside notification device 24 included in the vehicle 1.
  • the vehicle outside notification device 24 is a means for notifying a person outside the vehicle of various types of information, and is composed of, for example, a display device that visually outputs information, a speaker that outputs information audibly, and the like.
  • the vehicle outside notification device 24 may notify a person outside the vehicle by using blinking headlights or hazard lamps, ringing of a horn, or the like.
  • the vehicle control unit 14 When the vehicle control unit 14 receives the gesture of the person outside the vehicle determined to be related to the vehicle, the outside notification unit 16 notifies the person concerned with the vehicle to that effect by using the outside notification device 24. As a result, the vehicle-related person who made the gesture can know whether or not the intention of the gesture made by himself / herself is transmitted to the driving support device 10.
  • the present embodiment may be combined with the second embodiment.
  • FIG. 7 is a diagram showing a configuration of the driving support device 10 according to the fourth embodiment.
  • the configuration of the driving support device 10 of FIG. 7 is the same as that of FIG. 1, but the in-vehicle photographing device 25 included in the vehicle 1 is connected to the driving support device 10.
  • the in-vehicle photographing device 25 is a camera that photographs the inside of the vehicle 1, and is used here for the purpose of photographing the passengers of the vehicle 1.
  • the vehicle-related person storage unit 11 of the driving support device 10 stores the passenger of the vehicle 1 photographed by the in-vehicle photographing device 25 as a vehicle-related person. That is, the vehicle-related person storage unit 11 stores the image of the passenger of the vehicle 1 taken by the in-vehicle photographing device 25 as the image of the vehicle-related person.
  • the passenger of vehicle 1 is a person related to the vehicle of vehicle 1, such as a family member or a friend of the owner of vehicle 1.
  • the passenger of the vehicle 1 is automatically registered in the vehicle-related person storage unit 11 as a vehicle-related person, so that the owner of the vehicle 1 can save the trouble of storing the vehicle-related person in the vehicle-related person storage unit 11. This makes it possible to improve the convenience of the driving support device 10.
  • FIG. 8 is a flowchart showing the operation. In FIG. 8, the steps in which the same processing as that shown in the flowchart of FIG. 2 is performed are designated by the same reference numerals.
  • step ST101 may be any timing, for example, when the passenger gets into the vehicle 1, when the vehicle 1 stops, or when the passenger gets off the vehicle 1 (step ST101 is the vehicle 1). If this is done when the vehicle is stopped or when the occupant gets out of vehicle 1, step ST102 is followed by step ST101).
  • the driving support device 10 determines whether or not the predetermined "gesture detection condition" is satisfied (step ST203).
  • the gesture detection condition for example, It is preferable that one or both of (A) before a certain time elapses after the vehicle 1 is stopped and (B) before the vehicle 1 restarts and travels a certain distance.
  • the "constant time" of the condition (A) is preferably about 1 minute, and the “constant distance” of the condition (B) is preferably about 40 m.
  • the "constant distance" of the condition (B) is the maximum value of the distance that the vehicle exterior photographing device 21 can capture an image having a resolution that can normally perform the processing of the gesture recognition unit 13 and the processing of the vehicle related person determination unit 12. You may.
  • step ST203 If the gesture detection condition is not satisfied (NO in step ST203), wait for vehicle 1 to start (restart) (step ST204). After that, if the vehicle 1 restarts (YES in step ST204), the process returns to step ST201.
  • step ST203 If the gesture detection condition is satisfied (YES in step ST203), the same process as the flowchart of FIG. 2 is performed. That is, the gesture recognition unit 13 analyzes the image taken by the vehicle outside photographing device 21 and determines whether or not the person outside the vehicle is performing a gesture (step ST101). If there is no person outside the vehicle, or if the person outside the vehicle is not making any gesture (NO in step ST101), the process returns to step ST203.
  • step ST101 determines whether or not the gesture of the person outside the vehicle matches any of the prescribed gesture patterns (step ST102). If the gesture of the person outside the vehicle does not match any gesture pattern (NO in step ST102), the process returns to step ST203.
  • step ST102 If the gesture of the person outside the vehicle matches any of the gesture patterns (YES in step ST102), the gesture recognition unit 13 recognizes the gesture of the person outside the vehicle (step ST103). Further, the vehicle-related person determination unit 12 collates the image of the person outside the vehicle who made the gesture with the image of the vehicle-related person stored in the vehicle-related person storage unit 11, so that the person outside the vehicle is related to the vehicle. It is determined whether or not the person is a person (step ST104). If the person outside the vehicle who made the gesture is not related to the vehicle (NO in step ST104), the process returns to step ST203.
  • the vehicle control unit 14 is a travel control device based on the gesture of the person outside the vehicle (vehicle-related person) recognized by the gesture recognition unit 13. By controlling 22, the traveling of the vehicle 1 is controlled (step ST105). Then, the process returns to step ST203.
  • the reason why the process of detecting the gesture of the person outside the vehicle (step ST101) by the gesture recognition unit 13 is performed after waiting for the vehicle 1 to stop is that the passenger of the vehicle 1 becomes the person outside the vehicle.
  • the gesture is used to indicate the intention after the vehicle 1 has stopped and the passenger has disembarked from the vehicle 1.
  • the reason why the gesture detection condition is set as the condition for the gesture recognition unit 13 to detect the gesture of the person outside the vehicle is that the timing when the passenger of the vehicle 1 becomes the person outside the vehicle and expresses the intention by the gesture is boarding. This is because most of the time is within a certain period immediately after the person gets off the vehicle 1.
  • the owner of the vehicle 1 puts a friend who is not stored in the vehicle-related person storage unit 11 on the vehicle 1, and immediately after the friend gets off the vehicle 1, the lost object is left behind. This is effective when you notice an errand or wave your hand to the vehicle 1.
  • the image of the passenger of the vehicle 1 stored in the vehicle-related person storage unit 11 is an image taken by the in-vehicle photographing device 25.
  • the driving support device 10 is a mobile terminal (for example, a mobile phone or the like).
  • the vehicle-related person storage unit 11 may acquire and store the image of the passenger stored in the communication terminal of the passenger by communication.
  • step ST203 it is not determined whether or not the passenger has disembarked from the vehicle 1, but the determination may be made. For example, even if the gesture detection condition is satisfied in step ST203, if the door is not opened or closed after the vehicle 1 is stopped, it is determined that the passenger has not got off the vehicle 1 and the gesture of a person outside the vehicle is detected. It is possible not to shift to step ST101 (step ST203 is repeated until the door is opened and closed). Further, if the number of passengers photographed by the in-vehicle photographing device 25 does not change even if the door is opened and closed, it may be determined that the passengers have not got off the vehicle 1. By making these determinations, it is possible to prevent the gesture recognition unit 13 from performing unnecessary gesture recognition processing.
  • the vehicle 1 since the passenger of the vehicle 1 is automatically stored in the vehicle-related person storage unit 11 as a vehicle-related person, the vehicle 1 aims to pick up and drop off an unspecified passenger like a bus or a taxi. It may be a vehicle that has been designated. For example, it is effective when a passenger who gets off the vehicle 1 which is a taxi notices a forgotten item and waves his hand to the vehicle 1 immediately after that.
  • the vehicle-related person storage unit 11 may delete the passenger who got off the vehicle 1 from the vehicle-related person's registration when the predetermined condition is satisfied. For example, when the gesture detection condition is no longer satisfied (NO in step ST203), the vehicle-related person storage unit 11 deletes all passenger registrations, and then step ST201 is performed. If the vehicle-related person storage unit 11 stores the passenger at that time as a vehicle-related person, the past passengers can be deleted from the vehicle-related person's registration.
  • the vehicle-related person storage unit 11 may retain the information of the past passengers for a certain period of time so that the person who has repeatedly boarded the vehicle 1 can be detected.
  • the person who first boarded the taxi vehicle 1 is memorized as a vehicle-related person with the attribute "passenger”, and the attribute of the person who repeatedly boarded the taxi more than a certain number of times is changed from "passenger" to "customer". May be good.
  • the operation of the driving support device 10 may be changed depending on the attributes of the vehicle-related persons. For example, if the attribute of the passenger who got off the taxi vehicle 1 is "customer", the passenger is treated as a vehicle related person of "family” attribute, and the passenger whose attribute is "passenger” is "acquaintance” attribute. It may be treated as a vehicle-related person.
  • the gesture recognition unit 13 performs the process of detecting the gesture of the person outside the vehicle (step ST101), but in this modification, the vehicle 1 is stopped in step ST101. It should be done after restarting.
  • the vehicle-related person storage unit 11 acquires an image of the passenger from the in-vehicle photographing device 25 at an appropriate timing after the vehicle 1 starts, and stores it as an image of the vehicle-related person. (Step ST301). After that, the driving support device 10 waits until the vehicle 1 stops (step ST302). When the vehicle 1 stops (YES in step ST302), the driving support device 10 waits for the vehicle 1 to start (restart) (step ST303). Then, when the vehicle 1 restarts (YES in step ST303), the driving support device 10 determines whether or not the predetermined "gesture detection condition" is satisfied (step ST304).
  • the vehicle 1 is restarted and before traveling a certain distance.
  • the "constant distance” of the condition (C) is preferably about 40 m.
  • the “constant distance” of the condition (C) is the maximum value of the distance that the vehicle exterior photographing device 21 can capture an image having a resolution that can normally perform the processing of the gesture recognition unit 13 and the processing of the vehicle-related person determination unit 12. You may.
  • step ST304 If the gesture detection condition is not satisfied (NO in step ST304), the process returns to step ST301.
  • step ST304 If the gesture detection condition is satisfied (YES in step ST304), the same process as the flowchart of FIG. 2 is performed. That is, the gesture recognition unit 13 analyzes the image taken by the vehicle outside photographing device 21 and determines whether or not the person outside the vehicle is performing a gesture (step ST101). If there is no person outside the vehicle, or if the person outside the vehicle is not making any gesture (NO in step ST101), the process returns to step ST304.
  • step ST101 determines whether or not the gesture of the person outside the vehicle matches any of the prescribed gesture patterns (step ST102). If the gesture of the person outside the vehicle does not match any gesture pattern (NO in step ST102), the process returns to step ST304.
  • step ST102 If the gesture of the person outside the vehicle matches any of the gesture patterns (YES in step ST102), the gesture recognition unit 13 recognizes the gesture of the person outside the vehicle (step ST103). Further, the vehicle-related person determination unit 12 collates the image of the person outside the vehicle who made the gesture with the image of the vehicle-related person stored in the vehicle-related person storage unit 11, so that the person outside the vehicle is related to the vehicle. It is determined whether or not the person is a person (step ST104). If the person outside the vehicle who made the gesture is not related to the vehicle (NO in step ST104), the process returns to step ST304.
  • step ST104 If the person outside the vehicle who made the gesture is a person involved in the vehicle (YES in step ST104), the vehicle control unit 14 controls the travel control device 22 based on the gesture of the person outside the vehicle recognized by the gesture recognition unit 13. Then, the traveling of the vehicle 1 is controlled (step ST105). Then, the process returns to step ST304.
  • the reason why the gesture recognition unit 13 detects the gesture of the person outside the vehicle is that the process (step ST101) is performed after waiting for the vehicle 1 to restart is because the passenger of the vehicle 1 is outside the vehicle.
  • the reason for expressing the intention by gestures as a person is mainly when the vehicle 1 is stopped, the passenger gets out of the vehicle 1, and the vehicle 1 tries to leave the place.
  • ⁇ Embodiment 5> there are a plurality of vehicles equipped with the driving support device 10, and the vehicle-related person storage unit 11 of the driving support device 10 stores information on the driving support device 10 of another vehicle and the vehicle-related person, which are predetermined. Share. Information sharing of vehicle-related persons in the plurality of driving support devices 10 may be automatically performed by wireless communication between vehicles (vehicle-to-vehicle communication).
  • the driving support device 10 of the vehicle A responds to the gestures of not only the vehicle related persons of the vehicle A but also the vehicle related persons of the vehicle B, and the driving support device 10 of the vehicle B is only the vehicle related persons of the vehicle B. It also responds to the gestures of the vehicle-related person in vehicle A.
  • FIG. 10 is a diagram showing a configuration of the driving support device 10 according to the sixth embodiment.
  • the vehicle 1 equipped with the driving support device 10 is an unmanned taxi (so-called "robot taxi”) which is an unmanned driving vehicle. That is, the vehicle 1 picks up and picks up passengers by automatic driving based on the travel plan received from the unmanned taxi management server 30.
  • robot taxi unmanned taxi
  • the travel plan transmitted from the unmanned taxi management server 30 includes information such as passenger boarding points, disembarking points, and planned travel routes. Since the vehicle 1 may pick up and drop off a plurality of passengers at one time, there may be a plurality of boarding points and disembarking points included in the travel plan. In addition, the travel plan of the vehicle 1 may include a plan after the passengers have been unloaded. Plans after unloading passengers include, for example, a plan to move to a predetermined waiting place and wait for a new travel plan from the unmanned taxi management server 30, or a predetermined patrol route such as a sink taxi. There are plans to search for passengers while driving.
  • the unmanned taxi management server 30 receives information on the boarding point (dispatch point) and the disembarking point (destination) from the unmanned taxi user, searches for the route from the boarding point to the disembarking point, and determines the planned travel route. By doing so, a travel plan is formulated, and the formulated travel plan is transmitted to the vehicle 1 through the communication network.
  • the vehicle 1 includes a travel plan storage device 26 that receives and stores a travel plan transmitted from the unmanned taxi management server 30. Further, the travel control device 22 of the vehicle 1 executes automatic driving of the operation level 4 or higher based on the travel plan stored in the travel plan storage device 26, whereby the vehicle 1 picks up the passengers at the boarding point. And deliver it to the drop-off point.
  • the driving support device 10 mounted on the vehicle 1 starts the operation shown in the flowchart of FIG. 8 or FIG. Therefore, after the vehicle 1 is stopped and the passenger gets off, while the gesture detection condition is satisfied, for example, if the passenger notices a forgotten item and makes a "stop" gesture to the vehicle 1, driving support is provided.
  • the device 10 stops the vehicle 1 in response to the gesture.
  • the driving support device 10 of the present embodiment has a function of opening and closing the door of the vehicle 1 and monitoring the conditions of the seat and the luggage compartment, and stops the vehicle 1 in response to a gesture of a passenger getting off the vehicle 1. After that, for example, when it is confirmed that the passenger has taken out the forgotten item from the vehicle 1, the vehicle 1 is restarted from the automatic driving. Further, when the driving support device 10 does not show the pretense that the passenger approaches the vehicle 1 within a certain period of time (for example, 10 seconds) after stopping the vehicle 1 in response to the gesture of the passenger who got off the vehicle 1. Or, even when a gesture for canceling the previous gesture (for example, a gesture such as waving the right hand to the left or right) is detected, the vehicle 1 is made to resume automatic driving.
  • a gesture for canceling the previous gesture for example, a gesture such as waving the right hand to the left or right
  • each gesture differs depending on the customs of the country and ethnic group. Therefore, the driving support device 10 acquires a profile such as the passenger's nationality and place of origin from the unmanned taxi management server 30 or the passenger's communication terminal, and the gesture to be recognized or the gesture to be recognized according to the passenger's profile. You may change the meaning.
  • the vehicle 1 is an unmanned taxi
  • the vehicle 1 may be a vehicle managed by an individual (for example, a private car).
  • the travel plan of the vehicle 1 is formulated by the personal computer or mobile terminal of the individual manager of the vehicle 1 and transmitted to the vehicle 1.
  • each embodiment can be freely combined, and each embodiment can be appropriately modified or omitted within the scope of the invention.
  • 1 vehicle 10 driving support device, 11 vehicle related person storage unit, 12 vehicle related person judgment unit, 13 gesture recognition unit, 14 vehicle control unit, 15 in-vehicle notification unit, 16 out-of-vehicle notification unit, 21 out-of-vehicle photography device, 22 driving control Equipment, 23 in-vehicle notification device, 24 out-of-vehicle notification device, 25 in-vehicle photography device, 26 travel plan storage device, 30 unmanned taxi management server.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

運転支援装置(10)は、車両(1)に関係する人物である車両関係者を記憶する車両関係者記憶部(11)と、車両(1)の周辺にいる人物である車外人物が車両関係者であるか否かを判断する車両関係者判断部(12)と、車外人物のジェスチャーを認識するジェスチャー認識部(13)と、車両関係者と判断された車外人物のジェスチャーに基づいて車両(1)を制御する車両制御部(14)と、を備える。

Description

運転支援装置および運転支援方法
 本発明は、車両の運転支援装置に関するものであり、特に、人物のジェスチャーに応じて車両を制御する技術に関するものである。
 近年、車両と車外の人物(例えば歩行者)とのコミュニケーションを図る技術が種々提案されている。例えば下記の特許文献1には、タクシーである車両のジェスチャー検出部がタクシーの停車を要求するジェスチャーをしている人物を検出すると、当該車両の自動運転システムが当該車両をその人物の周辺に停車させる技術が提案されている。
特開2018-180987号公報
 特許文献1の技術は、タクシーのように不特定の乗客を送迎する車両には有効であるが、自家用車などの一般車両には不向きである。この技術を一般車両に適用すると、ジェスチャー検出部が車両とは無関係の人物のジェスチャーに反応してしまい、車両がむやみに停車させられるおそれがあるためである。
 本発明は以上のような課題を解決するためになされたものであり、車両に関係する人物のジェスチャーだけに反応して車両を制御することが可能な運転支援装置を提供することを目的とする。
 本発明に係る運転支援装置は、車両に関係する人物である車両関係者を記憶する車両関係者記憶部と、車両の周辺にいる人物である車外人物が車両関係者であるか否かを判断する車両関係者判断部と、車外人物のジェスチャーを認識するジェスチャー認識部と、車両関係者と判断された車外人物のジェスチャーに基づいて車両を制御する車両制御部と、を備える。
 本発明に係る運転支援装置によれば、車両関係者記憶部に記憶された車両関係者のジェスチャーだけに反応して車両が制御されるため、車両とは無関係の人物のジェスチャーに反応することが防止される。よって、本発明は一般車両を含む様々な車両への適用が可能である。
 本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係る運転支援装置の構成を示す図である。 実施の形態1に係る運転支援装置の動作を示すフローチャートである。 運転支援装置のハードウェア構成例を示す図である。 運転支援装置のハードウェア構成例を示す図である。 実施の形態2に係る運転支援装置の構成を示す図である。 実施の形態3に係る運転支援装置の構成を示す図である。 実施の形態4に係る運転支援装置の構成を示す図である。 実施の形態4に係る運転支援装置の動作を示すフローチャートである。 実施の形態4に係る運転支援装置の動作を示すフローチャートである。 実施の形態6に係る運転支援装置の構成を示す図である。
 <実施の形態1>
 図1は、実施の形態1に係る運転支援装置10の構成を示す図である。運転支援装置10は、車両1に搭載されており、車両1が備える車外撮影装置21および走行制御装置22に接続されている。車外撮影装置21は、車両1の周辺を撮影するカメラであり、ここでは車両1の周辺にいる人物(以下「車外人物」という)を撮影する目的で用いられる。走行制御装置22は、車両1の走行系の制御、すなわち車両1の制動、駆動および操舵の制御を行う制御装置である。
 図1に示すように、運転支援装置10は、車両関係者記憶部11、車両関係者判断部12、ジェスチャー認識部13および車両制御部14を備えている。
 車両関係者記憶部11は、車両1に関係する人物(以下「車両関係者」という)を記憶する記憶媒体である。車両関係者記憶部11には、車両関係者を特定するための情報として、車両関係者の画像(例えば顔写真など)が記憶される。車両1の所有者は、車両関係者記憶部11に任意の人物を記憶させることができる。例えば、車両1が自家用車である場合、車両関係者記憶部11には、車両1の所有者の家族や友人などの画像が記憶されることが想定される。
 車両関係者判断部12は、車外撮影装置21が撮影した車外人物の画像と、車両関係者記憶部11に記憶されている車両関係者の画像とを照合することで、車外人物が車両関係者であるか否かを判断する。
 ジェスチャー認識部13は、車外撮影装置21が撮影した車外人物の画像を解析することで、車外人物が行っているジェスチャーを認識する。ジェスチャー認識部13には予め規定された幾つかのジェスチャーパターンが登録されており、ジェスチャー認識部13は、車外撮影装置21が撮影した画像から分かる車外人物のジェスチャーが、規定のジェスチャーパターンのうちのどれに一致するかを判断することにより、車外人物のジェスチャーがどのような意味を持つのかを認識する。例えば、車外人物のジェスチャーが「止まれ」を意味するジェスチャーパターン(例えば、両手を振るジェスチャーパターンなど)と一致した場合、ジェスチャー認識部13は、当該ジェスチャーが「止まれ」の意味であると認識する。
 車両制御部14は、車両関係者判断部12により車外人物が車両関係者であると判断された場合に、ジェスチャー認識部13が認識したその車外人物のジェスチャーに基づいて、走行制御装置22を制御することで、車両1の走行を制御する。例えば、車両関係者と判断された車外人物のジェスチャーが「止まれ」を意味すると認識された場合、車両制御部14は車両1を停止させる。以下、車両関係者判断部12により車両関係者と判断された車外人物のことを、単に「車両関係者」ということもある。
 ここで、車両1が自家用車であり、運転支援装置10の車両関係者記憶部11に、車両1の所有者家族の画像が記憶されていると仮定する。例えば、夫である運転者が自宅の駐車場から車両1を発進させようとしているときに、妻が夫の忘れ物に気付き自宅の前で車両1に向かって「止まれ」のジェスチャーを行ったとする。この場合、車両関係者判断部12は、車外撮影装置21により撮影された妻の画像を、車両関係者記憶部11に記憶されている車両関係者の画像と照合し、妻が車両関係者であると判断する。また、ジェスチャー認識部13は、車外撮影装置21が撮影した妻の画像を解析し、妻が「止まれ」のジェスチャーを行っていると認識する。この場合、車両制御部14は、車両関係者である妻の「止まれ」のジェスチャーに応じて、走行制御装置22を制御して車両1を停止させる。
 一方、車両1の所有者の家族でない車外人物が、車両1に対して「止まれ」のジェスチャーを行っても、その車外人物は車両関係者記憶部11に記憶されていないため、車両制御部14がそのジェスチャーに反応して車両1を停止させることはない。もちろん、車両1の運転者が、車外人物の「止まれ」のジェスチャーに気付いて、車両1を手動操作で停止させることは可能である。
 このように、実施の形態1に係る運転支援装置10は、車両関係者記憶部11に予め記憶された車両関係者のジェスチャーだけに反応して車両1を制御する。つまり、運転支援装置10は、車両1とは無関係の人物のジェスチャーに反応して車両1が制御されることを防止することができる。従って、運転支援装置10は一般車両を含む様々な車両へ適用可能である。
 ここで、運転支援装置10の動作を図2に示すフローチャートに基づいて説明する。車両1が起動し、運転支援装置10が動作を開始すると、ジェスチャー認識部13は、車外撮影装置21が撮影した画像を解析して、車外人物がジェスチャーを行っているか否かを判断する(ステップST101)。車外人物が存在しない場合、あるいは、車外人物が何のジェスチャーもしていない場合は(ステップST101でNO)、ステップST101が繰り返される。
 ジェスチャー認識部13は、車外人物のジェスチャーを検出すると(ステップST101でYES)、その車外人物のジェスチャーが規定のジェスチャーパターンのいずれかに一致するか否かを判断する(ステップST102)。車外人物のジェスチャーがどのジェスチャーパターンにも一致しなければ(ステップST102でNO)、ステップST101へ戻る。
 車外人物のジェスチャーがいずれかのジェスチャーパターンに一致すれば(ステップST102でYES)、ジェスチャー認識部13は、車外人物のジェスチャーを認識する(ステップST103)。また、車両関係者判断部12は、そのジェスチャーを行った車外人物の画像と、車両関係者記憶部11に記憶されている車両関係者の画像とを照合することで、当該車外人物が車両関係者であるか否かを判断する(ステップST104)。ジェスチャーを行った車外人物が車両関係者でなければ(ステップST104でNO)、ステップST101へ戻る。
 ジェスチャーを行った車外人物が車両関係者であれば(ステップST104でYES)、車両制御部14は、ジェスチャー認識部13が認識したその車外人物(車両関係者)のジェスチャーに基づいて、走行制御装置22を制御することで、車両1の走行を制御する(ステップST105)。その後、ステップST101へ戻る。運転支援装置10は、以上の動作を繰り返し実行する。
 なお、図2のフローチャートでは、ジェスチャー認識部13が車外人物のジェスチャーを認識した後で、車両関係者判断部12がその車外人物が車両関係者か否かを判断しているが、その順番は逆でもよい。つまり、先に車両関係者判断部12が、車外人物が車両関係者か否かを判断し、その後、ジェスチャー認識部13が、車両関係者と判断された車外人物のジェスチャーのみを認識してもよい(つまり、ジェスチャー認識部13は、車両関係者でない車外人物のジェスチャーを認識しなくてよい)。
 また、上の説明では、車両関係者の「止まれ」のジェスチャーを行った場合に、車両制御部14が、車両1を停止させたが、車両1を停止させずに減速させてもよい。例えば、車両1を一時的に減速させるだけでも、車両1の運転者に、「止まれ」のジェスチャーを行う車両関係者がいることを気付かせることができるという効果は得られる。
 近年、運転者がリモコンキー等を用いた遠隔操作により車両の自動運転(例えば自動駐車など)を行う技術の実用化が進んでいる。そのため、実施の形態1においても、車両1から降りた運転者が車両1の運転権限を有している場面も想定される。そのような場面では、車両1の運転者は車外人物の存在に容易に気付くことができるため、車外人物がジェスチャーで意思表示する必要性は低い。そのため、車両制御部14は、車両1の運転権限が車両1内にある場合、すなわち、車両1内の運転者または自動運転装置が車両1の運転権限を有している場合に、車両関係者である車外人物のジェスチャーに基づいて車両1を制御してもよい。
 「自動運転装置が車両1の運転権限を有している場合」とは、自動運転装置が車両1のすべての運転操作を自動化している場合だけでなく、一部の運転操作だけを自動化している場合も含まれてもよい。ここで、自動車の自動運転の自動化レベル(自動運転レベル)の定義について説明する。SAE(Society of Automotive Engineers)International のJ3016(2016年9月)、および、その日本語参考訳であるJASO TP18004(2018年2月)によると、自動運転システムの自動運転レベルは次のように定義されている。
 レベル0(運転自動化なし):運転者が一部又は全ての動的運転タスクを実行
 レベル1(運転支援):システムが縦方向又は横方向のいずれかの車両運動制御のサブタスクを限定領域において実行
 レベル2(部分運転自動化):システムが縦方向及び横方向両方の車両運動制御のサブタスクを限定領域において実行
 レベル3(条件付運転自動化):システムが全ての動的運転タスクを限定領域において実行するが、作動継続が困難な場合は、システムからの介入要求等に運転者が適切に応答
 レベル4(高度運転自動化):システムが全ての動的運転タスク及び作動継続が困難な場合への応答を限定領域において実行
 レベル5(完全運転自動化):システムが全ての動的運転タスク及び作動継続が困難な場合への応答を無制限に(すなわち限定領域内ではない)実行
 なお、「動的運転タスク」とは、道路交通において車両を操作する際にリアルタイムで行う必要がある全ての操作上及び戦術上の機能(行程計画並びに経由地の選択などの戦略上の機能は除く)をいう。また、「限定領域」とは、システム又はその機能が作動するように設計されている特定の条件(地理的制約、道路面の制約、環境的制約、交通の制約、速度上の制約、時間的な制約などを含む)をいう。
 自動運転レベルがこのように定義される場合、例えば自動運転レベルがレベル4以上の場合を、上記の「自動運転装置が車両1の運転権限を有している場合」として扱ってもよい。
 また、車外人物が車両1のリモコンキーを持っており、車両1の運転権限を有しているときは、その車外人物が車両1に対してジェスチャーで意思表示することは考えにくい。そのため、車両制御部14は、ジェスチャーを行った車外人物が運転権限を有する場合は、たとえその車外人物が車両関係者であっても、当該車両関係者のジェスチャーに反応しなくてもよい。つまり、車両制御部14は、車両関係者が運転権限を有さない場合に、当該車両関係者のジェスチャーに基づいて車両1を制御してもよい。
 ジェスチャー認識部13が認識するジェスチャー、つまり、ジェスチャー認識部13に登録されるジェスチャーパターンの種類や数に制約はない。上記した両手を振るジェスチャーのほか、両手をクロスするジェスチャー(両手で「X」マークを作るジェスチャー)、片手をゆっくり振るジェスチャー、片手を激しく振るジェスチャーなども、ジェスチャー認識部13の認識対象としてもよい。例えば、両手を振るジェスチャー、両手をクロスするジェスチャー、片手をゆっくり振るジェスチャーを「止まれ」あるいは「待て」を意味するジェスチャーとして定義し、片手を激しく振るジェスチャーを「いってらっしゃい」を意味するジェスチャーとして定義することなどが想定される。これらのジェスチャーは、誰もがよく行う一般的なジェスチャーであるが、車両制御部14は車両関係者のジェスチャー以外には反応しないため、そのようなジェスチャーを認識対象に含めたとしても、車両制御部14がむやみに反応することは防止される。
 図3および図4は、それぞれ運転支援装置10のハードウェア構成の例を示す図である。図1に示した運転支援装置10の構成要素の各機能は、例えば図3に示す処理回路50により実現される。すなわち、運転支援装置10は、車両に関係する人物である車両関係者を記憶し、車両の周辺にいる人物である車外人物が車両関係者であるか否かを判断し、車外人物のジェスチャーを認識し、車両関係者と判断された車外人物のジェスチャーに基づいて車両を制御する、ための処理回路50を備える。処理回路50は、専用のハードウェアであってもよいし、メモリに格納されたプログラムを実行するプロセッサ(中央処理装置(CPU:Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)とも呼ばれる)を用いて構成されていてもよい。
 処理回路50が専用のハードウェアである場合、処理回路50は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものなどが該当する。運転支援装置10の構成要素の各々の機能が個別の処理回路で実現されてもよいし、それらの機能がまとめて一つの処理回路で実現されてもよい。
 図4は、処理回路50がプログラムを実行するプロセッサ51を用いて構成されている場合における運転支援装置10のハードウェア構成の例を示している。この場合、運転支援装置10の構成要素の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせ)により実現される。ソフトウェア等はプログラムとして記述され、メモリ52に格納される。プロセッサ51は、メモリ52に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、運転支援装置10は、プロセッサ51により実行されるときに、車両に関係する人物である車両関係者を記憶する処理と、車両の周辺にいる人物である車外人物が車両関係者であるか否かを判断する処理と、車外人物のジェスチャーを認識する処理と、車両関係者と判断された車外人物のジェスチャーに基づいて車両を制御する処理と、が結果的に実行されることになるプログラムを格納するためのメモリ52を備える。換言すれば、このプログラムは、運転支援装置10の構成要素の動作の手順や方法をコンピュータに実行させるものであるともいえる。
 ここで、メモリ52は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)およびそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
 以上、運転支援装置10の構成要素の機能が、ハードウェアおよびソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、運転支援装置10の一部の構成要素を専用のハードウェアで実現し、別の一部の構成要素をソフトウェア等で実現する構成であってもよい。例えば、一部の構成要素については専用のハードウェアとしての処理回路50でその機能を実現し、他の一部の構成要素についてはプロセッサ51としての処理回路50がメモリ52に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 以上のように、運転支援装置10は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
 <実施の形態2>
 図5は、実施の形態2に係る運転支援装置10の構成を示す図である。図5の運転支援装置10の構成は、図1の構成に対し、車内通知部15を追加したものである。また、運転支援装置10には、車両1が備える車内通知装置23が接続されている。車内通知装置23は、各種の情報を車両1の運転者に通知するための手段であり、例えば、情報を視覚的に出力する表示装置や、情報を聴覚的に出力するスピーカーなどで構成される。
 車内通知装置23としての表示装置は、例えばインストルメントパネルやセンターパネルに配置される表示装置でもよいし、車両1のウィンドシールドを画面として利用することで、運転者の視野に画像を直接表示するヘッドアップディスプレイなどでもよい。また、車内通知装置23としての表示装置は、運転支援装置10専用のものでなくてよく、例えば、ナビゲーション装置や電子ミラーと共用されるものでもよい。
 車内通知部15は、車両関係者と判断された車外人物のジェスチャーに基づいて、車内通知装置23を通して車両1の運転者への通知を行う。例えば、車内通知部15は、車両関係者のジェスチャーが認識されたときに、当該車両関係者の画像を車内通知装置23の画面に表示したり、当該車両関係者が写った車内通知装置23としての電子ミラーの画面にその車両関係者を強調するマークを重畳表示したり、当該車両関係者のジェスチャーの意味を説明する音声(例えば「止まってください」などのメッセージ)を車内通知装置23のスピーカーから出力したりすることが想定される。なお、車内通知部15が、車内通知装置23に表示する車両関係者の画像は、車外撮影装置21が撮影した実写画像でもよいし、車両関係者記憶部11に記憶された画像でもよいし、予め登録された車両関係者のプロフィール画像(いわゆる「アバター」)でもよい。
 ジェスチャー認識部13に規定のジェスチャーパターンが複数登録されている場合、車両関係者が行ったジェスチャーの種類に応じて、車両制御部14および車内通知部15の動作は変化する。例えば、両手を振るジェスチャー、両手をクロスするジェスチャー、片手をゆっくり振るジェスチャーが、「止まれ」あるいは「待て」を意味するジェスチャーとして定義され、片手を激しく振るジェスチャーを「いってらっしゃい」を意味するジェスチャーとして定義されていると仮定する。このとき、車両制御部14および車内通知部15は、
(a)車両関係者が両手を振るジェスチャーを行った場合、車両制御部14が車両1を停止させ、車内通知部15が運転者に「待ってください」などの音声通知を行う
(b)車両関係者が両手をクロスするジェスチャーを行った場合、車両制御部14が車両1を停止させ、車内通知部15は何も行わない
(c)車両関係者が片手をゆっくり振るジェスチャーを行った場合、車両制御部14が車両1を停止させ、車内通知部15が当該車両関係者の画像を表示する
(d)車両関係者が片手を激しく振るジェスチャーを行った場合、車両制御部14は何もせず(車両1の走行を維持)、車内通知部15が運転者に「奥様が手を振っています」、「いってらっしゃい」などの音声通知を行う
といった動作を行ってもよい。
 また、車両関係者記憶部11に記憶される車両関係者をその属性によって分類し、ジェスチャーを行った車両関係者の属性に応じて、車両制御部14および車内通知部15の動作が変化してもよい。例えば、車両関係者が「家族」、「知人」、「他人」という3つの属性に分類され、車両関係者が両手を振るジェスチャーを行った場合、車両制御部14および車内通知部15は、
(a)ジェスチャーを行った車両関係者の属性が「家族」である場合、車両制御部14が車両1を停止させ、車内通知部15が運転者に「待ってください」などの音声通知を行う
(b)ジェスチャーを行った車両関係者の属性が「知人」である場合、車両制御部14は何もせず、車内通知部15が運転者に「XX(知人の名前)さんが手を振っています」などの音声通知を行う
(c)ジェスチャーを行った車両関係者の属性が「他人」である場合、車両制御部14は何もせず、車内通知部15が、運転者に「誰かが手を振っています」などの音声通知を行うとともに、その車両関係者の画像を表示する
といった動作を行ってもよい。
 また、車両関係者の属性に応じて、ジェスチャー認識部13が、認識対象とするジェスチャーの種類や、認識するジェスチャーの意味を変更してもよい。例えば、ジェスチャーを行った車両関係者の属性が「家族」である場合にジェスチャー認識部13が認識するジェスチャーとして、家族間だけで通じる独自のジェスチャーパターンを定めてもよい。また、個々の車両関係者ごとに、独自のジェスチャーパターンを定めてもよい。
 また、車両1の状態に応じて、車両制御部14および車内通知部15の動作を変化させてもよい。例えば、車両関係者のジェスチャーが認識されたときに、車両1が停止中であれば、車両制御部14は何もせず、車内通知部15が運転者への通知を行い、車両1が走行中であれば、車内通知部15は何もせず、車両制御部14が車両1を停止させるようにしてもよい。
 <実施の形態3>
 図6は、実施の形態3に係る運転支援装置10の構成を示す図である。図6の運転支援装置10の構成は、図1の構成に対し、車外通知部16を追加したものである。また、運転支援装置10には、車両1が備える車外通知装置24が接続されている。車外通知装置24は、各種の情報を車外人物に通知するための手段であり、例えば、情報を視覚的に出力する表示装置や、情報を聴覚的に出力するスピーカーなどで構成される。車外通知装置24は、ヘッドライトやハザードランプの点滅、ホーンの鳴動などを用いて車外人物への通知を行うものでもよい。
 車外通知部16は、車両関係者と判断された車外人物のジェスチャーを車両制御部14が受け付けたときに、その旨を車外通知装置24を用いて当該車両関係者へ通知する。これにより、ジェスチャーを行った車両関係者は、自身が行ったジェスチャーの意図が運転支援装置10に伝わったかどうかを知ることができる。本実施の形態は、実施の形態2と組み合わせてもよい。
 <実施の形態4>
 図7は、実施の形態4に係る運転支援装置10の構成を示す図である。図7の運転支援装置10の構成は図1と同様であるが、運転支援装置10には車両1が備える車内撮影装置25が接続されている。車内撮影装置25は、車両1の車内を撮影するカメラであり、ここでは車両1の搭乗者を撮影する目的で用いられる。実施の形態4では、運転支援装置10の車両関係者記憶部11は、車内撮影装置25により撮影された車両1の搭乗者を、車両関係者として記憶する。すなわち、車両関係者記憶部11は、車内撮影装置25が撮影した車両1の搭乗者の画像を、車両関係者の画像として記憶する。
 車両1の搭乗者は、車両1の所有者の家族や友人など、車両1の車両関係者である可能性が高い。車両1の搭乗者が、車両関係者として車両関係者記憶部11に自動的に登録されることで、車両1の所有者が車両関係者記憶部11に車両関係者を記憶させる手間を省くことができ、運転支援装置10の利便性が向上する。
 実施の形態4に係る運転支援装置10の動作は、実施の形態1(図2のフローチャート)と同様でもよいが、ここではより好ましい動作の例を示す。図8はその動作を示すフローチャートである。図8において、図2のフローチャートに示したものと同様の処理が行われるステップには、それと同一符号が付されている。
 車両1が起動して、運転支援装置10が動作を開始すると、車両関係者記憶部11は、車両1が発進した後の適当なタイミングで、車内撮影装置25から搭乗者の画像を取得し、それを車両関係者の画像として記憶する(ステップST201)。その後、運転支援装置10は、車両1が停止するまで待つ(ステップST202)。なお、ステップST101のタイミングは、例えば、搭乗者が車両1に乗り込んだ時、車両1が停止した時、搭乗者が車両1から降りる時など、任意のタイミングでよい(ステップST101が、車両1が停止した時または搭乗者が車両1から降りる時に行われる場合、ステップST102の後にステップST101が行われる)。
 車両1が停止すると(ステップST202でYES)、運転支援装置10は、予め定められた「ジェスチャー検出条件」が満たされているか否かを判断する(ステップST203)。ジェスチャー検出条件の例としては、例えば、
(A)車両1が停止してから一定時間経過する前である
(B)車両1が再発進してから一定距離走行する前である
の片方または両方などが好ましい。条件(A)の「一定時間」は1分程度が好ましく、条件(B)の「一定距離」は40m程度が好ましい。また、条件(B)の「一定距離」は、ジェスチャー認識部13の処理および車両関係者判断部12の処理を正常に行える解像度の画像を車外撮影装置21が撮影可能な距離の最大値であってもよい。
 ジェスチャー検出条件が満たされていなければ(ステップST203でNO)、車両1が発進(再発進)するのを待つ(ステップST204)。その後、車両1が再発進すれば(ステップST204でYES)、ステップST201へ戻る。
 ジェスチャー検出条件が満たされていれば(ステップST203でYES)、図2のフローチャートと同様の処理が行われる。すなわち、ジェスチャー認識部13は、車外撮影装置21が撮影した画像を解析して、車外人物がジェスチャーを行っているか否かを判断する(ステップST101)。車外人物が存在しない場合、あるいは、車外人物が何のジェスチャーもしていない場合は(ステップST101でNO)、ステップST203へ戻る。
 ジェスチャー認識部13は、車外人物のジェスチャーを検出すると(ステップST101でYES)、その車外人物のジェスチャーが規定のジェスチャーパターンのいずれかに一致するか否かを判断する(ステップST102)。車外人物のジェスチャーがどのジェスチャーパターンにも一致しなければ(ステップST102でNO)、ステップST203へ戻る。
 車外人物のジェスチャーがいずれかのジェスチャーパターンに一致すれば(ステップST102でYES)、ジェスチャー認識部13は、車外人物のジェスチャーを認識する(ステップST103)。また、車両関係者判断部12は、そのジェスチャーを行った車外人物の画像と、車両関係者記憶部11に記憶されている車両関係者の画像とを照合することで、当該車外人物が車両関係者であるか否かを判断する(ステップST104)。ジェスチャーを行った車外人物が車両関係者でなければ(ステップST104でNO)、ステップST203へ戻る。
 ジェスチャーを行った車外人物が車両関係者であれば(ステップST104でYES)、車両制御部14は、ジェスチャー認識部13が認識したその車外人物(車両関係者)のジェスチャーに基づいて、走行制御装置22を制御することで、車両1の走行を制御する(ステップST105)。その後、ステップST203へ戻る。
 図8のフローにおいて、ジェスチャー認識部13が車外人物のジェスチャーを検出する処理(ステップST101)が、車両1が停止するのを待ってから行われる理由は、車両1の搭乗者が車外人物となってジェスチャーによる意思表示を行うのは、車両1が停止して搭乗者が車両1から降りた後だからである。また、ジェスチャー認識部13が車外人物のジェスチャーの検出を行うための条件として、ジェスチャー検出条件を設けた理由は、車両1の搭乗者が車外人物となってジェスチャーによる意思表示を行うタイミングは、搭乗者が車両1から降りた直後の一定期間内であることが殆どだからである。
 実施の形態4に係る運転支援装置10は、例えば、車両1の所有者が車両関係者記憶部11に記憶されていない友人を車両1に乗せ、その友人が車両1から降りた直後に、忘れ物や用事に気づいて車両1に手を振った場合などに有効である。
 上の説明では、車両関係者記憶部11に記憶される車両1の搭乗者の画像は、車内撮影装置25が撮影した画像としたが、例えば、運転支援装置10が携帯端末(例えば携帯電話やスマートフォンなど)との通信機能を備える場合には、車両関係者記憶部11が搭乗者の通信端末に記憶されている搭乗者の画像を通信により取得して記憶してもよい。
 図8のフローチャートでは、搭乗者が車両1から降りたか否かの判断は行っていないが、その判断を行ってもよい。例えば、ステップST203においてジェスチャー検出条件が満たされていても、車両1が停止してからドアの開閉が無ければ、搭乗者は車両1から降りていないと判断して、車外人物のジェスチャーを検出するステップST101へ移行しない(ドアの開閉があるまでステップST203が繰り返される)ようにしてもよい。さらに、ドアの開閉があっても、車内撮影装置25に撮影された搭乗者の数に変化がない場合は、搭乗者は車両1から降りていないと判断してもよい。これらの判断が行われることで、ジェスチャー認識部13が不要なジェスチャー認識の処理を行うことを防止できる。
 実施の形態4では、車両1の搭乗者が自動的に車両関係者として車両関係者記憶部11に記憶されるため、車両1はバスやタクシーのように不特定の乗客を送迎することを目的とした車両でもよい。例えば、タクシーである車両1から降りた乗客が、その直後に忘れ物に気づいて車両1に手を振った場合などに有効である。
 ただし、タクシーである車両1が不特定な乗客の送迎を繰り返すと、車両関係者記憶部11に非常に多くの人物が車両関係者として登録され、車両制御部14が過去に搭乗者だった人物のジェスチャーに反応してしまい、車両1がむやみに停車させられるおそれがある。そのため、車両関係者記憶部11は、予め定められた条件が満たされると、車両1から降りた搭乗者を車両関係者の登録から削除してもよい。例えば、ジェスチャー検出条件が満たされなくなったときに(ステップST203でNOとなったときに)、車両関係者記憶部11が搭乗者の登録をすべて削除し、その後にステップST201が行われるときに、あらためて車両関係者記憶部11がその時点の搭乗者を車両関係者として記憶すれば、過去の搭乗者を車両関係者の登録から削除することができる。
 また、車両関係者記憶部11が、過去の搭乗者の情報を一定期間だけ保持し、車両1に繰り返し搭乗した人物を検出できるようにしてもよい。例えば、タクシーである車両1に初めて搭乗した人物は「乗客」という属性の車両関係者として記憶し、一定回数以上繰り返して搭乗した人物の属性は「乗客」から「お得意様」へ変更してもよい。
 この場合も、車両関係者の属性によって運転支援装置10の動作を変更してもよい。例えば、タクシーである車両1から降りた乗客の属性が「お得意様」であれば、当該乗客を「家族」属性の車両関係者として扱い、属性が「乗客」の乗客は「知人」属性の車両関係者として扱うようにしてもよい。
 [変形例]
 図8のフローでは、車両1が停止した後に、ジェスチャー認識部13が車外人物のジェスチャーを検出する処理(ステップST101)が行われたが、本変形例では、ステップST101が、車両1が停止して再発進した後に行われるようにする。
 以下、図9のフローチャートに基づいて、本変形例に係る運転支援装置10の動作を説明する。図9においても、図2のフローチャートに示したものと同様の処理が行われるステップには、それと同一符号が付されている。
 運転支援装置10が起動すると、車両関係者記憶部11は、車両1が発進した後の適当なタイミングで、車内撮影装置25から搭乗者の画像を取得し、それを車両関係者の画像として記憶する(ステップST301)。その後、運転支援装置10は、車両1が停止するまで待つ(ステップST302)。車両1が停止すると(ステップST302でYES)、運転支援装置10は、車両1が発進(再発進)するのを待つ(ステップST303)。そして、車両1が再発進すると(ステップST303でYES)、運転支援装置10は、予め定められた「ジェスチャー検出条件」が満たされているか否かを判断する(ステップST304)。ジェスチャー検出条件の例としては、例えば、
(C)車両1が再発進してから一定距離走行する前である
などが好ましい。条件(C)の「一定距離」は40m程度が好ましい。また、条件(C)の「一定距離」は、ジェスチャー認識部13の処理および車両関係者判断部12の処理を正常に行える解像度の画像を車外撮影装置21が撮影可能な距離の最大値であってもよい。
 ジェスチャー検出条件が満たされていなければ(ステップST304でNO)、ステップST301へ戻る。
 ジェスチャー検出条件が満たされていれば(ステップST304でYES)、図2のフローチャートと同様の処理が行われる。すなわち、ジェスチャー認識部13は、車外撮影装置21が撮影した画像を解析して、車外人物がジェスチャーを行っているか否かを判断する(ステップST101)。車外人物が存在しない場合、あるいは、車外人物が何のジェスチャーもしていない場合は(ステップST101でNO)、ステップST304へ戻る。
 ジェスチャー認識部13は、車外人物のジェスチャーを検出すると(ステップST101でYES)、その車外人物のジェスチャーが規定のジェスチャーパターンのいずれかに一致するか否かを判断する(ステップST102)。車外人物のジェスチャーがどのジェスチャーパターンにも一致しなければ(ステップST102でNO)、ステップST304へ戻る。
 車外人物のジェスチャーがいずれかのジェスチャーパターンに一致すれば(ステップST102でYES)、ジェスチャー認識部13は、車外人物のジェスチャーを認識する(ステップST103)。また、車両関係者判断部12は、そのジェスチャーを行った車外人物の画像と、車両関係者記憶部11に記憶されている車両関係者の画像とを照合することで、当該車外人物が車両関係者であるか否かを判断する(ステップST104)。ジェスチャーを行った車外人物が車両関係者でなければ(ステップST104でNO)、ステップST304へ戻る。
 ジェスチャーを行った車外人物が車両関係者であれば(ステップST104でYES)、車両制御部14は、ジェスチャー認識部13が認識したその車外人物のジェスチャーに基づいて、走行制御装置22を制御することで、車両1の走行を制御する(ステップST105)。その後、ステップST304へ戻る。
 本変形例において、ジェスチャー認識部13が車外人物のジェスチャーを検出する処理(ステップST101)が、車両1が再発進するのを待ってから行われるようにした理由は、車両1の搭乗者が車外人物となってジェスチャーによる意思表示を行うのは、主に、車両1が停止して搭乗者が車両1から降りて、車両1がその場を立ち去ろうとしたときだからである。
 <実施の形態5>
 実施の形態5では、運転支援装置10を搭載した車両が複数存在し、運転支援装置10の車両関係者記憶部11が、予め定められた他の車両の運転支援装置10と車両関係者の情報を共有する。複数の運転支援装置10における車両関係者の情報の共有化は、車両間の無線通信(車車間通信)によって自動的に行われてもよい。
 ここで、運転支援装置10を搭載した2台の車両A,Bが存在し、車両Aの運転支援装置10の車両関係者記憶部11には車両Aの搭乗者が車両関係者として記憶されており、車両Bの運転支援装置10の車両関係者記憶部11には車両Bの搭乗者が車両関係者として記憶されており、車両Aの運転支援装置10と車両Bの運転支援装置10とで車両関係者の情報が共有されたと仮定する。すなわち、車両Aの運転支援装置10は、車両Aの車両関係者だけでなく車両Bの車両関係者のジェスチャーにも反応し、車両Bの運転支援装置10は、車両Bの車両関係者だけでなく車両Aの車両関係者のジェスチャーにも反応する。
 車両Aと車両Bとがグループ走行するとき、車両Aの搭乗者の荷物が車両Bに積まれることがある。このとき、車両Aから降りた人物が、車両Bから自分の荷物を降ろす前に車両Bの運転者が車両Bを発進させようとすることが考えられる。実施の形態5によれば、このような場合でも、車両Aから降りた人物が、車両Bに対して「止まれ」のジェスチャーを行えば、車両Bを停止させることができる。
 <実施の形態6>
 図10は、実施の形態6に係る運転支援装置10の構成を示す図である。実施の形態6では、運転支援装置10を搭載する車両1は、無人運転車両である無人タクシー(いわゆる“ロボットタクシー”)であるものとする。すなわち、車両1は、無人タクシー管理サーバ30から受信した走行計画に基づく自動運転により、乗客の送迎を行う。
 無人タクシー管理サーバ30から送信される走行計画には、乗客の乗車地点および降車地点ならびに走行予定経路の情報などが含まれる。車両1は一度に複数の乗客を送迎することもあるため、走行計画に含まれる乗車地点および降車地点はそれぞれ複数あってもよい。また、車両1の走行計画には、乗客を降ろした後の計画も含まれていてもよい。乗客を降ろした後の計画としては、例えば、予め定められた待機場所に移動して無人タクシー管理サーバ30からの新たな走行計画を待つ計画や、流しのタクシーのように予め定められた巡回ルートを走行しながら乗客を探す計画などがある。
 無人タクシー管理サーバ30は、無人タクシーの利用者から、乗車地点(配車地点)および降車地点(目的地)の情報を受信し、乗車地点から降車地点までの経路を探索して走行予定経路を決定することで走行計画を策定し、策定した走行計画を通信網を通して車両1へ送信する。
 図10のように、車両1は、無人タクシー管理サーバ30から送信される走行計画を受信して記憶する走行計画記憶装置26を備えている。また、車両1の走行制御装置22は、走行計画記憶装置26に記憶された走行計画に基づいて、運転レベル4以上の自動運転を実行し、それにより、車両1は乗客を乗車地点でピックアップして降車地点まで送り届ける。
 車両1に搭載された運転支援装置10は、車両1が乗客をピックアップすると、図8または図9のフローチャートに示した動作を開始する。よって、車両1が停止して乗客が降りた後、ジェスチャー検出条件が満たされている間に、例えば、その乗客が忘れ物に気付き、車両1に対して「止まれ」のジェスチャーを行うと、運転支援装置10がそのジェスチャーに応じて車両1を停止させる。
 本実施の形態の運転支援装置10は、車両1のドアの開閉や座席および荷室の状況を監視する機能を有しており、車両1から降りた乗客のジェスチャーに応じて車両1を停止させた後、例えば、乗客が車両1から忘れ物を取り出したことなどを確認すると、車両1に自動運転を再開させる。また、運転支援装置10は、車両1から降りた乗客のジェスチャーに応じて車両1を停止させた後の一定時間(例えば10秒)内に、当該乗客が車両1に近づく素振りを見せない場合や、または、前のジェスチャーを取り消すジェスチャー(例えば、右手を左右に振るなどのジェスチャー)を検出した場合にも、車両1に自動運転を再開させる。
 なお、各ジェスチャーの意味は、国や民族の習慣によって異なる。そのため、運転支援装置10は、無人タクシー管理サーバ30や乗客の通信端末などから乗客の国籍や出身地などのプロファイルを取得し、乗客のプロファイルに合わせて、認識対象とするジェスチャーや認識するジェスチャーの意味を変更してもよい。
 本実施の形態では、車両1が無人タクシーである例を示したが、車両1は、個人が管理する車両(例えば自家用車)であってもよい。その場合、車両1の走行計画は、車両1の管理者個人のパーソナルコンピュータや携帯端末などで策定され、車両1へ送信される。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。
 本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 1 車両、10 運転支援装置、11 車両関係者記憶部、12 車両関係者判断部、13 ジェスチャー認識部、14 車両制御部、15 車内通知部、16 車外通知部、21 車外撮影装置、22 走行制御装置、23 車内通知装置、24 車外通知装置、25 車内撮影装置、26 走行計画記憶装置、30 無人タクシー管理サーバ。

Claims (17)

  1.  車両に関係する人物である車両関係者を記憶する車両関係者記憶部と、
     前記車両の周辺にいる人物である車外人物が前記車両関係者であるか否かを判断する車両関係者判断部と、
     前記車外人物のジェスチャーを認識するジェスチャー認識部と、
     前記車両関係者と判断された前記車外人物のジェスチャーに基づいて前記車両を制御する車両制御部と、
    を備える運転支援装置。
  2.  車両制御部は、前記車両内の運転者または自動運転装置が前記車両の運転権限を有している場合に、前記車両関係者と判断された前記車外人物のジェスチャーに基づいて前記車両を制御する、
    請求項1に記載の運転支援装置。
  3.  車両制御部は、前記車両関係者と判断された前記車外人物が運転権限を有さない場合に、前記車両関係者と判断された前記車外人物のジェスチャーに基づいて前記車両を制御する、
    請求項1に記載の運転支援装置。
  4.  前記車両関係者記憶部は、前記車両の搭乗者を車両関係者として記憶する、
    請求項1に記載の運転支援装置。
  5.  前記車両関係者記憶部は、前記搭乗者が前記車両から降りた後、予め定められた条件が満たされると、前記車両から降りた前記搭乗者を前記車両関係者の登録から削除する、
    請求項4に記載の運転支援装置。
  6.  前記車両関係者記憶部は、前記車両関係者の属性を記憶し、
     前記車両関係者記憶部は、予め定められた条件が満たされると、前記車両関係者の属性を変更する、
    請求項4に記載の運転支援装置。
  7.  前記車両は乗客を送迎する車両であり、
     前記車両関係者記憶部は、前記乗客を前記車両関係者として記憶する、
    請求項1に記載の運転支援装置。
  8.  前記車両は無人運転車両である、
    請求項7に記載の運転支援装置。
  9.  前記車両制御部は、前記車両関係者と判断された前記車外人物のジェスチャーに基づいて前記車両の停止または減速を行う、
    請求項1に記載の運転支援装置。
  10.  前記車両関係者と判断された前記車外人物のジェスチャーに基づいて前記車両の運転者への通知を行う車内通知部をさらに備える
    請求項1に記載の運転支援装置。
  11.  前記車両関係者記憶部は、前記車両関係者の属性を記憶し、
     前記車内通知部は、前記車両関係者と判断された前記車外人物の属性に応じて、前記運転者への通知の内容を変更する
    請求項10に記載の運転支援装置。
  12.  前記車両関係者記憶部は、前記車両関係者の属性を記憶し、
     前記ジェスチャー認識部は、前記車両関係者と判断された前記車外人物の属性に応じて、認識対象とするジェスチャーまたは認識するジェスチャーの意味を変更する
    請求項1に記載の運転支援装置。
  13.  前記車両関係者記憶部は、前記車両関係者の属性を記憶し、
     前記車両制御部は、前記車両関係者と判断された前記車外人物の属性に応じて、前記車両の制御内容を変更する
    請求項1に記載の運転支援装置。
  14.  前記車両関係者と判断された前記車外人物のジェスチャーを前記車両制御部が受け付けたことを前記車外人物へ通知する車外通知部をさらに備える、
    請求項1に記載の運転支援装置。
  15.  前記車両制御部は、前記車両が発進してからの経過時間または走行距離が一定の値を超えるまでの間、前記車両関係者と判断された前記車外人物のジェスチャーを受け付ける、
    請求項1に記載の運転支援装置。
  16.  前記車両関係者記憶部は、予め定められた他の車両の運転支援装置と前記車両関係者の情報を共有する、
    請求項1に記載の運転支援装置。
  17.  運転支援装置によって行われる運転支援方法であって、
     前記運転支援装置の車両関係者記憶部が、車両に関係する人物である車両関係者を記憶し、
     前記運転支援装置の車両関係者判断部が、前記車両の周辺にいる人物である車外人物が前記車両関係者であるか否かを判断し、
     前記運転支援装置のジェスチャー認識部が、前記車外人物のジェスチャーを認識し、
     前記運転支援装置の車両制御部が、前記車両関係者と判断された前記車外人物のジェスチャーに基づいて前記車両を制御する、
    運転支援方法。
PCT/JP2019/042380 2019-10-29 2019-10-29 運転支援装置および運転支援方法 WO2021084618A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2019/042380 WO2021084618A1 (ja) 2019-10-29 2019-10-29 運転支援装置および運転支援方法
JP2021553932A JP7313465B2 (ja) 2019-10-29 2019-10-29 運転支援装置および運転支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/042380 WO2021084618A1 (ja) 2019-10-29 2019-10-29 運転支援装置および運転支援方法

Publications (1)

Publication Number Publication Date
WO2021084618A1 true WO2021084618A1 (ja) 2021-05-06

Family

ID=75714943

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/042380 WO2021084618A1 (ja) 2019-10-29 2019-10-29 運転支援装置および運転支援方法

Country Status (2)

Country Link
JP (1) JP7313465B2 (ja)
WO (1) WO2021084618A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003312392A (ja) * 2002-04-18 2003-11-06 Nissan Motor Co Ltd 車載情報端末
JP2015191641A (ja) * 2014-03-31 2015-11-02 Necエンベデッドプロダクツ株式会社 監視装置、監視システム、監視方法、及びプログラム
JP2018030499A (ja) * 2016-08-25 2018-03-01 株式会社デンソーテン 車外情報提供装置および車外情報提供方法
WO2018078713A1 (ja) * 2016-10-25 2018-05-03 三菱電機株式会社 周辺情報判定装置および周辺情報判定方法
WO2019004467A1 (ja) * 2017-06-29 2019-01-03 本田技研工業株式会社 車両制御装置、車両制御方法及びプログラム
WO2019146385A1 (ja) * 2018-01-29 2019-08-01 京セラ株式会社 画像処理装置、撮像装置、移動体および画像処理方法
JP2019164444A (ja) * 2018-03-19 2019-09-26 トヨタ自動車株式会社 駐車支援装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010190745A (ja) 2009-02-18 2010-09-02 Equos Research Co Ltd ナビゲーションシステム及びナビゲーション装置
JP5947440B1 (ja) 2015-10-06 2016-07-06 株式会社テクトム 駐車場管理システム、情報処理装置、情報処理方法、情報処理プログラムおよび車載器
JP2017121865A (ja) 2016-01-07 2017-07-13 トヨタ自動車株式会社 自動運転車両

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003312392A (ja) * 2002-04-18 2003-11-06 Nissan Motor Co Ltd 車載情報端末
JP2015191641A (ja) * 2014-03-31 2015-11-02 Necエンベデッドプロダクツ株式会社 監視装置、監視システム、監視方法、及びプログラム
JP2018030499A (ja) * 2016-08-25 2018-03-01 株式会社デンソーテン 車外情報提供装置および車外情報提供方法
WO2018078713A1 (ja) * 2016-10-25 2018-05-03 三菱電機株式会社 周辺情報判定装置および周辺情報判定方法
WO2019004467A1 (ja) * 2017-06-29 2019-01-03 本田技研工業株式会社 車両制御装置、車両制御方法及びプログラム
WO2019146385A1 (ja) * 2018-01-29 2019-08-01 京セラ株式会社 画像処理装置、撮像装置、移動体および画像処理方法
JP2019164444A (ja) * 2018-03-19 2019-09-26 トヨタ自動車株式会社 駐車支援装置

Also Published As

Publication number Publication date
JP7313465B2 (ja) 2023-07-24
JPWO2021084618A1 (ja) 2021-05-06

Similar Documents

Publication Publication Date Title
JP6490228B2 (ja) 自律的動作モードで駐車場に存在している車両を監視するための方法及び装置
US20200001892A1 (en) Passenger assisting apparatus, method, and program
US20170213165A1 (en) Systems and methods for vehicle ride safety and security of person and property
US10369967B2 (en) Vehicle and program for vehicle
US20190197497A1 (en) Responses to detected impairments
US20180210446A1 (en) Passenger profiles for autonomous vehicles
US20170300053A1 (en) Self-driving vehicle systems and methods
JP7110947B2 (ja) 車両及び乗客輸送システム
US10928922B2 (en) Vehicle and operation method of vehicle
US11184586B2 (en) Server, vehicle image capturing system, and vehicle image capturing method
JP2024513294A (ja) 置き忘れられたモバイルデバイスの検出および管理
JP2020198104A (ja) 管理サーバ、通信機器、管理者端末、通信方法
CN111047891A (zh) 驾驶辅助装置、车辆、驾驶辅助系统、驾驶辅助方法及存储介质
KR20200067053A (ko) 주차공간 정보 제공 시스템 및 방법
JP2020013326A (ja) 車載装置、情報処理装置、情報処理方法およびプログラム
US20230129668A1 (en) Server, information processing system and information processing method
CN112581750A (zh) 车辆行驶控制方法、装置、可读存储介质及电子设备
US20240048653A1 (en) System and method for providing a notification that a mobile device is still in an autonomous vehicle after detecting an arrival at a destination
WO2021084618A1 (ja) 運転支援装置および運転支援方法
US20230154242A1 (en) Autonomous vehicle, control system for remotely controlling the same, and method thereof
EP3904166A1 (en) Compute system with theft alert mechanism and method of operation thereof
JP7225699B2 (ja) 車両の制御装置及び車両の運用方法
WO2016152834A1 (ja) 自動走行制御装置及び自動走行制御システム
CN113470417A (zh) 收容区域管理装置
JP2020079996A (ja) 車両の制御装置、入力装置及び入出力装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19950450

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021553932

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19950450

Country of ref document: EP

Kind code of ref document: A1