WO2018189952A1 - 自動運転車両、自動運転車両の停車方法及びプログラム - Google Patents

自動運転車両、自動運転車両の停車方法及びプログラム Download PDF

Info

Publication number
WO2018189952A1
WO2018189952A1 PCT/JP2017/044809 JP2017044809W WO2018189952A1 WO 2018189952 A1 WO2018189952 A1 WO 2018189952A1 JP 2017044809 W JP2017044809 W JP 2017044809W WO 2018189952 A1 WO2018189952 A1 WO 2018189952A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
gesture
person
road
vehicle body
Prior art date
Application number
PCT/JP2017/044809
Other languages
English (en)
French (fr)
Inventor
英生 梅谷
原田 尚幸
拓也 山口
修平 松井
Original Assignee
パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ filed Critical パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority to CN201780051522.6A priority Critical patent/CN109643494B/zh
Priority to EP17905521.5A priority patent/EP3611712A4/en
Priority to AU2017408956A priority patent/AU2017408956A1/en
Priority to CA3037470A priority patent/CA3037470A1/en
Publication of WO2018189952A1 publication Critical patent/WO2018189952A1/ja
Priority to US16/299,847 priority patent/US11067986B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/503Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking using luminous text or symbol displays in or on the vehicle, e.g. static text
    • B60Q1/5035Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking using luminous text or symbol displays in or on the vehicle, e.g. static text electronic displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/507Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking specific to autonomous vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/181Preparing for stopping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • B60W60/00253Taxi operations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/202Dispatching vehicles on the basis of a location, e.g. taxi dispatching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/01Occupants other than the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/041Potential occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/049Number of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS

Definitions

  • the present disclosure relates to an autonomous driving vehicle, a stopping method of the autonomous driving vehicle, and a program.
  • the present disclosure is intended to efficiently put a prospective customer who is trying to stop a taxi on an autonomous driving vehicle.
  • An autonomous driving vehicle includes a vehicle main body, a gesture detection unit that detects a gesture of a person existing around the road on which the vehicle main body is traveling, and the vehicle main body, and a vehicle main body A determination unit that determines whether or not there are passengers and a control unit that automatically drives the vehicle body, and the control unit determines that the gesture detection unit performs a gesture when the determination unit determines that there are no passengers in the vehicle body. If the person who is doing is detected, the vehicle main body will be stopped around the person concerned.
  • a prospective customer who is trying to stop a taxi can be efficiently boarded on an autonomous driving vehicle.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a vehicle allocation system according to the present embodiment.
  • FIG. 2 is a schematic diagram showing an example of an autonomous driving vehicle in the present embodiment.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of the autonomous driving vehicle according to the present embodiment.
  • FIG. 4 is a flowchart showing a flow of a method for stopping an autonomous driving vehicle.
  • FIG. 5 is a flowchart showing a flow of an acceptance mode according to the embodiment.
  • FIG. 6 is a flowchart showing the flow of the reject mode according to the embodiment.
  • FIG. 7 is a schematic diagram illustrating an example of an image captured by the first camera when the autonomous driving vehicle according to the embodiment travels.
  • FIG. 8 is a schematic diagram illustrating an example of an image captured by the first camera when the autonomous driving vehicle according to the embodiment travels.
  • the present inventor examined the adoption of an autonomous driving vehicle as a taxi.
  • the level 4 self-driving vehicle defined by the Japanese government or the US Department of Transportation's Road Traffic Safety Bureau is fully automatic driving, the passengers are not involved in the driving operation at all.
  • the self-driving vehicle itself determines whether or not there is a prospective customer on the road.
  • the driving vehicle needs to stop.
  • the self-driving vehicle stops every time a prospective customer is discovered it is inefficient when there are already passengers in the self-driving vehicle. Therefore, hereinafter, a technique capable of solving this problem will be described.
  • An autonomous driving vehicle includes a vehicle main body, a gesture detection unit that detects a gesture of a person existing around a road on which the vehicle main body is traveling, and the vehicle main body is stopped, A determination unit that determines whether or not there are passengers in the main body and a control unit that automatically drives the vehicle main body.
  • the gesture detection unit performs a gesture.
  • the vehicle body is stopped around the person.
  • a vehicle of a person existing around the road on which the vehicle body is traveling when a gesture for stopping the main body is detected, the vehicle main body is stopped around the person.
  • a program according to an aspect of the present disclosure causes a computer to execute the above-described method for stopping an autonomous driving vehicle.
  • the vehicle body when it is determined that there are no passengers in the vehicle body of the autonomous driving vehicle, when detecting a gesture to stop the vehicle body, the vehicle body is stopped around the person who made the gesture. When there are passengers in the vehicle body, the autonomous driving vehicle continues to travel without stopping. In other words, it is possible to prevent the autonomous driving vehicle from stopping when another passenger is expected to ride even though the passenger is already present in the autonomous driving vehicle. Thereby, a prospective customer can be boarded in an autonomous driving vehicle efficiently.
  • the gesture detection unit may detect a gesture of a person existing on one of the right side and the left side of the road.
  • the gesture detection unit can set one of the right side and the left side of the road as the detection range, the detection process can be speeded up. For example, in a country that employs left-hand traffic for vehicles, there are many prospective customers on the left side of the road. For this reason, a detection process can be speeded up by making only the left side of a road into the detection range of a gesture detection part.
  • the autonomous driving vehicle includes a lane detection unit that detects the number of lanes in the same traveling direction on the road, and the gesture detection unit is provided on the right side and the left side of the road when the lane detection unit detects 1 as the lane number. If a gesture of an existing person is detected and the lane detection unit detects that the number of lanes is 2 or more, a gesture of a person existing on one of the right side and the left side of the road may be detected.
  • the detection range of the gesture detection unit can be adjusted according to the number of lanes.
  • the width of the entire road is relatively narrow. More specifically, it is a one-way road or a one-lane road.
  • the autonomous driving vehicle can handle prospective passengers existing on the left and right of the road in its lane.
  • the self-driving vehicle can make a U-turn to accommodate potential customers in the opposite lane.
  • the width of the entire road is relatively wide. For this reason, it is not desirable to handle the prospective customers present on the right side and the left side of the road with the autonomous driving vehicle because there is a possibility that the traffic of other vehicles may be hindered when moving to another lane.
  • the detection range of the gesture detection unit can be adjusted according to the number of lanes, it is possible to make the detection range appropriate for the situation.
  • control unit detects the number of lanes as 2 or more, and when the determination unit determines that there are no passengers in the vehicle body, the control unit is closest to the sidewalk among the two or more lanes. You may run on the lane.
  • the prospective customers are usually on the sidewalk. Therefore, as described above, when it is determined that there are no passengers in the vehicle body, the vehicle body is traveling in the lane closest to the sidewalk among the two or more lanes. The main body can travel. Thereby, it is possible to smoothly access the prospective customer.
  • the self-driving vehicle includes a U-turn prohibition detecting unit that detects whether or not a U-turn is prohibited on the road, and the gesture detector detects the U-turn prohibition on the road when the U-turn prohibition detecting unit detects the prohibition of the U-turn on the road.
  • the gesture of the person present on one of the right side and the left side of the road may be detected.
  • the detection range of the gesture detection unit can be adjusted depending on whether or not U-turn is prohibited. Specifically, the self-driving vehicle cannot move to the opposite lane at a U-turn prohibited place. That is, even if there is a prospective customer on the opposite lane side of the autonomous driving vehicle, the autonomous driving vehicle cannot respond, and in this case, the detection range of the gesture detection unit can be only one of the right side and the left side of the road.
  • the gesture detection unit detects a second gesture to cancel the stop of the vehicle body of the person, and the control unit detects the person making the gesture after the gesture detection unit detects the second gesture from the person. If two gestures are detected, the vehicle body may continue to travel.
  • the gesture detection unit detects the person making the gesture and then detects the second gesture from the person, the vehicle body continues to travel, so the intention of canceling the prospective customer The vehicle body can continue to travel.
  • the autonomous driving vehicle includes a notification unit that performs notification toward the outside of the vehicle body, and the control unit performs a gesture when the determination unit determines that there are no passengers in the vehicle body. If the person who detects is detected, the notification unit may be notified that the person has been detected.
  • the notification unit since a notification indicating that the person who made the gesture is detected is performed by the notification unit, it is possible to indicate to the prospective customer that the gesture has been transmitted to the autonomous driving vehicle.
  • the autonomous driving vehicle includes a communication unit that communicates with a dispatching system that dispatches another autonomous driving vehicle to a predetermined place, and the control unit determines that a passenger is present in the vehicle body by the determination unit.
  • the gesture detection unit detects a person making a gesture, a dispatch request for the location of the person may be output from the communication unit to the dispatch system.
  • a dispatch request for the place is output from the communication unit to the dispatch system.
  • another autonomous driving vehicle can be dispatched to a prospective customer by a dispatch system.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a vehicle allocation system 100 according to the present embodiment.
  • the dispatch system 100 is a system that dispatches a plurality of autonomous driving vehicles 1 used as taxis to predetermined places.
  • the vehicle allocation system 100 includes an information terminal 101 such as a personal computer or a tablet terminal.
  • the information terminal 101 can communicate with each autonomous driving vehicle 1 via the network N. From the information terminal 101, a dispatch instruction to a predetermined place is output to each autonomous driving vehicle 1.
  • Each self-driving vehicle 1 travels automatically toward a predetermined place based on a dispatch instruction.
  • the vehicle allocation system 100 may include an automobile that requires a driver's driving operation. In this case, it is assumed that the driver drives the vehicle and heads for a predetermined location based on the dispatch instruction received by the vehicle.
  • FIG. 2 is a schematic diagram showing an example of the autonomous driving vehicle 1 in the present embodiment.
  • the autonomous driving vehicle 1 includes a vehicle main body 10 and an automatic driving system 20 for automatically driving the vehicle main body 10.
  • the automatic driving system 20 is mounted on the vehicle main body 10.
  • the vehicle body 10 is provided with a seat 11 on which a passenger sits, and an operation unit 12 that is operated by the passenger is installed on a dashboard in front of the seat 11.
  • the operation unit 12 is, for example, a touch panel, and a passenger can specify a destination.
  • the roof in the vehicle body 10 is provided with a notification unit 13 on which various information is displayed.
  • this notification unit 13 various information can be notified to people outside the autonomous driving vehicle 1.
  • FIG. 3 is a block diagram showing an example of the functional configuration of the autonomous driving vehicle 1 in the present embodiment.
  • the vehicle main body 10 of the autonomous driving vehicle 1 is provided with a propulsion system 110, a sensor system 120, a control system 130, and peripheral devices 140.
  • the propulsion system 110 is a system that provides power movement to the vehicle body 10. Specifically, the propulsion system 110 includes a drive source 111 and a transmission 112.
  • the drive source 111 is an internal combustion engine, an electric motor, a steam engine, a Stirling engine, or the like, and these may be a single body or a combination thereof.
  • the autonomous driving vehicle 1 is a gasoline-electric hybrid vehicle
  • the drive source 111 is a combination of a gasoline engine and an electric motor.
  • the transmission 112 is configured to transmit mechanical power from the drive source 111 to the wheel.
  • the transmission 112 includes a gear box, clutch, differential, drive shaft, and / or other elements.
  • the sensor system 120 detects information related to the environment where the vehicle body 10 is placed.
  • the sensor system 120 is composed of several sensors so as to detect information related to the environment.
  • the sensor system 120 includes a GPS module 121, an inertia measurement unit 122, a characteristic unit 123, a first camera 124, and a second camera 125.
  • the GPS module 121 is a module that estimates the latitude and longitude of the vehicle body 10 by GPS (Global Positioning System). Specifically, the GPS module 121 estimates the position of the vehicle body 10 with respect to the earth based on satellite-based positioning data. In one example, the automatic driving system 20 estimates the position of the lane boundary of the road on which the vehicle body 10 is traveling by using the GPS module 121 together with the map data.
  • GPS Global Positioning System
  • the inertial measurement unit 122 is an IMU (Inertial Measurement Unit), and is a sensor group that detects changes in the position and orientation of the vehicle body 10 based on inertial acceleration.
  • the inertial measurement unit 122 may include, for example, an accelerometer and a gyroscope.
  • the characteristic unit 123 determines the characteristics of the object such as the distance, altitude, direction, or speed of the object around the vehicle body 10.
  • the characteristic unit 123 includes a radar unit that determines the distance, altitude, direction, or speed of an object using radio waves.
  • Other systems similar to radar may also be included in the characteristic unit 123.
  • Other systems include a rider system that uses light to detect an object in the environment where the vehicle body 10 is placed. If both scanning and non-scanning lidar systems are used, three-dimensional (3D) imaging can be performed.
  • “3D gated viewing laser radar” is an example of a non-scanning laser ranging system that applies a pulsed laser and a high-speed gate camera.
  • the first camera 124 is an arbitrary camera (for example, a still camera or a video camera) configured to take an image of an environment where the vehicle body 10 is placed. Specifically, the first camera 124 is attached to the front portion of the vehicle body 10 so as to photograph the front of the vehicle body 10 (see FIG. 2).
  • the second camera 125 is an arbitrary camera (for example, a still camera or a video camera) configured to take an image inside the vehicle body 10. Specifically, the 2nd camera 125 is attached to the front part of the vehicle main body 10 so that the inside of the vehicle main body 10 may be image
  • the control system 130 controls the operation of the vehicle body 10 and its components.
  • the control system 130 may include a steering unit 131, a throttle unit 132, a brake unit 133, a navigation unit 134, and an obstacle avoidance system 135.
  • the steering unit 131 is a mechanism configured to adjust the azimuth or direction of the vehicle body 10.
  • the throttle unit 132 is a mechanism configured to control the operation speed and acceleration of the drive source 111 and, as a result, control the speed and acceleration of the vehicle body 10.
  • the brake unit 133 is a mechanism configured to decelerate the vehicle body 10.
  • the brake unit 133 may use friction to slow down the wheel.
  • the brake unit 133 may be configured in a regenerative manner and convert the kinetic energy of the wheel into an electric current.
  • the navigation unit 134 is configured to determine a driving route for the vehicle body 10.
  • the navigation unit 134 may be configured to dynamically update the driving route during operation of the vehicle body 10.
  • the navigation unit 134 may be configured to determine the driving route of the vehicle body 10 in combination with the GPS module 121 and one or more predetermined map data.
  • the obstacle avoidance system 135 is configured to identify and evaluate an obstacle in the environment where the vehicle body 10 is placed, and to avoid or otherwise avoid the obstacle.
  • control system 130 may include a sensor fusion algorithm, a computer vision system, and the like.
  • the sensor fusion algorithm is an algorithm that can be executed by the processor 22 of the automatic driving system 20, for example.
  • the sensor fusion algorithm is configured to receive data from the sensor system 120 as input.
  • the sensor fusion algorithm includes, for example, an evaluation of individual objects and / or features in the environment in which the vehicle body 10 is placed, an evaluation of a specific situation, and / or an evaluation of a possible collision based on the specific situation.
  • Various assessments are provided based on data from sensor system 120.
  • the computer vision system uses images taken by the first camera 124 to identify objects and / or features in the environment in which the vehicle body 10 is placed, including, for example, lane information, traffic signals, and obstacles. It is configured for processing and analysis.
  • the computer vision system may use object recognition algorithms, structure-from-motion (SFM) algorithms, video tracking, or other computer vision techniques.
  • SFM structure-from-motion
  • Peripheral device 140 is configured to allow vehicle body 10 to interact with external devices, other autonomous driving vehicles and / or passengers.
  • the peripheral device 140 includes, for example, an operation unit 12, a notification unit 13, and a communication unit 141.
  • the operation unit 12 is a system that receives various instructions such as a destination by being operated by a passenger.
  • the operation unit 12 is, for example, a touch panel, but may be a voice input device.
  • reporting part 13 is an apparatus which alert
  • reporting part 13 is comprised from the electronic bulletin board, the liquid crystal monitor, etc., and provides visual information to the people who exist outside the automatic driving vehicle 1 by displaying various information.
  • reporting part 13 may be an apparatus which provides various information with an audio
  • the communication unit 141 is a system that can wirelessly communicate with other autonomous driving vehicles and the information terminal 101 via the network N.
  • the communication unit 141 includes an antenna and a chip set for communicating with the network N.
  • the chipset may be of any type of wireless communication that is generally feasible (e.g., protocol), e.g., a communication protocol described in Bluetooth (R), IEEE 802.11 (including any IEEE 802.11 revision), According to one or more of cellular technologies (GSM (registered trademark), CDMA, UMTS, EV-DO, WiMAX, LTE, etc.), Zigbee, dedicated narrow area communication (DSRC), and wireless automatic identification (RFID) communication You may be made to communicate.
  • the automatic driving system 20 is a control unit that automatically drives the vehicle main body 10 by controlling the operation of each component of the vehicle main body 10.
  • the automatic driving system 20 includes a memory 21 and a processor 22.
  • the memory 21 may comprise one or more volatile storage components and / or one or more non-volatile storage components such as optical, magnetic and / or organic storage.
  • the memory 21 may be incorporated in the processor 22 in whole or in part.
  • the memory 21 may include a program that can be executed by the processor 22 for executing the automatic driving function according to the present embodiment.
  • the memory 21 stores map data.
  • the map data includes road map information, lane information indicating the number of lanes on the road, intersection information indicating the type of intersection, speed limit information indicating the speed limit, and regulatory information indicating other traffic regulations. ing. Map data may be stored in the memory 21 in advance. Further, the latest map data acquired from the network N via the communication unit 141 may be updated and stored in the memory 21 each time.
  • the memory 21 stores reference gesture information that is a criterion for determining a gesture for stopping a taxi (stop request gesture).
  • the reference gesture information is data indicating a standard stop request gesture generally used in the country or region when stopping a taxi. This data includes the coordinate position of each feature point of the stop request gesture, an image of a characteristic posture of the stop request gesture, a moving image of the stop request gesture, and the like.
  • gestures such as “raise one hand” and “was raised hand” correspond to stop request gestures.
  • stop gestures in other countries and regions, for example, “shake with your hand open”, “hold and raise your hand”, “shake with your index finger and middle finger up”, “with your middle finger up only”
  • Other gestures can be used as the stop request gesture.
  • the reference gesture information may be customized and stored in the memory 21 so as to correspond to the country and region when the shipping country and the shipping region of the autonomous driving vehicle 1 are determined.
  • the memory 21 stores second reference gesture information that is a determination criterion for a cancel gesture (second gesture).
  • the second reference gesture information is data indicating a reference cancel gesture for canceling acceptance when a gesture for stopping a taxi is accepted by the autonomous driving vehicle 1. This data includes the coordinate position of each feature point of the cancel gesture, an image of a characteristic posture of the cancel gesture, a moving image of the cancel gesture, and the like.
  • the cancel gesture may be different from the stop request gesture. For example, “make x with both hands”, “shake the neck left and right”, “turn back”, “move away from the car”, etc. Can be mentioned. Further, an operation that does not move for a certain period of time may be used as a cancel gesture so that the person displayed in the street signboard is not recognized as an actual person.
  • the processor 22 may comprise one or more general purpose processors and / or one or more dedicated processors (eg, image processor, digital signal processor, etc.). Where the processor 22 includes multiple processors, such multiple processors may work independently or in concert.
  • the processor 22 automatically drives the vehicle main body 10 by reading and executing the program stored in the memory 21. Specifically, the processor 22 is based on the various detection results input from the sensor system 120, the various information input from the peripheral device 140, and the various information stored in the memory 21. By controlling the control system 130, the vehicle main body 10 is automatically driven to the destination while observing traffic regulations and avoiding other objects (other vehicles, buildings, people, animals, etc.). For the automatic operation control by the processor 22, well-known automatic operation control can be used.
  • the processor 22 also executes a stopping method of the automatic driving vehicle 1 when the automatic driving vehicle 1 is automatically operated.
  • step S1 the processor 22 of the automatic driving system 20 determines whether or not there are passengers in the vehicle main body 10 during the automatic driving. Specifically, the processor 22 determines whether there is a passenger in the vehicle body 10 based on the image in the vehicle body 10 captured by the second camera 125. That is, the processor 22 and the second camera 125 are determination units that determine whether there are passengers in the vehicle body 10.
  • step S1; NO the processor 22 shifts to the acceptance mode of step S2, and when it is determined that there are passengers in the vehicle body 10 (step S1; YES). ) Shifts to the rejection mode of step S3.
  • FIG. 5 is a flowchart showing the flow of the acceptance mode according to the embodiment.
  • the acceptance mode is a mode in which a passenger can be accepted in the vehicle main body 10.
  • step S20 in the acceptance mode the processor 22 determines whether or not the number of lanes in the same traveling direction as the lane (lane) in which the autonomous driving vehicle 1 is currently traveling is two or more. Specifically, the processor 22 detects the number of lanes from an image in front of the vehicle body 10 captured by the first camera 124. That is, the processor 22 and the first camera 124 are lane detection units that detect the number of lanes in the same traveling direction on the road. In addition to this, the processor 22 can also detect the number of lanes based on the current position detected by the GPS module 121 and the map data.
  • step S20 the processor 22 determines that the number of lanes is 2 or more (step S20; YES).
  • the processor 22 proceeds to step S21.
  • step S21 the processor 22 causes the vehicle main body 10 to travel in a lane closest to the sidewalk among the two or more lanes.
  • the sidewalk is an area adjacent to the roadway where a pedestrian can exist, and may include a roadside belt, a road shoulder, and the like. Thereby, when the prospective customer G (refer FIG. 7 etc.) is discovered, it can stop smoothly.
  • FIG. 7 is a schematic diagram illustrating an example of an image captured by the first camera 124 when the autonomous driving vehicle 1 according to the embodiment travels.
  • FIG. 7 shows a case where the number of lanes in the same traveling direction is two.
  • the autonomous driving vehicle 1 is traveling on the lane L1 closest to the sidewalk W among the two lanes L1 and L2, that is, the left lane L1.
  • step S22 the processor 22 sets the detection range S for detecting a gesture in the shooting range R of the first camera 124 as a range including the left side of the road. Specifically, as illustrated in FIG. 7, the processor 22 sets a range that does not include the right lane L2 and includes at least the sidewalk W on the left of the lane L1 as the detection range S. This makes it possible to detect a stop request gesture of a person on the left side of the road.
  • step S20 determines that the number of lanes is not two or more (step S20; NO)
  • step S23 the processor 22 proceeds to step S23.
  • FIG. 8 is a schematic diagram illustrating an example of an image captured by the first camera 124 when the autonomous driving vehicle 1 according to the embodiment travels.
  • FIG. 8 shows a case where the number of lanes in the same traveling direction is 1. Specifically, in FIG. 8, the autonomous driving vehicle 1 is traveling on a one-way, one-lane road.
  • step S23 the processor 22 sets the detection range S of the shooting range R of the first camera 124 as a range including the right side and the left side of the road. Specifically, the processor 22 sets a range including at least the sidewalks W1 and W2 on the left and right sides of the road as the detection range S as shown in FIG. This makes it possible to detect stop request gestures of people present on the left and right sides of the road.
  • step S24 the processor 22 determines whether or not a person making a stop request gesture is detected within the detection range S. Specifically, the processor 22 detects the person making the stop request gesture by comparing the reference gesture information stored in the memory 21 with the movement of the person existing in the detection range S. . That is, the first camera 124, the memory 21, and the processor 22 are gesture detection units that detect a stop request gesture. For this verification, any verification method that can determine whether or not the motion of the person imaged by the first camera 124 is a stop request gesture may be adopted. An example of the collation method is pattern matching. If the processor 22 detects a person making a stop request gesture (step S24; YES), the processor 22 proceeds to step S25. If not detected (step S24; NO), the processor 22 continues the state. To do.
  • step S25 if the processor 22 determines that the person is making a stop request gesture, the processor 22 recognizes the person as a prospective customer G and tracks the person in the image captured by the first camera 124. At the time of tracking, the attitude of the first camera 124 may be controlled so that the prospective customer G is always within the shooting range.
  • step S26 the processor 22 controls the notification unit 13 to cause the notification unit 13 to perform notification indicating that the prospective customer G has been detected. Thereby, it is possible to indicate to the prospective customer G that the stop request gesture has been transmitted to the autonomous driving vehicle 1.
  • step S27 the processor 22 compares the operation of the prospective customer G tracked in the captured image with the second reference gesture information stored in the memory 21 to cancel the prospective customer G. Detect gestures. For this verification, any verification method that can determine whether the motion of the prospective customer G captured by the first camera 124 is a cancel gesture may be adopted. An example of the collation method is pattern matching. If the cancel gesture from the prospective customer G is not detected (step S27; NO), the processor 22 proceeds to step S28, and if the cancel gesture from the prospective customer G is detected (step S27; YES). Then, the process proceeds to step S29.
  • step S28 the processor 22 controls the operation of each component of the vehicle main body 10 to automatically drive the vehicle main body 10 and stop it around the prospective customer G.
  • the prospective customer G can enter the autonomous driving vehicle 1.
  • the processor 22 ends the acceptance mode and resumes automatic driving of the vehicle body 10.
  • the processor 22 turns the vehicle main body 10 into a U-turn. Then, after moving to the opposite lane L4, the vehicle body 10 is stopped around the prospective customer G.
  • step S29 the processor 22 cancels the authorization of the prospective customer G, ends the acceptance mode, and resumes the automatic operation of the vehicle body 10.
  • the notification timing is not limited to this.
  • the notification may be performed after the autonomous driving vehicle 1 stops around the prospective customer G.
  • the case where the autonomous driving vehicle 1 stops around the prospective customer G after determining the presence or absence of the cancel gesture is illustrated.
  • the timing for determining whether or not there is a cancel gesture is not limited to this. For example, after the autonomous driving vehicle 1 stops around the prospective customer G, the presence or absence of a cancel gesture may be determined.
  • FIG. 6 is a flowchart showing the flow of the rejection mode according to the embodiment.
  • the rejection mode is a mode in which acceptance of the prospective customer G is rejected because there are already passengers in the vehicle body 10.
  • step S30 of the rejection mode the processor 22 determines whether or not the number of lanes in the same traveling direction as the lane (lane) in which the autonomous driving vehicle 1 is currently traveling is two or more. Specifically, the processor 22 detects the number of lanes from an image in front of the vehicle body 10 captured by the first camera 124.
  • step S30 the processor 22 determines that the number of lanes is 2 or more (step S30; YES).
  • the processor 22 proceeds to step S31.
  • step S31 the processor 22 sets the range including the left side of the road in the shooting range R of the first camera 124 as the detection range S, as in step S22.
  • step S30 the processor 22 determines that the number of lanes is not two or more (step S30; NO)
  • the processor 22 proceeds to step S32.
  • step S32 the processor 22 sets the range including the right side and the left side of the road in the shooting range R of the first camera 124 as the detection range S, as in step S23.
  • step S33 the processor 22 determines whether or not a person making a stop request gesture is detected within the detection range S. If the processor 22 detects a person making a stop request gesture (step S33; YES), the processor 22 proceeds to step S34, and if not detected (step S33; NO), the state is continued. To do.
  • step S34 the processor 22 controls the communication unit 141 to output a vehicle allocation request for a place where the prospective customer G exists.
  • the vehicle allocation request includes the time when the prospective customer G is detected and the position data of the place where the prospective customer G exists.
  • the information terminal 101 of the vehicle allocation system 100 accepts this vehicle allocation request via the network N, the information terminal 101 outputs a vehicle allocation instruction for a place where the prospective customer G exists to the other autonomous driving vehicles 1.
  • the processor 22 may control the notification unit 13 to cause the notification unit 13 to perform notification indicating that the vehicle allocation request has been output. Thereby, it is possible to indicate to the prospective customer G that the stop request gesture has been transmitted to the other autonomous driving vehicle 1.
  • the processor 22 ends the refusal mode and resumes automatic operation of the vehicle body 10.
  • the self-driving vehicle 1 detects a gesture (stop request gesture) of the vehicle main body 10 and a person existing around the road on which the vehicle main body 10 is traveling to stop the vehicle main body 10.
  • a gesture detection unit first camera 124, memory 21 and processor 22
  • a determination unit processing 22 and second camera 125
  • control for automatically driving the vehicle body 10
  • a control unit automatic driving system 20
  • the control unit detects the vehicle body 10 when the gesture detection unit detects a person making a gesture. Stop around the person.
  • the method for stopping the autonomous driving vehicle 1 according to the present embodiment is such that when it is determined that there are no passengers in the vehicle body 10 of the autonomous driving vehicle 1, the person existing around the road on which the vehicle body 10 is traveling When a gesture for stopping the vehicle main body 10 (stop request gesture) is detected, the vehicle main body 10 is stopped around the person.
  • program according to the present embodiment causes the computer to execute the stopping method of the autonomous driving vehicle 1.
  • the autonomous driving vehicle 1 when it is determined that there are no passengers in the vehicle main body 10 of the autonomous driving vehicle 1, if a stop request gesture for stopping the vehicle main body 10 is detected, the prospective customer G who made the stop request gesture Since the vehicle main body 10 is stopped in the vicinity, when there are passengers in the vehicle main body 10, the autonomous driving vehicle 1 continues to travel without stopping. That is, it is possible to prevent the automatic driving vehicle 1 from stopping when another prospective customer G is put on the passenger even though the passenger is already present in the automatic driving vehicle 1. Thereby, the prospective customer G can be boarded on the automatic driving vehicle 1 efficiently.
  • the gesture detection unit may detect a stop request gesture of a person existing on one of the right side and the left side of the road.
  • the gesture detection unit can set one of the right side and the left side of the road as the detection range S, the detection process can be speeded up.
  • the detection process can be speeded up by setting only the left side of the road as the detection range S of the gesture detection unit.
  • the autonomous driving vehicle 1 also includes a lane detection unit (processor 22 and first camera 124) that detects the number of lanes in the same traveling direction on the road, and the gesture detection unit detects the number of lanes as 1 by the lane detection unit.
  • a lane detection unit processing unit 22 and first camera 1264 that detects the number of lanes in the same traveling direction on the road
  • the gesture detection unit detects the number of lanes as 1 by the lane detection unit.
  • stop gestures of people present on the right and left sides of the road are detected, and if the lane detector detects that the number of lanes is two or more, the stop of the person present on one of the right and left sides of the road A request gesture may be detected.
  • the detection range S of the gesture detection unit can be adjusted according to the number of lanes.
  • the width of the entire road is relatively narrow. More specifically, it is a one-way road or a one-lane road.
  • the automatic driving vehicle 1 can correspond to the prospective customer G existing on the left and right of the road in its lane. Further, when the road is a one-lane road, the autonomous driving vehicle 1 can make a U-turn to deal with a prospective customer G in the opposite lane.
  • the width of the entire road is relatively wide. For this reason, it is not desirable to handle the prospective passengers G present on the right side and the left side of the road with the autonomous driving vehicle 1 because the traffic of other vehicles may be hindered when moving to another lane.
  • the detection range of the gesture detection unit can be adjusted according to the number of lanes, it is possible to make the detection range appropriate for the situation.
  • control unit detects the number of lanes as two or more, and when the determination unit determines that there are no passengers in the vehicle main body, the control unit determines that the vehicle main body is the most on the sidewalk W among the two or more lanes. You may drive on the near lane L1.
  • the prospective customer G is usually present on the sidewalk W. For this reason, as described above, when it is determined that there are no passengers in the vehicle body 10, the vehicle body 10 is traveling in the lane L1 closest to the sidewalk W among the two or more lanes L1 and L2. The vehicle body 10 can travel on the lane L1 close to the prospective customer G. Thereby, the access to the prospective customer G can be performed smoothly.
  • the gesture detection unit detects a second gesture (cancellation gesture) of the person (probable customer G) who intends to cancel the stop of the vehicle main body 10, and the control unit performs a stop request gesture. If a cancel gesture from the person is detected after the person is detected, the vehicle body 10 may continue to travel.
  • a second gesture cancellation gesture
  • the control unit performs a stop request gesture. If a cancel gesture from the person is detected after the person is detected, the vehicle body 10 may continue to travel.
  • the vehicle body 10 when the gesture detection unit detects a prospective customer G and then detects a cancel gesture from the prospective customer G, the vehicle body 10 continues to travel.
  • the vehicle body 10 can continue to travel.
  • the autonomous driving vehicle 1 is provided with the alerting
  • the notification unit 13 may be notified that the prospective customer G has been detected.
  • the notification unit 13 is an electronic bulletin board, a liquid crystal monitor, or the like attached to the roof of the vehicle main body 10 is illustrated.
  • a hazard lamp provided in the vehicle main body 10 can also be used as a notification unit. In this case, it is possible to notify the prospective customer G by blinking the hazard lamp.
  • the notification unit 13 since the notification indicating that the potential customer has been detected is performed by the notification unit 13, it is possible to indicate to the prospective customer G that the stop request gesture has been transmitted to the automatic driving vehicle 1.
  • the autonomous driving vehicle 1 includes a communication unit 141 that communicates with a dispatching system 100 that dispatches another autonomous driving vehicle 1 to a predetermined place, and the control unit has a passenger in the vehicle body 10 by the determination unit.
  • the determination is made, if the gesture detecting unit detects a person making a stop request gesture, a vehicle allocation request for the location of the person may be output from the communication unit 141 to the vehicle allocation system 100.
  • the determination unit determines that there are passengers in the vehicle body 10, that is, in a state where the prospective customer G cannot be accepted
  • the gesture detection unit detects the prospective customer G
  • the prospective customer G A dispatch request for the location is output from the communication unit 141 to the dispatch system 100.
  • another autonomous driving vehicle 1 can be allocated to the prospective customer G by the vehicle allocation system 100.
  • the second camera 125 configures a part of the determination unit that determines whether there are passengers in the vehicle main body 10
  • a sensor other than a camera can be used as a part of the determination unit as long as the presence or absence of a passenger in the vehicle body 10 can be determined.
  • sensors include a weight sensor and a human sensor.
  • the weight sensor may be disposed within the seating surface of the seat 11.
  • the processor 22 can determine the presence or absence of a passenger.
  • the human sensor may be provided in the vehicle main body 10 so that the vehicle interior space of the vehicle main body 10 is a detection range. Based on the detection result of the human sensor, the processor 22 can determine the presence or absence of a passenger.
  • the human sensor include a temperature sensor, an ultrasonic sensor, and an infrared sensor.
  • the case where the first camera 124 constitutes a part of the gesture detection unit that detects a human gesture is illustrated.
  • the radar unit and the rider system form part of the gesture detection unit.
  • the processor 22 detects a U-turn prohibition sign from an image in front of the vehicle body 10 captured by the first camera 124. That is, the processor 22 and the first camera 124 are a U-turn prohibition detecting unit that detects whether or not a U-turn is prohibited on the road.
  • the processor 22 may detect a stop request gesture of a person existing on one of the right side and the left side of the road.
  • the detection range S can be adjusted depending on whether or not the U-turn is prohibited. Specifically, the self-driving vehicle 1 cannot move to the opposite lane in a place where a U-turn is prohibited. In other words, even if there is a prospective customer G on the opposite lane side of the autonomous driving vehicle 1, the autonomous driving vehicle 1 cannot respond. In this case, the detection range S is set only on the lane side where the autonomous driving vehicle 1 is traveling. can do.
  • the presence or absence of the cancel gesture is determined before the automatic driving vehicle 1 stops is illustrated.
  • the presence or absence of a cancel gesture may be determined after the autonomous driving vehicle 1 stops. In this case, it can be determined as one of the cancel gestures that the prospective customer G does not get on the autonomous driving vehicle 1 even if a predetermined time elapses after the vehicle stops.
  • each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • the software that realizes the autonomous driving vehicle 1 and the like of each of the above embodiments is the following program.
  • this program is a program that, when it is determined that there are no passengers in the vehicle body of the autonomous driving vehicle, a gesture for stopping the vehicle body of a person existing around the road on which the vehicle body is traveling Is detected, an automatic driving vehicle stopping method for stopping the vehicle main body in the vicinity of the person who made the gesture is executed.
  • the automatic driving vehicle 1 and the method for stopping the automatic driving vehicle 1 according to one or more aspects of the present invention have been described above based on the embodiment. However, the present invention is limited to this embodiment. It is not a thing. Unless it deviates from the gist of the present invention, the embodiment in which various modifications conceived by those skilled in the art have been made in the present embodiment, or a form constructed by combining components in different embodiments is also possible. It may be included within the scope of the embodiments.
  • This disclosure is useful as an autonomous driving vehicle that can be used as a taxi.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Transportation (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Primary Health Care (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

自動運転車両(1)は、車両本体(10)と、車両本体が走行している道路周辺に存在する人の、車両本体を停車させようとするジェスチャーを検出するジェスチャー検出部と、車両本体に乗客がいるかどうかを判定する判定部と、車両本体を自動運転する制御部(20)とを備える。そして、制御部は、判定部によって車両本体に乗客がいないと判定された場合に、ジェスチャー検出部がジェスチャーをしている人を検出すると、車両本体を当該人の周辺で停車させる。

Description

自動運転車両、自動運転車両の停車方法及びプログラム
 本開示は、自動運転車両、自動運転車両の停車方法及びプログラムに関する。
 近年、運転者による運転操作が無くても自律走行可能な自動運転車両が開発されている(例えば特許文献1参照)。このような自動運転車両をタクシーとして採用することも検討されている。
特開2015-133050号公報
 そこで、本開示は、タクシーを呼び止めようとしている見込み客を効率よく自動運転車両に乗車させることを目的とする。
 本開示の一態様に係る自動運転車両は、車両本体と、車両本体が走行している道路周辺に存在する人の、車両本体を停車させようとするジェスチャーを検出するジェスチャー検出部と、車両本体に乗客がいるかどうかを判定する判定部と、車両本体を自動運転する制御部とを備え、制御部は、判定部によって車両本体に乗客がいないと判定された場合に、ジェスチャー検出部がジェスチャーをしている人を検出すると、当該人の周辺で車両本体を停車させる。
 上記態様によれば、タクシーを呼び止めようとしている見込み客を効率よく、自動運転車両に乗車させることができる。
図1は、本実施の形態に係る配車システムの概略構成を示す模式図である。 図2は、本実施の形態における自動運転車両の一例を示す模式図である。 図3は、本実施の形態における自動運転車両の機能構成の一例を示すブロック図である。 図4は、自動運転車両の停車方法の流れを示すフローチャートである。 図5は、実施の形態に係る受け入れモードの流れを示すフローチャートである。 図6は、実施の形態に係る拒否モードの流れを示すフローチャートである。 図7は、実施の形態に係る自動運転車両の走行時における第一カメラでの撮影画像の一例を示す模式図である。 図8は、実施の形態に係る自動運転車両の走行時における第一カメラでの撮影画像の一例を示す模式図である。
 (本発明者の知見)
 本発明者は、自動運転車両をタクシーとして採用することについて検討した。ここで、日本政府や米国運輸省道路交通安全局が定義したレベル4の自動運転車両は、完全自動運転であるために、乗客は運転操作に全く関与しない。つまり、レベル4の自動運転車両をタクシーに採用した場合には、自動運転車両自体で、道路上に見込み客が存在するか否かを判断し、存在した場合にはその見込み客の近くで自動運転車両が停車する必要がある。ところが、見込み客を発見するたびに自動運転車両が停車してしまうと、すでに自動運転車両内に乗客がいる場合には非効率である。そこで、以降においては、この問題を解消することができる技術について説明する。
 本開示の一態様に係る自動運転車両は、車両本体と、車両本体が走行している道路周辺に存在する人の、前記車両本体を停車させようとするジェスチャーを検出するジェスチャー検出部と、車両本体に乗客がいるかどうかを判定する判定部と、車両本体を自動運転する制御部とを備え、制御部は、判定部によって車両本体に乗客がいないと判定された場合に、ジェスチャー検出部がジェスチャーをしている人を検出すると、車両本体を当該人の周辺で停車させる。
 また、本開示の一態様に係る自動運転車両の停車方法は、自動運転車両の車両本体に乗客がいないと判定された場合に、車両本体が走行している道路周辺に存在する人の、車両本体を停車させようとするジェスチャーを検出すると、当該人の周辺で車両本体を停車させる。
 また、本開示の一態様に係るプログラムは、上記自動運転車両の停車方法をコンピュータに実行させる。
 これによれば、自動運転車両の車両本体に乗客がいないと判定された場合に、車両本体を停車させようとするジェスチャーを検出すると、当該ジェスチャーをした人の周辺で車両本体を停車させるので、車両本体に乗客がいる場合には、自動運転車両は停車せずに走行を継続する。つまり、すでに自動運転車両に乗客が存在しているのに、別の見込み客を乗せようと自動運転車両が停車することを防止することができる。これにより、見込み客を効率よく、自動運転車両に乗車させることができる。
 また、ジェスチャー検出部は、道路の右側及び左側の一方に存在する人のジェスチャーを検出してもよい。
 これによれば、ジェスチャー検出部は、道路の右側及び左側の一方を検出範囲とすることができるので、検出処理を高速化することができる。例えば、車両の左側通行を採用している国においては、道路の左側に見込み客が存在する場合が多い。このため、道路の左側のみをジェスチャー検出部の検出範囲とすることで、検出処理を高速化することができる。
 また、自動運転車両は、道路における同一進行方向のレーン数を検出するレーン検出部を備え、ジェスチャー検出部は、レーン検出部がレーン数を1と検出した場合には、道路の右側及び左側に存在する人のジェスチャーを検出し、レーン検出部がレーン数を2以上と検出した場合には、道路の右側及び左側の一方に存在する人のジェスチャーを検出してもよい。
 これによれば、ジェスチャー検出部の検出範囲をレーン数に応じて調整することができる。
 例えば、同一進行方向のレーン数が1である場合には、道路全体としての幅が比較的狭いともいえる。より具体的には、一方通行の道路や、片側一車線の道路などである。一方通行の道路である場合には、道路の左及び右に存在する見込み客を自動運転車両がその車線で対応することが可能である。また、片側一車線の道路である場合には、自動運転車両はUターンすることで、反対車線の見込み客を対応することが可能である。
 一方、同一進行方向のレーン数が2以上であると、道路全体としての幅が比較的広い。このため、道路の右側及び左側のそれぞれに存在する見込み客を自動運転車両で対応するのは、別の車線に移動する際に他の車両の交通を妨げるおそれもあり、望ましくない。
 上記したようにレーン数に応じてジェスチャー検出部の検出範囲を調整できれば、状況に対して適切な検出範囲とすることが可能である。
 また、制御部は、レーン検出部がレーン数を2以上と検出するとともに、判定部によって車両本体に乗客がいないと判定された場合に、車両本体を2以上のレーンのうち、歩道に最も近いレーンで走行させてもよい。
 ここで、見込み客は大抵の場合、歩道に存在している。このため、上記したように、車両本体に乗客がいないと判定された場合に、2以上のレーンのうち、歩道に最も近いレーンで車両本体が走行しているので、見込み客に近いレーンを車両本体が走行することができる。これにより見込み客に対するアクセスを円滑に行うことができる。
 また、自動運転車両は、道路におけるUターンの禁止有無を検出するUターン禁止検出部を備え、ジェスチャー検出部は、Uターン禁止検出部が道路におけるUターンの禁止を検出した場合には、前記道路の右側及び左側の一方に存在する前記人の前記ジェスチャーを検出してもよい。
 これによれば、ジェスチャー検出部の検出範囲をUターンの禁止有無によって調整することができる。具体的には、Uターンの禁止場所では、自動運転車両は反対車線に移動できない。つまり、自動運転車両の反対車線側に見込み客がいたとしても、自動運転車両は対応できないので、その場合においてはジェスチャー検出部の検出範囲を道路の右側及び左側の一方のみとすることができる。
 また、ジェスチャー検出部は、人の、車両本体の停車をキャンセルしようとする第二ジェスチャーを検出し、制御部は、ジェスチャー検出部がジェスチャーをしている人を検出した後に、当該人からの第二ジェスチャーを検出した場合には、車両本体の走行を継続してもよい。
 これによれば、ジェスチャー検出部がジェスチャーをしている人を検出した後に、当該人からの第二ジェスチャーを検出した場合には、車両本体の走行が継続されるので、見込み客のキャンセルの意図を読み取って、車両本体の走行を継続することができる。
 また、自動運転車両は、車両本体の外方に向けて報知を行う報知部を備え、制御部は、判定部によって車両本体に乗客がいないと判定された場合に、ジェスチャー検出部がジェスチャーをしている人を検出すると、当該人を検出した旨を示す報知を報知部に行わせてもよい。
 これによれば、ジェスチャーをした人を検出した旨を示す報知が報知部で行われるので、自動運転車両にジェスチャーが伝わったことを見込み客に示すことができる。
 また、自動運転車両は、他の自動運転車両を所定の場所に配車する配車システムに対して通信する通信部を備え、制御部は、判定部によって車両本体に乗客がいると判定された場合に、ジェスチャー検出部がジェスチャーをしている人を検出すると、当該人の場所に対する配車要求を通信部から配車システムに出力させてもよい。
 これによれば、判定部によって車両本体に乗客がいると判定された場合、つまり、見込み客を受け入れられない状態の場合に、ジェスチャー検出部がジェスチャーをしている人を検出すると、当該人の場所に対する配車要求が通信部から配車システムに出力される。これにより、見込み客に対しては、配車システムによって他の自動運転車両を配車することができる。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 以下、本発明の一態様に係る自動運転車両について、図面を参照しながら具体的に説明する。
 なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 [1.構成]
 図1は、本実施の形態に係る配車システム100の概略構成を示す模式図である。配車システム100は、タクシーとして使用する複数の自動運転車両1を、所定の場所に配車するシステムである。具体的には、配車システム100は、例えばパーソナルコンピュータ、タブレット端末などの情報端末101を備えている。この情報端末101は、各自動運転車両1とネットワークNを介して通信可能となっている。情報端末101からは、各自動運転車両1に対して、所定の場所への配車指示が出力される。各自動運転車両1は、配車指示に基づいて、所定の場所に向けて自動で走行する。なお、配車システム100には、運転者の運転操作を必要とする自動車が含まれていてもよい。この場合、自動車が受信した配車指示に基づいて、運転者が自動車を運転し所定の場所へ向かうものとする。
 図2は、本実施の形態における自動運転車両1の一例を示す模式図である。図2に示すように、自動運転車両1は、車両本体10と、車両本体10を自動運転するための自動運転システム20とを備えている。自動運転システム20は、車両本体10に搭載されている。また、車両本体10には、乗客が座るシート11が設けられており、その前方におけるダッシュボード上には、乗客によって操作される操作部12が設置されている。操作部12は、例えばタッチパネルであり、乗客が目的地を指定できるようになっている。
 車両本体10におけるルーフには、種々の情報が表示される報知部13が設けられている。この報知部13によって、自動運転車両1の外方にいる人々に種々の情報が報知できるようになっている。
 図3は、本実施の形態における自動運転車両1の機能構成の一例を示すブロック図である。図3に示すように、自動運転車両1の車両本体10には、推進システム110と、センサシステム120と、制御システム130と、周辺機器140とが設けられている。
 推進システム110は、車両本体10に動力運動を提供するシステムである。具体的には、推進システム110は、駆動源111と、トランスミッション112とを備えている。
 駆動源111は、内燃エンジン、電気モータ、蒸気エンジン及びスターリングエンジンなどであり、これらが単体であってもよいし、組み合わされたものであってもよい。例えば、自動運転車両1がガソリン-電気ハイブリッド車である場合には、駆動源111はガソリンエンジンと電気モータとの組み合わせとなる。
 トランスミッション112は、駆動源111からホイールへ機械的動力を伝えるように構成されている。例えば、トランスミッション112は、ギアボックス、クラッチ、差動装置、ドライブシャフト、及び/またはその他の要素を含んでいる。
 センサシステム120は、車両本体10が置かれている環境に関する情報を検知する。具体的には、センサシステム120は、環境に関する情報を検知するように、いくつかのセンサから構成されている。例えば、センサシステム120は、GPSモジュール121と、慣性測定ユニット122と、特性ユニット123と、第一カメラ124と、第二カメラ125とを備えている。
 GPSモジュール121は、GPS(Global Positioning System)によって車両本体10の緯度経度を推定するモジュールである。具体的には、GPSモジュール121は、地球に対する車両本体10の位置を衛星ベースの測位データに基づいて推定する。一例では、自動運転システム20は、GPSモジュール121を地図データと併用して、車両本体10が走行している道路の車線境界の位置を推定する。
 慣性測定ユニット122は、IMU(Inertial Measurement Unit)であり、車両本体10の位置及び向きの変化を慣性加速度に基づいて検知するセンサ群である。慣性測定ユニット122は、例えば加速度計とジャイロスコープとを含んでいてもよい。
 特性ユニット123は、車両本体10の周辺にある物体の距離、高度、方向、または速度などの物体の特性を判断する。具体的には、特性ユニット123は、電波を使用して物体の距離、高度、方向または速度などを判断するレーダーユニットを含む。また、レーダーに類似したその他のシステムも、特性ユニット123に含んでもよい。その他のシステムとしては、車両本体10の置かれた環境内の物体を、光を使用して検知するライダーシステムなどが挙げられる。走査型と非走査型のライダーシステムの両方を使用すれば、3次元(3D)撮像を行うことができる。「3Dゲーテッドビューイングレーザーレーダー」は、パルスレーザー及び高速ゲートカメラを適用する非走査型レーザー測距システムの一例である。
 第一カメラ124は、車両本体10の置かれた環境の画像を撮影するように構成された任意のカメラ(例えば、スチルカメラ、ビデオカメラなど)である。具体的には、第一カメラ124は、車両本体10の前方を撮影するように、車両本体10の前部に取り付けられている(図2参照)。
 第二カメラ125は、車両本体10の内部の画像を撮影するように構成された任意のカメラ(例えば、スチルカメラ、ビデオカメラなど)である。具体的には、第二カメラ125は、車両本体10の内部を撮影するように、車両本体10の前部に取り付けられている(図2参照)。
 制御システム130は、車両本体10及びその構成要素の動作を制御する。具体的には、制御システム130は、ステアリングユニット131、スロットルユニット132、ブレーキユニット133、ナビゲーションユニット134及び障害物回避システム135を含んでもよい。
 ステアリングユニット131は、車両本体10の方位または方向を調節するように構成された機構である。
 スロットルユニット132は、駆動源111の動作速度及び加速度を制御し、その結果、車両本体10の速度及び加速度を制御するように構成された機構である。
 ブレーキユニット133は、車両本体10を減速させるように構成された機構である。例えば、ブレーキユニット133は摩擦を使用してホイールを低速化してもよい。また、ブレーキユニット133は回生式に構成され、ホイールの運動エネルギーを電流に変換してもよい。
 ナビゲーションユニット134は、車両本体10のための運転経路を決定するように構成されている。ナビゲーションユニット134は、車両本体10の運行中に運転経路を動的に更新するように構成されてもよい。いくつかの例では、ナビゲーションユニット134は、GPSモジュール121と、1つまたは複数のあらかじめ定められた地図データとを併せて車両本体10の運転経路を決定するように構成されてもよい。
 障害物回避システム135は、車両本体10の置かれた環境内の障害物を識別し、評価し、回避またはその他の方法で障害物を切り抜けるように構成されている。
 なお、制御システム130は、センサフュージョンアルゴリズム、コンピュータビジョンシステムなどを備えていてもよい。センサフュージョンアルゴリズムは、例えば、自動運転システム20のプロセッサ22にて実行可能なアルゴリズムである。センサフュージョンアルゴリズムは、センサシステム120からのデータを入力として受け取るように構成されている。センサフュージョンアルゴリズムは、例えば、車両本体10の置かれた環境内の個々の物体及び/もしくは特徴の評価、特定の状況の評価、並びに/または、特定の状況に基づいて起こり得る衝突の評価を含む様々なアセスメントを、センサシステム120からのデータに基づいて提供する。
 コンピュータビジョンシステムは、例えば車線情報、交通信号、及び障害物などを含む、車両本体10の置かれた環境内の物体及び/または特徴を識別するために、第一カメラ124によって撮影された画像を処理及び分析するように構成されている。コンピュータビジョンシステムは物体認識アルゴリズム、運動からの構造復元(SFM:Structure From Motion)アルゴリズム、ビデオトラッキング、またはその他のコンピュータビジョン技法を使用してもよい。
 周辺機器140は、車両本体10が外部機器、他の自動運転車両及び/または乗客と対話することを可能にするように構成されている。具体的には、周辺機器140は、例えば、操作部12、報知部13及び通信部141を備えている。
 操作部12は、乗客によって操作されることで、目的地などの各種指示を受け付けるシステムである。具体的には、操作部12は、例えばタッチパネルであるが、音声入力デバイスであってもよい。
 報知部13は、自動運転車両1の外方に存在する人々に情報を報知する装置である。具体的には、報知部13は、電光掲示板、液晶モニタなどから構成されており、各種情報を表示することで、自動運転車両1の外方に存在する人々に視覚的な情報を提供する。なお、報知部13は、音声によって各種情報を提供する装置であってもよい。
 通信部141は、ネットワークNを介して、他の自動運転車両及び情報端末101と無線通信可能なシステムである。具体的には、通信部141は、ネットワークNと通信するためのアンテナ及びチップセットを含んでいる。チップセットは、一般的に実現可能な無線通信のタイプ(例えば、プロトコル)であればよく、例えばBluetooth(登録商標)、IEEE802.11(あらゆるIEEE802.11改訂を含む)に記載される通信プロトコル、セルラー技術(GSM(登録商標)、CDMA、UMTS、EV-DO、WiMAX、LTEなど)、Zigbee、専用狭域通信(DSRC)、及び、無線自動識別(RFID)通信などのうち1つまたは複数に従って通信するようになされてもよい。
 自動運転システム20は、車両本体10の各構成要素の動作を制御することで、車両本体10を自動運転する制御部である。具体的には、自動運転システム20は、メモリ21と、プロセッサ22とを備えている。
 メモリ21は、1つまたは複数の揮発性ストレージコンポーネント及び/または、光、磁気、及び/もしくは有機ストレージなどの1つまたは複数の不揮発性ストレージコンポーネントを備えていてもよい。また、メモリ21は全体的にまたは部分的にプロセッサ22に組み込まれてもよい。メモリ21は、本実施形態に係る自動運転機能を実行するための、プロセッサ22によって実行可能なプログラムを包含してもよい。また、メモリ21には、地図データが記憶されている。地図データには、道路地図情報と、道路のレーン数を示すレーン情報と、交差点のタイプを示す交差点情報と、制限速度を示す制限速度情報と、その他の交通法規を示す法規情報などが含まれている。地図データは、予めメモリ21に記憶されていてもよい。また、通信部141を介してネットワークNから取得した最新の地図データを、その都度メモリ21に更新して記憶させてもよい。
 また、メモリ21には、タクシーを止めようとするジェスチャー(停車要求ジェスチャー)の判定基準となる基準ジェスチャー情報が記憶されている。基準ジェスチャー情報とは、タクシーを止める際にその国または地域で一般的に用いられる基準的な停車要求ジェスチャーを示すデータである。このデータには、停車要求ジェスチャーの各特徴点の座標位置、停車要求ジェスチャーのうちの特徴的な姿勢の画像、停車要求ジェスチャーの動画などを含む。
 例えば、日本においては、「片手を上げる」、「上げた手を振る」などのジェスチャーが停車要求ジェスチャーに相当する。なお、その他の国、地域での停車要求ジェスチャーとしては、例えば、「手を広げて振る」、「手を握って上げる」、「人差し指と中指のみを立てて振る」、「中指のみを立てて振る」、「親指のみを立てる」、「人差し指と中指との間から親指が出るように手を握る」、「手招きする」、「人差し指を自動車に向けて指す」などが挙げられる。これ以外のジェスチャーを停車要求ジェスチャーとして用いることも可能である。また、基準ジェスチャー情報は、自動運転車両1の出荷国、出荷地域が確定した時点で、当該国、地域に対応するようにカスタマイズしてメモリ21に記憶させていてもよい。
 また、メモリ21には、キャンセルジェスチャー(第二ジェスチャー)の判定基準となる第二基準ジェスチャー情報が記憶されている。第二基準ジェスチャー情報とは、タクシーを止めようとするジェスチャーが自動運転車両1にて受け入れられた際に、その受け入れをキャンセルするための基準的なキャンセルジェスチャーを示すデータである。このデータには、キャンセルジェスチャーの各特徴点の座標位置、キャンセルジェスチャーのうちの特徴的な姿勢の画像、キャンセルジェスチャーの動画などを含む。
 キャンセルジェスチャーとしては、停車要求ジェスチャーと異なる動作であればよく、例えば「両手で×を作る」、「首を左右に振る」、「背を向ける」、「車から離れるように移動する」などが挙げられる。また、路上看板内に表示されている人を、実際の人として認識しないように、一定時間動きのない動作もキャンセルジェスチャーとしてもよい。
 プロセッサ22は、1つまたは複数の汎用プロセッサ、及び/または、1つまたは複数の専用プロセッサ(例えば、画像プロセッサ、デジタル信号プロセッサなど)を備えてもよい。プロセッサ22が複数のプロセッサを含む場合は、そのような複数のプロセッサは独立に、または協調して働いてもよい。
 そして、プロセッサ22は、メモリ21に記憶されているプログラムを読み出し、実行することで、車両本体10を自動運転する。具体的には、プロセッサ22は、センサシステム120から入力された各種検出結果と、周辺機器140から入力された各種情報と、メモリ21に記憶されている各種情報とに基づいて、推進システム110及び制御システム130を制御することにより、交通法規を守りながら、他の物体(他の車両、建物、人、動物など)を避けつつ、車両本体10を目的地まで自動運転する。プロセッサ22による自動運転制御には、周知の自動運転制御を用いることが可能である。
 また、プロセッサ22は、自動運転車両1の自動運転時においては、当該自動運転車両1の停車方法も実行する。
 [2.自動運転車両の停車方法]
 次に自動運転システム20が実行する自動運転車両1の停車方法について説明する。図4、図5及び図6は、自動運転車両1の停車方法の流れを示すフローチャートである。なお、ここでは、自動運転車両1が日本で用いられている場合を例示して説明する。つまり、自動車は左側通行とし、停車要求ジェスチャーは「片手を上げる」とする。
 図4に示すように、自動運転システム20のプロセッサ22は、ステップS1では、自動運転中に車両本体10に乗客が存在しているか否かを判断する。具体的には、プロセッサ22は、第二カメラ125で撮像された車両本体10内の画像に基づいて、当該車両本体10に乗客がいるかどうかを判定する。つまり、プロセッサ22と第二カメラ125とが、車両本体10に乗客がいるかどうかを判定する判定部である。そして、プロセッサ22は、車両本体10に乗客がいないと判定した場合(ステップS1;NO)にはステップS2の受け入れモードに移行し、車両本体10に乗客がいると判定した場合(ステップS1;YES)にはステップS3の拒否モードに移行する。
 図5は、実施の形態に係る受け入れモードの流れを示すフローチャートである。受け入れモードとは、車両本体10内に乗客を受け入れ可能なモードである。
 受け入れモードのステップS20では、プロセッサ22は、自動運転車両1が現在走行しているレーン(車線)と同一進行方向のレーン数が2以上であるか否かを判定する。具体的には、プロセッサ22は、第一カメラ124で撮像された車両本体10の前方の画像からレーン数を検出する。つまり、プロセッサ22と第一カメラ124とが、道路における同一進行方向のレーン数を検出するレーン検出部である。なお、これ以外にも、プロセッサ22は、GPSモジュール121で検出された現在位置と地図データとに基づいてレーン数を検出することも可能である。
 そして、プロセッサ22は、レーン数が2以上であると判定した場合(ステップS20;YES)には、ステップS21に移行する。ステップS21では、プロセッサ22は、2以上のレーンのうち、歩道に最も近いレーンで車両本体10を走行させる。なお、ここで歩道とは、車道に隣り合う領域であって歩行者が存在可能な領域をいい、路側帯、路肩などを含んでもよい。これにより、見込み客G(図7等参照)を発見した場合に、スムーズに停車することが可能である。
 図7は、実施の形態に係る自動運転車両1の走行時における第一カメラ124での撮影画像の一例を示す模式図である。この図7では、同一進行方向のレーン数が2である場合を示している。図7に示すように、自動運転車両1は、2つあるレーンL1、L2のうち、歩道Wに最も近いレーンL1、つまり左側のレーンL1を走行している。
 そして、ステップS22では、プロセッサ22は、第一カメラ124の撮影範囲Rのうち、ジェスチャーを検出するための検出範囲Sを、道路の左側を含む範囲とする。具体的には、プロセッサ22は、図7に示すように、右側のレーンL2を含まず、レーンL1の左にある歩道Wを少なくとも含む範囲を検出範囲Sとする。これにより、道路の左側に存在する人の停車要求ジェスチャーを検出することが可能となる。
 一方、プロセッサ22は、レーン数が2以上でないと判定した場合(ステップS20;NO)には、ステップS23に移行する。
 図8は、実施の形態に係る自動運転車両1の走行時における第一カメラ124での撮影画像の一例を示す模式図である。この図8では、同一進行方向のレーン数が1である場合を示している。具体的には、図8では、片道一車線の道路上を自動運転車両1が走行している。
 そして、ステップS23では、プロセッサ22は、第一カメラ124の撮影範囲Rのうち、検出範囲Sを、道路の右側及び左側を含む範囲とする。具体的には、プロセッサ22は、図8に示すように、道路の左右の歩道W1、W2を少なくとも含む範囲を検出範囲Sとする。これにより、道路の左側及び右側に存在する人の停車要求ジェスチャーを検出することが可能となる。
 ステップS24では、プロセッサ22は、検出範囲S内において、停車要求ジェスチャーをしている人を検出したかどうか判定する。具体的には、プロセッサ22は、メモリ21内に記憶されている基準ジェスチャー情報と、検出範囲S内に存在する人の動作とを照合することで、停車要求ジェスチャーをしている人を検出する。つまり、第一カメラ124、メモリ21及びプロセッサ22は、停車要求ジェスチャーを検出するジェスチャー検出部である。この照合には、第一カメラ124で撮像された人の動作が停車要求ジェスチャーであるかどうかを判定可能な照合方法であれば如何なるものを採用してもよい。照合方法の一例としてはパターンマッチングなどが挙げられる。そして、プロセッサ22は、停車要求ジェスチャーをしている人を検出した場合(ステップS24;YES)には、ステップS25に移行し、検出していない場合(ステップS24;NO)にはその状態を継続する。
 ステップS25では、プロセッサ22は、停車要求ジェスチャーをしている人と判定した場合、その人を見込み客Gとして認定し、第一カメラ124で撮影されている画像内で追跡する。なお、追跡時においては、見込み客Gが常に撮影範囲内に収まるように、第一カメラ124の姿勢を制御してもよい。
 ステップS26では、プロセッサ22は、報知部13を制御して、見込み客Gを検出した旨を示す報知を報知部13に行わせる。これにより、自動運転車両1に停車要求ジェスチャーが伝わったことを見込み客Gに示すことができる。
 ステップS27では、プロセッサ22は、撮影画像内で追跡している見込み客Gの動作と、メモリ21内に記憶されている第二基準ジェスチャー情報とを照合することで、当該見込み客Gがしたキャンセルジェスチャーを検出する。この照合には、第一カメラ124で撮像された見込み客Gの動作がキャンセルジェスチャーであるかどうかを判定可能な照合方法であれば如何なるものを採用してもよい。照合方法の一例としてはパターンマッチングなどが挙げられる。そして、プロセッサ22は、見込み客Gからのキャンセルジェスチャーを検出しなかった場合(ステップS27;NO)にはステップS28に移行し、見込み客Gからのキャンセルジェスチャーを検出した場合(ステップS27;YES)にはステップS29に移行する。
 ステップS28では、プロセッサ22は、車両本体10の各構成要素の動作を制御することで、車両本体10を自動運転して、見込み客Gの周辺で停車させる。これにより、見込み客Gが自動運転車両1に乗車可能な状態となる。見込み客Gの乗車後においては、プロセッサ22は、受け入れモードを終了して、車両本体10の自動運転を再開する。
 なお、図8に示すように見込み客Gが、自動運転車両1が走行しているレーンL3とは反対側の歩道W2に存在している場合には、プロセッサ22は、車両本体10をUターンさせて、反対側のレーンL4に移動させてから、見込み客Gの周辺で車両本体10を停車させる。
 ステップS29では、プロセッサ22は、見込み客Gの認定を解除し、受け入れモードを終了して、車両本体10の自動運転を再開する。
 なお、本実施の形態では、自動運転車両1が報知を行った後に、見込み客Gの周辺で停車する場合を例示した。しかし、報知のタイミングは、これに限定されるものではない。例えば、自動運転車両1が見込み客Gの周辺で停車した後に、前記報知を行ってもよい。
 また、本実施の形態では、自動運転車両1が、キャンセルジェスチャーの有無を判断した後に、見込み客Gの周辺で停車する場合を例示した。しかし、キャンセルジェスチャーの有無の判断タイミングは、これに限定されるものではない。例えば、自動運転車両1が見込み客Gの周辺で停車した後に、キャンセルジェスチャーの有無を判断してもよい。
 図6は、実施の形態に係る拒否モードの流れを示すフローチャートである。拒否モードとは、車両本体10内にすでに乗客がいるために、見込み客Gの受け入れを拒否するモードである。
 拒否モードのステップS30では、プロセッサ22は、自動運転車両1が現在走行しているレーン(車線)と同一進行方向のレーン数が2以上であるか否かを判定する。具体的には、プロセッサ22は、第一カメラ124で撮像された車両本体10の前方の画像からレーン数を検出する。
 そして、プロセッサ22は、レーン数が2以上であると判定した場合(ステップS30;YES)には、ステップS31に移行する。ステップS31では、プロセッサ22は、ステップS22と同様に第一カメラ124の撮影範囲Rのうち、道路の左側を含む範囲を検出範囲Sとする。
 一方、プロセッサ22は、レーン数が2以上でないと判定した場合(ステップS30;NO)には、ステップS32に移行する。ステップS32では、プロセッサ22は、ステップS23と同様に第一カメラ124の撮影範囲Rのうち、道路の右側及び左側を含む範囲を検出範囲Sとする。
 ステップS33では、プロセッサ22は、検出範囲S内において、停車要求ジェスチャーをしている人を検出したかどうか判定する。そして、プロセッサ22は、停車要求ジェスチャーをしている人を検出した場合(ステップS33;YES)には、ステップS34に移行し、検出していない場合(ステップS33;NO)にはその状態を継続する。
 ステップS34では、プロセッサ22は、通信部141を制御して、見込み客Gが存在している場所に対する配車要求を出力する。具体的には、配車要求は、見込み客Gを検出した時刻と、見込み客Gが存在している場所の位置データとを含んでいる。この配車要求を、ネットワークNを介して配車システム100の情報端末101が受け付けると、情報端末101は、見込み客Gが存在する場所に対する配車指示を、その他の自動運転車両1に対して出力する。このとき、プロセッサ22は、報知部13を制御して、配車要求を出力した旨を示す報知を報知部13に行わせてもよい。これにより、他の自動運転車両1に停車要求ジェスチャーが伝わったことを見込み客Gに示すことができる。
 配車要求の出力後においては、プロセッサ22は、拒否モードを終了して車両本体10の自動運転を再開する。
 [3.効果など]
 本実施の形態に係る自動運転車両1は、車両本体10と、車両本体10が走行している道路周辺に存在する人の、車両本体10を停車させようとするジェスチャー(停車要求ジェスチャー)を検出するジェスチャー検出部(第一カメラ124、メモリ21及びプロセッサ22)と、車両本体10に乗客がいるかどうかを判定する判定部(プロセッサ22及び第二カメラ125)と、車両本体10を自動運転する制御部(自動運転システム20)とを備え、制御部は、判定部によって車両本体10に乗客がいないと判定された場合に、ジェスチャー検出部がジェスチャーをしている人を検出すると、車両本体10を当該人の周辺で停車させる。
 また、本実施の形態に係る自動運転車両1の停車方法は、自動運転車両1の車両本体10に乗客がいないと判定された場合に、車両本体10が走行している道路周辺に存在する人の、車両本体10を停車させようとするジェスチャー(停車要求ジェスチャー)を検出すると、当該人の周辺で車両本体10を停車させる。
 また、本実施の形態に係るプログラムは、自動運転車両1の停車方法をコンピュータに実行させる。
 これによれば、自動運転車両1の車両本体10に乗客がいないと判定された場合に、車両本体10を停車させようとする停車要求ジェスチャーを検出すると、当該停車要求ジェスチャーをした見込み客Gの周辺で車両本体10を停車させるので、車両本体10に乗客がいる場合には、自動運転車両1は停車せずに走行を継続する。つまり、すでに自動運転車両1に乗客が存在しているのに、別の見込み客Gを乗せようと自動運転車両1が停車することを防止することができる。これにより、見込み客Gを効率よく、自動運転車両1に乗車させることができる。
 また、ジェスチャー検出部は、道路の右側及び左側の一方に存在する人の停車要求ジェスチャーを検出してもよい。
 これによれば、ジェスチャー検出部は、道路の右側及び左側の一方を検出範囲Sとすることができるので、検出処理を高速化することができる。例えば、車両の左側通行を採用している国においては、道路の左側に見込み客Gが存在する場合が多い。このため、道路の左側のみをジェスチャー検出部の検出範囲Sとすることで、検出処理を高速化することができる。
 また、自動運転車両1は、道路における同一進行方向のレーン数を検出するレーン検出部(プロセッサ22及び第一カメラ124)を備え、ジェスチャー検出部は、レーン検出部がレーン数を1と検出した場合には、道路の右側及び左側に存在する人の停車要求ジェスチャーを検出し、レーン検出部がレーン数を2以上と検出した場合には、道路の右側及び左側の一方に存在する人の停車要求ジェスチャーを検出してもよい。
 これによれば、ジェスチャー検出部の検出範囲Sをレーン数に応じて調整することができる。
 例えば、同一進行方向のレーン数が1である場合には、道路全体としての幅が比較的狭いともいえる。より具体的には、一方通行の道路や、片側一車線の道路などである。一方通行の道路である場合には、道路の左及び右に存在する見込み客Gを自動運転車両1がその車線で対応することが可能である。また、片側一車線の道路である場合には、自動運転車両1はUターンすることで、反対車線の見込み客Gを対応することが可能である。
 一方、同一進行方向のレーン数が2以上であると、道路全体としての幅が比較的広い。このため、道路の右側及び左側のそれぞれに存在する見込み客Gを自動運転車両1で対応するのは、別の車線に移動する際に他の車両の交通を妨げるおそれもあり、望ましくない。
 上記したようにレーン数に応じてジェスチャー検出部の検出範囲を調整できれば、状況に対して適切な検出範囲とすることが可能である。
 また、制御部は、レーン検出部がレーン数を2以上と検出するとともに、判定部によって車両本体に乗客がいないと判定された場合に、車両本体を2以上のレーンのうち、歩道Wに最も近いレーンL1で走行させてもよい。
 ここで、見込み客Gは大抵の場合、歩道Wに存在している。このため、上記したように、車両本体10に乗客がいないと判定された場合に、2以上のレーンL1、L2のうち、歩道Wに最も近いレーンL1で車両本体10が走行しているので、見込み客Gに近いレーンL1を車両本体10が走行することができる。これにより見込み客Gに対するアクセスを円滑に行うことができる。
 また、ジェスチャー検出部は、前記人(見込み客G)の、車両本体10の停車をキャンセルしようとする第二ジェスチャー(キャンセルジェスチャー)を検出し、制御部は、ジェスチャー検出部が停車要求ジェスチャーをしている人を検出した後に、当該人からのキャンセルジェスチャーを検出した場合には、車両本体10の走行を継続してもよい。
 これによれば、ジェスチャー検出部が見込み客Gを検出した後に、当該見込み客Gからのキャンセルジェスチャーを検出した場合には、車両本体10の走行が継続されるので、見込み客Gのキャンセルの意図を読み取って、車両本体10の走行を継続することができる。
 また、自動運転車両1は、車両本体10の外方に向けて報知を行う報知部13を備え、制御部は、判定部によって車両本体に乗客がいないと判定された場合に、ジェスチャー検出部が見込み客Gを検出すると、当該見込み客Gを検出した旨を示す報知を報知部13に行わせてもよい。
 なお、上記実施の形態では、報知部13が、車両本体10のルーフに取り付けられた電光掲示板、液晶モニタなどである場合を例示した。しかしながら、車両本体10に備えられているハザードランプを報知部として用いることも可能である。この場合、ハザードランプを点滅させることで、見込み客Gに対する報知を行うことが可能である。
 これによれば、見込み客を検出した旨を示す報知が報知部13で行われるので、自動運転車両1に停車要求ジェスチャーが伝わったことを見込み客Gに示すことができる。
 また、自動運転車両1は、他の自動運転車両1を所定の場所に配車する配車システム100に対して通信する通信部141を備え、制御部は、判定部によって車両本体10に乗客がいると判定された場合に、ジェスチャー検出部が停車要求ジェスチャーをしている人を検出すると、当該人の場所に対する配車要求を通信部141から配車システム100に出力させてもよい。
 これによれば、判定部によって車両本体10に乗客がいると判定された場合、つまり、見込み客Gを受け入れられない状態の場合に、ジェスチャー検出部が見込み客Gを検出すると、当該見込み客Gの場所に対する配車要求が通信部141から配車システム100に出力される。これにより、見込み客Gに対しては、配車システム100によって他の自動運転車両1を配車することができる。
 [その他]
 以上のように、本出願において開示する技術の例示として、上記実施の形態を説明した。しかしながら、本実施の形態における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記各実施の形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
 例えば、上記実施の形態では、車両本体10に乗客がいるかどうかを判定する判定部の一部を第二カメラ125が構成している場合を例示した。しかし、車両本体10での乗客の有無を判定できるのであればカメラ以外のセンサを判定部の一部として用いることも可能である。その他のセンサとしては、重量センサ、人感センサなどが挙げられる。重量センサを用いる場合には、当該重量センサをシート11の座面内に配置すればよい。重量センサの検出結果に基づいて、プロセッサ22が乗客の有無を判断することができる。また、人感センサを用いる場合には、車両本体10の車内空間を検出範囲とするように、人感センサを車両本体10に設ければよい。人感センサの検出結果に基づいて、プロセッサ22が乗客の有無を判断することができる。人感センサとしては、例えば温度センサ、超音波センサ、赤外線センサなどが挙げられる。
 また、上記実施の形態では、人のジェスチャーを検出するジェスチャー検出部の一部を第一カメラ124が構成している場合を例示した。これ以外にも、例えばレーダーユニットや、ライダーシステムなどによって人のジェスチャーを検出することも可能である。この場合、レーダーユニットや、ライダーシステムがジェスチャー検出部の一部をなす。
 また、上記実施の形態では、反対車線側の歩道W2に見込み客Gが存在した場合には、車両本体10をUターンさせて、見込み客Gの周辺へ移動させる場合を例示した。しかしながら、道路法規上Uターンが禁止されている箇所もあるので、その場所においては見込み客Gが存在していたとしてもUターンをしないことが望まれる。
 例えば、プロセッサ22は、第一カメラ124で撮像された車両本体10の前方の画像から、Uターン禁止の標識を検出する。つまり、プロセッサ22と第一カメラ124とが、道路におけるUターンの禁止有無を検出するUターン禁止検出部である。そして、プロセッサ22は、道路におけるUターンの禁止を検出した場合には、道路の右側及び左側の一方に存在する人の停車要求ジェスチャーを検出してもよい。
 これによれば、検出範囲SをUターンの禁止有無によって調整することができる。具体的には、Uターンの禁止場所では、自動運転車両1は反対車線に移動できない。つまり、自動運転車両1の反対車線側に見込み客Gがいたとしても、自動運転車両1は対応できないので、その場合においては検出範囲Sを、自動運転車両1が走行しているレーン側のみとすることができる。
 ここで、メモリ21に記憶されている地図データ内の法規情報と、GPSモジュール121とを併用して、道路におけるUターンの禁止有無を検出することも可能である。
 また、上記実施の形態では、キャンセルジェスチャーの有無を自動運転車両1が停車する前に判断している場合を例示した。しかしながら、自動運転車両1が停車後にキャンセルジェスチャーの有無を判断してもよい。この場合、停車後に所定時間経過しても見込み客Gが自動運転車両1に乗車しないこともキャンセルジェスチャーの一つとして判断することも可能である。
 また、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の自動運転車両1などを実現するソフトウェアは、次のようなプログラムである。
 すなわち、このプログラムは、コンピュータに、自動運転車両の車両本体に乗客がいないと判定された場合に、車両本体が走行している道路周辺に存在する人の、車両本体を停車させようとするジェスチャーを検出すると、当該ジェスチャーをした人の周辺で車両本体を停車させる自動運転車両の停車方法を実行させる。
 以上、本発明の一つまたは複数の態様に係る自動運転車両1及び当該自動運転車両1の停車方法について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したもの、または異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。
 本開示は、タクシーとして使用可能な自動運転車両などとして有用である。
1 自動運転車両
10 車両本体
11 シート
12 操作部
13 報知部
20 自動運転システム
21 メモリ
22 プロセッサ
100 配車システム
101 情報端末
110 推進システム
111 駆動源
112 トランスミッション
120 センサシステム
121 GPSモジュール
122 慣性測定ユニット
123 特性ユニット
124 第一カメラ
125 第二カメラ
130 制御システム
131 ステアリングユニット
132 スロットルユニット
133 ブレーキユニット
134 ナビゲーションユニット
135 障害物回避システム
140 周辺機器
141 通信部
G 見込み客
L1,L2,L3,L4 レーン
N ネットワーク
R 撮影範囲
S 検出範囲
W,W1,W2 歩道

Claims (10)

  1.  自動運転車両であって、
     車両本体と、
     前記車両本体が走行している道路周辺に存在する人の、前記車両本体を停車させようとするジェスチャーを検出するジェスチャー検出部と、
     前記車両本体に乗客がいるかどうかを判定する判定部と、
     前記車両本体を自動運転する制御部とを備え、
     前記制御部は、前記判定部によって前記車両本体に乗客がいないと判定された場合に、前記ジェスチャー検出部が前記ジェスチャーをしている人を検出すると、当該人の周辺で前記車両本体を停車させる
     自動運転車両。
  2.  前記ジェスチャー検出部は、前記道路の右側及び左側の一方に存在する前記人の前記ジェスチャーを検出する
     請求項1記載の自動運転車両。
  3.  前記道路における同一進行方向のレーン数を検出するレーン検出部を備え、
     前記ジェスチャー検出部は、
     前記レーン検出部が前記レーン数を1と検出した場合には、前記道路の右側及び左側に存在する前記人の前記ジェスチャーを検出し、
     前記レーン検出部が前記レーン数を2以上と検出した場合には、前記道路の右側及び左側の一方に存在する前記人の前記ジェスチャーを検出する
     請求項1に記載の自動運転車両。
  4.  前記制御部は、前記レーン検出部が前記レーン数を2以上と検出するとともに、前記判定部によって前記車両本体に乗客がいないと判定された場合に、前記車両本体を前記2以上のレーンのうち、歩道に最も近いレーンで走行させる
     請求項3に記載の自動運転車両。
  5.  前記道路におけるUターンの禁止有無を検出するUターン禁止検出部を備え、
     前記ジェスチャー検出部は、
     前記Uターン禁止検出部が前記道路におけるUターンの禁止を検出した場合には、前記道路の右側及び左側の一方に存在する前記人の前記ジェスチャーを検出する
     請求項1に記載の自動運転車両。
  6.  前記ジェスチャー検出部は、前記人の、前記車両本体の停車をキャンセルしようとする第二ジェスチャーを検出し、
     前記制御部は、前記ジェスチャー検出部が前記ジェスチャーをしている人を検出した後に、当該人からの前記第二ジェスチャーを検出した場合には、前記車両本体の走行を継続する
     請求項1~5のいずれか一項に記載の自動運転車両。
  7.  前記車両本体の外方に向けて報知を行う報知部を備え、
     前記制御部は、前記判定部によって前記車両本体に乗客がいないと判定された場合に、前記ジェスチャー検出部が前記ジェスチャーをしている人を検出すると、当該人を検出した旨を示す報知を前記報知部に行わせる
     請求項1~6のいずれか一項に記載の自動運転車両。
  8.  他の自動運転車両を所定の場所に配車する配車システムに対して通信する通信部を備え、
     前記制御部は、前記判定部によって前記車両本体に乗客がいると判定された場合に、前記ジェスチャー検出部が前記ジェスチャーをしている人を検出すると、当該人の場所に対する配車要求を前記通信部から前記配車システムに出力させる
     請求項1~7のいずれか一項に記載の自動運転車両。
  9.  自動運転車両の停車方法であって、
     前記自動運転車両の車両本体に乗客がいないと判定された場合に、前記車両本体が走行している道路周辺に存在する人の、前記車両本体を停車させようとするジェスチャーを検出すると、当該ジェスチャーをした人の周辺で前記車両本体を停車させる
     自動運転車両の停車方法。
  10.  請求項9に記載の自動運転車両の停車方法をコンピュータに実行させる
     プログラム。
PCT/JP2017/044809 2017-04-14 2017-12-14 自動運転車両、自動運転車両の停車方法及びプログラム WO2018189952A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201780051522.6A CN109643494B (zh) 2017-04-14 2017-12-14 自动驾驶车辆、自动驾驶车辆的停车方法以及记录介质
EP17905521.5A EP3611712A4 (en) 2017-04-14 2017-12-14 AUTONOMOUS VEHICLE, METHOD FOR STOPPING AUTONOMOUS VEHICLE AND PROGRAM
AU2017408956A AU2017408956A1 (en) 2017-04-14 2017-12-14 Autonomous vehicle, autonomous vehicle stopping method, and program
CA3037470A CA3037470A1 (en) 2017-04-14 2017-12-14 Autonomous driving vehicle, method of stopping autonomous driving vehicle, and program
US16/299,847 US11067986B2 (en) 2017-04-14 2019-03-12 Autonomous driving vehicle, method of stopping autonomous driving vehicle, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017080590A JP6862257B6 (ja) 2017-04-14 2017-04-14 自動運転車両、自動運転車両の停車方法及びプログラム
JP2017-080590 2017-04-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/299,847 Continuation US11067986B2 (en) 2017-04-14 2019-03-12 Autonomous driving vehicle, method of stopping autonomous driving vehicle, and recording medium

Publications (1)

Publication Number Publication Date
WO2018189952A1 true WO2018189952A1 (ja) 2018-10-18

Family

ID=63792353

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/044809 WO2018189952A1 (ja) 2017-04-14 2017-12-14 自動運転車両、自動運転車両の停車方法及びプログラム

Country Status (7)

Country Link
US (1) US11067986B2 (ja)
EP (1) EP3611712A4 (ja)
JP (1) JP6862257B6 (ja)
CN (1) CN109643494B (ja)
AU (1) AU2017408956A1 (ja)
CA (1) CA3037470A1 (ja)
WO (1) WO2018189952A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10395457B2 (en) * 2017-08-10 2019-08-27 GM Global Technology Operations LLC User recognition system and methods for autonomous vehicles
WO2020157531A1 (ja) * 2019-01-29 2020-08-06 日産自動車株式会社 乗車許可判断装置及び乗車許可判断方法
US11320830B2 (en) 2019-10-28 2022-05-03 Deere & Company Probabilistic decision support for obstacle detection and classification in a working area
WO2022269303A1 (ja) 2021-06-23 2022-12-29 日産自動車株式会社 車両制御装置、車両制御方法、車両制御プログラム、及び、車両制御システム
JP2023034260A (ja) * 2021-08-30 2023-03-13 東芝ライフスタイル株式会社 空気調和装置

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11300963B1 (en) 2017-08-18 2022-04-12 Amazon Technologies, Inc. Robot movement constraint system
US11422565B1 (en) * 2017-08-18 2022-08-23 Amazon Technologies, Inc. System for robot movement that is informed by cultural conventions
JP6617126B2 (ja) * 2017-09-15 2019-12-11 本田技研工業株式会社 走行制御システムおよび車両の制御方法
DE102017220116A1 (de) * 2017-11-13 2019-05-16 Ford Global Technologies, Llc Verfahren und Vorrichtung um einen schnellen Halt eines autonom fahrenden Fahrzeugs zu ermöglichen
US11880800B2 (en) 2018-06-30 2024-01-23 Chian Chiu Li Systems and methods for implementing hailing request and shipping request
US11194399B2 (en) * 2018-06-30 2021-12-07 Chian Chiu Li Systems and methods for implementing hailing request
CN109733403A (zh) * 2018-12-29 2019-05-10 百度在线网络技术(北京)有限公司 自动驾驶车辆停车方法、装置、服务器和计算机可读介质
US11094197B2 (en) * 2019-02-26 2021-08-17 Toyota Research Institute, Inc. System and method for switching from a curbside lane to a lane-of-interest
JP7077255B2 (ja) * 2019-03-14 2022-05-30 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
JP7237684B2 (ja) * 2019-03-27 2023-03-13 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
CN112660148B (zh) * 2019-09-30 2022-09-02 阿波罗智能技术(北京)有限公司 确定车辆的调头路径的方法、装置、设备和介质
US11310269B2 (en) * 2019-10-15 2022-04-19 Baidu Usa Llc Methods to detect spoofing attacks on automated driving systems
CN110750159B (zh) * 2019-10-22 2023-09-08 深圳市商汤科技有限公司 手势控制方法和装置
CN111147825A (zh) * 2020-01-15 2020-05-12 哈工大机器人(岳阳)军民融合研究院 无人驾驶零售车及其招手即停控制方法
US11873000B2 (en) * 2020-02-18 2024-01-16 Toyota Motor North America, Inc. Gesture detection for transport control
JP2022047081A (ja) * 2020-09-11 2022-03-24 トヨタ自動車株式会社 情報処理装置、情報処理システム、及び、情報処理方法
KR102449330B1 (ko) * 2020-11-24 2022-10-05 울산과학기술원 자율 주행 모빌리티 주행 모드 제어 방법 및 장치
CN112477886B (zh) * 2020-12-03 2022-03-01 南京领行科技股份有限公司 无人驾驶车辆的控制方法、装置、电子设备及存储介质
JP7355050B2 (ja) 2021-03-04 2023-10-03 トヨタ自動車株式会社 車両制御装置、車両制御方法およびプログラム
US20220309521A1 (en) * 2021-03-24 2022-09-29 Here Global B.V. Computing a vehicle interest index
US20230081186A1 (en) * 2021-09-14 2023-03-16 Gm Cruise Holdings Llc Autonomous vehicle supervised stops

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014482A (ja) * 2010-07-01 2012-01-19 Panasonic Corp タクシー用判定装置
JP2015191641A (ja) * 2014-03-31 2015-11-02 Necエンベデッドプロダクツ株式会社 監視装置、監視システム、監視方法、及びプログラム
JP2015191264A (ja) * 2014-03-27 2015-11-02 株式会社ニコン 自律走行車両
JP2016115364A (ja) * 2014-04-01 2016-06-23 みこらった株式会社 配車管理システム及び配車管理サーバ

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103182983A (zh) * 2011-12-27 2013-07-03 鸿富锦精密工业(深圳)有限公司 乘客拦车提示系统及方法
JP6150258B2 (ja) 2014-01-15 2017-06-21 みこらった株式会社 自動運転車
EP2982562A1 (en) * 2014-08-08 2016-02-10 Nokia Technologies OY Vehicle control
TWI549069B (zh) * 2014-12-15 2016-09-11 Sheng Hui Meng Method and device for passenger barge
US20160377448A1 (en) * 2015-06-29 2016-12-29 Globalfoundries Inc. Predicting and alerting user to navigation options and predicting user intentions
US10150448B2 (en) * 2015-09-18 2018-12-11 Ford Global Technologies. Llc Autonomous vehicle unauthorized passenger or object detection
WO2017155740A1 (en) * 2016-03-08 2017-09-14 Pcms Holdings, Inc. System and method for automated recognition of a transportation customer
US10762358B2 (en) * 2016-07-20 2020-09-01 Ford Global Technologies, Llc Rear camera lane detection
US10095315B2 (en) * 2016-08-19 2018-10-09 Otis Elevator Company System and method for distant gesture-based control using a network of sensors across the building
DE102016217770A1 (de) * 2016-09-16 2018-03-22 Audi Ag Verfahren zum Betrieb eines Kraftfahrzeugs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014482A (ja) * 2010-07-01 2012-01-19 Panasonic Corp タクシー用判定装置
JP2015191264A (ja) * 2014-03-27 2015-11-02 株式会社ニコン 自律走行車両
JP2015191641A (ja) * 2014-03-31 2015-11-02 Necエンベデッドプロダクツ株式会社 監視装置、監視システム、監視方法、及びプログラム
JP2016115364A (ja) * 2014-04-01 2016-06-23 みこらった株式会社 配車管理システム及び配車管理サーバ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3611712A4 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10395457B2 (en) * 2017-08-10 2019-08-27 GM Global Technology Operations LLC User recognition system and methods for autonomous vehicles
WO2020157531A1 (ja) * 2019-01-29 2020-08-06 日産自動車株式会社 乗車許可判断装置及び乗車許可判断方法
CN113383368A (zh) * 2019-01-29 2021-09-10 日产自动车株式会社 乘车许可判断装置以及乘车许可判断方法
JPWO2020157531A1 (ja) * 2019-01-29 2021-11-25 日産自動車株式会社 乗車許可判断装置及び乗車許可判断方法
JP7095757B2 (ja) 2019-01-29 2022-07-05 日産自動車株式会社 乗車許可判断装置及び乗車許可判断方法
US11320830B2 (en) 2019-10-28 2022-05-03 Deere & Company Probabilistic decision support for obstacle detection and classification in a working area
WO2022269303A1 (ja) 2021-06-23 2022-12-29 日産自動車株式会社 車両制御装置、車両制御方法、車両制御プログラム、及び、車両制御システム
JP2023034260A (ja) * 2021-08-30 2023-03-13 東芝ライフスタイル株式会社 空気調和装置
JP2023096034A (ja) * 2021-08-30 2023-07-06 東芝ライフスタイル株式会社 空気調和装置
JP7348242B2 (ja) 2021-08-30 2023-09-20 東芝ライフスタイル株式会社 空気調和装置

Also Published As

Publication number Publication date
JP6862257B6 (ja) 2021-06-23
EP3611712A1 (en) 2020-02-19
CN109643494B (zh) 2022-08-02
JP2018180987A (ja) 2018-11-15
CA3037470A1 (en) 2018-10-18
US20190212738A1 (en) 2019-07-11
AU2017408956A1 (en) 2019-04-04
US11067986B2 (en) 2021-07-20
JP6862257B2 (ja) 2021-04-21
EP3611712A4 (en) 2020-05-13
CN109643494A (zh) 2019-04-16

Similar Documents

Publication Publication Date Title
WO2018189952A1 (ja) 自動運転車両、自動運転車両の停車方法及びプログラム
AU2021203701B2 (en) Recognizing assigned passengers for autonomous vehicles
US10551207B2 (en) Autonomous vehicle sensor data and map integration
US10497264B2 (en) Methods and systems for providing warnings of obstacle objects
US11685371B2 (en) Extension to safety protocols for autonomous vehicle operation
JP2018081080A (ja) 自律走行車(adv)用の緊急処理システム
CA3073318A1 (en) Estimating time to pick up and drop off passengers for improved stopping analysis in autonomous vehicles
JP2020111223A (ja) 車両制御装置及び車両制御方法
CN109923018A (zh) 车辆控制系统、车辆控制方法及车辆控制程序
CN110733496A (zh) 信息处理装置、信息处理方法以及记录介质
Hasan et al. Intelligent car control for a smart car
JP2020021452A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
CN114207685B (zh) 自主车辆交互系统
US11333523B2 (en) Vehicle control device, output device, and input and output device
JP7236897B2 (ja) 運転支援方法及び運転支援装置
Gupta et al. Guidelines to convert Luxury Cars into Smart Cars

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17905521

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3037470

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2017408956

Country of ref document: AU

Date of ref document: 20171214

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017905521

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017905521

Country of ref document: EP

Effective date: 20191114