WO2023085136A1 - 自動運転車両の運行システム - Google Patents

自動運転車両の運行システム Download PDF

Info

Publication number
WO2023085136A1
WO2023085136A1 PCT/JP2022/040566 JP2022040566W WO2023085136A1 WO 2023085136 A1 WO2023085136 A1 WO 2023085136A1 JP 2022040566 W JP2022040566 W JP 2022040566W WO 2023085136 A1 WO2023085136 A1 WO 2023085136A1
Authority
WO
WIPO (PCT)
Prior art keywords
elevator
unit
control unit
vehicle
information
Prior art date
Application number
PCT/JP2022/040566
Other languages
English (en)
French (fr)
Inventor
恵恒 谷口
Original Assignee
株式会社Zmp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Zmp filed Critical 株式会社Zmp
Priority to KR1020237042803A priority Critical patent/KR20240006670A/ko
Priority to CN202280041377.4A priority patent/CN117501202A/zh
Publication of WO2023085136A1 publication Critical patent/WO2023085136A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/40Control within particular dimensions
    • G05D1/43Control of position or course in two dimensions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B1/00Control systems of elevators in general
    • B66B1/02Control systems without regulation, i.e. without retroactive action
    • B66B1/06Control systems without regulation, i.e. without retroactive action electric
    • B66B1/14Control systems without regulation, i.e. without retroactive action electric with devices, e.g. push-buttons, for indirect control of movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B17/00Hoistway equipment
    • B66B17/14Applications of loading and unloading equipment
    • B66B17/16Applications of loading and unloading equipment for loading and unloading mining-hoist cars or cages
    • B66B17/20Applications of loading and unloading equipment for loading and unloading mining-hoist cars or cages by moving vehicles into, or out of, the cars or cages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B3/00Applications of devices for indicating or signalling operating conditions of elevators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/246Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • the present invention relates to an operation system for an autonomous vehicle that refers to map data and causes the autonomous vehicle to travel along a previously set route to a destination.
  • Patent Document 1 in an autonomous vehicle that travels along a set route, a pair of left and right display units provided on the front of the main body and an autonomous vehicle Equipped with a surveillance camera that captures the front, side, and rear, and by displaying a predetermined eye shape image on the display unit based on the state of the autonomous vehicle and/or the image captured by the surveillance camera, the situation of the obstacle can be visualized.
  • An autonomous driving vehicle, a delivery system, and a program are disclosed in which eye shape images are changed according to the conditions to make the vehicle friendly to stores, delivery destinations, and surrounding people on the way. This autonomous vehicle is expected to be able to communicate with surrounding pedestrians and the like while driving, and to run smoothly.
  • map data including these internal passages and elevators are prepared, and the self-driving vehicle refers to this map data to access the building.
  • an autonomous vehicle operation system that allows the use of internal passageways and elevators. At that time, in order to notify pedestrians in the internal passages and elevator users of the presence and running state of the autonomous vehicle, it has already been put into practical use to similarly output audio from the audio output unit of the autonomous vehicle. ing.
  • an automatic driving vehicle in which a marker is attached to a road surface, a wall surface, or the like, and the vehicle moves along the marker (Patent Document 2).
  • the number of passengers in the elevator car is set. I have to skip the ride.
  • the people already in the elevator car know that they will be boarding the autonomous vehicle at the time of boarding or in advance, they will be able to secure space by packing each other, and the autonomous vehicle will be able to Since it is possible to board the vehicle, it is possible to shorten the time for smooth boarding of the automatically driving vehicle and getting on and off of the automatically driving vehicle.
  • people already in the elevator car if they know in advance the floor to get off of the automated vehicle, they will take into consideration their own floor to get off and move around in the elevator car. Easy entry and exit from the driving vehicle would also be possible.
  • the present invention provides an operation system for an autonomous vehicle that can reliably notify the use of an elevator by an autonomous vehicle with a simple configuration, and allows users in the elevator and waiting in the elevator hall to recognize it in advance. intended to provide
  • the present invention provides an operation server for an autonomous vehicle having a storage unit in which three-dimensional map data relating to buildings including roads, surrounding environments, and elevators is registered, and an autonomous vehicle connected to the operation server via a wireless network. and, based on the map data received from the operation server, the automated driving vehicle operates automatically along a predetermined driving route from the current location to the destination, wherein the automated driving vehicle is equipped with a driving unit, a driving unit, a control unit, a detection unit consisting of an imaging unit, an attitude detection sensor, and a position sensor, and a transmission/reception unit connected to a wireless network, and the control unit of the automatic driving vehicle is equipped with a detection unit Based on the detection signal, the current position and the surrounding environment are recognized, map data of the area related to movement from the current position to the destination is received from the operation server, and a travel route from the current position to the destination is created.
  • the control unit configured to drive the traveling part by controlling the driving part based on the traveling route;
  • the control unit provides elevator usage information including the boarding floor and alighting floor of the elevator, and the call and alighting of the elevator car at the boarding floor.
  • Elevator control information including floor designation is created, the building's elevators are connected to the operation server via a wireless network, and the elevation of the elevator car is controlled based on the elevator usage information and elevator control information from the self-driving vehicle.
  • the control unit of the automated driving vehicle transmits elevator usage information and elevator control information to the elevator control unit via a wireless network, and the elevator control unit operates the elevator car based on the elevator usage information It is characterized by outputting an announcement regarding the use of the elevator of the automatically driven vehicle by voice from a voice output unit provided therein.
  • the autonomous vehicle includes an audio output unit, and the control unit outputs an announcement for notifying the travel of the autonomous vehicle from the audio output unit of the autonomous vehicle according to movement along the travel route.
  • an announcement regarding the use of the elevator is output as voice from the voice output unit of the automatically driven vehicle.
  • the operation server preferably remotely monitors and/or remotely controls the operation of the autonomous vehicle based on the mutual positions of the autonomous vehicles or between the autonomous vehicles and the surrounding environment, etc., based on the current positions and travel routes of the autonomous vehicles.
  • the elevator controller is controlled by the operation server.
  • the building preferably includes a management server that controls the entire building, and the management server is controlled by the operation server to control the elevator control unit based on the elevator usage information and the elevator control information.
  • the elevator control unit controls the automatic driving vehicle boarding from the boarding floor to the alighting floor from the voice output unit provided in the elevator car from before getting on the elevator of the automatically driving vehicle to getting off the elevator based on the elevator usage information.
  • An announcement to that effect is output by voice.
  • the elevator control unit preferably includes an audio output unit in each elevator hall of each floor of the elevator, and the automatic driving vehicle is output from the audio output unit of the elevator hall provided in the boarding floor or the deboarding floor based on the elevator usage information.
  • An announcement regarding the use of the elevator for boarding is output by voice.
  • the elevator car includes a display, and the elevator control unit displays images related to elevator usage of the self-driving vehicle based on the elevator usage information.
  • An elevator analysis sensor is installed in the elevator car, and the occupant information of the elevator car acquired by the elevator analysis sensor is sent to the control unit of the autonomous vehicle via the elevator control unit and operation server, and elevator usage information and Elevator control information may be created.
  • the elevator analysis sensor includes a camera or lidar that can measure the length, a computer that processes the image signal acquired by the camera or lidar, and a storage device, and collects occupant information about the passengers in the elevator car based on the image signal. can be configured to be output to the elevator control unit and the operation server.
  • the operation server preferably has an analysis unit that analyzes elevator usage statistical information sent from the elevator control unit, and prepares a travel route for the autonomous vehicle based on home probability information obtained by analyzing the elevator usage statistical information. and a travel route creation unit.
  • the elevator car is provided with an elevator analysis sensor, and the analysis unit creates a travel route for the autonomous vehicle based on the elevator usage statistical information sent from the elevator control unit and/or the passenger information output from the elevator analysis sensor.
  • the operation server preferably includes a control unit that controls a plurality of automatically-operated vehicles, a cooperation unit that communicates and connects the plurality of automatically-operated vehicles and a plurality of elevators, an analysis unit, and a driving unit that manages the travel of the plurality of automatically-operated vehicles.
  • automated driving vehicles In addition to passenger vehicles that transport users such as the elderly, injured and sick, and physically handicapped, automated driving vehicles are various work vehicles that perform cleaning, disinfection, monitoring, etc. It may be a delivery vehicle that delivers various items such as parcels, and can be applied regardless of the application as long as it has a size that allows an elevator ride.
  • FIG. 1 is a block diagram showing the configuration of a first embodiment of an operation system for an automatically driving vehicle according to the present invention
  • FIG. FIG. 2 shows an external configuration of an example of the automatic driving vehicle of FIG. 1, where (A) is a front perspective view and (B) is a rear perspective view.
  • 3 is a block diagram showing the internal configuration of the automatic driving vehicle of FIG. 2
  • FIG. FIG. 2 is a schematic diagram showing the configuration of an elevator hall
  • FIG. 2 is a flow chart showing a procedure of automatic driving in the operation system of the automatic driving vehicle of FIG. 1
  • FIG. FIG. 2 is a flow chart showing the operation of the automatically driven vehicle of FIG. 1 when using an elevator;
  • FIG. 2 is a block diagram showing the configuration of an operation system for an automatically driven vehicle according to a second embodiment
  • FIG. 11 is a block diagram showing the configuration of an operating system for an automatically driven vehicle according to a third embodiment
  • FIG. It is a figure which shows an example of the display screen of an operation server in the case of performing the data analysis of an automatic driving vehicle.
  • FIG. 4 is a diagram showing an example of monitoring in a remote monitoring unit and/or a remote control unit;
  • the self-driving vehicle is described as a one-box type self-delivery vehicle that transports ordered food and drink and purchased goods, but the shape and structure of the vehicle may vary as long as it can enter and exit buildings and elevators. , but not limited to these vehicles.
  • the self-driving vehicle in addition to goods delivery vehicles, it can be an automatic passenger vehicle that transports users such as the elderly, sick and disabled, or for various automatic tasks such as cleaning, disinfection, and monitoring. It can also be applied to vehicles.
  • FIG. 1 shows the overall configuration of a first embodiment of an operation system for an automatic driving vehicle (hereinafter referred to as an operation system) according to the present invention.
  • the operation system 10 includes an automatic driving vehicle 20, a server 30, a building 40, and a wireless network 50.
  • the wireless network 50 is a wireless network of any configuration, and may be a dedicated line network, a public line network, or a wireless LAN such as Wi-Fi.
  • the self-driving vehicle 20 can be composed of a main body 21 formed in a substantially cubic shape in appearance, and wheels 22 as running parts suspended from the main body 21.
  • the main body portion 21 of the automatic driving vehicle 20 includes a display portion 23, a surveillance camera 24, a speaker 25 as a first audio output portion, a luggage storage portion 26, a light 27, a direction indicator 28, As the lights 27, front lights 27a and 27b are arranged in front of the automatic driving vehicle 20, and backlights 27c and 27d are arranged behind them.
  • an automatically operated vehicle for delivering various goods such as food and drink and merchandise having a luggage storage section 26 is shown, but the automatically operated vehicle 20 is a vehicle for various tasks such as cleaning, disinfection, and monitoring.
  • the automatic driving vehicle 20 has various functions such as polisher, cleaner, disinfectant sprayer, and alarm.
  • the automatic driving vehicle 20 is a cart type equipped with a seat for one person, it can be used as an automatic passenger vehicle to transport users such as the elderly, the sick and disabled, and the physically handicapped.
  • the automatic driving vehicle 20 will be described as a product delivery vehicle that travels along a travel route that includes a sidewalk, a corridor inside the building 40, an elevator (to be described later), and the like.
  • the direction indicators 28 are arranged in the shape of ears on the upper left and right sides of the front side of the automatic driving vehicle 20 as a position where people around the automatic driving vehicle 20 can see the direction to turn from the front, side and back. It consists of a lamp or the like with a diode (LED).
  • the display unit 23 as a first image output unit is provided on the front side of the main body 21 and displays an eye shape image, which will be described later.
  • the display unit 23 includes a display 63 to be described later and a pair of left and right openings 23 a and 23 b provided on the front side of the main body 21 .
  • the display 63 is preferably a liquid crystal or light emitting diode display, and more preferably a full color light emitting diode display in which high luminance light emitting diodes are arranged at high density.
  • a speaker 25 is provided below the display unit 23 .
  • the surveillance camera 24 is a camera that acquires images around the automatically driven vehicle 20, that is, a camera that shoots and monitors the road conditions, pedestrians, etc. in front of, to the sides of, and behind the automatically driven vehicle 20.
  • the monitoring camera 24 includes a pair of left and right front monitoring cameras 24a and 24b provided on the front side of the main body 21 and a pair of left and right side monitoring cameras 24c and 24d provided on the side of the main body 21.
  • There is A monocular camera, a wide-area camera, a stereo camera, or the like can be used as the monitoring camera 24 .
  • the monitoring camera 24 may include a pair of left and right rear monitoring cameras 24e and 24f behind the main body 21, as shown in FIG.
  • a storage section 26 is provided on the rear side of the main body section 21 to load packages to be delivered.
  • FIG. 3 shows the configuration of the control system of the automated driving vehicle 20.
  • the automated driving vehicle 20 includes a CPU 61 as a control unit 29, and the CPU 61 includes a speaker 25 as a first audio output unit, a battery 62, a display 63, a storage unit 64, a drive unit 65, and a detection unit. 66 and are connected.
  • the detection unit 66 includes a monitoring camera 24 as an imaging unit, an attitude detection sensor 66a such as an IMU that is a sensor for controlling the running state of the autonomous vehicle 20, a monitoring sensor 66b, a distance sensor 66c, and a position sensor.
  • the CPU 61 and the storage unit 64 control each unit of the device mounted on the automatic driving vehicle 20 .
  • the CPU 61 can be composed of a microprocessor, a microcontroller, or the like.
  • the storage unit 64 is composed of a non-volatile memory such as a DRAM, hard disk drive (HDD), flash memory, or the like.
  • a well-known method may be used for the connection between the CPU 61 and each part of the apparatus, for example, CAN (Controller Area Network) may be used.
  • a program that causes the automatic driving vehicle 20 to function is recorded and stored in a computer-readable storage medium that includes the CPU 61 that executes the program, the storage unit 64, and the like.
  • a CD-ROM, a DVD-ROM, a USB memory, or the like can be used as the storage medium.
  • the program may be downloaded from the server 30 via the wireless network 50 to the storage unit 64 of the computer.
  • the battery 62 is the power source of the autonomous vehicle 20 .
  • the battery 62 is connected to the CPU 61 and the remaining amount of the battery 62 and other information are monitored by the CPU 61 .
  • the display 63 is a device that constitutes the display unit 23.
  • a predetermined eye shape image is displayed on the display unit 23 based on the state of the automatic driving vehicle 20 and/or the image captured by the monitoring camera 24 .
  • the state of the automatic driving vehicle 20 includes each traveling operation state such as going straight, turning left, turning right, and stopping on the traveling road, image information of the automatic driving vehicle 20 by the monitoring camera 24 and detection information of the detection unit 66, indicates
  • the information detected by the detection unit 66 is information from the attitude detection sensor 66a, the monitoring sensor 66b, the distance sensor 66c, the position sensor 66d, the bumper sensor 66e, and the like.
  • the image information from the monitoring camera 24 and the detection information from the detection unit 66 regarding the state of the automatic driving vehicle 20 are transmitted to the server 30 described later by the state transmission/reception unit 66f as necessary.
  • a light emission command from the CPU 61 based on the detection signal from the monitoring camera 24 causes the display 63 to display an image according to a predetermined eye shape pattern.
  • a predetermined output linked with the display of the image from the speaker 25 may be performed.
  • the light 27 and the direction indicator 28 are displayed according to the running state and the stop state of the automatically driven vehicle 20 .
  • the light 27 and direction indicator 28 are displayed by a light-emitting driver (not shown) upon receiving a light-emitting command from the CPU 61 .
  • the drive unit 65 is composed of a motor 65a and a driver 65b that drives and controls the motor 65a, and the motor 65a drives the wheels 22 described above.
  • the driver L65b1 and the driver R65b2 respectively control the motors 65a1 and 65a2 according to control signals from the CPU 61 to drive the left rear wheel 22c and the right rear wheel 22d.
  • the speaker 25 is installed on the front surface of the main body 21 of the automatic driving vehicle 20 as described above, and outputs a predetermined sound.
  • the attitude detection sensor 66a is, for example, an inertial measurement unit, and in this embodiment, measures the angular velocity and angular acceleration of the automatic driving vehicle 20 about the roll axis, pitch axis, and yaw axis. It is an inertial measurement device that The monitoring sensor 66b detects pedestrians, bicycles, motorbikes, cars, and obstacles around the autonomous vehicle 20, particularly in front, and measures the distance to people and obstacles, that is, measures the distance to people and obstacles. It is a sensor used for dimensional and three-dimensional image recognition, shape and color recognition, and tracking of the travel route of the autonomous vehicle 20 .
  • the monitoring sensor 66b When the monitoring sensor 66b detects a person or an obstacle, it acquires positional information about the positional coordinates, the eye level of the person, and the like. The display 63 may be controlled based on this positional information.
  • the monitoring sensor 66b can be configured by a module, lidar, or the like that acquires position information using a monocular camera or a stereo camera.
  • the module can be composed of a CPU or GPU (image processing processor) that processes image data acquired from a monocular camera or a stereo camera to obtain position information, a storage device, and the like.
  • a module using a monocular camera can recognize shapes, colors and patterns of people and obstacles, and can measure approximate distances.
  • a module using a stereo camera is used for ranging, three-dimensional recognition of people, vehicles, obstacles, etc., and for identifying shapes and colors.
  • Lidar Laser Imaging Detection and Ranging
  • the lidar may be a two-dimensional lidar or a three-dimensional lidar.
  • the three-dimensional lidar can detect a laser image in front of the automatic driving vehicle 20, measure the distance to the detected object, measure the shape of the detected object, and the like.
  • an object in front of the automatic driving vehicle 20 and its distance are detected, and data on the distance between the laser image in front and the detected object is sent to the CPU 61 as a detection signal.
  • the monitoring sensor 66b may be arranged in the front upper part of the automatically driven vehicle 20.
  • the monitoring sensor 66b can detect a pedestrian, a bicycle, a motorbike, a car, etc. in front of the automatic driving vehicle 20 by image detection and distance measurement from a long distance.
  • the distance sensor 66c is a sensor that measures the distance between the automatic driving vehicle 20 and an obstacle or the like. By emitting and detecting the reflected wave, the distance to the obstacle is measured.
  • a position sensor 66 d captures the current position of the self-driving vehicle 20 .
  • a GNSS receiving unit is used.
  • the position sensor 66d and the attitude detection sensor 66a can be arbitrarily selected to use separate devices or to use a device in which the GNSS reception function, the gyro sensor function, and the acceleration sensor function are integrated into one package.
  • the bumper sensor 66e can detect contact with surrounding pedestrians, bicycles, motorcycles, etc., and can stop the automatic driving of the automatic driving vehicle 20 or bring it to an emergency stop.
  • the status transmitting/receiving unit 66f is composed of a communication module such as a third generation (referred to as 3G), a fourth generation (referred to as 4G) and a fifth generation (referred to as 5G), or a wireless LAN capable of public communication. .
  • the operation server 30 remotely controls the operation of the automatically driven vehicle 20 based on the current position of the automatically driven vehicle 20 and the mutual position between the automatically driven vehicle 20 or between the automatically driven vehicle 20 and the surrounding environment from the travel route 61c. It can be monitored and/or remotely operated and the elevator control 44 may be controlled by this service server.
  • the autonomous vehicle 20 is remotely monitored and/or remotely controlled by the operation server 30, and when the autonomous vehicle 20 approaches the elevator 41 of the building 40, the operation server 30 controls the elevator of the building 40. By controlling the part 44 , the autonomous vehicle 20 can smoothly use the elevator 41 of the building 40 .
  • the CPU 61 can drive and control the drive unit 65 to automatically travel along the travel route.
  • the map data 31 for creating the travel route is registered in the operation server 30, and the CPU 61 transmits the current position information 61a of the automatic driving vehicle 20 and the input destination information 61b to the operation server 30, and the operation server Based on the map data 31 sent from 30, the travel route 61c can be created.
  • the CPU 61 creates elevator usage information 61 d and elevator control information 61 e and transmits them to the operation server 30 via the wireless network 50 .
  • Elevator use information 61d is information including boarding floor and alighting floor regarding elevator 41 of building 40
  • elevator control information 61e is information including designation of elevator car 43 call and alighting floor after boarding.
  • the CPU 61 transmits the current position and running state at that time to the operation server 30 via the wireless network 50 . Thereby, the operation server 30 recognizes the current position and driving state of the automatic driving vehicle 20 and manages the operation.
  • the automatic driving vehicle 20 is an electric vehicle that uses the battery 62 as a power source and runs by driving the wheels 22 with the motors 65 a of the drive unit 65 .
  • the automatic driving vehicle 20 displays a predetermined eye shape image on the display unit 23 based on the driving state and the image captured by the monitoring camera 24 and/or the monitoring sensor 66b.
  • the automatic driving vehicle 20 is provided with a speaker 25 as a first audio output unit on the front surface of the main body 21, and a predetermined sound based on the driving state of the automatic driving vehicle 20 and/or the image captured by the surveillance camera 24 is output to the speaker 25.
  • the operation server 30 is installed at an appropriate location, and reads and writes the map data 31 from and to the storage unit 32 for registering the map data 31 necessary for creating the travel route of the automatic driving vehicle 20, and performs automatic operation. It is composed of a control unit 33 for operating the vehicle 20 and a remote monitoring unit and/or a remote control unit (not shown).
  • the map data 31 is a three-dimensional data including data on roads and surrounding environment necessary for the travel of the autonomous vehicle 20, such as road boundaries, traffic signal positions, etc., regarding areas in which the autonomous vehicle 20 can travel. It holds data about the route of each floor around the building and inside the building.
  • the map data 31 is registered as a database in the storage unit 32, and the map data 31 including the vicinity of the position information can be read based on the position information. Furthermore, in the case of a building 40 with an elevator 41 , the map data 31 includes location information of the elevator 41 that can be used for movement to other floors within the building 40 .
  • the control unit 33 of the operation server 30 stores the map data 31 of the area corresponding to the travel route 61c from the current position to the destination based on the current position information 61a and the destination information 61b sent from the automatic driving vehicle 20. 32 and transmitted to the autonomous vehicle 20 via the wireless network 50 . Furthermore, the control unit 33 of the operation server 30 transmits the elevator usage information 61 d sent from the automatically driven vehicle 20 to the management server 45 of the building 40 via the wireless network 50 .
  • the building 40 consists of multiple floors and is equipped with an elevator 41 to enable easy movement between floors.
  • the elevator 41 is vertically movably supported in a movement path 42 vertically penetrating the building 40, and an elevator car 43 that moves vertically by a drive unit (not shown), and the elevator car 43 is vertically driven and controlled. and an elevator control unit 44 .
  • the elevator control unit 44 is connected via a gateway 45a to a management server 45 that manages the entire building 40, and the management server 45 is further connected to an operation server via a wireless network 50 from a gateway 45b. 30.
  • the automatic operation vehicle 20 the operation server 30, and the management server 45 are interconnected with the building 40 and the elevator 41, and the elevator 41 in the building 40 and the security gate (not shown) are connected to each other. and the like can be controlled via the wireless network 50 by the control unit 33 of the operation server 30 .
  • a speaker 43a as a second audio output unit is arranged in the elevator car 43, and a speaker 41a as a third audio output unit is arranged in each elevator hall on each floor of the building 40.
  • a display 43b may be arranged as a second video output unit.
  • a camera 43c for monitoring the boarding state in the elevator car 43 may be arranged above or on the ceiling inside the elevator car 43. As shown in FIG.
  • the video signal acquired by the camera 43c is sent from the elevator control unit 44 to the management server 45 via the gateway 45a to the management server 45, and further from the management server 45 to the gateway 45b and the wireless network 50. It is sent to the operation server 30 via.
  • the elevator 41 is a so-called robot management platform that allows equipment such as the elevator 41 to operate in cooperation with the robot so that the unmanned automatic driving robot can easily move for delivery, security, and cleaning. It can also be applied to an elevator installed in a building or the like that employs As a result, the elevator control unit 44, based on the current position 61a of the automatically driven vehicle 20 sent from the automatically driven vehicle 20 via the wireless network 50 via the operation server 30 and the management server 45, determines whether the automatically driven vehicle 20 is The elevator 41 can be used by transmitting an elevator calling operation signal when approaching an elevator hall and transmitting an input signal of a destination floor when getting into an elevator car 43. - ⁇
  • the control unit 61 of the automatically driving vehicle 20 outputs the elevator usage information 61d and the elevator control information 61e is transmitted to elevator control 44 of building 40 via wireless network 50 .
  • the second audio output unit 43 a in the elevator car 43 outputs an announcement regarding the use of the elevator 41 by the automatically driven vehicle 20 .
  • the video regarding the use of the elevator 41 of the automatically driven vehicle 20 is displayed. may be output.
  • the person riding in the elevator car 43 can hear the announcement provided in the elevator car 43.
  • the use of the elevator 41 of the automatically driven vehicle 20 can be reliably recognized.
  • the elevator of the automatically driving vehicle 20 41 use can be reliably recognized.
  • FIG. 4 is a schematic diagram showing the configuration of the elevator hall 46.
  • the elevator hall 46 there are an elevator door 46a, a display section 46b indicating the movement of the elevator, a push button 46c indicating up and down of the desired destination, a speaker (third audio output section) 41a, and a third video output section.
  • a display 46e is provided.
  • the video output and audio output of the speaker 41a and the display 46e are controlled by the operation server 30 and/or the elevator control unit 44 based on the elevator usage information 61d. Audio output by the speaker 41a can be performed in the same manner as in the flowchart shown in FIG. 6, which will be described later.
  • the display 46e displays images related to getting in and out of the automatically driven vehicle 20.
  • FIG. This image can be a still image of the automatically driven vehicle 20, an animated image, or the automatically driven vehicle 20 captured by a camera installed in the elevator car 43, or the like.
  • the installation location of the speaker 41 a and the display 46 e is not limited to the elevator hall 46 , and may be in the vicinity of the elevator hall 46 such as a location near the elevator hall 46 other than the elevator car 43 .
  • the elevator control unit 44 or the management server 45 integrates the number of users inside the elevator car 43 from the video signal acquired by the camera 43c.
  • Various image recognition methods can be used for accumulating the number of users.
  • the ratio of the number of users to the passenger capacity of the elevator car 43, that is, the boarding rate may be calculated.
  • the occupant information 43 e of the elevator car 43 including the number of users, boarding rate, etc. acquired by the elevator control unit 44 or management server 45 may be sent to the control unit 33 of the operation server 30 .
  • a stereo camera capable of length measurement, a TOF camera (Time of Flight Camera), LiDAR, or the like may be used as the camera 43c.
  • an integrated sensor that integrates the number of users in the elevator car 43 and the luggage of the users from the video signal acquired by the camera 43c may be used. As described above, this sensor acquires analytical data on the number of users in the elevator car 43 and the occupancy rate based on the images of the camera 43c, TOF camera, LiDAR, etc., and/or information such as distance. We call it the Elevator Analysis Sensor.
  • the elevator analysis sensor may be configured as a sensor modularized by, for example, an image sensor that serves as a stereo camera or an image sensor for TOF, a computer, a storage device, a communication board, and the like. Elevator analytics sensors are installed in the ceiling within the elevator car 43 . Passenger information 43e, which is analysis data such as the number of people in the elevator and the number of automatically driven vehicles 20 from the elevator analysis sensor, is sent to the control unit of the operation server 30 via the elevator control unit 44 or the management server 45 and the wireless network 50. 33.
  • the occupant information 43e obtained by the elevator analysis sensor is analysis data regarding the number of users in the elevator car 43 and the number of automatically driven vehicles 20, and does not include video data, so there is no leakage of privacy.
  • the occupant information 43e is sent from the control unit 33 to the CPU 61 of the automatically driven vehicle 20 via the wireless network 50.
  • the CPU 61 refers to the occupant information 43e and creates usage information 61d and elevator control information 61e so as to use an available elevator. , to the operation server 30 via the wireless network 50 .
  • the automatically-operated vehicle 20 determines the space in which the automatically-operated vehicle can board. ) can be moved to the elevator 41 and boarded.
  • the automated driving vehicle 20 refers to the occupant information 43e in advance, detects an elevator full of users and an elevator full of users and other automated driving vehicles, and easily selects an empty elevator. be able to.
  • step A2 the CPU 61 of the automatically driven vehicle 20 detects the current position of the automatically driven vehicle 20 based on the detection signal from the position sensor 66d, and acquires the current position information 61a.
  • the CPU 61 transmits the current position information 61a and the destination information 61b to the operation server 30 via the wireless network 50 in step A3.
  • step A4 the control unit 33 of the operation server 30 determines the travel route from the current position according to the current position information 61a to the destination according to the destination information 61b based on the current position information 61a and the destination information 61b.
  • the CPU 61 creates a travel route 61c from the current position to the destination from the current position information 61a, the destination information 61b, and the map data 31, and transmits the travel route 61c to the operation server 30 via the wireless network 50. Send.
  • the CPU 61 drives and controls the drive unit 65 based on the travel route 61c to automatically drive the automatically driven vehicle 20 along the travel route 61c.
  • the CPU 61 of the automatic driving vehicle 20 appropriately outputs sound from the speaker 25 to notify the surroundings of the existence and driving of the automatic driving vehicle 20 .
  • the CPU 61 detects pedestrians, bicycles, motorbikes, etc.
  • the CPU 61 changes the travel route 61c to avoid these objects, and controls the drive unit 65 to stop or make an emergency stop in step A9. .
  • the operation server 30 monitors the automatic driving of the automatically driving vehicle 20 based on the traveling route 61c received from the automatically driving vehicle 20 before the start of automatic driving and the current position information 61a sequentially sent from the automatically driving vehicle 20. , and when the automatically driven vehicle 20 largely deviates from the travel route 61c, the automatically driven vehicle 20 may be stopped or emergency stopped.
  • the CPU 61 drives and controls the driving unit 65 at step A11 to stop the automatic driving, and the automatic driving ends.
  • the CPU 61 After creating the travel route 61c in step A6 described above, the CPU 61 creates elevator use information 61d and elevator control information 61e in step B1, and creates the elevator use information 61d and elevator control information 61e in step B2. It transmits to the operation server 30 via the wireless network 50 .
  • step B3 when the automatically driven vehicle 20 approaches the vicinity of the elevator hall of the boarding floor of the elevator 41 of the building 40, in step B4, the operation server 30 detects the current position information 61a from the automatically driven vehicle 20 and automatically drives the vehicle.
  • the elevator approach of the vehicle 20 is detected, and the elevator use information 61d and the elevator control information 61e are transmitted from the management server 45 to the elevator control unit 44 via the wireless network 50 in step B5.
  • the elevator control unit 44 calls the elevator 41 at the boarding floor in step B6 based on the elevator control information 61e out of the elevator use information 61d and the elevator control information 61e.
  • the speaker 43a in the elevator car 43 as a second voice output unit outputs "Automatically driven vehicle will board from floor ⁇ to floor ⁇ . Please cooperate with boarding. ' is output as a voice, and an announcement guidance is given to the person riding in the elevator car 43 to the effect that the automatically driven vehicle 20 will be boarded.
  • the display 43b in the elevator car 43 outputs the audio and video in step B7. , "An automated vehicle will board from the ⁇ floor to the ⁇ floor. Please cooperate with boarding.”
  • step B8 the elevator control unit 44 uses the speaker 41a provided in the elevator hall of the boarding floor as a third voice output unit to output "Automatically driven vehicle will board from floor ⁇ to floor ⁇ . Thank you for your cooperation in boarding.”, and guides the person near the elevator hall of the boarding floor to the effect of boarding the automatic driving vehicle 20.
  • the display 46e of the elevator hall 46 based on the elevator usage information 61d outputs the above audio and the same Text may be displayed as an image.
  • the elevator control unit 44 When the elevator car 43 reaches the boarding floor and the door is opened in step B9, the elevator control unit 44 outputs the message "We are on floor XX. Thank you for your cooperation in boarding.” is output by voice, and guidance is given to the person riding in the elevator car 43 to board the automatically-operated vehicle 20 .
  • the second video output unit 43b is provided in the elevator car 43, in step B10', based on the elevator usage information 61d, the display 43b in the elevator car 43 outputs the audio in step B10 as well as video. may be displayed.
  • step B11 the elevator control unit 44 outputs a voice saying "Automatically driven vehicle will be boarding from now on. Please cooperate with boarding.” By outputting the information, a person in the vicinity of the elevator hall of the boarding floor is guided to board the automatically driven vehicle 20. - ⁇ If the elevator hall 46 is equipped with the third video output unit 46e, the display 46e in the elevator hall 46 outputs the above audio and the same text as a video based on the elevator usage information 61d in step B11'. may be displayed.
  • the elevator control unit 44 controls the exit in the elevator car 43 based on the elevator control information 61e in step B13.
  • the speaker 43a in the elevator car 43 says, "The automatically-operated vehicle has boarded on the ⁇ floor. This automatically-operated vehicle will get off at the ⁇ floor.” Thank you for your cooperation.”, and guides the person riding in the elevator car 43 to the effect that the automatic driving vehicle 20 is getting off. If the elevator car 43 is provided with the second video output unit 43b, then in step B14', a similar text is displayed on the display 43b in the elevator car 43 based on the elevator usage information 61d.
  • step B15 when the elevator car 43 starts ascending and descending from the boarding floor, in step B16, the elevator control unit 44 determines, based on the elevator usage information 61d, the elevator hall of the floor where the automatic driving vehicle 20 gets off.
  • the speaker 41a outputs a voice saying "The automatically driven vehicle is about to get off. Please cooperate with getting off the vehicle.”
  • the display 46e of the elevator hall 46 similarly outputs the audio and video based on the elevator usage information 61d in step B16'. do.
  • step B17 when the elevator car 43 arrives at the floor to get off and the door is opened, in step B18, the elevator control unit 44 outputs the message "Floor ⁇ . Thank you for your cooperation in getting off the car.” If the elevator car 43 is equipped with the second video output unit 43b, the display 43b in the elevator car 43 similarly displays the audio output in step B12 and video in step B18'.
  • step B19 the elevator control unit 44 outputs the message "Automatically driven vehicle is about to get off. Please help us to get off.” A person near the elevator hall of the getting-off floor is informed that the automatic driving vehicle 20 is getting off by outputting voice. If the elevator hall 46 is equipped with the third video output unit 46e, the display 46e in the elevator hall 46 displays the above audio output and the same video in step B18'. As a result, the automatically driven vehicle 20 gets off the elevator car 43 in step B20. In this way, the use of the elevator 41 provided in the building 40 for the automatic driving vehicle 20 is completed.
  • the autonomous vehicle 20 when using the elevator 41, the autonomous vehicle 20 does not output audio from the speaker 25, but the speaker 43a as the second audio output unit and the speaker 41a as the third audio output unit , voice guidance regarding the use of elevators by the automatic driving vehicle 20 may be provided as appropriate. Furthermore, based on the elevator usage information 61d, the elevator control unit 44 outputs from the second audio output unit 43a from the second voice output unit 43a to the elevator usage information 61d from the boarding floor to the alighting floor. An announcement to that effect may be output by voice.
  • the elevator control unit 44 is provided with a third audio output unit 41a in each elevator hall of each floor of the elevator 41, and the elevator control unit 44 is provided at the boarding floor or the alighting floor based on the elevator usage information 61d.
  • the third audio output unit 41a may output the announcement regarding the use of the elevator by the automatically driven vehicle 20 as audio.
  • a person in the elevator hall to use the elevator 41 listens to the announcement regarding the use of the elevator of the automatic driving vehicle 20 from the third audio output unit 41a, so that the person can board the automatic driving vehicle 20. At times, it is possible to perform actions such as yielding to each other for the sake of the automatic driving vehicle 20 or avoiding the automatic driving vehicle 20 when the automatic driving vehicle 20 gets off.
  • FIG. 7 is a block diagram showing the configuration of a second embodiment of an operating system for an automatic driving vehicle according to the present invention.
  • the operation system 10A for the automatically driven vehicle shown in FIG. 7 differs from the operation system 10 for the automatically driven vehicle shown in FIG.
  • the elevator usage statistical information 61f is sent from the elevator control unit 44 to the server or operation server 30A via the gateway 45a and the management server 45.
  • the elevator control unit 44 acquires information on movement by elevator from each floor of a residential building to the first floor, if the number of times is analyzed for each floor, the number of times the elevator was used up to the first floor in the morning is calculated for each floor. Since the number of houses on each floor is known in advance, the degree of residence of the residents, that is, the probability of being at home can be obtained statistically.
  • the at-home probability information 61g analyzed by the analysis unit 34 is sent to the travel route creation unit 35 for the automatic driving vehicle 20 of the operation server 30A.
  • the travel route creation unit 35 automatically operates the vehicle so as to deliver in order from the delivery destination with the highest probability of being at home in order to efficiently deliver the automatically driven vehicle 20.
  • the travel route data 61h for travel of the vehicle 20 is created and sent from the operation server 30A to the automatic driving vehicle 20 via the wireless network 50.
  • FIG. According to the operation system 10A of the automatic driving vehicle of the present invention, it is possible to remarkably reduce man-hours and costs for redelivery due to absence by delivering at times and days of the week when the probability of being at home is high.
  • the elevator analysis sensor may be installed on the ceiling inside the car 43 of the elevator 41 .
  • the occupant information 43e obtained by the elevator analysis sensor is analysis data related to the number of occupants in the elevator car 43 and the number of the automatically driven vehicles 20, and by using it together with detection of movement by the elevator, the occupant information 43e can be obtained more reliably. There is no leakage of privacy because the video data of the user is not included.
  • the analysis unit 34 may analyze the above-described elevator usage statistical information 61f in addition to the passenger information 43e obtained by the elevator analysis sensor.
  • the analysis unit 34 can create a travel route for the autonomous vehicle 20 based on the elevator usage statistical information sent from the elevator control unit 44 and/or the occupant information 43e from the elevator analysis sensor.
  • the building 40 has one elevator 41 , but even in a building 40 having multiple elevators 41 , the elevator 41 can be used by the autonomous vehicle 20 . can. In this case, which elevator 41 the automatic driving vehicle 20 uses may be specified by voice output.
  • FIG. 8 is a block diagram showing the configuration of a third embodiment of an operating system for an automatic driving vehicle according to the present invention.
  • the operation system 10B for the automatically driven vehicle shown in FIG. 8 is different from the operation system 10A for the automatically driven vehicle shown in FIG. The point is that it is configured as an operation system for an automatically driven vehicle that can use a plurality of elevators 41B.
  • Each of the plurality of automatically driven vehicles 20B (20a to 20i to 20n) is connected to a server 30B via a network 50 in the same manner as the operation system 10A for automatically driven vehicles shown in FIG.
  • a plurality of buildings 41B (41a-41i-41n) have a plurality of elevators 42B (42a-42i-42m). Each building may be configured with not only one elevator, but multiple elevators.
  • a security gate may be provided in addition to the elevator 42B on the travel route of the plurality of self-driving vehicles 20B in each building.
  • Each elevator 42i is connected to the server 30B via an elevator control unit 44B, a gateway 45a, a management server 45B, a gateway 45b, and a network 50B.
  • the operation server 30B constitutes a so-called robot management platform, and reads and writes the map data 31 from and to the storage unit 32B for registering the map data 31B and the like necessary for creating the travel route of the automatic driving vehicle 20B.
  • a control unit 33B that manages the operation of the automatically-operated vehicle 20B
  • an analysis unit 34B that analyzes the travel of the automatically-operated vehicle 20B and the use of elevators
  • a travel management unit 35B that manages the travel of the automatically-operated vehicle 20B
  • the above and a remote monitoring unit and/or remote control unit 36 and a cooperation unit 37 a remote monitoring unit and/or remote control unit 36 and a cooperation unit 37 .
  • the map data 31B includes data related to the roads and the surrounding environment necessary for the travel of the autonomous vehicles 20B, for example, information such as road boundaries, traffic signal positions, etc. It is three-dimensional data including rooms on each floor of a plurality of buildings 41B, corridors serving as passages, elevators, and security gates.
  • the operation server 30B includes a CPU, a storage unit having a non-volatile memory with an SSD using an HDD or flash memory, a DRAM that is a volatile memory, an input device such as a keyboard as necessary, and a monitoring camera from the automatic driving vehicle. It consists of a computer, a server, etc. equipped with an output device such as a display for displaying images and the like.
  • the operation server 30B may be a cloud server.
  • the operation server program is stored in the storage unit 32B, and the operation server program is developed in the CPU and executed, so that the analysis unit 34B, the travel management unit 36, and the remote monitoring unit and/or functionally includes a remote control unit 38 and a cooperation unit 37 .
  • the cooperation unit 37 has a function of communicating and connecting the plurality of automatically driven vehicles 20B, the plurality of elevators 42B arranged in each building, and security gates and the like as necessary.
  • the cooperation unit 37 is compatible with various communication protocols so as to be compatible with communication methods peculiar to manufacturing companies of a plurality of automatic driving vehicles 20B. Communication methods include MQTT (MQ Telemetry Transport, which is a protocol used for communication between devices), PLC (Programmable Logic Controller), OPC UA (open source industrial interface by OPCFoundation), and the like. Data corresponding to these communication methods used by the cooperation unit 37 are stored as the connection database 32a of the storage unit 32B.
  • the linking unit 37 further connects a plurality of elevators 42B arranged in each building with security gates and the like by means of an API (Application Program Interface) stored in the connection database 32a.
  • API Application Program Interface
  • the control unit 33B of the operation server 30B controls the cooperation unit 27 according to the communication method possessed by each automatic driving vehicle 20B.
  • ID the identification number
  • the type of each automatically driven vehicle 20B, the company to which it belongs, etc. are recognized.
  • tasks such as work and work time are managed by the travel management unit 36, which will be described later.
  • the analysis unit 34B has a function of analyzing data acquired from a plurality of automatically driving vehicles 20B in addition to data acquired from facilities such as elevators in the same manner as the operation system 10A of the automatically driving vehicle, and the operation system 10B of the automatically driving vehicle. and a function of simulating various usage situations and usage of Data for analysis used by the analysis unit 34B is stored in the analysis database 32b of the storage unit 32B. Based on the data acquired from multiple automated driving vehicles 20B and multiple facilities such as elevators, efficiency improvement and problems can be visualized.
  • FIG. 9 shows an example of the display screen 70 when data analysis of the automatically driving vehicle 20 is performed.
  • the operation status and basic indicators of the automated driving vehicle for transporting the goods in the warehouse are monitored and aggregated and analyzed to promote work improvement.
  • the data to be analyzed are the mode usage rate in the upper left, the operating time in the upper middle, the remaining battery level in the upper right, the total distance in the lower left, the number of errors in the lower middle, and the marker detection in the lower right.
  • the mode usage rate indicates in percentage whether the automatic driving vehicle 20 is running in any mode such as neutral, parking, or drive.
  • the horizontal axes of the other graphs are date and time, and relate to daily operation.
  • the operating time is a graph showing the ratio of driving modes on days when the automatic driving vehicle 20 was in operation.
  • the remaining battery level indicates the remaining battery level of the automatic driving vehicle 20 on a daily basis.
  • the total distance indicates the distance traveled by the automatically driven vehicle 20 on a daily basis.
  • the number of errors indicates the number of times warnings, errors, and obstacle detections are encountered in the operation of the autonomous vehicle 20 on a daily basis.
  • the figure shows an example in which no obstacle was detected.
  • the markers are attached, for example, to the floor or wall surface of a building to indicate the direction of the automatic driving vehicle 20 .
  • the detection of markers indicates the frequency of types of markers for direction indication with respect to the operation of the automatic driving vehicle 20 on a daily basis.
  • Types of markers include straight ahead, left turn, right turn, stop, U-turn, and the like (see Patent Document 2).
  • the analysis unit 34B displays graphs, specifies periods, and displays data in a comma-separated text file in order to monitor basic indicators of an autonomous vehicle.
  • a certain CSV (Comma Separated Value) file download function is implemented.
  • the analysis unit 34B By using the analysis unit 34B, the usage status and basic indicators of equipment such as elevators and security doors that cooperate with the automatic driving vehicle and the automatic driving vehicle are monitored, and aggregated and analyzed. It is possible to improve the usage of equipment such as In addition, it is possible to correspond to each automatic driving vehicle 20i manufactured by a different manufacturer. As a result, it is possible to set the flow of people and physical distribution in the buildings where multiple automatic driving vehicles 20B travel, the roads around the buildings, etc., and perform a physical simulation of the appropriate operating area and number of automatic driving vehicles. Such simulations make it possible to create a digital replica of the flow of people and goods in a city (called a digital twin) and a virtual space configured in a computer (called a metaverse).
  • a digital twin a digital replica of the flow of people and goods in a city
  • a metaverse a virtual space configured in a computer
  • the travel management unit 36 has a travel route creation function of the automatically operated vehicle 20 for the plurality of automatically operated vehicles 20B in the same manner as the operation system 10A of the automatically operated vehicle, and manages the plurality of automatically operated vehicles 20B. function, a task management function related to task assignment and operation schedule creation for a plurality of automated driving vehicles 20B, and a function of interlocking setting with facilities such as elevators and/or security doors.
  • the travel route creation function of the travel management unit 36 sets travel routes, priority areas, travel prohibited areas, and the like for the plurality of automatically driven vehicles 20B.
  • the management function of the travel management unit 36 can be managed by a group for each manufacturing company when the manufacturing companies of the plurality of automatically driven vehicles 20B are different.
  • Data relating to travel management used by the travel management unit 36 is stored in the travel management database 32c of the storage unit 32B.
  • a plurality of automatically driven vehicles 20B can be collectively managed by the travel management unit 36 .
  • the remote monitoring unit and/or the remote operation unit 38 remotely monitor and/or remotely operate the multiple automatic operation vehicles 20B.
  • the control unit 33B registers multiple automatically driven vehicles 20B to be monitored in the travel management unit 36.
  • a remote monitoring unit and/or a remote control unit 38 regularly monitors the states of the registered automatic driving vehicles 20B.
  • the image information obtained by the monitoring camera 24 of each automatically driven vehicle 20 and the detection information obtained by the detection unit 66 are transmitted to the remote monitoring unit and/or the remote control unit 38 by the state transmission/reception unit 66f as necessary.
  • the current position information 61a from each automatically driven vehicle 20i is sent from the control unit 33B to the remote monitoring unit and/or the remote control unit 38 via the network.
  • Data relating to remote monitoring and/or remote control used by the remote monitoring section and/or remote control section 38 is stored in the remote monitoring and/or remote control database 32d of the storage section 32B.
  • the current position information 61a of each automatically driven vehicle 20a By displaying the current position information 61a of each automatically driven vehicle 20a on the map, the current position information 61a of a plurality of automatically driven vehicles 20B is displayed.
  • the current position information 61a may be displayed on the display of the operation server 30B.
  • the current position information 61a may be updated continuously or at predetermined time intervals and displayed on the display. As a result, the current position information 61a of the multiple automatically driven vehicles 20B is displayed on the map in real time.
  • FIG. 10 shows an example of monitoring in the remote monitoring unit and/or remote control unit 38.
  • FIG. 10 shows a building model data screen 70 (Building Information modeling, BIM data) in which an automated driving vehicle 20C for delivery and an automated driving vehicle 20D for monitoring are located on the floor 71 of the building where the elevator 41B is installed.
  • 3 shows a three-dimensional monitoring screen (monitoring screen).
  • the positions of the automatic driving vehicle 20C for delivery and the automatic driving vehicle 20D for monitoring are indicated on the model data by the current position information 61a.
  • the registered information of the elevator, the detailed information about the manufacturing company, and the detailed information of the automatic driving vehicle 20C for delivery and the automatic driving vehicle 20D for monitoring are displayed.
  • a plan view of each floor of the building 40 may be displayed on a CAD (Computer Aided Design) screen together with the model data screen 70 or in a separate window.
  • CAD Computer Aided Design
  • each automatically driven vehicle 20 may be displayed on the display. Further, as the operating status of each automatically driven vehicle 20, if an automatically operated vehicle for delivery is explained as an example, the operating status of "delivering", “delivered”, and “waiting” may be displayed. As a result of monitoring by the administrator of the operation server 30, if an abnormality or other abnormality is found in the video of the surveillance camera from each automatic driving vehicle 20, the administrator remotely operates from the remote monitoring unit and / or the remote control unit 38 Then, each automatically driven vehicle 20 may be stopped, or an announcement such as "Emergency stop” may be made from the first voice output unit 25 of each automatically driven vehicle 20 to the surroundings.
  • an abnormality or other abnormality is found in the video of the surveillance camera from each automatic driving vehicle 20
  • the administrator remotely operates from the remote monitoring unit and / or the remote control unit 38
  • each automatically driven vehicle 20 may be stopped, or an announcement such as "Emergency stop” may be made from the first voice output unit 25 of each automatically driven vehicle 20 to the surroundings.
  • the administrator remotely operates the remote monitoring unit and / or the remote control unit 38 to operate each automatic driving vehicle 20 You can stop. After that, the administrator may contact the person in charge of maintenance of each autonomous vehicle 20 or other predetermined person in charge.
  • the operation server 30B controls the elevator control unit 44B of the building 40i, so that each automatically driving vehicle 20i moves the elevator 41i of the building 40i. It can be used smoothly.
  • the travel management unit 36 can create a travel route 61c' based on the map data 31B, similarly to the operation server 30. At this time, if the travel route 61c' includes a plurality of elevators 41B of the building 40, the travel management unit 36 inquires of the elevator control unit 44B about the usage status of the plurality of elevators 41B.
  • the travel management unit 36 which has received the usage status of the elevator 41B from the elevator control unit 44B, creates a travel route 61c' specifying an available elevator, and transmits it to each automatic driving vehicle 20i via the network 50B.
  • the CPU 61 of each automatically driven vehicle 20i creates elevator usage information 61d' and elevator control information 61e' and transmits them to the operation server 30B via the wireless network 50B.
  • Elevator use information 61d' is information including boarding floors and alighting floors for elevators 41i of each building 40i
  • elevator control information 61e' is information including designation of a call to elevator car 43B and alighting floor after boarding.
  • the elevator usage information 61d' may include image information obtained by the camera 43c, for example, on the ceiling of the elevator car 43.
  • the elevator usage information 61j sent from the elevator control unit 44B may be sent to the analysis unit 34B.
  • the analysis unit 34B can analyze the elevator usage information 61j and send empty elevators to the running management unit 36 in real time.
  • the travel management unit 36 always keeps each automatic driving vehicle 20 free even when a plurality of elevators 41B, such as six or eight, are installed on the same floor of the building.
  • a travel route 61c' including the optimum elevator 41B can be created.
  • each automatically driven vehicle 20i The travel route 61c ', the elevator usage information 61d' and the elevator control information 61e' of each automatically driven vehicle 20i are also transmitted from the travel management unit 36 to the remote monitoring unit and/or the remote control unit 38, and each automatically driven vehicle 20 Positional information and elevator usage information 61d' are displayed on the monitoring screen described with reference to FIG.
  • the elevator management of the travel management unit 36 it is possible to reduce the psychological burden on the passengers of riding with the automatic driving vehicle 20 by selecting an elevator with no passengers or the least number of passengers. .
  • the interior of the elevator car 43 is sensed by a sensor, for example a camera 43c or an elevator analysis sensor using a camera or LiDAR. Even if the elevator car 43 has a space for the automatic driving vehicle 20, the passenger's feeling of crampedness can be alleviated by selecting an elevator 20 with a larger space.
  • a large elevator car 43 may allow the automatically driven vehicle 20 to enter from the center to the left and right.
  • another self-driving vehicle 20 may be mounted if there is an empty space.
  • the travel management unit 36 cooperates with the elevator control unit 44B to control one or two specific elevators during elevator rush hours such as the time to go to work in the morning, the time for lunch, and the time to go home in the evening. You can set it for yourself. Also, during a time period in which the elevators 41B are not used much, it is possible to increase the number of elevators dedicated to the plurality of automatically operated vehicles 20B to increase the operating rate of the plurality of automatically operated vehicles 20B.
  • the operation system 10 for an automatic driving vehicle includes a management server 45 that controls the entire building 40.
  • the management server 45 is controlled by the operation server 30A to generate elevator usage information 61d and elevator control information.
  • the elevator controller 44 may be controlled based on 61e.
  • the management server 45 recognizes the automatic driving vehicle 20, and directly from the control unit 61 of the automatic driving vehicle 20 or the operation server 30A.
  • the second audio output unit 43a in the elevator car 43 can output the announcement regarding the elevator usage of the automatically driven vehicle 20 by voice.
  • the control unit 20 of the autonomous vehicle outputs elevator usage information when the travel route includes the elevator 41 of the building 40. 61d and elevator control information 61e to the elevator control unit 44 via the wireless network 50, and the elevator control unit 44 outputs the automatic operation information from the audio output unit 43a provided in the elevator car 43 based on the elevator usage information 61d.
  • An announcement regarding the use of the vehicle's elevator may be audibly output.
  • the second video output unit 43b in the elevator car 43 may output a video regarding the use of the elevator 41 of the automatically driven vehicle based on the elevator use information 61d. Also, along with this video output, an announcement may be output as audio from the audio output unit 43a.
  • the automatic driving vehicle 20 has been described as an automatic driving vehicle exclusively for delivery. You may make it drive both mutually.
  • the automated driving vehicle 20 is a passenger vehicle that transports the user at a transportation station, airport, etc.
  • a camera, scanner, near-field wireless NFC (Near Field Communication) transmitting/receiving unit, etc., for reading a QR code (registered trademark) may be provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Elevator Control (AREA)
  • Indicating And Signalling Devices For Elevators (AREA)
  • Traffic Control Systems (AREA)

Abstract

記憶部32に三次元マップデータを備えた自動運転車両の運行サーバ30と運行サーバに無線ネットワーク50を介して接続する自動運転車両20とを利用して自動運転を行なう運行システム10であって、車両制御部61がマップデータを受信して走行経路を作成し、建造物40のエレベータ41を利用する場合には乗車階及び降車階を含むエレベータ利用情報61dとエレベータ制御情報61eを作成し、エレベータが運行サーバに接続されエレベータかごの昇降を制御するエレベータ制御部を備え、自動運転車両の制御部がエレベータ利用情報及びエレベータ制御情報をエレベータ制御部に送信し、エレベータ制御部が、エレベータかご内の音声出力部43aからアナウンスを音声出力するように構成する。

Description

自動運転車両の運行システム
 本発明は、マップデータを参照して前もって設定された走行経路に沿って自動運転車両を走行させて目的地まで移動させる自動運転車両の運行システムに関するものである。
 従来、このような自動運転車両の運行システムとして、例えば特許文献1には、設定された経路に従って走行する自律走行車両において、その本体部の前面に設けた左右一対の表示部と自律走行車両の前方,側方及び後方を撮影する監視カメラとを備え、自律走行車両の状態及び/又は監視カメラが撮影した映像に基づいて所定の目形状映像を表示部に表示することで、障害物の状況に応じて目形状映像を変化させて、店舗と配送先と走行途中の周囲の人に対して親しみやすくした自律走行車両、配送システム及びプログラムが開示されている。この自律走行車両は、走行中に周囲の歩行者等とコミュニケーションを取ることができ、円滑な走行が期待される。
 また、自動運転車両に音声出力部を設け、走行中に当該自動運転車両の進行方向等の走行状態に関する情報を音声出力部から音声出力することにより当該自動運転車両の走行状態を報知することも知られている。
 さらに、例えばエレベータを備えた建造物の内部通路やエレベータを利用するために、これらの内部通路やエレベータを含むマップデータを用意しておき、自動運転車両がこのマップデータを参照して、建造物の内部通路やエレベータを利用できるようにした自動運転車両の運行システムも知られている。その際、内部通路の歩行者やエレベータ利用者に対して、当該自動運転車両の存在や走行状態を告知するために、同様に自動運転車両の音声出力部から音声出力することも既に実用化されている。路面や壁面などにマーカーを付してマーカーに沿って移動する方式の自動運転車両も知られている(特許文献2)。
国際出願WO2020/145189 A1号公報 再公表特許WO2020/013337号公報
 自動運転車両がエレベータを利用する際、エレベータかごには乗車定員が設定されており、多くの人が乗車していると自動運転車両が乗り込むスペースを確保できず、当該自動運転車両はエレベータへの乗車を見送らなければならない。このような場合に、既にエレベータかご内に乗車している人が自動運転車両の乗車を乗車時または事前に知っていれば、互いに詰め合わせることによってスペースを確保することができ、自動運転車両が乗り込むことができるので、自動運転車両の円滑な乗車や当該自動運転車両の乗降のための時間が短縮され得る。また、エレベータかご内に既に乗車している人にとっては、当該自動運転車両の降車階が前もって分かっていると、自身の降車階を考慮してエレベータかご内で譲り合ったり移動したりして、自動運転車両の容易な乗降も可能であろう。
 既述のように、自動運転車両のエレベータ利用の際、エレベータ利用に関する情報を自動運転車両の音声出力部から音声出力する自動運転車両も既に実用化されているが、エレベータに乗車している人には、予め自動運転車両が何階で乗り込んでくるか又はエレベータに乗車している自動運転車両が何階で降車するかは分からない。また、自動運転車両の周りに大勢の人が居て、話し声が大きい場合、あるいは周囲に比較的大きな騒音がある場合には、自動運転車両の音声出力部から音声出力されたアナウンスが聴こえにくく、自動運転車両のエレベータ利用を十分に報知することができないことがある。
 本発明は、簡単な構成で自動運転車両のエレベータ利用を確実に報知でき、エレベータ内にいる利用者やエレベータホールで待っている利用者に事前に認知できるようにした自動運転車両の運行システムを提供することを目的とする。
 本発明は、道路,周辺環境及びエレベータを備えた建造物に関する三次元のマップデータを登録した記憶部を備える自動運転車両の運行サーバと、運行サーバに無線ネットワークを介して接続される自動運転車両と、を利用して、運行サーバから受信したマップデータに基づいて自動運転車両が現在地から目的地まで所定の走行経路に沿って自動運転を行なう自動運転車両の運行システムであって、自動運転車両が、走行部,駆動部及び制御部と、撮像部,姿勢検出センサ及び位置センサから成る検出部と、無線ネットワークに接続される送受信部と、を備え、自動運転車両の制御部が、検出部の検出信号に基づいて現在位置と周囲環境を認識すると共に、現在位置から目的地までの移動に係るエリアのマップデータを運行サーバから受信して現在位置から目的地までの走行経路を作成し該走行経路に基づいて駆動部を制御して走行部を駆動するよう構成され、
 自動運転車両が該走行経路として建造物のエレベータを利用する場合には、前記制御部は、当該エレベータの乗車階及び降車階を含むエレベータ利用情報と、乗車階での当該エレベータかごの呼び出し及び降車階の指定を含むエレベータ制御情報を作成し、建造物のエレベータが、無線ネットワークを介して運行サーバに接続され、自動運転車両からのエレベータ利用情報及びエレベータ制御情報に基づいてエレベータかごの昇降を制御するエレベータ制御部を備えていて、自動運転車両の制御部は、エレベータ利用情報及びエレベータ制御情報を無線ネットワークを介してエレベータ制御部に送信し、エレベータ制御部が、エレベータ利用情報に基づいてエレベータかご内に備えられた音声出力部から当該自動運転車両のエレベータ利用に関するアナウンスを音声出力することを特徴とする。
 好ましくは、自動運転車両は音声出力部を備え、その制御部は、走行経路に沿った移動に応じて当該自動運転車両の走行を報知するためのアナウンスを自動運転車両の音声出力部から音声出力すると共に、エレベータ利用情報に基づいてエレベータ利用に関するアナウンスを自動運転車両の音声出力部から音声出力する。
 上記運行サーバは好ましくは、自動運転車両の現在位置及び走行経路から自動運転車両同士または自動運転車両と周辺環境等との相互位置に基づいて自動運転車両の運行を遠隔監視及び/又は遠隔操作し、エレベータ制御部は運行サーバにより制御される。
 建造物は、好ましくは当該建造物全体を制御する管理サーバを備え、管理サーバが運行サーバにより制御されることでエレベータ利用情報及びエレベータ制御情報に基づいてエレベータ制御部が制御される。エレベータ制御部は、好ましくは、エレベータ利用情報に基づいて当該自動運転車両のエレベータ乗車前から降車までの間にエレベータかご内に備えられた音声出力部から乗車階から降車階までの自動運転車両乗車の旨のアナウンスを音声出力する。エレベータ制御部は、好ましくは、当該エレベータの各階のエレベータホールに、それぞれ音声出力部を備え、エレベータ利用情報に基づいて乗車階または降車階に設けられたエレベータホールの音声出力部から当該自動運転車両乗車のエレベータ利用に関するアナウンスを音声出力する。好ましくは、エレベータかごはディスプレイを備え、エレベータ制御部が、エレベータ利用情報に基づいて当該自動運転車両のエレベータ利用に関する映像を表示する。エレベータかごにエレベータ分析センサを設け、エレベータ分析センサで取得されたエレベータかごの乗員情報がエレベータ制御部と運行サーバを介して自動運転車両の制御部に送出され、乗員情報に基づいてエレベータ利用情報及びエレベータ制御情報が作成されてもよい。エレベータ分析センサは、測長ができるカメラ又はライダーと、カメラ又はライダーで取得した映像信号を処理するコンピュータと、記憶装置とを含み、映像信号に基づいて取得したエレベータかご内の利用者に関する乗員情報を、エレベータ制御部及び運行サーバへ出力するように構成し得る。エレベータホール近傍にディスプレイを備えれば、運行サーバ及び/又はエレベータ制御部が、エレベータ利用情報に基づいて乗車階または降車階に設けられたエレベータホールの音声出力部と共に、ディスプレイに当該自動運転車両乗車のエレベータ利用に関する映像を出力することができる。
 運行サーバは、好ましくは、エレベータ制御部から送出されるエレベータ利用統計情報を分析する分析部と、エレベータ利用統計情報を分析して取得する在宅確率情報に基づいて自動運転車両の走行経路を作成する走行経路作成部と、を備える。エレベータかごが、エレベータ分析センサを備え、分析部は、エレベータ制御部から送出されるエレベータ利用統計情報及び/又はエレベータ分析センサから出力される乗員情報に基づいて自動運転車両の走行経路を作成してもよい。
 運行サーバは好ましくは、複数の自動運転車両を制御する制御部と、複数の自動運転車両及び複数のエレベータを通信接続する連携部と、分析部と、複数の自動運転車両の走行を管理する走行管理部と、複数の自動運転車両を遠隔監視及び/又は遠隔操作をする遠隔監視部及び/又は遠隔操作部と、記憶部に格納される接続用データベースと分析用データベースと走行管理用データベースと遠隔監視及び/又は遠隔操作用データベースと、を備え、制御部は、複数の自動運転車両及び複数のエレベータを連携部により接続し、複数の自動運転車両の予定に応じて走行管理部により複数のエレベータに関するエレベータ利用情報を作成し、複数の自動運転車両及び複数のエレベータの稼働状況を遠隔監視部及び/又は遠隔操作部により遠隔監視及び/又は遠隔操作する。
 なお、自動運転車両は、老人,傷病人,身体障害者等のユーザーを搬送する乗用車両のほか、清掃,消毒,監視等を行う各種作業用車両であっても、或いは、飲食物や商品或いは宅配物などの各種物品を配送する配送車両であってもよく、エレベータへの乗車可能なサイズであれば、とくに用途を問わず適用され得る。
 本発明によれば、簡単な構成により、自動運転車両のエレベータ利用を確実に報知することができるようにした自動運転車両の運行システムを提供することができる。
本発明による自動運転車両の運行システムの第一の実施形態の構成を示すブロック図である。 図1の自動運転車両の一例の外観構成を示し、(A)は正面斜視図、(B)は背面斜視図である。 図2の自動運転車両の内部構成を示すブロック図である。 エレベータホールの構成を示す模式的な図である。 図1の自動運転車両の運行システムにおける自動走行の手順を示すフローチャートである。 図1の自動運転車両のエレベータ利用の際の動作を示すフローチャートである。 第二の実施形態に係る自動運転車両の運行システムの構成を示すブロック図である。 第三の実施形態に係る自動運転車両の運行システムの構成を示すブロック図である。 自動運転車両のデータ分析を行う場合の運行サーバの表示画面の一例を示す図である。 遠隔監視部及び/又は遠隔操作部におけるモニタリングの一例を示す図である。
(第一の実施形態)
 以下、図面に示した幾つかの実施形態に基づいて本発明を詳細に説明するが、各実施形態は本発明を説明するためのものに過ぎず、本発明はこれに限られるものではない。図示の例では、自動運転車両は、注文された飲食物や購入された商品を搬送するワンボックスタイプの自動配送車両として説明しているが、形状や構造などは、建物やエレベータに乗降できる限り、これらの車両に限定されない。また、用途についても、物品の配送車両のほか、老人,傷病人,身体障害者等のユーザーを搬送する自動乗用車両であっても、或いは、清掃,消毒,監視等を行う各種の自動作業用車両であっても適用可能である。エレベータが設置された建造物は、会社ビルや商業施設に限らず、高層の大規集合住宅ビルであってもよい。
 図1は、本発明による自動運転車両の運行システム(以下、運行システムという)の第一の実施形態の全体構成を示している。運行システム10は、自動運転車両20と、サーバ30と、建造物40と、無線ネットワーク50と、から構成されている。無線ネットワーク50は、任意の構成の無線ネットワークであって、専用回線ネットワークであっても、また公衆回線ネットワークであってもよく、あるいはWi-Fi等の無線LANであってもよい。
 自動運転車両20は、図2に示すように、外観上ほぼ立方体形状に形成された本体部21と、本体部21に懸架された走行部としての車輪22と、から構成され得る。自動運転車両20の本体部21には、表示部23と、監視カメラ24と、第一の音声出力部としてのスピーカ25と、荷物の収容部26と、ライト27と、方向指示器28と、が備えられ、ライト27として自動運転車両20の前方にはフロントライト27a,27bが、また後方にはバックライト27c,27dがそれぞれ配設されている。図示の場合、荷物の収容部26を備えた飲食物や商品などの各種物品配送用の自動運転車両を示しているが、自動運転車両20が清掃,消毒,監視等の各種作業用車両である場合は、例えばポリッシャーやクリーナー、消毒薬噴霧器、警報機など、用途に応じて種々の機能を備える。自動運転車両20が一人乗り用座席を備えたカートタイプの場合は、老人,傷病人,身体障害者等の利用者を自動乗用車として搬送することができる。以下では、自動運転車両20が、歩道や建造物40の内部の廊下や後述するエレベータ等を含む走行経路を走行する商品配送車両として説明する。
 方向指示器28は、自動運転車両20の周囲の人が前面,側面及び背面から曲がる方向が分かる位置として、自動運転車両20の前側の左右側部の上部に耳状に配設され、例えば発光ダイオード(LED)によるランプ等から成る。第一の映像出力部としての表示部23は、本体部21の正面側に設けられ、後述する目形状映像を表示する。表示部23は、後述するディスプレイ63と、本体部21の正面側に設けられた左右一対の開口部23a,23bにより構成される。ディスプレイ63は液晶や発光ダイオードによる表示装置が好ましく、高輝度発光ダイオードを高密度に並べたフルカラーの発光ダイオードディスプレイが一層好適である。表示部23の下方にはスピーカ25が設けられている。
 監視カメラ24は、自動運転車両20の周囲の画像を取得するカメラ、即ち自動運転車両20の前方,側方及び後方の道路状況や歩行者等を撮影して監視するカメラである。監視カメラ24は、本体部21の正面側に左右一対設けられた前方監視カメラ24a,24bと、本体部21の側面側に左右一対設けられた側方監視カメラ24c,24dと、から構成されている。監視カメラ24は、単眼カメラ,広域カメラ,ステレオカメラ等を使用できる。監視カメラ24は、図2に示すように、本体部21の後方に左右一対の後方監視カメラ24e,24fを備えていてもよい。前方監視カメラ24a,24b及び後方監視カメラ24e,24fをそれぞれ単眼カメラを用いて配置すれば、自動運転車両20の周囲360度にある歩行者,自転車,バイク,車に乗った人等の画像を取得して、周囲の監視を行なうことができる。本体部21の背面側には、図2(B)に示すように収容部26が設けられて配送すべき荷物を積載する。
 図3は、自動運転車両20の制御系統の構成を示している。自動運転車両20は、制御部29としてのCPU61を備え、CPU61に、第一の音声出力部としてのスピーカ25と、バッテリ62と、ディスプレイ63と、記憶部64と、駆動部65と、検出部66と、が接続されている。検出部66は、撮像部としての監視カメラ24と、自動運転車両20の走行状態を制御するためのセンサであるIMU等の姿勢検出センサ66aと、監視センサ66bと、距離センサ66cと、位置センサ66dと、周囲の歩行者,自転車,バイク等との接触を検知するバンパーセンサ66eと、状態送受信部66fと、から構成されている。CPU61及び記憶部64は自動運転車両20に搭載された装置各部を制御する。CPU61は、マイクロプロセッサやマイクロコントローラ等により構成することができる。記憶部64は、DRAM,ハードディスクドライブ(HDD)やフラッシュメモリ等の不揮発性メモリ等により構成されている。CPU61と装置各部の接続は周知の方法を用いてよく、例えばCAN(Controller Area Network)を用いてよい。自動運転車両20を機能させるプログラムは、当該プログラムを実行するCPU61と記憶部64等から成るコンピュータにより読み取り可能な記憶媒体に記録され格納される。記憶媒体は、CD-ROM,DVD-ROMや、USBメモリ等を用いることができる。上記プログラムは、無線ネットワーク50を介してサーバ30からコンピュータの記憶部64にダウンロードされてもよい。バッテリ62は自動運転車両20の動力源である。バッテリ62はCPU61に接続され、バッテリ62の残量その他の情報がCPU61から監視される。
 ディスプレイ63は表示部23を構成する装置である。本実施形態では、自動運転車両20の状態及び/又は監視カメラ24が撮像した映像に基づいて、所定の目形状映像を表示部23に表示する。ここで、自動運転車両20の状態とは、走行路における直進,左折,右折,停止等の各走行動作状態と、自動運転車両20に関する監視カメラ24による画像情報及び検出部66の検出情報と、を示す。検出部66の検出情報とは、姿勢検出センサ66a,監視センサ66b,距離センサ66c,位置センサ66dと、バンパーセンサ66e等からの情報である。自動運転車両20の状態に関する監視カメラ24による画像情報及び検出部66による検出情報は、必要に応じて状態送受信部66fにより、後述するサーバ30に送信される。監視カメラ24からの検出信号に基づいたCPU61からの発光指令により、ディスプレイ63に所定の目形状パターンに従った映像が表示される。ディスプレイ63に映像が表示される際には、スピーカ25からの映像の表示に連動した所定の出力がされてもよい。さらに、自動運転車両20の走行状態や停止状態に応じて、ライト27と方向指示器28とが表示される。ライト27及び方向指示器28は、CPU61からの発光指令を受けて図示しない発光用ドライバにより表示される。
 駆動部65は、モータ65aとモータ65aを駆動制御するドライバ65bとから構成され、モータ65aが前述の車輪22を駆動する。具体的には、CPU61からの制御信号によりドライバL65b1,ドライバR65b2がそれぞれモータ65a1,65a2をそれぞれ制御して、左後輪22c及び右後輪22dを駆動する。スピーカ25は、前述するように自動運転車両20の本体部21の前面に設置され、所定の音声を出力する。
 姿勢検出センサ66aは、例えば完成計測ユニット(Inertial Measurement Unit)であり、本実施形態では、自動運転車両20のロール軸,ピッチ軸及びヨー軸の各軸周りの運動について、角速度及び角加速度を計測する慣性計測装置である。監視センサ66bは、自動運転車両20の周囲、特に前方の歩行者,自転車,バイク及び車や障害物を検出し、人や障害物との距離の測定、即ち測距、人や障害物に関する二次元及び三次元の画像認識、形状と色の認識、自動運転車両20の走行経路の追従のために用いるセンサである。監視センサ66bは、人や障害物を検出したときにその位置座標や人の目の高さ等に関する位置情報を取得する。ディスプレイ63は、この位置情報に基づいて制御されてもよい。監視センサ66bは、単眼カメラまたはステレオカメラを用いて位置情報を取得するモジュール、ライダー等により構成することができる。モジュールは、単眼カメラやステレオカメラから取得した画像データを処理して位置情報とするCPUまたはGPU(画像処理プロセッサ)及び記憶装置等から構成し得る。単眼カメラを用いたモジュールは、人や障害物の形状,色及びパターンを認識することができ、大凡の距離をも計測できる。ステレオカメラを用いたモジュールは、測距、人や車、障害物等の三次元認識、形状と色を識別するために使用される。ライダー(Laser Imaging Detection and Ranging)は、レーザー画像検出と測距を行なう。ライダーは、二次元ライダーや三次元ライダーとしてもよい。三次元ライダーは、自動運転車両20の前方のレーザー画像検出と、検出した物体との測距、検出した物体の形状の測定等ができる。ライダーを備えている場合には、自動運転車両20の前方の物体とその距離を検出して、前方のレーザー画像と検出した物体との距離のデータを検出信号としてCPU61に送出する。
 監視センサ66bは自動運転車両20の前方上部に配設してもよい。監視センサ66bは、自動運転車両20の前方の歩行者、自転車、バイク、車等の画像検出と測距を遠方まで検知することができる。距離センサ66cは、自動運転車両20と障害物等との距離を計測するセンサで、自動運転車両20の前方に向かって配置され、走行路の前方にある障害物に対して超音波や赤外線を出射して、その反射波を検出することにより、当該障害物までの距離を測定する。位置センサ66dは、自動運転車両20の現在位置を補足する。本実施形態では、GNSS受信ユニットを用いる。位置センサ66dと姿勢検出センサ66aは、それぞれ別個の装置を用いるか、あるいはGNSS受信機能、ジャイロセンサ機能、加速度センサ機能が一つのパッケージに統合された装置を用いるかは、任意に選択し得る。バンパーセンサ66eは、周囲の歩行者、自転車、バイク等との接触を検知して、自動運転車両20の自動走行を停止または非常停止することができる。状態送受信部66fは、公衆通信ができる例えば第三世代(3Gと呼ぶ),第四世代(4Gと呼ぶ)及び第五世代(5Gと呼ぶ)等、あるいは無線LAN等の通信モジュールから構成される。
 ここで、運行サーバ30は、自動運転車両20の現在位置及び走行経路61cから自動運転車両20同士または自動運転車両20と周辺環境等との相互位置に基づいて、自動運転車両20の運行を遠隔監視及び/又は遠隔操作でき、エレベータ制御部44をこの運行サーバにより制御してもよい。この場合、自動運転車両20が運行サーバ30によって遠隔監視及び/又は遠隔操作されると共に、自動運転車両20が建造物40のエレベータ41に接近したとき、運行サーバ30が当該建造物40のエレベータ制御部44を制御することによって、自動運転車両20が建造物40のエレベータ41を円滑に利用することができる。
 この構成の自動運転車両20の制御回路において、姿勢検出センサ66a,監視センサ66b,距離センサ66c及び位置センサ66dと、監視カメラ24等からなるセンサからの検出信号と、前もって作成された走行経路と、に基づいて、CPU61は駆動部65を駆動制御して当該走行経路に沿って自動走行することができる。走行経路を作成するためのマップデータ31は運行サーバ30に登録されており、CPU61が、自動運転車両20の現在位置情報61aと入力された目的地情報61bを運行サーバ30に送信し、運行サーバ30から送られてくるマップデータ31に基づいて走行経路61cを作成することができる。走行経路61cに建造物40のエレベータ41が含まれる場合には、CPU61はエレベータ利用情報61d及びエレベータ制御情報61eを作成して、無線ネットワーク50を介して運行サーバ30に送信する。エレベータ利用情報61dは、建造物40のエレベータ41に関して、乗車階及び降車階を含む情報であり、エレベータ制御情報61eはエレベータかご43の呼び出し及び乗車後の降車階の指定を含む情報である。また、CPU61は、そのときの現在位置及び走行状態を無線ネットワーク50を介して運行サーバ30に送信する。これにより、運行サーバ30は当該自動運転車両20の現在位置及び走行状態を認識して運行を管理する。
 本実施形態では、自動運転車両20はバッテリ62を動力源とし、駆動部65の各モータ65aにより車輪22を駆動して走行する電動車両である。自動運転車両20は、その走行状態と、監視カメラ24及び/又は監視センサ66bが撮影した映像に基づいて、所定の目形状映像を表示部23に表示する。さらに、自動運転車両20は、本体部21の前面に第一の音声出力部としてのスピーカ25を備え、自動運転車両20の走行状態及び/又は監視カメラ24が撮影した映像に基づいて所定の音声をスピーカ25に出力する。
 運行サーバ30は適宜の箇所に設置され、自動運転車両20の走行経路作成に必要なマップデータ31を登録する記憶部32と、記憶部32に対してマップデータ31の読み書きを行なうと共に、自動運転車両20の運行運理を行なう制御部33と、図示しない遠隔監視部及び/又は遠隔操作部とから構成されている。ここで、マップデータ31は、自動運転車両20の走行可能なエリアに関して、自動運転車両20の走行に必要な道路及び周辺環境に関するデータ、例えば道路の境界,信号機の位置等の情報を含む三次元データであり、建物周辺及び建物内の各階の経路に関するデータを保有している。
 記憶部32には、マップデータ31がデータベースとして登録されており、位置情報に基づいて当該位置情報付近を含むマップデータ31を読み出すことができる。さらに、エレベータ41を備えた建造物40の場合には、マップデータ31には、当該建造物40内の他のフロアへの移動のために利用可能なエレベータ41の位置情報等が含まれる。
 運行サーバ30の制御部33は、自動運転車両20から送られてくる現在位置情報61a及び目的地情報61bに基づいて現在位置から目的地まで走行経路61cに対応するエリアのマップデータ31を記憶部32から読み出し、無線ネットワーク50を介して自動運転車両20に送信する。さらに、運行サーバ30の制御部33は、自動運転車両20から送られてくるエレベータ利用情報61dを、無線ネットワーク50を介して建造物40の管理サーバ45に送信する。
 建造物40は複数階のフロアから成り、各フロア間の容易な移動を可能にするために、エレベータ41を備えている。エレベータ41は、建造物40を上下に貫通する移動路42内で上下に移動可能に支持され、且つ図示しない駆動部により上下動に移動するエレベータかご43と、エレベータかご43を上下に駆動制御するエレベータ制御部44と、から構成されている。エレベータ制御部44は、建造物40全体の管理を行なう管理サーバ45に対してゲートウェー45aを介して接続されていると共に、管理サーバ45は、さらにゲートウェー45bから無線ネットワーク50を介して運行サーバ30に接続されている。これにより、自動運転車両20の運行システム10において、自動運転車両20,運行サーバ30及び管理サーバ45が建造物40及びエレベータ41と相互に接続され、建造物40内のエレベータ41や図示しないセキュリティゲート等の電気設備が、運行サーバ30の制御部33により無線ネットワーク50を介して制御され得る。
 エレベータかご43内には、第二の音声出力部としてのスピーカ43aが配置されると共に、建造物40の各フロアのエレベータホールには、それぞれ第三の音声出力部としてのスピーカ41aが配置されている。ここで、エレベータかご43内には、第二の映像出力部としてディスプレイ43bを配置してもよい。さらに、エレベータかご43内の上方又は天井部には、エレベータかご43内の乗車状態を監視するためのカメラ43cを配置してもよい。カメラ43cで取得される映像信号は、エレベータ制御部44から管理サーバ45に対してゲートウェー45aを介して管理サーバ45へ送出されると共に、管理サーバ45から、さらにゲートウェー45b及び無線ネットワーク50を介して運行サーバ30に送出される。
 ここで、エレベータ41は、例えば無人自動運転ロボットが配送,警備や清掃のために移動しやすいように、エレベータ41等の設備をロボットと連携させて稼働させることができるようにした所謂ロボットマネジメントプラットホームを採用したビル等に設置されているエレベータにも適用できる。これにより、エレベータ制御部44は、自動運転車両20から無線ネットワーク50経由で運行サーバ30,管理サーバ45を介して送られてくる自動運転車両20の現在位置61aに基づいて、自動運転車両20がエレベータホールに接近したときにエレベータ呼び出し操作の信号を送出し、またエレベータかご43に乗り込んだ際には、行き先階の入力信号を送出することにより、エレベータ41を利用することができる。
 本発明による自動運転車両の運行システム10によれば、自動運転車両20が建造物40のエレベータ41を利用する際に、自動運転車両20の制御部61が、エレベータ利用情報61d及びエレベータ制御情報61eを無線ネットワーク50を介して建造物40のエレベータ制御部44に送信する。これにより、自動運転車両20がエレベータかご43に乗車する際、エレベータかご43内の第二の音声出力部43aから当該自動運転車両20のエレベータ41の利用に関するアナウンスを音声出力する。第二の音声出力部43aからエレベータ41の利用に関するアナウンスと共に、エレベータかご43内の第二の映像出力部43bから、エレベータ利用情報61dに基づいて当該自動運転車両20のエレベータ41の利用に関する映像を出力してもよい。
 自動運転車両20の第一の音声出力部25から音声出力されるアナウンスを聞き逃したり聴こえにくい場合であっても、エレベータかご43内に乗車している人は、エレベータかご43内に設けられた第二の音声出力部43aから音声出力されるアナウンスを聴くことによって、自動運転車両20のエレベータ41の利用を確実に認識することができる。さらに、聴力低下により聴こえにくい場合や聴覚障碍者の場合であっても、エレベータかご43内のディスプレイ43bから自動運転車両20のエレベータ41の利用に関する映像情報を見ることによって、自動運転車両20のエレベータ41の利用を確実に認識することができる。
(エレベータホール)
 図4は、エレベータホール46の構成を示す模式的な図である。エレベータホール46には、エレベータの扉46a、エレベータの移動を示す表示部46b、希望の行き先の上下を示す押しボタン46cと、スピーカ(第三の音声出力部)41aと第三の映像出力部としてディスプレイ46eとが備えられる。スピーカ41aとディスプレイ46eとは、運行サーバ30及び/又はエレベータ制御部44によりエレベータ利用情報61dに基づいてその映像出力と音声出力が制御される。スピーカ41aによる音声出力は、後述する図6に示すフロー図と同様に行うことができる。さらに、スピーカ41aによる音声出力と共に、ディスプレイ46eには、自動運転車両20の乗車や降車に関する映像が表示される。この映像は、自動運転車両20の静止画像、アニメ映像、又はエレベータかご43に設置したカメラで撮像した自動運転車両20等が使用できる。スピーカ41aとディスプレイ46eの設置場所は、エレベータホール46に限らず、エレベータかご43の他、エレベータホール46の近くの場所等のエレベータホール46の近傍であってもよい。
(エレベータかごに設置したカメラの利用)
 カメラ43cがエレベータかご43内の例えば天井部に設置される場合には、エレベータ制御部44又は管理サーバ45は、カメラ43cにより取得した映像信号からエレベータかご43内の利用者の人数を積算する。利用者の人数の積算には、種々の画像認識方法を用い得る。自動運転車両20の乗降のために、エレベータかご43の乗車定員に対する利用者の人数割合、つまり乗車率を計算してもよい。これらのエレベータ制御部44又は管理サーバ45で取得された利用者の人数や乗車率等からなるエレベータかご43の乗員情報43eは、運行サーバ30の制御部33に送出されてもよい。
 カメラ43cは、測長ができるステレオカメラ、TOFカメラ(Time of FlightCamera)、LiDAR等を用いてもよい。エレベータ制御部44又は管理サーバ45を使用しないで、カメラ43cで取得した映像信号からエレベータかご43内の利用者の人数、利用者の荷物を積算する一体化したセンサとしてもよい。このセンサは、上記のようにエレベータかご43内の利用者の人数や乗車率に関する分析データを上記のカメラ43c、TOFカメラ、LiDAR等の映像及び/又は距離等の情報に基づいて取得するので、エレベータ分析センサと呼ぶ。エレベータ分析センサは、例えば、ステレオカメラとなるイメージセンサ又はTOF用のイメージセンサとコンピュータと記憶装置と通信用基板等によりモジュール化したセンサーとして構成されてもよい。エレベータ分析センサは、エレベータかご43内の天井部に設置される。エレベータ分析センサからのエレベータ内の人数、自動運転車両20の台数等の分析データである乗員情報43eは、エレベータ制御部44又は管理サーバ45と無線ネットワーク50とを介して、運行サーバ30の制御部33に送出されてもよい。エレベータ分析センサによる乗員情報43eは、エレベータかご43内の利用者の人数や自動運転車両20の台数に関する分析データであり、映像データを含まないのでプライバシーの漏洩はない。
 乗員情報43eは、制御部33から無線ネットワーク50を介して自動運転車両20のCPU61に送出される。その際、建造物40に複数のエレベータ41が配置されている場合は、CPU61は、乗員情報43eを参照して空いているエレベータを利用するように利用情報61d及びエレベータ制御情報61eを作成して、無線ネットワーク50を介して運行サーバ30に送信する。エレベータかご43内に配置されたカメラ43c又はエレベータ分析センサによる乗員情報43eに基づいて作成された利用情報61d及びエレベータ制御情報61eによって、自動運転車両20は、当該自動運転車両が乗車できるスペース(空間)があるエレベータ41に移動して乗り込むことができる。これにより、自動運転車両20は、予め乗員情報43eを参照して利用者で満員のエレベータや、利用者及び他の自動運転車両で満員のエレベータを検知し、空いているエレベータを容易に選択することができる。
 次に、図5を参照して本実施形態による自動運転車両の運行システム10の動作について説明する。ここでは、走行経路61c中に建造物40のエレベータ41を利用しない場合の自動運転車両20の自動走行について説明する。
 まず、自動運転車両20のCPU61に、ステップA1にて、図示しない操作部により、あるいは運行サーバ30から目的地を表す目的地情報61bが入力される。次に、自動運転車両20のCPU61は、ステップA2にて、位置センサ66dからの検出信号により当該自動運転車両20の現在位置を検出して、現在位置情報61aを取得する。CPU61は、ステップA3にて、現在位置情報61a及び目的地情報61bを無線ネットワーク50を介して運行サーバ30に送信する。これを受けて、運行サーバ30の制御部33は、ステップA4にて、現在位置情報61a及び目的地情報61bに基づいて現在位置情報61aによる現在位置から目的地情報61bによる目的地までの走行経路に対応するエリアのマップデータ31を記憶部32から読み出し、ステップA5にてこのマップデータ31を無線ネットワーク50を介して自動運転車両20に送信する。
 CPU61は、ステップA6にて現在位置情報61a及び目的地情報61bとマップデータ31から、現在位置から目的地までの走行経路61cを作成し、走行経路61cを無線ネットワーク50を介して運行サーバ30に送信する。CPU61は、ステップA7にて走行経路61cに基づいて駆動部65を駆動制御し、自動運転車両20を走行経路61cに沿って自動走行させる。自動走行中、自動運転車両20のCPU61は、スピーカ25から適宜音声出力を行ない、周囲に自動運転車両20の存在及び走行を報知する。CPU61はステップA8にて、自動走行中検出部66、即ち姿勢検出センサ66a,監視センサ66b,距離センサ66c及び位置センサ66dそして監視カメラ24からの検出信号に基づいて、歩行者,自転車,バイクや他の車両あるいは障害物等の物体を検出した場合には、ステップA9にてCPU61はこれらの物体を回避するように走行経路61cを変更、停止または非常停止するように駆動部65を駆動制御する。運行サーバ30は、自動走行開始前に自動運転車両20から受信した走行経路61cと、逐次自動運転車両20から送られてくる現在位置情報61aと、から当該自動運転車両20の自動走行を監視しており、自動運転車両20が走行経路61cから大きく外れた場合には、自動運転車両20を停止または非常停止させるようにしてもよい。ステップA10にて、自動運転車両20が目的地に到達すると、CPU61はステップA11にて駆動部65を駆動制御して自動走行を停止させ、自動運転が終了する。
 以下、建造物40のエレベータ41を利用する場合の自動運転車両20の自動走行について、図6のフローチャートを参照してさらに詳しく説明する。
 CPU61は、前述したステップA6にて走行経路61cを作成した後に、ステップB1にてエレベータ利用情報61d及びエレベータ制御情報61eを作成し、ステップB2にてこれらのエレベータ利用情報61d及びエレベータ制御情報61eを無線ネットワーク50を介して運行サーバ30に送信する。
 ステップB3にて、自動運転車両20が建造物40のエレベータ41の乗車階のエレベータホール付近に接近すると、ステップB4にて、運行サーバ30は自動運転車両20からの現在位置情報61aにより当該自動運転車両20のエレベータ接近を検知し、ステップB5にてエレベータ利用情報61d及びエレベータ制御情報61eを、無線ネットワーク50を介して管理サーバ45からエレベータ制御部44に送信する。これを受けて、エレベータ制御部44は、これらのエレベータ利用情報61d及びエレベータ制御情報61eのうちエレベータ制御情報61eに基づいて、ステップB6にて当該乗車階にてエレベータ41の呼び出しを行なうと共に、ステップB7にてエレベータ利用情報61dに基づいて第二の音声出力部としてエレベータかご43内のスピーカ43aにより、「自動運転車両が○階から□階まで乗車します。乗車にご協力をお願いします。」と音声出力して、当該エレベータかご43内に乗車している人に自動運転車両20の乗車の旨を予告案内する。エレベータかご43内に第二の映像出力部43bを備えている場合には、ステップB7’にて、エレベータ利用情報61dに基づいてエレベータかご43内のディスプレイ43bによりステップB7の音声出力と共に、映像として、「自動運転車両が○階から□階まで乗車します。乗車にご協力をお願いします。」と表示してもよい。
 ステップB7と同時にステップB8にて、エレベータ制御部44は、第三の音声出力部として当該乗車階のエレベータホールに設けられたスピーカ41aにより「自動運転車両が○階から□階まで乗車します。乗車にご協力をお願いします。」と音声出力して、当該乗車階のエレベータホール付近に居る人に自動運転車両20の乗車の旨を案内する。さらに、エレベータホール46に第三の映像出力部46eを備えている場合には、ステップB8’にて、エレベータ利用情報61dに基づいてエレベータホール46のディスプレイ46eにより、上記の音声出力と共に、同様の文章を映像表示してもよい。
 ステップB9にてエレベータかご43が当該乗車階に到着してドアが開くと、ステップB10にてエレベータ制御部44はエレベータかご43内のスピーカ43aにより、「○階です。これから自動運転車両が乗車します。乗車にご協力をお願いします。」と音声出力して、当該エレベータかご43内に乗車している人に自動運転車両20の乗車を案内する。エレベータかご43内に第二の映像出力部43bを備える場合は、ステップB10’にて、エレベータ利用情報61dに基づいて、エレベータかご43内のディスプレイ43bによりステップB10の音声出力と共に、映像として同様に表示してもよい。
 ステップB10と同時にステップB11にて、エレベータ制御部44は当該乗車階のエレベータホールに設けられたスピーカ41aにより、「これから自動運転車両が乗車します。乗車にご協力をお願いします。」と音声出力して、当該乗車階のエレベータホール付近に居る人に自動運転車両20の乗車の旨を案内する。エレベータホール46に第三の映像出力部46eを備えている場合には、ステップB11’にてエレベータ利用情報61dに基づいて、エレベータホール46のディスプレイ46eにより上記の音声出力と共に、映像として同様の文章を表示してもよい。
 ステップB12にて自動運転車両20がエレベータかご43内に乗車してエレベータかご43のドアが閉まると、エレベータ制御部44は、ステップB13にてエレベータ制御情報61eに基づいて当該エレベータかご43での降車階の指定を行なうと共に、ステップB14にてエレベータ利用情報61dによりエレベータかご43内のスピーカ43aにより「自動運転車両が○階で乗車しました。この自動運転車両は、□階で降車します。降車にご協力をお願いします。」と音声出力して、当該エレベータかご43内に乗車している人に自動運転車両20の降車の旨を案内する。エレベータかご43内に第二の映像出力部43bを備えている場合には、ステップB14’にて、エレベータ利用情報61dに基づいてエレベータかご43内のディスプレイ43bにより同様の文章を表示する。
 ステップB15にて、エレベータかご43が乗車階からの昇降を開始すると、ステップB16にて、エレベータ制御部44は、エレベータ利用情報61dにより、当該自動運転車両20の降車階のエレベータホールに設けられたスピーカ41aにより、「これから自動運転車両が降車します。降車にご協力をお願いします。」と音声出力して、自動運転車両20の降車の旨を予告案内する。エレベータホール46に第三の映像出力部46eを備えている場合には、ステップB16’にて、エレベータ利用情報61dに基づいてエレベータホール46のディスプレイ46eにより上記の音声出力と共に、映像として同様に表示する。
 ステップB17にてエレベータかご43が当該降車階に到着してドアが開くと、ステップB18にて、エレベータ制御部44はエレベータかご43内のスピーカ43aにより「○階です。自動運転車両が降車します。降車にご協力をお願いします。」と音声出力し、エレベータかご43内に乗車している人に自動運転車両20の降車の旨を案内する。エレベータかご43内に第二の映像出力部43bを備えている場合には、ステップB18’にて、エレベータかご43内のディスプレイ43bによりステップB12の音声出力と共に、映像として同様に表示する。
 ステップB18と同時にステップB19にて、エレベータ制御部44は、当該降車階のエレベータホールに設けられたスピーカ41aにより、「これから自動運転車両が降車します。降車にご協力をお願いします。」と音声出力して、当該降車階のエレベータホール付近に居る人に自動運転車両20の降車の旨を案内する。エレベータホール46に第三の映像出力部46eを備えている場合には、ステップB18’にてエレベータホール46のディスプレイ46eにより上記の音声出力と共に同様の映像を表示する。これにより、ステップB20にて、自動運転車両20がエレベータかご43から降車する。このようにして、自動運転車両20の建造物40に設けられたエレベータ41の利用が完了する。
 以上の説明では、エレベータ41の利用の際に、自動運転車両20はスピーカ25から音声出力を行なわないが、第二の音声出力部であるスピーカ43a及び第三の音声出力部であるスピーカ41aと共に、自動運転車両20のエレベータ利用に関する音声案内を適宜行なうようにしてもよい。さらに、エレベータ制御部44は、エレベータ利用情報61dに基づいて当該自動運転車両20のエレベータ乗車前から降車までの間に第二の音声出力部43aから、乗車階から降車階までの自動運転車両乗車の旨のアナウンスを音声出力してもよい。エレベータ41内に乗車している人が第二の音声出力部43aからの自動運転車両乗車の旨のアナウンスを聴くことによって、当該自動運転車両20の乗車前から当該自動運転車両20のエレベータ利用を把握することができる。エレベータ制御部44は、当該エレベータ41の各階のエレベータホールにそれぞれ第三の音声出力部41aを備えており、エレベータ制御部44が、エレベータ利用情報61dに基づいて乗車階または降車階に設けられた第三の音声出力部41aから当該自動運転車両20のエレベータ利用に関するアナウンスを音声出力してもよい。この構成によれば、エレベータ41を利用するためにエレベータホール内に居る人が、第三の音声出力部41aからの自動運転車両20のエレベータ利用に関するアナウンスを聴くことによって、自動運転車両20の乗車時には自動運転車両20のために譲り合ったりあるいは自動運転車両20の降車時には、自動運転車両20の降車のために避ける等の行動を行なうことができる。
(第二の実施形態)
 第一の実施形態では、自動運転車両20のエレベータ41の乗車及び降車について説明したが、エレベータ41の設置されている建造物40は、商業ビルやホテルに限らず、大規集合住宅ビルに設置されているエレベータ41にも適用できる。第二の実施形態では、エレベータ41の利用状況に関する情報の利用について説明する。
 図7は、本発明による自動運転車両の運行システムの第二の実施形態の構成を示すブロック図である。図7に示す自動運転車両の運行システム10Aが、図1に示す自動運転車両の運行システム10と異なるのは、サーバ30Aが、エレベータ制御部44から送出されるエレベータ利用統計情報61fを分析する分析部34と、該エレベータ利用統計情報61fを分析して取得する各階での在宅確率情報61gに基づいて自動運転車両20の走行経路を作成する走行経路作成部35と、を備え、具体的には、エレベータ制御部44からゲートウェー45a及び管理サーバ45を介して、サーバ又は運行サーバ30Aにエレベータ利用統計情報61fが送出される点である。例えば、住宅ビルの各階から1階へのエレベータによる移動がエレベータ制御部44で情報として取得されるので、その回数を各階で分析すれば、午前中に1階までエレベータを利用した回数が各階ごとに把握でき、各階の戸数が予め分かっているので、住人の在宅の度合、つまり在宅確率が統計的に取得される。分析部34で分析された在宅確率情報61gが、運行サーバ30Aの自動運転車両20のための走行経路作成部35に送出される。
 ここで、自動運転車両20が宅配ロボットである場合には、走行経路作成部35は、自動運転車両20の配送を効率良く行うために在宅確率が高い配送先から順に配送するように、自動運転車両20の走行ための走行経路データ61hを作成して、運行サーバ30Aから無線ネットワーク50を介して自動運転車両20に送出する。本発明の自動運転車両の運行システム10Aによれば、在宅確率の高い時間帯や曜日に配送することにより、不在による再配達の工数及びコストを著しく削減できる。エレベータ41のかご43内の天井には、上記エレベータ分析センサを設置してもよい。エレベータ分析センサによる乗員情報43eは、エレベータかご43内の乗員の人数や自動運転車両20の台数に関する分析データであり、エレベータによる移動の検知と共に利用することでより確実に乗員情報43eを取得でき、利用者の映像データを含まないのでプライバシーの漏洩はない。この場合、分析部34は、上記のエレベータ利用統計情報61fにさらに、エレベータ分析センサによる乗員情報43eを加えて分析してもよい。分析部34は、エレベータ制御部44から送出されるエレベータ利用統計情報及び/又はエレベータ分析センサからの乗員情報43eに基づいて自動運転車両20の走行経路を作成することができる。
 本発明は、その趣旨を逸脱しない範囲において様々な形態で実施することができる。例えば、上述した実施形態においては、建造物40は、一つのエレベータ41を備えているが、複数のエレベータ41を備えている建造物40においても、自動運転車両20がエレベータ41を利用することができる。この場合、自動運転車両20がどのエレベータ41を利用するかを音声出力で特定するようにしてもよい。
(第三の実施形態)
 第一及び第二の実施形態では、自動運転車両20のエレベータ41の乗車及び降車について説明したが、複数の自動運転車両と、複数のエレベータ41を備え、複数階の建造物40においても、自動運転車両20のエレベータ41への利用が可能である。この実施形態では、複数の自動運転車両20が、複数の建造物40に設置された複数のエレベータ41Bを利用する場合の自動運転車両の運行システムについて説明する。
 図8は、本発明による自動運転車両の運行システムの第三の実施形態の構成を示すブロック図である。図8に示す自動運転車両の運行システム10Bが、図7に示す自動運転車両の運行システム10Aと異なるのは、サーバ30Bが、複数の自動運転車両20Bを、複数の建造物40Bに設置された複数のエレベータ41Bを利用できる自動運転車両の運行システムとして構成される点である。複数の自動運転車両20B(20a~20i~20n)のそれぞれは、図7に示す自動運転車両の運行システム10Aと同様にネットワーク50を介してサーバ30Bと接続される。複数の建造物41B(41a~41i~41n)は複数のエレベータ42B(42a~42i~42m)を有している。各建物は一つのエレベータだけではなく、複数のエレベータを備えて構成されてもよい。各建物の複数の自動運転車両20Bの走行経路には、エレベータ42Bの他にセキュリティゲートを備えてもよい。各エレベータ42iは、エレベータ制御部44Bとゲートウェー45aと管理サーバ45Bとゲートウェー45bとネットワーク50Bを介してサーバ30Bと接続される。
 運行サーバ30Bは所謂ロボットマネジメントプラットホームを構成し、自動運転車両20Bの走行経路作成に必要なマップデータ31B等を登録する記憶部32Bと、記憶部32Bに対してマップデータ31の読み書きを行なうと共に、自動運転車両20Bの運行運理を行なう制御部33Bと、自動運転車両20Bの走行やエレベータの利用に関する分析を行う分析部34Bと、自動運転車両20Bの走行を管理する走行管理部35Bと、上述した遠隔監視部及び/又は遠隔操作部36と、連携部37と、を含む。ここで、マップデータ31Bは、複数の自動運転車両20Bの走行可能なエリアに関して、自動運転車両20Bの走行に必要な道路及び周辺環境に関するデータ、例えば道路の境界,信号機の位置等の情報と、複数の建造物41Bの各階の部屋、通路となる廊下、エレベータ、セキュリティゲートを含む三次元データである。
 運行サーバ30Bは、CPU、HDDやフラッシュメモリを用いたSSDを備えた不揮発性メモリを有する記憶部、揮発メモリであるDRAM、必要に応じてキーボード等の入力装置及び自動走行車両からの監視カメラの映像等を表示するディスプレイ等の出力装置を備えたコンピュータ、サーバ等から構成される。運行サーバ30Bは、クラウドサーバでもよい。運行サーバ30Bにおいて、運行サーバ用プログラムが記憶部32Bに格納されされており、運行サーバ用プログラムがCPUに展開されて実行されることにより、分析部34Bと、走行管理部36と、遠隔監視部及び/又は遠隔操作部38と、連携部37とを機能的に備える。
 連携部37は、複数の自動運転車両20Bと、各建物に配置される複数のエレベータ42Bと必要に応じてセキュリティゲート等とを通信接続する機能を有する。連携部37は、複数の自動運転車両20Bの製造会社に特有の通信方式に対応できるように、各種の通信プロトコルに対応している。通信方式としては、MQTT(MQ Telemetry Transport、これは機器同士の通信に使用されるプロトコルである)、PLC(Programmable Logic Controller)、OPC UA(OPCFoundationによるオープンソースの産業用インターフェイス)等が挙げられる。連携部37で使用するこれらの通信方式に対応するデータは、記憶部32Bの接続用データベース32aとして格納されている。
 連携部37は、さらに、接続用データベース32aに格納されているAPI(Application Program Interface)により各建物に配置される複数のエレベータ42Bとセキュリティゲート等との接続を行う。
 複数の自動運転車両20Bは、最初にネットワーク50Bを介して運行サーバ30Bに接続されると、運行サーバ30Bの制御部33Bは、連携部27を制御して各自動運転車両20Bが有する通信方式により通信が開始され、各自動運転車両20Bが有する識別番号(ID)が検出されることにより、各自動運転車両20Bの種別、所属会社等が認識される。制御部で認識された各自動運転車両20Bは、後述する走行管理部36で、その作業、作業時間等のタスクが管理される。分析部34Bは、自動運転車両の運行システム10Aと同様にエレベータ等の設備から取得するデータに加えて、複数の自動運転車両20Bから取得するデータを分析する機能と、自動運転車両の運行システム10Bの様々な利用状況や利用に関するシミュレーションする機能と、を有している。分析部34Bに用いる分析のためのデータは、記憶部32Bの分析用データベース32bに格納されている。複数の自動運転車両20Bと複数のエレベータ等の設備から取得するデータを元に、効率化や問題を可視化することができる。
 図9は、自動運転車両20のデータ分析を行う場合の表示画面70の一例を示す。自動運転車両20として、倉庫内の荷物の搬送をする搬送用の自動運転車両の稼働状況や基本指標をモニタリングし、集計分析することで作業の改善を促す。
 図9には、分析するデータとして、上段左にモード使用率、上段真中に稼働時間、上段右にバッテリー残量、下段左に総距離、下段真中にエラー回数、下段右にマーカーの検出が表示されている。モード使用率は、自動運転車両20の走行モードがニュートラル、駐車、ドライブ等の何れかのモードで走行しているかを%表示している。他のグラフの横軸は年月日であり、毎日の稼働に関するものである。稼働時間は、自動運転車両20が稼働した日の走行モードの割合を示すグラフである。バッテリー残量は、日毎の自動運転車両20のバッテリー残量を示す。総距離は、日毎の自動運転車両20の走行距離を示す。エラー回数は、日毎の自動運転車両20の運行に関して警告、エラー、障害物検出に遭遇する回数を示す。図は、障害物が検出されなかった例を示す。マーカーは、例えば、建物の床や壁面に貼って、自動運転車両20の方向指示をする。マーカーの検出は、日毎の自動運転車両20の運行に関して、方向指示用のマーカーの種類に関しての頻度を示す。マーカーの種類としては、直進、左折、右折、停止、Uターン等が挙げられる(特許文献2参照)。図9に例示した表示画面70のように、分析部34Bでは、自動運転車両の基本的な指標をモニタリングするために、グラフ表示、期間の指定、データを表示するためにコンマ区切りのテキストファイルであるCSV(Comma Separated Value)ファイルのダウンロードの機能等が実装されている。
 分析部34Bを利用することで、自動運転車両と自動運転車両と連携するエレベータやセキュリティドア等の設備の使用状況や基本指標をモニタリングし、集計分析することで各自動運転車両20iと各エレベータ41i等の設備の使用状況の改善を図ることが可能となる。また、製造会社の異なる各自動運転車両20iにも対応が可能となる。これにより、複数の自動運転車両20Bの走行する建物、建物の周囲の道路等に人流・物流を設定し、自動運転車両の適正な稼働区域や台数についての物理的なシミュレーションが可能となる。こようなシミュレーションにより、街の人流・物流のデジタル複製(デジタルツインと呼ばれている)や、コンピュータの中で構成された仮想空間(メタバースと呼ばれている)の作成が可能となる。
 走行管理部36は、複数の自動運転車両20Bに対して、自動運転車両の運行システム10Aと同様に自動運転車両20の走行経路作成機能を有していると共に、複数の自動運転車両20Bの管理機能と、複数の自動運転車両20Bのタスクの割り当てと運行予定作成に関するタスク管理機能と、エレベータ及び/又はセキュリティドア等の設備との連動設定の機能を有している。走行管理部36の走行経路作成機能は、複数の自動運転車両20Bについて、走行経路の生成、優先エリア、走行禁止エリア等の設定を行う。走行管理部36の管理機能は、複数の自動運転車両20Bの製造会社が異なる場合には、製造会社毎のグループで管理することができる。走行管理部36で用いる走行管理に関するデータは、記憶部32Bの走行管理用データベース32cに格納されている。走行管理部36によって、複数の自動運転車両20Bを、一括して管理することができる。自動運転車両の運行システム10Bの運行サーバ30Bでは、遠隔監視部及び/又は遠隔操作部38により、複数の自動運転車両20Bが遠隔監視及び/又は遠隔操作される。
 制御部33Bは監視の対象となる複数の自動運転車両20Bを走行管理部36に登録する。登録された複数の自動運転車両20Bは、遠隔監視部及び/又は遠隔操作部38により定期的に状態が監視される。各自動運転車両20の監視カメラ24による画像情報及び検出部66による検出情報は、必要に応じて状態送受信部66fにより、遠隔監視部及び/又は遠隔操作部38に送信される。例えば、各自動運転車両20iからの現在位置情報61aがネットワークを介して、制御部33Bから遠隔監視部及び/又は遠隔操作部38に送出される。遠隔監視部及び/又は遠隔操作部38で用いる遠隔監視及び/又は遠隔操作に関するデータは、記憶部32Bの遠隔監視及び/又は遠隔操作用データベース32dに格納されている。
 各自動運転車両20aの現在位置情報61aがマップ上に表示されることで、複数の自動運転車両20Bの現在位置情報61aが表示される。現在位置情報61aは、運行サーバ30Bのディスプレイに表示されてもよい。現在位置情報61aは連続的又は所定の時間間隔で、データが更新されてディスプレイに表示されてもよい。これにより、複数の自動運転車両20Bの現在位置情報61aが、リアルタイムでマップ上に表示される。
 図10は、遠隔監視部及び/又は遠隔操作部38におけるモニタリングの一例を示す。図10は、建物のモデルデータ画面70(Building Information modeling、BIMデータ)に、配送用の自動運転車両20Cと監視用の自動運転車両20Dとが、エレベータ41Bの設置されている建物の階71を三次元状に示す監視用画面(モニタリング画面)を示している。配送用の自動運転車両20C及び監視用の自動運転車両20Dの位置は、現在位置情報61aによりモデルデータ上に示されている。エレベータの登録情報及び製造会社に係る詳細情報と、配送用の自動運転車両20C及び監視用の自動運転車両20Dの詳細情報が表示されている。建造物40の各階の平面図は、CAD(Computer Aided Design)画面により、モデルデータ画面70と共に、あるいは、別のウィンドウに表示されてもよい。
 さらに、各自動運転車両20の目的地情報61bがディスプレイに表示されてもよい。また、各自動運転車両20の稼働状況として、配送用の自動運転車両を例として説明すれば、「配送中」、「配送済」、「待機中」の稼働状況を表示してもよい。運行サーバ30の管理者が監視の結果、各自動運転車両20からの監視カメラの映像に異常その他が発見された場合には、管理者が、遠隔監視部及び/又は遠隔操作部38から遠隔操作をして、各自動運転車両20を停止したり、各自動運転車両20の第一の音声出力部25から、周囲に「緊急停止をします」等のアナウンスをしてもよい。また、バッテリーが低下した時に定期的なメンテナンスが必要であると判断された場合には、管理者が、遠隔監視部及び/又は遠隔操作部38から遠隔操作をして、各自動運転車両20を停止してもよい。その後で、管理者が各自動運転車両20保守担当者その他所定の担当者に連絡してもよい。
 各自動運転車両20が建造物40Bのエレベータ41Bに接近したとき、運行サーバ30Bが当該建造物40iのエレベータ制御部44Bを制御することによって、各自動運転車両20iが各建造物40iのエレベータ41iを円滑に利用することができる。この場合、建造物40に複数のエレベータ41Bが設置されている場合には、走行管理部36は、運行サーバ30と同様に、マップデータ31Bに基づいて走行経路61c’を作成することができる。その際、走行経路61c’に建造物40の複数のエレベータ41Bが含まれる場合には、走行管理部36は、複数のエレベータ41Bの使用状況をエレベータ制御部44Bに問い合わせる。エレベータ制御部44Bからエレベータ41Bの利用状況を受信した走行管理部36は、空いているエレベータを指定する走行経路61c’を作成し、ネットワーク50Bを介して、各自動運転車両20iに送信する。これを受け、各自動運転車両20iのCPU61はエレベータ利用情報61d’及びエレベータ制御情報61e’を作成して、無線ネットワーク50Bを介して運行サーバ30Bに送信する。エレベータ利用情報61d’は、各建造物40iのエレベータ41iに関して乗車階及び降車階を含む情報であり、エレベータ制御情報61e’はエレベータかご43Bの呼び出し及び乗車後の降車階の指定を含む情報である。エレベータ利用情報61d’には、エレベータかご43内の例えば天井部にカメラ43cで取得した画像情報が含まれてもよい。
 エレベータ制御部44Bから送出されるエレベータ利用情報61jは、分析部34Bに送出されてもよい。分析部34Bは当該エレベータ利用情報61jを分析して、空いているエレベータをリアルタイムで走行管理部36に送出し得る。これを受けて、走行管理部36は、例えば建物の同じ階に6基又は8基のような複数のエレベータ41Bが設置されている場合であっても、各自動運転車両20に常に空いている最適なエレベータ41Bを含む走行経路61c’を作成することができる。
 各自動運転車両20iの走行経路61c’、エレベータ利用情報61d’及びエレベータ制御情報61e’は、走行管理部36から遠隔監視部及び/又は遠隔操作部38にも送信され、各自動運転車両20の位置情報とエレベータ利用情報61d’とが、図10で説明した監視画面に表示される。
 走行管理部36のエレベータ管理によれば、乗客が乗っていない、又は最も乗客が少ないエレベータを選ぶことにより乗客に自動運転車両20と同乗することに対しての心理的負担を軽減することができる。エレベータかご43の内部は、センサー、例えばカメラ43c又はカメラやLiDARを用いたエレベータ分析センサにより検知される。エレベータかご43に自動運転車両20のスペースが空いていても、よりスペースに余裕があるエレベータ20を選ぶことにより、乗客の窮屈さの感覚を軽減できる。大きなエレベータかご43では、その中央から左右に自動運転車両20が乗り込めるようにしてもよい。さらに、空きスペースがある場合には、別の自動運転車両20を搭載してもよい。
 走行管理部36は、エレベータ制御部44Bと連携して、朝の出勤時間、昼食時間、夕方の帰宅時間等のエレベータのラッシュアワー時等は、特定の一基又は二基を自動運転車両20の専用に設定してもよい。また、あまりエレベータ41Bを使用しない時間帯は、複数の自動運転車両20B専用のエレベータの台数を増加して複数の自動運転車両20Bの稼働率を上げることも可能である。
 本発明による自動運転車両の運行システム10は、建造物40全体を制御する管理サーバ45を備えており、管理サーバ45が、運行サーバ30Aにより制御されることで、エレベータ利用情報61d及びエレベータ制御情報61eに基づいてエレベータ制御部44を制御してもよい。この構成によれば、自動運転車両20が建造物40内に進入したとき、管理サーバ45が当該自動運転車両20を認識すると共に、自動運転車両20の制御部61から直接に又は運行サーバ30Aを介して受け取ったエレベータ利用情報61d及びエレベータ制御情報61eに基づいて、エレベータかご43内の第二の音声出力部43aから当該自動運転車両20のエレベータ利用に関するアナウンスを音声出力することができる。
 本発明による自動運転車両の運行システム10においては、専ら自動運転車両20がスピーカ25(第一の音声出力部)を備える場合について説明したが、スピーカを備えない自動運転車両20にも適用できる。自動運転車両が掃除ロボットや搬送ロボットのように音声出力部を有していない場合には、自動運転車両の制御部20は、走行経路が建造物40のエレベータ41を含む場合に、エレベータ利用情報61d及びエレベータ制御情報61eを無線ネットワーク50を介してエレベータ制御部44に送信し、エレベータ制御部44が、エレベータ利用情報61dに基づいてエレベータかご43内に備えられた音声出力部43aから当該自動運転車両のエレベータ利用に関するアナウンスを音声出力してもよい。エレベータ利用に関するアナウンスの替わりに、エレベータかご43内の第二の映像出力部43bから、エレベータ利用情報61dに基づいて当該自動運転車両のエレベータ41の利用に関する映像を出力してもよい。また、この映像出力と共に、音声出力部43aからアナウンスを音声出力してもよい。
 本発明による自動運転車両の運行システム10,10A,10Bは、自動運転車両20が専ら配送用の自動運転車両として説明したが、清掃,消毒,監視等の作業用車両や、ユーザーを搬送する乗用車両を相互に乗り入れさせるようにしてもよい。自動運転車両20が、交通機関の駅や空港等においてユーザーを搬送する乗用車両である場合には、ユーザーが自動運転車両20を利用するためのタッチパネルの機能を備えた表示装置や、ユーザーの認証をするためにQRコード(登録商標)を読み取るカメラ、スキャナ、近距離無線NFC(Near Field Communication)の送受信部等を備えていてもよい。
 10,10A…運行システム; 20…自動運転車両; 21…本体部; 22…車輪; 23…表示部; 23a,23b…開口部; 24…監視カメラ; 25…スピーカ(第一の音声出力部); 26…収容部; 27…ライト; 28…方向指示器; 29…制御部; 30,30A…サーバ(運行サーバ); 31,31B…マップデータ; 32,32B…記憶部; 32a…接続用データベース; 32b…分析用データベース; 32c…走行管理用データベース; 32d…遠隔監視及び/又は遠隔操作用データベース; 33,33A,33B…制御部; 34,34B…分析部; 35…走行経路作成部; 36…走行管理部; 37…連携部; 38…遠隔監視部及び/又は遠隔操作部; 40,40B…建造物; 41,41B…エレベータ; 41a…スピーカ(第三の音声出力部); 42…移動路; 43,43B…エレベータかご; 43a…スピーカ(第二の音声出力部); 43b…ディスプレイ(第二の映像出力部); 43c…カメラ(エレベータ分析センサ); 43e…乗員情報; 44,44B…エレベータ制御部; 45,45B…管理サーバ; 45a,45b…ゲートウェー; 46,46B…エレベータホール; 46a…エレベータの扉; 46b…エレベータの移動を示す表示部; 46c…押しボタン; 46e…ディスプレイ(第三の映像出力部); 50…無線ネットワーク; 61…CPU; 61a…現在位置情報; 61b…目的地情報; 61c,61c’…走行経路; 61d,61d’…エレベータ利用情報; 61e,61e’…エレベータ制御情報; 61f…エレベータ利用統計情報; 61g…在宅確率情報; 61h…走行経路データ; 62…バッテリ; 63…ディスプレイ; 64…記憶部; 65…駆動部; 65a…モータ; 65b…ドライバ; 66…検出部; 66a…姿勢検出センサ; 66b…監視センサ; 66c…距離センサ; 66d…位置センサ; 66e…バンパーセンサ; 66f…状態送受信部; 70…表示画面; 75…モデルデータ画面; 76…建物の階

 

Claims (14)

  1.  道路,周辺環境及びエレベータを備えた建造物に関する三次元のマップデータを登録した記憶部を備える自動運転車両の運行サーバと、前記運行サーバに無線ネットワークを介して接続される自動運転車両と、を利用して、前記運行サーバから受信したマップデータに基づいて前記自動運転車両が現在地から目的地まで所定の走行経路に沿って自動運転を行なう自動運転車両の運行システムであって、
     前記自動運転車両が、走行部,駆動部及び制御部と、撮像部,姿勢検出センサ及び位置センサから成る検出部と、前記無線ネットワークに接続される送受信部と、を備え、
     自動運転車両の前記制御部が、前記検出部からの検出信号に基づいて現在位置と周囲環境を認識すると共に、現在位置から目的地までの移動に係るエリアのマップデータを前記サーバから受信して現在位置から目的地までの走行経路を作成し該走行経路に基づいて駆動部を制御して走行部を駆動するように構成され、
     当該走行経路により前記自動運転車両が建造物のエレベータを利用する場合には、前記制御部は、当該エレベータの乗車階及び降車階を含むエレベータ利用情報と、乗車階での当該エレベータかごの呼び出し及び降車階の指定を含むエレベータ制御情報を作成し、
     前記建造物のエレベータが、前記無線ネットワークを介して前記運行サーバに接続され、自動運転車両からのエレベータ利用情報及びエレベータ制御情報に基づいて前記エレベータかごの昇降を制御するエレベータ制御部を備えていて、
     自動運転車両の前記制御部は、前記エレベータ利用情報及びエレベータ制御情報を前記無線ネットワークを介して前記エレベータ制御部に送信し、
     前記エレベータ制御部が、前記エレベータ利用情報に基づいてエレベータかご内に備えられた音声出力部から当該自動運転車両のエレベータ利用に関するアナウンスを音声出力する、自動運転車両の運行システム。
  2.  前記自動運転車両が、音声出力部を備え、
     前記自動運転車両の前記制御部は、前記走行経路に沿った移動に応じて該走行経路における当該自動運転車両の走行を報知するためのアナウンスを前記自動運転車両の音声出力部から音声出力すると共に、前記エレベータ利用情報に基づいてエレベータ利用に関するアナウンスを前記自動運転車両の音声出力部から音声出力する、請求項1に記載の自動運転車両の運行システム。
  3.  前記運行サーバが、自動運転車両の現在位置及び走行経路から自動運転車両同士または自動運転車両と周辺環境等との相互位置に基づいて自動運転車両の運行を遠隔監視及び/又は遠隔操作し、前記エレベータ制御部は前記運行サーバにより制御される、請求項1に記載の自動運転車両の運行システム。
  4.  前記建造物が、当該建造物全体を制御する管理サーバを備えており、
     前記管理サーバが、前記サーバにより制御されることにより前記エレベータ利用情報及びエレベータ制御情報に基づいて前記エレベータ制御部を制御する、請求項1に記載の自動運転車両の運行システム。
  5.  前記エレベータ制御部が、前記エレベータ利用情報に基づいて当該自動運転車両のエレベータ乗車前から降車までの間に、前記エレベータかご内に備えられた音声出力部から前記乗車階から降車階までの前記自動運転車両乗車の旨のアナウンスを音声出力する、請求項1に記載の自動運転車両の運行システム。
  6.  前記エレベータ制御部が、当該エレベータの各階のエレベータホールにそれぞれ音声出力部を備えており、前記エレベータ制御部は、前記エレベータ利用情報に基づいて前記乗車階または降車階に設けられた前記エレベータホールの音声出力部から当該自動運転車両のエレータ利用に関するアナウンスを音声出力する、請求項1に記載の自動運転車両の運行システム。
  7.  前記エレベータかごがディスプレイを備え、前記エレベータ制御部が、前記エレベータ利用情報に基づいて前記ディスプレイから当該自動運転車両のエレベータ利用に関する映像を表示する、請求項1に記載の自動運転車両の運行システム。
  8.  前記エレベータかごが、エレベータ分析センサを備えており、
     前記エレベータ分析センサで取得された前記エレベータかごの乗員情報が、前記エレベータ制御部と前記運行サーバを介して前記自動運転車両の制御部に送出され、前記乗員情報に基づいて前記エレベータ利用情報及び前記エレベータ制御情報が作成される、請求項1に記載の自動運転車両の運行システム。
  9.  前記エレベータ分析センサは、測長ができるカメラ又はライダーと、前記カメラ又はライダーで取得した映像信号を処理するコンピュータと、記憶装置とを含み、前記映像信号に基づいて取得した前記エレベータかご内の利用者に関する乗員情報を、前記エレベータ制御部及び前記運行サーバへ出力する、請求項8に記載の自動運転車両の運行システム。
  10.  前記エレベータホール近傍には、ディスプレイが備えられ、
     前記運行サーバ及び/又はエレベータ制御部が、前記エレベータ利用情報に基づいて前記乗車階または降車階に設けられた前記エレベータホールの音声出力部と共に、前記ディスプレイに当該自動運転車両のエレベータ利用に関する映像を出力する、請求項6に記載の自動運転車両の運行システム。
  11.  前記自動運転車両が、老人,傷病人,身体障害者等のユーザーを搬送する乗用車両、清掃,消毒,監視等を行う各種作業用車両、或いは、飲食物や商品などの各種物品を配送する自動配送車両である、請請求項1に記載の自動運転車両の運行システム。
  12.  前記運行サーバが、前記エレベータ制御部から送出されるエレベータ利用統計情報を分析する分析部と、該エレベータ利用統計情報を分析して取得する在宅確率情報に基づいて前記自動運転車両の走行経路を作成する走行経路作成部とを備える、請求項1に記載の自動運転車両の運行システム。
  13.  前記エレベータかごが、エレベータ分析センサを備えており、前記分析部は、前記エレベータ制御部から送出されるエレベータ利用統計情報及び/又は前記エレベータ分析センサから出力される乗員情報に基づいて前記自動運転車両の走行経路を作成する、請求項12に記載の自動運転車両の運行システム。
  14.  前記運行サーバが、さらに、複数の前記自動運転車両を制御する制御部と、前記複数の自動運転車両及び複数の前記エレベータを通信接続する連携部と、分析部と、前記複数の自動運転車両の走行を管理する走行管理部と、前記複数の自動運転車両を遠隔監視及び/又は遠隔操作をする遠隔監視部及び/又は遠隔操作部と、前記記憶部に格納される接続用データベースと分析用データベースと走行管理用データベースと遠隔監視及び/又は遠隔操作用データベースと、
    を備え、
     前記制御部は、
     前記複数の自動運転車両及び複数の前記エレベータを前記連携部により接続し、
     前記複数の自動運転車両の予定に応じて前記走行管理部により前記複数のエレベータに関するエレベータ利用情報を作成し、
     前記複数の自動運転車両及び複数の前記エレベータの稼働状況を前記遠隔監視部及び/又は遠隔操作部により遠隔監視及び/又は遠隔操作する、請求項1に記載の自動運転車両の運行システム。
PCT/JP2022/040566 2021-11-10 2022-10-28 自動運転車両の運行システム WO2023085136A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020237042803A KR20240006670A (ko) 2021-11-10 2022-10-28 자동 운전 차량의 운행 시스템
CN202280041377.4A CN117501202A (zh) 2021-11-10 2022-10-28 自动驾驶车辆的运行系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021183758 2021-11-10
JP2021-183758 2021-11-10

Publications (1)

Publication Number Publication Date
WO2023085136A1 true WO2023085136A1 (ja) 2023-05-19

Family

ID=86335704

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/040566 WO2023085136A1 (ja) 2021-11-10 2022-10-28 自動運転車両の運行システム

Country Status (3)

Country Link
KR (1) KR20240006670A (ja)
CN (1) CN117501202A (ja)
WO (1) WO2023085136A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006089262A (ja) * 2004-09-27 2006-04-06 Matsushita Electric Works Ltd 自律移動ロボット用のエレベータ乗降システム
JP2009001425A (ja) * 2007-05-21 2009-01-08 Panasonic Corp 自動搬送方法、搬送ロボット、及び自動搬送システム
JP2012017184A (ja) * 2010-07-08 2012-01-26 Hitachi Ltd 自律移動装置同乗エレベータシステム
WO2018066054A1 (ja) * 2016-10-04 2018-04-12 三菱電機株式会社 エレベーター制御装置および自律移動体制御装置
WO2020217739A1 (ja) * 2019-04-20 2020-10-29 株式会社Zmp 自動運転車両による利用者搬送システム
JP2021064233A (ja) * 2019-10-16 2021-04-22 トヨタ自動車株式会社 物品搬送ロボット、物品搬送システム、ロボット管理装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7006889B2 (ja) 2018-07-13 2022-01-24 株式会社Zmp 移動車両の走行システム
CN113272752B (zh) 2019-01-12 2023-11-17 株式会社Zmp 自主行驶车辆、配送系统以及程序

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006089262A (ja) * 2004-09-27 2006-04-06 Matsushita Electric Works Ltd 自律移動ロボット用のエレベータ乗降システム
JP2009001425A (ja) * 2007-05-21 2009-01-08 Panasonic Corp 自動搬送方法、搬送ロボット、及び自動搬送システム
JP2012017184A (ja) * 2010-07-08 2012-01-26 Hitachi Ltd 自律移動装置同乗エレベータシステム
WO2018066054A1 (ja) * 2016-10-04 2018-04-12 三菱電機株式会社 エレベーター制御装置および自律移動体制御装置
WO2020217739A1 (ja) * 2019-04-20 2020-10-29 株式会社Zmp 自動運転車両による利用者搬送システム
JP2021064233A (ja) * 2019-10-16 2021-04-22 トヨタ自動車株式会社 物品搬送ロボット、物品搬送システム、ロボット管理装置

Also Published As

Publication number Publication date
CN117501202A (zh) 2024-02-02
KR20240006670A (ko) 2024-01-15

Similar Documents

Publication Publication Date Title
US11796998B2 (en) Autonomous vehicle fleet service and system
US11283877B2 (en) Software application and logic to modify configuration of an autonomous vehicle
US11106218B2 (en) Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes
US20200004241A1 (en) Teleoperation system and method for trajectory modification of autonomous vehicles
CN108475406B (zh) 用于请求和控制自主车辆服务的软件应用
JP7439816B2 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US10248119B2 (en) Interactive autonomous vehicle command controller
US10334050B2 (en) Software application and logic to modify configuration of an autonomous vehicle
US9754490B2 (en) Software application to request and control an autonomous vehicle service
US9910441B2 (en) Adaptive autonomous vehicle planner logic
CA2864027C (en) Robotic ordering and delivery apparatuses, systems and methods
EP4180893A1 (en) Teleoperation system and method for trajectory modification of autonomous vehicles
WO1998032108A1 (fr) Machine pour l'intelligence artificielle et systeme concernant une machine pour l'intelligence artificielle
KR102558767B1 (ko) 로봇 친화형 건물
JP7117743B2 (ja) 自動運転車両による利用者搬送システム
WO2023085136A1 (ja) 自動運転車両の運行システム
CN115547091A (zh) 合乘车辆以及运行管理系统
JP7358680B2 (ja) 車両制御方法、制御装置、車両制御システムおよびプログラム
JP7481572B2 (ja) 車両制御方法、車両制御装置およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22892635

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023559562

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18558678

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202280041377.4

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 20237042803

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 1020237042803

Country of ref document: KR