WO2022091907A1 - 無人配送システム及び無人配送方法 - Google Patents

無人配送システム及び無人配送方法 Download PDF

Info

Publication number
WO2022091907A1
WO2022091907A1 PCT/JP2021/038760 JP2021038760W WO2022091907A1 WO 2022091907 A1 WO2022091907 A1 WO 2022091907A1 JP 2021038760 W JP2021038760 W JP 2021038760W WO 2022091907 A1 WO2022091907 A1 WO 2022091907A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
self
operator
propelled
delivery system
Prior art date
Application number
PCT/JP2021/038760
Other languages
English (en)
French (fr)
Inventor
康彦 橋本
Original Assignee
川崎重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 川崎重工業株式会社 filed Critical 川崎重工業株式会社
Priority to EP21886026.0A priority Critical patent/EP4238914A1/en
Priority to KR1020237014893A priority patent/KR20230079423A/ko
Priority to US18/034,093 priority patent/US20230405830A1/en
Priority to CN202180073800.4A priority patent/CN116507569A/zh
Publication of WO2022091907A1 publication Critical patent/WO2022091907A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • B25J13/065Control stands, e.g. consoles, switchboards comprising joy-sticks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/17Helicopters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/20Vertical take-off and landing [VTOL] aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/60UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/60UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
    • B64U2101/64UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons for parcel delivery or retrieval
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/60UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
    • B64U2101/67UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons the UAVs comprising tethers for lowering the goods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00896Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys specially adapted for particular uses

Definitions

  • the present invention relates to an unmanned delivery system and an unmanned delivery method.
  • a delivery system using a drone is known.
  • a vehicle transports a package to the vicinity of a destination, and the package is transported from there to the destination by a drone.
  • the package is finally delivered to the destination by an unmanned flying object, so it is difficult to smoothly deliver the package to the recipient as compared with the current delivery system by the vehicle and its driver.
  • This disclosure is made to solve the above-mentioned problems, and aims to provide a delivery system and a delivery method capable of smoothly delivering a package to a recipient.
  • the unmanned delivery system remotely controls a self-propelled robot, an unmanned aerial vehicle for transporting the baggage to a point in the middle of delivering the baggage, and the self-propelled robot.
  • the self-propelled robot is provided with a robot operator for performing the robot operation, and the self-propelled robot delivers the baggage unloaded at the intermediate point to the destination while switching between autonomous operation and remote operation according to the operation of the robot operator. It is equipped with a robot controller configured to control the self-propelled robot so that it can be delivered.
  • the unmanned delivery system remotely controls the self-propelled robot, the unmanned aircraft for transporting the luggage and the self-propelled robot to a point in the middle of delivering the luggage, and the self-propelled robot.
  • the self-propelled robot is provided with a robot operator for performing the robot operation, and the self-propelled robot delivers the baggage unloaded at the intermediate point to the destination while switching between autonomous operation and remote operation according to the operation of the robot operator. It is equipped with a robot controller configured to control the self-propelled robot so that it can be delivered.
  • the unmanned aerial vehicle transports the parcel to a point in the middle of delivering the parcel, and the robot operator remotely controls the self-propelled robot and the self-propelled robot.
  • the robot delivers the package unloaded at the intermediate point to the destination while switching between autonomous operation and remote control according to the operation of the robot operator.
  • the unmanned aerial vehicle transports the luggage and the self-propelled robot to a point in the middle of delivering the luggage, and the robot operator remotely controls the self-propelled robot.
  • the self-propelled robot delivers the baggage unloaded at the intermediate point to the delivery destination while switching between autonomous operation and remote operation according to the operation of the robot operator.
  • This disclosure has the effect of being able to provide a delivery system and delivery method that enables smooth delivery of packages to recipients.
  • FIG. 1 is a schematic diagram showing an example of a schematic configuration of an unmanned delivery system according to the first embodiment of the present disclosure.
  • FIG. 2 is a perspective view showing an example of a detailed configuration of the operation unit of FIG.
  • FIG. 3 is a side view showing an example of the configuration of the self-propelled robot of FIG.
  • FIG. 4 is a functional block diagram showing an example of the configuration of the control system of the unmanned delivery system of FIG.
  • FIG. 5 is a schematic diagram showing an example of delivery data stored in the storage unit of the robot controller.
  • FIG. 6 is a flowchart showing an example of the contents of autonomous operation / remote operation switching control.
  • FIG. 7 is a flowchart showing an example of the operation of the unmanned delivery system of FIG. FIG.
  • FIG. 8A is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8B is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8C is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8D is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8E is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8F is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8G is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG.
  • FIG. 8H is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8I is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8J is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8K is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8L is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 9A is a side view showing an example of the configuration of a self-propelled robot used in the unmanned delivery system according to the second embodiment of the present disclosure.
  • FIG. 9B is a plan view showing an example of the configuration of a self-propelled robot used in the unmanned delivery system according to the second embodiment of the present disclosure.
  • FIG. 1 is a schematic diagram showing an example of a schematic configuration of the unmanned delivery system 100 according to the first embodiment of the present disclosure.
  • the unmanned delivery system 100 of the first embodiment includes an unmanned aerial vehicle 1, a self-propelled robot 2, and an operation unit 3.
  • the unmanned aerial vehicle will be referred to as a drone.
  • the unmanned delivery system 100 transports the package by the drone 1 to a point in the middle of the delivery route from the collection / delivery base 5 to the delivery destination 4, and the self-driving robot 2 autonomously operates the package and follows the operation of the robot operator. It is configured to deliver the package unloaded at the point on the way to the delivery destination 4 while switching between driving and driving.
  • the "self-propelled robot” may be simply referred to as a "robot”.
  • a point in the middle of the delivery route means a point in the middle of delivering the package.
  • the drone 1 may be any as long as it can transport the cargo to be delivered and the self-propelled robot 2.
  • An airplane and a helicopter are exemplified as the drone 1.
  • Airplanes include VTOL aircraft (Vertical Take-Off and Landing aircraft) as well as those that take off and land by normal gliding.
  • the drone 1 is composed of a VTOL machine here.
  • the drone 1 has a hangar 16 shown in FIG. 8C formed inside.
  • a storage shelf 17 is arranged in the hangar 16 so as to surround the central space.
  • the hangar 16 is configured such that the self-propelled robot 2 is stored in the central space and the self-propelled robot 2 can carry out the work of loading and unloading the luggage to and from the loading rack 17.
  • the side wall of the rear part of the drone 1 is provided with a carry-in / out door 13 that rotates in the front-rear direction with the lower end as a fulcrum to open and close.
  • the inner surface of the carry-in / out door 13 is formed flat, and when the carry-in / out door 13 opens and the tip of the door 13 lands, it becomes a carry-in / carry-out route for luggage G and the like.
  • the drone 1 is provided with an elevating device 11.
  • the elevating device 11 is composed of a winch here. Hereinafter, it is referred to as a winch 11.
  • a drone controller 101 is arranged in the drone 1.
  • the drone controller 101 includes a processor Pr3 and a memory Me3.
  • FIG. 2 is a perspective view showing an example of a detailed configuration of the operation unit 3 of FIG.
  • FIG. 3 is a side view showing an example of the configuration of the self-propelled robot 2 of FIG.
  • the operation unit 3 is arranged in the operation room 39.
  • the location of the operation unit 3 is not particularly limited.
  • the operation unit 3 operates the robot operator 31 that operates the self-propelled robot 2, the drone operator 32 that operates the drone 1, the operator display 33, the operator microphone 34, and the operator speaker 35. It is equipped with a speaker camera 36.
  • the robot operator 31 includes a traveling unit operator 31A for operating the traveling unit 21 of the self-propelled robot 2 and an arm operating device 31B for operating the robot arm 22 of the self-propelled robot 2.
  • the traveling unit 21 may be a dolly.
  • the arm operation device 31B is provided with an operation unit for operating the display robot arm 27 that supports the customer display device 23.
  • the robot operating device 31 may be composed of various operating devices. Here, for example, it is composed of a joystick.
  • the robot controller 31 is arranged on the desk 37.
  • the drone controller 32 is composed of, for example, various control sticks for operating an aircraft.
  • the drone controller 32 is composed of a joystick-shaped control stick.
  • the drone operator 32 is provided with various operation units for operating the drone 1.
  • the drone controller 32 is arranged on the desk 37.
  • the operator display 33 is composed of, for example, a liquid crystal display.
  • the operator display 33 displays an image including information necessary to be presented to the operator P1.
  • Such images include an image captured by the field-of-view camera 26 of the self-propelled robot 2, a field-of-view image captured by the field-of-view camera (not shown) of the drone 1, the position, speed, and the position and speed required to steer the drone 1.
  • Information such as the amount of fuel, navigation images, etc. are exemplified.
  • the operator display 33 is arranged on the desk 37.
  • the operator speaker 35 provides voice information necessary for the operator P1.
  • the operator speaker 35 is configured here with headphones, but may be configured in other forms.
  • the operator microphone 34 acquires the voice of the operator P1. Although the operator microphone 34 is provided in the headphone 35 here, it may be configured in another form.
  • the operator camera 36 captures the operator P1.
  • the operator camera 36 is provided here on the operator display 33, but may be provided at another location.
  • An operation unit controller 301 is arranged on the desk 37.
  • the operation unit controller 301 includes a processor Pr1 and a memory Me1.
  • the operator P1 when the drone 1 is flying, the operator P1 operates the drone controller 32 with his right hand to operate the drone 1, and when the self-propelled robot 2 is operating, the operator P1 uses his left and right hands to operate the traveling unit controller 31A, respectively. And the arm controller 31B is operated to operate the self-propelled robot 2.
  • the operator P1 is, for example, a courier company.
  • the courier company may be, for example, a courier person in charge.
  • the operator P1 may not be a delivery person but a dedicated operator.
  • the robot 2 which is an example of a self-propelled robot may be a robot capable of autonomously traveling and handling luggage.
  • the robot 2 includes a traveling unit 21 capable of autonomous traveling and a robot arm 22 provided on the traveling unit 21.
  • the traveling unit 21 may be, for example, a dolly.
  • the component that handles the luggage does not necessarily have to be a robot arm.
  • the left direction and the right direction in the drawing are the front direction and the rear direction in the traveling direction, respectively.
  • FIG. 3 shows the robot 2 in a simplified form.
  • the robot arm 22 of the robot 2 is configured in the same manner as the dual-arm robot arm 22 of the robot 2A of the second embodiment, as shown in FIGS. 9A and 9B. That is, the robot arm 22 of the robot 2 is a double-armed vertical articulated robot arm.
  • the robot arm 22 of the robot 2A of the second embodiment is a 4-axis vertical articulated robot arm
  • the robot arm 22 of the robot 2 of FIG. 3 is a 5-axis vertical articulated robot arm. .. Referring to FIGS.
  • the tips of the pair of robot arms 22 are each provided with a grip portion 221 which is a wrist portion having three claws 222, and the pair of robot arms 22 is a pair of these.
  • the luggage G is gripped by the grip portion 221.
  • the traveling portion of the robot 2 is actually provided with a rectangular parallelepiped vehicle body frame, and the luggage storage portion 212 is provided on the vehicle body frame so as to be movable in the front-rear direction.
  • the body frame is covered with an appropriate case, and the front surface of the case is provided with an opening for the luggage storage portion 212 to enter and exit.
  • the luggage accommodating portion 212 is formed in a rectangular box shape with an open upper surface, and is located at a retracted position where the front end surface is flush with the case when loading and unloading non-loading, and is designated on the front side when loading and unloading luggage.
  • the portion is configured to be located in a forward position protruding forward.
  • a pair of front wheels 211 and 211 and a pair of rear wheels 211 and 211 are provided on the bottom of the traveling portion 21.
  • one of the pair of front wheels 211, 211 and the pair of rear wheels 211, 211 is the steering wheel, and for example, any one of the pair of front wheels 211, 211 and the pair of rear wheels 211, 211 is the drive wheel.
  • a storage battery 28 and a motor are mounted on the traveling unit 21, and the motor drives the drive wheels using the storage battery 28 as a power source.
  • the above-mentioned luggage accommodating portion 212 is also slid back and forth by a predetermined drive mechanism.
  • a display robot arm 27 is provided behind the robot arm 22 of the traveling unit 21.
  • a customer display 23 is attached to the tip of the display robot arm 27.
  • a customer microphone 24, a customer speaker 25, and a field-of-view camera 26 are provided at appropriate positions on the customer display 23.
  • the display robot arm 27 is composed of, for example, a vertical articulated robot arm and can take any posture, and is a customer display 23, a customer microphone 24, a customer speaker 25, and a visibility camera. It is possible to point 26 in any direction.
  • the customer display 23 is composed of, for example, a liquid crystal display. As shown in FIG. 8F, the customer display 23 displays an image containing information that needs to be presented to the recipient P2. As such an image, an image taken by the operator camera 36 and the like are exemplified.
  • the customer speaker 25 provides the voice information necessary for the recipient P2.
  • the voice information the voice of the operator P1 acquired by the operator microphone 34 is exemplified.
  • the operator microphone 34 acquires the voice of the operator P1. Although the operator microphone 34 is provided in the headphone 35 here, it may be configured in another form.
  • the operator camera 36 captures the operator P1.
  • the operator camera 36 is provided here on the operator display 33, but may be provided at another location.
  • the traveling unit 21 is provided with a robot controller 201.
  • the robot controller 201 includes a processor Pr2 and a memory Me2.
  • the robot 2 configured in this way is controlled by the robot controller 201 to be autonomously operated or remotely controlled, the luggage G is handled by the robot arm 22, and the robot 2 can be moved in a desired direction by the traveling unit 21. can.
  • FIG. 4 is a functional block diagram showing an example of the configuration of the control system of the unmanned delivery system 100 of FIG.
  • the unmanned delivery system 100 includes an operation unit controller 301, a robot controller 201, and a drone controller 101.
  • the operation unit controller 301 includes a robot operation signal generation unit 302, a drone operation signal generation unit 303, a display control unit 304, a microphone IF 305, a headphone IF 306, an operation unit communication unit 307, and a camera control unit 308.
  • the operation unit communication unit 307 is composed of a communication device capable of data communication.
  • the operation unit controller 301 is a robot operation signal generation unit 302, a drone operation signal generation unit 303, a display control unit 304, a microphone IF305, a headphone IF306, and a camera control unit 308 is an arithmetic unit having a processor Pr1 and a memory Me1. It is composed. These are functional blocks realized by the processor Pr1 executing the control program stored in the memory Me1 in this arithmetic unit.
  • this arithmetic unit is composed of, for example, a microcontroller, an MPU, an FPGA (Field Programmable Gate Array), a PLC (Programmable Logic Controller), or the like. These may be composed of a single arithmetic unit that performs centralized control, or may be configured by a plurality of arithmetic units that perform distributed control.
  • the robot operation signal generation unit 62 generates a robot operation signal in response to the operation of the robot operator 31.
  • the drone operation signal generation unit 303 generates a drone operation signal in response to the operation of the drone operation device 32.
  • the display control unit 304 causes the operator display 33 to display an image corresponding to the image signal transmitted from the operation unit communication unit 307.
  • the microphone IF 305 converts the voice acquired by the operator microphone 34 into an appropriate voice signal.
  • the headphone IF 306 causes the operator speaker to emit voice in response to the voice signal transmitted from the operation unit communication unit 307.
  • the camera control unit 308 generates an image signal of the image captured by the operator camera 36.
  • the operation unit communication unit 307 includes a robot operation signal transmitted from the robot operation signal generation unit 302, a drone operation signal transmitted from the drone operation signal generation unit 303, an audio signal transmitted from the microphone IF 305, and a camera control unit 308.
  • the transmitted image signal is converted into a wireless communication signal and transmitted wirelessly.
  • the operation unit communication unit 307 receives the wireless communication signal transmitted from the robot communication unit 202, converts it into an image signal or an audio signal, transmits the image signal to the display control unit 304, and transmits the audio signal to the microphone IF305. Send. Further, the operation unit communication unit 307 receives the wireless communication signal transmitted from the drone communication unit 102, converts it into an information signal, and transmits this to the display control unit 304.
  • the robot controller 201 includes a robot communication unit 202, a robot control unit 203, and a storage unit 204.
  • the robot communication unit 202 is composed of a communication device capable of data communication.
  • the robot control unit 203 and the storage unit 204 are composed of an arithmetic unit having a processor Pr2 and a memory Me2.
  • the robot control unit 203 and the storage unit 204 are functional blocks realized by the processor Pr2 executing the control program stored in the memory Me2 in this arithmetic unit.
  • this arithmetic unit is composed of, for example, a microcontroller, an MPU, an FPGA (Field Programmable Gate Array), a PLC (Programmable Logic Controller), or the like. These may be composed of a single arithmetic unit that performs centralized control, or may be configured by a plurality of arithmetic units that perform distributed control.
  • the robot communication unit 202 receives the wireless communication signal transmitted from the operation unit communication unit 307, converts it into a robot operation signal, an image signal, or a voice signal, and transmits these signals to the robot control unit 203.
  • the robot control unit 203 controls the operation of the robot 2 according to the robot operation signal, displays the image corresponding to the image signal on the customer display 23, and emits the voice corresponding to the voice signal to the customer speaker. Let me.
  • the drone controller 101 includes a drone communication unit 102 and a drone control unit 103.
  • the drone communication unit 102 is composed of a communication device capable of data communication.
  • the drone control unit 103 includes a processor Pr3, a memory, and an arithmetic unit having Me3.
  • the drone control unit 103 is a functional block realized by the processor Pr3 executing a control program stored in the memory Me3 in this arithmetic unit.
  • this arithmetic unit is composed of, for example, a microcontroller, an MPU, an FPGA (Field Programmable Gate Array), a PLC (Programmable Logic Controller), or the like. These may be composed of a single arithmetic unit that performs centralized control, or may be configured by a plurality of arithmetic units that perform distributed control.
  • the drone communication unit 102 receives the wireless communication signal transmitted from the operation unit communication unit 65, converts it into a drone operation signal, and transmits this to the drone control unit 103. Further, the drone communication unit 102 converts the information signal transmitted from the drone control unit 103 into a wireless communication signal, and wirelessly transmits the information signal.
  • the drone control unit 103 controls the operation of the drone main body 12 and the elevating device 11 of the drone 1 in response to the drone operation signal transmitted from the drone side communication unit 82.
  • the drone control unit 03 uses a view image captured by a view camera (not shown) of the drone 1, information on the position, speed, fuel amount, etc. necessary for maneuvering the drone 1, a navigation image, and the like as information signals for the drone. It is transmitted to the communication unit 102.
  • the functions of the elements disclosed herein include general-purpose processors configured or programmed to perform the disclosed functions, dedicated processors, integrated circuits, ASICs (Application Specific Integrated Circuits), conventional circuits, and /. Alternatively, it can be performed using a circuit or processing circuit that includes a combination thereof.
  • a processor is considered a processing circuit or circuit because it includes transistors and other circuits.
  • a "vessel" or “part” is hardware that performs the listed functions or is programmed to perform the listed functions.
  • the hardware may be the hardware disclosed herein, or it may be other known hardware that is programmed or configured to perform the listed functions.
  • the "vessel" or “part” is a combination of hardware and software, and the software is used to configure the hardware and / or the processor.
  • FIG. 5 is a schematic diagram showing an example of delivery data D stored in the storage unit 204 of the robot controller 201.
  • the delivery data D includes, for example, the delivery address data D1, the authentication face image data D2, and the map data D3.
  • the delivery address data D1 is a list of delivery addresses.
  • the face image data D2 for authentication is face image data of the recipient P2 at the delivery destination, is acquired from the delivery requester when accepting the delivery, and is stored in the storage unit 204 of the robot controller 201. This face image data for authentication is stored in association with the delivery address data D1.
  • the map data D3 is used for delivery by the robot 2.
  • the robot control unit 203 of the robot controller 201 switches and controls the robot 2 between autonomous operation and remote operation.
  • Remote operation means operation according to the operation of the robot operator 31, specifically, the robot operation signal.
  • FIG. 6 is a flowchart showing an example of the contents of this autonomous operation / remote operation switching control.
  • the robot control unit 203 causes the robot 2 to perform autonomous operation, that is, autonomous operation (step S1).
  • the robot control unit 203 determines whether or not a remote command has been input (step S2).
  • the remote command is included in the robot operation signal.
  • step S5 When a remote command is input (YES in step S2), the robot control unit 203 causes the robot 2 to perform remote operation, that is, remote operation (step S5).
  • the robot control unit 203 determines whether or not the predetermined condition is satisfied (step S3).
  • This predetermined condition is, for example, that the route to the delivery destination 4 of the package is a rough road 6 (see FIG. 8F) as shown in FIG. 8F, or that a person approaches the robot 2.
  • the robot control unit 203 causes the robot 2 to perform remote control, that is, remote control (step S5).
  • the robot control unit 203 determines whether or not the end command has been input (step S4).
  • the end command is included in the robot operation signal.
  • step S4 If the end command is not included (NO in step S4), the robot control unit 203 returns this control to step S1.
  • the robot control unit 203 ends this control.
  • step S5 when remote control, that is, remote control, is performed in step S5, the robot control unit 203 determines whether or not an autonomous command has been input (step S6).
  • the autonomous command is included in the robot operation signal.
  • step S6 When the autonomous command is included (YES in step S6), the robot control unit 203 returns this control to step S1.
  • the robot control unit 203 determines whether or not the authentication command has been input (step S7).
  • the authentication command is included in the robot operation signal.
  • step S8 the robot control unit 203 performs face recognition (step S8).
  • the face recognition is performed by the robot control unit 203 collating the face image data stored in the storage unit 204 with the image of the recipient P2 captured by the visibility camera 26.
  • a well-known method can be used for face recognition. Therefore, the description thereof will be omitted.
  • the robot control unit 203 returns the robot 2 to the remote operation (step S5).
  • the process is appropriately processed by the dialogue between the operator P1 and the recipient P2.
  • step S7 when the authentication command is not input (NO in step S7), the robot control unit 203 determines whether or not the end command has been input (step S9).
  • step S9 If the end command is not included (NO in step S9), the robot control unit 203 returns this control to step S5.
  • the robot control unit 203 ends this control.
  • the robot control unit 203 processes the image captured by the visual field camera 26 to determine whether or not a person is present in the image. Since the method of extracting a person in an image by image processing is well known, the description thereof will be omitted here.
  • the robot control unit 203 moves the robot 2 in the direction opposite to the image of the person. Whether or not a person's image approaches the field of view camera is determined, for example, by the size of the person's image and the enlargement speed thereof.
  • FIG. 7 is a flowchart showing an example of the operation of the unmanned delivery system 100 of FIG. 8A to 8L are schematic views showing an example of the operation of the unmanned delivery system 100 of FIG. 1 in order.
  • the drone 1 is operated by the operator P1
  • the robot 2 is autonomously or remotely controlled by the robot control unit 203 of the robot controller 201.
  • step S11 loading is performed at the collection / delivery base 5 (step S11). There are three modes of this loading.
  • the loading / unloading door 13 of the drone 1 is opened by the operator P1, and the luggage G is carried into the drone 1 by the transport vehicle 14 through the loading / unloading door 13.
  • the robot 2 gets on the drone 1 through the carry-in / out door 13.
  • the luggage G is carried into the drone 1 by the transport vehicle 14 as in the first aspect.
  • the robot 2 is mounted on the drone 1 by the winch 11.
  • the drone 1 is put into a hovering state, that is, a stopped flight state, and the elevating door 15 is opened.
  • the elevating door 15 is opened.
  • hooks for hooking the tips of the wires of the winch 11 are provided.
  • the robot 2 is autonomously operated and hooks the hook at the tip of the wire by itself on the hanging portion. Further, the robot 2 takes a predetermined storage posture as shown in FIG. 8B.
  • sensors are provided in the four hooking portions of the traveling portion 21 of the robot 2, and the robot control unit 203 receives a signal from the sensor that the hook at the tip of the wire is hooked on the hooking portion. Confirm and know. Then, a signal to that effect is transmitted to the operation unit communication unit 307. Then, this information is displayed on the operator display 33.
  • the operator P1 winds up the winch 11 and mounts the robot 2 on the drone 1. After that, the elevating door 15 is closed.
  • the robot 2 accommodates the luggage G in the accommodating portion 212, and is mounted on the drone 1 by the winch 11 as in the second aspect.
  • the robot 2 places the carried-in luggage G on the loading rack 17 in the hangar 16 by remote control.
  • the luggage G is stored in the luggage storage unit 212 of the third aspect, the luggage G is taken out from the storage unit 212 and placed on the luggage storage shelf 17.
  • the robot 2 charges the storage battery 28 from the drone 1 by autonomous operation, then fixes itself in the hangar 16 by an appropriate means, and takes the above-mentioned predetermined storage posture.
  • the luggage G and the robot 2 are then airlifted (step S12).
  • the package G is delivered to a plurality of destinations 4.
  • unloading is performed at a point on the way to the delivery destination 4 (step S13).
  • this unloading is performed by putting the drone 1 in a hovering state and lowering the robot 2 with a winch 11. This descent is performed by the operator P1 while confirming the state of the ground with the field-of-view image captured by the field-of-view camera of the drone 1 displayed on the display device 33 for the operator. This is to ensure safety.
  • the altitude of the drone 1 is set to be equal to or higher than a predetermined level.
  • the predetermined altitude is set as appropriate, but is set to, for example, 20 m.
  • the robot 2 releases the stowed posture by autonomous operation, and then stores the baggage G to be delivered in the baggage storage unit 212 by remote operation.
  • the luggage G is transported by the robot 2 to the destination 4 on the ground (step S14).
  • the drone 1 waits for the return of the robot 2 in the sky.
  • the robot 2 travels on the road in the suburbs while referring to the map data by autonomous driving. Then, when the rough road 6 is encountered on the way, the operation is switched to remote control, and the vehicle travels according to the operation of the operator P1.
  • the robot 2 when the robot 2 arrives at the delivery destination 4, the luggage G is delivered (step S15).
  • the robot 2 is switched to remote control by the operation of the operator P1, and when the recipient, that is, the customer, P2 appears by pressing the interphone of the delivery destination 4, the robot 2 has a face. Authenticate. Then, when the recipient P2 approaches, the robot 2 automatically stops and does not move unless there is a trigger. From there, the robot 2 automatically switches to remote control and hands the luggage G to the recipient P2. At this time, the robot 2 automatically takes a predetermined baggage delivery posture as shown in FIG. 8H. If the recipient P2 gets too close, the robot 2 automatically moves in the opposite direction to the recipient P2.
  • the robot 2 interacts with the recipient P2.
  • the robot control unit 203 emits the voice of the operator P1 acquired by the operator microphone 34 to the customer speaker 25, and displays the image of the operator P1 captured by the operator camera 36 on the customer display.
  • the voice of the recipient P2 acquired by the customer microphone 24 is emitted to the operator speaker 35, and the image of the recipient P2 captured by the visibility camera 26 is displayed on the customer display 23.
  • This dialogue is, for example, as follows.
  • the robot 2 returns to the unloading point in the same manner as the outward route (step S16). Then, the robot 2 is mounted on the drone 1 that has been waiting (step S17). The mounting mode of the robot 2 is the same as the second mode of loading in step S11.
  • the delivery destination 4 is a room of a high-rise condominium.
  • the drone 1 reaches the sky above the high-rise condominium, the drone 2 lowers the robot 2 to the rooftop.
  • the first descent mode is the same as when the destination 4 is in the suburbs.
  • the second descent mode the drone 1 lands on the rooftop, and the robot 2 descends to the rooftop through the open loading / unloading door 13.
  • the luggage G is transported by the robot 2 to the destination 4 in the condominium, that is, is transported by ground (step S14).
  • the drone 1 waits for the return of the robot 2 in the sky.
  • the robot 2 is remotely controlled.
  • the robot 2 descends to the target floor using the elevator of the high-rise condominium.
  • the elevator door is opened and closed wirelessly by the robot 2.
  • Robot 2 arrives at the rooftop by autonomous driving with appropriate remote control in between. Then, the robot 2 is mounted on the drone 1 that has been waiting (step S17). The mounting mode of the robot 2 is the same as the second mode of loading in step S11.
  • the robot 2 is arranged at a point on the way to the above-mentioned destination 4. In this case, the robot 2 may stay in the field or may be collected by the drone 1.
  • the baggage G can be smoothly delivered to the recipient P2. Further, with respect to the robot 2, unmanned delivery can be performed more easily by performing relatively easy work by autonomous operation and performing relatively difficult work by remote control.
  • the unmanned delivery system of the second embodiment is different from the unmanned delivery system 100 of the first embodiment in that the robot 2A is used instead of the robot 2 of the first embodiment, and the other points are the unmanned delivery system 100 of the first embodiment. It is the same.
  • FIG. 9A is a side view showing an example of the configuration of the robot 2A used in the unmanned delivery system according to the second embodiment of the present disclosure.
  • FIG. 9B is a plan view showing an example of the configuration of the robot 2A used in the unmanned delivery system according to the second embodiment of the present disclosure.
  • the robot 2A includes a traveling unit 21 and a pair of robot arms 22 provided on the traveling unit 21.
  • the traveling unit 21 may be a dolly.
  • Each of the pair of robot arms 22 is composed of a four-axis vertical articulated robot arm. That is, each robot arm 22 has a first link L1 that is rotatable around a vertical first rotation axis Ax1. This first link L1 is common to both robot arms 22.
  • the base end of the second link L2 is rotatably provided around the second rotation axis Ax 2 perpendicular to the first rotation axis Ax 1 .
  • the base end portion of the third link L3 is rotatably provided around the third rotation axis Ax 3 perpendicular to the second rotation axis Ax 2 .
  • the base end portion of the fourth link L4 is rotatably provided around the fourth rotation axis Ax 4 perpendicular to the third rotation axis Ax 3 .
  • a grip portion 221 having a three-claw 222 is provided at the tip of the fourth link L4. The pair of robot arms 22 grip the load G by the pair of gripping portions 221.
  • the traveling portion 21 of the robot 2 is formed in a dolly shape, and a luggage accommodating portion 212 is provided at the front end portion.
  • the luggage accommodating portion 212 is formed in the shape of a rectangular box having an open upper surface having a bottom wall 212a and a side wall 212b.
  • the side wall portion on the rear side of the luggage accommodating portion 212 is notched at an upper portion, and a pair of robot arms 22 can insert the luggage G into the luggage accommodating portion from the notched portion.
  • a pair of front wheels 211 and 211 and a pair of rear wheels 211 and 211 are provided on the bottom of the traveling portion 21.
  • one of the pair of front wheels 211, 211 and the pair of rear wheels 211, 211 is the steering wheel, and for example, any one of the pair of front wheels 211, 211 and the pair of rear wheels 211, 211 is the drive wheel.
  • a storage battery 28 and a motor are mounted on the traveling unit 21, and the motor drives the drive wheels using the storage battery 28 as a power source.
  • a pair of out triggers 213 are provided on both sides of the central portion of the traveling portion 21. The out trigger 213 is configured to be accommodated inside the traveling portion 21. When the robot 2A stops and loads / unloads the luggage G, the out trigger 213 projects left and right from the traveling unit 21 and lands on the ground to prevent the traveling unit 21 from moving.
  • a display robot arm 27 is provided behind the robot arm 22 of the traveling unit 21. Since the display robot arm 27 is the same as that of the first embodiment, the description thereof will be omitted.
  • the same effect as that of the unmanned delivery system 100 of the first embodiment can be obtained.
  • the unmanned delivery system of the third embodiment includes a plurality of robots 2. An identification symbol is assigned to each of these plurality of robots 2.
  • the robot controller 31 is provided with an operation unit for designating the robot 2 to be operated.
  • the robot operation signal generation unit 302 attaches an identification symbol of the robot 2 designated to the robot operation signal according to the operation of the operation unit.
  • the robot control unit 203 of each robot 2 controls the robot 2 based on the robot operation signal.
  • the operator P1 can operate a plurality of self-propelled robots 2 by one robot operator 31.
  • unmanned delivery can be efficiently performed.
  • the robot controller 201 basically causes the self-propelled robot 2 to perform the autonomous operation on the route from a point in the middle of delivering the luggage G to the destination 4, and when a predetermined condition is satisfied, the self-propelled robot 2 May be configured to allow the remote operation.
  • unmanned delivery can be performed more appropriately.
  • the predetermined condition may be that the route to the destination 4 is a bad road 6 or that a person approaches the self-propelled robot 2.
  • the robot controller 201 may be configured to cause the self-propelled robot 2 to perform the remote control when the luggage G is delivered to the delivery destination 4.
  • the delivery of the baggage G at the delivery destination 4, which requires a polite response, can be appropriately performed at the discretion of the person.
  • the robot controller 201 may be configured to move the self-propelled robot 2 in the direction opposite to the person when the person approaches the self-propelled robot 2 when passing the luggage G.
  • the distance between the person and the self-propelled robot 2 can be maintained within a safe range.
  • the self-propelled robot 2 includes a field camera 26 that captures an image of its surroundings, the robot controller 201 has facial image data for authentication, and the robot controller 201 has the above-mentioned robot controller 201.
  • the face recognition of the recipient P2 of the baggage G is performed based on the image captured by the view camera 26 and the face image data for the authentication, and the face recognition is established.
  • the baggage G may be delivered.
  • the unmanned delivery system 100 includes an operation unit 3, in which the operation unit 3 includes the robot operator 31, an operator camera 36 that captures the operator P1, and an operator that acquires the voice of the operator P1.
  • the self-propelled robot 2 includes a microphone 34, an operator display 33, and an operator speaker 35, and the self-propelled robot 2 has a customer microphone 24 for acquiring the voice of the recipient P2, a customer display 23, and a customer. Further including a speaker 25, the robot controller 201 causes the customer speaker 25 to emit the voice of the operator P1 acquired by the operator microphone 34, and the operation captured by the operator camera 36.
  • the image of the person P1 is displayed on the customer display 23, and the voice of the recipient P2 acquired by the customer microphone 24 is emitted to the operator speaker 35, and the image is taken by the view camera 26.
  • the image of the recipient P2 may be displayed on the customer display 23, whereby the recipient P2 and the operator P1 may be configured to interact with each other.
  • smooth delivery can be performed by dialogue between the recipient P2 and the operator P1.
  • the robot controller 201 has map data D3, and the robot controller 201 uses the map data D3 to autonomously drive the self-propelled robot 2 from a point in the middle to the destination 4. It may be configured to run by.
  • the self-propelled robot 2 can be appropriately driven by autonomous driving.
  • the unmanned delivery system 100 includes a plurality of the self-propelled robots 2, and the plurality of self-propelled robots 2 and the robot operating device 31 operate the plurality of self-propelled robots 2 by one robot operating device 31. It may be configured to be possible.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Acoustics & Sound (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

無人配送システム100は、自走ロボット2、荷物を届ける途中の地点まで当該荷物を輸送するための無人航空機1と、を備える。自走ロボット2は、前記途中の地点に降ろされた荷物を届け先4に届けるよう、当該自走ロボット2を制御するよう構成されたロボット制御器を備える。

Description

無人配送システム及び無人配送方法 関連出願への相互参照
 本件出願は、2020年10月30日に日本特許庁に出願された特願2020-183352号の優先権を主張するものであり、その全体を参照することにより本件出願の一部をなすものとして引用する。
 本発明は、無人配送システム及び無人配送方法に関する。
 従来、ドローンを用いた配送システムが知られている。例えば、特許文献1に開示された配送システムでは、車両によって目的地の近辺まで荷物を輸送し、そこから目的地までドローンによって荷物を輸送する。
特開2020-083600号公開特許公報
 上記従来の配送システムでは、最終的に無人の飛行体によって荷物を目的地に届けるので、現行の車両とそのドライバーによる宅配システムと比べると、受取人に対する荷物の受け渡しを円滑に行うことが難しい。
 本開示は上記のような課題を解決するためになされたもので、受取人に対する荷物の受け渡しを円滑に行うことが可能な配送システム及び配送方法を提供することを目的としている。
 上記目的を達成するために、本開示のある形態に係る無人配送システムは、自走ロボットと、荷物を届ける途中の地点まで当該荷物を輸送するための無人航空機と、前記自走ロボットを遠隔操作するためのロボット操作器と、を備え、前記自走ロボットは、自律運転と前記ロボット操作器の操作に従う遠隔運転との間で切り替えながら、前記途中の地点に降ろされた前記荷物を前記届け先に届けるよう、当該自走ロボットを制御するように構成されたロボット制御器を備える。
 また、本開示の他の形態に係る無人配送システムは、自走ロボットと、荷物を届ける途中の地点まで当該荷物及び前記自走ロボットを輸送するための無人航空機と、前記自走ロボットを遠隔操作するためのロボット操作器と、を備え、前記自走ロボットは、自律運転と前記ロボット操作器の操作に従う遠隔運転との間で切り替えながら、前記途中の地点に降ろされた前記荷物を前記届け先に届けるよう、当該自走ロボットを制御するように構成されたロボット制御器を備える。
 また、本開示のさらなる他の形態に係る無人配送方法は、無人航空機によって、荷物を届ける途中の地点まで当該荷物を輸送し、ロボット操作器によって、前記自走ロボットを遠隔操作し、前記自走ロボットによって、自律運転と前記ロボット操作器の操作に従う遠隔運転との間で切り替えながら、前記途中の地点に降ろされた前記荷物を前記届け先に届ける。
 また、本開示のさらなる他の形態に係る無人配送方法は、無人航空機によって、荷物を届ける途中の地点まで当該荷物及び自走ロボットを輸送し、ロボット操作器によって、前記自走ロボットを遠隔操作し、前記自走ロボットによって、自律運転と前記ロボット操作器の操作に従う遠隔運転との間で切り替えながら、前記途中の地点に降ろされた前記荷物を前記届け先に届ける。
開示の効果
 本開示は、受取人に対する荷物の受け渡しを円滑に行うことが可能な配送システム及び配送方法を提供できるという効果を奏する。
図1は、本開示の実施形態1に係る無人配送システムの概略の構成の一例を示す模式図である。 図2は、図1の操作ユニットの詳細な構成の一例を示す斜視図である。 図3は、図1の自走ロボットの構成の一例を示す側面図である。 図4は、図1の無人配送システムの制御系統の構成の一例を示す機能ブロック図である。 図5は、ロボット制御器の記憶部に格納された配送用データの一例を示す模式図である。 図6は、自律運転/遠隔運転切替制御の内容の一例を示すフローチャートである。 図7は、図1の無人配送システムの動作の一例を示すフローチャートである。 図8Aは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Bは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Cは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Dは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Eは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Fは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Gは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Hは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Iは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Jは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Kは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Lは、図1の無人配送システムの動作の一例を順に示す模式図である。 図9Aは、本開示の実施形態2に係る無人配送システムに用いられる自走ロボットの構成の一例を示す側面図である。 図9Bは、本開示の実施形態2に係る無人配送システムに用いられる自走ロボットの構成の一例を示す平面図である。
開示を実施するための形態
 以下、本開示の具体的な実施形態を、図面を参照しながら説明する。なお、以下では全ての図面を通じて同一又は相当する要素には同一の参照符号を付して、その重複する説明を省略する。また、以下の図は、本開示を説明するための図であるので、本開示に無関係な要素が省略される場合、誇張等のために寸法が正確でない場合、簡略化される場合、複数の図において互いに対応する要素の形態が一致しない場合等がある。また、本開示は、以下の実施形態に限定されない。
 (実施形態1)
 図1は、本開示の実施形態1に係る無人配送システム100の概略の構成の一例を示す模式図である。
 [ハードウェアの構成]
 図1を参照すると、実施形態1の無人配送システム100は、無人航空機1と、自走ロボット2と、操作ユニット3と、を含む。以下、無人航空機をドローンと呼ぶ。
 無人配送システム100は、ドローン1によって、荷物を集配拠点5から届け先4に至る配送経路の途中の地点まで当該荷物を輸送し、自走ロボット2によって、自律運転と前記ロボット操作器の操作に従う遠隔運転との間で切り替えながら、この途中の地点に降ろされた荷物を届け先4に届けるよう、構成されている。なお、以下では、簡略化のために、「自走ロボット」を単に「ロボット」と呼ぶ場合がある。また、配送経路の途中の地点は、荷物を届ける途中の地点を意味する。以下、これらの構成要素を詳しく説明する。
 <ドローン1>
 図1を参照すると、ドローン1は、配送する荷物と自走ロボット2を輸送することができるものであればよい。ドローン1として、飛行機、ヘリコプターが例示される。飛行機は、通常の滑走により離着陸するものの他、VTOL機(Vertical Take-Off and Landing aircraft、垂直離着陸機)を含む。ドローン1は、ここでは、VTOL機で構成される。
 このドローン1は、内部に、図8Cに示された格納庫16が形成されている。図8Cを参照すると、格納庫16には、中央空間を囲むように荷置き棚17が配置されている。格納庫16は、この中央空間に自走ロボット2が格納され、且つ、自走ロボット2が荷置き棚17への荷物の出し入れ作業を行えるように構成されている。
 図8Aを参照すると、ドローン1の後部の側壁には、下端部を支点に前後方向に回動して開閉する搬出入扉13が設けられている。搬出入扉13の内面は平坦に形成されていて、搬出入扉13は、開いて先端が着地すると、荷物G等の搬出入経路になる。また、図8Bを参照すると、ドローン1には、昇降装置11が設けられている。昇降装置11は、ここでは、ウインチで構成されている。以下、ウインチ11と表記する。このウインチ11のために、ドローン1の底壁には、下方に向かって左右に開閉する昇降扉15が設けられていて、物体をウインチ11で昇降させる場合には、この昇降扉15が開放される。図1を参照すると、ドローン1には、ドローン制御器101が配置されている。ドローン制御器101は、プロセッサPr3及びメモリMe3を備える。
 <操作ユニット3>
 図2は図1の操作ユニット3の詳細な構成の一例を示す斜視図である。図3は、図1の自走ロボット2の構成の一例を示す側面図である。
 図2を参照すると、例えば、操作室39に操作ユニット3が配置されている。操作ユニット3の配置場所は特に限定されない。操作ユニット3は、自走ロボット2を操作するロボット操作器31と、ドローン1を操作するドローン操作器32と、操作者用表示器33と、操作者マイク34と、操作者スピーカ35と、操作者カメラ36と、を備える。
 図1乃至図3を参照すると、ロボット操作器31は、自走ロボット2の走行部21を操作する走行部操作器31Aと、自走ロボット2のロボットアーム22を操作するアーム操作器31Bとを含む。走行部21は、台車であってもよい。このアーム操作器31Bには、顧客用表示器23を支持する表示器ロボットアーム27を操作するための操作部が設けられている。ロボット操作器31は、種々の操作器で構成され得る。ここでは、例えば、ジョイスティックで構成される。ロボット操作器31は机37の上に配置される。
 ドローン操作器32は、例えば、航空機を操縦する各種の操縦桿で構成される。ここでは、ドローン操作器32は、ジョイスティック状の操縦桿で構成される。ドローン操作器32には、ドローン1を操縦するための各種の操作部が設けられている。ドローン操作器32は、机37の上に配置されている。
 操作者用表示器33は、例えば、液晶ディスプレイで構成される。操作者用表示器33には、操作者P1に提示することが必要な情報を含む画像が表示される。そのような画像として、自走ロボット2の視界カメラ26で撮像された画像、ドローン1の視界カメラ(不図示)で撮像された視界画像、ドローン1を操縦するのに必要な、位置、速度、燃料量等の情報、ナビゲーション画像等が例示される。
 操作者用表示器33は机37の上に配置される。
 操作者スピーカ35は、操作者P1に必要な音声情報を提供する。操作者スピーカ35は、ここでは、ヘッドフォンで構成されているが、他の形態に構成されていてもよい。
 操作者マイク34は、操作者P1の音声を取得する。操作者マイク34は、ここでは、ヘッドフォン35に設けられているが、他の形態に構成されていてもよい。
 操作者カメラ36は、操作者P1を撮像する。操作者カメラ36は、ここでは、操作者用表示器33に設けられているが、他の場所に設けられてもよい。
 机37には、操作ユニット制御器301が配置されている。操作ユニット制御器301は、プロセッサPr1及びメモリMe1を備える。
 操作者P1は、例えば、ドローン1の飛行時には、右手でドローン操作器32を操作して、ドローン1を操縦し、自走ロボット2の動作時には、左右の手で、それぞれ、走行部操作器31A及びアーム操作器31Bを操作して、自走ロボット2を操作する。操作者P1は、例えば、宅配業者である。宅配業者は、例えば、宅配担当者であってもよい。操作者P1は、宅配担当者ではなく、専用のオペレータであってもよい。
 <自走ロボット2>
 図3を参照すると、自走ロボットの一例であるロボット2は、自律走行可能で且つ荷物を扱うことが可能なロボットであればよい。ロボット2は、ここでは、自律走行可能な走行部21と走行部21の上に設けられたロボットアーム22とを備える。走行部21は、例えば、台車であってもよい。なお、荷物を扱う構成要素は、必ずしもロボットアームでなくてよい。図3のロボット2は、図面左方向及び右方向が、それぞれ、走行方向における前方向及び後方向である。
 図3には、ロボット2が簡略化されて示されている。実際には、ロボット2のロボットアーム22は、図9A及び9Bに示されているように、実施形態2のロボット2Aの双腕のロボットアーム22と同様に構成されている。つまり、ロボット2のロボットアーム22は、双腕の垂直多関節型のロボットアームである。但し、実施形態2のロボット2Aのロボットアーム22は、4軸の垂直関節型のロボットアームであるが、図3のロボット2のロボットアーム22は、5軸の垂直多関節型のロボットアームである。図9A及び9Bを参照すると、一対のロボットアーム22の先端には、それぞれ、3本爪222を有する手首部である把持部221が設けられていて、一対のロボットアーム22は、これらの一対の把持部221によって、荷物Gを把持する。
 図3を参照すると、ロボット2の走行部は、実際には、直方体状の車体フレームを備えていて、この車体フレームに荷物収容部212が前後方向に移動可能に設けられている。この車体フレームは、適宜なケースによって覆われていて、このケースの前面に荷物収容部212が出入りするための開口部が設けられて。荷物収容部212は、上面が開放された矩形の箱状に形成されていて、非荷物出し入れ時には、前端面が、このケースと面一になる後退位置に位置し、荷物出し入れ時には、前側の所定部分が前方に突出する前進位置に位置するように構成されている。
 走行部21の底部には、一対の前輪211,211と一対の後輪211,211が設けられている。例えば、一対の前輪211,211及び一対の後輪211,211のいずれかが操舵輪であり、また、例えば、一対の前輪211,211及び一対の後輪211,211のいずれかが駆動輪である。走行部21には、蓄電池28とモータとが搭載されていて、蓄電池28を電源としてモータが駆動輪を駆動する。また、上述の荷物収容部212も所定の駆動機構によって、前後に摺動駆動される。
 さらに、走行部21のロボットアーム22の後方には、表示器ロボットアーム27が設けられている。表示器ロボットアーム27の先端には、顧客用表示器23が取り付けられている。顧客用表示器23の適所に、顧客マイク24、顧客スピーカ25、及び視界カメラ26が設けられている。表示器ロボットアーム27は、例えば、垂直多関節型のロボットアームで構成されていて、任意の姿勢を取ることが可能であり、顧客用表示器23、顧客マイク24、顧客スピーカ25、及び視界カメラ26を任意の方向に向けることが可能である。
 顧客用表示器23は、例えば、液晶ディスプレイで構成される。顧客用表示器23には、図8Fに示されているように、受取人P2に提示することが必要な情報を含む画像が表示される。そのような画像として、操作者カメラ36で撮像された画像等が例示される。
 顧客スピーカ25は、受取人P2に必要な音声情報を提供する。音声情報として、操作者マイク34で取得された操作者P1の声が例示される。
 操作者マイク34は、操作者P1の音声を取得する。操作者マイク34は、ここでは、ヘッドフォン35に設けられているが、他の形態に構成されていてもよい。
 操作者カメラ36は、操作者P1を撮像する。操作者カメラ36は、ここでは、操作者用表示器33に設けられているが、他の場所に設けられてもよい。
 さらに、走行部21には、ロボット制御器201が設けられている。ロボット制御器201は、プロセッサPr2及びメモリMe2を備える。
 このように構成されたロボット2は、ロボット制御器201によって、自律運転又は遠隔運転するよう制御され、ロボットアーム22によって荷物Gを扱い、且つ、走行部21によって、所望の方向に移動することができる。
 [制御系統の構成]
 図4は、図1の無人配送システム100の制御系統の構成の一例を示す機能ブロック図である。
 図4を参照すると、無人配送システム100は、操作ユニット制御器301と、ロボット制御器201と、ドローン制御器101と、を備える。
 操作ユニット制御器301は、ロボット操作信号生成部302、ドローン操作信号生成部303、表示制御部304、マイクIF305、ヘッドフォンIF306、操作ユニット通信部307、及びカメラ制御部308を含む。
 操作ユニット通信部307は、データ通信可能な通信器で構成される。操作ユニット制御器301は、ロボット操作信号生成部302、ドローン操作信号生成部303、表示制御部304、マイクIF305、ヘッドフォンIF306、及びカメラ制御部308は、プロセッサPr1とメモリMe1とを有する演算器で構成される。これらは、この演算器において、メモリMe1に格納された制御プログラムをプロセッサPr1が実行することによって実現される機能ブロックである。この演算器は、具体的には、例えば、マイクロコントローラ、MPU、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)等で構成される。これらは、集中制御を行う単独の演算器で構成されてもよく、分散制御を行う複数の演算器で構成されてもよい。
 ロボット操作信号生成部62は、ロボット操作器31の操作に応じて、ロボット操作信号を生成する。ドローン操作信号生成部303は、ドローン操作器32の操作に応じてドローン操作信号を生成する。表示制御部304は、操作ユニット通信部307から送信される画像信号に応じた画像を操作者用表示器33に表示させる。マイクIF305は、操作者マイク34で取得された音声を適宜な音声信号に変換する。ヘッドフォンIF306は、操作ユニット通信部307から送信される音声信号に応じ音声を操作者スピーカに放出させる。カメラ制御部308は、操作者カメラ36で撮像された画像の画像信号を生成する。
 操作ユニット通信部307は、ロボット操作信号生成部302から送信されるロボット操作信号、ドローン操作信号生成部303から送信されるドローント操作信号、マイクIF305から送信される音声信号、及びカメラ制御部308から送信される画像信号を無線通信信号に変換して無線送信する。また、操作ユニット通信部307は、ロボット通信部202から送信される無線通信信号を受信して画像信号又は音声信号に変換し、画像信号を表示制御部304に送信し、音声信号をマイクIF305に送信する。また、操作ユニット通信部307は、ドローン通信部102から送信される無線通信信号を受信して、情報信号に変換し、これを表示制御部304に送信する。
 ロボット制御器201は、ロボット通信部202、ロボット制御部203、及び記憶部204を含む。ロボット通信部202は、データ通信可能な通信器で構成される。ロボット制御部203及び記憶部204は、プロセッサPr2とメモリMe2とを有する演算器で構成される。ロボット制御部203及び記憶部204は、この演算器において、メモリMe2に格納された制御プログラムをプロセッサPr2が実行することによって実現される機能ブロックである。この演算器は、具体的には、例えば、マイクロコントローラ、MPU、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)等で構成される。これらは、集中制御を行う単独の演算器で構成されてもよく、分散制御を行う複数の演算器で構成されてもよい。
 ロボット通信部202は、操作ユニット通信部307から送信される無線通信信号を受信して、ロボット操作信号、画像信号、又は音声信号に変換し、これらの信号をロボット制御部203に送信する。ロボット制御部203は、ロボット操作信号に応じて、ロボット2の動作を制御し、画像信号に応じた画像を顧客用表示器23に表示させ、且つ、音声信号に応じた音声を顧客スピーカに放出させる。
 ドローン制御器101は、ドローン通信部102及びドローン制御部103を含む。ドローン通信部102はデータ通信可能な通信器で構成される。ドローン制御部103は、プロセッサPr3とメモリとMe3を有する演算器で構成される。ドローン制御部103は、この演算器において、メモリMe3に格納された制御プログラムをプロセッサPr3が実行することによって実現される機能ブロックである。この演算器は、具体的には、例えば、マイクロコントローラ、MPU、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)等で構成される。これらは、集中制御を行う単独の演算器で構成されてもよく、分散制御を行う複数の演算器で構成されてもよい。
 ドローン通信部102は、操作ユニット通信部65から送信される無線通信信号を受信してドローン操作信号に変換し、これをドローン制御部103に送信する。また、ドローン通信部102は、ドローン制御部103から送信される情報信号を無線通信信号に変換し、これを無線送信する。
 ドローン制御部103は、ドローン側通信部82から送信されるドローン操作信号に応じて、ドローン1のドローン本体12及び昇降装置11の動作を制御する。ドローン制御部03は、ドローン1の視界カメラ(不図示)で撮像された視界画像、ドローン1を操縦するのに必要な、位置、速度、燃料量等の情報、ナビゲーション画像等を情報信号としてドローン通信部102に送信する。
 ここで、本明細書で開示する要素の機能は、開示された機能を実行するよう構成又はプログラムされた汎用プロセッサ、専用プロセッサ、集積回路、ASIC(Application Specific Integrated Circuits)、従来の回路、及び/又は、それらの組み合わせ、を含む回路
又は処理回路を使用して実行できる。プロセッサは、トランジスタやその他の回路を含むため、処理回路又は回路と見なされる。本開示において、「器」又は「部」は、列挙された機能を実行するハードウェアであるか、又は、列挙された機能を実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示されているハードウェアであってもよいし、あるいは、列挙された機能を実行するようにプログラム又は構成されているその他の既知のハードウェアであってもよい。ハードウェアが回路の一種と考えられるプロセッサである場合、「器」又は「部」は、ハードウェアとソフトウェアの組み合わせであり、ソフトウェアは、ハードウェア及び/又はプロセッサの構成に使用される。
 <配送用データ>
 図5は、ロボット制御器201の記憶部204に格納された配送用データDの一例を示す模式図である。
 図5を参照すると、配送用データDは、例えば、配達先住所データD1、認証用顔画像データD2、及び地図データD3を含む。配達先住所データD1は、配達先住所のリストである。認証用顔画像データD2は、配達先の受取人P2の顔画像データであり、配達を受任する際に配達依頼主から取得され、ロボット制御器201の記憶部204に格納される。この認証用顔画像データは、配達先住所データD1と対応させて格納される。地図データD3は、ロボット2による配送に利用される。
 <自律運転/遠隔運転切替制御>
 ロボット制御器201のロボット制御部203は、ロボット2を、自律運転と遠隔運転との間で切り替えて、制御する。遠隔運転は、ロボット操作器31の操作、具体的にはロボット操作信号、に従った運転を意味する。
 図6は、この自律運転/遠隔運転切替制御の内容の一例を示すフローチャートである。図6を参照すると、自律運転/遠隔運転切替制御が開始されると、ロボット制御部203は、ロボット2に自律動作、すなわち自律運転、をさせる(ステップS1)。
 次いで、ロボット制御部203は、遠隔指令が入力された否かを判定する(ステップS2)。遠隔指令は、ロボット操作信号に含まれている。
 遠隔指令が入力された場合(ステップS2でYES)、ロボット制御部203は、ロボット2に遠隔動作、すなわち遠隔運転、をさせる(ステップS5)。
 一方、遠隔指令が入力されない場合(ステップS2でNO)、ロボット制御部203は、所定条件が満たされるか否かを判定する(ステップS3)。この所定条件は、例えば、荷物の届け先4までの道程が図8Fに示されるような悪路6(図8F参照)であること、又は、人がロボット2に接近したことである。
 所定条件が満たされる場合(ステップS3でYES)、ロボット制御部203は、ロボット2に遠隔動作、すなわち、遠隔運転、をさせる(ステップS5)。
 一方、所定条件がみたされない場合(ステップS3でNO)、ロボット制御部203は、終了指令が入力された否かを判定する(ステップS4)。終了指令はロボット操作信号に含まれている。
 終了指令が含まれていない場合(ステップS4でNO)、ロボット制御部203は、本制御をステップS1に戻す。
 一方、終了指令が含まれている場合、ロボット制御部203は、本制御を終了する。
 上述のように、ステップS5で遠隔動作、すなわち、遠隔運転、が行われると、ロボット制御部203は、自律指令が入力されたか否かを判定する(ステップS6)。自律指令は、ロボット操作信号に含まれている。
 自律指令が含まれている場合(ステップS6でYES)、ロボット制御部203は、本制御をステップS1に戻す。
 一方、自律指令が入力されない場合、ロボット制御部203は、認証指令が入力されたか否かを判定する(ステップS7)。認証指令は、ロボット操作信号に含まれている。
 認証指令が含まれている場合(ステップS7でYES)、ロボット制御部203は、顔認証を行う(ステップS8)。顔認証は、ロボット制御部203が、記憶部204に格納された顔画像データと視界カメラ26で撮像された受取人P2の画像を照合することによって行われる。顔認証は周知の方法を用いることができる。それ故、その説明を省略する。
 顔認証が終了すると、ロボット制御部203は、ロボット2を遠隔動作に戻す(ステップS5)。なお、この場合、顔認証が成立した場合、荷物の受け渡しが行われ、顔認証が成立しない場合、操作者P1と受取人P2との対話により、適宜、処理される。
 一方、認証指令が入力されなかった場合(ステップS7でNO)、ロボット制御部203は、終了指令が入力された否かを判定する(ステップS9)。
 終了指令が含まれていない場合(ステップS9でNO)、ロボット制御部203は、本制御をステップS5に戻す。
 一方、終了指令が含まれている場合、ロボット制御部203は、本制御を終了する。
 このようにして、自律運転/遠隔運転切替制御が行われる。
 <人の回避制御>
 次に、人の回避制御について説明する。ロボット制御部203は、視界カメラ26で撮像された画像を画像処理して、当該画像内に人が存在するか否かを判定する。画像処理によって、画像内の人を抽出する方法は周知であるので、ここでは、その説明を省略する。ロボット制御部203は、視界カメラ26で撮像された画像から抽出された人の画像が視界カメラに接近する場合には、ロボット2を当該人の画像と反対方向に移動させる。人の画像が視界カメラに接近するか否かは、例えば、当該人の画像の大きさ及びその拡大速度によって判定される。
 [無人配送システム100の動作]
 次に、以上のように構成された無人配送システム100の動作を、図1乃至図8Lを用いて説明する。無人配送システム100の動作は、無人配送方法を意味する。図7は、図1の無人配送システム100の動作の一例を示すフローチャートである。図8A乃至図8Lは、図1の無人配送システム100の動作の一例を順に示す模式図である。この無人配送システム100の動作では、ドローン1は、操作者P1によって操作され、ロボット2は、ロボット制御器201のロボット制御部203によって、自律運転又は遠隔運転される。
 図7及び図8A乃至8Cを参照すると、まず、集配拠点5において、荷積みが行われる(ステップS11)。この荷積みには、3つの態様がある。
 第1態様では、図8Aに示すように、操作者P1によりドローン1の搬出入扉13が開かれ、この搬出入扉13を通って、搬送車14により荷物Gがドローン1に搬入される。この場合、ロボット2は、搬出入扉13を通ってドローン1に搭乗する。
 第2態様では、荷物Gは、第1態様と同様に、搬送車14によりドローン1に搬入される。ロボット2は、図8Bに示すように、ウインチ11によって、ドローン1に搭載される。この場合、ドローン1はホバリング状態、すなわち停止飛行状態、にされ、昇降扉15が開放される。ロボット2の走行部21の上面の4隅には、ウインチ11のワイヤの先端のフックを掛ける掛け部が設けられている。ウインチ11のワイヤが降下されると、ロボット2は、自律運転され、ワイヤの先端のフックを自ら上記掛け部に掛ける。また、ロボット2は、図8Bに示されているように、所定の格納姿勢を取る。ここで、ロボット2の走行部21の上記4つの掛け部にはセンサが設けられていて、ロボット制御部203は、ワイヤの先端のフックが上記掛け部に掛けられたことをセンサからの信号によって確認知する。そして、その旨の信号を操作ユニット通信部307に送信する。すると、この情報が操作者用表示器33に表示される。操作者P1は、ウインチ11を巻き上げてロボット2をドローン1に搭載する。その後、昇降扉15が閉止される。
 第3態様では、ロボット2が荷物Gを収容部212に収容して、第2態様と同様に、ウインチ11によって、ドローン1に搭載される。
 図8Cを参照すると、ロボット2は、遠隔運転により、格納庫16内において、搬入された荷物Gを荷置き棚17に置く。第3態様で自身の荷物収容部212に荷物Gを収容している場合には、収容部212から荷物Gを取り出して荷置き棚17に置く。
 作業が終了したら、ロボット2は、自律運転により、ドローン1から蓄電池28を充電し、その後、格納庫16に適宜な手段で自らを固定し、上記所定の格納姿勢を取る。
 図7を参照すると、次いで、荷物G及びロボット2が空輸される(ステップS12)。ここでは、図8Dに示すように、複数の届け先4に荷物Gが届けられる。
 次に、以下、届け先4が郊外部の場合と都市部の場合とに分けて、説明する。
 <届け先4が郊外部の場合>
 図7を参照すると、届け先4までの途中の地点で荷降ろしが行われる(ステップS13)。図8Eを参照すると、この荷降ろしは、ドローン1をホバリング状態にして、ロボット2をウインチ11で降下させることによって行われる。この降下は、操作者P1が、操作者用表示器33に表示される、ドローン1の視界カメラで撮像された視界画像で地上の様子を確認しながら行う。安全性を確保するためである。また、この場合、ドローン1の高度は所定以上とされる。所定高度は適宜設定されるが、例えば、20mとされる。
この場合、ロボット2は、自律運転によって格納姿勢を解いた後、遠隔運転により、これから配送すべき荷物Gを荷物収容部212に収容する。
 そして、ロボット2は、地上に降下された後、自律運転により、ウインチ11のワイヤの先端のフックを掛け部から外す。
 図7を参照すると、荷物Gがロボット2によって届け先4まで地上輸送される(ステップS14)。ドローン1は、上空でロボット2の帰還を待機する。
 図8Fを参照すると、この場合、ロボット2は、自律運転により、地図データを参照しながら、郊外部の道路を走行する。そして、途中で、悪路6に遭遇すると、遠隔運転に切り替わり、操作者P1の操作に従って、走行する。
 図7を参照すると、ロボット2が届け先4に到着すると、荷物Gの受け渡しが行われる(ステップS15)。図8Gを参照すると、この場合、ロボット2は、操作者P1の操作により遠隔運転に切り替わり、届け先4のインタホンを押す等して、受取人、すなわち顧客、P2が現れると、ロボット2は、顔認証を行う。そして、受取人P2が近づいたらロボット2は、自動的に停止し、トリガが無い限り動かない。そこからロボット2は、自動的に遠隔運転に切り替わり、荷物Gを受取人P2に渡す。この際、ロボット2は、図8Hに示すように、自動的に所定の荷物差出姿勢を取る。もし、受取人P2が接近し過ぎたら、ロボット2は、自動的に受取人P2と反対方向に移動する。この場合、ロボット2は、受取人P2と対話する。具体的には、ロボット制御部203は、操作者マイク34で取得された操作者P1の声を顧客スピーカ25に放出させ、操作者カメラ36で撮像された操作者P1の画像を顧客用表示器23に表示させ、且つ、顧客マイク24で取得された受取人P2の声を操作者スピーカ35に放出させ、視界カメラ26で撮像された受取人P2の画像を顧客用表示器23に表示させ、それによって、受取人P2と操作者P1とを対話させる。この対話は、例えば、以下のようなものである。
 操作者P1が「お届けに参りました」と言い、受取人P2が「ありがとうね。とっても助かります」と言い、操作者P1が「またのご利用をお待ちしております。」と言う。
 図7を参照すると、ロボット2は、往路と同様にして、荷降ろし地点に戻る(ステップS16)。そして、ロボット2が待機していたドローン1に搭載される(ステップS17)。ロボット2の搭載の態様は、ステップS11における荷積みの第2態様と同じである。
 <届け先4が都市部の場合>
 図8Iを参照すると、この場合、例えば、届け先4が高層マンションの一室である。ドローン1は、高層マンションの上空に到達すると、ロボット2を屋上に降下させる。この降下の態様は2つある。第1降下態様は、届け先4が郊外部の場合と同じである。第2降下態様では、ドローン1が屋上に着陸し、ロボット2が開放された搬出入扉13から屋上に降りる。
 図7を参照すると、荷物Gがロボット2によって届け先4までマンション内を輸送される、すなわち地上輸送される(ステップS14)。ドローン1は、上空でロボット2の帰還を待機する。この場合、ロボット2は遠隔運転される。図8Kを参照すると、ロボット2は、高層マンションのエレベータを使って目的の階まで降りる。この場合、ロボット2の無線でエレベータのドアを開閉する。
 図8Kを参照すると、ロボット2は、届け先4である目的の部屋の近くまで来たら、操作者の操作で遠隔運転に切り替わる。この後の受け渡しは、届け先4が郊外部の場合と同じであり、その説明を省略する。
 ロボット2は、適宜な遠隔運転を挟む自律運転により屋上に到着する。そして、ロボット2が待機していたドローン1に搭載される(ステップS17)。ロボット2の搭載の態様は、ステップS11における荷積みの第2態様と同じである。
 <次の届け先4への配送及び帰還>
 1つの届け先4への配達業務が終了すると、次の届け先4への配達業務が上記と同様に行われ、全ての届け先4への配達業務が終了すると、ドローン1は、集配拠点5に帰還する(ステップS18,19)。
 {変形例1}
 変形例1では、ロボット2が上述の届け先4までの途中の地点に配置されている。この場合、ロボット2は、現地にとどまってもよいし、ドローン1に回収されてもよい。
 以上に説明した実施形態1によれば、受取人P2に対する荷物Gの受け渡しを円滑に行うことができる。また、ロボット2について、比較的容易な業務を自律運転で行うとともに比較的難しい作業務を遠隔運転で行うことにより、無人配送をより容易に行うことができる。
 (実施形態2)
 実施形態2の無人配送システムは、実施形態1のロボット2に代えてロボット2Aが用いられる点で、実施形態1の無人配送システム100と異なり、その他の点は実施形態1の無人配送システム100と同じである。
 図9Aは、本開示の実施形態2に係る無人配送システムに用いられるロボット2Aの構成の一例を示す側面図である。図9Bは、本開示の実施形態2に係る無人配送システムに用いられるロボット2Aの構成の一例を示す平面図である。
 図9A及び9Bを参照すると、ロボット2Aは、走行部21と走行部21の上に設けられた一対のロボットアーム22とを備える。走行部21は台車であってもよい。一対のロボットアーム22は、それぞれ、4軸の垂直多関節型のロボットアームで構成されている。すなわち、各ロボットアーム22は、垂直な第1回動軸線Axの周りに回動可能な第1リンクL1を有する。この第1リンクL1は双方のロボットアーム22に共通である。第1リンクL1の先端部に第2リンクL2の基端部が第1回動軸線Axに垂直な第2回動軸線Axの周りに回動可能に設けられている。第2リンクL2の先端部に第3リンクL3の基端部が第2回動軸線Axに垂直な第3回動軸線Axの周りに回動可能に設けられている。第3リンクL3の先端部に第4リンクL4の基端部が第3回動軸線Axに垂直な第4回動軸線Axの周りに回動可能に設けられている。そして、第4リンクL4の先端に3本爪222を有する把持部221が設けられている。一対のロボットアーム22は、これらの一対の把持部221によって、荷物Gを把持する。
 ロボット2の走行部21は、台車状に形成されていて、前端部に荷物収容部212が設けられている。荷物収容部212は、底壁212aと側壁212bとを有する上面が開放された矩形の箱状に形成されている。なお、荷物収容部212の後側の側壁部は、上部が切り欠かれていて、一対のロボットアーム22がこの切り欠き部分から荷物収容部に荷物Gを入れることが可能になっている。走行部21の底部には、一対の前輪211,211と一対の後輪211,211が設けられている。例えば、一対の前輪211,211及び一対の後輪211,211のいずれかが操舵輪であり、また、例えば、一対の前輪211,211及び一対の後輪211,211のいずれかが駆動輪である。走行部21には、蓄電池28とモータとが搭載されていて、蓄電池28を電源としてモータが駆動輪を駆動する。さらに、走行部21の中央部の両側には、一対のアウトトリガ213が設けられている。このアウトトリガ213は、走行部21の内部に収容可能に構成されている。アウトトリガ213は、ロボット2Aが停止して荷物Gの積み降ろしを行う時に、走行部21から左右に突出して地面に着地し、走行部21の移動を阻止する。
 さらに、走行部21のロボットアーム22の後方には、表示器ロボットアーム27が設けられている。この表示器ロボットアーム27は、実施形態1のものと同じであるので、その説明を省略する。
 このような実施形態2の無人配送システムによれば、実施形態1の無人配送システム100と同様の効果が得られる。
 (実施形態3)
 実施形態3では、実施形態1又は実施形態2において、操作者P1が複数のロボット2を操作することができる。その他の点は、実施形態1又は実施形態2と同様である。
 具体的には、図4を参照すると、実施形態3の無人配送システムは、複数のロボット2を備える。これらの複数のロボット2には、それぞれ、識別記号が付与されている。ロボット操作器31には、操作したいロボット2を指定する操作部が設けられている。ロボット操作信号生成部302は、この操作部の操作に応じて、ロボット操作信号に指定されたロボット2の識別記号を付す。各ロボット2のロボット制御部203は、ロボット操作信号が、自身の属するロボット2の識別記号を含む場合に、当該ロボット操作信号に基づいてロボット2を制御する。
 これにより、操作者P1が、1つのロボット操作器31によって、複数の自走ロボット2を操作することができる。
 このような実施形態3によれば、効率良く無人配送を行うことができる。
 (本開示の実施形態による作用効果)
 本開示の実施形態によれば、自走ロボット2は、地上走行し、且つ、荷物Gを扱うことができるので、受取人P2に対する荷物Gの受け渡しを円滑に行うことができる。そして、自走ロボット2の制御を自律運転とロボット操作器31の操作に従う遠隔運転との間で切り替えるので、比較的容易な業務を自律運転で行うとともに比較的難しい作業務を遠隔運転で行うことにより、無人配送をより容易に行うことができる。
 ロボット制御器201は、荷物Gを届ける途中の地点から届け先4までの道程において、前記自走ロボット2に基本的に前記自律運転をさせ、所定の条件が満たされる場合に、前記自走ロボット2に前記遠隔運転をさせるよう構成されていてもよい。
 この構成によれば、無人配送をより適切に行うことができる。
 前記所定の条件が、前記届け先4までの道程が悪路6であること、又は、人が前記自走ロボット2に接近したことであってもよい。
 この構成によれば、比較的難しい業務を適切に行うことができる。
 前記ロボット制御器201は、前記届け先4において前記荷物Gを渡す場合、前記自走ロボット2に前記遠隔運転をさせるよう構成されていてもよい。
 この構成によれば、丁寧な対応が要求される、届け先4における荷物Gの受け渡しを人の判断によって適切に行うことができる。
 前記ロボット制御器201は、前記荷物Gを渡す場合において、人が前記自走ロボット2に接近すると、前記自走ロボット2を前記人と反対方向に移動させるよう構成されていてもよい。
 この構成によれば、人と自走ロボット2との距離を安全な範囲に維持することができる。
 前記自走ロボット2は、自身の周囲を撮像する視界カメラ26を備えており、前記ロボット制御器201は、認証用の顔画像データを有しており、且つ、前記ロボット制御器201は、前記荷物Gを渡す場合において、前記視界カメラ26で撮像された画像と前記認証用の顔画像データとに基づいて、前記荷物Gの受取人P2の顔認証を行い、当該顔認証が成立した場合に、前記荷物Gを渡すよう構成されていてもよい。
 この構成によれば、受取人P2を間違えて荷物Gを渡す可能性が低減される。
 前記無人配送システム100は、操作ユニット3を備え、前記操作ユニット3は、前記ロボット操作器31と、前記操作者P1を撮像する操作者カメラ36と、前記操作者P1の声を取得する操作者マイク34と、操作者用表示器33と、操作者スピーカ35と、を備え、前記自走ロボット2は、前記受取人P2の声を取得する顧客マイク24と、顧客用表示器23と、顧客スピーカ25と、をさらに備え、前記ロボット制御器201は、前記操作者マイク34で取得された前記操作者P1の声を前記顧客スピーカ25に放出させ、前記操作者カメラ36で撮像された前記操作者P1の画像を前記顧客用表示器23に表示させ、且つ、前記顧客マイク24で取得された前記受取人P2の声を前記操作者スピーカ35に放出させ、前記視界カメラ26で撮像された前記受取人P2の画像を前記顧客用表示器23に表示させ、それによって、前記受取人P2と前記操作者P1とを対話させるように、構成されていてもよい。
 この構成によれば、受取人P2と操作者P1との対話によって、円滑に受け渡しを行うことができる。
 前記ロボット制御器201は、地図データD3を有しており、前記ロボット制御器201は、前記地図データD3を用いて、前記途中の地点から前記届け先4まで、前記自走ロボット2を前記自律運転によって走行させるよう構成されていてもよい。
 この構成によれば、自走ロボット2を適切に自律運転で走行させることができる。
 前記無人配送システム100は、複数の前記自走ロボット2を備え、前記複数の自走ロボット2及び前記ロボット操作器31は、1つのロボット操作器31によって、前記複数の自走ロボット2を操作することが可能なように構成されていてもよい。
 この構成によれば、無人配送を効率よく行うことができる。
 上記説明から、当業者にとっては、多くの改良や他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきである。

Claims (12)

  1.  自走ロボットと、
     荷物を届ける途中の地点まで当該荷物を輸送するための無人航空機と、
     前記自走ロボットを遠隔操作するためのロボット操作器と、を備え、
     前記自走ロボットは、自律運転と前記ロボット操作器の操作に従う遠隔運転との間で切り替えながら、前記途中の地点に降ろされた前記荷物を前記届け先に届けるよう、当該自走ロボットを制御するように構成されたロボット制御器を備える、無人配送システム。
  2.  自走ロボットと、
     荷物を届ける途中の地点まで当該荷物及び前記自走ロボットを輸送するための無人航空機と、
     前記自走ロボットを遠隔操作するためのロボット操作器と、を備え、
     前記自走ロボットは、自律運転と前記ロボット操作器の操作に従う遠隔運転との間で切り替えながら、前記途中の地点に降ろされた前記荷物を前記届け先に届けるよう、当該自走ロボットを制御するように構成されたロボット制御器を備える、無人配送システム。
  3.  前記ロボット制御器は、前記途中の地点から前記届け先までの道程において、前記自走ロボットに基本的に前記自律運転をさせ、所定の条件が満たされる場合に、前記自走ロボットに前記遠隔運転をさせるよう構成されている、請求項1又は2に記載の無人配送システム。
  4.  前記所定の条件が、前記届け先までの道程が悪路であること、又は、人が前記自走ロボットに接近したことである、請求項3に記載の無人配送システム。
  5.  前記ロボット制御器は、前記届け先において前記荷物を渡す場合、前記自走ロボットに前記遠隔運転をさせるよう構成されている、請求項1乃至3のいずれかに記載の無人配送システム。
  6.  前記ロボット制御器は、前記荷物を渡す場合において、人が前記自走ロボットに接近すると、前記自走ロボットを前記人と反対方向に移動させるよう構成されている、請求項5に記載の無人配送システム。
  7.  前記自走ロボットは、自身の周囲を撮像する視界カメラを備えており、
     前記ロボット制御器は、認証用の顔画像データを有しており、且つ、
     前記ロボット制御器は、前記荷物を渡す場合において、前記視界カメラで撮像された画像と前記認証用の顔画像データとに基づいて、前記荷物の受取人の顔認証を行い、当該顔認証が成立した場合に、前記荷物を渡すよう構成されている、請求項5に記載の無人配送システム。
  8.  前記無人配送システムは、操作ユニットを備え、
     前記操作ユニットは、前記ロボット操作器と、前記操作者を撮像する操作者カメラと、前記操作者の声を取得する操作者マイクと、操作者用表示器と、操作者スピーカと、を備え、
     前記自走ロボットは、前記受取人の声を取得する顧客マイクと、顧客用表示器と、顧客スピーカと、をさらに備え、
     前記ロボット制御器は、前記操作者マイクで取得された前記操作者の声を前記顧客スピーカに放出させ、前記操作者カメラで撮像された前記操作者の画像を前記顧客用表示器に表示させ、且つ、前記顧客マイクで取得された前記受取人の声を前記操作者スピーカに放出させ、前記視界カメラで撮像された前記受取人の画像を前記顧客用表示器に表示させ、それによって、前記受取人と前記操作者とを対話させるように、構成されている、請求項5乃至7のいずれかに記載の無人配送システム。
  9.  前記ロボット制御器は、地図データを有しており、
     前記ロボット制御器は、前記地図データを用いて、前記途中の地点から前記届け先まで、前記自走ロボットを前記自律運転によって走行させるよう構成されている、請求項3乃至8のいずれかに記載の無人配送システム。
  10.  前記無人配送システムは、複数の前記自走ロボットを備え、
     前記複数の自走ロボット及び前記ロボット操作器は、1つのロボット操作器によって、前記複数の自走ロボットを操作することが可能なように構成されている、請求項1乃至9のいずれかに記載の無人配送システム。
  11.  無人航空機によって、荷物を届ける途中の地点まで当該荷物を輸送し、
     ロボット操作器によって、前記自走ロボットを遠隔操作し、
     前記自走ロボットによって、自律運転と前記ロボット操作器の操作に従う遠隔運転との間で切り替えながら、前記途中の地点に降ろされた前記荷物を前記届け先に届ける、無人配送方法。
  12.  無人航空機によって、荷物を届ける途中の地点まで当該荷物及び自走ロボットを輸送し、
     ロボット操作器によって、前記自走ロボットを遠隔操作し、
     前記自走ロボットによって、自律運転と前記ロボット操作器の操作に従う遠隔運転との間で切り替えながら、前記途中の地点に降ろされた前記荷物を前記届け先に届ける、無人配送方法。
     
PCT/JP2021/038760 2020-10-30 2021-10-20 無人配送システム及び無人配送方法 WO2022091907A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21886026.0A EP4238914A1 (en) 2020-10-30 2021-10-20 Unmanned delivery system and unmanned delivery method
KR1020237014893A KR20230079423A (ko) 2020-10-30 2021-10-20 무인 배송 시스템 및 무인 배송 방법
US18/034,093 US20230405830A1 (en) 2020-10-30 2021-10-20 Unmanned delivery system and unmanned delivery method
CN202180073800.4A CN116507569A (zh) 2020-10-30 2021-10-20 无人配送系统以及无人配送方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-183352 2020-10-30
JP2020183352A JP2022073395A (ja) 2020-10-30 2020-10-30 無人配送システム及び無人配送方法

Publications (1)

Publication Number Publication Date
WO2022091907A1 true WO2022091907A1 (ja) 2022-05-05

Family

ID=81382385

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/038760 WO2022091907A1 (ja) 2020-10-30 2021-10-20 無人配送システム及び無人配送方法

Country Status (6)

Country Link
US (1) US20230405830A1 (ja)
EP (1) EP4238914A1 (ja)
JP (1) JP2022073395A (ja)
KR (1) KR20230079423A (ja)
CN (1) CN116507569A (ja)
WO (1) WO2022091907A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015066632A (ja) * 2013-09-27 2015-04-13 本田技研工業株式会社 ロボット、ロボット制御方法、およびロボット制御プログラム
US9305280B1 (en) * 2014-12-22 2016-04-05 Amazon Technologies, Inc. Airborne fulfillment center utilizing unmanned aerial vehicles for item delivery
JP2016083711A (ja) * 2014-10-23 2016-05-19 公立大学法人首都大学東京 テレプレゼンスロボット
JP2019502975A (ja) * 2015-10-13 2019-01-31 スターシップ テクノロジーズ オサイヒング 自律的又は半自律的配達の方法及びシステム
JP2019028838A (ja) * 2017-08-01 2019-02-21 パナソニックIpマネジメント株式会社 配送管理システムおよび配送管理方法
US20190236741A1 (en) * 2016-08-05 2019-08-01 Starship Technologies Oü System and mobile freight station and method for distribution, delivery, and collection of freight
JP2020083600A (ja) 2018-11-29 2020-06-04 トヨタ自動車株式会社 配送システム及び処理サーバ
JP2020128287A (ja) * 2019-02-08 2020-08-27 トヨタ自動車株式会社 車両

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015066632A (ja) * 2013-09-27 2015-04-13 本田技研工業株式会社 ロボット、ロボット制御方法、およびロボット制御プログラム
JP2016083711A (ja) * 2014-10-23 2016-05-19 公立大学法人首都大学東京 テレプレゼンスロボット
US9305280B1 (en) * 2014-12-22 2016-04-05 Amazon Technologies, Inc. Airborne fulfillment center utilizing unmanned aerial vehicles for item delivery
JP2019502975A (ja) * 2015-10-13 2019-01-31 スターシップ テクノロジーズ オサイヒング 自律的又は半自律的配達の方法及びシステム
US20190236741A1 (en) * 2016-08-05 2019-08-01 Starship Technologies Oü System and mobile freight station and method for distribution, delivery, and collection of freight
JP2019028838A (ja) * 2017-08-01 2019-02-21 パナソニックIpマネジメント株式会社 配送管理システムおよび配送管理方法
JP2020083600A (ja) 2018-11-29 2020-06-04 トヨタ自動車株式会社 配送システム及び処理サーバ
JP2020128287A (ja) * 2019-02-08 2020-08-27 トヨタ自動車株式会社 車両

Also Published As

Publication number Publication date
CN116507569A (zh) 2023-07-28
JP2022073395A (ja) 2022-05-17
US20230405830A1 (en) 2023-12-21
EP4238914A1 (en) 2023-09-06
KR20230079423A (ko) 2023-06-07

Similar Documents

Publication Publication Date Title
US20210132625A1 (en) Modular delivery vehicle system
CN111512253B (zh) 绳钩的主动位置控制
CN111512327B (zh) 动态uav运输任务
JP4222510B2 (ja) 無人飛行体による運搬方法
US20220048625A1 (en) Methods and Systems for Door-Enabled Loading and Release of Payloads in an Unmanned Aerial Vehicle (UAV)
JP7159822B2 (ja) 配送システム及び処理サーバ
CN111527510A (zh) 无人机uav到预备地点的预期派遣
CN117002764A (zh) 无人飞行器及其操作方法
CN112262076A (zh) 具有用于无人驾驶飞行器的系绳引导件的装载结构
CN111003183A (zh) 用于自主物体拾取的地面操作
CN111527460A (zh) 使用专用于操作基础设施的部署的无人机(uav)的方法和系统
WO2022091907A1 (ja) 無人配送システム及び無人配送方法
WO2021070439A1 (ja) ロボット装置及びその制御方法
US20230069643A1 (en) Flying body and method for transporting load using same
WO2022091910A1 (ja) 無人配送システム及び無人配送方法
JP2022073837A (ja) 無人配送システム及び無人配送方法
EP4209417A1 (en) Supply-airlifting system and supply-airlifting method
WO2022091882A1 (ja) 作業システム及び作業方法
JP2022073836A (ja) 作業システム及び作業方法
CN116490323A (zh) 作业系统以及作业方法
JP2020179485A (ja) ロボット、モバイル型の収容装置、及びロボット制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21886026

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18034093

Country of ref document: US

Ref document number: 202180073800.4

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 20237014893

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021886026

Country of ref document: EP

Effective date: 20230530