WO2022091910A1 - 無人配送システム及び無人配送方法 - Google Patents

無人配送システム及び無人配送方法 Download PDF

Info

Publication number
WO2022091910A1
WO2022091910A1 PCT/JP2021/038766 JP2021038766W WO2022091910A1 WO 2022091910 A1 WO2022091910 A1 WO 2022091910A1 JP 2021038766 W JP2021038766 W JP 2021038766W WO 2022091910 A1 WO2022091910 A1 WO 2022091910A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
self
propelled
unit
delivery system
Prior art date
Application number
PCT/JP2021/038766
Other languages
English (en)
French (fr)
Inventor
康彦 橋本
Original Assignee
川崎重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020198526A external-priority patent/JP7522016B2/ja
Application filed by 川崎重工業株式会社 filed Critical 川崎重工業株式会社
Priority to US18/034,092 priority Critical patent/US20230391451A1/en
Priority to EP21886029.4A priority patent/EP4238708A4/en
Priority to CN202180074109.8A priority patent/CN116472143A/zh
Priority to KR1020237014894A priority patent/KR20230079424A/ko
Publication of WO2022091910A1 publication Critical patent/WO2022091910A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/22Taking-up articles from earth's surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • B25J13/065Control stands, e.g. consoles, switchboards comprising joy-sticks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/08Programme-controlled manipulators characterised by modular constructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D57/00Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
    • B62D57/02Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/02Dropping, ejecting, or releasing articles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D9/00Equipment for handling freight; Equipment for facilitating passenger embarkation or the like
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/17Helicopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/20Vertical take-off and landing [VTOL] aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/60UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
    • B64U2101/64UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons for parcel delivery or retrieval
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/60UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
    • B64U2101/67UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons the UAVs comprising tethers for lowering the goods

Definitions

  • the present invention relates to an unmanned delivery system and an unmanned delivery method.
  • a delivery system using a drone is known.
  • a vehicle transports a package to the vicinity of a destination, and the package is transported from there to the destination by a drone.
  • the package is finally delivered to the destination by an unmanned flying object, so it is difficult to smoothly deliver the package to the recipient as compared with the current delivery system by the vehicle and its driver.
  • This disclosure is made to solve the above-mentioned problems, and aims to provide a delivery system and a delivery method capable of smoothly delivering a package to a recipient.
  • the unmanned delivery system includes a self-propelled robot and an unmanned aerial vehicle for transporting the parcel to a point in the middle of delivering the parcel.
  • a robot controller configured to control the self-propelled robot so as to deliver the baggage unloaded at the intermediate point to the delivery destination.
  • the unmanned delivery system includes a self-propelled robot, an unmanned aerial vehicle for transporting the parcel and the self-propelled robot to a point in the middle of delivering the parcel, and the self-propelled robot.
  • a robot controller configured to control the self-propelled robot so as to deliver the baggage unloaded at the intermediate point to the delivery destination.
  • the unmanned aerial vehicle transports the package to a point in the middle of delivery
  • the self-propelled robot transports the package to the point in the middle. Deliver to the destination.
  • the unmanned aerial vehicle transports the package and the self-propelled robot to a point in the middle of delivering the package, and the self-propelled robot unloads the package to the point in the middle. Deliver the package to the destination.
  • This disclosure has the effect of being able to provide a delivery system and delivery method that enables smooth delivery of packages to recipients.
  • FIG. 1 is a schematic diagram showing an example of a schematic configuration of an unmanned delivery system according to the first embodiment of the present disclosure.
  • FIG. 2 is a perspective view showing an example of a detailed configuration of the operation unit of FIG.
  • FIG. 3 is a side view showing an example of the configuration of the self-propelled robot of FIG.
  • FIG. 4 is a functional block diagram showing an example of the configuration of the control system of the unmanned delivery system of FIG.
  • FIG. 5 is a schematic diagram showing an example of delivery data stored in the storage unit of the robot controller.
  • FIG. 6 is a flowchart showing an example of the contents of autonomous operation / remote operation switching control.
  • FIG. 7 is a flowchart showing an example of the operation of the unmanned delivery system of FIG. FIG.
  • FIG. 8A is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8B is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8C is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8D is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8E is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8F is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8G is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG.
  • FIG. 8H is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8I is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8J is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8K is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 8L is a schematic diagram showing an example of the operation of the unmanned delivery system of FIG. 1 in order.
  • FIG. 9A is a side view showing an example of the configuration of a self-propelled robot used in the unmanned delivery system according to the second embodiment of the present disclosure.
  • FIG. 9A is a side view showing an example of the configuration of a self-propelled robot used in the unmanned delivery system according to the second embodiment of the present disclosure.
  • FIG. 9A is a side view showing an example of the configuration of a self-
  • FIG. 9B is a plan view showing an example of the configuration of a self-propelled robot used in the unmanned delivery system according to the second embodiment of the present disclosure.
  • FIG. 10 is an exploded view showing an example of the configuration of a mobile robot used in the unmanned delivery system according to the fourth embodiment of the present disclosure.
  • FIG. 11 is a perspective view showing a first configuration and a usage mode of a self-propelled robot in which the mobile robot of FIG. 10 is configured as a delivery robot.
  • FIG. 12 is a perspective view showing a second configuration and a usage mode of the self-propelled robot in which the mobile robot of FIG. 10 is configured as a delivery robot.
  • FIG. 13 is a perspective view showing a third configuration and usage mode of the self-propelled robot in which the mobile robot of FIG.
  • FIG. 10 is configured as a delivery robot.
  • FIG. 14 is a perspective view showing a first configuration and a usage mode of a high-altitude walking robot in which the mobile robot of FIG. 10 is configured as a maintenance robot.
  • FIG. 15 is a perspective view showing a second configuration and a usage mode of the high-altitude walking robot in which the mobile robot of FIG. 10 is configured as a maintenance robot.
  • FIG. 1 is a schematic diagram showing an example of a schematic configuration of the unmanned delivery system 100 according to the first embodiment of the present disclosure.
  • the unmanned delivery system 100 of the first embodiment includes an unmanned aerial vehicle 1, a self-propelled robot 2, and an operation unit 3.
  • the unmanned aerial vehicle will be referred to as a drone.
  • the unmanned delivery system 100 transports the parcel to a point in the middle of the delivery route from the collection / delivery base 5 to the delivery destination 4 by the drone 1, and the self-propelled robot 2 delivers the parcel unloaded at the point in the middle. It is configured to deliver to 4.
  • the "self-propelled robot” may be simply referred to as a "robot”.
  • a point in the middle of the delivery route means a point in the middle of delivering the package.
  • the drone 1 may be any as long as it can transport the cargo to be delivered and the self-propelled robot 2.
  • An airplane and a helicopter are exemplified as the drone 1.
  • Airplanes include VTOL aircraft (Vertical Take-Off and Landing aircraft) as well as those that take off and land by normal gliding.
  • the drone 1 is composed of a VTOL machine here.
  • the drone 1 has a hangar 16 shown in FIG. 8C formed inside.
  • a storage shelf 17 is arranged in the hangar 16 so as to surround the central space.
  • the hangar 16 is configured such that the self-propelled robot 2 is stored in the central space and the self-propelled robot 2 can carry out the work of loading and unloading the luggage to and from the loading rack 17.
  • the side wall of the rear part of the drone 1 is provided with a carry-in / out door 13 that rotates in the front-rear direction with the lower end as a fulcrum to open and close.
  • the inner surface of the carry-in / out door 13 is formed flat, and when the carry-in / out door 13 opens and the tip of the door 13 lands, it becomes a carry-in / carry-out route for luggage G and the like.
  • the drone 1 is provided with an elevating device 11.
  • the elevating device 11 is composed of a winch here. Hereinafter, it is referred to as a winch 11.
  • a drone controller 101 is arranged in the drone 1.
  • the drone controller 101 includes a processor Pr3 and a memory Me3.
  • FIG. 2 is a perspective view showing an example of a detailed configuration of the operation unit 3 of FIG.
  • FIG. 3 is a side view showing an example of the configuration of the self-propelled robot 2 of FIG.
  • the operation unit 3 is arranged in the operation room 39.
  • the location of the operation unit 3 is not particularly limited.
  • the operation unit 3 operates the robot operator 31 that operates the self-propelled robot 2, the drone operator 32 that operates the drone 1, the operator display 33, the operator microphone 34, and the operator speaker 35. It is equipped with a speaker camera 36.
  • the robot operator 31 includes a traveling unit operator 31A for operating the traveling unit 21 of the self-propelled robot 2 and an arm operating device 31B for operating the robot arm 22 of the self-propelled robot 2.
  • the traveling unit 21 may be a dolly.
  • the arm operation device 31B is provided with an operation unit for operating the display robot arm 27 that supports the customer display device 23.
  • the robot operating device 31 may be composed of various operating devices. Here, for example, it is composed of a joystick.
  • the robot controller 31 is arranged on the desk 37.
  • the drone controller 32 is composed of, for example, various control sticks for operating an aircraft.
  • the drone controller 32 is composed of a joystick-shaped control stick.
  • the drone operator 32 is provided with various operation units for operating the drone 1.
  • the drone controller 32 is arranged on the desk 37.
  • the operator display 33 is composed of, for example, a liquid crystal display.
  • the operator display 33 displays an image including information necessary to be presented to the operator P1.
  • the image captured by the field-of-view camera 26 of the self-propelled robot 2 the field-of-view image captured by the field-of-view camera of the drone 1, the position, speed, fuel amount, etc. required to steer the drone 1.
  • Information, navigation images, etc. are exemplified.
  • the operator display 33 is arranged on the desk 37.
  • the operator speaker 35 provides voice information necessary for the operator P1.
  • the operator speaker 35 is configured here with headphones, but may be configured in other forms.
  • the operator microphone 34 acquires the voice of the operator P1. Although the operator microphone 34 is provided in the headphone 35 here, it may be configured in another form.
  • the operator camera 36 captures the operator P1.
  • the operator camera 36 is provided here on the operator display 33, but may be provided at another location.
  • An operation unit controller 301 is arranged on the desk 37.
  • the operation unit controller 301 includes a processor Pr1 and a memory Me1.
  • the operator P1 when the drone 1 is flying, the operator P1 operates the drone controller 32 with his right hand to operate the drone 1, and when the self-propelled robot 2 is operating, the operator P1 uses his left and right hands to operate the traveling unit controller 31A, respectively. And the arm controller 31B is operated to operate the self-propelled robot 2.
  • the operator P1 is, for example, a courier company.
  • the courier company may be, for example, a courier person in charge.
  • the operator P1 may not be a delivery person but a dedicated operator.
  • the robot 2 which is an example of a self-propelled robot may be a robot capable of autonomously traveling and handling luggage.
  • the robot 2 includes a traveling unit 21 capable of autonomous traveling and a robot arm 22 provided on the traveling unit 21.
  • the traveling unit 21 may be, for example, a dolly.
  • the component that handles the luggage does not necessarily have to be a robot arm.
  • the left direction and the right direction in the drawing are the front direction and the rear direction in the traveling direction, respectively.
  • FIG. 3 shows the robot 2 in a simplified form.
  • the robot arm 22 of the robot 2 is configured in the same manner as the dual-arm robot arm 22 of the robot 2A of the second embodiment, as shown in FIGS. 9A and 9B. That is, the robot arm 22 of the robot 2 is a double-armed vertical articulated robot arm.
  • the robot arm 22 of the robot 2A of the second embodiment is a 4-axis vertical articulated robot arm
  • the robot arm 22 of the robot 2 of FIG. 3 is a 5-axis vertical articulated robot arm. .. Referring to FIGS.
  • the tips of the pair of robot arms 22 are each provided with a grip portion 221 which is a wrist portion having three claws 222, and the pair of robot arms 22 is a pair of these.
  • the luggage G is gripped by the grip portion 221.
  • the traveling portion of the robot 2 is actually provided with a rectangular parallelepiped vehicle body frame, and the luggage storage portion 212 is provided on the vehicle body frame so as to be movable in the front-rear direction.
  • the body frame is covered with an appropriate case, and the front surface of the case is provided with an opening for the luggage storage portion 212 to enter and exit.
  • the luggage accommodating portion 212 is formed in a rectangular box shape with an open upper surface, and is located at a retracted position where the front end surface is flush with the case when loading and unloading non-loading, and is designated on the front side when loading and unloading luggage.
  • the portion is configured to be located in a forward position protruding forward.
  • a pair of front wheels 211 and 211 and a pair of rear wheels 211 and 211 are provided on the bottom of the traveling portion 21.
  • one of the pair of front wheels 211, 211 and the pair of rear wheels 211, 211 is the steering wheel, and for example, any one of the pair of front wheels 211, 211 and the pair of rear wheels 211, 211 is the drive wheel.
  • a storage battery 28 and a motor are mounted on the traveling unit 21, and the motor drives the drive wheels using the storage battery 28 as a power source.
  • the above-mentioned luggage accommodating portion 212 is also slid back and forth by a predetermined drive mechanism.
  • a display robot arm 27 is provided behind the robot arm 22 of the traveling unit 21.
  • a customer display 23 is attached to the tip of the display robot arm 27.
  • a customer microphone 24, a customer speaker 25, and a field-of-view camera 26 are provided at appropriate positions on the customer display 23.
  • the display robot arm 27 is composed of, for example, a vertical articulated robot arm and can take an arbitrary posture, and is a customer display 23, a customer microphone 24, a customer speaker 25, and a visibility camera. It is possible to point 26 in any direction.
  • the customer display 23 is composed of, for example, a liquid crystal display. As shown in FIG. 8F, the customer display 23 displays an image containing information that needs to be presented to the recipient P2. As such an image, an image taken by the operator camera 36 and the like are exemplified.
  • the customer speaker 25 provides the voice information necessary for the recipient P2.
  • the voice information the voice of the operator P1 acquired by the operator microphone 34 is exemplified.
  • the operator microphone 34 acquires the voice of the operator P1. Although the operator microphone 34 is provided in the headphone 35 here, it may be configured in another form.
  • the operator camera 36 captures the operator P1.
  • the operator camera 36 is provided here on the operator display 33, but may be provided at another location.
  • the traveling unit 21 is provided with a robot controller 201.
  • the robot controller 201 includes a processor Pr2 and a memory Me2.
  • the robot 2 configured in this way is controlled by the robot controller 201 to be autonomously operated or remotely controlled, the luggage G is handled by the robot arm 22, and the robot 2 can be moved in a desired direction by the traveling unit 21. can.
  • FIG. 4 is a functional block diagram showing an example of the configuration of the control system of the unmanned delivery system 100 of FIG.
  • the unmanned delivery system 100 includes an operation unit controller 301, a robot controller 201, and a drone controller 101.
  • the operation unit controller 301 includes a robot operation signal generation unit 302, a drone operation signal generation unit 303, a display control unit 304, a microphone IF 305, a headphone IF 306, an operation unit communication unit 307, and a camera control unit 308.
  • the operation unit communication unit 307 is composed of a communication device capable of data communication.
  • the operation unit controller 301 is a robot operation signal generation unit 302, a drone operation signal generation unit 303, a display control unit 304, a microphone IF305, a headphone IF306, and a camera control unit 308 is an arithmetic unit having a processor Pr1 and a memory Me1. It is composed. These are functional blocks realized by the processor Pr1 executing the control program stored in the memory Me1 in this arithmetic unit. Specifically, this arithmetic unit is composed of, for example, a microcontroller, an MPU, an FPGA (Field Programmable Gate Array), a PLC (Programmable Logic Controller), or the like.
  • the robot operation signal generation unit 62 generates a robot operation signal in response to the operation of the robot operator 31.
  • the drone operation signal generation unit 303 generates a drone operation signal in response to the operation of the drone operation device 32.
  • the display control unit 304 causes the operator display 33 to display an image corresponding to the image signal transmitted from the operation unit communication unit 307.
  • the microphone IF 305 converts the voice acquired by the operator microphone 34 into an appropriate voice signal.
  • the headphone IF 306 causes the operator speaker to emit voice in response to the voice signal transmitted from the operation unit communication unit 307.
  • the camera control unit 308 generates an image signal of the image captured by the operator camera 36.
  • the operation unit communication unit 307 includes a robot operation signal transmitted from the robot operation signal generation unit 302, a drone operation signal transmitted from the drone operation signal generation unit 303, an audio signal transmitted from the microphone IF 305, and a camera control unit 308.
  • the transmitted image signal is converted into a wireless communication signal and transmitted wirelessly.
  • the operation unit communication unit 307 receives the wireless communication signal transmitted from the robot communication unit 202, converts it into an image signal or an audio signal, transmits the image signal to the display control unit 304, and transmits the audio signal to the microphone IF305. Send. Further, the operation unit communication unit 307 receives the wireless communication signal transmitted from the drone communication unit 102, converts it into an information signal, and transmits this to the display control unit 304.
  • the robot controller 201 includes a robot communication unit 202, a robot control unit 203, and a storage unit 204.
  • the robot communication unit 202 is composed of a communication device capable of data communication.
  • the robot control unit 203 and the storage unit 204 are composed of an arithmetic unit having a processor Pr2 and a memory Me2.
  • the robot control unit 203 and the storage unit 204 are functional blocks realized by the processor Pr2 executing the control program stored in the memory Me2 in this arithmetic unit.
  • this arithmetic unit is composed of, for example, a microcontroller, an MPU, an FPGA (Field Programmable Gate Array), a PLC (Programmable Logic Controller), or the like. These may be composed of a single arithmetic unit that performs centralized control, or may be configured by a plurality of arithmetic units that perform distributed control.
  • the robot communication unit 202 receives the wireless communication signal transmitted from the operation unit communication unit 307, converts it into a robot operation signal, an image signal, or a voice signal, and transmits these signals to the robot control unit 203.
  • the robot control unit 203 controls the operation of the robot 2 according to the robot operation signal, displays the image corresponding to the image signal on the customer display 23, and emits the voice corresponding to the voice signal to the customer speaker. Let me.
  • the drone controller 101 includes a drone communication unit 102 and a drone control unit 103.
  • the drone communication unit 102 is composed of a communication device capable of data communication.
  • the drone control unit 103 includes a processor Pr3, a memory, and an arithmetic unit having Me3.
  • the drone control unit 103 is a functional block realized by the processor Pr3 executing a control program stored in the memory Me3 in this arithmetic unit.
  • this arithmetic unit is composed of, for example, a microcontroller, an MPU, an FPGA (Field Programmable Gate Array), a PLC (Programmable Logic Controller), or the like. These may be composed of a single arithmetic unit that performs centralized control, or may be configured by a plurality of arithmetic units that perform distributed control.
  • the drone communication unit 102 receives the wireless communication signal transmitted from the operation unit communication unit 65, converts it into a drone operation signal, and transmits this to the drone control unit 103. Further, the drone communication unit 102 converts the information signal transmitted from the drone control unit 103 into a wireless communication signal, and wirelessly transmits the information signal.
  • the drone control unit 103 controls the operation of the drone main body 12 and the elevating device 11 of the drone 1 in response to the drone operation signal transmitted from the drone side communication unit 82.
  • the drone control unit 03 sends the view image captured by the view camera of the drone 1, information such as position, speed, fuel amount, etc. necessary for maneuvering the drone 1, navigation image, etc. to the drone communication unit 102 as an information signal. Send.
  • the functions of the elements disclosed herein include general-purpose processors configured or programmed to perform the disclosed functions, dedicated processors, integrated circuits, ASICs (Application Specific Integrated Circuits), conventional circuits, and /. Alternatively, it can be performed using a circuit or processing circuit that includes a combination thereof.
  • a processor is considered a processing circuit or circuit because it includes transistors and other circuits.
  • a "vessel" or “part” is hardware that performs the listed functions or is programmed to perform the listed functions.
  • the hardware may be the hardware disclosed herein, or it may be other known hardware that is programmed or configured to perform the listed functions.
  • the "vessel" or “part” is a combination of hardware and software, and the software is used to configure the hardware and / or the processor.
  • FIG. 5 is a schematic diagram showing an example of delivery data D stored in the storage unit 204 of the robot controller 201.
  • the delivery data D includes, for example, the delivery address data D1, the authentication face image data D2, and the map data D3.
  • the delivery address data D1 is a list of delivery addresses.
  • the face image data D2 for authentication is face image data of the recipient P2 at the delivery destination, is acquired from the delivery requester when accepting the delivery, and is stored in the storage unit 204 of the robot controller 201. This face image data for authentication is stored in association with the delivery address data D1.
  • the map data D3 is used for delivery by the robot 2.
  • the robot control unit 203 of the robot controller 201 switches and controls the robot 2 between autonomous operation and remote operation.
  • Remote operation means operation according to the operation of the robot operator 31, specifically, the robot operation signal.
  • FIG. 6 is a flowchart showing an example of the contents of this autonomous operation / remote operation switching control.
  • the robot control unit 203 causes the robot 2 to perform autonomous operation, that is, autonomous operation (step S1).
  • the robot control unit 203 determines whether or not a remote command has been input (step S2).
  • the remote command is included in the robot operation signal.
  • step S5 When a remote command is input (YES in step S2), the robot control unit 203 causes the robot 2 to perform remote operation, that is, remote operation (step S5).
  • the robot control unit 203 determines whether or not the predetermined condition is satisfied (step S3).
  • This predetermined condition is, for example, that the route to the delivery destination of the package is a rough road 6 as shown in FIG. 8F, or that a person approaches the robot 2.
  • the robot control unit 203 causes the robot 2 to perform remote control, that is, remote control (step S5).
  • the robot control unit 203 determines whether or not the end command has been input (step S4).
  • the end command is included in the robot operation signal.
  • step S4 If the end command is not included (NO in step S4), the robot control unit 203 returns this control to step S1.
  • the robot control unit 203 ends this control.
  • step S5 when remote control, that is, remote control, is performed in step S5, the robot control unit 203 determines whether or not an autonomous command has been input (step S6).
  • the autonomous command is included in the robot operation signal.
  • step S6 When the autonomous command is included (YES in step S6), the robot control unit 203 returns this control to step S1.
  • the robot control unit 203 determines whether or not the authentication command has been input (step S7).
  • the authentication command is included in the robot operation signal.
  • step S8 the robot control unit 203 performs face recognition (step S8).
  • the face recognition is performed by the robot control unit 203 collating the face image data stored in the storage unit 204 with the image of the recipient P2 captured by the visibility camera 26.
  • a well-known method can be used for face recognition. Therefore, the description thereof will be omitted.
  • the robot control unit 203 returns the robot 2 to the remote operation (step S5).
  • the process is appropriately processed by the dialogue between the operator P1 and the recipient P2.
  • step S7 when the authentication command is not input (NO in step S7), the robot control unit 203 determines whether or not the end command has been input (step S9).
  • step S9 If the end command is not included (NO in step S9), the robot control unit 203 returns this control to step S5.
  • the robot control unit 203 ends this control.
  • the robot control unit 203 processes the image captured by the visual field camera 26 to determine whether or not a person is present in the image. Since the method of extracting a person in an image by image processing is well known, the description thereof will be omitted here.
  • the robot control unit 203 moves the robot 2 in the direction opposite to the image of the person. Whether or not a person's image approaches the field of view camera is determined, for example, by the size of the person's image and the enlargement speed thereof.
  • FIG. 7 is a flowchart showing an example of the operation of the unmanned delivery system 100 of FIG. 8A to 8L are schematic views showing an example of the operation of the unmanned delivery system 100 of FIG. 1 in order.
  • the drone 1 is operated by the operator P1
  • the robot 2 is autonomously or remotely controlled by the robot control unit 203 of the robot controller 201.
  • step S11 loading is performed at the collection / delivery base 5 (step S11). There are three modes of this loading.
  • the loading / unloading door 13 of the drone 1 is opened by the operator P1, and the luggage G is carried into the drone 1 by the transport vehicle 14 through the loading / unloading door 13.
  • the robot 2 gets on the drone 1 through the carry-in / out door 13.
  • the luggage G is carried into the drone 1 by the transport vehicle 14 as in the first aspect.
  • the robot 2 is mounted on the drone 1 by the winch 11.
  • the drone 1 is put into a hovering state, that is, a stopped flight state, and the elevating door 15 is opened.
  • the elevating door 15 is opened.
  • hooks for hooking the tips of the wires of the winch 11 are provided.
  • the robot 2 is autonomously operated and hooks the hook at the tip of the wire by itself on the hanging portion. Further, the robot 2 takes a predetermined storage posture as shown in FIG. 8B.
  • sensors are provided in the four hooking portions of the traveling portion 21 of the robot 2, and the robot control unit 203 receives a signal from the sensor that the hook at the tip of the wire is hooked on the hooking portion. Confirm and know. Then, a signal to that effect is transmitted to the operation unit communication unit 307. Then, this information is displayed on the operator display 33.
  • the operator P1 winds up the winch 11 and mounts the robot 2 on the drone 1. After that, the elevating door 15 is closed.
  • the robot 2 accommodates the luggage G in the accommodating portion 212, and is mounted on the drone 1 by the winch 11 as in the second aspect.
  • the robot 2 places the carried-in luggage G on the loading rack 17 in the hangar 16 by remote control.
  • the luggage G is stored in the luggage storage unit 212 of the third aspect, the luggage G is taken out from the storage unit 212 and placed on the luggage storage shelf 17.
  • the robot 2 charges the storage battery 28 from the drone 1 by autonomous operation, then fixes itself in the hangar 16 by an appropriate means, and takes the above-mentioned predetermined storage posture.
  • the luggage G and the robot 2 are then airlifted (step S12).
  • the package G is delivered to a plurality of destinations 4.
  • unloading is performed at a point on the way to the delivery destination 4 (step S13).
  • this unloading is performed by putting the drone 1 in a hovering state and lowering the robot 2 with a winch 11. This descent is performed by the operator P1 while checking the state of the ground with the field-of-view image captured by the field-of-view camera of the drone 1 displayed on the display device 33 for the operator. This is to ensure safety.
  • the altitude of the drone 1 is set to be equal to or higher than a predetermined level.
  • the predetermined altitude is set as appropriate, but is set to, for example, 20 m.
  • the robot 2 releases the stowed posture by autonomous operation, and then stores the baggage G to be delivered in the baggage storage unit 212 by remote operation.
  • the luggage G is transported by the robot 2 to the destination on the ground (step S14).
  • the drone 1 waits for the return of the robot 2 in the sky.
  • the robot 2 travels on the road in the suburbs while referring to the map data by autonomous driving. Then, when the rough road 6 is encountered on the way, the operation is switched to remote control, and the vehicle travels according to the operation of the operator P1.
  • the robot 2 when the robot 2 arrives at the delivery destination 4, the luggage G is delivered (step S15).
  • the robot 2 is switched to remote control by the operation of the operator P1, and when the recipient, that is, the customer, P2 appears by pressing the interphone of the delivery destination 4, the robot 2 has a face. Authenticate. Then, when the recipient P2 approaches, the robot 2 automatically stops and does not move unless there is a trigger. From there, the robot 2 automatically switches to remote control and hands the luggage G to the recipient P2. At this time, the robot 2 automatically takes a predetermined baggage delivery posture as shown in FIG. 8H. If the recipient P2 gets too close, the robot 2 automatically moves in the opposite direction to the recipient P2.
  • the robot 2 interacts with the recipient P2.
  • the robot control unit 203 emits the voice of the operator P1 acquired by the operator microphone 34 to the customer speaker 25, and displays the image of the operator P1 captured by the operator camera 36 on the customer display.
  • the voice of the recipient P2 acquired by the customer microphone 24 is emitted to the operator speaker 35, and the image of the recipient P2 captured by the visibility camera 26 is displayed on the customer display 23.
  • This dialogue is, for example, as follows.
  • the robot 2 returns to the unloading point in the same manner as the outward route (step S16). Then, the robot 2 is mounted on the drone 1 that has been waiting (step S17). The mounting mode of the robot 2 is the same as the second mode of loading in step S11.
  • the delivery destination 4 is a room of a high-rise condominium.
  • the drone 1 reaches the sky above the high-rise condominium, the drone 2 lowers the robot 2 to the rooftop.
  • the first descent mode is the same as when the destination 4 is in the suburbs.
  • the second descent mode the drone 1 lands on the rooftop, and the robot 2 descends to the rooftop through the open loading / unloading door 13.
  • the luggage G is transported by the robot 2 to the destination 4 in the condominium, that is, is transported by ground (step S14).
  • the drone 1 waits for the return of the robot 2 in the sky.
  • the robot 2 is remotely controlled.
  • the robot 2 descends to the target floor using the elevator of the high-rise condominium.
  • the elevator door is opened and closed wirelessly by the robot 2.
  • Robot 2 arrives at the rooftop by autonomous driving with appropriate remote control in between. Then, the robot 2 is mounted on the drone 1 that has been waiting (step S17). The mounting mode of the robot 2 is the same as the second mode of loading in step S11.
  • the robot 2 is arranged at a point on the way to the above-mentioned destination 4. In this case, the robot 2 may stay in the field or may be collected by the drone 1.
  • the baggage G can be smoothly delivered to the recipient P2.
  • the unmanned delivery system of the second embodiment is different from the unmanned delivery system 100 of the first embodiment in that the robot 2A is used instead of the robot 2 of the first embodiment, and the other points are the unmanned delivery system 100 of the first embodiment. It is the same.
  • FIG. 9A is a side view showing an example of the configuration of the robot 2A used in the unmanned delivery system according to the second embodiment of the present disclosure.
  • FIG. 9B is a plan view showing an example of the configuration of the robot 2A used in the unmanned delivery system according to the second embodiment of the present disclosure.
  • the robot 2A includes a traveling unit 21 and a pair of robot arms 22 provided on the traveling unit 21.
  • the traveling unit 21 may be a dolly.
  • Each of the pair of robot arms 22 is composed of a four-axis vertical articulated robot arm. That is, each robot arm 22 has a first link L1 that is rotatable around a vertical first rotation axis Ax1. This first link L1 is common to both robot arms 22.
  • the base end of the second link L2 is rotatably provided around the second rotation axis Ax 2 perpendicular to the first rotation axis Ax 1 .
  • the base end portion of the third link L3 is rotatably provided around the third rotation axis Ax 3 perpendicular to the second rotation axis Ax 2 .
  • the base end portion of the fourth link L4 is rotatably provided around the fourth rotation axis Ax 4 perpendicular to the third rotation axis Ax 3 .
  • a grip portion 221 having a three-claw 222 is provided at the tip of the fourth link L4. The pair of robot arms 22 grip the load G by the pair of gripping portions 221.
  • the traveling portion 21 of the robot 2 is formed in a dolly shape, and a luggage accommodating portion 212 is provided at the front end portion.
  • the luggage accommodating portion 212 is formed in the shape of a rectangular box having an open upper surface having a bottom wall 212a and a side wall 212b.
  • the side wall portion on the rear side of the luggage accommodating portion 212 is notched at an upper portion, and a pair of robot arms 22 can insert the luggage G into the luggage accommodating portion from the notched portion.
  • a pair of front wheels 211 and 211 and a pair of rear wheels 211 and 211 are provided on the bottom of the traveling portion 21.
  • one of the pair of front wheels 211, 211 and the pair of rear wheels 211, 211 is the steering wheel, and for example, any one of the pair of front wheels 211, 211 and the pair of rear wheels 211, 211 is the drive wheel.
  • a storage battery 28 and a motor are mounted on the traveling unit 21, and the motor drives the drive wheels using the storage battery 28 as a power source.
  • a pair of out triggers 213 are provided on both sides of the central portion of the traveling portion 21. The out trigger 213 is configured to be accommodated inside the traveling portion 21. When the robot 2A stops and loads / unloads the luggage G, the out trigger 213 projects left and right from the traveling unit 21 and lands on the ground to prevent the traveling unit 21 from moving.
  • a display robot arm 27 is provided behind the robot arm 22 of the traveling unit 21. Since the display robot arm 27 is the same as that of the first embodiment, the description thereof will be omitted.
  • the same effect as that of the unmanned delivery system 100 of the first embodiment can be obtained.
  • the unmanned delivery system of the third embodiment includes a plurality of robots 2. An identification symbol is assigned to each of these plurality of robots 2.
  • the robot controller 31 is provided with an operation unit for designating the robot 2 to be operated.
  • the robot operation signal generation unit 302 attaches an identification symbol of the robot 2 designated to the robot operation signal according to the operation of the operation unit.
  • the robot control unit 203 of each robot 2 controls the robot 2 based on the robot operation signal.
  • the operator P1 can operate a plurality of self-propelled robots 2 by one robot operator 31.
  • unmanned delivery can be efficiently performed.
  • the unmanned delivery system of the fourth embodiment is different from the unmanned delivery system 100 of the first embodiment in that the robot 2B is used instead of the robot 2 of the first embodiment, and the other points are the unmanned delivery system 100 of the first embodiment. It is the same.
  • FIG. 10 is an exploded view showing an example of the configuration of the mobile robot 1000 used in the unmanned delivery system according to the fourth embodiment of the present disclosure.
  • FIG. 11 is a perspective view showing a first configuration and a usage mode of the self-propelled robot 2B in which the mobile robot 1000 of FIG. 10 is configured as a delivery robot.
  • FIG. 12 is a perspective view showing a second configuration and a usage mode of the self-propelled robot 2B in which the mobile robot 1000 of FIG. 10 is configured as a delivery robot.
  • FIG. 13 is a perspective view showing a third configuration and a usage mode of the self-propelled robot 2B in which the mobile robot 1000 of FIG. 10 is configured as a delivery robot.
  • FIG. 11 is a perspective view showing a first configuration and a usage mode of the self-propelled robot 2B in which the mobile robot 1000 of FIG. 10 is configured as a delivery robot.
  • FIG. 12 is a perspective view showing a second configuration and a usage mode of the self-propelled robot 2B in
  • FIG. 14 is a perspective view showing a first configuration and a usage mode of the high-altitude walking robot 2000 in which the mobile robot 1000 of FIG. 10 is configured as a maintenance robot.
  • FIG. 15 is a perspective view showing a second configuration and a usage mode of the high-altitude walking robot 2000 in which the mobile robot 1000 of FIG. 10 is configured as a maintenance robot.
  • the mobile robot 1000 can be composed of a self-propelled robot 2B which is a delivery robot specialized in delivery and a high-altitude walking robot 2000 which is a maintenance robot specialized in maintenance of high-rise structures. This will be described in detail below.
  • the mobile robot 1000 includes a base unit 310, robot arm units 320 and 330, and mobile units 340 and 350.
  • the base unit 310 is shown in the central portion
  • the robot arm portion 320 and the carrier 360 are shown in the upper left portion
  • the moving portion 340 is shown in the lower left portion
  • the robot arm portion 330 is shown in the upper right portion.
  • the moving portion 350 is shown in the lower right.
  • the robot arm portion 320 is attached to the upper surface of the base unit 310, and the moving portions 340 are attached to the side surfaces of both ends of the base unit 310, whereby the self-propelled robot 2B which is a delivery robot is configured.
  • the robot arm portion 330 is attached to the upper surface of the base unit 310, and the moving portions 350 are attached to the side surfaces of both ends of the base unit 310, whereby the high-altitude walking robot which is a maintenance robot is attached. 2000 is composed.
  • the base unit 310 is a portion constituting the body and chassis of the mobile robot 1000, has a substantially constant thickness, and is formed in a shape having narrow portions at both ends in the longitudinal direction.
  • the base unit 310 is provided with a robot arm portion mounting portion 311 to which the robot arm portions 320 and 330 are mounted on the upper surface of the central portion of the base unit 310.
  • the robot arm portion mounting portion 311 is formed in a short columnar shape, for example, and is rotatable around a rotation axis A300 perpendicular to the upper surface of the central portion of the base unit 310 by a motor (not shown) on the main body of the base unit 310. It is provided.
  • the robot arm portion mounting portion 311 is provided so that its upper surface is flush with the upper surface of the central portion of the base unit 310.
  • a moving portion mounting portion 312 is provided on each side surface of the narrow portion of each end portion of the base unit 310, and an opening is formed in the moving portion mounting portion 312. The end portion 313 of the axle to which the moving portions 340 and 350 are connected is exposed to this opening.
  • One of the two pairs of axles corresponding to the narrow portions at both ends of the base unit 310 is steerable, and one of the two pairs of axles is a drive (not shown). It is the drive axle driven by the source, and the other axle is the driven axle. Both axles may be used as drive axles.
  • This drive source is composed of, for example, a motor.
  • the base unit 310 is equipped with a battery 328 and a robot controller 1201.
  • the battery 328 supplies electric power for operating the mobile robot 1000.
  • the robot controller 1201 is configured in the same manner as the robot controller 201 of the first embodiment.
  • the base unit 310 When a crawler is attached to the base unit 310 as a moving portion 340C, the base unit 310 is formed to have a narrow width over the entire length, and the robot arm portion attaching portion 311 is integrated with the main body, that is, cannot rotate. , Formed in. Further, the pair of axles are non-steering axles. Also in this case, the robot arm portion mounting portion 311 may be rotatable, and the robot arm portion 320 may be configured to be mountable to the robot arm portion mounting portion 311.
  • the base unit 310 is driven by each axle individually as a base end link of the robot arm while being position-controlled by a motor.
  • the robot arm unit 320 as the first robot arm unit is a robot arm unit constituting the self-propelled robot 2B. Since it is necessary to lift the luggage to a certain height in order to handle the delivered luggage, the robot arm portion 320 includes a body portion 321 extending vertically upward on the upper surface of the robot arm portion mounting portion 311. A pair of robot arms 322 and 322 are provided at the upper end of the body portion 321. Each robot arm 322 is composed of an articulated robot arm.
  • the articulated robot arm here is an articulated arm.
  • the configuration of the robot arm is not particularly limited, and may be a horizontal articulated arm, which is a so-called SCARA arm, in addition to a vertical articulated arm.
  • a hand 322a is attached to the tip of the robot arm 322.
  • the configuration of the hand 322a is not particularly limited.
  • the hand 322a is composed of a suction hand that vacuum-sucks the object.
  • the hand 322a may be composed of, for example, a hand holding an object from both sides.
  • a customer display 323 is provided at the upper end of the body portion 321.
  • the customer display 323 is provided with a customer microphone 324, a customer speaker 325, and a field of view camera 326.
  • the customer display 323, the customer microphone 324, the customer speaker 325, and the view camera 326 are configured in the same manner as the customer display 23, the customer microphone 24, the customer speaker 25, and the view camera 26 of the first embodiment, respectively. There is. These enable dialogue between the self-propelled robot 2B and the recipient of the delivery destination, that is, the customer, P2.
  • the self-propelled robot 2B is connected to the carrier 360 that accommodates the delivered luggage at the time of delivery.
  • the carrier 360 does not run on its own, but runs by being pushed or pulled by the self-propelled robot 2B.
  • the front-rear direction in the traveling direction of the carrier 360 is referred to as the front-rear direction of the carrier 360.
  • the carrier 360 includes a main body 361 composed of a rectangular parallelepiped box body.
  • the internal space of the main body 361 is a storage space for packages to be delivered.
  • the main body 361 has a stepped portion 365 recessed forward at the lower part of the rear end surface.
  • An opening / closing door 364 is provided on the upper portion of the stepped portion 365 on the rear surface of the main body 361.
  • the opening / closing door 364 is for loading / unloading the cargo to be delivered into the luggage storage space of the main body 361.
  • Wheels 362 are provided at the four corners of the bottom of the main body 361.
  • a pair of connecting portions 361a composed of protrusions are provided on both side surfaces of the main body 361.
  • On the rear end faces of the pair of connecting portions 361a connecting holes formed of bottomed holes for receiving the pair of hands 332a of the self-propelled robot 2B are formed.
  • the self-propelled robot 2B is connected to the carrier 360 by inserting a pair of hands 332a into these pair of connecting holes and sucking the bottom surface of the connecting holes.
  • the connecting structure between the connecting portion 361a and the hand 322a is not limited to this.
  • the connecting structure may be used as long as the connecting portion 361a and the hand 322a can be connected.
  • the connecting portion 361a and the hand 322a may be provided with an engaging portion with each other, thereby connecting the two.
  • the carrier 360 is further equipped with a battery 363.
  • the connecting portion 361a is provided with a first electric contact electrically connected to the battery 363, and the hand 322a of the self-propelled robot 2B is provided with a second electric contact electrically connected to the battery 328. There is.
  • the self-propelled robot 2B is connected to the carrier 360, the first electric contact and the second electric contact come into contact with each other to electrically conduct electricity, and the battery 328 of the self-propelled robot 2B becomes the battery 363 of the carrier 360. Charged by. This charging is appropriately performed as needed by the control of the robot controller 1201 of the base unit 310. As a result, the travelable distance of the self-propelled robot 2B becomes longer than that in the case where the carrier 360 does not have the battery 363.
  • the moving unit 340 is composed of three types of traveling units that drive the mobile robot 1000.
  • the first moving unit 340A is composed of indoor tires as the first traveling unit.
  • indoor tires for example, the unevenness of the tread is formed to be relatively small.
  • the indoor tire is attached to the base unit 310 so that its rotating shaft is connected to the end portion 313 of the axle of the moving portion attaching portion 312 of the base unit 310.
  • the second moving unit 340B is composed of outdoor tires as the second traveling unit. Outdoor tires have relatively large tread irregularities.
  • the suspension is attached to the tire.
  • the outdoor tire is attached to the base unit 310 so that its rotating shaft is connected to the end portion 313 of the axle of the moving portion attaching portion 312 of the base unit 310. Further, the suspension is appropriately connected to the base unit 310.
  • the third moving unit 340C is composed of a crawler as a third traveling unit. Crawlers are also known as caterpillars.
  • the crawler is attached to the base unit 310 so that its drive mechanism is connected to the end portion 313 of the axle of the moving portion attachment portion 312 of the base unit 310.
  • the robot arm unit 330 as the second robot arm unit is a robot arm unit constituting the high-altitude walking robot 2000.
  • the robot arm unit 330 includes a pair of robot arms 331 and 331.
  • Each robot arm 331 is composed of an articulated robot arm.
  • the articulated robot arm here is a 6-axis robot arm.
  • a hand 331a is attached to the tip of the robot arm 331.
  • the configuration of the hand 331a is not particularly limited.
  • the hand 331a is composed of a suction hand that vacuum-sucks the object.
  • the hand 331a may be composed of, for example, a hand holding an object.
  • the robot arm portion 330 since the robot arm portion 330 requires a long arm extending in the horizontal direction in order to perform maintenance at a high place, the two robot arms 331 and 331 are directly attached to each other. It is attached to the robot arm portion attachment portion 311 of the base unit 310. As a result, the two robot arms 331 and 331 can be extended along the upper surface of the base unit 310 in close proximity to each other. Further, since it is necessary to carry the high-altitude walking robot 2000 to a high place, the robot arm portion 330 is configured to compactly fold the robot arm 331.
  • the robot arm unit 330 further includes a field of view camera 326.
  • the field of view camera 326 is also directly attached to the robot arm portion attachment portion 311 of the base unit 310.
  • the field of view camera 326 is configured in the same manner as the field of view camera 26 of the first embodiment.
  • a microphone and a speaker may be provided for cooperation with local workers and for collecting peripheral information.
  • the moving unit 350 is composed of two types of legs that allow the mobile robot 1000 to walk at a high place.
  • the fourth moving part 350A is composed of a short leg as the first leg part.
  • the short leg is composed of, for example, a 5-axis robot arm.
  • the base end link 354 corresponds to the base portion of the leg portion
  • the tip portion 352 corresponds to the foot portion of the leg portion.
  • the base end link 354 is connected to the end portion 313 of the axle of the moving portion mounting portion 312 of the base unit 310.
  • the tip portion 352 is configured to be rotatable with respect to the link to be connected.
  • the tip portion 352 is configured to be adsorbed on the object.
  • the tip portion 352 is provided with an electromagnet, and by turning on the electromagnet, the tip portion 352 is attracted to the magnetic object, and by turning off the electromagnet, the tip portion 352 is released from the magnetic object. It is configured to let you. Therefore, the tip portion 352 is attracted and fixed to the object in a state where the torsional rotation axis of the tip portion 352 is parallel to the rotation axis of the proximal end link 354, and the torsional rotation of the distal end portion 352 is controlled in compliance.
  • the link 354 is rotated, the base unit 310 moves in the direction opposite to the rotation direction. As a result, as will be described later, the high-altitude walking robot 2000 can walk like an inchworm.
  • the fourth moving portion 350A further includes a hollow fixed cover member 353.
  • the fixed cover member 353 is fixed to the moving portion mounting portion 312 of the base unit 310 so as to rotatably penetrate the base end link 354. As a result, the short leg is attached to the base unit 310.
  • the fifth moving part 350B is composed of a long leg as a second leg part.
  • the long leg is composed of, for example, a 7-axis robot arm. Other than this, the configuration is the same as that of the fourth moving unit 350A.
  • This self-propelled robot 2B is used, for example, at the collection / delivery base 5 to carry luggage.
  • the collection / delivery base 5 may be a collection / delivery center.
  • the self-propelled robot 2B performs the following collection and delivery work, for example.
  • the self-propelled robot 2B inserts the pair of hands 322a of the pair of robot arms 322 into the connecting holes of the pair of connecting portions 361a of the carrier 360, and sucks the bottom surface of the connecting holes with the hands 322a. Connect 360 with itself. At this time, the battery 328 of the self-propelled robot 2B is charged by the battery 363 of the carrier 360. Further, the front end portion of the self-propelled robot 2B is located at the step portion 365 on the rear surface of the carrier vehicle 360, and the self-propelled robot 2B is connected close to the carrier vehicle 360.
  • the self-propelled robot 2B self-propells to the luggage storage area while pushing and pulling the carrier 360.
  • the self-propelled robot 2B stops the suction of the pair of hands 322a, pulls out the pair of hands 322a from the connecting holes of the pair of connecting portions 361a of the carrier 360, and separates the carrier 360 from itself.
  • the self-propelled robot 2B loads the load on the carrier 360 by itself. That is, the robot that carries the luggage and the robot that loads and unloads the luggage are the same.
  • the self-propelled robot 2B opens the opening / closing door 364 of the carrier 360 by the pair of robot arms 322, and holds the luggage placed in the luggage storage area by the pair of hands 322a of the pair of robot arms 322.
  • the self-propelled robot 2B Place it in the containment space of the carrier 360. At this time, the self-propelled robot 2B performs the work while rotating the body portion 321 as necessary. After accommodating the required luggage in the carrier 360, the self-propelled robot 2B closes the opening / closing door 364, connects the carrier 360 with itself, and self-propells to a predetermined place.
  • the self-propelled robot 2B separates the carrier 360 from itself by working in the reverse order of the above, and takes out the load from the carrier 360.
  • the self-propelled robot 2B interacts with a person by means of a customer display 323, a customer microphone 324, a customer speaker 325, and a field of view camera 326, if necessary.
  • ⁇ Second configuration and usage of self-propelled robot 2B> Referring to FIG. 12, in the second configuration of the self-propelled robot 2B, the robot arm portion 320 is attached to the robot arm portion mounting portion 311 of the base unit 310, and the second moving portion is attached to each moving portion mounting portion 312 of the base unit 310. A 340B outdoor tire is installed. As a result, a delivery robot for outdoor traveling is configured as the second configuration of the self-propelled robot 2B.
  • the self-propelled robot 2B of the second configuration is equipped with tires for outdoor use, it is suitably used as a self-propelled robot for delivery that finally delivers the package to the destination 4. Other than this, it is the same as the self-propelled robot 2B of the first configuration.
  • ⁇ Third configuration and usage of self-propelled robot 2B> Referring to FIG. 13, in the third configuration of the self-propelled robot 2B, the robot arm portion 320 is attached to the robot arm portion mounting portion 311 of the base unit 310, and the third moving portion is attached to each moving portion mounting portion 312 of the base unit 310. A 340C crawler is attached. As a result, a delivery robot for traveling on rough roads is configured as the third configuration of the self-propelled robot 2B.
  • the self-propelled robot 2B having the third configuration includes a crawler, it is suitably used as a self-propelled robot for rough road delivery that travels on a rough road and finally delivers the package to the destination 4. Other than this, it is the same as the self-propelled robot 2B of the first configuration.
  • rough roads include roads in the event of a disaster, rough terrain, and the like.
  • the self-propelled robot 2B of the second configuration changes the direction by reducing or stopping the speed of the crawler on one side.
  • the robot arm portion 330 is attached to the robot arm portion attachment portion 311 of the base unit 310.
  • a pair of robot arms 331 are attached to the robot arm portion attachment portion 311 of the base unit 310 so as to be positioned symmetrically with respect to the rotation axis A300.
  • the field of view camera 326 is attached to the robot arm portion mounting portion 311 so as to be located in front of the center of the pair of robot arms 331.
  • the high-altitude walking robot 2000 having the first configuration is used, for example, as follows.
  • the high-altitude walking robot 2000 is transported to a maintenance site of a high-rise building by, for example, the drone of the first embodiment.
  • a steel tower is exemplified as a high-rise building.
  • the scaffolding member 371 which is a magnetic member serving as a scaffolding
  • the high-altitude walking robot 2000 attracts the tip portion 352 of each short leg to the side surface of the scaffolding member 371.
  • a horizontal beam member of a steel tower is exemplified.
  • the work object is sucked and held by the pair of hands 331a of the pair of robot arms 331 to perform the required maintenance.
  • a wire rod is exemplified.
  • the high-altitude walking robot 2000 walks as follows.
  • the tip portion 352 is in a state where the torsional rotation axis of the tip portion 352 of each short leg is parallel to the rotation axis of the proximal link 354 with a slight gap with respect to the scaffolding member 371. Is attracted to the scaffolding member 371, and the base end link 354 is rotated backward in a state where the torsional rotation of the tip portion 352 is controlled in compliance. Then, the base unit 310 moves forward and downward by the principle of "parallel link". When the base unit 310 comes into contact with the scaffolding member 371, the high-altitude walking robot 2000 moves the tips 352 of the two pairs of short legs forward and sucks and fixes them in the same manner as described above.
  • the base unit 310 moves upward while moving forward, and then moves downward to come into contact with the scaffolding member 371. After that, by repeating this operation, the high-altitude walking robot 2000 walks like an inchworm.
  • the high-altitude walking robot 2000 walks like an inchworm by moving the four short legs forward in order while maintaining the so-called "three-point support" state. Can be done.
  • the high-altitude walking robot 2000 having the second configuration has a long leg that is longer and thicker than the short leg, a wider range of maintenance work can be performed.
  • the robot controller 201 may be configured to switch and control the self-propelled robot 2 between autonomous driving and remote driving.
  • unmanned delivery can be performed more easily by performing relatively easy work by independent operation and performing relatively difficult work by remote control.
  • the unmanned delivery system 100 includes a plurality of the self-propelled robots 2 and a robot operating device 31 for remotely operating the plurality of self-propelled robots 2, and the plurality of self-propelled robots 2 and the robot operating device 31. May be configured so that the plurality of self-propelled robots 2 can be operated by one robot operating device 31.
  • the unmanned aerial vehicle 1 includes an elevating device 11 capable of lowering a mounted object to the ground and mounting an object on the ground, and the robot controller 201 is such that the self-propelled robot 2 itself is described. It may be configured to be fixed to the elevating device 11 and to confirm that it has been fixed.
  • the self-propelled robot 2 can be safely mounted on the unmanned aerial vehicle 1.
  • the self-propelled robot 2 when the self-propelled robot 2 is mounted on the unmanned aerial vehicle 1, the self-propelled robot 2 takes a predetermined storage posture and charges its own storage device 328 by the unmanned aerial vehicle 1. It may be configured to control the self-propelled robot 2.
  • the self-propelled robot 2 can increase the storage space of the luggage G by taking a predetermined storage posture, and by charging its own capacitor 328 by the unmanned aerial vehicle 1, it is self-propelled.
  • the running robot 2 can be operated reliably.
  • the self-propelled robot 2B includes three assembly units of a robot arm unit 320, a base unit 310, and a moving unit 340 for moving the self-propelled robot 2B, and the robot arm unit 320 is provided on the upper surface of the base unit 310. May be attached, and the moving portion 340 may be attached to the side surface of the base unit 310.
  • the self-propelled robot 2B can be easily assembled.
  • the base unit 310 is directly attached to the upper surface of the first robot arm portion 320 including the body portion 321 extending vertically from the upper surface of the base unit 310 and the upper surface of the base unit 310, and is attached to the upper surface of the base unit 310.
  • a second robot arm portion 330 that can be extended along the proximity to each other can be selectively attached, and a traveling portion 340 for traveling the self-propelled robot 2B and the self-propelled robot 2B are mounted on the side surface thereof. It may be configured so that the leg portion 350 for walking the running robot 2B at a high place can be selectively attached.
  • a self-propelled robot 2B for delivery can be configured by attaching the first robot arm portion 320 to the upper surface of the base unit 310 and attaching the traveling portion 340 to the side surface of the base unit 310. Further, by attaching the second robot arm portion 330 to the upper surface of the base unit 310 and attaching the leg portions 350 to the side surface of the base unit 310, for example, a high-altitude walking robot 2000 for maintenance of a high-rise structure can be configured.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Economics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • General Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Remote Sensing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

無人配送システム100は、自走ロボット2、荷物を届ける途中の地点まで当該荷物を輸送するための無人航空機1と、を備える。自走ロボット2は、前記途中の地点に降ろされた荷物を届け先4に届けるよう、当該自走ロボット2を制御するよう構成されたロボット制御器を備える。

Description

無人配送システム及び無人配送方法 関連出願への相互参照
 本件出願は、2020年10月30日に日本特許庁に出願された特願2020-183351号及び2020年11月30日に日本特許庁に出願された特願2020-198526号の優先権を主張するものであり、それらの全体を参照することにより本件出願の一部をなすものとして引用する。
 本発明は、無人配送システム及び無人配送方法に関する。
 従来、ドローンを用いた配送システムが知られている。例えば、特許文献1に開示された配送システムでは、車両によって目的地の近辺まで荷物を輸送し、そこから目的地までドローンによって荷物を輸送する。
特開2020-083600号公開特許公報
 上記従来の配送システムでは、最終的に無人の飛行体によって荷物を目的地に届けるので、現行の車両とそのドライバーによる宅配システムと比べると、受取人に対する荷物の受け渡しを円滑に行うことが難しい。
 本開示は上記のような課題を解決するためになされたもので、受取人に対する荷物の受け渡しを円滑に行うことが可能な配送システム及び配送方法を提供することを目的としている。
 上記目的を達成するために、本開示のある形態に係る無人配送システムは、自走ロボットと、荷物を届ける途中の地点まで当該荷物を輸送するための無人航空機と、を備え、前記自走ロボットは、前記途中の地点に降ろされた前記荷物を前記届け先に届けるよう、当該自走ロボットを制御するよう構成されたロボット制御器を備える。
 また、本開示の他の形態に係る無人配送システムは、自走ロボットと、荷物を届ける途中の地点まで当該荷物及び前記自走ロボットを輸送するための無人航空機と、を備え、前記自走ロボットは、前記途中の地点に降ろされた前記荷物を前記届け先に届けるよう、当該自走ロボットを制御するよう構成されたロボット制御器を備える。
 また、本開示のさらなる他の形態に係る無人配送方法は、無人航空機によって、荷物を届ける途中の地点まで当該荷物を輸送し、自走ロボットによって、前記途中の地点に降ろされた前記荷物を前記届け先に届ける。
 また、本開示のさらなる他の形態に係る無人配送方法は、無人航空機によって、荷物を届ける途中の地点まで当該荷物及び自走ロボットを輸送し、前記自走ロボットによって、前記途中の地点に降ろされた前記荷物を前記届け先に届ける。
開示の効果
 本開示は、受取人に対する荷物の受け渡しを円滑に行うことが可能な配送システム及び配送方法を提供できるという効果を奏する。
図1は、本開示の実施形態1に係る無人配送システムの概略の構成の一例を示す模式図である。 図2は、図1の操作ユニットの詳細な構成の一例を示す斜視図である。 図3は、図1の自走ロボットの構成の一例を示す側面図である。 図4は、図1の無人配送システムの制御系統の構成の一例を示す機能ブロック図である。 図5は、ロボット制御器の記憶部に格納された配送用データの一例を示す模式図である。 図6は、自律運転/遠隔運転切替制御の内容の一例を示すフローチャートである。 図7は、図1の無人配送システムの動作の一例を示すフローチャートである。 図8Aは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Bは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Cは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Dは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Eは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Fは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Gは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Hは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Iは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Jは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Kは、図1の無人配送システムの動作の一例を順に示す模式図である。 図8Lは、図1の無人配送システムの動作の一例を順に示す模式図である。 図9Aは、本開示の実施形態2に係る無人配送システムに用いられる自走ロボットの構成の一例を示す側面図である。 図9Bは、本開示の実施形態2に係る無人配送システムに用いられる自走ロボットの構成の一例を示す平面図である。 図10は、本開示の実施形態4に係る無人配送システムに用いられる移動ロボットの構成の一例を示す分解図である。 図11は、図10の移動ロボットがデリバリロボットとして構成された自走ロボットの第1構成及び使用態様を示す斜視図である。 図12は、図10の移動ロボットがデリバリロボットとして構成された自走ロボットの第2構成及び使用態様を示す斜視図である。 図13は、図10の移動ロボットがデリバリロボットとして構成された自走ロボットの第3構成及び使用態様を示す斜視図である。 図14は、図10の移動ロボットがメンテナンスロボットとして構成された高所歩行ロボットの第1構成及び使用態様を示す斜視図である。 図15は、図10の移動ロボットがメンテナンスロボットとして構成された高所歩行ロボットの第2構成及び使用態様を示す斜視図である。
開示を実施するための形態
 以下、本開示の具体的な実施形態を、図面を参照しながら説明する。なお、以下では全ての図面を通じて同一又は相当する要素には同一の参照符号を付して、その重複する説明を省略する。また、以下の図は、本開示を説明するための図であるので、本開示に無関係な要素が省略される場合、誇張等のために寸法が正確でない場合、簡略化される場合、複数の図において互いに対応する要素の形態が一致しない場合等がある。また、本開示は、以下の実施形態に限定されない。
 (実施形態1)
 図1は、本開示の実施形態1に係る無人配送システム100の概略の構成の一例を示す模式図である。
 [ハードウェアの構成]
 図1を参照すると、実施形態1の無人配送システム100は、無人航空機1と、自走ロボット2と、操作ユニット3と、を含む。以下、無人航空機をドローンと呼ぶ。
 無人配送システム100は、ドローン1によって、荷物を集配拠点5から届け先4に至る配送経路の途中の地点まで当該荷物を輸送し、自走ロボット2によって、この途中の地点に降ろされた荷物を届け先4に届けるよう、構成されている。なお、以下では、簡略化のために、「自走ロボット」を単に「ロボット」と呼ぶ場合がある。また、配送経路の途中の地点は、荷物を届ける途中の地点を意味する。以下、これらの構成要素を詳しく説明する。
 <ドローン1>
 図1を参照すると、ドローン1は、配送する荷物と自走ロボット2を輸送することができるものであればよい。ドローン1として、飛行機、ヘリコプターが例示される。飛行機は、通常の滑走により離着陸するものの他、VTOL機(Vertical Take-Off and Landing aircraft、垂直離着陸機)を含む。ドローン1は、ここでは、VTOL機で構成される。
 このドローン1は、内部に、図8Cに示された格納庫16が形成されている。図8Cを参照すると、格納庫16には、中央空間を囲むように荷置き棚17が配置されている。格納庫16は、この中央空間に自走ロボット2が格納され、且つ、自走ロボット2が荷置き棚17への荷物の出し入れ作業を行えるように構成されている。
 図8Aを参照すると、ドローン1の後部の側壁には、下端部を支点に前後方向に回動して開閉する搬出入扉13が設けられている。搬出入扉13の内面は平坦に形成されていて、搬出入扉13は、開いて先端が着地すると、荷物G等の搬出入経路になる。また、図8Bを参照すると、ドローン1には、昇降装置11が設けられている。昇降装置11は、ここでは、ウインチで構成されている。以下、ウインチ11と表記する。このウインチ11のために、ドローン1の底壁には、下方に向かって左右に開閉する昇降扉15が設けられていて、物体をウインチ11で昇降させる場合には、この昇降扉15が開放される。図1を参照すると、ドローン1には、ドローン制御器101が配置されている。ドローン制御器101は、プロセッサPr3及びメモリMe3を備える。
 <操作ユニット3>
 図2は図1の操作ユニット3の詳細な構成の一例を示す斜視図である。図3は、図1の自走ロボット2の構成の一例を示す側面図である。
 図2を参照すると、例えば、操作室39に操作ユニット3が配置されている。操作ユニット3の配置場所は特に限定されない。操作ユニット3は、自走ロボット2を操作するロボット操作器31と、ドローン1を操作するドローン操作器32と、操作者用表示器33と、操作者マイク34と、操作者スピーカ35と、操作者カメラ36と、を備える。
 図1乃至図3を参照すると、ロボット操作器31は、自走ロボット2の走行部21を操作する走行部操作器31Aと、自走ロボット2のロボットアーム22を操作するアーム操作器31Bとを含む。走行部21は、台車であってもよい。このアーム操作器31Bには、顧客用表示器23を支持する表示器ロボットアーム27を操作するための操作部が設けられている。ロボット操作器31は、種々の操作器で構成され得る。ここでは、例えば、ジョイスティックで構成される。ロボット操作器31は机37の上に配置される。
 ドローン操作器32は、例えば、航空機を操縦する各種の操縦桿で構成される。ここでは、ドローン操作器32は、ジョイスティック状の操縦桿で構成される。ドローン操作器32には、ドローン1を操縦するための各種の操作部が設けられている。ドローン操作器32は、机37の上に配置されている。
 操作者用表示器33は、例えば、液晶ディスプレイで構成される。操作者用表示器33には、操作者P1に提示することが必要な情報を含む画像が表示される。そのような画像として、自走ロボット2の視界カメラ26で撮像された画像、ドローン1の視界カメラで撮像された視界画像、ドローン1を操縦するのに必要な、位置、速度、燃料量等の情報、ナビゲーション画像等が例示される。
 操作者用表示器33は机37の上に配置される。
 操作者スピーカ35は、操作者P1に必要な音声情報を提供する。操作者スピーカ35は、ここでは、ヘッドフォンで構成されているが、他の形態に構成されていてもよい。
 操作者マイク34は、操作者P1の音声を取得する。操作者マイク34は、ここでは、ヘッドフォン35に設けられているが、他の形態に構成されていてもよい。
 操作者カメラ36は、操作者P1を撮像する。操作者カメラ36は、ここでは、操作者用表示器33に設けられているが、他の場所に設けられてもよい。
 机37には、操作ユニット制御器301が配置されている。操作ユニット制御器301は、プロセッサPr1及びメモリMe1を備える。
 操作者P1は、例えば、ドローン1の飛行時には、右手でドローン操作器32を操作して、ドローン1を操縦し、自走ロボット2の動作時には、左右の手で、それぞれ、走行部操作器31A及びアーム操作器31Bを操作して、自走ロボット2を操作する。操作者P1は、例えば、宅配業者である。宅配業者は、例えば、宅配担当者であってもよい。操作者P1は、宅配担当者ではなく、専用のオペレータであってもよい。
 <自走ロボット2>
 図3を参照すると、自走ロボットの一例であるロボット2は、自律走行可能で且つ荷物を扱うことが可能なロボットであればよい。ロボット2は、ここでは、自律走行可能な走行部21と走行部21の上に設けられたロボットアーム22とを備える。走行部21は、例えば、台車であってもよい。なお、荷物を扱う構成要素は、必ずしもロボットアームでなくてよい。図3のロボット2は、図面左方向及び右方向が、それぞれ、走行方向における前方向及び後方向である。
 図3には、ロボット2が簡略化されて示されている。実際には、ロボット2のロボットアーム22は、図9A及び9Bに示されているように、実施形態2のロボット2Aの双腕のロボットアーム22と同様に構成されている。つまり、ロボット2のロボットアーム22は、双腕の垂直多関節型のロボットアームである。但し、実施形態2のロボット2Aのロボットアーム22は、4軸の垂直関節型のロボットアームであるが、図3のロボット2のロボットアーム22は、5軸の垂直多関節型のロボットアームである。図9A及び9Bを参照すると、一対のロボットアーム22の先端には、それぞれ、3本爪222を有する手首部である把持部221が設けられていて、一対のロボットアーム22は、これらの一対の把持部221によって、荷物Gを把持する。
 図3を参照すると、ロボット2の走行部は、実際には、直方体状の車体フレームを備えていて、この車体フレームに荷物収容部212が前後方向に移動可能に設けられている。この車体フレームは、適宜なケースによって覆われていて、このケースの前面に荷物収容部212が出入りするための開口部が設けられて。荷物収容部212は、上面が開放された矩形の箱状に形成されていて、非荷物出し入れ時には、前端面が、このケースと面一になる後退位置に位置し、荷物出し入れ時には、前側の所定部分が前方に突出する前進位置に位置するように構成されている。
 走行部21の底部には、一対の前輪211,211と一対の後輪211,211が設けられている。例えば、一対の前輪211,211及び一対の後輪211,211のいずれかが操舵輪であり、また、例えば、一対の前輪211,211及び一対の後輪211,211のいずれかが駆動輪である。走行部21には、蓄電池28とモータとが搭載されていて、蓄電池28を電源としてモータが駆動輪を駆動する。また、上述の荷物収容部212も所定の駆動機構によって、前後に摺動駆動される。
 さらに、走行部21のロボットアーム22の後方には、表示器ロボットアーム27が設けられている。表示器ロボットアーム27の先端には、顧客用表示器23が取り付けられている。顧客用表示器23の適所に、顧客マイク24、顧客スピーカ25、及び視界カメラ26が設けられている。表示器ロボットアーム27は、例えば、垂直多関節型のロボットアームで構成されていて、任意の姿勢を取ることが可能であり、顧客用表示器23、顧客マイク24、顧客スピーカ25、及び視界カメラ26を任意の方向に向けることが可能である。
 顧客用表示器23は、例えば、液晶ディスプレイで構成される。顧客用表示器23には、図8Fに示されているように、受取人P2に提示することが必要な情報を含む画像が表示される。そのような画像として、操作者カメラ36で撮像された画像等が例示される。
 顧客スピーカ25は、受取人P2に必要な音声情報を提供する。音声情報として、操作者マイク34で取得された操作者P1の声が例示される。
 操作者マイク34は、操作者P1の音声を取得する。操作者マイク34は、ここでは、ヘッドフォン35に設けられているが、他の形態に構成されていてもよい。
 操作者カメラ36は、操作者P1を撮像する。操作者カメラ36は、ここでは、操作者用表示器33に設けられているが、他の場所に設けられてもよい。
 さらに、走行部21には、ロボット制御器201が設けられている。ロボット制御器201は、プロセッサPr2及びメモリMe2を備える。
 このように構成されたロボット2は、ロボット制御器201によって、自律運転又は遠隔運転するよう制御され、ロボットアーム22によって荷物Gを扱い、且つ、走行部21によって、所望の方向に移動することができる。
 [制御系統の構成]
 図4は、図1の無人配送システム100の制御系統の構成の一例を示す機能ブロック図である。
 図4を参照すると、無人配送システム100は、操作ユニット制御器301と、ロボット制御器201と、ドローン制御器101と、を備える。
 操作ユニット制御器301は、ロボット操作信号生成部302、ドローン操作信号生成部303、表示制御部304、マイクIF305、ヘッドフォンIF306、操作ユニット通信部307、及びカメラ制御部308を含む。
 操作ユニット通信部307は、データ通信可能な通信器で構成される。操作ユニット制御器301は、ロボット操作信号生成部302、ドローン操作信号生成部303、表示制御部304、マイクIF305、ヘッドフォンIF306、及びカメラ制御部308は、プロセッサPr1とメモリMe1とを有する演算器で構成される。これらは、この演算器において、メモリMe1に格納された制御プログラムをプロセッサPr1が実行することによって実現される機能ブロックである。この演算器は、具体的には、例えば、マイクロコントローラ、MPU、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)等で構成される。これらは、集中制御を行う単独の演算器で構成されてもよく、分散制御を行う複数の演算器で構成されてもよい。 ロボット操作信号生成部62は、ロボット操作器31の操作に応じて、ロボット操作信号を生成する。ドローン操作信号生成部303は、ドローン操作器32の操作に応じてドローン操作信号を生成する。表示制御部304は、操作ユニット通信部307から送信される画像信号に応じた画像を操作者用表示器33に表示させる。マイクIF305は、操作者マイク34で取得された音声を適宜な音声信号に変換する。ヘッドフォンIF306は、操作ユニット通信部307から送信される音声信号に応じ音声を操作者スピーカに放出させる。カメラ制御部308は、操作者カメラ36で撮像された画像の画像信号を生成する。
 操作ユニット通信部307は、ロボット操作信号生成部302から送信されるロボット操作信号、ドローン操作信号生成部303から送信されるドローント操作信号、マイクIF305から送信される音声信号、及びカメラ制御部308から送信される画像信号を無線通信信号に変換して無線送信する。また、操作ユニット通信部307は、ロボット通信部202から送信される無線通信信号を受信して画像信号又は音声信号に変換し、画像信号を表示制御部304に送信し、音声信号をマイクIF305に送信する。また、操作ユニット通信部307は、ドローン通信部102から送信される無線通信信号を受信して、情報信号に変換し、これを表示制御部304に送信する。
 ロボット制御器201は、ロボット通信部202、ロボット制御部203、及び記憶部204を含む。ロボット通信部202は、データ通信可能な通信器で構成される。ロボット制御部203及び記憶部204は、プロセッサPr2とメモリMe2とを有する演算器で構成される。ロボット制御部203及び記憶部204は、この演算器において、メモリMe2に格納された制御プログラムをプロセッサPr2が実行することによって実現される機能ブロックである。この演算器は、具体的には、例えば、マイクロコントローラ、MPU、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)等で構成される。これらは、集中制御を行う単独の演算器で構成されてもよく、分散制御を行う複数の演算器で構成されてもよい。
 ロボット通信部202は、操作ユニット通信部307から送信される無線通信信号を受信して、ロボット操作信号、画像信号、又は音声信号に変換し、これらの信号をロボット制御部203に送信する。ロボット制御部203は、ロボット操作信号に応じて、ロボット2の動作を制御し、画像信号に応じた画像を顧客用表示器23に表示させ、且つ、音声信号に応じた音声を顧客スピーカに放出させる。
 ドローン制御器101は、ドローン通信部102及びドローン制御部103を含む。ドローン通信部102はデータ通信可能な通信器で構成される。ドローン制御部103は、プロセッサPr3とメモリとMe3を有する演算器で構成される。ドローン制御部103は、この演算器において、メモリMe3に格納された制御プログラムをプロセッサPr3が実行することによって実現される機能ブロックである。この演算器は、具体的には、例えば、マイクロコントローラ、MPU、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)等で構成される。これらは、集中制御を行う単独の演算器で構成されてもよく、分散制御を行う複数の演算器で構成されてもよい。
 ドローン通信部102は、操作ユニット通信部65から送信される無線通信信号を受信してドローン操作信号に変換し、これをドローン制御部103に送信する。また、ドローン通信部102は、ドローン制御部103から送信される情報信号を無線通信信号に変換し、これを無線送信する。
 ドローン制御部103は、ドローン側通信部82から送信されるドローン操作信号に応じて、ドローン1のドローン本体12及び昇降装置11の動作を制御する。ドローン制御部03は、ドローン1の視界カメラで撮像された視界画像、ドローン1を操縦するのに必要な、位置、速度、燃料量等の情報、ナビゲーション画像等を情報信号としてドローン通信部102に送信する。
 ここで、本明細書で開示する要素の機能は、開示された機能を実行するよう構成又はプログラムされた汎用プロセッサ、専用プロセッサ、集積回路、ASIC(Application Specific Integrated Circuits)、従来の回路、及び/又は、それらの組み合わせ、を含む回路又は処理回路を使用して実行できる。プロセッサは、トランジスタやその他の回路を含むため、処理回路又は回路と見なされる。本開示において、「器」又は「部」は、列挙された機能を実行するハードウェアであるか、又は、列挙された機能を実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示されているハードウェアであってもよいし、あるいは、列挙された機能を実行するようにプログラム又は構成されているその他の既知のハードウェアであってもよい。ハードウェアが回路の一種と考えられるプロセッサである場合、「器」又は「部」は、ハードウェアとソフトウェアの組み合わせであり、ソフトウェアは、ハードウェア及び/又はプロセッサの構成に使用される。
 <配送用データ>
 図5は、ロボット制御器201の記憶部204に格納された配送用データDの一例を示す模式図である。
 図5を参照すると、配送用データDは、例えば、配達先住所データD1、認証用顔画像データD2、及び地図データD3を含む。配達先住所データD1は、配達先住所のリストである。認証用顔画像データD2は、配達先の受取人P2の顔画像データであり、配達を受任する際に配達依頼主から取得され、ロボット制御器201の記憶部204に格納される。この認証用顔画像データは、配達先住所データD1と対応させて格納される。地図データD3は、ロボット2による配送に利用される。
 <自律運転/遠隔運転切替制御>
 ロボット制御器201のロボット制御部203は、ロボット2を、自律運転と遠隔運転との間で切り替えて、制御する。遠隔運転は、ロボット操作器31の操作、具体的にはロボット操作信号、に従った運転を意味する。
 図6は、この自律運転/遠隔運転切替制御の内容の一例を示すフローチャートである。図6を参照すると、自律運転/遠隔運転切替制御が開始されると、ロボット制御部203は、ロボット2に自律動作、すなわち自律運転、をさせる(ステップS1)。
 次いで、ロボット制御部203は、遠隔指令が入力された否かを判定する(ステップS2)。遠隔指令は、ロボット操作信号に含まれている。
 遠隔指令が入力された場合(ステップS2でYES)、ロボット制御部203は、ロボット2に遠隔動作、すなわち、遠隔運転、をさせる(ステップS5)。
 一方、遠隔指令が入力されない場合(ステップS2でNO)、ロボット制御部203は、所定条件が満たされるか否かを判定する(ステップS3)。この所定条件は、例えば、荷物の届け先までの道程が図8Fに示されるような悪路6であること、又は、人がロボット2に接近したことである。
 所定条件が満たされる場合(ステップS3でYES)、ロボット制御部203は、ロボット2に遠隔動作、すなわち、遠隔運転、をさせる(ステップS5)。
 一方、所定条件がみたされない場合(ステップS3でNO)、ロボット制御部203は、終了指令が入力された否かを判定する(ステップS4)。終了指令はロボット操作信号に含まれている。
 終了指令が含まれていない場合(ステップS4でNO)、ロボット制御部203は、本制御をステップS1に戻す。
 一方、終了指令が含まれている場合、ロボット制御部203は、本制御を終了する。
 上述のように、ステップS5で遠隔動作、すなわち、遠隔運転、が行われると、ロボット制御部203は、自律指令が入力されたか否かを判定する(ステップS6)。自律指令は、ロボット操作信号に含まれている。
 自律指令が含まれている場合(ステップS6でYES)、ロボット制御部203は、本制御をステップS1に戻す。
 一方、自律指令が入力されない場合、ロボット制御部203は、認証指令が入力されたか否かを判定する(ステップS7)。認証指令は、ロボット操作信号に含まれている。
 認証指令が含まれている場合(ステップS7でYES)、ロボット制御部203は、顔認証を行う(ステップS8)。顔認証は、ロボット制御部203が、記憶部204に格納された顔画像データと視界カメラ26で撮像された受取人P2の画像を照合することによって行われる。顔認証は周知の方法を用いることができる。それ故、その説明を省略する。
 顔認証が終了すると、ロボット制御部203は、ロボット2を遠隔動作に戻す(ステップS5)。なお、この場合、顔認証が成立した場合、荷物の受け渡しが行われ、顔認証が成立しない場合、操作者P1と受取人P2との対話により、適宜、処理される。
 一方、認証指令が入力されなかった場合(ステップS7でNO)、ロボット制御部203は、終了指令が入力された否かを判定する(ステップS9)。
 終了指令が含まれていない場合(ステップS9でNO)、ロボット制御部203は、本制御をステップS5に戻す。
 一方、終了指令が含まれている場合、ロボット制御部203は、本制御を終了する。
 このようにして、自律運転/遠隔運転切替制御が行われる。
 <人の回避制御>
 次に、人の回避制御について説明する。ロボット制御部203は、視界カメラ26で撮像された画像を画像処理して、当該画像内に人が存在するか否かを判定する。画像処理によって、画像内の人を抽出する方法は周知であるので、ここでは、その説明を省略する。ロボット制御部203は、視界カメラ26で撮像された画像から抽出された人の画像が視界カメラに接近する場合には、ロボット2を当該人の画像と反対方向に移動させる。人の画像が視界カメラに接近するか否かは、例えば、当該人の画像の大きさ及びその拡大速度によって判定される。
 [無人配送システム100の動作]
 次に、以上のように構成された無人配送システム100の動作を、図1乃至図8Lを用いて説明する。無人配送システム100の動作は、無人配送方法を意味する。図7は、図1の無人配送システム100の動作の一例を示すフローチャートである。図8A乃至図8Lは、図1の無人配送システム100の動作の一例を順に示す模式図である。この無人配送システム100の動作では、ドローン1は、操作者P1によって操作され、ロボット2は、ロボット制御器201のロボット制御部203によって、自律運転又は遠隔運転される。
 図7及び図8A乃至8Cを参照すると、まず、集配拠点5において、荷積みが行われる(ステップS11)。この荷積みには、3つの態様がある。
 第1態様では、図8Aに示すように、操作者P1によりドローン1の搬出入扉13が開かれ、この搬出入扉13を通って、搬送車14により荷物Gがドローン1に搬入される。この場合、ロボット2は、搬出入扉13を通ってドローン1に搭乗する。
 第2態様では、荷物Gは、第1態様と同様に、搬送車14によりドローン1に搬入される。ロボット2は、図8Bに示すように、ウインチ11によって、ドローン1に搭載される。この場合、ドローン1はホバリング状態、すなわち、停止飛行状態、にされ、昇降扉15が開放される。ロボット2の走行部21の上面の4隅には、ウインチ11のワイヤの先端のフックを掛ける掛け部が設けられている。ウインチ11のワイヤが降下されると、ロボット2は、自律運転され、ワイヤの先端のフックを自ら上記掛け部に掛ける。また、ロボット2は、図8Bに示されているように、所定の格納姿勢を取る。ここで、ロボット2の走行部21の上記4つの掛け部にはセンサが設けられていて、ロボット制御部203は、ワイヤの先端のフックが上記掛け部に掛けられたことをセンサからの信号によって確認知する。そして、その旨の信号を操作ユニット通信部307に送信する。すると、この情報が操作者用表示器33に表示される。操作者P1は、ウインチ11を巻き上げてロボット2をドローン1に搭載する。その後、昇降扉15が閉止される。
 第3態様では、ロボット2が荷物Gを収容部212に収容して、第2態様と同様に、ウインチ11によって、ドローン1に搭載される。
 図8Cを参照すると、ロボット2は、遠隔運転により、格納庫16内において、搬入された荷物Gを荷置き棚17に置く。第3態様で自身の荷物収容部212に荷物Gを収容している場合には、収容部212から荷物Gを取り出して荷置き棚17に置く。
 作業が終了したら、ロボット2は、自律運転により、ドローン1から蓄電池28を充電し、その後、格納庫16に適宜な手段で自らを固定し、上記所定の格納姿勢を取る。
 図7を参照すると、次いで、荷物G及びロボット2が空輸される(ステップS12)。ここでは、図8Dに示すように、複数の届け先4に荷物Gが届けられる。
 次に、以下、届け先4が郊外部の場合と都市部の場合とに分けて、説明する。
 <届け先4が郊外部の場合>
 図7を参照すると、届け先4までの途中の地点で荷降ろしが行われる(ステップS13)。図8Eを参照すると、この荷降ろしは、ドローン1をホバリング状態にして、ロボット2をウインチ11で降下させることによって行われる。この降下は、操作者P1が、操作者用表示器33に表示される、ドローン1の視界カメラで撮像された視界画像で地上の様子を確認しながら行う。安全性を確保するためである。また、この場合、ドローン1の高度は所定以上とされる。所定高度は適宜設定されるが、例えば、20mとされる。この場合、ロボット2は、自律運転によって格納姿勢を解いた後、遠隔運転により、これから配送すべき荷物Gを荷物収容部212に収容する。
 そして、ロボット2は、地上に降下された後、自律運転により、ウインチ11のワイヤの先端のフックを掛け部から外す。
 図7を参照すると、荷物Gがロボット2によって届け先まで地上輸送される(ステップS14)。ドローン1は、上空でロボット2の帰還を待機する。
 図8Fを参照すると、この場合、ロボット2は、自律運転により、地図データを参照しながら、郊外部の道路を走行する。そして、途中で、悪路6に遭遇すると、遠隔運転に切り替わり、操作者P1の操作に従って、走行する。
 図7を参照すると、ロボット2が届け先4に到着すると、荷物Gの受け渡しが行われる(ステップS15)。図8Gを参照すると、この場合、ロボット2は、操作者P1の操作により遠隔運転に切り替わり、届け先4のインタホンを押す等して、受取人、すなわち顧客、P2が現れると、ロボット2は、顔認証を行う。そして、受取人P2が近づいたらロボット2は、自動的に停止し、トリガが無い限り動かない。そこからロボット2は、自動的に遠隔運転に切り替わり、荷物Gを受取人P2に渡す。この際、ロボット2は、図8Hに示すように、自動的に所定の荷物差出姿勢を取る。もし、受取人P2が接近し過ぎたら、ロボット2は、自動的に受取人P2と反対方向に移動する。この場合、ロボット2は、受取人P2と対話する。具体的には、ロボット制御部203は、操作者マイク34で取得された操作者P1の声を顧客スピーカ25に放出させ、操作者カメラ36で撮像された操作者P1の画像を顧客用表示器23に表示させ、且つ、顧客マイク24で取得された受取人P2の声を操作者スピーカ35に放出させ、視界カメラ26で撮像された受取人P2の画像を顧客用表示器23に表示させ、それによって、受取人P2と操作者P1とを対話させる。この対話は、例えば、以下のようなものである。
 操作者P1が「お届けに参りました」と言い、受取人P2が「ありがとうね。とっても助かります」と言い、操作者P1が「またのご利用をお待ちしております。」と言う。
 図7を参照すると、ロボット2は、往路と同様にして、荷降ろし地点に戻る(ステップS16)。そして、ロボット2が待機していたドローン1に搭載される(ステップS17)。ロボット2の搭載の態様は、ステップS11における荷積みの第2態様と同じである。
 <届け先4が都市部の場合>
 図8Iを参照すると、この場合、例えば、届け先4が高層マンションの一室である。ドローン1は、高層マンションの上空に到達すると、ロボット2を屋上に降下させる。この降下の態様は2つある。第1降下態様は、届け先4が郊外部の場合と同じである。第2降下態様では、ドローン1が屋上に着陸し、ロボット2が開放された搬出入扉13から屋上に降りる。
 図7を参照すると、荷物Gがロボット2によって届け先4までマンション内を輸送される、すなわち、地上輸送される(ステップS14)。ドローン1は、上空でロボット2の帰還を待機する。この場合、ロボット2は遠隔運転される。図8Kを参照すると、ロボット2は、高層マンションのエレベータを使って目的の階まで降りる。この場合、ロボット2の無線でエレベータのドアを開閉する。
 図8Kを参照すると、ロボット2は、届け先4である目的の部屋の近くまで来たら、操作者の操作で遠隔運転に切り替わる。この後の受け渡しは、届け先4が郊外部の場合と同じであり、その説明を省略する。
 ロボット2は、適宜な遠隔運転を挟む自律運転により屋上に到着する。そして、ロボット2が待機していたドローン1に搭載される(ステップS17)。ロボット2の搭載の態様は、ステップS11における荷積みの第2態様と同じである。
 <次の届け先4への配送及び帰還>
 1つの届け先4への配達業務が終了すると、次の届け先4への配達業務が上記と同様に行われ、全ての届け先4への配達業務が終了すると、ドローン1は、集配拠点5に帰還する(ステップS18,19)。
 {変形例1}
 変形例1では、ロボット2が上述の届け先4までの途中の地点に配置されている。この場合、ロボット2は、現地にとどまってもよいし、ドローン1に回収されてもよい。
 以上に説明した実施形態1によれば、受取人P2に対する荷物Gの受け渡しを円滑に行うことができる。
 (実施形態2)
 実施形態2の無人配送システムは、実施形態1のロボット2に代えてロボット2Aが用いられる点で、実施形態1の無人配送システム100と異なり、その他の点は実施形態1の無人配送システム100と同じである。
 図9Aは、本開示の実施形態2に係る無人配送システムに用いられるロボット2Aの構成の一例を示す側面図である。図9Bは、本開示の実施形態2に係る無人配送システムに用いられるロボット2Aの構成の一例を示す平面図である。
 図9A及び9Bを参照すると、ロボット2Aは、走行部21と走行部21の上に設けられた一対のロボットアーム22とを備える。走行部21は台車であってもよい。一対のロボットアーム22は、それぞれ、4軸の垂直多関節型のロボットアームで構成されている。すなわち、各ロボットアーム22は、垂直な第1回動軸線Axの周りに回動可能な第1リンクL1を有する。この第1リンクL1は双方のロボットアーム22に共通である。第1リンクL1の先端部に第2リンクL2の基端部が第1回動軸線Axに垂直な第2回動軸線Axの周りに回動可能に設けられている。第2リンクL2の先端部に第3リンクL3の基端部が第2回動軸線Axに垂直な第3回動軸線Axの周りに回動可能に設けられている。第3リンクL3の先端部に第4リンクL4の基端部が第3回動軸線Axに垂直な第4回動軸線Axの周りに回動可能に設けられている。そして、第4リンクL4の先端に3本爪222を有する把持部221が設けられている。一対のロボットアーム22は、これらの一対の把持部221によって、荷物Gを把持する。
 ロボット2の走行部21は、台車状に形成されていて、前端部に荷物収容部212が設けられている。荷物収容部212は、底壁212aと側壁212bとを有する上面が開放された矩形の箱状に形成されている。なお、荷物収容部212の後側の側壁部は、上部が切り欠かれていて、一対のロボットアーム22がこの切り欠き部分から荷物収容部に荷物Gを入れることが可能になっている。走行部21の底部には、一対の前輪211,211と一対の後輪211,211が設けられている。例えば、一対の前輪211,211及び一対の後輪211,211のいずれかが操舵輪であり、また、例えば、一対の前輪211,211及び一対の後輪211,211のいずれかが駆動輪である。走行部21には、蓄電池28とモータとが搭載されていて、蓄電池28を電源としてモータが駆動輪を駆動する。さらに、走行部21の中央部の両側には、一対のアウトトリガ213が設けられている。このアウトトリガ213は、走行部21の内部に収容可能に構成されている。アウトトリガ213は、ロボット2Aが停止して荷物Gの積み降ろしを行う時に、走行部21から左右に突出して地面に着地し、走行部21の移動を阻止する。
 さらに、走行部21のロボットアーム22の後方には、表示器ロボットアーム27が設けられている。この表示器ロボットアーム27は、実施形態1のものと同じであるので、その説明を省略する。
 このような実施形態2の無人配送システムによれば、実施形態1の無人配送システム100と同様の効果が得られる。
 (実施形態3)
 実施形態3では、実施形態1又は実施形態2において、操作者P1が複数のロボット2を操作することができる。その他の点は、実施形態1又は実施形態2と同様である。
 具体的には、図4を参照すると、実施形態3の無人配送システムは、複数のロボット2を備える。これらの複数のロボット2には、それぞれ、識別記号が付与されている。ロボット操作器31には、操作したいロボット2を指定する操作部が設けられている。ロボット操作信号生成部302は、この操作部の操作に応じて、ロボット操作信号に指定されたロボット2の識別記号を付す。各ロボット2のロボット制御部203は、ロボット操作信号が、自身の属するロボット2の識別記号を含む場合に、当該ロボット操作信号に基づいてロボット2を制御する。
 これにより、操作者P1が、1つのロボット操作器31によって、複数の自走ロボット2を操作することができる。
 このような実施形態3によれば、効率良く無人配送を行うことができる。
 (実施形態4)
 実施形態4の無人配送システムは、実施形態1のロボット2に代えてロボット2Bが用いられる点で、実施形態1の無人配送システム100と異なり、その他の点は実施形態1の無人配送システム100と同じである。
 図10は、本開示の実施形態4に係る無人配送システムに用いられる移動ロボット1000の構成の一例を示す分解図である。図11は、図10の移動ロボット1000がデリバリロボットとして構成された自走ロボット2Bの第1構成及び使用態様を示す斜視図である。図12は、図10の移動ロボット1000がデリバリロボットとして構成された自走ロボット2Bの第2構成及び使用態様を示す斜視図である。図13は、図10の移動ロボット1000がデリバリロボットとして構成された自走ロボット2Bの第3構成及び使用態様を示す斜視図である。図14は、図10の移動ロボット1000がメンテナンスロボットとして構成された高所歩行ロボット2000の第1構成及び使用態様を示す斜視図である。図15は、図10の移動ロボット1000がメンテナンスロボットとして構成された高所歩行ロボット2000の第2構成及び使用態様を示す斜視図である。
 図10を参照すると、移動ロボット1000は、配送に特化したデリバリロボットである自走ロボット2Bと、高層構造物のメンテナンスに特化したメンテナンスロボットである高所歩行ロボット2000とに構成され得る。このことを、以下、詳しく説明する。
 移動ロボット1000は、ベースユニット310と、ロボットアーム部320,330と、移動部340,350と、を備える。図10においては、中央部にベースユニット310が示され、左上部にロボットアーム部320及び運搬車360が示され、左下部に移動部340が示され、右上部にロボットアーム部330が示され、右下部に移動部350が示されている。
 図11-13を参照すると、ベースユニット310の上面にロボットアーム部320が取り付けられ、ベースユニット310の両端部の側面に移動部340が取り付けられることによって、デリバリロボットである自走ロボット2Bが構成され、図14-15を参照すると、ベースユニット310の上面にロボットアーム部330が取り付けられ、ベースユニット310の両端部の側面に移動部350が取り付けられることによって、メンテナンスロボットである高所歩行ロボット2000が構成される。
 <ベースユニット310>
 ベースユニット310は、移動ロボット1000のボディ及びシャーシを構成する部分であり、略一定の厚みを有し、且つ長手方向の両端部に細幅部を有する形状に形成されている。ベースユニット310は、ベースユニット310の中央部の上面に、ロボットアーム部320,330が取り付けられるロボットアーム部取り付け部311が設けられている。ロボットアーム部取り付け部311は、例えば、短円柱状に形成され、図示されないモータによって、ベースユニット310の中央部の上面に垂直な回動軸線A300の周りに回動可能にベースユニット310の本体に設けられている。ロボットアーム部取り付け部311は、その上面がベースユニット310の中央部の上面と面一になるように設けられている。
 また、ベースユニット310の各端部の細幅部の各側面に、移動部取り付け部312が設けられ、この移動部取り付け部312に開口部が形成されている。この開口部に、移動部340,350が連結される車軸の端部313が露出している。
 ベースユニット310の両端部の細幅部に対応する2対の車軸の内の一方の車軸が操舵可能に構成されており、また、当該2対の車軸の内の一方の車軸が、図示されない駆動源によって駆動される駆動車軸であり、他方の車軸が従動車軸である。なお、双方の車軸を駆動車軸としてもよい。この駆動源は、例えば、モータで構成される。
 ベースユニット310には、バッテリ328及びロボット制御器1201が搭載されている。バッテリ328は、移動ロボット1000を動作させるための電力を供給する。ロボット制御器1201は、実施形態1のロボット制御器201と同様に構成されている。
 なお、ベースユニット310に、移動部340Cとしてクローラが取り付けられる場合、ベースユニット310は全長に渡って、細幅に形成され、且つ、ロボットアーム部取り付け部311は本体と一体、すなわち、回動不能、に形成される。また、一対の車軸は、非操舵車軸とされる。なお、この場合にも、ロボットアーム部取り付け部311を回動可能とし、ロボットアーム部320を、当該ロボットアーム部取り付け部311に取り付け可能な構造に構成してもよい。
 また、ベースユニット310は、移動部取り付け部312に移動部350が取り付けられる場合には、各車軸が、ロボットアームの基端リンクとして、個別に、モータによって位置制御されながら駆動される。
 <ロボットアーム部320>
 第1ロボットアーム部としてのロボットアーム部320は、自走ロボット2Bを構成するロボットアーム部である。配送される荷物を扱うためには、荷物をある程度の高さに持ち上げる必要があることから、ロボットアーム部320は、ロボットアーム部取り付け部311の上面に垂直に上方に延びる胴部321を備える。この胴部321の上端部に一対のロボットアーム322,322が設けられている。各ロボットアーム322は、多関節のロボットアームで構成されている。多関節のロボットアームは、ここでは、多関節アームである。なお、ロボットアームの構成は特に限定されず、垂直多関節のアームのほか、いわゆるスカラアームである水平多関節アームとしてもよい。ロボットアーム322の先端にはハンド322aが取り付けられている。ハンド322aの構成は特に制限されない。ハンド322aは、ここでは、対象物を真空吸着する吸着ハンドで構成されている。ハンド322aが、例えば、対象物を両側から挟持するハンドで構成されてもよい。
 胴部321の上端には、顧客用表示器323が設けられている。顧客用表示器323には、顧客マイク324、顧客スピーカ325、視界カメラ326が設けられている。顧客用表示器323、顧客マイク324、顧客スピーカ325、及び視界カメラ326は、それぞれ、実施形態1の顧客用表示器23、顧客マイク24、顧客スピーカ25、及び視界カメラ26と同様に構成されている。これらによって、自走ロボット2Bと配送先の受取人、すなわち顧客、P2との対話が可能になる。
 自走ロボット2Bは、図11-13に示されるように、配送時に、配送される荷物を収容する運搬車360と連結される。運搬車360は、自走せずに、自走ロボット2Bに押されて又は引かれて走行する。以下では、運搬車360の走行方向における前後方向を運搬車360の前後方向と呼ぶ。運搬車360は、直方体状の箱体からなる本体361を備える。この本体361の内部空間が配送される荷物の収容空間となっている。
 本体361は、後端面の下部に前方に引っ込んだ段差部365を有する。本体361の後面の段差部365の上側部分に、開閉扉364が設けられている。この開閉扉364は、本体361の荷物収容空間に、配送する荷物を出し入れするためのものである。
 本体361の底部の4隅には、車輪362がそれぞれ設けられている。
 本体361の両側面に突部からなる一対の連結部361aが設けられている。一対の連結部361aの後端面には、それぞれ、自走ロボット2Bの一対のハンド332aを受け入れる有底孔からなる連結孔が形成されている。自走ロボット2Bは、一対のハンド332aをこれらの一対の連結孔に挿入し、当該連結孔の底面を吸着することによって、運搬車360と連結される。なお、連結部361aとハンド322aとの連結構造は、これに限定されない。当該連結構造は、連結部361aとハンド322aとを連結可能であればよく、例えば、連結部361aとハンド322aとに互いの係合部を設け、それによって、両者を連結してもよい。
 運搬車360は、さらに、バッテリ363を備える。連結部361aには、バッテリ363と電気的に接続された第1電気接点が設けられ、且つ、自走ロボット2Bのハンド322aにバッテリ328に電気的に接続された第2電気接点が設けられている。自走ロボット2Bが運搬車360と連結されたときに、第1電気接点と第2電気接点とが接触して電気的に導通し、自走ロボット2Bのバッテリ328が、運搬車360のバッテリ363によって充電される。この充電は、ベースユニット310のロボット制御器1201の制御により、必要に応じて、適切に実行される。これにより、自走ロボット2Bの走行可能距離が、運搬車360がバッテリ363を備えない場合に比べて、長くなる。
 <移動部340>
 移動部340は、移動ロボット1000を走行させる3種類の走行部で構成される。
 第1移動部340Aは、第1走行部としての屋内用タイヤで構成される。屋内用タイヤは、例えば、トレッドの凹凸が比較的小さく形成されている。屋内用タイヤは、その回転軸がベースユニット310の移動部取り付け部312の車軸の端部313に連結されるようにして、ベースユニット310に取り付けられる。
 第2移動部340Bは、第2走行部としての屋外用タイヤで構成される。屋外用タイヤは、トレッドの凹凸が比較的大きく形成されている。また、タイヤにサスペンションが取り付けられている。屋外タイヤは、その回転軸がベースユニット310の移動部取り付け部312の車軸の端部313に連結されるようにして、ベースユニット310に取り付けられる。また、サスペンションが、適宜、ベースユニット310に連結される。
 第3移動部340Cは、第3走行部としてのクローラで構成される。クローラは、キャタピラとも言われる。クローラは、その駆動機構がベースユニット310の移動部取り付け部312の車軸の端部313に連結されるようにして、ベースユニット310に取り付けられる。
 <ロボットアーム部330>
 図11-13を参照すると、第2ロボットアーム部としてのロボットアーム部330は、高所歩行ロボット2000を構成するロボットアーム部である。ロボットアーム部330は、一対のロボットアーム331,331を含む。各ロボットアーム331は、多関節のロボットアームで構成されている。多関節のロボットアームは、ここでは、6軸ロボットアームである。ロボットアーム331の先端にはハンド331aが取り付けられている。ハンド331aの構成は特に制限されない。ハンド331aは、ここでは、対象物を真空吸着する吸着ハンドで構成されている。ハンド331aが、例えば、対象物を挟持するハンドで構成されてもよい。
 図14及び15を参照すると、ロボットアーム部330は、高所でメンテナンスを行うためには、水平方向に伸びる長い腕が必要であることから、2つのロボットアーム331,331が、直接、それぞれ、ベースユニット310のロボットアーム部取り付け部311に取り付けられる。これにより、2つのロボットアーム331,331が、ベースユニット310の上面に近接して沿うように延びることができる。また、高所歩行ロボット2000を、高所に運び上げる必要があることから、ロボットアーム部330は、ロボットアーム331をコンパクトに折りたためるように構成されている。
 ロボットアーム部330は、さらに、視界カメラ326を含む。視界カメラ326も、直接、ベースユニット310のロボットアーム部取り付け部311に取り付けられる。視界カメラ326は、実施形態1の視界カメラ26と同様に構成されている。その他、現地作業員との連携や、周辺情報収集のためのマイク、スピーカを設けるようにしてもよい。
 <移動部350>
 移動部350は、移動ロボット1000を高所歩行させる2種類の脚部で構成される。
 第4移動部350Aは、第1脚部としてのショートレッグで構成される。ショートレッグは、例えば、5軸ロボットアームで構成される。この5軸ロボットアームは、基端リンク354が脚部の付け根部に相当し、先端部352が脚部の足部に相当する。基端リンク354は、ベースユニット310の移動部取り付け部312の車軸の端部313に連結される。先端部352は、連結先のリンクに対し捩り回転可能に構成されている。この先端部352は、対象物に吸着するように構成されている。ここでは、先端部352は、電磁石を備えていて、電磁石をONさせることによって、先端部352を磁性の対象物に吸着させ、電磁石をOFFさせることによって、先端部352を磁性の対象物から解放させるように構成されている。従って、先端部352の捩り回転軸線が基端リンク354の回転軸線に平行な状態で先端部352を対象物に吸着固定し、先端部352の捩じり回転をコンプライアンス制御した状態で、基端リンク354を回転させると、ベースユニット310が当該回転方向と反対方向に移動する。これにより、後述するように、高所歩行ロボット2000が尺取虫状に歩行することが可能になる。
 第4移動部350Aは、さらに、中空の固定カバー部材353を含む。固定カバー部材353は、基端リンク354を回動自在に貫通せしめるようにしてベースユニット310の移動部取り付け部312に固定される。これにより、ショートレッグがベースユニット310に取り付けられる。
 第5移動部350Bは、第2脚部としてのロングレッグで構成される。ロングレッグは、例えば、7軸ロボットアームで構成される。これ以外の構成は、第4移動部350Aと同様である。
 <自走ロボット2Bの第1構成及び使用態様>
 図11を参照すると、自走ロボット2Bの第1構成では、ベースユニット310のロボットアーム部取り付け部311にロボットアーム部320が取り付けられ、ベースユニット310の各移動部取り付け部312に第1移動部340Aの屋内用タイヤが取り付けられる。これにより、自走ロボット2Bの第1構成として、屋内走行用のデリバリロボットが構成される。
 この自走ロボット2Bは、例えば、集配拠点5で、荷物を運搬するのに使用される。集配拠点5が集配センターであってもよい。この場合、自走ロボット2Bは、例えば、以下のような集配作業を行う。
 まず、自走ロボット2Bは、一対のロボットアーム322の一対のハンド322aを運搬車360の一対の連結部361aの連結孔に挿入し、連結孔の底面をハンド322aで吸着することによって、運搬車360を自身と連結する。この時、自走ロボット2Bのバッテリ328が運搬車360のバッテリ363によって充電される。また、自走ロボット2Bの前端部が、運搬車360の後面の段差部365に位置して、自走ロボット2Bが運搬車360に近接して連結される。
 次いで、自走ロボット2Bは、運搬車360を押したり引いたりしながら荷物置場まで自走する。次いで、自走ロボット2Bは、一対のハンド322aの吸着を停止し、当該一対のハンド322aを運搬車360の一対の連結部361aの連結孔から抜いて、運搬車360を自身から切り離す。次いで、自走ロボット2Bは、自ら荷物を運搬車360に積み込む。すなわち、荷物を運ぶロボットと荷物を積み降ろしするロボットとが同じである。具体的には、自走ロボット2Bは、一対のロボットアーム322によって、運搬車360の開閉扉364を開け、荷物置場に置かれている荷物を一対のロボットアーム322の一対のハンド322aで保持し、それを運搬車360の収容空間に置く。この際、自走ロボット2Bは、必要に応じて、胴部321を回転させながら、当該作業を行う。自走ロボット2Bは、所要の荷物を運搬車360に収容したら、開閉扉364を閉じ、運搬車360を自身と連結して、所定の場所まで自走する。
 そして、自走ロボット2Bは、必要であれば、上記と逆の順に作業することによって、運搬車360を自身と切り離し、運搬車360から荷物を取り出す。
 自走ロボット2Bは、上記作業において、必要に応じて、顧客用表示器323、顧客マイク324、顧客スピーカ325、及び視界カメラ326によって、人と対話する。
 <自走ロボット2Bの第2構成及び使用態様>
 図12を参照すると、自走ロボット2Bの第2構成では、ベースユニット310のロボットアーム部取り付け部311にロボットアーム部320が取り付けられ、ベースユニット310の各移動部取り付け部312に第2移動部340Bの屋外用タイヤが取り付けられる。これにより、自走ロボット2Bの第2構成として、屋外走行用のデリバリロボットが構成される。
 この第2構成の自走ロボット2Bは、屋外用のタイヤを備えるので、荷物を最終的に届け先4に届ける配送用の自走ロボットとして好適に使用される。これ以外は、第1構成の自走ロボット2Bと同様である。
 <自走ロボット2Bの第3構成及び使用態様>
 図13を参照すると、自走ロボット2Bの第3構成では、ベースユニット310のロボットアーム部取り付け部311にロボットアーム部320が取り付けられ、ベースユニット310の各移動部取り付け部312に第3移動部340Cのクローラが取り付けられる。これにより、自走ロボット2Bの第3構成として、悪路走行用のデリバリロボットが構成される。
 この第3構成の自走ロボット2Bは、クローラを備えるので、悪路を走行して、荷物を最終的に届け先4に届ける悪路配送用の自走ロボットとして好適に使用される。これ以外は、第1構成の自走ロボット2Bと同様である。悪路として、例えば、災害時の道路、不整地等が例示される。なお、第2構成の自走ロボット2Bは、片側のクローラの速度を落とす又は停止させる等して、方向を変える。
 <高所歩行ロボット2000の第1構成及び使用態様>
 図14を参照すると、高所歩行ロボット2000の第1構成では、ベースユニット310のロボットアーム部取り付け部311にロボットアーム部330が取り付けられる。具体的には、例えば、ベースユニット310のロボットアーム部取り付け部311に、回動軸線A300に対称に位置するように、一対のロボットアーム331が、取り付けられる。そして、視界カメラ326が、一対のロボットアーム331の中央の前方に位置するように、ロボットアーム部取り付け部311に取り付けられる。また、現地作業員との連携や、周辺情報収集のためのマイク、スピーカが設けられる場合には、これらが、適宜、ロボットアーム部取り付け部311及び又は視界カメラ326に取り付けられる。そして、ベースユニット310の各移動部取り付け部312に第4移動部350Aのショートレッグが取り付けられる。これにより、高所歩行ロボット2000の第1構成として、高所を歩行してメンテナンスを行うメンテナンスロボットが構成される。
 この第1構成の高所歩行ロボット2000は、例えば、以下のように使用される。
 高所歩行ロボット2000は、例えば、実施形態1のドローンによって、高層建造物のメンテナンス現場に輸送される。高層建造物として、鉄塔が例示される。そして、例えば、高層構造物に、足場となる磁性の部材である足場部材371が存在する場合、高所歩行ロボット2000は、各ショートレッグの先端部352を足場部材371の側面に吸着させる。足場部材371として、鉄塔の水平な梁部材が例示される。そして、視界カメラ326で作業対象物372を確認しながら、当該作業対象物を一対のロボットアーム331の一対のハンド331aで吸着保持して、所要のメンテナンスを行う。作業対象物372として、線材が例示される。
 この場合、高所歩行ロボット2000は、以下のようにして歩行する。
 高所歩行ロボット2000は、例えば、足場部材371に対し、少し隙間を有した状態で、各ショートレッグの先端部352の捩り回転軸線が基端リンク354の回転軸線に平行な状態で先端部352を足場部材371に吸着させ、先端部352の捩じり回転をコンプライアンス制御した状態で、基端リンク354を後方に回転させる。すると、ベースユニット310が「平行リンク」の原理で、前方且つ下方に移動する。ベースユニット310が足場部材371に接触したら、高所歩行ロボット2000は、2対のショートレッグの先端部352を前方に移動させて、上記と同様に吸着固定させる。そして、上記と同様にして、基端リンク354を後方に回転させると、ベースユニット310が前方に移動しながら、上方に移動した後、下方に移動して、足場部材371に接触する。以降、この動作を繰り返すことによって、高所歩行ロボット2000が尺取虫状に歩行する。
 なお、足場部材371が水平でない場合、高所歩行ロボット2000は、4つのショートレッグを、いわゆる「3点支持」の状態を維持しながら、順に前方に移動させることによって、尺取虫状に歩行することができる。
 <高所歩行ロボット2000の第2構成及び使用態様>
 図15を参照すると、高所歩行ロボット2000の第2構成では、ベースユニット310のロボットアーム部取り付け部311にロボットアーム部330が、上記と同様に取り付けられる。そして、ベースユニット310の各移動部取り付け部312に第5移動部350Bのロングレッグが取り付けられる。これにより、高所歩行ロボット2000の第2構成として、高所を歩行してメンテナンスを行うメンテナンスロボットが構成される。
 第2構成の高所歩行ロボット2000は、ショートレッグに比べて長く且つ太いロングレッグを有するので、より広範なメンテナンス作業を行うことができる。
 (本開示の実施形態による作用効果)
 ロボット制御器201は、自走ロボット2を、自律運転と遠隔運転との間で切り替えて制御するよう構成されていてもよい。
 この構成によれば、比較的容易な業務を自立運転で行うとともに比較的難しい作業務を遠隔運転で行うことにより、無人配送をより容易に行うことができる。
 無人配送システム100は、複数の前記自走ロボット2と、前記複数の自走ロボット2を遠隔操作するためのロボット操作器31と、を備え、前記複数の自走ロボット2及び前記ロボット操作器31は、1つのロボット操作器31によって、前記複数の自走ロボット2を操作することが可能なように構成されていてもよい。
 この構成によれば、効率良く無人配送を行うことができる。
 前記無人航空機1は、搭載した物体を地上に降下させ且つ地上の物体を搭載することが可能な昇降装置11を備えており、前記ロボット制御器201は、前記自走ロボット2が、自身を前記昇降装置11に固定するとともに自身が固定されたことを確認するよう構成されていてもよい。
 この構成によれば、自走ロボット2を安全に無人航空機1に搭載することができる。
 前記ロボット制御器201は、前記自走ロボット2が前記無人航空機1に搭載されたら、前記自走ロボット2が所定の格納姿勢を取り、且つ、自身の蓄電器328を無人航空機1によって充電するように当該自走ロボット2を制御するよう構成されていてもよい。
 この構成によれば、自走ロボット2が所定の格納姿勢を取ることによって荷物Gの収容スぺースを増加させることができ、且つ、自身の蓄電器328を無人航空機1によって充電することによって、自走ロボット2を確実に動作させることができる。
 自走ロボット2Bは、ロボットアーム部320と、ベースユニット310と、前記自走ロボット2Bを移動させる移動部340と、の3つの組み立てユニットを備え、前記ベースユニット310の上面に前記ロボットアーム部320が取り付けられ、前記ベースユニット310の側面に前記移動部340が取り付けられていてもよい。
 この構成によれば、自走ロボット2Bを、簡単に組み立てることが可能である。
 前記ベースユニット310は、上面に、前記ベースユニット310の上面から垂直に延びる胴部321を含む第1ロボットアーム部320と、前記ベースユニット310の上面に直接取り付けられ、前記ベースユニット310の上面に近接して沿うように延びることが可能な第2ロボットアーム部330と、を選択的に取り付けることが可能であり、且つ、側面に、前記自走ロボット2Bを走行させる走行部340と、前記自走ロボット2Bを高所歩行させる脚部350と、を選択的に取り付けることが可能であるように構成されていてもよい。
 この構成によれば、ベースユニット310の上面に第1ロボットアーム部320を取り付けるとともにベースユニット310の側面に走行部340を取り付けることによって、例えば、配送用の自走ロボット2Bを構成できる。また、ベースユニット310の上面に第2ロボットアーム部330を取り付けるとともにベースユニット310の側面に脚部350を取り付けることによって、例えば、高層構造物のメンテナンス用の高所歩行ロボット2000を構成できる。
 上記説明から、当業者にとっては、多くの改良や他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきである。

Claims (10)

  1.  自走ロボットと、
     荷物を届ける途中の地点まで当該荷物を輸送するための無人航空機と、を備え、
     前記自走ロボットは、前記途中の地点に降ろされた前記荷物を前記届け先に届けるよう、当該自走ロボットを制御するよう構成されたロボット制御器を備える、無人配送システム。
  2.  自走ロボットと、
     荷物を届ける途中の地点まで当該荷物及び前記自走ロボットを輸送するための無人航空機と、を備え、
     前記自走ロボットは、前記途中の地点に降ろされた前記荷物を前記届け先に届けるよう、当該自走ロボットを制御するよう構成されたロボット制御器を備える、無人配送システム。
  3.  前記ロボット制御器は、前記自走ロボットを、自律運転と遠隔運転との間で切り替えて制御するよう構成されている、請求項1又は2に記載の無人配送システム。
  4.  複数の前記自走ロボットと、
     前記複数の自走ロボットを遠隔操作するためのロボット操作器と、を備え、
     前記複数の自走ロボット及び前記ロボット操作器は、1つのロボット操作器によって、前記複数の自走ロボットを操作することが可能なように構成されている、請求項1乃至3のいずれかに記載の無人配送システム。
  5.  前記無人航空機は、搭載した物体を地上に降下させ且つ地上の物体を搭載することが可能な昇降装置を備えており、
     前記ロボット制御器は、前記自走ロボットが、自身を前記昇降装置に固定するとともに自身が固定されたことを確認するよう構成されている、請求項1乃至4のいずれかに記載の無人配送システム。
  6.  前記ロボット制御器は、前記自走ロボットが前記無人航空機に搭載されたら、前記自走ロボットが所定の格納姿勢を取り、且つ、自身の蓄電器を無人航空機によって充電するように当該自走ロボットを制御するよう構成されている、請求項1乃至5のいずれかに記載の無人配送システム。
  7.  前記自走ロボットは、ロボットアーム部と、ベースユニットと、前記自走ロボットを移動させる移動部と、の3つの組み立てユニットを備え、
     前記ベースユニットの上面に前記ロボットアーム部が取り付けられ、前記ベースユニットの側面に前記移動部が取り付けられている、請求項1乃至6のいずれかに記載の無人配送システム。
  8.  前記ベースユニットは、上面に、前記ベースユニットの上面から垂直に延びる胴部を含む第1ロボットアーム部と、前記ベースユニットの上面に直接取り付けられ、前記ベースユニットの上面に近接して沿うように延びることが可能な第2ロボットアーム部と、を選択的に取り付けることが可能であり、且つ、側面に、前記自走ロボットを走行させる走行部と、前記自走ロボットを高所歩行させる脚部と、を選択的に取り付けることが可能である、請求項7に記載の無人配送システム。
  9.  無人航空機によって、荷物を届ける途中の地点まで当該荷物を輸送し、
     自走ロボットによって、前記途中の地点に降ろされた前記荷物を前記届け先に届ける、無人配送方法。
  10.  無人航空機によって、荷物を届ける途中の地点まで当該荷物及び自走ロボットを輸送し、
     前記自走ロボットによって、前記途中の地点に降ろされた前記荷物を前記届け先に届ける、無人配送方法。
PCT/JP2021/038766 2020-10-30 2021-10-20 無人配送システム及び無人配送方法 WO2022091910A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US18/034,092 US20230391451A1 (en) 2020-10-30 2021-10-20 Unmanned delivery system and unmanned delivery method
EP21886029.4A EP4238708A4 (en) 2020-10-30 2021-10-20 UNMANNED DELIVERY SYSTEM AND METHOD
CN202180074109.8A CN116472143A (zh) 2020-10-30 2021-10-20 无人配送系统以及无人配送方法
KR1020237014894A KR20230079424A (ko) 2020-10-30 2021-10-20 무인 배송 시스템 및 무인 배송 방법

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020183351 2020-10-30
JP2020-183351 2020-10-30
JP2020198526A JP7522016B2 (ja) 2020-10-30 2020-11-30 無人配送システム及び無人配送方法
JP2020-198526 2020-11-30

Publications (1)

Publication Number Publication Date
WO2022091910A1 true WO2022091910A1 (ja) 2022-05-05

Family

ID=81385137

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/038766 WO2022091910A1 (ja) 2020-10-30 2021-10-20 無人配送システム及び無人配送方法

Country Status (4)

Country Link
US (1) US20230391451A1 (ja)
EP (1) EP4238708A4 (ja)
KR (1) KR20230079424A (ja)
WO (1) WO2022091910A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140254896A1 (en) * 2011-07-18 2014-09-11 Tiger T G Zhou Unmanned drone, robot system for delivering mail, goods, humanoid security, crisis negotiation, mobile payments, smart humanoid mailbox and wearable personal exoskeleton heavy load flying machine
JP2019023020A (ja) * 2017-07-24 2019-02-14 株式会社熊谷組 荷受け設備
JP2019534814A (ja) * 2016-09-28 2019-12-05 フェデラル エクスプレス コーポレイション 1つ以上の内部モニタドローンを使用して貨物格納庫の内部貨物内容物を監視するシステム及び方法
JP2020083600A (ja) 2018-11-29 2020-06-04 トヨタ自動車株式会社 配送システム及び処理サーバ
JP2020183351A (ja) 2019-04-30 2020-11-12 スティーブン・エヌ・ピッチャーStephen N. Pitcher 嫌気性抗酸化組成物
JP2020198526A (ja) 2019-05-31 2020-12-10 パナソニックi−PROセンシングソリューションズ株式会社 カメラパラメータ設定システムおよびカメラパラメータ設定方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570667B (zh) * 2016-10-25 2020-08-21 北京印刷学院 一种基于车-快递柜-无人机的快递配送方法
WO2018094019A1 (en) * 2016-11-16 2018-05-24 Staples, Inc. Autonomous multimodal logistics
GB201808075D0 (en) * 2017-09-13 2018-07-04 Flirtey Holdings Inc Unmanned aerial vehicle and payload delivery system
US11173605B2 (en) * 2018-02-26 2021-11-16 dogugonggan Co., Ltd. Method of controlling mobile robot, apparatus for supporting the method, and delivery system using mobile robot
CN109782800A (zh) * 2019-01-28 2019-05-21 西安君晖航空科技有限公司 一种无人机物流送货系统及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140254896A1 (en) * 2011-07-18 2014-09-11 Tiger T G Zhou Unmanned drone, robot system for delivering mail, goods, humanoid security, crisis negotiation, mobile payments, smart humanoid mailbox and wearable personal exoskeleton heavy load flying machine
JP2019534814A (ja) * 2016-09-28 2019-12-05 フェデラル エクスプレス コーポレイション 1つ以上の内部モニタドローンを使用して貨物格納庫の内部貨物内容物を監視するシステム及び方法
JP2019023020A (ja) * 2017-07-24 2019-02-14 株式会社熊谷組 荷受け設備
JP2020083600A (ja) 2018-11-29 2020-06-04 トヨタ自動車株式会社 配送システム及び処理サーバ
JP2020183351A (ja) 2019-04-30 2020-11-12 スティーブン・エヌ・ピッチャーStephen N. Pitcher 嫌気性抗酸化組成物
JP2020198526A (ja) 2019-05-31 2020-12-10 パナソニックi−PROセンシングソリューションズ株式会社 カメラパラメータ設定システムおよびカメラパラメータ設定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4238708A4

Also Published As

Publication number Publication date
EP4238708A4 (en) 2024-09-25
KR20230079424A (ko) 2023-06-07
US20230391451A1 (en) 2023-12-07
EP4238708A1 (en) 2023-09-06

Similar Documents

Publication Publication Date Title
US20210132625A1 (en) Modular delivery vehicle system
CN111512253B (zh) 绳钩的主动位置控制
US11939084B2 (en) Landing pad with charging and loading functionality for unmanned aerial vehicle
US20190248509A1 (en) Home Station for Unmanned Aerial Vehicle
CN111512327A (zh) 动态uav运输任务
CN111511642A (zh) 无人飞行器(uav)中舱门使能的有效载荷装载和释放的方法和系统
CN111527460B (zh) 使用专用于操作基础设施的部署的无人机(uav)的方法和系统
CN111491824A (zh) 航空运输任务期间的递送位置再充电
CN111003183A (zh) 用于自主物体拾取的地面操作
JP2022189891A (ja) 車両搬送装置
CN114393965A (zh) 一种自动折叠的陆空两栖多模态运载装置
WO2022091910A1 (ja) 無人配送システム及び無人配送方法
JP7522016B2 (ja) 無人配送システム及び無人配送方法
WO2022091907A1 (ja) 無人配送システム及び無人配送方法
US20230398922A1 (en) Self-propelled robot and article delivery system provided with the self-propelled robot
WO2022091882A1 (ja) 作業システム及び作業方法
CN116472143A (zh) 无人配送系统以及无人配送方法
JP7553336B2 (ja) 作業システム及び作業方法
CN118556024A (zh) 具有用于将包裹固定到uav的带和悬挂器的包裹耦合装置和固定包裹以用于递送的方法
WO2022050320A1 (ja) 物資空輸システム及び物資空輸方法
CN116490323A (zh) 作业系统以及作业方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21886029

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18034092

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202180074109.8

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 20237014894

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021886029

Country of ref document: EP

Effective date: 20230530