WO2020121666A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2020121666A1
WO2020121666A1 PCT/JP2019/042195 JP2019042195W WO2020121666A1 WO 2020121666 A1 WO2020121666 A1 WO 2020121666A1 JP 2019042195 W JP2019042195 W JP 2019042195W WO 2020121666 A1 WO2020121666 A1 WO 2020121666A1
Authority
WO
WIPO (PCT)
Prior art keywords
behavior
history
flight
luggage
acquisition unit
Prior art date
Application number
PCT/JP2019/042195
Other languages
English (en)
French (fr)
Inventor
鷹見 忠雄
石井 孝治
周仁 禹
寛 河上
香緒莉 新畑
雄一朗 瀬川
康裕 北村
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Priority to US17/283,386 priority Critical patent/US11794900B2/en
Priority to JP2020559788A priority patent/JP7080993B2/ja
Publication of WO2020121666A1 publication Critical patent/WO2020121666A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/04Control of altitude or depth
    • G05D1/06Rate of change of altitude or depth
    • G05D1/0607Rate of change of altitude or depth specially adapted for aircraft
    • G05D1/0653Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing
    • G05D1/0676Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for landing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/02Dropping, ejecting, or releasing articles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/60UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/60UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
    • B64U2101/67UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons the UAVs comprising tethers for lowering the goods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Definitions

  • the present invention relates to a technique for learning flight vehicle maneuvering.
  • Patent Document 1 discloses a technique for accurately landing an unmanned air vehicle.
  • a baggage delivery service is being considered in which this kind of flying body flies with the luggage suspended by connecting devices such as ropes, and when it reaches the destination, the luggage is dropped to the ground.
  • automatic piloting of a flying body could be realized by learning the piloting technique of a skilled pilot who is good at such piloting.
  • the present invention aims to learn a maneuver for descending an object connected to a flying object in a stable state.
  • the present invention provides a first acquisition unit that acquires a driving history of an aircraft that is operated by an operator and that descends to a target point. Behavior of the object acquired by the second acquisition unit that acquires the behavior history of the object, the steering history acquired by the first acquisition unit, and the second acquisition unit when descending to the target point
  • An information processing apparatus comprising: a learning unit that learns a relationship between the operation on the flying object and the behavior of the object based on a history.
  • the learning unit may perform the learning based on the behavior history of the flying object in addition to the operation history and the behavior history of the object.
  • the learning unit in addition to the operation history and the behavior history of the object, a condition regarding a connector used for connecting the flying body and the object, a condition regarding the object, or a condition regarding an external environment when the object descends.
  • the learning may be performed based on at least any one of the conditions.
  • the condition is the rigidity of the connector, the length of the connector, the weight of the object, the volume of the object, the descent speed of the object, or the wind direction when the object descends, the air volume, the rainfall or the snowfall. You may make it include at least any one.
  • the second acquisition unit may acquire the behavior history of the object from the image of the object captured by the imaging device.
  • the second acquisition unit may acquire the behavior history of the object from the output value of the sensor installed in the object or the accommodation unit of the object.
  • FIG. 3 is a diagram showing a hardware configuration of an air vehicle 10.
  • 3 is a diagram showing a hardware configuration of a server device 20.
  • FIG. 3 is a diagram showing a hardware configuration of a control device 30.
  • FIG. It is a figure which shows an example of a functional structure of the flight system 1. It is the schematic diagram which showed simply the mode when the flying body 10 which hung the load descends.
  • 6 is a flowchart showing an example of the operation of the server device 20.
  • FIG. 1 is a diagram showing an example of the configuration of the flight system 1.
  • the flight system 1 includes, for example, an unmanned air vehicle 10 called a drone, a server device 20 that functions as an example of an information processing apparatus according to the present invention, and a pilot that functions as a remote controller for a pilot to operate the air vehicle 10.
  • the network 2 includes, for example, a wireless communication network such as LTE (Long Term Evolution), and includes a wireless base station (not shown) and its host device.
  • LTE Long Term Evolution
  • the air vehicle 10 receives a signal according to a pilot operation performed by the pilot using the pilot device 30 via the network 2, and controls its own flight according to the signal.
  • a signal according to a pilot operation performed by the pilot using the pilot device 30 via the network 2
  • the flying device 10 is piloted using a wireless signal from the control device 30 via the network 2
  • the present invention is not limited to this, and the flying device 10 can be transferred to the flying vehicle 10 without the network 2.
  • the air vehicle 10 may be operated by using a radio signal that arrives directly.
  • the luggage is connected to the aircraft 10 in a suspended state by a connecting tool such as a rope, a chain, a wire, or a net.
  • the flying body 10 flies with the luggage suspended, and when reaching the destination, the connecting tool connecting the luggage is extended downward while maintaining a predetermined altitude, and the luggage is lowered.
  • the desired location eg, above ground, at a predetermined place on the building (such as the rooftop), or on the ship
  • the luggage kept as stable as possible. It is desirable to steer the air vehicle 10 so that it does.
  • the piloting technique of the pilot capable of such piloting is learned to realize the automatic piloting of the flying vehicle 10 during the descent of luggage.
  • the server device 20 moves the luggage connected to the aircraft 10 to the target arrival point of the luggage on the ground or the like, the behavior history of the aircraft 10 and the operation history of the aircraft 10, and the case where the luggage is dropped to the ground.
  • the relationship between the operation of the aircraft 10 and the behavior of the baggage is learned.
  • a learning model generated based on the result of learning this relationship is an automatic pilot that can keep the behavior of the luggage within a certain range, and a case where the behavior of the luggage is outside the certain range.
  • the automatic piloting that can keep the behavior within a certain range without delay is realized. In the following, it is assumed that the target arrival point of the package is on the ground.
  • FIG. 2 is a diagram showing a hardware configuration of the flying vehicle 10.
  • the air vehicle 10 physically includes a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a flight device 1007, a sensor 1008, a positioning device 1009, and a bus connecting these. It is configured as a computer device. Each of these devices operates by electric power supplied from a battery (not shown). In the following description, the word “device” can be read as a circuit, a device, a unit, or the like.
  • the hardware configuration of the flying object 10 may be configured to include one or a plurality of each device illustrated in the drawings, or may be configured not to include some devices.
  • Each function in the flying vehicle 10 causes a predetermined software (program) to be loaded on hardware such as the processor 1001 and the memory 1002, so that the processor 1001 performs an operation to control communication by the communication device 1004 and the memory 1002. Also, it is realized by controlling at least one of reading and writing of data in the storage 1003.
  • a predetermined software program
  • the processor 1001 performs an operation to control communication by the communication device 1004 and the memory 1002. Also, it is realized by controlling at least one of reading and writing of data in the storage 1003.
  • the processor 1001 operates an operating system to control the entire computer, for example.
  • the processor 1001 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, a register, and the like. Further, for example, a baseband signal processing unit, a call processing unit, etc. may be realized by the processor 1001.
  • CPU central processing unit
  • a baseband signal processing unit, a call processing unit, etc. may be realized by the processor 1001.
  • the processor 1001 reads a program (program code), software module, data, etc. from at least one of the storage 1003 and the communication device 1004 into the memory 1002, and executes various processes according to these.
  • a program program that causes a computer to execute at least part of the operations described below is used.
  • the functional blocks of the flying vehicle 10 may be realized by a control program stored in the memory 1002 and operating in the processor 1001.
  • Various types of processing may be executed by one processor 1001, but may be executed simultaneously or sequentially by two or more processors 1001.
  • the processor 1001 may be implemented by one or more chips.
  • the program may be transmitted from the network 2 to the air vehicle 10 via an electric communication line.
  • the memory 1002 is a computer-readable recording medium, and is composed of at least one of, for example, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), RAM (Random Access Memory), and the like. May be done.
  • the memory 1002 may be called a register, a cache, a main memory (main storage device), or the like.
  • the memory 1002 may store an executable program (program code), a software module, etc. for executing the method according to the present embodiment.
  • the storage 1003 is a computer-readable recording medium, for example, an optical disc such as a CD-ROM (Compact Disc ROM), a hard disc drive, a flexible disc, a magneto-optical disc (for example, a compact disc, a digital versatile disc, a Blu-ray disc). At least one of a (registered trademark) disk, a smart card, a flash memory (for example, a card, a stick, and a key drive), a floppy (registered trademark) disk, a magnetic strip, or the like.
  • the storage 1003 may be called an auxiliary storage device.
  • the storage 1003 stores, for example, identification information of the flying body 10 (referred to as flying body identification information).
  • the communication device 1004 is hardware (transmission/reception device) for performing communication between computers via at least one of a wired network and a wireless network, and is also called, for example, a network device, a network controller, a network card, a communication module, or the like.
  • the input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, a joystick, a ball controller, etc.) that receives an input from the outside.
  • the output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that performs output to the outside.
  • the input device 1005 and the output device 1006 may be integrated (for example, a touch panel).
  • the flight device 1007 is a mechanism for flying the flying body 10 in the air, and includes, for example, a propeller, a motor for driving the propeller, and a driving mechanism.
  • the sensor 1008 detects the state of the flying object 10.
  • the sensor 1008 is, for example, a temperature sensor, a rotation speed sensor that detects the rotation speed of a motor, a sensor (for example, a battery power remaining amount sensor) that detects a value related to some input/output such as current/voltage, a gyro sensor, an acceleration sensor, It includes a sensor group such as an atmospheric pressure (altitude) sensor, a magnetic (direction) sensor, and an ultrasonic sensor.
  • the positioning device 1009 measures the three-dimensional position of the flying object 10.
  • the positioning device 1009 is, for example, a GPS (Global Positioning System) receiver, and measures the position of the flying body 10 based on GPS signals received from a plurality of satellites.
  • GPS Global Positioning System
  • the behavior of the flying object 10 is specified by the above-described sensor 1008 and positioning device 1009.
  • Each device such as the processor 1001 and the memory 1002 is connected by a bus for communicating information.
  • the bus may be configured by using a single bus or may be configured by using different buses for each device.
  • the aircraft 10 is configured to include hardware such as a microprocessor, a digital signal processor (DSP: Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array).
  • DSP Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • PLD Programmable Logic Device
  • FPGA Field Programmable Gate Array
  • a part or all of each functional block may be realized by the hardware.
  • the processor 1001 may be implemented using at least one of these hardware.
  • FIG. 3 is a diagram showing a hardware configuration of the server device 20.
  • the server device 20 is physically configured as a computer device including a processor 2001, a memory 2002, a storage 2003, a communication device 2004, an input device 2005, an output device 2006, and a bus connecting these.
  • Each function in the server device 20 causes the processor 2001 to perform calculation by causing hardware such as the processor 2001 and the memory 2002 to read predetermined software (program), control communication by the communication device 2004, and the memory 2002. And by controlling at least one of reading and writing of data in the storage 2003.
  • predetermined software program
  • the processor 2001, the memory 2002, the storage 2003, the communication device 2004, the input device 2005, the output device 2006, and the bus connecting them are the processor 1001, the memory 1002, the storage 1003, the communication device 1004, and the input device 1005 described for the aircraft 10. Since the output device 1006 and the bus connecting them are the same in terms of hardware, description thereof is omitted.
  • FIG. 4 is a diagram showing a hardware configuration of the control device 30.
  • the control device 30 is physically configured as a computer device including a processor 3001, a memory 3002, a storage 3003, a communication device 3004, an input device 3005, an output device 3006, and a bus connecting these.
  • Each function in the control device 30 causes the processor 3001 to perform calculation by loading predetermined software (program) on hardware such as the processor 3001 and the memory 3002 to control communication by the communication device 3004 and the memory 3002. Also, it is realized by controlling at least one of reading and writing of data in the storage 3003.
  • predetermined software program
  • the processor 3001, the memory 3002, the storage 3003, the communication device 3004, the input device 3005, the output device 3006, and the bus connecting them are the processor 1001, the memory 1002, the storage 1003, the communication device 1004, and the input device 1005 described for the aircraft 10. Since the output device 1006 and the bus connecting them are the same in terms of hardware, description thereof is omitted.
  • FIG. 5 is a diagram showing an example of the functional configuration of the flight system 1.
  • the control detection unit 31 detects the content input to the input device 3005 by the operator, that is, the control content, generates information indicating the detection result (referred to as control history), and transmits the information via the network 2. Is transmitted to the server device 20.
  • the operation history includes a time stamp indicating the date and time when the operation was performed, flight object identification information of the flight object 10 to be operated, and operation details such as the operation type, amount, and direction.
  • the flight body identification information of the flight body 10 to be operated is input to the operation device 30 by the operator or the like before the start of operation of the flight body 10, for example.
  • the flying body behavior detection unit 11 detects the behavior of the flying body 10, generates information indicating the detection result (called a flying body behavior history), and transmits the information to the server device 20 via the network 2. ..
  • a flying body behavior history in addition to the time stamp indicating the date and time when the behavior was performed and the flight identification information stored in the storage 1003 of the flight 10, the position of the flight 10 (latitude, longitude and altitude).
  • Information such as the flight direction, the flight speed, and the flight acceleration, indicating the behavior of the air vehicle 10 that can be identified by the sensor 1008 and the positioning device 1009.
  • the timing processing is synchronized.
  • time stamps can identify the correspondence between the flight history and the flight behavior history, that is, how the flight vehicle 10 behaves in response to the flight by the operator. That is, when the time stamp included in the flight body behavior history exists in a period corresponding to immediately after the time stamp included in the flight history, the flight vehicle 10 indicates the flight body behavior history according to the flight history. It means that it behaved differently.
  • the luggage behavior detection unit 41 detects the behavior of the luggage connected to the flying object 10, generates information indicating the detection result (called luggage behavior history), and the server device 20 via the network 2. Send to.
  • luggage behavior history information indicating the detection result
  • server device 20 via the network 2. Send to.
  • the contents of this luggage behavior history will be described later.
  • FIG. 6 is a schematic diagram simply showing a state in which the luggage is dropped from the flying object 10.
  • the aircraft 10 is provided with a plurality of propellers 101 in a main body 102 in which electronic components such as the processor 1001 described above are built.
  • a luggage 104 is connected to the lower side of the main body 102 by a connecting tool 103.
  • the operator extends the coupling tool downward while keeping the aircraft 10 at a certain altitude in the state as shown in FIG. Maneuver to lower.
  • the luggage 104 may sway due to, for example, the wind or the fluctuation of the flying body 10. Such shaking of the luggage 104 can be suppressed by changing the position and the posture of the flying body 10.
  • the imaging device 40 is provided at the descent point of the luggage 104 in order to detect the behavior of the luggage.
  • the imaging device 40 is installed so as to be embedded in the landing surface G of the air vehicle 10, for example.
  • the anemometer 50 is also provided near the descent point of the luggage 104.
  • the imaging range of the imaging device 40 is the range sandwiched by two broken lines A in the figure.
  • the imaging device 40 captures a moving image or a still image at predetermined time intervals in a state where the luggage 104 is included in the imaging range.
  • the image capturing apparatus 40 tracks the position of the package 104 in the captured image by image processing, and detects how the package 104 behaves over time.
  • the behavior of the package 104 detected here is mainly the behavior in the horizontal direction.
  • the baggage behavior history generated by the imaging device 40 in addition to the time stamp indicating the imaging date and time and the flight body identification information of the air vehicle 10, data representing the behavior of the baggage 104 (here, obtained by analyzing moving image data).
  • the behavior data of the package 104) is included.
  • the timing processing is synchronized. These time stamps can identify the correspondence between the operation history and the luggage behavior history, that is, how the luggage 104 behaves in response to the operation by the operator. That is, when the time stamp included in the baggage behavior history exists in the period immediately after the time stamp included in the operation history, the baggage 104 behaves in accordance with the operation history according to the operation history. It means that it did.
  • timekeeping processing is also synchronized for the time stamp generated by the flying body behavior detection unit 32 and the time stamp generated by the luggage behavior detection unit 41.
  • These time stamps can identify the correspondence between the aircraft behavior history and the luggage behavior history, that is, how the luggage 104 behaves with respect to the behavior of the aircraft 10. That is, when the time stamp included in the luggage behavior history exists in a period immediately after the time stamp included in the aircraft behavior history, the luggage 104 indicates the luggage behavior history according to the aircraft behavior history. It means that it behaved like this.
  • the luggage 104 when the luggage 104 is firmly fixed to the aircraft 10, the behavior of the aircraft 10 and the behavior of the luggage 104 are almost the same.
  • the aircraft 10 and the luggage 104 are connected by the relatively flexible connector 103 such as a rope, the behavior of the aircraft 10 and the behavior of the luggage 104 are different. There is. Therefore, in the present embodiment, the aircraft behavior history and the luggage behavior history are individually detected.
  • the first acquisition unit 21 acquires, via the network 2, the operation history and the flight object behavior history generated by the operation detection unit 31 and the flight object behavior detection unit 11, respectively.
  • the second acquisition unit 22 acquires the luggage behavior history generated by the luggage behavior detection unit 41 via the network 2.
  • condition acquisition unit 23 acquires data indicating the wind direction and/or the wind speed (hereinafter, referred to as condition data) from the anemometer 50 via the network 2.
  • condition data is also provided with the flight body identification information of the flying flight body 10 and the time stamp, like the operation history, the flight body behavior history, and the luggage behavior history.
  • the learning unit 24 is acquired by the flight behavior history and the operation history acquired by the first acquisition unit 21, the luggage behavior history acquired by the second acquisition unit 22, and the condition acquisition unit 23. Based on the condition data, machine learning is performed on the relationship between the operation on the air vehicle 10 and the behavior of the luggage to generate a learning model. With this learning model, it is possible to specify the behavior of the arbitrary flying body 10, the behavior of the luggage, and the optimal contents of the operation for the wind direction and the air volume.
  • the storage unit 25 stores the learning model generated by the learning unit 24. This learning model is used when the aircraft 10 is automatically piloted via the network 2, for example.
  • the server device 20 is described as the main body of processing, specifically, the processor 2001, the memory 2002, and the like are loaded with predetermined software (program) on the hardware so that the processor 2001 Means that the processing is executed by controlling the communication by the communication device 2004 and the reading and/or writing of data in the memory 2002 and the storage 2003.
  • predetermined software program
  • the first acquisition unit 21, the second acquisition unit 22, and the condition acquisition unit 23 of the server device 20 each acquire information (step S11). Specifically, the first acquisition unit 21 sends the flight history generated by the flight detection unit 31 of the flight control device 30 and the flight vehicle behavior history generated by the flight vehicle behavior detection unit 11 of the flight vehicle 10 via the network 2. To get at.
  • the second acquisition unit 22 also acquires the baggage behavior history generated by the baggage behavior detection unit 41 of the imaging device 40 via the network 2.
  • the condition acquisition unit 23 acquires condition data indicating the wind direction and/or the wind speed from the anemometer 50 via the network 2.
  • the first acquisition unit 21 does not need to acquire the operation history generated by the operation detection unit 31 and the flight behavior history created by the flight behavior detection unit 11 at the same timing, but at different timings. You may get it. Further, the first acquisition unit 21 may or may not acquire the operation history generated by the operation detection unit 31 each time the operation history is generated. Similarly, the first acquisition unit 21 may or may not acquire the aircraft behavior history generated by the aircraft behavior detection unit 11 each time it is generated. In addition, the first acquisition unit 21 may request and acquire the operation history generated by the operation detection unit 31 and the flight behavior history generated by the flight behavior detection unit 11 at arbitrary timings. Good.
  • the second acquisition unit 22 does not need to acquire the baggage behavior history at the same timing as the information acquisition by the first acquisition unit 21, but may acquire it at a different timing.
  • the second acquisition unit 22 may or may not acquire the baggage behavior history generated by the baggage behavior detection unit 41 each time it is generated.
  • the second acquisition unit 22 may request and acquire the baggage behavior history generated by the baggage behavior detection unit 41 at an arbitrary timing. The same applies to the condition acquisition unit 23.
  • the learning unit 24 of the server device 20 acquires the aircraft behavior history and the operation history acquired by the first acquisition unit 21, the baggage behavior history acquired by the second acquisition unit 22, and the condition acquisition unit 23. Machine learning is performed on the relationship between the operation of the aircraft 10 and the behavior of the luggage based on the obtained condition data (step S12).
  • the learning unit 24 among the acquired plurality of operation histories, flight behavior histories, luggage behavior histories, and condition data, includes the same flight identification information and operation histories and flight behaviors that include time stamp groups close to each other.
  • the history, baggage behavior history, and condition data are stored as an information group regarding one flight by the set of the control device 30 and the flying body 10.
  • the time stamp groups that are close to each other are time stamp groups such that the time interval between a certain time stamp and the time stamp closest in time is within a threshold value.
  • the learning unit 24 performs machine learning using a regression analysis method in which the baggage behavior history, the flight body behavior history and the condition data are used as explanatory variables, and the operation history is used as an objective variable.
  • the learning model generated by this machine learning when the behavior of a certain flying object 10, the behavior of a certain luggage, and the certain wind direction and air volume, the behavior of the luggage is within a certain range (for example, the amount of movement in the horizontal direction). It is possible to specify the maneuvering content that can be accommodated within a certain range (such as within 5 cm) or the maneuvering content that can be contained within the certain range without delay even if the behavior of the luggage is outside the certain range.
  • the maneuvering content referred to here may include all maneuvering parameters such as maneuvering timing, type, amount, direction, and the like.
  • the storage unit 25 of the server device 20 stores the learning model generated by the learning unit 24 (step S13).
  • the time stamps included in the operation history and the time stamps included in the operation history of the aircraft are temporally determined.
  • the method for this identification is not limited to this example. For example, every time a control is performed by the control device 30, a control identifier for identifying the operation of the control is issued and included in the control history transmitted to the server device 20, while the control device 30 controls the aircraft 10 Include this control identifier in the flight control instructions.
  • the flight vehicle 10 includes the flight identifier history and the flight vehicle behavior history when flight control is performed according to the flight flight operation identifier according to the flight flight operation control history.
  • the flight vehicle behavior detection unit 11 of the flight vehicle 10 includes this flight operation behavior history in the flight vehicle behavior history and transmits it to the server device 20. By doing so, it becomes possible for the server device 20 to specify how the aircraft 10 behaved in response to the operation by the operator.
  • the behavior of the package 104 detected in the embodiment is mainly a horizontal behavior, but the direction of the behavior to be detected is not limited to this.
  • the behavior of the luggage 104 in an arbitrary direction such as the vertical direction may be detected.
  • the learning unit 24 performs the machine learning with the baggage behavior history, the flight body behavior history, and the condition data as the explanatory variables and the maneuvering history as the objective variable. Good.
  • the learning unit 24 may perform machine learning using the luggage behavior history as an explanatory variable and the operation history as an objective variable. That is, the aircraft behavior history and the condition data are not always necessary in machine learning.
  • the 1st acquisition part 21 acquires the operation history with respect to the flying body 10 at the time of descending the object connected with the flying body 10 operated by the pilot to the ground.
  • the second acquisition unit 22 acquires the behavior history of the object when the object is lowered to the ground.
  • the learning unit 24 uses the operation history acquired by the first acquisition unit 21 and the behavior history of the object acquired by the second acquisition unit 22 to determine the relationship between the operation of the aircraft 10 and the behavior of the object. Learn.
  • the condition data used by the learning unit 24 is not limited to the wind direction and/or the wind speed exemplified in the embodiment, but may be, for example, the rigidity of the connector, the length of the connector, the volume of the package, the weight of the package, the descent rate of the package. Alternatively, it may include at least one of rainfall, snowfall, and the like at the time of falling of luggage.
  • the learning unit 24 determines whether the condition regarding the connector (for example, the rigidity of the connector, the length of the connector), the condition regarding the object (weight of the luggage, volume of the luggage, descent speed of the luggage), or the external condition when the object descends.
  • Machine learning may be performed on the basis of at least one of environmental conditions (wind direction, air volume, rainfall, snowfall, etc.
  • condition data listed above also affects the relationship between the operation and the behavior of the luggage.
  • the condition regarding the connecting tool, the condition regarding the object, or the condition regarding the external environment when the object descends is input to the server device 20 in advance by an administrator or is measured by a predetermined measuring device and input to the server device 20. It should be like this. Conditions that can be specified before the flight, such as the rigidity of the connector, the length of the connector, the weight of the luggage, the volume of the luggage, etc., may be input to the server device 20 by the administrator before the descent of the aircraft 10, for example. It should be.
  • the luggage descent rate may be input to the server device 20 by the administrator before the descent of the air vehicle 10 if it can be specified in advance as a flight schedule. Further, when the flying object 10 can measure the descent speed, it may be input from the flying object 10 to the server device 20 via the network 2. Further, a measuring device (including the wind direction and anemometer 50 in the embodiment) for measuring the external environment such as the wind direction, the air volume, the rainfall, and the snowfall when the luggage is descended is connected to the network 2. It suffices that it be input to the server device 20 via the network 2 from.
  • the second acquisition unit 22 acquires the baggage behavior history from the image captured by the imaging device 40, but the method of acquiring the baggage behavior history is not limited to this.
  • the second acquisition unit 22 is installed on an object.
  • the load behavior history is acquired from the output value of the sensor that is installed, or the output value of the sensor that is installed in the storage part of the object (for example, the hollow box member that is suspended in the connector that should store the load). May be.
  • This sensor detects the behavior of an object such as an acceleration sensor or a gyro sensor, and generates information indicating the detection result (baggage behavior history) and transmits it to the server device 20 via the network 2.
  • the baggage behavior history includes a time stamp indicating the date and time of the behavior, the flight body identification information of the flying body 10, and sensing data indicating the behavior of the luggage. It should be noted that the output value of the sensor installed in the accommodation portion of the object (that is, the behavior of the accommodation portion) can be handled as information that roughly indicates the behavior of the luggage accommodated in the accommodation portion.
  • the functions of the server device 20 may be distributed and provided by a plurality of devices. Further, the aircraft 10, the control device 30, the imaging device 40, and the anemometer 50 may replace at least part of the functions of the server device 20 (information processing device). Further, in the above-described embodiment, the method of measuring the position of the flying object 10 is not limited to the method using GPS. The position of the air vehicle 10 may be measured by a method that does not use GPS.
  • each functional block may be realized by using one device physically or logically coupled, or directly or indirectly (for example, two or more devices physically or logically separated). , Wired, wireless, etc.) and may be implemented using these multiple devices.
  • the functional blocks may be realized by combining the one device or the plurality of devices with software.
  • Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, search, confirmation, reception, transmission, output, access, resolution, selection, selection, establishment, comparison, assumption, expectation, observation, Broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc., but not limited to these.
  • functional blocks (components) that function transmission are called a transmission control unit (transmitting unit) and a transmitter (transmitter).
  • the implementation method is not particularly limited.
  • the server, the client, and the like according to the embodiment of the present disclosure may function as a computer that performs the processing of the present disclosure.
  • LTE Long Term Evolution
  • LTE-A Long Term Evolution-Advanced
  • SUPER 3G IMT-Advanced
  • 4G 4th generation mobile communication system
  • 5G 5th generation mobile communication
  • FRA Full Radio Access
  • NR new Radio
  • W-CDMA registered trademark
  • GSM registered trademark
  • CDMA2000 Code Division Multiple Access 2000
  • UMB Universal Mobile Broadband
  • IEEE 802.11 Wi-Fi (registered trademark)
  • IEEE 802.16 WiMAX (registered trademark)
  • IEEE 802.20 UWB (Ultra-WideBand
  • Bluetooth registered trademark
  • It may be applied to at least one of the next-generation systems. Further, a plurality of systems may be combined and applied (for example, a combination of at least one of LTE and LTE-A and 5G).
  • Information that has been input and output may be stored in a specific location (for example, memory), or may be managed using a management table. Information that is input/output may be overwritten, updated, or added. The output information and the like may be deleted. The input information and the like may be transmitted to another device.
  • the determination may be performed based on a value represented by 1 bit (whether 0 or 1), may be performed based on a Boolean value (Boolean: true or false), or may be compared by a numerical value (for example, a predetermined value). (Comparison with the value).
  • the notification of the predetermined information (for example, the notification of “being X”) is not limited to the explicit notification, but is performed implicitly (for example, the notification of the predetermined information is not performed). Good.
  • the present disclosure has been described in detail above, it is obvious to those skilled in the art that the present disclosure is not limited to the embodiments described in the present disclosure. The present disclosure can be implemented as modified and changed modes without departing from the spirit and scope of the present disclosure defined by the description of the claims. Therefore, the description of the present disclosure is for the purpose of exemplification, and does not have any restrictive meaning to the present disclosure.
  • Software whether called software, firmware, middleware, microcode, hardware description language, or any other name, instructions, instruction sets, code, code segments, program code, programs, subprograms, software modules.
  • Application, software application, software package, routine, subroutine, object, executable, thread of execution, procedure, function, etc. should be construed broadly.
  • software, instructions, information, etc. may be sent and received via a transmission medium.
  • the software uses a website using at least one of wired technology (coaxial cable, optical fiber cable, twisted pair, digital subscriber line (DSL), etc.) and wireless technology (infrared, microwave, etc.), When sent from a server, or other remote source, at least one of these wired and wireless technologies is included within the definition of transmission medium.
  • wired technology coaxial cable, optical fiber cable, twisted pair, digital subscriber line (DSL), etc.
  • wireless technology infrared, microwave, etc.
  • the information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies.
  • data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description include voltage, current, electromagnetic waves, magnetic fields or magnetic particles, optical fields or photons, or any of these. May be represented by a combination of
  • the terms described in the present disclosure and the terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings.
  • the information, parameters, etc. described in the present disclosure may be represented by using an absolute value, may be represented by using a relative value from a predetermined value, or by using other corresponding information. May be represented.
  • the radio resources may be those indicated by the index.
  • the phrase “based on” does not mean “based only on,” unless expressly specified otherwise. In other words, the phrase “based on” means both "based only on” and “based at least on.”
  • any reference to elements using designations such as “first”, “second”, etc. as used in this disclosure does not generally limit the amount or order of those elements. These designations may be used in this disclosure as a convenient way to distinguish between two or more elements. Thus, references to the first and second elements do not imply that only two elements may be employed or that the first element must precede the second element in any way.
  • the term “A and B are different” may mean “A and B are different from each other”.
  • the term may mean that “A and B are different from C”.
  • the terms “remove”, “coupled” and the like may be construed as “different” as well.

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

飛行体10には、例えばロープ等の連結具により、荷物が吊り下げられた状態で連結される。サーバ装置20の学習部24は、第1取得部によって取得された飛行体挙動履歴及び操縦履歴と、第2取得部によって取得された荷物挙動履歴とに基づいて、飛行体に対する操縦と荷物の挙動との関係について機械学習を行う。これにより、荷物降下時における飛行体10の自動操縦が実現される。

Description

情報処理装置
 本発明は、飛行体の操縦を学習するための技術に関する。
 ドローンと呼ばれる無人飛行体が普及しつつある。例えば特許文献1には、無人飛行体を精度良く着陸させるための技術が開示されている。
特開2010-269724号公報
 この種の飛行体がロープ等の連結具で荷物を吊り下げた状態で飛行し、目的地に到達すると、荷物を地上に降下させる、という荷物配送サービスが考えられている。このようなサービスにおいては、壊れやすい荷物を取り扱うこともできるようにするため、荷物をできるだけ揺らさずに安定させた状態で地上に降下させるように、飛行体を上手く操縦することが望ましい。さらには、このような操縦を得意とする熟練操縦者の操縦技術を学習することで、飛行体の自動操縦を実現することができれば便利である。
 そこで、本発明は、飛行体に連結した物体を安定させた状態で降下させる操縦を学習することを目的とする。
 上記課題を解決するため、本発明は、操縦者によって操縦される飛行体に連結された物体を目標地点に降下させる場合における、当該飛行体に対する操縦履歴を取得する第1取得部と、前記物体を目標地点に降下させる場合における、当該物体の挙動履歴を取得する第2取得部と、前記第1取得部によって取得された前記操縦履歴と、前記第2取得部によって取得された前記物体の挙動履歴とに基づいて、前記飛行体に対する操縦と前記物体の挙動との関係を学習する学習部とを備えることを特徴とする情報処理装置を提供する。
 前記学習部は、前記操縦履歴及び前記物体の挙動履歴に加えて、前記飛行体の挙動履歴にも基づいて、前記学習を行うようにしてもよい。
 前記学習部は、前記操縦履歴及び前記物体の挙動履歴に加えて、前記飛行体と前記物体との連結に用いる連結具に関する条件、前記物体に関する条件、又は前記物体の降下時の外部環境に関する条件のうち少なくともいずれか1つの条件にも基づいて前記学習を行うようにしてもよい。
 前記条件は、前記連結具の剛性、前記連結具の長さ、前記物体の重量、前記物体の体積、前記物体の降下速度、又は、前記物体の降下時における風向、風量、降雨又は降雪のうち少なくともいずれか1つを含むようにしてもよい。
 前記第2取得部は、撮像装置によって撮像された前記物体の画像から、当該物体の挙動履歴を取得するようにしてもよい。
 前記第2取得部は、前記物体又は当該物体の収容部に設置されたセンサの出力値から、当該物体の挙動履歴を取得するようにしてもよい。
 本発明によれば、飛行体に連結した物体を安定させた状態で降下させる操縦を学習することができる。
飛行システム1の構成の一例を示す図である。 飛行体10のハードウェア構成を示す図である。 サーバ装置20のハードウェア構成を示す図である。 操縦装置30のハードウェア構成を示す図である。 飛行システム1の機能構成の一例を示す図である。 荷物を吊り下げた飛行体10が降下するときの様子を簡易に示した模式図である。 サーバ装置20の動作の一例を示すフローチャートである。
[構成]
 図1は、飛行システム1の構成の一例を示す図である。飛行システム1は、例えばドローンと呼ばれる無人の飛行体10と、本発明に係る情報処理装置の一例として機能するサーバ装置20と、操縦者が飛行体10を操縦するためのリモートコントローラとして機能する操縦装置30と、飛行体10に連結された物体(以下、荷物とする)を撮像する撮像装置40と、風向及び/又は風速を計測する風向風速計50と、これらを通信可能に接続するネットワーク2とを備える。ネットワーク2は、例えばLTE(Long Term Evolution)等の無線通信網を含み、図示せぬ無線基地局やその上位装置を備えている。
 飛行体10は、操縦者が操縦装置30を用いて行う操縦操作に応じた信号をネットワーク2経由で受け取り、その信号に応じて自身の飛行を制御する。本実施形態では、操縦装置30からネットワーク2を介した無線信号を用いて飛行体10を操縦する例で説明するが、これに限らず、操縦装置30からネットワーク2を介さずに飛行体10に直接到達する無線信号を用いて飛行体10を操縦するようにしてもよい。
 飛行体10に対しては、例えばロープ、チェーン、ワイヤ或いは網等の連結具により、荷物が吊り下げられた状態で連結される。飛行体10は、荷物を吊り下げた状態で飛行し、目的地に到達すると所定の高度を維持したまま、荷物を連結している連結具を下方に繰り出して荷物を降下させる。ここで、壊れやすい荷物等を取り扱うこともできるようにするため、荷物をできるだけ安定させた状態で、所望の地点(例えば、地上、建築物の所定の場所(屋上等)、船上など)に降下させるように飛行体10を操縦することが望ましい。本実施形態では、このような操縦が可能な操縦者の操縦技術を学習することで、荷物降下時における飛行体10の自動操縦を実現する。
 サーバ装置20は、飛行体10に連結された荷物を、地上等の荷物の目標到達地点に降下させる場合における飛行体10の挙動履歴及び飛行体10に対する操縦履歴と、荷物を地上に降下させる場合におけるその荷物の挙動履歴と、風向風速計50によって計測された風向又は風速とに基づいて、飛行体10に対する操縦と荷物の挙動との関係を学習する。この関係を学習した結果に基づいて生成される学習モデルにより、荷物の挙動を或る一定範囲に収めることが可能な自動操縦、及び、仮に荷物の挙動が一定範囲外となった場合であってもその挙動を遅滞なくその一定範囲に収めることが可能な自動操縦が実現される。以下では、荷物の目標到達地点が地上であると仮定する。
 図2は、飛行体10のハードウェア構成を示す図である。飛行体10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、飛行装置1007、センサ1008、測位装置1009及びこれらを接続するバスなどを含むコンピュータ装置として構成されている。これらの各装置は図示せぬ電池から供給される電力によって動作する。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。飛行体10のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
 飛行体10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
 プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によ
って構成されてもよい。また、例えばベースバンド信号処理部や呼処理部などがプロセッサ1001によって実現されてもよい。
 プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、後述する動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。飛行体10の機能ブロックは、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよい。各種の処理は、1つのプロセッサ1001によって実行されてもよいが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワーク2から飛行体10に送信されてもよい。
 メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本実施形態に係る方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
 ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。ストレージ1003は、例えば飛行体10の識別情報(飛行体識別情報という)を記憶する。
 通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
 入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサ、ジョイスティック、ボールコントローラなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
 飛行装置1007は、飛行体10を空中で飛行させるための機構であり、例えばプロペラや、そのプロペラを駆動するためのモータ及び駆動機構を含む。
 センサ1008は、飛行体10の状態を検出する。センサ1008は、例えば温度センサ、モータの回転数を検知する回転数センサ、電流/電圧等の何らかの入力/出力に関する値を検出するセンサ(例えば電池の電力残量センサ)、ジャイロセンサ、加速度センサ、気圧(高度)センサ、磁気(方位)センサ、超音波センサ等のセンサ群を含む。
 測位装置1009は、飛行体10の三次元の位置を測定する。測位装置1009は、例えばGPS(Global Positioning System)受信機であり、複数の衛星から受信したGPS信号に基づいて飛行体10の位置を測定する。
 本実施形態では、上述したセンサ1008及び測位装置1009により、飛行体10の挙動が特定される。
 プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバスによって接続される。バスは、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
 飛行体10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
 図3は、サーバ装置20のハードウェア構成を示す図である。サーバ装置20は、物理的には、プロセッサ2001、メモリ2002、ストレージ2003、通信装置2004、入力装置2005、出力装置2006及びこれらを接続するバスなどを含むコンピュータ装置として構成されている。サーバ装置20における各機能は、プロセッサ2001、メモリ2002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ2001が演算を行い、通信装置2004による通信を制御したり、メモリ2002及びストレージ2003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。プロセッサ2001、メモリ2002、ストレージ2003、通信装置2004、入力装置2005、出力装置2006及びこれらを接続するバスは、飛行体10について説明したプロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006及びこれらを接続するバスと、ハードウェアとしては同様であるため、その説明を省略する。
 図4は、操縦装置30のハードウェア構成を示す図である。操縦装置30は、物理的には、プロセッサ3001、メモリ3002、ストレージ3003、通信装置3004、入力装置3005、出力装置3006及びこれらを接続するバスなどを含むコンピュータ装置として構成されている。操縦装置30における各機能は、プロセッサ3001、メモリ3002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ3001が演算を行い、通信装置3004による通信を制御したり、メモリ3002及びストレージ3003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。プロセッサ3001、メモリ3002、ストレージ3003、通信装置3004、入力装置3005、出力装置3006及びこれらを接続するバスは、飛行体10について説明したプロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006及びこれらを接続するバスと、ハードウェアとしては同様であるため、その説明を省略する。
 図5は、飛行システム1の機能構成の一例を示す図である。操縦装置30において、操縦検出部31は、操縦者によって入力装置3005に入力された内容、つまり操縦の内容を検出し、その検出結果を示す情報(操縦履歴という)を生成して、ネットワーク2経由でサーバ装置20に送信する。この操縦履歴には、操縦が行われた日時を示すタイムスタンプ及び操縦対象となる飛行体10の飛行体識別情報のほか、操縦の種類、量、方向等の操縦内容が含まれている。操縦対象となる飛行体10の飛行体識別情報は、例えば飛行体10の操縦開始までに操縦者等により操縦装置30に入力される。
 飛行体10において、飛行体挙動検出部11は、飛行体10の挙動を検出し、その検出結果を示す情報(飛行体挙動履歴という)を生成して、ネットワーク2経由でサーバ装置20に送信する。この飛行体挙動履歴には、その挙動がなされたときの日時を示すタイムスタンプ及び飛行体10のストレージ1003に記憶されている飛行体識別情報のほか、飛行体10の位置(緯度、経度及び高度を含む)、飛行方向、飛行速度及び飛行加速度等の、センサ1008及び測位装置1009によって特定され得る、飛行体10の挙動を示す情報が含まれている。操縦検出部31が生成するタイムスタンプと飛行体挙動検出部11が生成するタイムスタンプについては、その計時処理が同期している。これらのタイムスタンプにより、操縦履歴と飛行体挙動履歴との対応関係、つまり操縦者による操縦に対して飛行体10がどのように挙動したかが特定され得る。つまり、操縦履歴に含まれるタイムスタンプの直後に相当する期間に、飛行体挙動履歴に含まれるタイムスタンプが存在する場合に、その操縦履歴に応じて飛行体10がその飛行体挙動履歴が示すような挙動をしたということになる。
 撮像装置40において、荷物挙動検出部41は、飛行体10に連結された荷物の挙動を検出し、その検出結果を示す情報(荷物挙動履歴という)を生成して、ネットワーク2経由でサーバ装置20に送信する。この荷物挙動履歴の内容については後述する。
 ここで、図6は、飛行体10から荷物を降下させるときの様子を簡易に示した模式図である。飛行体10は、複数のプロペラ101が、前述したプロセッサ1001等の電子部品が内蔵された本体102に設けられている。本体102の下方には、連結具103によって荷物104が連結されている。操縦者は、荷物降下時の操縦をサーバ装置20に学習させるために、図6のような状態で、飛行体10を或る高度で維持させたまま、連結具を下方に繰り出させて荷物を降下させるような操縦を行う。
 荷物104は、例えば風を受けるとか飛行体10のふらつきの影響を受けて、揺れることがある。このような荷物104の揺れは、飛行体10の位置や姿勢を変化させることで、抑えられる。撮像装置40はこの荷物の挙動を検出するために、荷物104の降下地点に設けられている。撮像装置40は、例えば飛行体10の着陸面Gに埋め込まれるようにして設置されている。また、図示していないが、風向風速計50も、この荷物104の降下地点の付近に設けられている。
 撮像装置40の撮像範囲は、図中の2本の破線Aで挟まれた範囲である。撮像装置40は、撮像範囲に荷物104を含んだ状態で、動画又は所定の時間間隔で静止画を撮る。撮像装置40は、画像処理によって、その撮像画像中における荷物104の位置を追跡し、荷物104が時間経過とともにどのように挙動するかということを検出する。ここで検出される荷物104の挙動は、主に水平方向の挙動である。
 撮像装置40によって生成される荷物挙動履歴には、撮像日時を示すタイムスタンプ及び飛行体10の飛行体識別情報のほか、荷物104の挙動を表すデータ(ここでは動画データを解析して得られた荷物104の挙動データ)が含まれている。操縦検出部31が生成するタイムスタンプと荷物挙動検出部41が生成するタイムスタンプについては、その計時処理が同期している。これらのタイムスタンプにより、操縦履歴と荷物挙動履歴との対応関係、つまり操縦者による操縦に対して荷物104がどのように挙動したかが特定され得る。つまり、操縦履歴に含まれるタイムスタンプの直後に相当する期間に、荷物挙動履歴に含まれるタイムスタンプが存在する場合に、その操縦履歴に応じて荷物104がその荷物挙動履歴が示すような挙動をしたということになる。また、飛行体挙動検出部32が生成するタイムスタンプと荷物挙動検出部41が生成するタイムスタンプについても、その計時処理が同期している。これらのタイムスタンプにより、飛行体挙動履歴と荷物挙動履歴との対応関係、つまり飛行体10の挙動に対して荷物104がどのように挙動したかが特定され得る。つまり、飛行体挙動履歴に含まれるタイムスタンプの直後に相当する期間に、荷物挙動履歴に含まれるタイムスタンプが存在する場合に、その飛行体挙動履歴に応じて荷物104がその荷物挙動履歴が示すような挙動をしたということになる。
 例えば飛行体10に荷物104がしっかりと固定されているような場合においては、飛行体10の挙動と荷物104の挙動はほぼ同じである。これに対し、本実施形態では、飛行体10と荷物104は、ロープ等の比較的柔軟性のある連結具103により連結されているので、飛行体10の挙動と荷物104の挙動とは異なっている。このため、本実施形態では、飛行体挙動履歴と荷物挙動履歴とをそれぞれ個別に検出するようになっている。
 図5の説明に戻り、サーバ装置20において、第1取得部21は、操縦検出部31及び飛行体挙動検出部11によってそれぞれ生成された操縦履歴及び飛行体挙動履歴をネットワーク2経由で取得する。
 サーバ装置20において、第2取得部22は、荷物挙動検出部41によって生成された荷物挙動履歴をネットワーク2経由で取得する。
 サーバ装置20において、条件取得部23は、風向風速計50から風向及び/又は風速を示すデータ(以下、条件データという)をネットワーク2経由で取得する。この条件データにも、操縦履歴、飛行体挙動履歴及び荷物挙動履歴と同様に、飛行している飛行体10の飛行体識別情報と、タイムスタンプとが付与されている。
 サーバ装置20において、学習部24は、第1取得部21によって取得された飛行体挙動履歴及び操縦履歴と、第2取得部22によって取得された荷物挙動履歴と、条件取得部23によって取得された条件データとに基づいて、飛行体10に対する操縦と荷物の挙動との関係について機械学習を行って、学習モデルを生成する。この学習モデルにより、任意の飛行体10の挙動、荷物の挙動及び風向及び風量に対する最適な操縦の内容が特定可能となる。
 サーバ装置20において、格納部25は、学習部24により生成された学習モデルを格納する。この学習モデルは、例えばネットワーク2経由で飛行体10を自動操縦するときに用いられる。
[動作]
 次に、サーバ装置20の動作について説明する。なお、以下の説明において、サーバ装置20を処理の主体として記載する場合には、具体的にはプロセッサ2001、メモリ2002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ2001が演算を行い、通信装置2004による通信や、メモリ2002及びストレージ2003におけるデータの読み出し及び/又は書き込みを制御することにより、処理が実行されることを意味する。飛行体10及び操縦装置30についても同様である。
 図7において、サーバ装置20の第1取得部21、第2取得部22及び条件取得部23はそれぞれ情報を取得する(ステップS11)。具体的には、第1取得部21は、操縦装置30の操縦検出部31によって生成された操縦履歴及び飛行体10の飛行体挙動検出部11によって生成された飛行体挙動履歴を、ネットワーク2経由で取得する。また、第2取得部22は、撮像装置40の荷物挙動検出部41によって生成された荷物挙動履歴を、ネットワーク2経由で取得する。条件取得部23は、風向風速計50からネットワーク2経由で風向及び/又は風速を示す条件データを取得する。
 このとき、第1取得部21は、操縦検出部31によって生成された操縦履歴と飛行体挙動検出部11によって生成された飛行体挙動履歴とを同じタイミングで取得する必要はなく、それぞれ異なるタイミングで取得してもよい。また、第1取得部21は、操縦検出部31によって生成された操縦履歴をその生成のたびに取得してもよいし、そうでなくてもよい。同様に、第1取得部21は、飛行体挙動検出部11によって生成された飛行体挙動履歴をその生成のたびに取得してもよいし、そうでなくてもよい。また、第1取得部21は、操縦検出部31によって生成された操縦履歴と、飛行体挙動検出部11によって生成された飛行体挙動履歴とを、それぞれ任意のタイミングで要求して取得してもよい。
 また、第2取得部22は、第1取得部21による情報取得と同じタイミングで荷物挙動履歴を取得する必要はなく、異なるタイミングで取得してもよい。また、第2取得部22は、荷物挙動検出部41によって生成された荷物挙動履歴をその生成のたびに取得してもよいし、そうでなくてもよい。また、第2取得部22は、荷物挙動検出部41によって生成された荷物挙動履歴を任意のタイミングで要求して取得してもよい。条件取得部23についても同様である。
 次に、サーバ装置20の学習部24は、第1取得部21によって取得された飛行体挙動履歴及び操縦履歴と、第2取得部22によって取得された荷物挙動履歴と、条件取得部23によって取得された条件データとに基づいて、飛行体10に対する操縦と荷物の挙動との関係について機械学習を行う(ステップS12)。
 まず、学習部24は、取得された複数の操縦履歴、飛行体挙動履歴、荷物挙動履歴及び条件データのうち、同一の飛行体識別情報及び互いに近接するタイムスタンプ群を含む操縦履歴、飛行体挙動履歴、荷物挙動履歴及び条件データを、1組の操縦装置30及び飛行体10による1回の飛行に関する情報群として記憶する。互いに近接するタイムスタンプ群とは、或るタイムスタンプと時間的に最も近いタイムスタンプとの時間間隔が閾値以内となるような、タイムスタンプ群のことである。
 そして、学習部24は、荷物挙動履歴、飛行体挙動履歴及び条件データを説明変数とし、操縦履歴を目的変数とした回帰分析手法を用いた機械学習を行う。この機械学習により生成された学習モデルを用いることで、或る飛行体10の挙動、或る荷物の挙動及び或る風向及び風量のときに、荷物の挙動が一定範囲(例えば水平方向の移動量が5cm以内などの範囲)に収められるような操縦内容又は荷物の挙動が一定範囲外となった場合であっても遅滞なくその一定範囲に収められるような操縦内容を特定することができる。ここでいう操縦内容とは、例えば操縦のタイミング、種類、量、方向等の、操縦に関するあらゆるパラメータを含み得る。
 そして、サーバ装置20の格納部25は、学習部24により生成された学習モデルを格納する(ステップS13)。
 以上説明した実施形態によれば、飛行体10に連結した荷物を安定させた状態で降下させる操縦を学習することができる。
[変形例]
 本発明は、上述した実施形態に限定されない。上述した実施形態を以下のように変形してもよい。また、以下の2つ以上の変形例を組み合わせて実施してもよい。
[変形例1]
 実施形態においては、操縦者による操縦に対して飛行体10がどのように挙動したかを特定するために、操縦履歴に含まれるタイムスタンプと飛行体挙動履歴に含まれるタイムスタンプとの時間的な近接関係を参照していたが、この特定のための方法はこの例に限らない。例えば、操縦装置30において操縦が行われるたびに、その操縦の操作を識別する操縦識別子を発行して、サーバ装置20に送信する操縦履歴に含めるようにする一方、操縦装置30から飛行体10に対する飛行制御の指示に対してこの操縦識別子を含めておく。飛行体10は自身の飛行制御のための処理の履歴に、この操縦識別子とその操縦識別子に応じた飛行制御を行ったときの飛行体挙動履歴を含めるようにする。そして、飛行体10の飛行体挙動検出部11は、この飛行体挙動履歴にこの操縦識別子を含めてサーバ装置20に送信する。このようにすれば、サーバ装置20において、操縦者による操縦に対して飛行体10がどのように挙動したかを特定することが可能となる。
 また、実施形態において検出される荷物104の挙動は主に水平方向の挙動であったが、検出対象となる挙動の方向はこれに限らない。例えば垂直方向等の、任意の方向における荷物104の挙動を検出するようにしてもよい。
[変形例2]
 実施形態において、学習部24は、荷物挙動履歴、飛行体挙動履歴及び条件データを説明変数とし、操縦履歴を目的変数とした機械学習を行っていたが、これに限らず、以下のようにしてもよい。
 学習部24は、荷物挙動履歴を説明変数とし、操縦履歴を目的変数とした機械学習を行ってもよい。つまり、機械学習において、飛行体挙動履歴及び条件データは必ずしも必須ではない。この場合、第1取得部21は、操縦者によって操縦される飛行体10に連結された物体を地上に降下させる場合における、飛行体10に対する操縦履歴を取得する。第2取得部22は、物体を地上に降下させる場合における、その物体の挙動履歴を取得する。学習部24は、第1取得部21によって取得された操縦履歴と、第2取得部22によって取得された物体の挙動履歴とに基づいて、飛行体10に対する操縦と物体の挙動との関係について機械学習を行う。
 また、学習部24が用いる条件データは、実施形態で例示した風向及び/又は風速に限らず、例えば、連結具の剛性、連結具の長さ、荷物の体積、荷物の重量、荷物の降下速度、又は、荷物の降下時における降雨、降雪等のうち少なくともいずれか1つを含んでもよい。要するに、学習部24は、連結具に関する条件(例えば連結具の剛性、連結具の長さ)、物体に関する条件(荷物の重量、荷物の体積、荷物の降下速度)、又は物体の降下時の外部環境に関する条件(荷物の降下時における風向、風量、降雨、降雪等)のうち少なくともいずれか1つの条件に基づいて機械学習を行ってもよい。上記に列挙した条件データも、操縦と荷物の挙動との関係に影響を与えるからである。これらの連結具に関する条件、物体に関する条件、又は物体の降下時の外部環境に関する条件は、管理者により予めサーバ装置20に入力されるとか、所定の測定装置により測定されてサーバ装置20に入力されるようになっていればよい。例えば連結具の剛性、連結具の長さ、荷物の重量、荷物の体積等の、飛行前に特定可能な条件は、例えば飛行体10の降下前に管理者によりサーバ装置20に入力されるようになっていればよい。また、荷物の降下速度については、飛行予定として予め特定可能な場合は例えば飛行体10の降下前に管理者によりサーバ装置20に入力されるようになっていればよい。また、飛行体10が降下速度を測定可能な場合は、飛行体10からネットワーク2経由でサーバ装置20に入力されるようになっていればよい。また、荷物の降下時における風向、風量、降雨、降雪等の外部環境については、これらを測定する測定装置(実施形態における風向風速計50を含む)がネットワーク2に接続されており、この測定装置からネットワーク2経由でサーバ装置20に入力されるようになっていればよい。
[変形例3]
 実施形態において、第2取得部22は、撮像装置40による撮像画像から荷物挙動履歴を取得していたが、荷物挙動履歴の取得方法はこれに限らない、第2取得部22は、物体に設置されたセンサの出力値、又は、物体の収容部(例えば荷物を収容するべき連結具に吊り下げられた中空の箱部材)に設置されたセンサの出力値から、荷物挙動履歴を取得するようにしてもよい。このセンサは、例えば加速度センサやジャイロセンサ等の、物体の挙動を検出するものであり、検出結果を示す情報(荷物挙動履歴)を生成して、ネットワーク2経由でサーバ装置20に送信する。この荷物挙動履歴には、挙動の日時を示すタイムスタンプ及び飛行体10の飛行体識別情報のほか、荷物の挙動を表すセンシングデータが含まれている。なお、物体の収容部に設置されたセンサの出力値(つまり収容部の挙動)は、その収容部に収容された荷物の挙動をおおよそ表す情報として取り扱うことができる。
[変形例4]
 サーバ装置20(情報処理装置)の機能は複数の装置によって分散して備えられていてもよい。また、飛行体10、操縦装置30、撮像装置40及び風向風速計50が、サーバ装置20(情報処理装置)の機能の少なくとも一部を代替してもよい。また、上述した実施形態において、飛行体10の位置を測定する方法は、GPSを用いた方法に限定されない。GPSを用いない方法により、飛行体10の位置が測定されてもよい。
[そのほかの変形例]
 なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
 機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信制御部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。
 例えば、本開示の一実施の形態におけるサーバ、クライアントなどは、本開示の処理を行うコンピュータとして機能してもよい。
 本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication  system)、5G(5th generation mobile communication  system)、FRA(Future Radio Access)、NR(new Radio)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。
 本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
 入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
 判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
 本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
 以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
 ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
 本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
 なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
 また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。
 本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
 本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
 本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
 本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
 本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
1:飛行システム、10:飛行体、11:飛行体挙動検知部、101:プロペラ、102:本体、103:連結具、104:荷物、1001:プロセッサ、1002:メモリ、1003:ストレージ、1004:通信装置、1005:入力装置、1006:出力装置、1007:飛行装置、1008:センサ、1009:測位装置、20:サーバ装置、21:第1取得部、22:第2取得部、23:条件取得部、24:学習部、25:格納部、2001:プロセッサ、2002:メモリ、2003:ストレージ、2004:通信装置、2005:入力装置、2006:出力装置、30:操縦装置、31:操縦検出部、3001:プロセッサ、3002:メモリ、3003:ストレージ、3004:通信装置、3005:入力装置、3006:出力装置、40:撮像装置、41:荷物挙動検出部、50:風向風速計。

Claims (6)

  1.  操縦者によって操縦される飛行体に連結された物体を目標地点に降下させる場合における、当該飛行体に対する操縦履歴を取得する第1取得部と、
     前記物体を目標地点に降下させる場合における、当該物体の挙動履歴を取得する第2取得部と、
     前記第1取得部によって取得された前記操縦履歴と、前記第2取得部によって取得された前記物体の挙動履歴とに基づいて、前記飛行体に対する操縦と前記物体の挙動との関係を学習する学習部と
     を備えることを特徴とする情報処理装置。
  2.  前記学習部は、
     前記操縦履歴及び前記物体の挙動履歴に加えて、前記飛行体の挙動履歴にも基づいて、前記学習を行う
     ことを特徴とする請求項1記載の情報処理装置。
  3.  前記学習部は、
     前記操縦履歴及び前記物体の挙動履歴に加えて、
     前記飛行体と前記物体との連結に用いる連結具に関する条件、前記物体に関する条件、又は前記物体の降下時の外部環境に関する条件のうち少なくともいずれか1つの条件にも基づいて前記学習を行う
     ことを特徴とする請求項1又は2記載の情報処理装置。
  4.  前記条件は、
     前記連結具の剛性、前記連結具の長さ、前記物体の重量、前記物体の体積、前記物体の降下速度、又は、前記物体の降下時における風向、風量、降雨若しくは降雪のうち少なくともいずれか1つを含む
     ことを特徴とする請求項3記載の情報処理装置。
  5.  前記第2取得部は、撮像装置によって撮像された前記物体の画像から、当該物体の挙動履歴を取得する
     ことを特徴とする請求項1~4のいずれか1項に記載の情報処理装置。
  6.  前記第2取得部は、前記物体又は当該物体の収容部に設置されたセンサの出力値から、当該物体の挙動履歴を取得する
     ことを特徴とする請求項1~4のいずれか1項に記載の情報処理装置。
PCT/JP2019/042195 2018-12-14 2019-10-28 情報処理装置 WO2020121666A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/283,386 US11794900B2 (en) 2018-12-14 2019-10-28 Information processing apparatus
JP2020559788A JP7080993B2 (ja) 2018-12-14 2019-10-28 情報処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018234333 2018-12-14
JP2018-234333 2018-12-14

Publications (1)

Publication Number Publication Date
WO2020121666A1 true WO2020121666A1 (ja) 2020-06-18

Family

ID=71077217

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/042195 WO2020121666A1 (ja) 2018-12-14 2019-10-28 情報処理装置

Country Status (3)

Country Link
US (1) US11794900B2 (ja)
JP (1) JP7080993B2 (ja)
WO (1) WO2020121666A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018005472A1 (en) * 2016-06-27 2018-01-04 Amazon Technologies, Inc. Drone noise reduction via simultaneous propeller modulation
WO2018034295A1 (ja) * 2016-08-16 2018-02-22 本郷飛行機株式会社 情報処理システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5166349B2 (ja) 2009-05-22 2013-03-21 株式会社日立製作所 固定翼機、固定翼機システムおよび固定翼機の着陸方法
US9422139B1 (en) * 2014-05-19 2016-08-23 Google Inc. Method of actively controlling winch swing via modulated uptake and release
US9849981B1 (en) * 2014-08-28 2017-12-26 X Development Llc Payload-release device position tracking
US10946963B2 (en) * 2018-08-21 2021-03-16 Wing Aviation Llc External containment apparatus for unmanned aerial vehicle
US10401874B1 (en) * 2018-11-10 2019-09-03 Skyways Air Transportation Inc Autonomous aircraft navigation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018005472A1 (en) * 2016-06-27 2018-01-04 Amazon Technologies, Inc. Drone noise reduction via simultaneous propeller modulation
WO2018034295A1 (ja) * 2016-08-16 2018-02-22 本郷飛行機株式会社 情報処理システム

Also Published As

Publication number Publication date
US20210380240A1 (en) 2021-12-09
JP7080993B2 (ja) 2022-06-06
JPWO2020121666A1 (ja) 2021-09-30
US11794900B2 (en) 2023-10-24

Similar Documents

Publication Publication Date Title
AU2018390751A1 (en) Dynamic UAV transport tasks
TW201706970A (zh) 無人飛機導航系統及方法
US11196479B2 (en) System, management device, and aircraft
US10673520B2 (en) Cellular command, control and application platform for unmanned aerial vehicles
JP7167327B2 (ja) 制御装置、プログラム及び制御方法
JP7079345B2 (ja) 情報処理装置
US20210011494A1 (en) Multi-node unmanned aerial vehicle (uav) control
JP6999353B2 (ja) 無人航空機及び点検システム
JP7157823B2 (ja) 情報処理装置
US20200278673A1 (en) Information processing apparatus and flight control system
WO2020121666A1 (ja) 情報処理装置
US11167846B2 (en) Information processing apparatus
US11459117B1 (en) Drone-based cameras to detect wind direction for landing
WO2021087724A1 (zh) 一种控制方法、控制设备、可移动平台及控制系统
JP7167326B2 (ja) 制御装置、プログラム及び制御方法
JP7143525B2 (ja) 情報処理装置及び情報処理方法
WO2020262529A1 (ja) 情報処理装置及び情報処理方法
JP7339243B2 (ja) 発信装置及びプログラム
WO2023145762A1 (ja) 制御装置
WO2023042551A1 (ja) 情報処理装置
US20230003919A1 (en) Weather Drone
WO2020166348A1 (ja) 移動体、通信方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19895433

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020559788

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19895433

Country of ref document: EP

Kind code of ref document: A1