WO2017038891A1 - 飛行制御装置、飛行制御方法、及びコンピュータ読み取り可能な記録媒体 - Google Patents
飛行制御装置、飛行制御方法、及びコンピュータ読み取り可能な記録媒体 Download PDFInfo
- Publication number
- WO2017038891A1 WO2017038891A1 PCT/JP2016/075560 JP2016075560W WO2017038891A1 WO 2017038891 A1 WO2017038891 A1 WO 2017038891A1 JP 2016075560 W JP2016075560 W JP 2016075560W WO 2017038891 A1 WO2017038891 A1 WO 2017038891A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- unmanned airplane
- collision
- target
- distance
- flight control
- Prior art date
Links
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 title claims abstract description 71
- 238000000034 method Methods 0.000 title claims description 32
- 238000001514 detection method Methods 0.000 claims abstract description 43
- 230000009471 action Effects 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 13
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000009467 reduction Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000575 pesticide Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C13/00—Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
- B64C13/02—Initiating means
- B64C13/16—Initiating means actuated automatically, e.g. responsive to gust detectors
- B64C13/18—Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
- B64U10/14—Flying platforms with four distinct rotor axes, e.g. quadcopters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
Definitions
- the present invention relates to a flight control device for controlling the flight of an unmanned airplane, a flight control method, and a computer-readable recording medium on which a program for realizing these is recorded.
- an unmanned aerial plane called “drone” (hereinafter also referred to as “UAV (Unmanned ⁇ ⁇ Aerial Vehicle)”) has been used for various purposes such as military applications and pesticide spraying.
- UAV Unmanned ⁇ ⁇ Aerial Vehicle
- small unmanned airplanes that use an electric motor as a power source have been developed due to the reduction in size and output of batteries (see, for example, Non-Patent Documents 1 and 2).
- Small unmanned aerial vehicles are rapidly becoming popular because of their simple operation.
- the unmanned airplane is equipped with a GPS (Global Positioning System) receiver and can identify its own position. For this reason, in an unmanned aerial vehicle, an autopilot that flies along a set route is realized, and the use of the unmanned aerial vehicle is further increased.
- GPS Global Positioning System
- an unmanned aerial vehicle in order for an unmanned aerial vehicle to identify its own position, it is necessary to receive GPS signals from three or four satellites by a GPS receiver. However, depending on the environment, all necessary GPS signals cannot be received. There is. In such a case, the unmanned airplane cannot identify its own position and may crash. Unmanned aerial vehicles may also crash due to wind effects, battery voltage drop, and the like.
- An example of the object of the present invention is to provide a flight control device, a flight control method, and a computer-readable recording medium capable of solving the above-described problems and suppressing the occurrence of a collision accident due to a crash of an unmanned airplane.
- a flight control apparatus is an apparatus for controlling an unmanned airplane, A collision target that detects a target existing below the unmanned airplane and calculates a distance between the detected target and the unmanned airplane based on a signal output from a sensor that can detect a situation below the unmanned airplane.
- a collision determination unit for determining It is characterized by having.
- a flight control method is a method for controlling an unmanned airplane, (A) Based on a signal output from a sensor capable of detecting a situation below the unmanned airplane, a target existing below the unmanned airplane is detected, and a distance between the detected target and the unmanned airplane is calculated. , Step and (B) The altitude and speed of the unmanned airplane are specified, and when the unmanned airplane crashes based on the specified altitude and speed and the calculated distance, the unmanned airplane and the target collide. Determining whether or not, and It is characterized by having.
- a computer-readable recording medium is a computer-readable recording medium in which a program for controlling an unmanned airplane is recorded by a computer,
- a program for controlling an unmanned airplane is recorded by a computer
- (A) Based on a signal output from a sensor capable of detecting a situation below the unmanned airplane, a target existing below the unmanned airplane is detected, and a distance between the detected target and the unmanned airplane is calculated.
- Step and (B) The altitude and speed of the unmanned airplane are specified, and when the unmanned airplane crashes based on the specified altitude and speed and the calculated distance, the unmanned airplane and the target collide. Determining whether or not, and A program including an instruction for executing is recorded.
- FIG. 1 is a configuration diagram showing a schematic configuration of a flight control apparatus according to an embodiment of the present invention.
- FIG. 2 is a block diagram specifically showing the configuration of the flight control device according to the embodiment of the present invention.
- FIGS. 3A and 3B are diagrams showing an example of image data output from the sensor of the unmanned airplane in the embodiment of the present invention.
- FIGS. 3A and 3B show examples in which the distance between the unmanned airplane and the target is different.
- FIG. 4A is a diagram for explaining a collision determination process when the unmanned airplane is stopped in the air
- FIG. 4B shows a collision area when the unmanned airplane is stopped in the air.
- FIG. FIG. 5A is a diagram for explaining a collision determination process when the unmanned airplane is moving in the air, and FIG.
- FIG. 5B is a diagram showing a collision area when the unmanned airplane is moving. is there.
- FIG. 6 is a flowchart showing the operation of the flight control apparatus in the embodiment of the present invention.
- FIG. 7 is a block diagram illustrating an example of a computer that implements the flight control apparatus according to the embodiment of the present invention.
- FIG. 8 is a block diagram specifically showing the configuration of the flight control device according to the modification of the embodiment of the present invention.
- FIG. 1 is a configuration diagram showing a schematic configuration of a flight control apparatus according to an embodiment of the present invention.
- the flight control device 10 in the present embodiment is a device for controlling an unmanned airplane 20.
- the unmanned airplane 20 includes a collision target detection unit 11 and a collision determination unit 12.
- the collision object detection unit 11 detects an object existing below the unmanned airplane 20 based on a signal output from the sensor 22 that can detect the situation below the unmanned airplane 20. Further, the collision target detection unit 11 calculates the distance between the detected target and the unmanned airplane 20.
- the collision determination unit 12 identifies the altitude and speed of the unmanned airplane 20 and whether the unmanned airplane 20 collides with the target when the unmanned airplane 20 crashes based on the identified altitude and speed and the calculated distance. Determine if.
- detection of an object that may collide with the unmanned airplane 20 is always performed, and when the object is detected, the object and the unmanned airplane 20 can collide. Sex is judged. For this reason, the occurrence of a collision accident due to the crash of an unmanned airplane is suppressed.
- FIG. 2 is a block diagram specifically showing the configuration of the flight control device according to the embodiment of the present invention.
- FIG. 2 also discloses the configuration of an unmanned airplane to be controlled.
- the unmanned airplane 20 to be controlled is a multicopter having a plurality of rotors, and is a so-called drone.
- the unmanned airplane 20 includes a data processing unit 21, a sensor 22, a GPS signal receiving unit 23, a thrust generating unit 24, and a wireless communication unit 25.
- the wireless communication unit 25 performs wireless data communication with the flight control device 10.
- the wireless communication unit 25 is realized by a communication device for Wi-Fi communication, for example.
- GPS signal receiving unit 23 receives a GPS (Global Positioning System) signal from a satellite, based on the received GPS signals to measure the current position and altitude d h of unmanned aircraft 20.
- GPS Global Positioning System
- four thrust generation units 24 are provided, each including a rotor that generates thrust and an electric motor that is a driving source thereof.
- the unmanned airplane 20 may be equipped with a sensor for detecting the speed v. In this case, the speed v is measured by the sensor.
- the senor 22 may be any sensor as long as the situation below the unmanned airplane 20 can be detected.
- an imaging element that outputs a pixel signal in accordance with received light can be cited.
- an image pickup element is usually combined with a lens or the like to construct a camera, in practice, a camera including an image pickup element is used as the sensor 22.
- the wavelength range that can be received by the imaging device may be visible light or infrared light, so the camera may be a visible light camera or an infrared camera. good.
- the sensor 22 When a camera is used as the sensor 22, the sensor 22 outputs image data created from the pixel signal (see FIGS. 3A and 3B described later). Thereby, the data processing unit 21 receives the output image data and transmits it to the flight control device 10 via the wireless communication unit 25.
- the camera as the sensor 22 is installed on the bottom surface of the unmanned airplane 20 so as to face downward (see FIG. 1). Therefore, the image specified by the image data is an image from above.
- the senor 22 includes, for example, a light source that irradiates light to the target and a light receiving element that receives the light reflected by the target, and uses the output signal of the light receiving element to specify data that identifies the surrounding situation.
- examples of the sensor 22 include a laser range finder that uses a laser beam as outgoing light, and a depth camera that uses infrared light as outgoing light.
- the unmanned airplane 20 can fly along a set route while confirming the current location, for example.
- the unmanned airplane 20 can also fly in response to an instruction from the flight control device 10. Then, the unmanned airplane 20 detects the lower situation by the sensor 22 during the flight.
- the flight control device 10 is installed outside the unmanned airplane 20 and executes data communication with the unmanned airplane 20 by wireless communication.
- the flight control device 10 includes a wireless communication unit 13 in addition to the collision target detection unit 11 and the collision determination unit 12 described above.
- the wireless communication unit 13 performs wireless data communication with the unmanned airplane 20 in accordance with instructions from the collision target detection unit 11 and the collision determination unit 12.
- the wireless communication unit 13 is also realized by a communication device for Wi-Fi communication, for example.
- the collision target detection unit 11 performs detection of a target existing below the unmanned airplane 20 and calculation of a distance to the target. This differs depending on the type of sensor 22 provided in the unmanned airplane 20.
- the collision target detection unit 11 detects the target from the image data output from the camera, specifies the size of the detected target image data, and based on the specified size, the detected target and the unmanned airplane The distance to 20 is calculated.
- FIGS. 3A and 3B are diagrams showing an example of image data output from the sensor of the unmanned airplane in the embodiment of the present invention.
- FIGS. 3A and 3B show examples in which the distance between the unmanned airplane and the target is different.
- the camera functioning as the sensor 22 is equipped with a fisheye lens in order to emphasize the perspective of an object in the image. Note that image processing for emphasizing perspective may be performed on image data instead of mounting a fisheye lens.
- the maximum length of the head 30a of the human 30 decreases as the unmanned airplane 20 moves away from the ground. That is, since the altitude of the unmanned airplane 20 is higher in the case of FIG. 3B than in the case of FIG. 3A, the maximum length of the head 30a of the human 30 is smaller.
- the maximum length of the head 30a increases as the position of the human 30 approaches the center 32 of the image, The smaller the distance from the center 32 of the image, the smaller.
- the center 32 of the image corresponds to a position immediately below the camera mounted on the unmanned airplane 20.
- the distance d mh (see FIG. 4) from the unmanned airplane 20 to the human 30 is uniquely determined by the size of the human 30 on the image data and the distance to the center 32 of the human 30 image. To be determined. Therefore, if these correlations are known, the distance d from the unmanned airplane 20 to the human 30 can be determined by specifying the size of the human 30 on the image data and the distance to the center 32 of the human 30 image. mh can be calculated. For this reason, in the present embodiment, the correlation between these three is specified in advance.
- the collision target detection unit 11 first detects the person 30 based on the feature amount on the image data, and the size of the detected person 30 on the image data and the person 30 to the center 32 of the image. Specify the distance. At this time, if the unmanned airplane 20 is moving, the collision target detection unit 11 specifies the distance only for the human 30 existing in the set area on the moving direction side of the unmanned airplane 20. The setting area is appropriately set in consideration of the projected area of the unmanned airplane 20 on the ground.
- the collision target detection unit 11 calculates, for example, the maximum length (number of pixels) of the head 30a of the human 30 and specifies this as the size.
- the collision target detection unit 11 calculates the distance (number of pixels) from the center of the head 30a to the center 32 of the image, and specifies this as the distance to the center 32 of the image.
- the collision target detection unit 11 applies the maximum length of the specified head 30a and the distance from the center of the head 30a to the center 32 of the image to the correlation specified in advance, and detects the detected human 30. And a distance d mh (see FIG. 4) between the aircraft 20 and the unmanned airplane 20 is calculated.
- the collision target detection unit 11 can also detect a target other than the human 30, for example, the automobile 31 as a target.
- the collision target detection unit 11 specifies the size (for example, the total length) of the automobile 31 on the image data and the distance from the automobile 31 to the center 32 of the image. Is applied to the correlation set for the automobile, and the distance d mh between the automobile 31 and the unmanned airplane 20 is calculated.
- 3 (a) and 3 (b) show an example in which the camera orientation is set directly below the unmanned airplane 20, but the camera orientation is not particularly limited in this embodiment.
- the direction of the camera may be a traveling direction of the unmanned airplane 20 or a direction inclined downward from the traveling direction. In this case, it is easy to specify the perspective of an object in the image without mounting a fisheye lens.
- the sensor 22 is a sensor in which the characteristics of the output signal change according to the distance to the target existing below.
- the collision target detection unit 11 detects the target from the change in the characteristics of the signal output from the sensor 22 and calculates the distance d mh between the target and the unmanned airplane 20.
- Collision determination unit 12 obtains the status information transmitted from the unmanned aircraft 20, to identify the high d h and velocity v of the unmanned aerial 20 from the acquired state information. Moreover, the collision determination unit 12, based on the specified altitude d h and velocity v, when the unmanned aircraft 20 has crashed, ground area that may collide with the unmanned aerial vehicle 20 (hereinafter the "collision area" index ).
- the collision determination unit 12 determines whether the target is located in the collision region using the distance dmh calculated by the collision target detection unit 11. As a result of the determination, when the target is located in the collision area, the collision determination unit 12 determines that there is a possibility that the unmanned airplane 20 and the target collide.
- FIG. 4A is a diagram for explaining a collision determination process when the unmanned airplane is stopped in the air
- FIG. 4B shows a collision area when the unmanned airplane is stopped in the air
- FIG. 5A is a diagram for explaining a collision determination process when the unmanned airplane is moving in the air
- FIG. 5B is a diagram showing a collision area when the unmanned airplane is moving. is there.
- the collision area is an area obtained by projecting the unmanned airplane 20 onto the ground. Therefore, the collision area can be approximated by a circle (radius: d init ) whose diameter is the longest of the unmanned airplane 20 among the full length, full width, and diagonal length. In the following description, it is assumed that the collision area is a circle having a radius d init .
- a hatched region 40 indicates a collision region.
- the collision determination unit 12 first sets the collision area 40 at a position directly below the unmanned airplane 20. Next, if the horizontal distance between the human 30 and the center of the unmanned airplane 20 is d, the collision determination unit 12 calculates the distance d mh calculated by the collision target detection unit 11, the altitude d h of the unmanned airplane, and the human 30 The horizontal distance d is calculated by substituting the height H of N into the following equation 1.
- the height H is a preset value.
- the collision determination unit 12 determines whether or not the horizontal distance d is smaller than the radius d init . As a result of the determination, when the horizontal distance d is smaller than the radius d init , the collision determination unit 12 indicates that the human 30 is located in the collision area 40 and the unmanned airplane 20 and the human 30 can collide. Judge that there is sex.
- the unmanned airplane 20 crashes from a state where it is moving in the air.
- the unmanned airplane 20 crashes while drawing a parabola in the traveling direction.
- the collision area 40 is located away from directly below the unmanned airplane 20.
- the collision determination unit 12 calculates the horizontal distance d between the human 30 and the center of the unmanned airplane 20 in the same manner as in the examples of FIGS.
- the collision determination unit 12, the number 3 below by substituting a high d h and velocity v of the unmanned aircraft 20, the moving distance (hereinafter “horizontal movement in the horizontal direction until unmanned air crash distance ") is calculated d c.
- d c the moving distance
- the collision determination unit 12 to the minute apart position of the horizontal movement distance d c in the traveling direction from the current position of the unmanned aircraft 20, as a circle of radius d init, sets the collision area 40.
- the collision area 40 moves to the position of the area 40a shown in FIG. 5B, for example. Further, the collision area 40 moves to the position of the area 40b when the speed of the unmanned airplane 20 becomes slow, and moves to the position of the area 40c when the speed of the unmanned airplane 20 becomes fast.
- the collision determination unit 12 determines that the horizontal distance d is the following number. 4 is determined.
- the collision determination unit 12 indicates that the human 30 is located in the collision area 40 and the unmanned airplane 20 and the human 30 can collide. Judge that there is sex.
- the collision determination unit 12 determines that there is a possibility of a collision, the behavior that avoids the collision with the target on the unmanned airplane 20 and the target damage caused by the collision It is possible to instruct at least one of the actions to be reduced. Specific examples of such actions include moving away from the target, suppressing the speed of movement, outputting a warning to the target by either or both sound and light, reducing altitude, etc. Is mentioned.
- the collision determination unit 12 can identify a position where a target such as the human 30 does not exist from the image data, a command for instructing movement to the identified position (hereinafter, “collision avoidance”). "Instruction”.) Can be created.
- the collision determination unit 12 can also create a command (hereinafter referred to as a “damage reduction command”) that instructs a decrease in the moving speed and a decrease in altitude of the unmanned airplane 20.
- the collision determination unit 12 transmits the created collision avoidance command or damage reduction command to the unmanned airplane 20 via the wireless communication unit 13.
- the data processing unit 21 adjusts the thrust of each thrust generating unit 24 according to the contents of the command, moves the unmanned airplane 20 to the instructed position, or decreases the speed or altitude. I will let you.
- the collision determination unit 12 determines that there is a possibility of a collision, for example, the manager, the operator, or the like of the unmanned airplane 20 is notified by either or both of sound and light. You can also warn of a collision. Specifically, the collision determination unit 12 transmits a notification that there is a possibility of collision to an information terminal owned by an administrator, a pilot, or the like, and outputs a warning through the screen and speaker of the information terminal. To do.
- FIG. 6 is a flowchart showing the operation of the flight control apparatus in the embodiment of the present invention.
- FIGS. 1 to 5 are referred to as appropriate.
- the flight control method is implemented by operating the flight control device 10. Therefore, the description of the flight control method in the present embodiment is replaced with the following description of the operation of the flight control device 10.
- the collision target detection unit 11 acquires the sensor output signal transmitted from the unmanned airplane 20 via the wireless communication unit 13 (step A ⁇ b> 1). Specifically, for example, when the sensor 22 mounted on the unmanned airplane 20 is a camera, the collision target detection unit 11 acquires image data as a sensor output signal.
- the collision target detection unit 11 detects an object existing below the unmanned airplane 20, for example, a human 30, an automobile 31, etc., from the sensor output signal acquired in step A1 (step A2). Further, the unmanned airplane A distance d mh from 20 to the detected object is calculated (step A3).
- the collision target detection unit 11 collates the feature amount on the image data with the pre-registered feature amount, and the human 30 and the car 31. The target is detected. Then, the collision target detection unit 11 specifies the size of the extracted target, applies this to the relationship between the size and the distance registered in advance, and calculates the distance d mh between the target and the unmanned airplane 20. .
- the collision determination unit 12 acquires the status information transmitted from the unmanned aircraft 20, to identify the high d h and velocity v of the unmanned aerial 20 from the acquired status information (step A4). Then, the collision determination unit 12, a high d h and velocity v specified in the step A4, on the basis of the distance d mh calculated in step A3, when crashed unmanned airplane 20, unmanned aerial 20 and the target Is determined to collide (step A5).
- step A5 the collision determination unit 12, based on the altitude d h and velocity v specified in step A4, when the unmanned aircraft 20 has crashed, it may collide with the unmanned aerial vehicle 20 collides The region 40 is specified (see FIG. 4B and FIG. 5B). Then, the collision determination unit 12 determines whether or not the target is located in the collision area 40 using the distance d mh calculated in step A3, thereby determining whether or not the unmanned airplane 20 and the target collide. Determine.
- step A5 when it is determined that the unmanned airplane 20 and the target do not collide, the collision determination unit 12 executes step A7 described later.
- the collision determination unit 12 creates a collision avoidance command or a damage reduction command, and sends the created command to the wireless communication unit 13. To the unmanned airplane 20 (step A6).
- the collision determination unit 12 When it is determined that the unmanned airplane 20 and the target collide as a result of the determination in step A5, the collision determination unit 12 further informs the administrator, the operator, or the like of the unmanned airplane 20 of either sound or light or Both can also warn of a collision.
- Step A7 determines whether or not the unmanned airplane 20 has landed. If the result of determination in step A7 is that the unmanned airplane 20 has not landed, step A1 is executed again. On the other hand, if the result of the determination in step A7 is that the unmanned airplane 20 has landed, the processing in the flight control device 10 ends.
- a collision avoidance command or damage reduction command is transmitted to the unmanned airplane 20 and a warning is given to the manager, the operator, etc. Occurrence is suppressed.
- the program in the present embodiment may be a program that causes a computer to execute steps A1 to A7 shown in FIG. By installing and executing this program on a computer, the flight control device 10 and the flight control method in the present embodiment can be realized.
- a CPU Central Processing Unit
- the computer functions as the collision target detection unit 11 and the collision determination unit 12 to perform processing.
- each computer may function as either the collision target detection unit 11 or the collision determination unit 12.
- FIG. 7 is a block diagram illustrating an example of a computer that implements the flight control apparatus according to the embodiment of the present invention.
- the computer 110 includes a CPU 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. These units are connected to each other via a bus 121 so that data communication is possible.
- the CPU 111 performs various operations by developing the program (code) in the present embodiment stored in the storage device 113 in the main memory 112 and executing them in a predetermined order.
- the main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory).
- the program in the present embodiment is provided in a state of being stored in a computer-readable recording medium 120. Note that the program in the present embodiment may be distributed on the Internet connected via the communication interface 117.
- the storage device 113 includes a hard disk drive and a semiconductor storage device such as a flash memory.
- the input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and a mouse.
- the display controller 115 is connected to the display device 119 and controls display on the display device 119.
- the data reader / writer 116 mediates data transmission between the CPU 111 and the recording medium 120, and reads a program from the recording medium 120 and writes a processing result in the computer 110 to the recording medium 120.
- the communication interface 117 mediates data transmission between the CPU 111 and another computer.
- the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic storage media such as a flexible disk, or CD- Optical storage media such as ROM (Compact Disk Read Only Memory) are listed.
- CF Compact Flash
- SD Secure Digital
- magnetic storage media such as a flexible disk
- CD- Optical storage media such as ROM (Compact Disk Read Only Memory) are listed.
- the flight control device 10 can be realized not by using a computer in which a program is installed but also by using hardware corresponding to each unit. Further, part of the flight control device 10 may be realized by a program, and the remaining part may be realized by hardware.
- FIG. 8 is a block diagram specifically showing the configuration of the flight control device according to the modification of the embodiment of the present invention.
- the flight control device 10 is installed outside the unmanned airplane 20.
- the flight control device 10 is constructed in the data processing unit 21 of the unmanned airplane 20.
- this modification is realized by installing a program for realizing the flight control apparatus 10 in a computer mounted on the unmanned airplane 20 and executing the program. According to this modification, even when the unmanned airplane 20 cannot perform wireless communication with the outside, the occurrence of a collision accident between the ground object and the unmanned airplane 20 is suppressed.
- a flight control device comprising:
- the unmanned airplane includes an image sensor that outputs a pixel signal according to received light as the sensor,
- the collision target detection unit detects the target based on the image data generated from the pixel signal, specifies the size of the detected image data of the target, and based on the specified size, Calculating a distance between the detected object and the unmanned airplane;
- the flight control device according to attachment 1.
- the unmanned airplane includes a sensor that changes the characteristics of an output signal according to the distance to the target existing below the unmanned airplane,
- the collision target detection unit detects the target from the change in the characteristics of the output signal and calculates the distance between the target and the unmanned airplane.
- the flight control device according to attachment 1.
- the collision determination unit identifies the altitude and speed of the unmanned airplane, and based on the identified altitude and speed, an area on the ground that may collide with the unmanned airplane when the unmanned airplane crashes And using the distance calculated by the collision object detection unit to determine whether the object is located in the area, and when the object is located in the area Determining that the unmanned airplane and the subject may collide, The flight control device according to attachment 1.
- (Appendix 7) A method for controlling an unmanned aerial vehicle, (A) Based on a signal output from a sensor capable of detecting a situation below the unmanned airplane, a target existing below the unmanned airplane is detected, and a distance between the detected target and the unmanned airplane is calculated. , Steps and (B) The altitude and speed of the unmanned airplane are specified, and when the unmanned airplane crashes based on the specified altitude and speed and the calculated distance, the unmanned airplane and the target collide. Determining whether or not, and A flight control method comprising:
- the unmanned airplane includes an image sensor that outputs a pixel signal according to received light as the sensor, In the step (a), the object is detected based on the image data generated from the pixel signal, the size of the detected object in the image data is specified, and based on the specified size Calculating a distance between the detected object and the unmanned airplane;
- the unmanned airplane includes a sensor that changes the characteristics of an output signal according to the distance to the target existing below the unmanned airplane, In the step (a), from the change in the characteristics of the output signal, the target is detected, and the distance between the target and the unmanned airplane is calculated.
- step (b) the altitude and speed of the unmanned airplane are specified, and the ground that may collide with the unmanned airplane when the unmanned airplane crashes based on the specified altitude and speed. And determining whether or not the object is located in the area using the distance calculated by the collision object detection unit, and the object is located in the area Determining that the unmanned airplane and the subject may collide, The flight control method according to appendix 7.
- (Appendix 13) A computer-readable recording medium in which a program for controlling an unmanned airplane is recorded by a computer, In the computer, (A) Based on a signal output from a sensor capable of detecting a situation below the unmanned airplane, a target existing below the unmanned airplane is detected, and a distance between the detected target and the unmanned airplane is calculated. , Steps and (B) The altitude and speed of the unmanned airplane are specified, and when the unmanned airplane crashes based on the specified altitude and speed and the calculated distance, the unmanned airplane and the target collide. Determining whether or not, and The computer-readable recording medium which recorded the program containing the instruction
- the unmanned airplane includes an image sensor that outputs a pixel signal according to received light as the sensor, In the step (a), the object is detected based on the image data generated from the pixel signal, the size of the detected object in the image data is specified, and based on the specified size Calculating a distance between the detected object and the unmanned airplane;
- the unmanned airplane includes a sensor that changes the characteristics of an output signal according to the distance to the target existing below the unmanned airplane, In the step (a), from the change in the characteristics of the output signal, the target is detected, and the distance between the target and the unmanned airplane is calculated.
- step (b) the altitude and speed of the unmanned airplane are specified, and the ground that may collide with the unmanned airplane when the unmanned airplane crashes based on the specified altitude and speed. And determining whether or not the object is located in the area using the distance calculated by the collision object detection unit, and the object is located in the area Determining that the unmanned airplane and the subject may collide, The computer-readable recording medium according to attachment 13.
- the present invention it is possible to suppress the occurrence of a collision accident due to the crash of an unmanned airplane.
- the present invention can be used without limitation as long as it is a field where unmanned aerial vehicles are used.
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
飛行制御装置10は、無人飛行機を制御するための装置である。飛行制御装置10は、無人飛行機20の下方の状況を検知可能なセンサ22が出力した信号に基づいて、無人飛行機20の下方に存在する対象(ヒト30)を検出し、検出した対象と無人飛行機20との距離を算出する、衝突対象検出部11と、無人飛行機の高度及び速度を特定し、特定した高度及び速度と算出した距離とに基づいて、無人飛行機20が墜落した場合に、無人飛行機20と対象とが衝突するかどうかを判定する、衝突判定部12と、を備えている。
Description
本発明は、無人飛行機の飛行を制御するための飛行制御装置、飛行制御方法、及びこれらを実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
従来から、「ドローン」と呼ばれる無人飛行機(以下、「UAV(Unmanned Aerial Vehicle)」とも表記する。)は、軍事用途、農薬散布といった様々な用途に用いられている。とりわけ、近年においては、バッテリーの小型化及び高出力化により、動力源として電動モータを利用する小型の無人飛行機が開発されている(例えば、非特許文献1及び2参照。)。小型の無人飛行機は、運用が簡単であることから、急速に普及している。
また、無人飛行機は、GPS(Global Positioning System)受信機を備え、自身の位置を特定することができる。このため、無人飛行機においては、設定された経路に沿って飛行を行なうオートパイロットが実現されており、無人飛行機の用途は更に増加している。
ところで、無人飛行機が自身の位置を特定するためには、GPS受信機によって、3つ又は4つの衛星からGPS信号を受信する必要があるが、環境によっては、必要なGPS信号を全て受信できない場合がある。このような場合、無人飛行機は、自身の位置を特定できず、墜落する可能性がある。また、無人飛行機は、風の影響、バッテリーの電圧低下等を原因としても墜落する可能性がある。
しかしながら、従来からの無人飛行機において、墜落の可能性をゼロとすることは極めて困難である。このため、墜落地点に、ヒト、物等が存在すると、重大な衝突事故が発生してしまう可能生がある。
本発明の目的の一例は、上記問題を解消し、無人飛行機の墜落による衝突事故の発生を抑制し得る、飛行制御装置、飛行制御方法、及びコンピュータ読み取り可能な記録媒体を提供することにある。
上記目的を達成するため、本発明の一側面における飛行制御装置は、無人飛行機を制御するための装置であって、
前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、衝突対象検出部と、
前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、衝突判定部と、
を備えている、ことを特徴とする。
前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、衝突対象検出部と、
前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、衝突判定部と、
を備えている、ことを特徴とする。
また、上記目的を達成するため、本発明の一側面における飛行制御方法は、無人飛行機を制御するための方法であって、
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を備えている、ことを特徴とする。
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を備えている、ことを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるコンピュータ読み取り可能な記録媒体は、コンピュータによって、無人飛行機を制御するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を実行させる、命令を含むプログラムを記録していることを特徴とする。
前記コンピュータに、
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を実行させる、命令を含むプログラムを記録していることを特徴とする。
以上のように、本発明によれば、無人飛行機の墜落による衝突事故の発生を抑制することができる。
(実施の形態)
以下、本発明の実施の形態における、飛行制御装置、飛行制御方法、及びプログラムについて、図1~図7を参照しながら説明する。
以下、本発明の実施の形態における、飛行制御装置、飛行制御方法、及びプログラムについて、図1~図7を参照しながら説明する。
[装置構成]
最初に、本発明の実施の形態における飛行制御装置の構成について説明する。図1は、本発明の実施の形態における飛行制御装置の概略構成を示す構成図である。
最初に、本発明の実施の形態における飛行制御装置の構成について説明する。図1は、本発明の実施の形態における飛行制御装置の概略構成を示す構成図である。
図1に示すように、本実施の形態における飛行制御装置10は、無人飛行機20を制御するための装置である。無人飛行機20は、衝突対象検出部11と、衝突判定部12とを備えている。
衝突対象検出部11は、無人飛行機20の下方の状況を検知可能なセンサ22が出力した信号に基づいて、無人飛行機20の下方に存在する対象を検出する。また、衝突対象検出部11は、検出した対象と無人飛行機20との距離を算出する。
衝突判定部12は、無人飛行機20の高度及び速度を特定し、特定した高度及び速度と算出した距離とに基づいて、無人飛行機20が墜落した場合に、無人飛行機20と対象とが衝突するかどうかを判定する。
このように、本実施の形態では、無人飛行機20と衝突の可能性がある対象の検出が、常に行なわれており、そして、対象が検出されると、対象と無人飛行機20との衝突の可能性が判断される。このため、無人飛行機の墜落による衝突事故の発生が抑制される。
続いて、図1に加え、図2~図5を用いて、本実施の形態における飛行制御装置10の構成について更に具体的に説明する。図2は、本発明の実施の形態における飛行制御装置の構成を具体的に示すブロック図である。また、図2は、制御対象となる無人飛行機の構成についても開示している。
まず、図1に示したように、本実施の形態において、制御対象となる無人飛行機20は、複数のローターを備えたマルチコプターであり、いわゆるドローンである。図2に示すように、無人飛行機20は、データ処理部21と、センサ22と、GPS信号受信部23と、推力発生部24と、無線通信部25とを備えている。
無人飛行機20において、無線通信部25は、飛行制御装置10との間で無線によるデータ通信を実行している。無線通信部25は、例えば、Wi-Fi通信用の通信デバイスによって実現される。
GPS信号受信部23は、衛星からのGPS(Global Positioning System)信号を受信し、受信したGPS信号に基づいて、無人飛行機20の現在の位置及び高度dhを測定する。推力発生部24は、図1の例では、4つ備えられており、それぞれ、推力を発生させるローターとその駆動源となる電動機とを備えている。
データ処理部21は、GPS信号受信部23によって測定された現在の位置及び高度dhに基づいて、無人飛行機20の速度vを算出する。また、データ処理部21は、算出した速度v、現在の位置及び高度dhを、状態情報として、無線通信部25を介して、飛行制御装置10に送信する。更に、データ処理部21は、各推力発生部24の推力を調整することで、無人飛行機20の速度v、高度dh、及び進行方向を制御する。なお、無人飛行機20には、速度vを検出するためのセンサが搭載されていても良く、この場合は、センサによって速度vが測定される。
また、無人飛行機20において、センサ22は、無人飛行機20の下方の状況を検知可能なものであれば良い。センサ22の具体例としては、例えば、受光した光に応じて画素信号を出力する撮像素子が挙げられる。また、撮像素子は、通常、レンズ等と組み合わされてカメラを構築することから、実際には、センサ22としては、撮像素子を備えるカメラが用いられる。更に、撮像素子が受光できる波長域は、可視光であっても良いし、赤外光であっても良いことから、カメラは、可視光カメラであっても良いし、赤外線カメラであっても良い。
センサ22としてカメラが用いられる場合は、センサ22は、画素信号から作成された画像データを出力する(後述の図3(a)及び(b)参照)。これにより、データ処理部21は、出力された画像データを受け取り、これを、無線通信部25を介して、飛行制御装置10へと送信する。また、本実施の形態では、センサ22であるカメラは、無人飛行機20の底面に下方に向けて設置されている(図1参照)。従って、画像データで特定される画像は、上方からの画像となる。
また、センサ22の他の例として、下方に存在する対象までの距離に応じて出力信号の特徴が変化するセンサも挙げられる。この場合、センサ22は、例えば、対象に光を照射する光源と、対象で反射された光を受信する受光素子とを備えており、受光素子の出力信号から、周辺の状況を特定するデータを生成する。具体的には、センサ22としては、レーザ光線を出射光として用いるレーザレンジファインダ、赤外光を出射光として利用するデプスカメラが挙げられる。
無人飛行機20は、このような構成により、例えば、現在地を確認しながら、設定された航路に沿って飛行することができる。また、無人飛行機20は、飛行制御装置10からの指示に応じて、飛行することもできる。そして、無人飛行機20は、飛行の際、センサ22によって、下方の状況を検知する。
また、図2に示すように、本実施の形態では、飛行制御装置10は、無人飛行機20の外部に設置され、無線通信によって無人飛行機20との間でデータ通信を実行する。このため、飛行制御装置10は、上述した衝突対象検出部11及び衝突判定部12に加えて、無線通信部13を備えている。
無線通信部13は、無人飛行機20との間で、衝突対象検出部11及び衝突判定部12の指示に応じて、無線によるデータ通信を実行する。無線通信部13も、例えば、Wi-Fi通信用の通信デバイスによって実現される。
また、本実施の形態において、衝突対象検出部11は、上述したように、無人飛行機20の下方に存在する対象の検出と対象までの距離の算出とを実行するが、検出処理及び算出処理は、無人飛行機20に備えられているセンサ22の種類に応じて異なっている。
例えば、センサ22が、上述した画像データを出力するカメラであるとする。この場合、衝突対象検出部11は、カメラが出力した画像データから、対象を検出し、検出した対象の画像データにおける大きさを特定し、特定した大きさに基づいて、検出した対象と無人飛行機20との距離を算出する。
ここで、図3を用いて、センサ22がカメラである場合の検出処理及び算出処理の具体例について説明する。図3(a)及び(b)は、本発明の実施の形態において無人飛行機のセンサから出力された画像データの一例を示す図である。また、図3(a)及び(b)は、それぞれ、無人飛行機と対象との距離が異なる例を示している。加えて、センサ22として機能するカメラには、画像中の物体の遠近を強調するため、魚眼レンズが搭載されているとする。なお、魚眼レンズが搭載される代わりに、画像データに対して、遠近を強調する画像処理が行なわれていても良い。
まず、図3(a)及び(b)に示すように、無人飛行機20が地上から遠ざかる程、ヒト30の頭部30aの最大長は小さくなる。即ち、図3(b)の場合の方が、図3(a)の場合に比べて、無人飛行機20の高度は高くなるため、ヒト30の頭部30aの最大長は小さくなる。
また、カメラには魚眼レンズが搭載されているため、図3(a)及び(b)に示すように、頭部30aの最大長は、ヒト30の位置が画像の中心32に近づく程大きくなり、画像の中心32から離れる程小さくなる。なお、画像の中心32は、無人飛行機20に搭載されているカメラの直下の位置に相当する。
これらの点を考慮すると、無人飛行機20からヒト30までの距離dmh(図4参照)は、ヒト30の画像データ上での大きさと、ヒト30の画像の中心32までの距離とによって一義的に決定される。従って、これらの相関関係が分かっていれば、ヒト30の画像データ上での大きさと、ヒト30の画像の中心32までの距離とを特定することで、無人飛行機20からヒト30までの距離dmhを算出することができる。このため、本実施の形態においては、これら三者の相関関係が予め特定される。
そして、図3(a)及び(b)に示すように、無人飛行機20の下方に、ヒト30が存在しているとする。この場合、衝突対象検出部11は、まず、画像データ上の特徴量に基づいて、ヒト30を検出し、検出したヒト30の画像データ上での大きさと、ヒト30から画像の中心32までの距離とを特定する。また、このとき、無人飛行機20が移動しているのであれば、衝突対象検出部11は、無人飛行機20の移動方向側の設定領域に存在するヒト30についてのみ距離を特定する。なお、設定領域は、無人飛行機20の地面への投影面積を考慮して適宜設定される。
具体的には、衝突対象検出部11は、例えば、ヒト30の頭部30aの最大長(ピクセル数)を算出し、これを大きさとして特定する。また、衝突対象検出部11は、頭部30aの中心から画像の中心32までの距離(ピクセル数)を算出し、これを画像の中心32までの距離として特定する。
続いて、衝突対象検出部11は、予め特定された相関関係に、特定した頭部30aの最大長と、頭部30aの中心から画像の中心32までの距離とを当てはめて、検出したヒト30と無人飛行機20との距離dmh(図4参照)を算出する。
また、衝突対象検出部11は、対象として、ヒト30以外のもの、例えば、自動車31を検出することもできる。この場合は、衝突対象検出部11は、自動車31の画像データ上での大きさ(例えば、全長)と、自動車31から画像の中心32までの距離とを特定し、特定した大きさと中心32までの距離とを、自動車について設定されている相関関係に当てはめて、自動車31と無人飛行機20との距離dmhを算出する。
図3(a)及び(b)は、カメラ向きが無人飛行機20の真下方向に設定されている例を示しているが、本実施の形態では、カメラの向きは特に限定されるものではない。例えば、カメラの向きは、無人飛行機20の進行方向、又は進行方向から下方に傾斜させた方向であっても良い。また、この場合は、魚眼レンズを搭載しなくても、画像中の物体の遠近の特定は容易である。
また、センサ22が、下方に存在する対象までの距離に応じて出力信号の特徴が変化するセンサであるとする。この場合、衝突対象検出部11は、センサ22が出力した信号の特徴の変化から、対象を検出すると共に、対象と無人飛行機20との距離dmhを算出する。
衝突判定部12は、本実施の形態では、無人飛行機20から送信されてきた状態情報を取得し、取得した状態情報から無人飛行機20の高度dh及び速度vを特定する。また、衝突判定部12は、特定した高度dh及び速度vに基づいて、無人飛行機20が墜落した場合に、無人飛行機20と衝突する可能性がある地上の領域(以下「衝突領域」と表記する。)を特定する。
そして、衝突判定部12は、衝突対象検出部11によって算出された距離dmhを用いて、対象が衝突領域内に位置しているかどうかを判定する。判定の結果、対象が衝突領域内に位置している場合は、衝突判定部12は、無人飛行機20と対象とが衝突する可能性があると判定する。
ここで、図4及び図5を用いて、衝突判定処理の具体例について説明する。図4(a)は、無人飛行機が空中で停止している場合における衝突判定処理を説明する図であり、図4(b)は、無人飛行機が空中で停止している場合の衝突領域を示す図である。図5(a)は、無人飛行機が空中を移動している場合における衝突判定処理を説明する図であり、図5(b)は、無人飛行機が移動している場合の衝突領域を示す図である。
また、衝突領域は、無人飛行機20を地上に投影して得られる領域である。よって、衝突領域は、無人飛行機20の全長、全幅、対角長さのうち、最も長いものを直径とする円(半径:dinit)で近似することができる。以下の説明では、衝突領域は、半径dinitの円であるとする。また、図4(a)及び(b)、図5(a)及び(b)において、斜線が施された領域40は、衝突領域を示している。
まず、無人飛行機20が空中で停止している状態から墜落する場合を考える。この場合は、図4(a)及び(b)に示すように、無人飛行機20は略垂直に落下する。このため、衝突領域40は、無人飛行機20の直下に位置することになる。
従って、図4(a)に示すように、衝突判定部12は、まず、無人飛行機20の直下の位置に、衝突領域40を設定する。次に、ヒト30と無人飛行機20の中心との水平距離をdとすると、衝突判定部12は、衝突対象検出部11によって算出された距離dmhと、無人飛行機の高度dhと、ヒト30の身長Hとを、下記数1に代入して、水平距離dを算出する。なお、身長Hは、予め設定された値である。
次に、衝突判定部12は、水平距離dが半径dinitより小さくなっているかどうかを判定する。そして、判定の結果、水平距離dが半径dinitより小さくなっている場合に、衝突判定部12は、ヒト30が衝突領域40に位置しており、無人飛行機20とヒト30とが衝突する可能性があると判定する。
なお、高度dhの値が、ヒト30の身長Hの値に比べて十分に大きい場合は、「dh-H≒dh」と見なすことができる。この場合は、上記数1は、下記の数2のように書き換えることができる。
続いて、無人飛行機20が空中を移動している状態から墜落する場合を考える。この場合は、無人飛行機20は、進行方向において放物線を描きながら墜落する。このため、図5(a)及び(b)に示すように、衝突領域40は、無人飛行機20の直下から離れたところに位置することになる。
まず、衝突判定部12は、この場合においても、図4(a)及び(b)の例と同様に、ヒト30と無人飛行機20の中心との水平距離dを算出する。次に、衝突判定部12は、下記の数3に、無人飛行機20の高度dh及び速度vを代入して、無人飛行機が墜落するまでの間に水平方向において移動する距離(以下「水平移動距離」)dcを算出する。なお、下記の数3において「g」は重力加速度である。
次に、衝突判定部12は、現在の無人飛行機20の位置から進行方向において水平移動距離dcの分だけ離れた位置に、半径dinitの円として、衝突領域40を設定する。但し、無人飛行機20の進行方向が変化した場合は、衝突領域40は、例えば、図5(b)に示す領域40aの位置に移動する。また、衝突領域40は、無人飛行機20の速度が遅くなった場合は、領域40bの位置に移動し、無人飛行機20の速度が速くなった場合は、領域40cの位置に移動する。
そして、無人飛行機20が移動している場合に水平距離dが特定されたヒト30は、上述したように進行方向側に存在しているので、衝突判定部12は、水平距離dが下記の数4を満たしているかどうかを判定する。
そして、判定の結果、水平距離dが上記の数4を満たしている場合は、衝突判定部12は、ヒト30が衝突領域40に位置しており、無人飛行機20とヒト30とが衝突する可能性があると判定する。
また、本実施の形態では、衝突判定部12は、衝突する可能性があると判定した場合に、無人飛行機20に対して、対象との衝突が回避される行動、及び衝突によって生じる対象のダメージが軽減される行動のうち、少なくとも1つを指示することができる。このような行動の具体例としては、対象から離れるように移動すること、移動速度を抑えること、対象に対して音及び光のいずれか又は両方によって警告を出力すること、高度を落とすこと、等が挙げられる。
具体的には、衝突判定部12は、例えば、画像データからヒト30等の対象が存在していない位置を特定できるのであれば、特定した位置に移動することを指示する命令(以下「衝突回避命令」と表記する。)を作成することができる。また、衝突判定部12は、無人飛行機20の移動速度の低下及び高度の低下等を指示する命令(以下「ダメージ軽減命令」と表記する。)を作成することもできる。
そして、衝突判定部12は、作成した衝突回避命令又はダメージ軽減命令を、無線通信部13を介して、無人飛行機20に送信する。この場合、無人飛行機20において、データ処理部21は、命令の内容に応じて、各推力発生部24の推力を調整し、指示された位置に無人飛行機20を移動させたり、速度又は高度を低下させたりする。
更に、本実施の形態では、衝突判定部12は、衝突する可能性があると判定した場合に、例えば、無人飛行機20の管理者、操縦者等に、音及び光のいずれか又は両方によって、衝突を警告することもできる。具体的には、衝突判定部12は、管理者、操縦者等が所有する情報端末に対して、衝突する可能性がある旨の通知を送信し、この情報端末の画面及びスピーカによって警告を出力する。
[装置動作]
次に、本発明の実施の形態における飛行制御装置10の動作について図6を用いて説明する。図6は、本発明の実施の形態における飛行制御装置の動作を示すフロー図である。以下の説明においては、適宜図1~図5を参酌する。また、本実施の形態では、飛行制御装置10を動作させることによって、飛行制御方法が実施される。よって、本実施の形態における飛行制御方法の説明は、以下の飛行制御装置10の動作説明に代える。
次に、本発明の実施の形態における飛行制御装置10の動作について図6を用いて説明する。図6は、本発明の実施の形態における飛行制御装置の動作を示すフロー図である。以下の説明においては、適宜図1~図5を参酌する。また、本実施の形態では、飛行制御装置10を動作させることによって、飛行制御方法が実施される。よって、本実施の形態における飛行制御方法の説明は、以下の飛行制御装置10の動作説明に代える。
最初に、図6に示すように、飛行制御装置10において、衝突対象検出部11は、無線通信部13を介して、無人飛行機20から送信されてきたセンサ出力信号を取得する(ステップA1)。具体的には、例えば、無人飛行機20に搭載されているセンサ22がカメラである場合は、衝突対象検出部11は、センサ出力信号として、画像データを取得する。
次に、衝突対象検出部11は、ステップA1で取得したセンサ出力信号から、無人飛行機20の下方に存在する対象、例えば、ヒト30、自動車31等を検出し(ステップA2)、更に、無人飛行機20から検出した対象までの距離dmhを算出する(ステップA3)。
具体的には、例えば、センサ出力信号が画像データであるとすると、衝突対象検出部11は、画像データ上の特徴量と予め登録されている特徴量とを照合して、ヒト30、自動車31といった対象を検出する。そして、衝突対象検出部11は、抽出した対象の大きさを特定し、これを、予め登録されている大きさと距離との関係に当てはめて、対象と無人飛行機20との距離dmhを算出する。
次に、衝突判定部12は、無人飛行機20から送信されてきた状態情報を取得し、取得した状態情報から無人飛行機20の高度dh及び速度vを特定する(ステップA4)。次いで、衝突判定部12は、ステップA4で特定した高度dh及び速度vと、ステップA3で算出された距離dmhとに基づいて、無人飛行機20が墜落した場合に、無人飛行機20と対象とが衝突するかどうかを判定する(ステップA5)。
具体的には、ステップA5では、衝突判定部12は、ステップA4で特定した高度dh及び速度vに基づいて、無人飛行機20が墜落した場合に、無人飛行機20と衝突する可能性がある衝突領域40を特定する(図4(b)及び図5(b)参照)。そして、衝突判定部12は、ステップA3で算出された距離dmhを用いて、対象が衝突領域内40に位置するかどうかを判断し、それによって、無人飛行機20と対象とが衝突するかどうかを判定する。
ステップA5の判定の結果、無人飛行機20と対象とが衝突しないと判定した場合は、衝突判定部12は、後述のステップA7を実行する。一方、ステップA5の判定の結果、無人飛行機20と対象とが衝突すると判定した場合は、衝突判定部12は、衝突回避命令又はダメージ軽減命令を作成し、作成した命令を、無線通信部13を介して、無人飛行機20に送信する(ステップA6)。
また、ステップA5の判定の結果、無人飛行機20と対象とが衝突すると判定した場合は、衝突判定部12は、更に、無人飛行機20の管理者、操縦者等に、音及び光のいずれか又は両方によって、衝突を警告することもできる。
次に、ステップA5においてノーと判定した場合、又はステップA6を実行すると、衝突判定部12は、無人飛行機20が着陸しているかどうかを判定する(ステップA7)。ステップA7の判定の結果、無人飛行機20が着陸していない場合は、再度ステップA1が実行される。一方、ステップA7の判定の結果、無人飛行機20が着陸している場合は、飛行制御装置10における処理は終了する。
[実施の形態による効果]
以上のように本実施の形態では、無人飛行機20と衝突の可能性がある対象の検出が、常に行なわれ、地上の対象と無人飛行機20との衝突の可能性が判断される。よって、本実施の形態によれば、無人飛行機の墜落による衝突事故の発生が抑制される。
以上のように本実施の形態では、無人飛行機20と衝突の可能性がある対象の検出が、常に行なわれ、地上の対象と無人飛行機20との衝突の可能性が判断される。よって、本実施の形態によれば、無人飛行機の墜落による衝突事故の発生が抑制される。
また、本実施の形態では、衝突の可能性がある場合に、無人飛行機20に衝突回避命令又はダメージ軽減命令が送信され、管理者、操縦者等に警告がなされるので、いっそう、衝突事故の発生が抑制される。
[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図6に示すステップA1~A7を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における飛行制御装置10と飛行制御方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、衝突対象検出部11、及び衝突判定部12として機能し、処理を行なう。
本実施の形態におけるプログラムは、コンピュータに、図6に示すステップA1~A7を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における飛行制御装置10と飛行制御方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、衝突対象検出部11、及び衝突判定部12として機能し、処理を行なう。
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、衝突対象検出部11、及び衝突判定部12のいずれかとして機能しても良い。
[物理構成]
ここで、本実施の形態におけるプログラムを実行することによって、飛行制御装置10を実現するコンピュータについて図7を用いて説明する。図7は、本発明の実施の形態における飛行制御装置を実現するコンピュータの一例を示すブロック図である。
ここで、本実施の形態におけるプログラムを実行することによって、飛行制御装置10を実現するコンピュータについて図7を用いて説明する。図7は、本発明の実施の形態における飛行制御装置を実現するコンピュータの一例を示すブロック図である。
図7に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。
なお、本実施の形態における飛行制御装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、飛行制御装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
[変形例]
続いて、本実施の形態の変形例について図8を用いて説明する。図8は、本発明の実施の形態の変形例における飛行制御装置の構成を具体的に示すブロック図である。
続いて、本実施の形態の変形例について図8を用いて説明する。図8は、本発明の実施の形態の変形例における飛行制御装置の構成を具体的に示すブロック図である。
図1及び図2に示した例では、飛行制御装置10は、無人飛行機20の外部に設置されている。これに対して、図8に示すように、本変形例では、飛行制御装置10は、無人飛行機20のデータ処理部21内に構築されている。
具体的には、本変形例は、無人飛行機20に搭載されているコンピュータに、飛行制御装置10を実現するプログラムをインストールし、これを実行することによって、実現されている。本変形例によれば、無人飛行機20が外部と無線通信を行なうことが出来なくなった場合においても、地上の対象と無人飛行機20との衝突事故の発生が抑制される。
上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記18)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
無人飛行機を制御するための装置であって、
前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、衝突対象検出部と、
前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、衝突判定部と、
を備えている、ことを特徴とする飛行制御装置。
無人飛行機を制御するための装置であって、
前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、衝突対象検出部と、
前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、衝突判定部と、
を備えている、ことを特徴とする飛行制御装置。
(付記2)
前記無人飛行機が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備えており、
前記衝突対象検出部が、前記画素信号から生成された画像データに基づいて、前記対象を検出し、検出した前記対象の前記画像データにおける大きさを特定し、特定した前記大きさに基づいて、検出した前記対象と前記無人飛行機との距離を算出する、
付記1に記載の飛行制御装置。
前記無人飛行機が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備えており、
前記衝突対象検出部が、前記画素信号から生成された画像データに基づいて、前記対象を検出し、検出した前記対象の前記画像データにおける大きさを特定し、特定した前記大きさに基づいて、検出した前記対象と前記無人飛行機との距離を算出する、
付記1に記載の飛行制御装置。
(付記3)
前記無人飛行機が、前記センサとして、その下方に存在する前記対象までの距離に応じて出力信号の特徴が変化するセンサを備えており、
前記衝突対象検出部が、前記出力信号の特徴の変化から、前記対象を検出すると共に、前記対象と前記無人飛行機との距離を算出する、
付記1に記載の飛行制御装置。
前記無人飛行機が、前記センサとして、その下方に存在する前記対象までの距離に応じて出力信号の特徴が変化するセンサを備えており、
前記衝突対象検出部が、前記出力信号の特徴の変化から、前記対象を検出すると共に、前記対象と前記無人飛行機との距離を算出する、
付記1に記載の飛行制御装置。
(付記4)
前記衝突判定部が、前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度に基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と衝突する可能性がある地上の領域を特定し、そして、前記衝突対象検出部によって算出された前記距離を用いて、前記対象が前記領域内に位置しているかどうかを判定し、前記対象が前記領域内に位置している場合に、前記無人飛行機と前記対象とが衝突する可能性があると判定する、
付記1に記載の飛行制御装置。
前記衝突判定部が、前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度に基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と衝突する可能性がある地上の領域を特定し、そして、前記衝突対象検出部によって算出された前記距離を用いて、前記対象が前記領域内に位置しているかどうかを判定し、前記対象が前記領域内に位置している場合に、前記無人飛行機と前記対象とが衝突する可能性があると判定する、
付記1に記載の飛行制御装置。
(付記5)
前記衝突判定部が、衝突する可能性があると判定した場合に、前記無人飛行機に対して、前記対象との衝突が回避される行動、及び衝突によって生じる前記対象のダメージが軽減される行動のうち、少なくとも1つを指示する、
付記1に記載の飛行制御装置。
前記衝突判定部が、衝突する可能性があると判定した場合に、前記無人飛行機に対して、前記対象との衝突が回避される行動、及び衝突によって生じる前記対象のダメージが軽減される行動のうち、少なくとも1つを指示する、
付記1に記載の飛行制御装置。
(付記6)
前記衝突判定部が、衝突する可能性があると判定した場合に、衝突を警告する、
付記1に記載の飛行制御装置。
前記衝突判定部が、衝突する可能性があると判定した場合に、衝突を警告する、
付記1に記載の飛行制御装置。
(付記7)
無人飛行機を制御するための方法であって、
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を備えている、ことを特徴とする飛行制御方法。
無人飛行機を制御するための方法であって、
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を備えている、ことを特徴とする飛行制御方法。
(付記8)
前記無人飛行機が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備えており、
前記(a)のステップにおいて、前記画素信号から生成された画像データに基づいて、前記対象を検出し、検出した前記対象の前記画像データにおける大きさを特定し、特定した前記大きさに基づいて、検出した前記対象と前記無人飛行機との距離を算出する、
付記7に記載の飛行制御方法。
前記無人飛行機が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備えており、
前記(a)のステップにおいて、前記画素信号から生成された画像データに基づいて、前記対象を検出し、検出した前記対象の前記画像データにおける大きさを特定し、特定した前記大きさに基づいて、検出した前記対象と前記無人飛行機との距離を算出する、
付記7に記載の飛行制御方法。
(付記9)
前記無人飛行機が、前記センサとして、その下方に存在する前記対象までの距離に応じて出力信号の特徴が変化するセンサを備えており、
前記(a)のステップにおいて、前記出力信号の特徴の変化から、前記対象を検出すると共に、前記対象と前記無人飛行機との距離を算出する、
付記7に記載の飛行制御方法。
前記無人飛行機が、前記センサとして、その下方に存在する前記対象までの距離に応じて出力信号の特徴が変化するセンサを備えており、
前記(a)のステップにおいて、前記出力信号の特徴の変化から、前記対象を検出すると共に、前記対象と前記無人飛行機との距離を算出する、
付記7に記載の飛行制御方法。
(付記10)
前記(b)のステップにおいて、前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度に基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と衝突する可能性がある地上の領域を特定し、そして、前記衝突対象検出部によって算出された前記距離を用いて、前記対象が前記領域内に位置しているかどうかを判定し、前記対象が前記領域内に位置している場合に、前記無人飛行機と前記対象とが衝突する可能性があると判定する、
付記7に記載の飛行制御方法。
前記(b)のステップにおいて、前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度に基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と衝突する可能性がある地上の領域を特定し、そして、前記衝突対象検出部によって算出された前記距離を用いて、前記対象が前記領域内に位置しているかどうかを判定し、前記対象が前記領域内に位置している場合に、前記無人飛行機と前記対象とが衝突する可能性があると判定する、
付記7に記載の飛行制御方法。
(付記11)
(c)前記(b)のステップにて衝突する可能性があると判定した場合に、前記無人飛行機に対して、前記対象との衝突が回避される行動、及び衝突によって生じる前記対象のダメージが軽減される行動のうち、少なくとも1つを指示する、ステップを更に有する、
付記7に記載の飛行制御方法。
(c)前記(b)のステップにて衝突する可能性があると判定した場合に、前記無人飛行機に対して、前記対象との衝突が回避される行動、及び衝突によって生じる前記対象のダメージが軽減される行動のうち、少なくとも1つを指示する、ステップを更に有する、
付記7に記載の飛行制御方法。
(付記12)
(d)前記(b)のステップにて衝突する可能性があると判定した場合に、衝突を警告する、ステップを更に有する、
付記7に記載の飛行制御方法。
(d)前記(b)のステップにて衝突する可能性があると判定した場合に、衝突を警告する、ステップを更に有する、
付記7に記載の飛行制御方法。
(付記13)
コンピュータによって、無人飛行機を制御するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
コンピュータによって、無人飛行機を制御するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
(付記14)
前記無人飛行機が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備えており、
前記(a)のステップにおいて、前記画素信号から生成された画像データに基づいて、前記対象を検出し、検出した前記対象の前記画像データにおける大きさを特定し、特定した前記大きさに基づいて、検出した前記対象と前記無人飛行機との距離を算出する、
付記13に記載のコンピュータ読み取り可能な記録媒体。
前記無人飛行機が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備えており、
前記(a)のステップにおいて、前記画素信号から生成された画像データに基づいて、前記対象を検出し、検出した前記対象の前記画像データにおける大きさを特定し、特定した前記大きさに基づいて、検出した前記対象と前記無人飛行機との距離を算出する、
付記13に記載のコンピュータ読み取り可能な記録媒体。
(付記15)
前記無人飛行機が、前記センサとして、その下方に存在する前記対象までの距離に応じて出力信号の特徴が変化するセンサを備えており、
前記(a)のステップにおいて、前記出力信号の特徴の変化から、前記対象を検出すると共に、前記対象と前記無人飛行機との距離を算出する、
付記13に記載のコンピュータ読み取り可能な記録媒体。
前記無人飛行機が、前記センサとして、その下方に存在する前記対象までの距離に応じて出力信号の特徴が変化するセンサを備えており、
前記(a)のステップにおいて、前記出力信号の特徴の変化から、前記対象を検出すると共に、前記対象と前記無人飛行機との距離を算出する、
付記13に記載のコンピュータ読み取り可能な記録媒体。
(付記16)
前記(b)のステップにおいて、前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度に基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と衝突する可能性がある地上の領域を特定し、そして、前記衝突対象検出部によって算出された前記距離を用いて、前記対象が前記領域内に位置しているかどうかを判定し、前記対象が前記領域内に位置している場合に、前記無人飛行機と前記対象とが衝突する可能性があると判定する、
付記13に記載のコンピュータ読み取り可能な記録媒体。
前記(b)のステップにおいて、前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度に基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と衝突する可能性がある地上の領域を特定し、そして、前記衝突対象検出部によって算出された前記距離を用いて、前記対象が前記領域内に位置しているかどうかを判定し、前記対象が前記領域内に位置している場合に、前記無人飛行機と前記対象とが衝突する可能性があると判定する、
付記13に記載のコンピュータ読み取り可能な記録媒体。
(付記17)
前記コンピュータに、
(c)前記(b)のステップにて衝突する可能性があると判定した場合に、前記無人飛行機に対して、前記対象との衝突が回避される行動、及び衝突によって生じる前記対象のダメージが軽減される行動のうち、少なくとも1つを指示する、ステップを更に実行させる、
付記13に記載のコンピュータ読み取り可能な記録媒体。
前記コンピュータに、
(c)前記(b)のステップにて衝突する可能性があると判定した場合に、前記無人飛行機に対して、前記対象との衝突が回避される行動、及び衝突によって生じる前記対象のダメージが軽減される行動のうち、少なくとも1つを指示する、ステップを更に実行させる、
付記13に記載のコンピュータ読み取り可能な記録媒体。
(付記18)
前記コンピュータに、
(d)前記(b)のステップにて衝突する可能性があると判定した場合に、衝突を警告する、ステップを更に実行させる、
付記13に記載のコンピュータ読み取り可能な記録媒体。
前記コンピュータに、
(d)前記(b)のステップにて衝突する可能性があると判定した場合に、衝突を警告する、ステップを更に実行させる、
付記13に記載のコンピュータ読み取り可能な記録媒体。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2015年9月4日に出願された日本出願特願2015-174430を基礎とする優先権を主張し、その開示の全てをここに取り込む。
以上のように、本発明によれば、無人飛行機の墜落による衝突事故の発生を抑制することができる。本発明は、無人飛行機が利用される分野であれば制限無く利用できる。
10 飛行制御装置
11 衝突対象検出部
12 衝突判定部
13 無線通信部
20 無人飛行機
21 データ処理部
22 センサ
23 GPS信号受信部
24 推力発生部
25 無線通信部
30 ヒト
30a 頭部
31 自動車
40 衝突領域
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
11 衝突対象検出部
12 衝突判定部
13 無線通信部
20 無人飛行機
21 データ処理部
22 センサ
23 GPS信号受信部
24 推力発生部
25 無線通信部
30 ヒト
30a 頭部
31 自動車
40 衝突領域
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
Claims (18)
- 無人飛行機を制御するための装置であって、
前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、衝突対象検出部と、
前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、衝突判定部と、
を備えている、ことを特徴とする飛行制御装置。 - 前記無人飛行機が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備えており、
前記衝突対象検出部が、前記画素信号から生成された画像データに基づいて、前記対象を検出し、検出した前記対象の前記画像データにおける大きさを特定し、特定した前記大きさに基づいて、検出した前記対象と前記無人飛行機との距離を算出する、
請求項1に記載の飛行制御装置。 - 前記無人飛行機が、前記センサとして、その下方に存在する前記対象までの距離に応じて出力信号の特徴が変化するセンサを備えており、
前記衝突対象検出部が、前記出力信号の特徴の変化から、前記対象を検出すると共に、前記対象と前記無人飛行機との距離を算出する、
請求項1または2に記載の飛行制御装置。 - 前記衝突判定部が、前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度に基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と衝突する可能性がある地上の領域を特定し、そして、前記衝突対象検出部によって算出された前記距離を用いて、前記対象が前記領域内に位置しているかどうかを判定し、前記対象が前記領域内に位置している場合に、前記無人飛行機と前記対象とが衝突する可能性があると判定する、
請求項1~3のいずれかに記載の飛行制御装置。 - 前記衝突判定部が、衝突する可能性があると判定した場合に、前記無人飛行機に対して、前記対象との衝突が回避される行動、及び衝突によって生じる前記対象のダメージが軽減される行動のうち、少なくとも1つを指示する、
請求項1~4のいずれかに記載の飛行制御装置。 - 前記衝突判定部が、衝突する可能性があると判定した場合に、衝突を警告する、
請求項1~5のいずれかに記載の飛行制御装置。 - 無人飛行機を制御するための方法であって、
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を備えている、ことを特徴とする飛行制御方法。 - 前記無人飛行機が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備えており、
前記(a)のステップにおいて、前記画素信号から生成された画像データに基づいて、前記対象を検出し、検出した前記対象の前記画像データにおける大きさを特定し、特定した前記大きさに基づいて、検出した前記対象と前記無人飛行機との距離を算出する、
請求項7に記載の飛行制御方法。 - 前記無人飛行機が、前記センサとして、その下方に存在する前記対象までの距離に応じて出力信号の特徴が変化するセンサを備えており、
前記(a)のステップにおいて、前記出力信号の特徴の変化から、前記対象を検出すると共に、前記対象と前記無人飛行機との距離を算出する、
請求項7または8に記載の飛行制御方法。 - 前記(b)のステップにおいて、前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度に基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と衝突する可能性がある地上の領域を特定し、そして、前記衝突対象検出部によって算出された前記距離を用いて、前記対象が前記領域内に位置しているかどうかを判定し、前記対象が前記領域内に位置している場合に、前記無人飛行機と前記対象とが衝突する可能性があると判定する、
請求項7~9のいずれかに記載の飛行制御方法。 - (c)前記(b)のステップにて衝突する可能性があると判定した場合に、前記無人飛行機に対して、前記対象との衝突が回避される行動、及び衝突によって生じる前記対象のダメージが軽減される行動のうち、少なくとも1つを指示する、ステップを更に有する、
請求項7~10のいずれかに記載の飛行制御方法。 - (d)前記(b)のステップにて衝突する可能性があると判定した場合に、衝突を警告する、ステップを更に有する、
請求項7~11のいずれかに記載の飛行制御方法。 - コンピュータによって、無人飛行機を制御するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
(a)前記無人飛行機の下方の状況を検知可能なセンサが出力した信号に基づいて、前記無人飛行機の下方に存在する対象を検出し、検出した前記対象と前記無人飛行機との距離を算出する、ステップと、
(b)前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度と算出した前記距離とに基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と前記対象とが衝突するかどうかを判定する、ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。 - 前記無人飛行機が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備えており、
前記(a)のステップにおいて、前記画素信号から生成された画像データに基づいて、前記対象を検出し、検出した前記対象の前記画像データにおける大きさを特定し、特定した前記大きさに基づいて、検出した前記対象と前記無人飛行機との距離を算出する、
請求項13に記載のコンピュータ読み取り可能な記録媒体。 - 前記無人飛行機が、前記センサとして、その下方に存在する前記対象までの距離に応じて出力信号の特徴が変化するセンサを備えており、
前記(a)のステップにおいて、前記出力信号の特徴の変化から、前記対象を検出すると共に、前記対象と前記無人飛行機との距離を算出する、
請求項13または14に記載のコンピュータ読み取り可能な記録媒体。 - 前記(b)のステップにおいて、前記無人飛行機の高度及び速度を特定し、特定した前記高度及び前記速度に基づいて、前記無人飛行機が墜落した場合に、前記無人飛行機と衝突する可能性がある地上の領域を特定し、そして、前記衝突対象検出部によって算出された前記距離を用いて、前記対象が前記領域内に位置しているかどうかを判定し、前記対象が前記領域内に位置している場合に、前記無人飛行機と前記対象とが衝突する可能性があると判定する、
請求項13~15のいずれかに記載のコンピュータ読み取り可能な記録媒体。 - 前記コンピュータに、
(c)前記(b)のステップにて衝突する可能性があると判定した場合に、前記無人飛行機に対して、前記対象との衝突が回避される行動、及び衝突によって生じる前記対象のダメージが軽減される行動のうち、少なくとも1つを指示する、ステップを更に実行させる、
請求項13~16のいずれかに記載のコンピュータ読み取り可能な記録媒体。 - 前記コンピュータに、
(d)前記(b)のステップにて衝突する可能性があると判定した場合に、衝突を警告する、ステップを更に実行させる、
請求項13~17のいずれかに記載のコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017538081A JP6485889B2 (ja) | 2015-09-04 | 2016-08-31 | 飛行制御装置、飛行制御方法、及びプログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015174430 | 2015-09-04 | ||
JP2015-174430 | 2015-09-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017038891A1 true WO2017038891A1 (ja) | 2017-03-09 |
Family
ID=58188865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/075560 WO2017038891A1 (ja) | 2015-09-04 | 2016-08-31 | 飛行制御装置、飛行制御方法、及びコンピュータ読み取り可能な記録媒体 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6485889B2 (ja) |
WO (1) | WO2017038891A1 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018013949A (ja) * | 2016-07-21 | 2018-01-25 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 移動体、移動体の障害物検知方法および移動体の障害物検知プログラム |
WO2018213961A1 (zh) * | 2017-05-21 | 2018-11-29 | 李仁涛 | 移动机器人避障装置及方法 |
WO2019020630A1 (de) * | 2017-07-24 | 2019-01-31 | Liftair Gmbh | Signalgenerator für ein unbemanntes luftfahrzeug, unbemanntes luftfahrzeug und verfahren zum erzeugen eines signals an einem unbemannten luftfahrzeug |
JP2019023010A (ja) * | 2017-07-24 | 2019-02-14 | 株式会社システック | ドローン飛行体の制御システム |
WO2019061063A1 (zh) * | 2017-09-27 | 2019-04-04 | 深圳市大疆创新科技有限公司 | 无人机图像采集方法及无人机 |
CN110428664A (zh) * | 2019-09-09 | 2019-11-08 | 湖南科技大学 | 基于计算机视觉人体识别的交通防撞方法 |
JP2020067881A (ja) * | 2018-10-25 | 2020-04-30 | 株式会社Nttドコモ | 情報処理装置 |
WO2023238208A1 (ja) * | 2022-06-06 | 2023-12-14 | 株式会社RedDotDroneJapan | 空中撮影システム、空中撮影方法及び空中移動体管理装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010082352A1 (ja) * | 2009-01-19 | 2010-07-22 | トヨタ自動車株式会社 | 衝撃吸収装置 |
WO2014027097A2 (en) * | 2012-08-17 | 2014-02-20 | Markus Waibel | Flying camera with string assembly for localization and interaction |
JP2014149621A (ja) * | 2013-01-31 | 2014-08-21 | Secom Co Ltd | 自律飛行ロボット |
JP2014199548A (ja) * | 2013-03-29 | 2014-10-23 | 綜合警備保障株式会社 | 飛行制御システム及び飛行制御方法 |
JP2015145784A (ja) * | 2014-01-31 | 2015-08-13 | 株式会社トプコン | 測定システム |
-
2016
- 2016-08-31 JP JP2017538081A patent/JP6485889B2/ja active Active
- 2016-08-31 WO PCT/JP2016/075560 patent/WO2017038891A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010082352A1 (ja) * | 2009-01-19 | 2010-07-22 | トヨタ自動車株式会社 | 衝撃吸収装置 |
WO2014027097A2 (en) * | 2012-08-17 | 2014-02-20 | Markus Waibel | Flying camera with string assembly for localization and interaction |
JP2014149621A (ja) * | 2013-01-31 | 2014-08-21 | Secom Co Ltd | 自律飛行ロボット |
JP2014199548A (ja) * | 2013-03-29 | 2014-10-23 | 綜合警備保障株式会社 | 飛行制御システム及び飛行制御方法 |
JP2015145784A (ja) * | 2014-01-31 | 2015-08-13 | 株式会社トプコン | 測定システム |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018013949A (ja) * | 2016-07-21 | 2018-01-25 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 移動体、移動体の障害物検知方法および移動体の障害物検知プログラム |
WO2018213961A1 (zh) * | 2017-05-21 | 2018-11-29 | 李仁涛 | 移动机器人避障装置及方法 |
WO2019020630A1 (de) * | 2017-07-24 | 2019-01-31 | Liftair Gmbh | Signalgenerator für ein unbemanntes luftfahrzeug, unbemanntes luftfahrzeug und verfahren zum erzeugen eines signals an einem unbemannten luftfahrzeug |
JP2019023010A (ja) * | 2017-07-24 | 2019-02-14 | 株式会社システック | ドローン飛行体の制御システム |
WO2019061063A1 (zh) * | 2017-09-27 | 2019-04-04 | 深圳市大疆创新科技有限公司 | 无人机图像采集方法及无人机 |
JP2020067881A (ja) * | 2018-10-25 | 2020-04-30 | 株式会社Nttドコモ | 情報処理装置 |
JP7260281B2 (ja) | 2018-10-25 | 2023-04-18 | 株式会社Nttドコモ | 情報処理装置 |
CN110428664A (zh) * | 2019-09-09 | 2019-11-08 | 湖南科技大学 | 基于计算机视觉人体识别的交通防撞方法 |
CN110428664B (zh) * | 2019-09-09 | 2023-04-25 | 湖南科技大学 | 基于计算机视觉人体识别的交通防撞方法 |
WO2023238208A1 (ja) * | 2022-06-06 | 2023-12-14 | 株式会社RedDotDroneJapan | 空中撮影システム、空中撮影方法及び空中移動体管理装置 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017038891A1 (ja) | 2018-05-31 |
JP6485889B2 (ja) | 2019-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6485889B2 (ja) | 飛行制御装置、飛行制御方法、及びプログラム | |
WO2017081898A1 (ja) | 飛行制御装置、飛行制御方法、及びコンピュータ読み取り可能な記録媒体 | |
JP7456537B2 (ja) | 飛行体制御装置、飛行体制御方法、及びプログラム | |
EP3521158B1 (en) | Flight control device, unmanned aerial vehicle, flight control method, and computer program | |
US11592829B2 (en) | Control device and control method, program, and mobile object | |
EP3378707A1 (en) | Collision prediction and forward airbag deployment system for autonomous driving vehicles | |
JP6525291B2 (ja) | 位置管理装置、位置管理方法、及びプログラム | |
JP6783950B2 (ja) | 無人航空機の障害物回避制御方法および無人航空機 | |
US11536833B2 (en) | Information processing device, information processing method, and vehicle | |
US20180265192A1 (en) | Aerial vehicle operation system and crane device control method | |
US10538326B1 (en) | Flare detection and avoidance in stereo vision systems | |
JP2017016359A (ja) | 自律移動ロボット | |
JP2017135601A (ja) | 車両周囲監視装置、監視システム、遠隔監視装置及び監視方法 | |
US20210349461A1 (en) | Unmanned aerial vehicle, method for controlling unmanned aerial vehicle, control apparatus, and computer-readable storage medium | |
CN110667878A (zh) | 信息处理方法、控制装置及系留移动体 | |
JP6288901B1 (ja) | 落下検知手段、落下警報手段及び落下通報手段 | |
JP2016181178A (ja) | 自律移動ロボット | |
US11741932B2 (en) | Unmanned aircraft and information processing method | |
KR102200182B1 (ko) | 비행 영역을 지상에 표시하는 무인 비행 장치 및 그 동작 방법 | |
JP2021154857A (ja) | 操縦支援装置、操縦支援方法、及びプログラム | |
WO2021061177A1 (en) | Automotive camera unit | |
JP6529098B2 (ja) | 位置推定装置、位置推定方法、及びプログラム | |
WO2021187110A1 (ja) | 移動体、情報処理装置、情報処理方法、及びプログラム | |
WO2024195211A1 (ja) | 制御装置、制御方法およびプログラム | |
JP2020050110A (ja) | 飛行制御支援装置および飛行制御支援方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16841921 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2017538081 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 16841921 Country of ref document: EP Kind code of ref document: A1 |