WO2020170510A1 - 無人飛行体、情報処理方法およびプログラム - Google Patents

無人飛行体、情報処理方法およびプログラム Download PDF

Info

Publication number
WO2020170510A1
WO2020170510A1 PCT/JP2019/043783 JP2019043783W WO2020170510A1 WO 2020170510 A1 WO2020170510 A1 WO 2020170510A1 JP 2019043783 W JP2019043783 W JP 2019043783W WO 2020170510 A1 WO2020170510 A1 WO 2020170510A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
aerial vehicle
unmanned aerial
target
sound source
Prior art date
Application number
PCT/JP2019/043783
Other languages
English (en)
French (fr)
Inventor
ステファン ジョン
一暢 小西
浅井 勝彦
井上 和夫
俊介 久原
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2021501561A priority Critical patent/JP7442147B2/ja
Priority to CN201980067977.6A priority patent/CN112912309A/zh
Priority to EP19915970.8A priority patent/EP3929074A4/en
Publication of WO2020170510A1 publication Critical patent/WO2020170510A1/ja
Priority to US17/231,679 priority patent/US11928974B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/18Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/20Initiating means actuated automatically, e.g. responsive to gust detectors using radiated signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D31/00Power plant control systems; Arrangement of power plant control systems in aircraft
    • B64D31/02Initiating means
    • B64D31/06Initiating means actuated automatically
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • B64U30/26Ducted or shrouded rotors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/803Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from receiving transducers or transducer systems having differently-oriented directivity characteristics
    • G01S3/8034Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from receiving transducers or transducer systems having differently-oriented directivity characteristics wherein the signals are derived simultaneously
    • G01S3/8036Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from receiving transducers or transducer systems having differently-oriented directivity characteristics wherein the signals are derived simultaneously derived directly from separate directional systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/28Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves by co-ordinating position lines of different shape, e.g. hyperbolic, circular, elliptical or radial
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C11/00Propellers, e.g. of ducted type; Features common to propellers and rotors for rotorcraft
    • B64C11/001Shrouded propellers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S2205/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S2205/01Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations specially adapted for specific applications
    • G01S2205/03Airborne
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves

Definitions

  • the present disclosure relates to an unmanned aerial vehicle, an information processing method, and a program.
  • Patent Document 1 discloses an unmanned aerial vehicle that performs a process of removing background noise from audio data collected by a background microphone.
  • Patent Document 1 since the safety to the sound source is not considered, it may be difficult to improve the sound collection quality while ensuring the safety.
  • the present disclosure provides an unmanned aerial vehicle, an information processing method, and a program capable of improving sound collection quality while ensuring safety to a sound source.
  • An unmanned aerial vehicle is an unmanned aerial vehicle, including a sensor that includes at least a microphone that generates sound data, and a processor, and the processor uses the sound data generated by the microphone to target the target. Sound quality is determined, the data generated by the sensor is used to obtain the positional relationship between the unmanned air vehicle and the sound source of the target sound, and based on the quality of the target sound and the positional relationship, the The movement of the unmanned aerial vehicle is controlled so that the distance between the unmanned aerial vehicle and the sound source of the target sound is controlled.
  • a recording medium such as a system, a method, an integrated circuit, a computer program or a computer-readable CD-ROM, and the system, the method, the integrated circuit, the computer program. It may be realized by any combination of the recording medium and the recording medium.
  • the unmanned aerial vehicle, the information processing method, and the program according to the present disclosure can improve the sound collection quality while ensuring the safety of the sound source.
  • FIG. 1 is a diagram showing the appearance of an unmanned aerial vehicle and a controller according to an embodiment.
  • FIG. 2 is a plan view of the unmanned aerial vehicle according to the embodiment when viewed from above.
  • FIG. 3 is a sectional view taken along the line III-III of the unmanned aerial vehicle shown in FIG.
  • FIG. 4 is a block diagram showing the configuration of the unmanned aerial vehicle according to the embodiment.
  • FIG. 5 is a flowchart showing an operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 6 is a flowchart showing an example of a target sound quality determination process by an unmanned air vehicle.
  • FIG. 7 is a diagram showing an example of a calculation method for calculating the SN ratio as an index of the quality of the target sound.
  • FIG. 1 is a diagram showing the appearance of an unmanned aerial vehicle and a controller according to an embodiment.
  • FIG. 2 is a plan view of the unmanned aerial vehicle according to the embodiment when viewed from above.
  • FIG. 8A is a diagram for explaining a first scene of an operation example in sound collection control of an unmanned air vehicle according to an embodiment.
  • FIG. 8B is a diagram for explaining the second scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 8C is a diagram for explaining a third scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 9A is a diagram for explaining a fourth scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 9B is a diagram for explaining the fifth scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 9C is a diagram for explaining the sixth scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 10A is a diagram for explaining a seventh scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 10B is a diagram for explaining the eighth scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 10C is a diagram for explaining a ninth scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 11A is a diagram for explaining a tenth scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 11B is a diagram for explaining the eleventh scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 12A is a diagram for explaining a twelfth scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 12B is a diagram for explaining the 13th scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 13 is a table showing an example of the relationship between the reference SN ratio and the usage.
  • FIG. 14 is a flowchart showing an operation example in sound collection control of an unmanned air vehicle according to a modification.
  • FIG. 15 is a flowchart showing another operation example in the sound collection control of the unmanned air vehicle according to the modification.
  • the unmanned aerial vehicle described in Patent Document 1 performs a process of removing background noise generated from a propulsion unit such as a rotary wing of the unmanned aerial vehicle from the collected audio data.
  • this unmanned aerial vehicle does not consider a relative positional relationship with a sound source for which audio data is collected.
  • the sound source collection microphone which is included in the unmanned aerial vehicle and detects the target sound from the sound source, may not include the sound source within the sound collection range in which the sound can be effectively collected.
  • the target sound cannot be efficiently collected by the sound source collection microphone, so the background noise is relatively large. Will be done.
  • the noise component of the audio data obtained by the sound source collection microphone becomes relatively large, so that the SN (Signal Noise) ratio becomes small. Therefore, it is difficult to obtain high-quality audio data even if background noise is removed from the obtained audio data.
  • the unmanned aerial vehicle in order to collect the target sound from the sound source relatively larger than the background noise, it is possible to bring the unmanned aerial vehicle close to the sound source and collect the sound data. If the unmanned aerial vehicle is moved toward the sound source and the voice data is collected at a position close to the sound source, the unmanned aerial vehicle may become uncontrollable, or the actuator generating the propulsive force of the unmanned aerial vehicle may malfunction. In that case, the unmanned aerial vehicle may fall toward the sound source. Therefore, it is necessary to ensure the safety of the sound source by taking safety measures such as enclosing the sound source with a protective net. In other words, it is difficult to ensure the safety of the sound source without spending extra energy or cost for manufacturing and installing the protective net.
  • an unmanned aerial vehicle that includes a sensor including at least a microphone that generates sound data, and a processor, and the processor includes ,
  • the sound data generated by the microphone is used to determine the quality of the target sound
  • the data generated by the sensor is used to obtain the positional relationship between the unmanned aerial vehicle and the sound source of the target sound
  • the movement of the unmanned aerial vehicle is controlled so that the distance between the unmanned aerial vehicle and the target sound source is controlled based on the sound quality and the positional relationship. Therefore, the quality of the target sound can be ensured while controlling the distance between the unmanned air vehicle and the sound source. Therefore, the sound collection quality can be improved while ensuring the safety to the sound source.
  • the processor may control the movement of the unmanned aerial vehicle so as to move away from the sound source when the quality of the target sound is higher than a predetermined target quality. For this reason, the sound sources are separated within a range in which the target quality is maintained, so that the safety of the sound source can be further improved.
  • the processor controls the movement of the unmanned aerial vehicle so as to move away from the sound source, any one from a current position of the unmanned aerial vehicle to a position where the quality of the target sound is the target quality. Movement of the unmanned aerial vehicle may be controlled to move to a position. Therefore, it is possible to enhance the safety of the sound source without the sound collection quality falling below the target quality.
  • the processor may control the movement of the unmanned aerial vehicle so as to approach the sound source when the quality of the target sound is lower than a predetermined target quality. Therefore, the target sound quality is approached within a range until the target quality is satisfied, so that it is possible to further improve the sound collection quality of the target sound while ensuring the safety of the sound source.
  • the processor further acquires distance information indicating a predetermined distance from the sound source, and when controlling the movement of the unmanned aerial vehicle so as to approach the sound source, based on the distance information and the positional relationship.
  • the movement of the unmanned aerial vehicle may be controlled so that the unmanned aerial vehicle does not come closer to the sound source than the position separated from the sound source by the predetermined distance. Therefore, in order to ensure the safety of the sound source, in order to move the unmanned aerial vehicle toward the sound source, the sound source and the unmanned aerial vehicle are separated by at least a predetermined distance or more to improve the sound collection quality and The safety of can be ensured.
  • the processor is based on the distance information and the positional relationship, After controlling the movement of the unmanned air vehicle so as to approach the sound source to a position away from the sound source by the predetermined distance, when the quality of the target sound is lower than a predetermined target quality, the actuator is By controlling, at least one of the direction of the microphone and the protrusion amount of the microphone outward from the unmanned air vehicle may be changed.
  • the processor can direct the direction with high microphone sensitivity to the sound source when changing the direction of the microphone.
  • the direction in which the microphone has high sensitivity and the direction of the sound source can be made to coincide with each other, so that the sound pressure level of the target sound can be relatively increased with respect to the sound pressure level of noise, and the sound collection quality can be improved. it can.
  • the processor when the processor controls the actuator to change the amount of protrusion of the microphone toward the outside of the unmanned aerial vehicle, the processor can project the microphone toward the outside of the unmanned aerial vehicle and bring the microphone closer to the sound source. As a result, the microphone is separated from the unmanned aerial vehicle that is the source of noise, so that the sound pressure level of noise can be reduced. Further, since the microphone approaches the sound source, the sound pressure level of the target sound can be relatively improved with respect to the sound pressure level of noise. As a result, the sound collection quality can be effectively improved.
  • the processor may also calculate an SN (Signal Noise) ratio calculated using the target sound and the noise related to the flight of the unmanned air vehicle as an index for determining the quality. Therefore, the quality of the target sound can be easily determined.
  • SN Synignal Noise
  • the processor further obtains a preset target SN ratio using the noise related to the flight of the unmanned air vehicle as the preset target quality, and calculates the obtained target SN ratio.
  • the quality of the target sound may be determined by comparing the quality of the target sound. For this reason, since the target SN ratio is calculated in advance, it is possible to reduce the amount of sound quality processing.
  • the processor may also control the unmanned aerial vehicle so that the unmanned aerial vehicle moves horizontally.
  • the unmanned aerial vehicle moves in a direction away from the sound source in the horizontal direction, so that a distance from the sound source in the horizontal direction can be secured. Therefore, by not going to a position higher than the current position, it is possible to reduce the impact when the unmanned aerial vehicle falls and ensure the safety of the sound source.
  • the processor may also control the unmanned aerial vehicle so that the unmanned aerial vehicle approaches the ground.
  • the unmanned aerial vehicle moves toward the sound source as it approaches the ground, and thus can approach the sound source while maintaining a distance from the sound source in the horizontal direction. Therefore, when the unmanned aerial vehicle falls closer to the ground than the current position, the impact when the unmanned aerial vehicle falls can be further reduced, and the safety of the sound source can be ensured.
  • the processor may acquire the positional relationship using the sound data. As a result, it is possible to improve the sound collection quality by mounting only the microphone and ensuring the safety to the sound source. Furthermore, it is possible to suppress an increase in the total weight of the unmanned air vehicle.
  • the sensor may further include an image sensor that generates image data
  • the processor may use the image data generated by the image sensor to acquire the positional relationship. According to this, since the processor acquires the positional relationship using the image data, it is possible to acquire the highly accurate positional relationship.
  • the sensor may further include a distance measuring sensor that generates distance measuring data, and the processor may obtain the positional relationship using the distance measuring data generated by the distance measuring sensor. According to this, since the processor acquires the positional relationship using the distance measurement data, it is possible to acquire the positional relationship with high accuracy.
  • the processor determines a target distance based on the quality of the target sound, the positional relationship, and a predetermined target quality, and the distance between the unmanned air vehicle and the sound source is the target distance.
  • the movement of the unmanned aerial vehicle may be controlled. This allows the unmanned aerial vehicle to move to a position corresponding to a predetermined target quality.
  • the positional relationship includes (i) a distance between the unmanned aerial vehicle and the sound source, (ii) a position of the sound source with respect to the unmanned aerial vehicle, and (iii) from the unmanned aerial vehicle to the sound source. It may be at least one of the directions.
  • a recording medium such as a system, a method, an integrated circuit, a computer program or a computer-readable CD-ROM, and the system, the method, the integrated circuit, the computer program.
  • a recording medium such as a system, a method, an integrated circuit, a computer program or a computer-readable CD-ROM, and the system, the method, the integrated circuit, the computer program.
  • it may be realized by any combination of recording media.
  • FIG. 1 is a diagram showing the appearance of an unmanned aerial vehicle and a controller according to an embodiment.
  • FIG. 2 is a plan view of the unmanned aerial vehicle according to the embodiment when viewed from above.
  • the unmanned aerial vehicle 100 receives from the controller 200 an operation signal corresponding to an operation by the user on the controller 200, and flies according to the received operation signal. Further, the unmanned aerial vehicle 100 may be imaged by using the camera 107 included in the unmanned aerial vehicle 100 in accordance with the received operation signal in the flight state. The image data captured by the camera 107 may be transmitted to the mobile terminal 300 described later.
  • the controller 200 receives an operation from the user and sends an operation signal corresponding to the received operation to the unmanned air vehicle 100.
  • the controller 200 may also hold a mobile terminal 300 having a display, such as a smartphone.
  • the mobile terminal 300 receives the image data captured by the camera 107 of the unmanned aerial vehicle 100 from the unmanned aerial vehicle 100, and displays the received image data in real time, for example.
  • the user operates the controller 200 while checking the image data captured by the camera 107 of the unmanned aerial vehicle 100 in real time on the mobile terminal 300, and thereby the position and attitude of the unmanned aerial vehicle 100 during flight. At least one of the flight conditions can be changed. Therefore, the user can freely change the image capturing range captured by the camera 107 of the unmanned aerial vehicle 100.
  • the unmanned aerial vehicle 100 includes four generators 110, four ducts 130, a main body 140, and four arms 141.
  • Each of the four generators 110 generates a force that causes the unmanned aerial vehicle 100 to fly.
  • Each of the four generators 110 specifically generates a force that causes the unmanned aerial vehicle 100 to fly by generating an air flow.
  • Each of the four generators 110 has a rotary blade 111 that generates an airflow by rotating, and an actuator 112 that rotates the rotary blade 111.
  • Rotor 111 and actuator 112 have a rotation axis that is substantially parallel to the vertical direction when unmanned aerial vehicle 100 is installed on a horizontal plane, and generate an air flow that flows downward from above.
  • the actuator 112 is, for example, a motor.
  • the four generators 110 are arranged around the main body 140 at angular intervals of 90 degrees. That is, the four generators 110 are arranged side by side in a ring shape so as to surround the main body 140.
  • each of the four generators 110 are illustrated as an example including one propeller, but the present invention is not limited to this, and two propellers rotate in opposite directions on the same rotation axis. It may be composed of a contra-rotating propeller.
  • FIG. 3 is a sectional view taken along the line III-III of the unmanned aerial vehicle shown in FIG. That is, FIG. 3 is a cross-sectional view when one generator 110 and the duct 130 arranged corresponding to the generator 110 are cut along a plane passing through the rotation axis of the rotary blade 111.
  • the four ducts 130 are provided corresponding to the four generators 110, respectively.
  • Each of the four ducts 130 is arranged at a position that covers the side of the corresponding generator 110, that is, at a position that covers a direction substantially orthogonal to the rotation axis direction of the rotating blades 111 of the generator 110.
  • each of the four ducts 130 covers the side of the corresponding generator 110 over the length of the corresponding generator 110 in the rotation axis direction. That is, each of the four ducts 130 has a space 131 in which the generator 110 is arranged, and has a columnar space 131 penetrating the duct 130 in the vertical direction.
  • Each of the four ducts 130 has a shape in which the thickness of the duct 130 becomes thinner toward the downstream side of the airflow generated by the corresponding generator 110. Specifically, each of the four ducts 130 has a shape in which the outer surface of the duct 130 approaches the cylindrical inner surface of the duct 130 toward the downstream side of the airflow generated by the corresponding generator 110. That is, each of the four ducts 130 has a shape in which the downstream side of the air flow generated by the corresponding generator 110 is sharp. Further, the end portion on the upstream side of the air flow on the inner surface of the duct 130 has a rounded shape. Specifically, the end has a shape in which the inner diameter of the duct 130 is recessed toward the air flow direction. This makes it easier for air to enter the duct 130 and improves flight performance. Further, it is possible to reduce the weight of the duct 130 and thus the unmanned aerial vehicle 100. The end may have a linear shape that matches the direction of the air flow.
  • the main body 140 is, for example, a cylindrical box-shaped member, that is, a housing, and electronic devices such as a processor, a memory, a battery, and various sensors are arranged inside.
  • the shape of the main body 140 is not limited to the columnar shape, and may be a box-shaped member having another shape such as a square pole.
  • the main body 140 is provided with four microphones 105, a gimbal 106, and a camera 107 on the outside.
  • the four microphones 105 are arranged on the side surface of the main body 140 in a region between the four regions to which the four arms 141 corresponding to the four generators 110 are connected. That is, for example, the four microphones 105 are respectively arranged at positions corresponding to the directions shifted by 45° with respect to the directions toward the four generators 110 with the main body 140 as the center.
  • the four arms 141 are members that connect the main body 140 and the four ducts 130.
  • the four arms 141 have one end fixed to the main body 140 and the other end fixed to a corresponding one of the four ducts 130.
  • FIG. 4 is a block diagram showing the configuration of the unmanned aerial vehicle according to the embodiment. Specifically, FIG. 4 is a block diagram for explaining the functions of the processor 101 realized by using the hardware configuration of the unmanned aerial vehicle 100.
  • the unmanned aerial vehicle 100 includes a processor 101, a GPS (Global Positioning System) receiver 102, an acceleration sensor 103, a gyro sensor 104, four microphones 105, a gimbal 106, and a camera 107.
  • the processor 101 detects the detection result of various sensors including the acceleration sensor 103, the gyro sensor 104, the four microphones 105, the image sensor of the camera 107, and the distance measuring sensor 108, and the reception result of the GPS receiver 102 or the communication IF 109. Etc. are acquired, and various processes are executed by executing a predetermined program stored in a memory or storage (not shown) on the acquired detection result or reception result. This causes the processor 101 to control at least one of the four generators 110, the gimbal 106 and the camera 107.
  • the GPS receiver 102 receives information indicating the position of the GPS receiver 102 from artificial satellites including GPS satellites. That is, the GPS receiver 102 detects the current position of the unmanned aerial vehicle 100. The GPS receiver 102 sequentially outputs the detected current position of the unmanned aerial vehicle 100 to the processor 101 or a storage (not shown).
  • the acceleration sensor 103 is a sensor that detects acceleration applied to the unmanned air vehicle 100 in each of three different directions.
  • the gyro sensor 104 is a sensor that detects the angular velocity of each rotation of the unmanned aerial vehicle 100 around the three different axes.
  • Each of the four microphones 105 has a characteristic directivity that can pick up a sound of higher quality than an angular range other than the sound collecting range in a sound collecting range that is a predetermined angular range based on a specific direction.
  • the microphone is a microphone, and is an example of a sensor.
  • the predetermined angle range is, for example, an angle range of 90° or less, and is a three-dimensional angle range having a spread based on the position of the microphone 105.
  • Each of the four microphones 105 may be a microphone array having a plurality of microphone elements.
  • Each of the four microphones 105 collects sound to sequentially generate sound data, and sequentially outputs the sequentially generated sound data to the processor 101 or a storage (not shown). When the sound data is output to the storage, the storage sequentially stores the output sound data. At this time, the storage may store the sound data in association with time information indicating the current time, for example.
  • the gimbal 106 is a device for keeping the posture of the camera 107 around the three axes constant. That is, the gimbal 106 is a device for maintaining the attitude of the camera 107, for example, in a desired attitude with respect to the earth coordinate system, even if the attitude of the unmanned aerial vehicle 100 changes.
  • the desired posture is a posture determined by the imaging direction of the camera 107 included in the operation signal received from the controller 200.
  • the camera 107 is a device having an optical system such as a lens and an image sensor, and is an example of a sensor.
  • the camera 107 sequentially generates image data by capturing an image, and sequentially outputs the sequentially generated image data to the processor 101 or a storage.
  • the storage sequentially stores the output image data.
  • the storage may store the image data in association with time information indicating the current time, for example.
  • the distance measuring sensor 108 is a sensor that detects the distance from the distance measuring sensor 108 to surrounding objects.
  • the distance measuring sensor 108 is, for example, an ultrasonic sensor, a TOF (Time Of Flight) camera, a LIDAR (Light Detection and Ranging), or the like.
  • the distance measurement data generated by the distance measurement sensor 108 may be data in which a direction with respect to the distance measurement sensor 108 is associated with a distance to a surrounding object in the direction.
  • the distance measuring sensor 108 is fixed at a prescribed position of the unmanned aerial vehicle 100. Therefore, the positional relationship between the specified position and the reference position of the unmanned aerial vehicle 100, such as the position of the center of the main body 140 of the unmanned aerial vehicle 100, is a fixed relationship.
  • the distance measuring sensor 108 is an example of a sensor.
  • the distance measurement sensor 108 sequentially generates distance measurement data by performing distance measurement, and sequentially outputs the generated distance measurement data to the processor 101 or storage.
  • the storage sequentially stores the output distance measurement data.
  • the storage may sequentially store the ranging data in association with the time information indicating the current time.
  • a plurality of distance measuring sensors 108 may be arranged at a plurality of different positions in the unmanned aerial vehicle 100. Thereby, the plurality of distance measuring sensors 108 can detect the distances from the unmanned aerial vehicle 100 to the objects in the plurality of different directions.
  • the communication IF 109 is a communication interface for communicating with the controller 200 or the mobile terminal 300.
  • the communication IF 109 includes, for example, a communication interface for receiving a transmission signal emitted by the controller 200.
  • the communication IF 109 is a communication interface for wireless communication with the mobile terminal 300, that is, the communication IF 109 is, for example, a wireless LAN (Local) that conforms to the IEEE802.11a, b, g, n, ac, and ax standards. It may be an Area Network) interface.
  • a wireless LAN Local Area Network
  • the processor 101 has, as a functional configuration, a sound collection processing unit 101a, a quality determination unit 101b, a sound source determination unit 101c, a position detection unit 101d, a flight control unit 101e, an image control unit 101f, and an obstacle detection unit 101g. Have and.
  • Each of the processing units 101a to 101g sequentially executes a process using detection data sequentially detected from various sensors, a processing result sequentially executed by another processing unit, and the obtained processing result is predetermined. Output to the output destination.
  • the sound collection processing unit 101a acquires four sound data generated by collecting sound from each of the four microphones 105, and executes predetermined sound processing on each of the acquired four sound data.
  • the sound collection processing unit 101a includes a noise processing unit 101aa and a noise level calculation unit 101ab.
  • the noise processing unit 101aa performs sound source separation processing on the acquired sound data to separate the noise related to the flight of the unmanned aerial vehicle 100 and the target sound.
  • the noise related to the flight of the unmanned aerial vehicle 100 (hereinafter referred to as “noise”) is, for example, noise generated by driving the generator 110 of the unmanned aerial vehicle 100.
  • the noise processing unit 101aa for example, by applying a directional filter for obtaining directivity in an arbitrary direction to a sound signal obtained from each of a plurality of microphone elements included in each microphone 105, noise, or , Extract the target sound. As a result, the noise and the target sound are separated.
  • the noise level calculation unit 101ab calculates the sound pressure level of the noise separated by the noise processing unit 101aa and the sound pressure level of the target sound separated by the noise processing unit 101aa. As a result, in the sound collection processing unit 101a, for each of the four sound data generated by the sound collection of each of the four microphones 105, the noise included in the sound data and the target sound are extracted.
  • the noise level calculation unit 101ab may reduce the noise included in the sound data by performing a predetermined sound process of filtering a sound component in a predetermined frequency band.
  • the sound component in the predetermined frequency band is, for example, the frequency band of noise generated by the rotation of the rotary blades 111 of the generator 110.
  • the quality determination unit 101b uses the sound pressure level of the noise obtained by the sound collection processing unit 101a and the sound pressure level of the target sound to determine whether the quality of the target sound is higher or lower than the predetermined target quality. To judge. Note that specifically, the quality determination unit 101b uses the sound pressure level of the noise and the sound pressure level of the target sound to determine the SN ratio of the target sound with respect to the noise as an index for determining the quality of the target sound. Calculate as Then, the quality determination unit 101b acquires a target SN ratio calculated using the SN ratio calculated using the target sound and noise as the predetermined target quality, and calculates the acquired target SN ratio. The quality of the target sound is determined by comparing the calculated SN ratio.
  • the target SN ratio may be a range of the SN ratio based on the reference SN ratio.
  • the target SN ratio may be within a range of ⁇ 1 dB based on the reference SN ratio.
  • the target SN ratio may be stored in advance in a memory or storage not shown, or may be stored in an external device. That is, the quality determining unit 101b may acquire the target SN ratio by reading the target SN ratio from a memory or storage not shown, or may acquire the target SN ratio from an external device via the communication IF 109.
  • the quality determination unit 101b determines whether the SN ratio is higher or lower than the target SN ratio, and when the SN ratio is higher than the target SN ratio, that is, when the SN ratio is higher than the upper limit of the range of the target SN ratio, the quality is high. Judge as high. The quality determination unit 101b determines that the quality is low when the SN ratio is lower than the target SN ratio, that is, when the SN ratio is lower than the lower limit of the target SN ratio. The quality determination unit 101b determines the quality of the target sound with respect to the sound data having the highest sound pressure level of the target sound obtained by the sound collection processing unit 101a among the four sound data obtained from the four microphones 105. It is sufficient to determine the quality of the target sound with respect to other sound data.
  • the sound source determination unit 101c uses at least one of the sound data output by the four microphones 105, the image data output by the camera 107, and the distance measurement data output by the distance measurement sensor 108 to unattend The positional relationship between the flying object 100 and the sound source of the target sound (hereinafter referred to as “sound source”) is acquired.
  • the sound source determination unit 101c outputs the acquired positional relationship to the flight control unit 101e.
  • the sound source determination unit 101c uses the sound data and uses the unmanned aerial vehicle 100 as a reference, (i) the sound source direction of the sound source, At least one of (ii) the position of the sound source and (iii) the distance to the sound source is determined as the positional relationship.
  • the sound source direction of the sound source based on the unmanned aerial vehicle 100 is the direction from the unmanned aerial vehicle 100 to the sound source.
  • the position of the sound source with respect to the unmanned aerial vehicle 100 is the relative position of the sound source with respect to the unmanned aerial vehicle 100.
  • the distance from the unmanned aerial vehicle 100 to the sound source is the distance from the unmanned aerial vehicle 100 to the sound source. In this way, the sound source determination unit 101c acquires these determination results as the positional relationship between the unmanned aerial vehicle 100 and the sound source.
  • the sound source determination unit 101c may determine the direction in which the sound pressure of the target sound is estimated to be high as the sound source direction by comparing the four sound data obtained from the four microphones 105. Further, the sound source determination unit 101c compares a plurality of data included in each of the sound data obtained from each of the four microphones 105, and a plurality of data obtained from the plurality of microphone elements configuring the microphone 105. Therefore, the direction in which the sound pressure of the target sound is estimated to be high may be determined as the sound source direction.
  • the sound source determination unit 101c acquires the loudness of the target sound emitted from the sound source, and the sound pressure of the target sound included in the sound data generated by the four microphones 105 and the loudness of the acquired target sound.
  • the distance to the sound source may be estimated by comparing
  • the loudness of the target sound emitted from the sound source may be a predetermined loudness for estimating the distance to the sound source.
  • the sound source determination unit 101c may estimate the relative position of the sound source with respect to the unmanned air vehicle 100 using the determined sound source direction and the distance to the sound source.
  • the sound source determination unit 101c uses the image data as a reference with respect to the unmanned aerial vehicle 100. At least one of the sound source direction, (ii) the position of the sound source, and (iii) the distance to the sound source is determined. In this way, the sound source determination unit 101c acquires these determination results as the positional relationship between the unmanned aerial vehicle 100 and the sound source. For example, the sound source determination unit 101c recognizes at least one of the position of the sound source, the distance to the sound source, and the direction of the sound source by recognizing the color, shape, and type of the sound source that are predetermined by image processing on the image data. May be determined.
  • the sound source determination unit 101c uses the distance measurement data and uses the unmanned aerial vehicle 100 as a reference, (i) sound source At least one of the sound source direction, (ii) the position of the sound source, and (iii) the distance to the sound source. In this way, the sound source determination unit 101c acquires these determination results as the positional relationship between the unmanned aerial vehicle 100 and the sound source.
  • the sound source determination unit 101c constructs a three-dimensional model using the distance measurement data, and recognizes the three-dimensional shape of the sound source from the constructed three-dimensional model, thereby determining the position of the sound source, the distance to the sound source, and At least one of the sound source directions may be determined.
  • the sound source determination unit 101c acquires the distance of an object in the determined sound source direction from the distance measurement data, and thereby the unmanned air vehicle 100 is detected.
  • the relative position of the sound source may be estimated.
  • the sound source determination unit 101c identifies the sound source direction and the distance from the unmanned aerial vehicle 100 to the sound source by using the data generated by each sensor, and thereby the relative distance between the unmanned aerial vehicle 100 and the sound source. You may specify a position.
  • the sound source determination unit 101c may specify the sound source direction with respect to the unmanned aerial vehicle 100 or the relative position of the sound source with respect to the unmanned aerial vehicle 100 by acquiring the position information of the sound source from the sound source.
  • the sound source may be, for example, a person, a speaker, or a vehicle.
  • the position detection unit 101d acquires the detection result of the GPS receiver 102 and detects the current position of the unmanned aerial vehicle 100.
  • the flight control unit 101e detects the current position of the unmanned aerial vehicle 100 detected by the position detection unit 101d, the flight speed and flight attitude of the unmanned aerial vehicle 100 obtained from the detection results of the acceleration sensor 103 and the gyro sensor 104, and the communication IF 109.
  • the flight state of the unmanned aerial vehicle 100 is controlled by controlling the number of rotations of the actuator 112 of the generator 110 according to the operation signal from the controller 200 received by. That is, the flight control unit 101e performs normal control for controlling the flight state of the unmanned aerial vehicle 100 according to the operation of the controller 200 by the user.
  • the flight control unit 101e is based on the quality of the target sound determined by the quality determination unit 101b and the positional relationship between the unmanned aerial vehicle 100 and the sound source determined by the sound source determination unit 101c. , Sound collection control for controlling the movement of the unmanned aerial vehicle 100 is performed so that the distance between the unmanned aerial vehicle 100 and the sound source is controlled.
  • the flight control unit 101e In controlling the flight state in the sound collection control, the flight control unit 101e, for example, when the quality determination unit 101b determines that the quality of the target sound is lower than a predetermined target quality, the flight control unit 101e makes an unmanned flight away from the sound source. Control movement of body 100. As a result, the unmanned aerial vehicle 100 flies in a direction away from the sound source.
  • the flight control unit 101e controls the movement of the unmanned aerial vehicle 100 away from the sound source, the quality of the target sound becomes the target quality from the current position of the unmanned aerial vehicle 100 detected by the position detection unit 101d.
  • the movement of the unmanned aerial vehicle 100 is controlled so as to move to any position up to.
  • the flight control unit 101e determines, for example, the distance between the sound source and the position where the quality of the target sound is the target quality as the target distance, and the distance between the unmanned aerial vehicle 100 and the sound source is the target.
  • the movement of the unmanned aerial vehicle 100 may be controlled so that the distance is maintained.
  • the flight control unit 101e uses the distance between the current position of the unmanned aerial vehicle 100 and the sound source, the quality of the target sound from the sound source, and the relationship between the predetermined sound pressure level and the distance from the sound source, and uses the sound source. From the sound source to a position having a predetermined target quality, and the movement of the unmanned aerial vehicle 100 is controlled so that the unmanned aerial vehicle 100 is located at a position away from the sound source by the target distance.
  • the unmanned aerial vehicle 100 flies in a direction away from the sound source, for example, the unmanned aerial vehicle 100 flies to a position where the quality of the target sound is the target quality and does not move further away from the sound source than the position.
  • the flight control unit 101e approaches the sound source when, for example, the quality determination unit 101b determines that the quality of the target sound is higher than a predetermined target quality. Control the movement of the unmanned aerial vehicle 100. As a result, the unmanned aerial vehicle 100 flies in a direction approaching the sound source.
  • the flight control unit 101e uses the sound source determining unit 101c and distance information indicating that the sound source is prohibited from approaching the sound source from a position away from the sound source by a predetermined distance. Based on the acquired positional relationship, the movement of the unmanned aerial vehicle 100 is controlled so that the unmanned aerial vehicle 100 does not come closer to the sound source than the position separated from the sound source by a predetermined distance.
  • the unmanned aerial vehicle 100 flies in a direction approaching the sound source, for example, the unmanned aerial vehicle 100 approaches the sound source up to a position away from the sound source by a predetermined distance, and does not approach the sound source further than the position.
  • the distance information may be stored in advance in a memory or a storage (not shown) or may be stored in an external device. That is, the flight control unit 101e may acquire the distance information by reading the distance information from a memory or a storage (not shown), or may acquire the distance information from an external device via the communication IF 109.
  • the flight control unit 101e may perform sound collection control when the target sound is collected by the four microphones 105.
  • the flight control unit 101e stops the normal control and starts the sound collection control when the collection of the target sound by the four microphones 105 starts, and stops the sound collection control when the collection of the target sound ends. Then, the normal control may be started.
  • the sound collection control may be performed when the four microphones 105 collect the target sound. That is, the sound pickup control may be control for picking up only the target sound, or may be control for picking up an image with the camera 107 and picking up the target sound.
  • the image control unit 101f controls the gimbal 106 according to the operation signal received by the communication IF 109, thereby controlling the posture of the camera 107 so that the imaging direction of the camera 107 is oriented in the direction indicated by the operation signal.
  • the video control unit 101f may perform predetermined image processing on the image data captured by the camera 107.
  • the video control unit 101f may transmit the image data obtained from the camera 107 or the image data after the predetermined image processing to the mobile terminal 300 via the communication IF 109.
  • the obstacle detection unit 101g detects obstacles around the unmanned aerial vehicle 100 according to the distance from the unmanned aerial vehicle 100 to the object detected by the distance measuring sensor 108.
  • the obstacle detection unit 101g may detect an obstacle at the destination to which the unmanned aerial vehicle 100 will move by exchanging information with the flight control unit 101e.
  • the obstacle detection unit 101g may instruct the flight control unit 101e to move the unmanned aerial vehicle 100 away from the obstacle. ..
  • FIG. 5 is a flowchart showing an operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 6 is a flowchart showing an example of a target sound quality determination process by an unmanned air vehicle.
  • FIG. 7 is a diagram showing an example of a calculation method for calculating the SN ratio as an index of the quality of the target sound.
  • the quality determination unit 101b of the unmanned aerial vehicle 100 includes target sounds included in the four sound data generated by the four microphones 105.
  • the quality of is determined (S11). For example, if the operation signal received from the controller 200 includes a signal indicating the start of sound collection, the sound collection processing unit 101a starts sound collection. Details of the target sound quality determination processing in step S1 will be described with reference to FIGS. 6 and 7.
  • the noise level calculation unit 101ab of the sound collection processing unit 101a calculates the sound pressure level of noise for each of the four sound data generated by the four microphones 105 (S21). For example, the noise level calculation unit 101ab acquires a signal before noise processing shown in FIG. 7 from each microphone 105 as sound data. The signal before the noise processing is represented, for example, by the temporal change of the normalized number. Therefore, the noise level calculation unit 101ab calculates the time change of the sound pressure level by multiplying the amplitude of the signal before the noise processing by the sound pressure conversion coefficient according to the performance of the corresponding microphone 105.
  • the noise level calculation unit 101ab extracts a predetermined frequency band from the calculated time change of the sound pressure level, and at a predetermined time interval (for example, 1 second) from the time change of the sound pressure level in the extracted predetermined frequency band.
  • the sound pressure level of noise is calculated by calculating the average sound pressure level.
  • the predetermined frequency band is a predetermined frequency band for extracting the target sound.
  • the noise level calculation unit 101ab calculates the sound pressure level of noise using the signal before noise processing acquired from each microphone 105
  • the noise level calculation unit 101ab is not limited to this, and noise is calculated in a state in which the target sound is not generated.
  • the sound pressure level calculated using the signal obtained by collecting sound in advance may be acquired from the storage.
  • the sound pressure level calculated using the signal obtained in advance is obtained, for example, by collecting sound according to each of a plurality of different rotation speeds of the generator 110 of the unmanned aerial vehicle 100.
  • the noise processing unit 101aa of the sound collection processing unit 101a performs, as noise processing, sound source separation processing on the acquired sound data, so that the noise related to the flight of the unmanned air vehicle 100 and the target sound are separated. Separate (S22). As a result, the noise-processed signal shown in FIG. 7 is obtained.
  • the noise level calculation unit 101ab calculates the sound pressure level of the separated target sound (S23).
  • the signal after the noise processing is represented by, for example, the time change of the normalized number, like the signal before the noise processing. Therefore, the noise level calculation unit 101ab calculates the time change of the sound pressure level by multiplying the amplitude of the signal after the noise processing by the sound pressure conversion coefficient according to the performance of the corresponding microphone 105.
  • the noise level calculation unit 101ab extracts a predetermined frequency band from the calculated time change of the sound pressure level, and at a predetermined time interval (for example, 1 second) from the time change of the sound pressure level in the extracted predetermined frequency band.
  • the sound pressure level of the target sound is calculated by calculating the average sound pressure level of.
  • the noise level calculation unit 101ab may calculate the predetermined time interval used to calculate the average sound pressure level using the characteristics of the detected target sound. That is, the predetermined time interval may be adjusted according to the characteristic of the detected target sound. Examples of the characteristic here include the frequency band of the detected target sound and the length of the period of the detected target sound. For example, the noise level calculation unit 101ab may determine whether the frequency band of the detected target sound falls within a predetermined frequency band and lengthen the predetermined time interval. The predetermined time interval may be shortened as the detected target sound period is shorter.
  • the quality determination unit 101b uses the sound pressure level of the noise and the sound pressure level of the target sound calculated by the noise level calculation unit 101ab to subtract the sound pressure level of the noise from the sound pressure level of the target sound. Then, the SN ratio of the target sound to the noise is calculated (S24).
  • the quality determination unit 101b determines whether or not the calculated SN ratio is the target SN ratio (S12). Specifically, the quality determination unit 101b determines whether or not the calculated SN ratio is within the range of the SN ratio based on the reference SN ratio.
  • the process proceeds to the next step S13.
  • the process proceeds to step S17.
  • the SN ratio is the target SN ratio, the unmanned aerial vehicle 100 can collect the target sound satisfactorily, and therefore the unmanned aerial vehicle 100 is not moved.
  • the obstacle detection unit 101g determines whether or not the unmanned aerial vehicle 100 can move safely (S13). Specifically, the obstacle detection unit 101g determines whether or not there is an object around the unmanned aerial vehicle 100, and when it is determined that there is no object around the unmanned aerial vehicle 100, the unmanned aerial vehicle 100 is When it is determined that the unmanned aerial vehicle 100 can move safely and it is determined that there is an object around the unmanned aerial vehicle 100, it is determined that the unmanned aerial vehicle 100 cannot move safely.
  • step S14 If the obstacle detection unit 101g determines that the unmanned aerial vehicle 100 can move safely (Yes in S13), the process proceeds to the next step S14. On the contrary, when the obstacle detection unit 101g determines that the unmanned aerial vehicle 100 cannot be moved safely (No in S13), the process proceeds to step S17.
  • the quality judgment unit 101b judges whether the calculated SN ratio is higher or lower than the target SN ratio (S14).
  • the quality determination unit 101b uses the range of ⁇ 1 dB based on the reference SN ratio (eg, ⁇ 10 dB) as the target SN ratio, and the calculated SN ratio is higher than the target SN ratio, or An example of determining whether it is low will be described.
  • the quality determination unit 101b determines whether the calculated SN ratio is higher than the upper limit (eg, -9 dB) of the target SN ratio range or the lower limit (eg, -11 dB) of the target SN ratio range. Lower than.
  • the flight control unit 101e determines that the SN ratio calculated by the quality determination unit 101b is higher than the target SN ratio range (high in S14), the flight control unit 101e moves the unmanned aerial vehicle 100 in a direction away from the sound source. Control is performed (S15).
  • the flight control unit 101e determines that the SN ratio calculated by the quality determination unit 101b is lower than the target SN ratio range (low in S14), the flight control unit 101e controls to move the unmanned aerial vehicle 100 in the direction approaching the sound source. Perform (S16).
  • the sound collection processing unit 101a determines whether or not to stop sound collection (S17). When the sound collection processing unit 101a determines to stop the sound collection (Yes in S17), the sound collection control ends. When the sound collection processing unit 101a determines not to stop sound collection (No in S17), the quality determination unit 101b performs the determination in step S11 again.
  • FIG. 8A is a diagram for explaining a first scene of an operation example in sound collection control of an unmanned air vehicle according to the embodiment.
  • FIG. 8B is a diagram for explaining the second scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 8C is a diagram for explaining a third scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 9A is a diagram for explaining a fourth scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 9B is a diagram for explaining the fifth scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 9C is a diagram for explaining the sixth scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 10A is a diagram for explaining a seventh scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 10B is a diagram for explaining the eighth scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 10C is a diagram for explaining a ninth scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • 8A to 8C, 9A to 9C, and 10A to 10C are diagrams showing the operation of the unmanned aerial vehicle 100 when the unmanned aerial vehicle 100 is viewed from above. 8A to 8C, 9A to 9C, and 10A to 10C, when the sound source 400 is a person and the target sound is the sound from the sound source 400, the unmanned aerial vehicle 100 picks up the target sound. It is a figure which shows an example. In the examples of FIGS. 8A to 8C, 9A to 9C, and 10A to 10C, the reference SN ratio is described as the target SN ratio. A broken line L1 shown in the examples of FIGS.
  • 8A to 8C, 9A to 9C, and 10A to 10C indicates a position distant from the sound source 400 indicated by the distance information by a predetermined distance d1. It is a straight line. That is, the broken line L1 is a line indicating the boundary of the safety range for ensuring the safety of the sound source.
  • the sound pressure level of noise is calculated to be 75 dB
  • the sound pressure level of the target sound is calculated to be 70 dB, which indicates that the SN ratio is calculated to be -5 dB.
  • the target SN ratio is set to ⁇ 10 dB, and the calculated SN ratio is higher than the target SN ratio, so that the unmanned aerial vehicle 100 moves in a direction away from the sound source 400, as shown in FIG. 8B. ..
  • the unmanned aerial vehicle 100 calculates the sound pressure level of noise to be 75 dB using the sound data obtained from the microphone 105 after being separated from the sound source 400, and the sound pressure level of the target sound is 70 dB.
  • the SN ratio was calculated to be ⁇ 10 dB.
  • the calculated SN ratio is within the range of the target SN ratio, so that the unmanned aerial vehicle 100 does not move while maintaining the distance from the sound source 400 as shown in FIG. 8C.
  • the sound pressure level of noise is calculated to be 75 dB
  • the sound pressure level of the target sound is calculated to be 65 dB, which indicates that the SN ratio is calculated to be -10 dB.
  • the target SN ratio is set to ⁇ 10 dB, and the calculated SN ratio is within the range of the target SN ratio. Therefore, the unmanned aerial vehicle 100 maintains the distance from the sound source 400 as shown in FIG. 9A. Do not move while standing.
  • FIG. 9B shows a scene in which the sound source 400 moves toward the unmanned air vehicle 100.
  • the unmanned aerial vehicle 100 calculates the sound pressure level of the noise to be 75 dB using the sound data obtained from the microphone 105 after the sound source 400 approaches the unmanned aerial vehicle 100, and the sound pressure level of the target sound is It is calculated as 69 dB, and the SN ratio is calculated as -6 dB. Since the calculated SN ratio is higher than the target SN ratio, the unmanned aerial vehicle 100 moves in a direction away from the sound source 400, as shown in FIG. 9C. In the scene shown in FIG. 9C, the unmanned aerial vehicle 100 calculates the sound pressure level of noise to be 75 dB using the sound data obtained from the microphone 105 after being separated from the sound source 400, and the sound pressure level of the target sound is 65 dB.
  • the SN ratio was calculated to be ⁇ 10 dB. In this case, since the calculated SN ratio is within the range of the target SN ratio, the unmanned aerial vehicle 100 does not move while maintaining the distance from the sound source 400 as shown in FIG. 9C.
  • the sound pressure level of noise is calculated to be 75 dB
  • the sound pressure level of the target sound is calculated to be 58 dB, which indicates that the SN ratio is calculated to be -17 dB.
  • the target SN ratio is set to ⁇ 10 dB, and the calculated SN ratio is lower than the target SN ratio, so that the unmanned aerial vehicle 100 moves toward the sound source 400 as shown in FIG. 10B. ..
  • the unmanned aerial vehicle 100 uses the sound data obtained from the microphone 105 after approaching the sound source 400 to calculate the sound pressure level of noise to be 75 dB, and the sound pressure level of the target sound to be 61 dB.
  • the unmanned aerial vehicle 100 moves toward the sound source 400 as shown in FIG. 10C.
  • the unmanned aerial vehicle 100 calculates the sound pressure level of noise to be 75 dB using the sound data obtained from the microphone 105 after approaching the sound source 400, and the sound pressure level of the target sound is 63 dB. It means that the SN ratio was calculated to be ⁇ 12 dB.
  • the calculated SN ratio is lower than the target SN ratio, but since it has approached the sound source 400 to the position of the predetermined distance d1, it does not move further toward the sound source.
  • the positional relationship between the unmanned aerial vehicle 100 and the sound source 400 has been described using the horizontal distance, but it may be applied to the distance in the three-dimensional space.
  • the safety range defined by the predetermined distance d1 indicated by the distance information when controlling the unmanned aerial vehicle 100 to move toward the sound source 400 is exemplified by the range defined by the horizontal distance.
  • the range may be defined by the distance in the three-dimensional space.
  • FIG. 11A is a diagram for explaining a tenth scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 11B is a diagram for explaining the eleventh scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 12A is a diagram for explaining a twelfth scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 12B is a diagram for explaining the 13th scene of the operation example in the sound collection control of the unmanned air vehicle according to the embodiment.
  • FIG. 11A, FIG. 11B, FIG. 12A, and FIG. 12B are diagrams showing an example of the positional relationship between the unmanned air vehicle and the sound source and the safety range when viewed from the horizontal direction.
  • the flight controller 101e controls the unmanned air vehicle 100 to move away from the sound source 400. Control. As described above, when performing control to move the unmanned aerial vehicle 100 in the direction away from the sound source, the flight control unit 101e does not perform control to raise the unmanned aerial vehicle 100 as shown in FIG. The unmanned aerial vehicle 100 may be controlled so that 100 moves horizontally. At this time, the flight control unit 101e may perform control so that the unmanned aerial vehicle 100 moves in a direction closer to the ground.
  • the unmanned aerial vehicle 100 moves in the direction away from the sound source
  • the unmanned air vehicle 100 moves in the direction away from the sound source in the horizontal direction without performing control to move away from the sound source by ascending.
  • the distance can be secured. Therefore, by not going to a position higher than the current position, it is possible to reduce the impact when the unmanned aerial vehicle 100 falls, and to secure the safety of the sound source.
  • the case where the unmanned aerial vehicle 100 moves in the direction away from the sound source has been described as an example, but the same effect can be obtained even when the unmanned aerial vehicle 100 moves in the direction toward the sound source. It
  • the flight control unit 101e causes the unmanned aerial vehicle 100 to move toward the sound source 400. Control. As described above, when the flight control unit 101e controls the unmanned aerial vehicle 100 to move toward the sound source, as illustrated in FIG. 12B, the unmanned aerial vehicle 100 approaches the ground to cause the unmanned aerial vehicle 100 to approach. May be controlled.
  • the unmanned aerial vehicle 100 moves in the direction approaching the sound source, the unmanned aerial vehicle 100 moves in the direction approaching the sound source by approaching the ground without performing control for approaching the sound source by moving in the horizontal direction. It is possible to approach the sound source while maintaining the distance from the sound source in the direction. Therefore, when the unmanned aerial vehicle 100 falls closer to the ground than the current position, the impact when the unmanned aerial vehicle 100 falls can be further reduced, and the safety of the sound source can be ensured.
  • the case where the unmanned aerial vehicle 100 moves in the direction approaching the sound source has been described as an example, but the same effect is achieved even when the unmanned aerial vehicle 100 moves in the direction away from the sound source. It
  • processor 101 determines the quality of the target sound using the sound data generated by microphone 105.
  • the processor 101 acquires the positional relationship between the unmanned aerial vehicle 100 and the target sound source 400 using the data generated by the sensor.
  • the processor 101 controls the movement of the unmanned aerial vehicle 100 so that the distance between the unmanned aerial vehicle 100 and the target sound source is controlled based on the quality and positional relationship of the target sound. Therefore, the quality of the target sound can be ensured while controlling the distance between the unmanned aerial vehicle 100 and the sound source 400. Therefore, it is possible to collect the sound source 400 with appropriate sound quality while ensuring the safety.
  • the processor 101 controls the movement of the unmanned aerial vehicle 100 so as to move away from the sound source 400 when the quality of the target sound is higher than a predetermined target quality. Therefore, when the quality of the target sound is ensured, the unmanned aerial vehicle 100 is moved in the direction away from the sound source 400, so that the safety of the sound source 400 can be further improved.
  • the unmanned aerial vehicle 100 when the processor 101 controls the movement of the unmanned aerial vehicle 100 to move away from the sound source 400, from the current position of the unmanned aerial vehicle 100 to the position where the quality of the target sound is the target quality.
  • the movement of the unmanned aerial vehicle 100 is controlled so as to move to. Therefore, the unmanned aerial vehicle 100 can be moved in a direction away from the sound source 400 within a range in which the quality of the target sound is ensured.
  • the processor 101 controls the movement of the unmanned aerial vehicle 100 so as to approach the sound source 400 when the quality of the target sound is lower than a predetermined target quality. Therefore, when the quality of the target sound is not ensured, the unmanned aerial vehicle 100 is moved toward the sound source 400, so that the quality of the target sound can be improved.
  • the processor 101 calculates the SN (Signal Noise) ratio calculated using the target sound and the noise related to the flight of the unmanned aerial vehicle 100 as an index for determining the quality. Further, the processor 101 further uses, as the predetermined target quality, a target SN ratio calculated in advance using an SN (Signal Noise) ratio calculated using the target sound and the noise related to the flight of the unmanned air vehicle. To get. Then, the processor 101 determines the quality of the target sound by comparing the acquired target SN ratio with the calculated SN ratio. Therefore, the quality of the target sound can be easily determined.
  • the sensor further includes an image sensor that is included in the camera 107 and that generates image data.
  • the processor 101 acquires the positional relationship using the image data generated by the image sensor. According to this, since the processor 101 acquires the positional relationship by further using the image data, it is possible to acquire the positional relationship with high accuracy.
  • the sensor further includes a distance measurement sensor 108 that generates distance measurement data.
  • the processor 101 acquires the positional relationship using the distance measurement data generated by the distance measurement sensor 108. According to this, the processor 101 further acquires the positional relationship by further using the distance measurement data, and thus can acquire the positional relationship with high accuracy.
  • the processor 101 determines the target distance based on the quality and positional relationship of the target sound and the predetermined target quality, and the distance between the unmanned aerial vehicle 100 and the sound source 400 is the target.
  • the movement of the unmanned aerial vehicle 100 is controlled so that the distance is maintained. Thereby, the unmanned aerial vehicle 100 can move to a position corresponding to a predetermined target quality.
  • the reference SN ratio serving as the reference of the target SN ratio as the target quality has been described by taking one value such as ⁇ 10 dB as an example. Not limited to the values, a plurality of values may be set according to the use of the sound collection control.
  • FIG. 13 is a table showing an example of the relationship between the standard SN ratio and the usage.
  • the target SN ratio is not the target range of ⁇ 1 dB but the threshold value
  • the reference SN ratio may be read as the target SN ratio.
  • R1 to R4 shown here have a relationship of R1 ⁇ R2 ⁇ R3 ⁇ R4.
  • the reference SN ratio for the lowest quality is R1
  • the reference SN ratio for general audio collection is R2
  • the reference SN ratio for relay broadcast is R3
  • the reference SN ratio for high quality broadcast is R4. ..
  • These applications are selected by the user operating the controller 200, and the reference SN ratio according to the selected applications is used in the sound collection control of the unmanned aerial vehicle 100.
  • the application may be fixed depending on the application by the controller 200, and in this case, the reference SN ratio according to the application is used for the sound collection control of the unmanned aerial vehicle 100.
  • the processor 101 may change the direction of the microphone 105 by controlling the actuator. That is, the direction in which the microphone 105 has high sensitivity may be directed to the sound source. As a result, the direction in which the microphone 105 has high sensitivity and the direction of the sound source can be made to coincide with each other, so that the sound pressure level of the target sound can be relatively increased with respect to the sound pressure level of noise, and the sound collection quality can be improved. You can
  • the unmanned aerial vehicle 100 when the unmanned aerial vehicle 100 has an actuator (not shown) that changes the amount of protrusion of the microphone 105 outward with respect to the unmanned aerial vehicle 100, the unmanned aerial vehicle 100 is controlled to control the outside
  • the amount of protrusion of the microphone 105 in the direction may be changed. That is, the microphone 105 may be projected outward of the unmanned aerial vehicle 100 to bring the microphone 105 closer to the sound source.
  • the microphone 105 is separated from the unmanned aerial vehicle 100 that is the source of noise, so that the sound pressure level of noise can be reduced.
  • the microphone 105 since the microphone 105 approaches the sound source, it is possible to relatively improve the sound pressure level of the target sound with respect to the sound pressure level of noise. As a result, the sound collection quality can be effectively improved.
  • the actuator may include an actuator that changes the direction of the microphone 105 and an actuator that changes the amount of protrusion of the microphone 105, and the processor 101 controls both actuators so that the direction and the protrusion of the microphone 105. Control for changing the amount may be performed.
  • the outward direction of the unmanned aerial vehicle 100 is, for example, a lateral direction of the unmanned aerial vehicle 100.
  • the unmanned aerial vehicle 100 controls the movement of the unmanned aerial vehicle so as to approach the sound source, and then, when the quality of the target sound is lower than the target quality, the direction of the microphone 105 and the direction from the unmanned aerial vehicle 100 toward the outside You may perform the control which changes at least one of the protrusion amount of a microphone.
  • the unmanned aerial vehicle 100 is configured to include four generators 110, the number of generators included in the unmanned aerial vehicle 100 is not limited to four, but may be one to three. Or 5 or more.
  • the unmanned aerial vehicle 100 has the configuration in which the main body 140 and the four ducts 130 are connected by the four arms 141
  • the present invention is not limited to this, and the four generators 110 are connected to the main body 140.
  • the four ducts 130 or the four arms 141 may not be provided. That is, the unmanned aerial vehicle may have a configuration in which the four generators 110 are directly connected to the main body 140, or may have a configuration in which the four ducts 130 are directly connected to the main body 140.
  • the unmanned aerial vehicle may have a configuration that does not include the four ducts 130, that is, a configuration in which the four generators 110 are not laterally covered.
  • the unmanned aerial vehicle 100 is configured to include four microphones 105
  • the number of microphones included in the unmanned aerial vehicle 100 is not limited to four and may be one to three. However, it may be five or more.
  • the sound source direction can be estimated by rotating the attitude of the unmanned aerial vehicle 100 to acquire a plurality of sound data at different timings and comparing the plurality of sound data.
  • the microphone 105 has only to be arranged outside the unmanned aerial vehicle 100, that is, so as to be exposed to the external space, and may be arranged not only on the side of the main body 140 but also on the side of the arm 141.
  • the microphone 105 may be arranged at a position apart from the main body 140.
  • the microphone 105 is arranged at the tip or in the middle of a rod such as an arm, a wire such as a metal wire, or a string such as a thread, which is attached to the main body 140 separately from the main body 140 and extends in a direction away from the main body 140. May be.
  • the direction of the microphone 105 is changed when the SN ratio is lower than the target SN ratio even when the distance to the sound source 400 approaches the predetermined distance d1, but the invention is not limited to this.
  • the operation described with reference to FIG. 5 of the embodiment may be performed after the high-sensitivity direction of 105 is adjusted in advance to the sound source direction.
  • the unmanned air vehicle 100 having an actuator for changing the direction of the microphone 105 changes the direction of the microphone 105 by controlling the actuator.
  • the direction in which the microphone 105 has high sensitivity may be aligned with the sound source direction by controlling the flight attitude.
  • the quality determination unit 101b that determines the amount of change by the flight control unit 101e that changes the attitude of the unmanned aerial vehicle 100 includes information about the highly sensitive direction read from the memory and, for example, the acceleration sensor 103 and the gyro sensor 104. Based on the attitude of the unmanned aerial vehicle 100 obtained by the various sensors described in 1 above, it is possible to determine the amount of change indicating how much the unmanned aerial vehicle 100 should be rotated so that the sound source direction is aligned with the highly sensitive direction.
  • the unmanned aerial vehicle 100 starts sound collection if the operation signal received from the controller 200 includes a signal indicating the start of sound collection, but the present invention is not limited to this.
  • the sound data acquired by the sound collection processing unit 101a includes a sound collection command indicating that sound collection is started
  • sound collection may be started, or image data obtained by the camera 107 may be displayed.
  • the recognition of the gesture or the utterance of a specific keyword by the user may be used for adjusting the predetermined distance d1.
  • the unmanned aerial vehicle 100 may fly autonomously according to a preset program without being operated by the controller 200.
  • controller 200 may operate the unmanned aerial vehicle 100 according to a preset program without providing the operation interface of the unmanned aerial vehicle 100.
  • the unmanned aerial vehicle 100 uses the SN ratio as an evaluation index of sound collection quality
  • the present invention is not limited to this.
  • a quality evaluation index a reliability coefficient after speech recognition processing or a speech recognition error rate may be used.
  • the unmanned aerial vehicle 100 may control the movement using the target sound and the frequency information of the flight sound (that is, noise) of the unmanned aerial vehicle 100.
  • the quality determination unit 101b determines the difference between the frequency of the target sound and the frequency of the flight sound, and the flight control unit 101e controls whether to approach or leave the sound source based on the difference.
  • the process of this modification will be described with reference to FIG.
  • FIG. 14 is a flowchart showing an operation example in sound collection control of an unmanned air vehicle according to Modification 10.
  • the quality determination unit 101b determines the frequency of the target sound and the frequency of the flight sound (S31). In step S31, the frequency band of the target sound and the frequency band of the flight sound may be determined.
  • the quality determination unit 101b determines whether or not the difference between the frequency of the target sound and the frequency of the flight sound is less than or equal to a threshold value (S32).
  • a threshold value S32.
  • the flight control unit 101e When it is determined that the difference between the frequency of the target sound and the frequency of the flight sound exceeds the threshold value (No in S32), the flight control unit 101e performs flight control so that the unmanned aerial vehicle 100 is separated from the sound source (S33). ).
  • the difference in frequency is sufficiently large, even if the unmanned aerial vehicle 100 moves away from the target, it is possible to sufficiently maintain the sound collection quality of the sound after filtering the flight sound, that is, the noise from the collected sound. it can.
  • the flight control unit 101e performs flight control so that the unmanned aerial vehicle 100 approaches the sound source. Perform (S34).
  • the difference in frequency is small, it is difficult to sufficiently maintain the sound collection quality of the sound after the flight sound, that is, noise is filtered from the collected sound, and therefore the unmanned aerial vehicle 100 is brought closer.
  • the sound collection processing unit 101a determines whether to stop sound collection (S35). When the sound collection processing unit 101a determines to stop sound collection (Yes in S35), the sound collection control ends. When the sound collection processing unit 101a determines not to stop sound collection (No in S35), the quality determination unit 101b performs the determination in step S31 again.
  • the distance from the sound source is controlled based on the difference between the frequency of the target sound and the frequency of the flight sound (that is, noise), and as a result, the sound source and the unmanned person according to the sound collection quality (for example, SN ratio) are controlled. It is possible to control the distance to the flying object 100.
  • the unmanned aerial vehicle 100 according to Modification 10 may further suppress flight control by controlling flight sound. Specifically, the flight control unit 101e controls the rotation of the propeller based on the difference between the frequencies of the target sound and the flight sound.
  • the process of this modification will be described with reference to FIG.
  • FIG. 15 is a flowchart showing an operation example in sound collection control of an unmanned air vehicle according to Modification 11. Note that the description of the substantially same processing as in FIG. 14 is omitted.
  • the quality determination unit 101b determines the frequency of the target sound and the frequency of the flight sound (S31).
  • the quality determination unit 101b determines whether or not the difference between the frequency of the target sound and the frequency of the flight sound is less than or equal to a threshold value (S32).
  • the flight control unit 101e When it is determined that the difference between the frequency of the target sound and the frequency of the flight sound exceeds the threshold value (No in S32), the flight control unit 101e performs flight control so that the unmanned aerial vehicle 100 is separated from the sound source (S33). ).
  • the flight control unit 101e controls the rotation of the propeller so that the difference in the frequency spreads. (S36). For example, the flight control unit 101e changes the rotation speed of the propeller so that the difference between the frequency of the flight sound and the frequency of the target sound becomes large.
  • the movement control is performed based on the sound collection quality as in the above embodiment. May be.
  • the unmanned aerial vehicle 100 may move within a range in which the quality of the target sound satisfies the target quality.
  • the flight control unit 101e determines a range in which the quality of the target sound satisfies the target quality as a movement permission range, and limits movement of the unmanned aerial vehicle 100 within the movement permission range. For example, the flight control unit 101e executes the operation of moving the operation signal received from the controller 200 into the movement permission range, but does not execute the operation of movement outside the movement permission range.
  • each component may be configured by dedicated hardware, or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded in a non-transitory recording medium such as a hard disk or a semiconductor memory.
  • the software that realizes the unmanned aerial vehicle 100, the information processing method, and the like in each of the above embodiments is the following program.
  • this program is an information processing method performed by the processor of an unmanned aerial vehicle that includes, in a computer, a sensor including at least a microphone that generates sound data, and a processor, and uses the sound data generated by the microphone.
  • the quality of the target sound is determined, and the positional relationship between the unmanned air vehicle and the sound source of the target sound is acquired using the data generated by the sensor, and based on the quality of the target sound and the positional relationship.
  • the information processing method for controlling the movement of the unmanned aerial vehicle is executed so that the distance between the unmanned aerial vehicle and the sound source of the target sound is controlled.
  • machine learning may be used for the processes performed by the quality determination unit 101b, the sound source determination unit 101c, the obstacle detection unit 101g, and the flight control unit 101e, as well as the image recognition process and the voice recognition process.
  • machine learning for example, there is supervised learning that learns the relationship between inputs and outputs using teacher data in which labels (output information) are attached to input information, and a data structure is constructed only from unlabeled inputs.
  • Unsupervised learning semi-supervised learning that handles both labeled and unlabeled learning, and learns continuous actions that can get the most rewards by obtaining feedback (rewards) for selected actions from state observation results Reinforcement learning to do.
  • neural networks including deep learning using multilayer neural networks
  • genetic programming decision trees
  • Bayesian networks Bayesian networks
  • SVM support vector machines
  • the present disclosure is useful as an unmanned aerial vehicle, an information processing method, a program, and the like that can improve the quality of target sound.
  • unmanned air vehicle 101 processor 101a sound collection processing unit 101aa noise processing unit 101ab noise level calculation unit 101b quality determination unit 101c sound source determination unit 101d position detection unit 101e flight control unit 101f video control unit 101g obstacle detection unit 102 GPS receiver 103 Acceleration sensor 104 Gyro sensor 105 Microphone 106 Gimbal 107 Camera 108 Distance measuring sensor 109 Communication IF 110 Generator 111 Rotating Blade 112 Actuator 130 Duct 131 Space 140 Main Body 141 Arm 200 Controller 300 Mobile Terminal 400 Sound Source

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

無人飛行体(100)であって、音データを生成するマイクロフォン(105)を少なくとも含むセンサと、プロセッサ(101)と、を備え、プロセッサ(101)は、マイクロフォン(105)が生成する音データを用いて、ターゲット音の品質を判定し、センサが生成するデータを用いて、無人飛行体(100)とターゲット音の音源(400)との位置関係を取得し、ターゲット音の品質と位置関係とに基づいて、無人飛行体(100)とターゲット音の音源(400)との間の距離が制御されるように、無人飛行体(100)の移動を制御する。

Description

無人飛行体、情報処理方法およびプログラム
 本開示は、無人飛行体、情報処理方法およびプログラムに関する。
 特許文献1には、バックグラウンドマイクロフォンによって収集された音声データからバックグラウンドノイズを除去する処理を行う無人航空機が開示されている。
特表2017-502568号公報
 しかしながら、特許文献1の技術では、音源への安全性が考慮されていないため、安全性を確保した上で収音品質を向上することが難しい場合がある。
 そこで本開示では、音源への安全性を確保した上で収音品質を向上することができる無人飛行体、情報処理方法及びプログラムを提供する。
 本開示に係る無人飛行体は、無人飛行体であって、音データを生成するマイクロフォンを少なくとも含むセンサと、プロセッサと、を備え、前記プロセッサは、前記マイクロフォンが生成する音データを用いて、ターゲット音の品質を判定し、前記センサが生成するデータを用いて、前記無人飛行体と前記ターゲット音の音源との位置関係を取得し、前記ターゲット音の品質と前記位置関係とに基づいて、前記無人飛行体と前記ターゲット音の音源との間の距離が制御されるように、前記無人飛行体の移動を制御する。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本開示に係る無人飛行体、情報処理方法およびプログラムは、音源への安全性を確保した上で収音品質を向上することができる。
図1は、実施の形態に係る無人飛行体およびコントローラの外観を示す図である。 図2は、実施の形態に係る無人飛行体を上方から見た場合の平面図である。 図3は、図2に示す無人飛行体のIII-III断面図である。 図4は、実施の形態に係る無人飛行体の構成を示すブロック図である。 図5は、実施の形態に係る無人飛行体の収音制御における動作例を示すフローチャートである。 図6は、無人飛行体によるターゲット音の品質の判定処理の一例を示すフローチャートである。 図7は、ターゲット音の品質の指標としてのSN比を算出する算出方法の一例を示す図である。 図8Aは、実施の形態に係る無人飛行体の収音制御における動作例の第1の場面を説明するための図である。 図8Bは、実施の形態に係る無人飛行体の収音制御における動作例の第2の場面を説明するための図である。 図8Cは、実施の形態に係る無人飛行体の収音制御における動作例の第3の場面を説明するための図である。 図9Aは、実施の形態に係る無人飛行体の収音制御における動作例の第4の場面を説明するための図である。 図9Bは、実施の形態に係る無人飛行体の収音制御における動作例の第5の場面を説明するための図である。 図9Cは、実施の形態に係る無人飛行体の収音制御における動作例の第6の場面を説明するための図である。 図10Aは、実施の形態に係る無人飛行体の収音制御における動作例の第7の場面を説明するための図である。 図10Bは、実施の形態に係る無人飛行体の収音制御における動作例の第8の場面を説明するための図である。 図10Cは、実施の形態に係る無人飛行体の収音制御における動作例の第9の場面を説明するための図である。 図11Aは、実施の形態に係る無人飛行体の収音制御における動作例の第10の場面を説明するための図である。 図11Bは、実施の形態に係る無人飛行体の収音制御における動作例の第11の場面を説明するための図である。 図12Aは、実施の形態に係る無人飛行体の収音制御における動作例の第12の場面を説明するための図である。 図12Bは、実施の形態に係る無人飛行体の収音制御における動作例の第13の場面を説明するための図である。 図13は、基準SN比と用途との関係の一例を示す表である。 図14は、変形例に係る無人飛行体の収音制御における動作例を示すフローチャートである。 図15は、変形例に係る無人飛行体の収音制御における別の動作例を示すフローチャートである。
 (本開示の基礎となった知見)
 特許文献1に記載されている無人航空機は、上述したように、無人航空機が有する回転翼などの推進ユニットから生じるバックグラウンドノイズを、収集された音声データから除去する処理を行っている。しかしながら、この無人航空機は、音声データを収集する対象となる音源との間の相対的な位置関係を考慮していない。このため、無人航空機が備える、音源からのターゲット音声を検出する音源収集マイクロフォンが、効果的に収音することができる収音範囲内に、音源が含まれていない場合が生じる。このように、音源収集マイクロフォンの収音範囲内に、音源が含まれていない場合、ターゲット音声を音源収集マイクロフォンによって効率よく収音することができないため、相対的にバックグラウンドノイズの方を大きく収集することになる。これにより、音源収集マイクロフォンで得られる音声データのノイズ成分が相対的に大きくなるため、SN(Signal Noise)比が小さくなる。よって、得られた音声データに、バックグラウンドノイズを除去する処理を行ったとしても、高品質な音声データを得ることは難しい。
 そこで、音源からのターゲット音声をバックグラウンドノイズよりも相対的に大きく収集するために、無人航空機を音源に近づけて音声データを収集することが考えられる。無人航空機を音源に近づける方向に移動させ、音源に近い位置で音声データを収集させる場合、無人航空機が制御不能となったり、無人航空機の推進力を発生させているアクチュエータに不具合が発生したりすれば、音源に向かって無人航空機が落下するおそれがある。このため、例えば音源を防護ネットで囲うなどの安全対策をすることで、音源の安全を確保する必要があった。つまり、防護ネットを製造し、設置するためのエネルギーまたはコストを余分に費やさないと、音源の安全性の確保が難しかった。
 このような問題を解決するために、本開示の一態様に係る無人飛行体は、無人飛行体であって、音データを生成するマイクロフォンを少なくとも含むセンサと、プロセッサと、を備え、前記プロセッサは、前記マイクロフォンが生成する音データを用いて、ターゲット音の品質を判定し、前記センサが生成するデータを用いて、前記無人飛行体と前記ターゲット音の音源との位置関係を取得し、前記ターゲット音の品質と前記位置関係とに基づいて、前記無人飛行体と前記ターゲット音の音源との間の距離が制御されるように、前記無人飛行体の移動を制御する。このため、無人飛行体と音源との間の距離を制御しつつ、ターゲット音の品質を確保することができる。よって、音源への安全性を確保した上で収音品質を向上することができる。
 また、前記プロセッサは、前記ターゲット音の品質が予め定められた目標品質よりも高い場合、前記音源から離れるように前記無人飛行体の移動を制御してもよい。このため、目標品質が維持される範囲で離れるため、音源の安全性をさらに向上させることができる。
 また、前記プロセッサは、前記音源から離れるように前記無人飛行体の移動を制御する場合、前記無人飛行体の現在位置から前記ターゲット音の品質が前記目標品質となる位置までの間のいずれかの位置に移動するように、前記無人飛行体の移動を制御してもよい。このため、収音品質が目標品質を下回ることなく、音源の安全性を高めることができる。
 また、前記プロセッサは、前記ターゲット音の品質が予め定められた目標品質よりも低い場合、前記音源に近づくように前記無人飛行体の移動を制御してもよい。このため、目標品質が満たされるまでの範囲で接近するため、音源の安全性を確保した上で、さらにターゲット音の収音品質を向上させることができる。
 また、前記プロセッサは、さらに、前記音源からの所定距離を示す距離情報を取得し、前記音源に近づくように前記無人飛行体の移動を制御する場合、前記距離情報と前記位置関係とに基づいて、前記音源から前記所定距離離れた位置よりも前記音源に近づかないように、前記無人飛行体の移動を制御してもよい。このため、音源の安全性が確保できる範囲で、音源に近づく方向に無人飛行体を移動させるため、音源と無人飛行体とを少なくとも所定距離以上離すことで収音品質を向上させつつ、音源への安全性を確実に確保できる。
 また、さらに、前記マイクロフォンの向き、および、前記無人飛行体から外向きの前記マイクロフォンの突出量の少なくとも一方を変更するアクチュエータを備え、前記プロセッサは、前記距離情報と前記位置関係とに基づいて、前記音源から前記所定距離離れた位置まで前記音源に近づくように前記無人飛行体の移動を制御した後において、前記ターゲット音の品質が予め定められた目標品質よりも品質が低い場合、前記アクチュエータを制御することで、前記マイクロフォンの向き、および、前記無人飛行体から外向きの前記マイクロフォンの突出量の少なくとも一方を変更してもよい。
 このため、プロセッサは、アクチュエータを制御することで、マイクロフォンの向きを変更させる場合、マイクロフォンの感度が高い方向を音源へ向けることができる。これにより、マイクロフォンの感度が高い方向と音源方向とを一致させることができるため、騒音の音圧レベルに対するターゲット音の音圧レベルを相対的に向上させることができ収音品質を向上させることができる。
 また、プロセッサは、アクチュエータを制御することで、無人飛行体の外方向へのマイクロフォンの突出量を変更させる場合、マイクロフォンを無人飛行体の外方向へ突出させ、マイクロフォンを音源に近づけることができる。これにより、マイクロフォンは騒音の発生源である無人飛行体から離れるため、騒音の音圧レベルを低下させることができる。また、マイクロフォンは音源に近づくため、騒音の音圧レベルに対するターゲット音の音圧レベルを相対的に向上させることができる。これにより、効果的に収音品質を向上させることができる。
 また、前記プロセッサは、前記品質を判定するための指標として、前記ターゲット音と前記無人飛行体の飛行に関わる騒音とを用いて算出されるSN(Signal Noise)比を算出してもよい。このため、ターゲット音の品質を容易に判定することができる。
 また、前記プロセッサは、さらに、前記予め定められた目標品質として、前記無人飛行体の飛行に関わる騒音を用いて予め設定された目標SN比を取得し、取得された前記目標SN比と算出された前記SN比とを比較することで、前記ターゲット音の品質を判定してもよい。このため、予め目標SN比を算出するため、収音品質の処理量を削減できる。
 また、前記プロセッサは、前記無人飛行体が水平方向に移動するように前記無人飛行体を制御してもよい。これにより、無人飛行体は、水平方向において音源から離れる方向に移動するため、水平方向における音源からの距離を確保することができる。このため、現在位置よりも高い位置に行かないことで、無人飛行体が落下した際の衝撃を軽減でき、音源の安全を確保することができる。
 また、前記プロセッサは、前記無人飛行体が地面に対して近づくように前記無人飛行体を制御してもよい。これにより、無人飛行体は、地面に近づくことで音源に近づく方向に移動するため、水平方向における音源からの距離を確保したまま音源に近づくことができる。このため、現在位置よりも地面に近づくことで、無人飛行体が落下した際の衝撃をより軽減でき、音源の安全を確保することができる。
 また、前記プロセッサは、前記音データを用いて、前記位置関係を取得してもよい。これにより、マイクロフォンのみ搭載して、音源への安全性を確保した上で収音品質を向上することができる。延いては、無人飛行体の総重量の増加を抑制することができる。
 また、前記センサは、さらに、画像データを生成するイメージセンサを含み、前記プロセッサは、前記イメージセンサにより生成された前記画像データを用いて、前記位置関係を取得してもよい。これによれば、プロセッサは、画像データを用いて位置関係を取得するため、精度が高い位置関係を取得することができる。
 また、前記センサは、さらに、測距データを生成する測距センサを含み、前記プロセッサは、前記測距センサにより生成された前記測距データを用いて、前記位置関係を取得してもよい。これによれば、プロセッサは、測距データを用いて位置関係を取得するため、精度が高い位置関係を取得することができる。
 また、前記プロセッサは、前記ターゲット音の品質と前記位置関係と予め定められた目標品質とに基づいて目標距離を決定し、前記無人飛行体と前記音源との間の距離が前記目標距離となるように前記無人飛行体の移動を制御してもよい。これにより、無人飛行体は、予め定められた目標品質に対応する位置に移動することができる。
 また、前記位置関係は、(i)前記無人飛行体と前記音源との間の距離、(ii)前記無人飛行体に対する前記音源の位置、および、(iii)前記無人飛行体から前記音源への方向の少なくともいずれか1つであってもよい。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 以下、本発明の一態様に係る無人飛行体について、図面を参照しながら具体的に説明する。
 なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態)
 以下、図1~図12Bを用いて、実施の形態を説明する。
 [1.構成]
 図1は、実施の形態に係る無人飛行体およびコントローラの外観を示す図である。図2は、実施の形態に係る無人飛行体を上方から見た場合の平面図である。
 図1に示すように、無人飛行体100は、コントローラ200へのユーザによる操作に応じた操作信号をコントローラ200から受信し、受信した操作信号に応じて飛行する。また、無人飛行体100は、飛行している状態において、受信した操作信号に応じて無人飛行体100が備えるカメラ107を用いて撮像してもよい。カメラ107により撮像された画像データは、後述する携帯端末300に送信されてもよい。
 コントローラ200は、ユーザからの操作を受け付け、受け付けた操作に応じた操作信号を無人飛行体100に送信する。また、コントローラ200は、スマートフォンなどの、ディスプレイを有する携帯端末300を保持していてもよい。
 携帯端末300は、無人飛行体100のカメラ107により撮像された画像データを無人飛行体100から受信し、例えばリアルタイムに受信した画像データを表示する。
 これにより、ユーザは、無人飛行体100のカメラ107に撮像させた画像データを、携帯端末300でリアルタイムに確認しながら、コントローラ200を操作することで、無人飛行体100の飛行中における位置および姿勢の少なくとも一方である飛行状態を変更することができる。このため、ユーザは、無人飛行体100のカメラ107によって撮像する撮像範囲を自由に変更することができる。
 無人飛行体100は、4つの発生器110と、4つのダクト130と、本体140と、4本のアーム141とを備える。
 4つの発生器110のそれぞれは、無人飛行体100を飛行させる力を発生させる。4つの発生器110のそれぞれは、具体的には、気流を発生させることで無人飛行体100を飛行させる力を発生させる。4つの発生器110のそれぞれは、回転することで気流を発生させる回転翼111と、回転翼111を回転させるアクチュエータ112とを有する。回転翼111およびアクチュエータ112は、無人飛行体100が水平面に設置されている状態において鉛直方向に略平行な回転軸を有し、上方から下方に向かって流れる気流を発生させる。これにより、4つの発生器110は、無人飛行体100が上方に浮上する推力を発生し、無人飛行体100を飛行させる力を発生させる。アクチュエータ112は、例えば、モータである。
 4つの発生器110は、上方から見た場合、本体140を中心として、90度の角度間隔でそれぞれ配置されている。つまり、4つの発生器110は、本体140を囲うように環状に並んで配置されている。
 なお、4つの発生器110のそれぞれが有する回転翼111は、1つのプロペラで構成される例を図示しているが、これに限らずに、2つのプロペラが同一の回転軸において互いに逆回転する二重反転プロペラで構成されていてもよい。
 図3は、図2に示す無人飛行体のIII-III断面図である。つまり、図3は、1つの発生器110および当該発生器110に対応して配置されるダクト130を回転翼111の回転軸を通る平面で切断したときの断面図である。
 4つのダクト130は、それぞれ、4つの発生器110に対応して設けられる。4つのダクト130のそれぞれは、対応する発生器110の側方を覆う位置に、つまり、当該発生器110の回転翼111の回転軸方向に略直交する方向を覆う位置に、配置される。例えば、4つのダクト130のそれぞれは、対応する発生器110の回転軸方向の長さに亘って、当該発生器110の側方を覆う。つまり、4つのダクト130のそれぞれは、内部に発生器110が配置される空間131であって、上下方向に当該ダクト130を貫通する円柱形状の空間131を有する。4つのダクト130のそれぞれは、対応する発生器110が発生させる気流の下流側に向かうほど、当該ダクト130の厚みが薄くなる形状を有する。4つのダクト130のそれぞれは、具体的には、対応する発生器110が発生させる気流の下流側に向かうほど、当該ダクト130の円柱形状の内面に、当該ダクト130の外面が近づく形状を有する。つまり、4つのダクト130のそれぞれは、対応する発生器110が発生させる気流の下流側が尖っている形状を有する。また、ダクト130の内面の気流の上流側の端部は、丸みを帯びた形状である。具体的には、当該端部は、ダクト130の内径が気流方向に向かって尻すぼむ形状である。これにより、ダクト130に空気が入りやすくすることができ、飛行性能を向上させることができる。また、ダクト130ひいては無人飛行体100の軽量化が可能となる。なお、当該端部は、気流の方向に即した直線的な形状であってもよい。
 本体140は、例えば、円柱形状の箱状の部材、つまり、筐体であり、内部に、プロセッサ、メモリ、バッテリ、各種センサなどの電子機器が配置されている。なお、本体140の形状は、円柱形状に限らずに、四角柱など他の形状の箱状の部材であってもよい。また、本体140は、外部に、4つのマイクロフォン105、ジンバル106、および、カメラ107が配置されている。例えば、4つのマイクロフォン105は、それぞれ、本体140の側面のうち、4つの発生器110に対応する4つのアーム141が接続されている4つの領域の間の領域に配置されている。つまり、例えば、4つのマイクロフォン105は、それぞれ、本体140を中心として、4つの発生器110のそれぞれに向かう方向を基準に45°ずれた方向に対応する位置に配置されている。
 4つのアーム141は、本体140と4つのダクト130とを接続する部材である。4つのアーム141は、一端が本体140に固定されており、他端が4つのダクト130のうちの対応する1つに固定されている。
 図4は、実施の形態に係る無人飛行体の構成を示すブロック図である。具体的には、図4は、無人飛行体100が備えるハードウェア構成を用いて実現されるプロセッサ101による機能について説明するためのブロック図である。
 図4に示すように、無人飛行体100は、プロセッサ101と、GPS(Global Positioning System)受信機102と、加速度センサ103と、ジャイロセンサ104と、4つのマイクロフォン105と、ジンバル106と、カメラ107と、測距センサ108と、通信IF109と、4つの発生器110とを備える。
 プロセッサ101は、加速度センサ103、ジャイロセンサ104、4つのマイクロフォン105、カメラ107が有するイメージセンサ、測距センサ108などを含む各種センサにより検出された検出結果、GPS受信機102または通信IF109による受信結果などを取得し、取得した検出結果または受信結果に対して、図示しないメモリまたはストレージに記憶されている所定のプログラムを実行することで各種処理を実行する。これにより、プロセッサ101は、4つの発生器110、ジンバル106およびカメラ107のうちの少なくとも1つを制御する。
 GPS受信機102は、GPS衛星を含む人工衛星から当該GPS受信機102の位置を示す情報を受信する。つまり、GPS受信機102は、無人飛行体100の現在位置を検出する。GPS受信機102は、検出された無人飛行体100の現在位置をプロセッサ101または図示しないストレージに逐次出力する。
 加速度センサ103は、無人飛行体100の異なる3方向のそれぞれにかかる加速度を検出するセンサである。
 ジャイロセンサ104は、無人飛行体100の異なる3方向を軸とした3軸周りそれぞれの回転における角速度を検出するセンサである。
 4つのマイクロフォン105のそれぞれは、特定の方向を基準とする所定の角度範囲である収音範囲において、収音範囲以外の角度範囲よりも高品質な音を収音することができる特性の指向性を有するマイクロフォンであり、センサの一例である。所定の角度範囲は、例えば、90°以下の角度範囲であり、マイクロフォン105の位置を基準とした広がりを有する3次元的な角度範囲である。4つのマイクロフォン105のそれぞれは、複数のマイクロフォン素子を有するマイクロフォンアレイであってもよい。4つのマイクロフォン105のそれぞれは、収音することで音データを逐次生成し、逐次生成された音データをプロセッサ101または図示しないストレージに逐次出力する。ストレージに音データが出力された場合、ストレージは、出力された音データを逐次記憶する。このとき、ストレージは、例えば、現在時刻を示す時刻情報と対応付けて音データを記憶してもよい。
 ジンバル106は、カメラ107の三軸方向周りの姿勢を一定に保つための機器である。つまり、ジンバル106は、無人飛行体100の姿勢が変化しても、カメラ107の姿勢を、例えば、地球座標系に対して所望の姿勢に維持するための機器である。ここで所望の姿勢とは、コントローラ200から受信した操作信号に含まれるカメラ107の撮像方向によって定まる姿勢である。
 カメラ107は、レンズなどの光学系およびイメージセンサを有する機器であり、センサの一例である。カメラ107は、撮像することで画像データを逐次生成し、逐次生成された画像データをプロセッサ101またはストレージに逐次出力する。ストレージに画像データが出力された場合、ストレージは、出力された画像データを逐次記憶する。このとき、ストレージは、例えば、現在時刻を示す時刻情報と対応付けて画像データを記憶してもよい。
 測距センサ108は、測距センサ108から周囲の物体までの距離を検出するセンサである。測距センサ108は、例えば、超音波センサ、TOF(Time Of Flight)カメラ、LIDAR(Light Detection and Ranging)などである。測距センサ108により生成される測距データは、測距センサ108を基準とした方向と、当該方向における周囲の物体までの距離とが対応付けられたデータであってもよい。測距センサ108は、無人飛行体100の規定の位置に固定されている。このため、当該規定の位置と、無人飛行体100の本体140の中心の位置などのような無人飛行体100の基準位置との位置関係は、固定された関係にある。よって、測距センサ108の検出結果を用いることで、無人飛行体100は、無人飛行体100の基準位置と周囲の物体との間の位置関係を算出することができる。測距センサ108は、センサの一例である。測距センサ108は、測距することで測距データを逐次生成し、生成された測距データをプロセッサ101またはストレージに逐次出力する。ストレージに測距データが出力された場合、ストレージは、出力された測距データを逐次記憶する。このとき、ストレージは、例えば、現在時刻を示す時刻情報と対応付けて測距データを逐次記憶してもよい。なお、無人飛行体100には、複数の測距センサ108が無人飛行体100の異なる複数の位置に配置されていてもよい。これにより、複数の測距センサ108は、無人飛行体100から異なる複数の方向にある物体までの距離を検出することができる。
 通信IF109は、コントローラ200または携帯端末300との間で通信する通信インタフェースである。通信IF109は、例えば、コントローラ200が発する送信信号を受信するための通信インタフェースを含む。また、通信IF109は、携帯端末300との間で無線通信するための通信インタフェース、つまり、通信IF109は、例えば、IEEE802.11a、b、g、n、ac、ax規格に適合した無線LAN(Local Area Network)インタフェースであってもよい。
 4つの発生器110は、上述により説明しているため、詳細な説明を省略する。
 プロセッサ101は、機能構成として、収音処理部101aと、品質判定部101bと、音源判定部101cと、位置検出部101dと、飛行制御部101eと、映像制御部101fと、障害物検知部101gとを有する。なお、各処理部101a~101gは、各種センサから逐次検出された検出データ、他の処理部により逐次実行された処理結果などを用いて処理を逐次実行し、得られた処理結果を予め定められた出力先に逐次出力する。
 収音処理部101aは、4つのマイクロフォン105のそれぞれが収音することで生成した4つの音データを取得し、取得された4つの音データのそれぞれに対して所定の音処理を実行する。収音処理部101aは、ノイズ処理部101aaと、騒音レベル演算部101abとを有する。ノイズ処理部101aaは、取得された音データに対して、音源分離処理を行うことで、無人飛行体100の飛行に関わる騒音と、ターゲット音とを分離する。無人飛行体100の飛行に関わる騒音(以下、「騒音」という。)とは、例えば、無人飛行体100の発生器110が駆動することにより生じる騒音である。ノイズ処理部101aaは、例えば、任意の方向への指向性を得るための指向性フィルタを、各マイクロフォン105が有する複数のマイクロフォン素子のそれぞれから得られた音声信号に適用することで、騒音、または、ターゲット音を抽出する。これにより、騒音と、ターゲット音とが分離される。次に、騒音レベル演算部101abは、ノイズ処理部101aaにより分離された騒音の音圧レベルと、ノイズ処理部101aaにより分離されたターゲット音の音圧レベルとを算出する。これにより、収音処理部101aでは、4つのマイクロフォン105のそれぞれが収音することで生成した4つの音データのそれぞれについて、当該音データに含まれる騒音と、ターゲット音とが抽出される。なお、騒音レベル演算部101abは、所定の周波数帯域の音成分をフィルタリングする所定の音処理を実行することで、音データに含まれる騒音を低減してもよい。所定の周波数帯域の音成分は、例えば、発生器110の回転翼111が回転することで発生する騒音の周波数帯域である。
 品質判定部101bは、収音処理部101aにより得られた騒音の音圧レベルと、ターゲット音の音圧レベルとを用いて、ターゲット音の品質が予め定められた目標品質よりも高いか低いかを判定する。なお、具体的には、品質判定部101bは、騒音の音圧レベルと、ターゲット音の音圧レベルとを用いて、ターゲット音の騒音に対するSN比を、ターゲット音の品質を判定するための指標として算出する。そして、品質判定部101bは、予め定められた目標品質として、ターゲット音と騒音とを用いて算出されるSN比を用いて算出された目標SN比を取得し、取得された目標SN比と算出されたSN比とを比較することで、ターゲット音の品質を判定する。ここで、目標SN比は、基準SN比を基準としたSN比の範囲であってもよい。例えば、目標SN比は、基準SN比を基準とする±1dBの範囲であってもよい。なお、目標SN比は、図示しないメモリまたはストレージに予め記憶されていてもよいし、外部装置に記憶されていてもよい。つまり、品質判定部101bは、図示しないメモリまたはストレージから目標SN比を読み出すことで取得してもよいし、通信IF109を介して外部装置から目標SN比を取得してもよい。
 品質判定部101bは、SN比が目標SN比より高いか低いかを判定し、SN比が目標SN比より高い場合、つまり、SN比が当該目標SN比の範囲の上限より高い場合、品質が高いと判定する。品質判定部101bは、SN比が目標SN比より低い場合、つまり、SN比が当該目標SN比の下限より低い場合、品質が低いと判定する。品質判定部101bは、4つのマイクロフォン105から得られた4つの音データのうちで、収音処理部101aにより得られたターゲット音の音圧レベルが最も大きい音データについてターゲット音の品質を判定すればよく、他の音データについてターゲット音の品質を判定しなくてもよい。
 音源判定部101cは、4つのマイクロフォン105により出力された音データ、カメラ107により出力された画像データ、および、測距センサ108により出力された測距データのうちの少なくとも1つを用いて、無人飛行体100とターゲット音の音源(以下、「音源」という。)との位置関係を取得する。音源判定部101cは、取得された位置関係を飛行制御部101eに出力する。
 音源判定部101cは、4つのマイクロフォン105により生成された音データを用いて位置関係を取得する場合、当該音データを用いて、無人飛行体100を基準とする、(i)音源の音源方向、(ii)音源の位置、および、(iii)音源までの距離のうちの少なくとも1つを位置関係として判定する。無人飛行体100を基準とする音源の音源方向とは、無人飛行体100から音源への方向である。無人飛行体100を基準とする音源の位置とは、無人飛行体100に対する音源の相対位置である。無人飛行体100を基準とする音源までの距離とは、無人飛行体100から音源までの距離である。このように、音源判定部101cは、これらの判定結果を、無人飛行体100と音源との位置関係として取得する。
 例えば、音源判定部101cは、4つのマイクロフォン105から得られた4つの音データを比較することで、ターゲット音の音圧が大きいと推定される方向を音源方向として判定してもよい。また、音源判定部101cは、4つのマイクロフォン105のそれぞれから得られる音データのそれぞれに含まれる複数のデータであって、当該マイクロフォン105を構成する複数のマイクロフォン素子から得られる複数のデータを比較することで、ターゲット音の音圧が大きいと推定される方向を音源方向として判定してもよい。また、例えば、音源判定部101cは、音源から発せられるターゲット音の大きさを取得し、4つのマイクロフォン105により生成された音データに含まれるターゲット音の音圧と、取得したターゲット音の大きさとを比較することで音源までの距離を推定してもよい。この場合、音源から発せられるターゲット音の大きさは、音源までの距離を推定するために予め定められた大きさであってもよい。また、音源判定部101cは、判定された音源方向と音源までの距離とを用いて、無人飛行体100に対する音源の相対位置を推定してもよい。
 また、音源判定部101cは、カメラ107のイメージセンサにより生成された画像データを用いて位置関係を取得する場合、当該画像データを用いて、無人飛行体100を基準とする、(i)音源の音源方向、(ii)音源の位置、および、(iii)音源までの距離のうちの少なくとも1つを判定する。このように、音源判定部101cは、これらの判定結果を、無人飛行体100と音源との位置関係として取得する。例えば、音源判定部101cは、画像データへの画像処理により予め定められた音源の色、形状、種類などを認識することで、音源の位置、音源までの距離、および、音源方向の少なくとも一つを判定してもよい。
 また、音源判定部101cは、測距センサ108により生成された測距データを用いて位置関係を取得する場合、当該測距データを用いて、無人飛行体100を基準とする、(i)音源の音源方向、(ii)音源の位置、および、(iii)音源までの距離のうちの少なくとも1つを判定する。このように、音源判定部101cは、これらの判定結果を、無人飛行体100と音源との位置関係として取得する。例えば、音源判定部101cは、測距データを用いて三次元モデルを構成し、構成された三次元モデルから音源の三次元形状を認識することで、音源の位置、音源までの距離、および、音源方向の少なくとも1つを判定してもよい。
 また、音源判定部101cは、音データまたは画像データを用いて音源方向が判定されている場合、測距データから判定された音源方向にある物体の距離を取得することで、無人飛行体100に対する音源の相対位置を推定してもよい。このように、音源判定部101cは、各センサにより生成されたデータを用いて、音源方向、および、無人飛行体100から音源までの距離を特定することで、無人飛行体100と音源との相対位置を特定してもよい。
 また、音源判定部101cは、音源から音源の位置情報を取得することで、無人飛行体100に対する音源方向、または、無人飛行体100に対する音源の相対位置を特定してもよい。
 音源は、例えば、人であってもよいし、スピーカであってもよいし、車両であってもよい。
 位置検出部101dは、GPS受信機102による検出結果を取得して、無人飛行体100の現在位置を検出する。
 飛行制御部101eは、位置検出部101dにより検出された無人飛行体100の現在位置と、加速度センサ103およびジャイロセンサ104による検出結果から得られる無人飛行体100の飛行速度および飛行姿勢と、通信IF109により受信されたコントローラ200からの操作信号とに応じて、発生器110のアクチュエータ112の回転数を制御することにより、無人飛行体100の飛行状態を制御する。つまり、飛行制御部101eは、ユーザによるコントローラ200への操作に応じて、無人飛行体100の飛行状態を制御する通常制御を行う。
 また、飛行制御部101eは、通常制御とは別に、品質判定部101bにより判定されたターゲット音の品質と、音源判定部101cにより判定された無人飛行体100と音源との位置関係とに基づいて、無人飛行体100と音源との間の距離が制御されるように、無人飛行体100の移動を制御する収音制御を行う。
 飛行制御部101eは、収音制御における飛行状態の制御において、例えば、品質判定部101bによりターゲット音の品質が予め定められた目標品質よりも低いと判定された場合、音源から離れるように無人飛行体100の移動を制御する。これにより、無人飛行体100は、音源から離れる方向に飛行する。
 また、飛行制御部101eは、音源から離れるように無人飛行体100の移動を制御する場合、位置検出部101dにより検出された無人飛行体100の現在位置からターゲット音の品質が目標品質となる位置までの間のいずれかの位置に移動するように、無人飛行体100の移動を制御する。この場合、飛行制御部101eは、例えば、音源と、ターゲット音の品質が目標品質となる位置との間の距離を、目標距離として決定し、無人飛行体100と音源との間の距離が目標距離となるように無人飛行体100の移動を制御してもよい。
 飛行制御部101eは、無人飛行体100の現在位置と音源との間の距離と、音源によるターゲット音の品質と、予め定められた音圧レベルおよび音源からの距離の関係とを用いて、音源から予め定められた目標品質となる位置までの目標距離を算出し、音源から目標距離離れた位置に無人飛行体100が位置するように無人飛行体100の移動を制御する。これにより、無人飛行体100は、音源から離れる方向に飛行する場合、例えば、ターゲット音の品質が目標品質となる位置まで飛行し、当該位置よりも音源から離れない。
 また、飛行制御部101eは、収音制御における飛行状態の制御において、例えば、品質判定部101bによりターゲット音の品質が予め定められた目標品質よりも高いと判定された場合、音源に近づくように無人飛行体100の移動を制御する。これにより、無人飛行体100は、音源に近づく方向に飛行する。
 飛行制御部101eは、音源に近づくように無人飛行体100の移動を制御する場合、音源から所定距離離れた位置よりも音源に近づくことを禁止することを示す距離情報と、音源判定部101cにより取得された位置関係とに基づいて、音源から所定距離離れた位置よりも音源に近づかないように、無人飛行体100の移動を制御する。これにより、無人飛行体100は、音源に近づく方向に飛行する場合、例えば、音源から所定距離離れた位置まで音源に近づき、当該位置よりも音源に近づかない。
 なお、距離情報は、図示しないメモリまたはストレージに予め記憶されていてもよいし、外部装置に記憶されていてもよい。つまり、飛行制御部101eは、図示しないメモリまたはストレージから距離情報を読み出すことで取得してもよいし、通信IF109を介して外部装置から距離情報を取得してもよい。
 なお、飛行制御部101eは、4つのマイクロフォン105によるターゲット音の収音を行っている場合に、収音制御を行ってもよい。飛行制御部101eは、例えば、4つのマイクロフォン105によるターゲット音の収音が開始されると、通常制御を止めて収音制御を開始し、ターゲット音の収音が終了すると、収音制御を止めて通常制御を開始してもよい。
 収音制御は、4つのマイクロフォン105がターゲット音を収音する場合に行われればよい。つまり、収音制御は、ターゲット音のみを収音する制御であってもよいし、カメラ107により画像を撮像すると共にターゲット音を収音する制御であってもよい。
 映像制御部101fは、通信IF109が受信した操作信号に応じてジンバル106を制御することで、操作信号が示す方向にカメラ107の撮像方向が向くようにカメラ107の姿勢を制御する。また、映像制御部101fは、カメラ107が撮像した画像データに所定の画像処理を実行してもよい。映像制御部101fは、カメラ107から得られた画像データ、または、所定の画像処理後の画像データを、通信IF109を介して携帯端末300に送信してもよい。
 障害物検知部101gは、測距センサ108が検出した、無人飛行体100から物体までの距離に応じて、無人飛行体100の周囲の障害物を検知する。障害物検知部101gは、飛行制御部101eとの間で情報のやり取りを行うことで、これから無人飛行体100が移動する先にある障害物を検知してもよい。障害物検知部101gは、これから無人飛行体100が移動する先に障害物を検知した場合、当該障害物をよけて無人飛行体100を移動させるように飛行制御部101eに指示してもよい。
 [2.動作]
 次に、実施の形態に係る無人飛行体100の動作について説明する。
 図5は、実施の形態に係る無人飛行体の収音制御における動作例を示すフローチャートである。図6は、無人飛行体によるターゲット音の品質の判定処理の一例を示すフローチャートである。図7は、ターゲット音の品質の指標としてのSN比を算出する算出方法の一例を示す図である。
 図5に示すように、無人飛行体100の品質判定部101bは、収音処理部101aにより収音制御が開示されると、4つのマイクロフォン105により生成された4つの音データに含まれるターゲット音の品質を判定する(S11)。収音処理部101aは、例えば、コントローラ200から受信した操作信号が収音開始を示す信号を含んでいれば、収音を開始する。ステップS1におけるターゲット音の品質の判定処理の詳細について、図6および図7を用いて説明する。
 図6に示すように、まず、収音処理部101aの騒音レベル演算部101abは、4つのマイクロフォン105により生成された4つの音データのそれぞれについて、騒音の音圧レベルを算出する(S21)。例えば、騒音レベル演算部101abは、音データとして、図7に示すノイズ処理前の信号を各マイクロフォン105から取得する。ノイズ処理前の信号は、例えば、正規化数の時間変化により表される。このため、騒音レベル演算部101abは、ノイズ処理前の信号の振幅に、対応するマイクロフォン105の性能に応じた音圧変換係数を乗算することにより、音圧レベルの時間変化を算出する。騒音レベル演算部101abは、算出された音圧レベルの時間変化から所定の周波数帯域を抽出し、抽出された所定の周波数帯域における音圧レベルの時間変化から所定の時間間隔(例えば1秒間)で平均音圧レベルを算出することで、騒音の音圧レベルを算出する。なお、所定の周波数帯域は、ターゲット音を抽出するために予め定められた周波数帯域である。
 騒音レベル演算部101abは、各マイクロフォン105から取得されたノイズ処理前の信号を用いて騒音の音圧レベルを算出するとしたが、これに限らずに、ターゲット音が発生していない状態で騒音を予め収音することで得られた信号を用いて算出された音圧レベルをストレージから取得してもよい。この場合、予め得られた信号を用いて算出された音圧レベルとは、例えば、無人飛行体100の発生器110の異なる複数段階の回転数のそれぞれに応じて収音されることにより得られた信号から算出される音圧レベルであり、各回転数に対応付けられた音圧レベルである。つまり、騒音レベル演算部101abは、無人飛行体100の発生器110の回転数に対応付けられている音圧レベルをストレージから読み出すことで、騒音の音圧レベルを取得してもよい。
 次に、収音処理部101aのノイズ処理部101aaが、ノイズ処理として、取得された音データに対して音源分離処理を行うことで、無人飛行体100の飛行に関わる騒音と、ターゲット音とを分離する(S22)。これにより、図7に示すノイズ処理後の信号が得られる。
 次に、騒音レベル演算部101abは、分離されたターゲット音の音圧レベルを算出する(S23)。ノイズ処理後の信号は、ノイズ処理前の信号と同様に、例えば、正規化数の時間変化により表される。このため、騒音レベル演算部101abは、ノイズ処理後の信号の振幅に、対応するマイクロフォン105の性能に応じた音圧変換係数を乗算することにより、音圧レベルの時間変化を算出する。騒音レベル演算部101abは、算出された音圧レベルの時間変化から所定の周波数帯域を抽出し、抽出された所定の周波数帯域における音圧レベルの時間変化から所定の時間間隔(例えば1秒間)での平均音圧レベルを算出することで、ターゲット音の音圧レベルを算出する。また、騒音レベル演算部101abは、平均音圧レベルを算出するのに用いる所定の時間間隔を、検知されたターゲット音の特性を用いて算出してもよい。つまり、所定の時間間隔は、検知されたターゲット音の特性に応じて調整されてもよい。ここでの特性とは、例として、検知したターゲット音の周波数帯域、検知したターゲット音の期間の長さが挙げられる。例えば、騒音レベル演算部101abは、検知したターゲット音の周波数帯域が所定の周波数帯域に入るかどうかを判定して、所定の時間間隔を長くしてもよい。また、検知したターゲット音の期間が短いほど所定の時間間隔を短くしてもよい。
 品質判定部101bは、騒音レベル演算部101abにより算出された、騒音の音圧レベル、および、ターゲット音の音圧レベルを用いて、ターゲット音の音圧レベルから騒音の音圧レベルを減算することで、ターゲット音の騒音に対するSN比を算出する(S24)。
 次に、品質判定部101bは、算出されたSN比が目標SN比であるか否かを判定する(S12)。具体的には、品質判定部101bは、算出されたSN比が基準SN比を基準としたSN比の範囲内にあるか否かを判定する。
 品質判定部101bにより、算出されたSN比が目標SN比でないと判定された場合(S12でNo)、次のステップS13に進む。反対に、品質判定部101bにより、算出されたSN比が目標SN比であると判定された場合(S12でYes)、ステップS17に進む。SN比が目標SN比である場合には、無人飛行体100では、良好にターゲット音を集音できているため、無人飛行体100を移動させない。
 次に、障害物検知部101gは、無人飛行体100が安全に移動可能であるか否かを判定する(S13)。具体的には、障害物検知部101gは、無人飛行体100の周囲に物体があるか否かを判定し、無人飛行体100の周囲に物体が無いと判定された場合、無人飛行体100が安全に移動可能であると判定し、無人飛行体100の周囲に物体があると判定された場合、無人飛行体100が安全に移動できないと判定する。
 障害物検知部101gにより、無人飛行体100が安全に移動可能であると判定された場合(S13でYes)、次のステップS14に進む。反対に、障害物検知部101gにより、無人飛行体100が安全に移動可能でないと判定された場合(S13でNo)、ステップS17に進む。
 品質判定部101bは、算出されたSN比が目標SN比よりも高いか、または、低いかを判定する(S14)。ここでは、品質判定部101bは、目標SN比として、基準SN比(例えば-10dB)を基準とする±1dBの範囲を用いて、算出されたSN比が目標SN比よりも高いか、または、低いかを判定する例を説明する。品質判定部101bは、具体的には、算出されたSN比が目標SN比の範囲の上限(例えば、-9dB)よりも高いか、または、目標SN比の範囲の下限(例えば、-11dB)よりも低いかを判定する。
 そして、飛行制御部101eは、品質判定部101bにより算出されたSN比が目標SN比の範囲よりも高いと判定された場合(S14で高い)、無人飛行体100を音源から離れる方向に移動させる制御を行う(S15)。
 飛行制御部101eは、品質判定部101bにより算出されたSN比が目標SN比の範囲よりも低いと判定された場合(S14で低い)、無人飛行体100を音源に近づく方向に移動させる制御を行う(S16)。
 収音処理部101aは、収音を停止するか否かを判定する(S17)。収音処理部101aは、収音を停止すると判定した場合(S17でYes)、収音制御を終了する。収音処理部101aは、収音を停止しないと判定した場合(S17でNo)、品質判定部101bは、ステップS11の判定を再び行う。
 図8Aは、実施の形態に係る無人飛行体の収音制御における動作例の第1の場面を説明するための図である。図8Bは、実施の形態に係る無人飛行体の収音制御における動作例の第2の場面を説明するための図である。図8Cは、実施の形態に係る無人飛行体の収音制御における動作例の第3の場面を説明するための図である。図9Aは、実施の形態に係る無人飛行体の収音制御における動作例の第4の場面を説明するための図である。図9Bは、実施の形態に係る無人飛行体の収音制御における動作例の第5の場面を説明するための図である。図9Cは、実施の形態に係る無人飛行体の収音制御における動作例の第6の場面を説明するための図である。図10Aは、実施の形態に係る無人飛行体の収音制御における動作例の第7の場面を説明するための図である。図10Bは、実施の形態に係る無人飛行体の収音制御における動作例の第8の場面を説明するための図である。図10Cは、実施の形態に係る無人飛行体の収音制御における動作例の第9の場面を説明するための図である。
 なお、図8A~図8C、図9A~図9C、図10A~図10Cは、無人飛行体100を上方からみた場合の無人飛行体100の動作を示す図である。図8A~図8C、図9A~図9C、図10A~図10Cは、音源400が人であり、ターゲット音が音源400による音声である場合に、無人飛行体100がターゲット音を収音する動作の一例を示す図である。なお、図8A~図8C、図9A~図9C、図10A~図10Cの例では、目標SN比として基準SN比を記載している。また、図8A~図8C、図9A~図9C、図10A~図10Cの例で示されている破線L1は、距離情報により示される音源400から所定距離d1離れた位置であることを示す仮想的な線である。つまり、破線L1は、音源の安全を確保するための安全範囲の境界を示す線である。
 図8Aに示す場面では、騒音の音圧レベルは75dBと算出され、ターゲット音の音圧レベルは70dBと算出され、これにより、SN比が-5dBと算出されたことを示している。このとき、目標SN比は-10dBに設定されており、算出されたSN比は目標SN比よりも高いため、無人飛行体100は、図8Bに示すように、音源400から離れる方向に移動する。図8Bに示す場面では、無人飛行体100は、音源400から離れた後にマイクロフォン105から得られた音データを用いて、騒音の音圧レベルは75dBと算出され、ターゲット音の音圧レベルは70dBと算出され、これにより、SN比が-10dBと算出されたことを示している。この場合には、算出されたSN比は、目標SN比の範囲内であるため、無人飛行体100は、図8Cに示すように音源400との距離を保ったまま移動しない。
 図9Aに示す場面では、騒音の音圧レベルは75dBと算出され、ターゲット音の音圧レベルは65dBと算出され、これにより、SN比が-10dBと算出されたことを示している。このとき、目標SN比は-10dBに設定されており、算出されたSN比は目標SN比の範囲内であるため、無人飛行体100は、図9Aに示すように音源400との距離を保ったまま移動しない。次に、図9Bには、音源400が無人飛行体100に近づいて移動してきた場面が示されている。この場合、無人飛行体100は、無人飛行体100に音源400が近づいた後にマイクロフォン105から得られた音データを用いて、騒音の音圧レベルは75dBと算出され、ターゲット音の音圧レベルは69dBと算出され、これにより、SN比が-6dBと算出されたものとする。算出されたSN比は、目標SN比よりも高いため、無人飛行体100は、図9Cに示すように、音源400から離れる方向に移動する。図9Cに示す場面では、無人飛行体100は、音源400から離れた後にマイクロフォン105から得られた音データを用いて、騒音の音圧レベルは75dBと算出され、ターゲット音の音圧レベルは65dBと算出され、これにより、SN比が-10dBと算出されたことを示している。この場合には、算出されたSN比は、目標SN比の範囲内であるため、無人飛行体100は、図9Cに示すように音源400との距離を保ったまま移動しない。
 図10Aに示す場面では、騒音の音圧レベルは75dBと算出され、ターゲット音の音圧レベルは58dBと算出され、これにより、SN比が-17dBと算出されたことを示している。このとき、目標SN比は-10dBに設定されており、算出されたSN比は目標SN比よりも低いため、無人飛行体100は、図10Bに示すように、音源400に近づく方向に移動する。図10Bに示す場面では、無人飛行体100は、音源400に近づいた後にマイクロフォン105から得られた音データを用いて、騒音の音圧レベルは75dBと算出され、ターゲット音の音圧レベルは61dBと算出され、これにより、SN比が-14dBと算出されたことを示している。この場合であっても、算出されたSN比は目標SN比よりも低いため、無人飛行体100は、図10Cに示すように、さらに音源400に近づく方向に移動する。図10Cに示す場面では、無人飛行体100は、音源400に近づいた後にマイクロフォン105から得られた音データを用いて、騒音の音圧レベルは75dBと算出され、ターゲット音の音圧レベルは63dBと算出され、これにより、SN比が-12dBと算出されたことを示している。この場合であっても、算出されたSN比は目標SN比よりも低いが、音源400に所定距離d1の位置まで近づいてしまっているため、これ以上音源に近づく方向に移動しない。
 なお、上記では、無人飛行体100と音源400との位置関係を水平方向の距離を用いて説明したが、三次元空間上の距離に適用してもよい。この場合、無人飛行体100が音源400に近づく方向に移動する制御を行う場合の距離情報で示される所定距離d1により規定される安全範囲を、水平方向の距離で規定される範囲を例にして説明したが、三次元空間上の距離で規定される範囲としてもよい。
 図11Aは、実施の形態に係る無人飛行体の収音制御における動作例の第10の場面を説明するための図である。図11Bは、実施の形態に係る無人飛行体の収音制御における動作例の第11の場面を説明するための図である。図12Aは、実施の形態に係る無人飛行体の収音制御における動作例の第12の場面を説明するための図である。図12Bは、実施の形態に係る無人飛行体の収音制御における動作例の第13の場面を説明するための図である。なお、図11A、図11B、図12Aおよび図12Bは、水平方向から見た場合の無人飛行体および音源の位置関係と安全範囲との一例を示す図である。
 図11Aに示す場面では、騒音の音圧レベルは75dBと算出され、ターゲット音の音圧レベルは68dBと算出され、これにより、SN比が-7dBと算出されたことを示している。このとき、目標SN比は-10dBに設定されており、算出されたSN比は目標SN比よりも高いため、飛行制御部101eは、音源400から離れる方向に無人飛行体100が移動するように制御する。このように、飛行制御部101eは、音源から離れる方向に無人飛行体100を移動させる制御を行う場合、図11Bに示すように、無人飛行体100を上昇させる制御を行わずに、無人飛行体100が水平方向に移動するように無人飛行体100を制御してもよい。このとき、飛行制御部101eは、無人飛行体100がさらに地面に近づく方向に移動するように制御を行ってもよい。
 これにより、無人飛行体100は、音源から離れる方向に移動する場合に、上昇することで音源から離れる制御を行わずに、水平方向において音源から離れる方向に移動するため、水平方向における音源からの距離を確保することができる。このため、現在位置よりも高い位置に行かないことで、無人飛行体100が落下した際の衝撃を軽減でき、音源の安全を確保することができる。なお、上記では、無人飛行体100が音源から離れる方向に移動する場合を例にして説明したが、無人飛行体100が音源に近づく方向に移動する場合であっても、同様の効果が奏される。
 図12Aに示す場面では、騒音の音圧レベルは75dBと算出され、ターゲット音の音圧レベルは59dBと算出され、これにより、SN比が-16dBと算出されたことを示している。このとき、目標SN比は-10dBに設定されており、算出されたSN比は目標SN比よりも低いため、飛行制御部101eは、音源400に近づく方向に無人飛行体100が移動するように制御する。このように、飛行制御部101eは、音源に近づく方向に無人飛行体100を移動させる制御を行う場合、図12Bに示すように、無人飛行体100が地面に対して近づくように無人飛行体100を制御してもよい。
 これにより、無人飛行体100は、音源に近づく方向に移動する場合に、水平方向に移動することで音源に近づく制御を行わずに、地面に近づくことで音源に近づく方向に移動するため、水平方向における音源からの距離を確保したまま音源に近づくことができる。このため、現在位置よりも地面に近づくことで、無人飛行体100が落下した際の衝撃をより軽減でき、音源の安全を確保することができる。なお、上記では、無人飛行体100が音源に近づく方向に移動する場合を例にして説明したが、無人飛行体100が音源に離れる方向に移動する場合であっても、同様の効果が奏される。
 [3.効果など]
 本実施の形態に係る無人飛行体100によれば、プロセッサ101は、マイクロフォン105が生成する音データを用いてターゲット音の品質を判定する。プロセッサ101は、センサが生成するデータを用いて、無人飛行体100とターゲット音の音源400との位置関係を取得する。プロセッサ101は、ターゲット音の品質と位置関係とに基づいて、無人飛行体100とターゲット音の音源との間の距離が制御されるように、無人飛行体100の移動を制御する。このため、無人飛行体100と音源400との間の距離を制御しつつ、ターゲット音の品質を確保することができる。よって、音源400への安全性を確保した上で適切な音質で収音することができる。
 また、無人飛行体100において、プロセッサ101は、ターゲット音の品質が予め定められた目標品質よりも高い場合、音源400から離れるように無人飛行体100の移動を制御する。このため、ターゲット音の品質が確保されている場合には、音源400から離れる方向に無人飛行体100を移動させるため、音源400の安全性をさらに向上させることができる。
 また、無人飛行体100において、プロセッサ101は、音源400から離れるように無人飛行体100の移動を制御する場合、無人飛行体100の現在位置からターゲット音の品質が目標品質となる位置までの間に移動するように、無人飛行体100の移動を制御する。このため、ターゲット音の品質が確保されている範囲で、音源400から離れる方向に無人飛行体100を移動させることができる。
 また、無人飛行体100において、プロセッサ101は、ターゲット音の品質が予め定められた目標品質よりも低い場合、音源400に近づくように無人飛行体100の移動を制御する。このため、ターゲット音の品質が確保されていない場合には、音源400に近づく方向に無人飛行体100を移動させるため、ターゲット音の品質を向上させることができる。
 また、無人飛行体100において、プロセッサ101は、品質を判定するための指標として、ターゲット音と無人飛行体100の飛行に関わる騒音とを用いて算出されるSN(Signal Noise)比を算出する。また、プロセッサ101は、さらに、予め定められた目標品質として、ターゲット音と無人飛行体の飛行に関わる騒音とを用いて算出されるSN(Signal Noise)比を用いて予め算出された目標SN比を取得する。そして、プロセッサ101は、取得された目標SN比と算出されたSN比とを比較することで、ターゲット音の品質を判定する。このため、ターゲット音の品質を容易に判定することができる。
 また、無人飛行体100において、センサは、さらに、カメラ107が備えるイメージセンサであって、画像データを生成するイメージセンサを含む。プロセッサ101は、イメージセンサにより生成された画像データを用いて、位置関係を取得する。これによれば、プロセッサ101は、画像データをさらに用いて位置関係を取得するため、精度が高い位置関係を取得することができる。
 また、無人飛行体100において、センサは、さらに、測距データを生成する測距センサ108を含む。プロセッサ101は、測距センサ108により生成された測距データを用いて、位置関係を取得する。これによれば、プロセッサ101は、測距データをさらに用いて位置関係を取得するため、精度が高い位置関係を取得することができる。
 また、無人飛行体100において、プロセッサ101は、ターゲット音の品質と位置関係と予め定められた目標品質とに基づいて目標距離を決定し、無人飛行体100と音源400との間の距離が目標距離となるように無人飛行体100の移動を制御する。これにより、無人飛行体100は、予め定められた目標品質に対応する位置に移動することができる。
 [4.変形例]
 [4-1.変形例1]
 上記実施の形態に係る無人飛行体100によれば、目標品質としての目標SN比の基準となる基準SN比は、例えば、-10dBのような1つの値を例にして説明したが、1つの値に限らずに収音制御の用途に応じて複数の値が設定されてもよい。
 図13は、基準SN比と用途との関係の一例を示す表である。なお、目標SN比が±1dBの目標範囲ではなく閾値である場合には、基準SN比を目標SN比と読み替えてもよい。
 図13に示すように、例えば、用途に応じて4段階の基準SN比が定められていてもよい。ここで示されるR1~R4は、R1<R2<R3<R4の関係にある。例えば、最低品質に対する基準SN比はR1であり、一般的な音声収集に対する基準SN比はR2であり、中継放送に対する基準SN比はR3であり、高品質な放送に対する基準SN比はR4である。これらの用途は、コントローラ200へのユーザによる操作によって選択され、選択された用途に応じた基準SN比が無人飛行体100の収音制御で利用される。また、用途は、コントローラ200によるアプリケーションに応じて固定であってもよく、この場合にはアプリケーションに応じた基準SN比が無人飛行体100の収音制御で利用される。
 [4-2.変形例2]
 上記実施の形態に係る無人飛行体100では、飛行制御部101eは、品質判定部101bにより算出されたSN比が目標SN比の範囲よりも高いと判定された場合、無人飛行体100を音源から離れる方向に移動させる制御を行うとしたが、移動しない制御を行ってもよい。これは、十分に高い品質で収音できているからである。
 [4-3.変形例3]
 上記実施の形態に係る無人飛行体100では、算出されたSN比が目標SN比よりも低い場合であっても音源まで所定距離d1の位置まで近づいてしまった場合には、移動しないとしたが、さらなる制御を行ってもよい。つまり、上記実施の形態では、距離情報と位置関係とに基づいて、音源から所定距離離れた位置まで音源に近づくように無人飛行体100の移動を制御した後において、ターゲット音の品質が予め定められた目標品質よりも品質が低い場合、移動しないとしたがこれに限らない。
 例えば、無人飛行体100は、図示しない、マイクロフォン105の向き変更するアクチュエータを有している場合、プロセッサ101は、当該アクチュエータを制御することで、マイクロフォン105の向きを変更してもよい。つまり、マイクロフォン105の感度が高い方向を音源へ向けてもよい。これにより、マイクロフォン105の感度が高い方向と音源方向とを一致させることができるため、騒音の音圧レベルに対するターゲット音の音圧レベルを相対的に向上させることができ収音品質を向上させることができる。
 また、無人飛行体100は、図示しない、無人飛行体100に対する外方向へのマイクロフォン105の突出量を変更するアクチュエータを有している場合、当該アクチュエータを制御することで、無人飛行体100の外方向へのマイクロフォン105の突出量を変更してもよい。つまり、マイクロフォン105を無人飛行体100の外方向へ突出させ、マイクロフォン105を音源に近づけてもよい。これにより、マイクロフォン105は騒音の発生源である無人飛行体100から離れるため、騒音の音圧レベルを低下させることができる。また、マイクロフォン105は音源に近づくため、騒音の音圧レベルに対するターゲット音の音圧レベルを相対的に向上させることができる。これにより、効果的に収音品質を向上させることができる。なお、アクチュエータは、マイクロフォン105の向きを変更するアクチュエータと、マイクロフォン105の突出量を変更するアクチュエータとを含んでいてもよく、プロセッサ101は、両方のアクチュエータを制御することでマイクロフォン105の向きおよび突出量を変更する制御を行ってもよい。なお、無人飛行体100の外方向とは、例えば、無人飛行体100の水平方向の側方の方向である。また、無人飛行体100は、音源に近づくように無人飛行体の移動を制御した後に、目標品質よりもターゲット音の品質が低い場合、マイクロフォン105の向き、および、無人飛行体100から外向きのマイクロフォンの突出量の少なくとも一方を変更する制御を行ってもよい。
 [4-4.変形例4]
 上記実施の形態に係る無人飛行体100は、4つの発生器110を備える構成としたが、無人飛行体100が備える発生器の数は、4つに限らずに、1~3つであってもよいし、5つ以上であってもよい。
 [4-5.変形例5]
 上記実施の形態に係る無人飛行体100は、本体140と4つのダクト130とが4つのアーム141により接続される構成としたが、これに限らずに、4つの発生器110が本体140に接続されている構成であれば、4つのダクト130または4つのアーム141を備えていない構成であってもよい。つまり、無人飛行体は、本体140に直接4つの発生器110が接続されている構成であってもよいし、本体140に直接4つのダクト130が接続されている構成であってもよい。また、無人飛行体は、4つのダクト130を備えていない構成、つまり、4つの発生器110の側方が覆われていない構成であってもよい。
 [4-6.変形例6]
 上記実施の形態に係る無人飛行体100は、4つのマイクロフォン105を備える構成としたが、無人飛行体100が備えるマイクロフォンの数は、4つに限らずに、1~3つであってもよいし、5つ以上であってもよい。なお、マイクロフォン105の数が少ない場合、無人飛行体100の姿勢を回転させることで、異なるタイミングで複数の音データを取得し、複数の音データを比較することで、音源方向を推定してもよい。マイクロフォン105は、無人飛行体100の外側に、つまり、外部の空間に露出するように配置されていればよく、本体140の側方以外にもアーム141の側方に配置されていてもよい。また、マイクロフォン105は、本体140から離れた位置に配置されてもよい。例えば、本体140にアーム141とは別に取り付けられた本体140から離れる方向に延長されたアームのような棒、金属線のような線又は糸のような紐の先端又は途中にマイクロフォン105が配置されてもよい。
 [4-7.変形例7]
 上記実施の形態では、音源400との距離が所定距離d1まで近づいてもSN比が目標SN比より低い場合に、マイクロフォン105の向きを変更することを例示したが、これに限らずに、マイクロフォン105の感度の高い方向を音源方向に予め合わせた上で、実施の形態の図5で説明した動作を行うようにしてもよい。なお、マイクロフォン105の感度の高い方向を音源方向に合わせる場合、マイクロフォン105の向きを変更するためのアクチュエータを有している無人飛行体100であればアクチュエータを制御することでマイクロフォン105の向きを変更してもよいし、アクチュエータを有していない無人飛行体100であれば飛行姿勢を制御することでマイクロフォン105の感度の高い方向を音源方向に合わせてもよい。
 なお、飛行姿勢を制御して、マイクロフォン105の感度の高い方向を音源方向に合わせる場合、4つのマイクロフォン105のそれぞれの感度の高い方向が無人飛行体100に対してどの範囲にあるかを示す情報は、予め、無人飛行体100が備える図示しないメモリに記憶されている。このため、飛行制御部101eによる無人飛行体100の姿勢を変更する変更量を決定する品質判定部101bは、メモリから読み出した感度の高い方向の情報と、例えば、加速度センサ103およびジャイロセンサ104などの各種センサにより得られる無人飛行体100の姿勢とに基づいて、無人飛行体100をどのくらい回転させれば、音源方向が感度の高い方向に合わせられるかを示す変化量を決定することができる。
 [4-8.変形例8]
 上記実施の形態に係る無人飛行体100は、コントローラ200から受信した操作信号が収音開始を示す信号を含んでいれば、収音を開始するとしたが、これに限らない。例えば、収音処理部101aが取得した音データに収音を開始することを示す収音コマンドが含まれている場合に収音を開始してもよいし、カメラ107により得られた画像データを解析することで、ユーザが収音開始のジェスチャを行ったことを認識できた場合、または、ユーザが収音開始の言葉を発声したことをユーザの唇の動きから認識できた場合に、収音を開始してもよい。また、ユーザによるジェスチャや特定のキーワードの発声の認識を、所定距離d1の調整に用いてもよい。
 また、無人飛行体100は、コントローラ200で操作されずに、予め設定されたプログラムに従って自律的に飛行してもよい。
 また、コントローラ200は、無人飛行体100の操作インタフェースを備えず、予め設定されたプログラムに従って無人飛行体100を操作してもよい。
 [4-9.変形例9]
 上記実施の形態に係る無人飛行体100は、収音品質の評価指標としてSN比を用いたが、これに限らない。品質の評価指標として、音声認識の処理後の信頼係数や音声認識の誤り率を用いてもよい。
 [4-10.変形例10]
 上記実施の形態に係る無人飛行体100は、ターゲット音及び無人飛行体100の飛行音(すなわち騒音)の周波数の情報を用いて移動を制御してもよい。具体的には、品質判定部101bは、ターゲット音の周波数と飛行音の周波数との差を判定し、飛行制御部101eは、当該差に基づいて音源に近づくか離れるかを制御する。図14を参照して本変形例の処理を説明する。図14は、変形例10に係る無人飛行体の収音制御における動作例を示すフローチャートである。
 品質判定部101bは、ターゲット音の周波数と飛行音の周波数とを判定する(S31)。なお、ステップS31では、ターゲット音の周波数帯域と飛行音の周波数帯域とが判定されてもよい。
 次に、品質判定部101bは、ターゲット音の周波数と飛行音の周波数との差が閾値以下であるか否かを判定する(S32)。ステップS31において周波数帯域が判定される場合は、周波数の差として各周波数帯域それぞれの中心周波数の差が用いられてもよい。
 ターゲット音の周波数と飛行音の周波数との差が閾値超過であると判定されると(S32でNo)、飛行制御部101eは、無人飛行体100を音源から離れるように飛行制御を行う(S33)。このように、周波数の差が十分に大きいと、無人飛行体100がターゲットから遠ざかっても、収音した音から飛行音すなわちノイズをフィルタリングした後の音の収音品質を十分に維持することができる。
 反対に、ターゲット音の周波数と飛行音の周波数との差が閾値以下であると判定されると(S32でYes)、飛行制御部101eは、無人飛行体100を音源に近づけるように飛行制御を行う(S34)。このように、周波数の差が小さいと、収音した音から飛行音すなわちノイズをフィルタリングした後の音の収音品質を十分に維持することが困難であるため、無人飛行体100が近づけられる。
 ステップS33またはステップS34の飛行制御が行われると、収音処理部101aは、収音を停止するか否かを判定する(S35)。収音処理部101aは、収音を停止すると判定した場合(S35でYes)、収音制御を終了する。収音処理部101aは、収音を停止しないと判定した場合(S35でNo)、品質判定部101bは、ステップS31の判定を再び行う。
 このように、ターゲット音の周波数と飛行音(すなわち騒音)の周波数との差に基づいて音源からの距離が制御されることにより、結果として収音品質(例えばSN比)に応じた音源と無人飛行体100との距離の制御が可能となる。
 [4-11.変形例11]
 上記変形例10に係る無人飛行体100は、さらに飛行音の制御により飛行制御を抑制してもよい。具体的には、飛行制御部101eは、ターゲット音と飛行音の周波数の差に基づいてプロペラの回転を制御する。図15を参照して本変形例の処理を説明する。図15は、変形例11に係る無人飛行体の収音制御における動作例を示すフローチャートである。なお、図14と実質的に同一の処理については説明を省略する。
 品質判定部101bは、ターゲット音の周波数と飛行音の周波数とを判定する(S31)。
 次に、品質判定部101bは、ターゲット音の周波数と飛行音の周波数との差が閾値以下であるか否かを判定する(S32)。
 ターゲット音の周波数と飛行音の周波数との差が閾値超過であると判定されると(S32でNo)、飛行制御部101eは、無人飛行体100を音源から離れるように飛行制御を行う(S33)。
 反対に、ターゲット音の周波数と飛行音の周波数との差が閾値以下であると判定されると(S32でYes)、飛行制御部101eは、周波数の差が広がるようにプロペラの回転を制御する(S36)。例えば、飛行制御部101eは、飛行音の周波数とターゲット音の周波数との差が大きくなるようにプロペラの回転数を変更する。
 このように、ターゲット音の周波数と飛行音の周波数との差が広がるように飛行制御を行うことにより、収音品質を向上させるとともに無人飛行体100が音源に近づくことを抑制することができる。
 なお、変形例11及び12のようにターゲット音と飛行音の周波数の差に基づいて移動制御又は飛行制御を行った後に、上記実施の形態のように収音品質に基づいて移動制御が行われてもよい。
 [4-12.変形例12]
 上記実施の形態に係る無人飛行体100は、ターゲット音の品質が目標品質を満たす範囲内で移動してもよい。具体的には、飛行制御部101eは、ターゲット音の品質が目標品質を満たす範囲を移動許可範囲として決定し、無人飛行体100の移動を当該移動許可範囲内に制限する。例えば、飛行制御部101eは、コントローラ200から受信した操作信号のうち移動許可範囲内への移動の操作は実行するが、移動許可範囲外への移動の操作については実行しない。
 なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの非一時的な記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の無人飛行体100、情報処理方法などを実現するソフトウェアは、次のようなプログラムである。
 すなわち、このプログラムは、コンピュータに、音データを生成するマイクロフォンを少なくとも含むセンサと、プロセッサと、を備える無人飛行体の前記プロセッサが行う情報処理方法であって、前記マイクロフォンが生成する音データを用いて、ターゲット音の品質を判定し、前記センサが生成するデータを用いて、前記無人飛行体と前記ターゲット音の音源との位置関係を取得し、前記ターゲット音の品質と前記位置関係とに基づいて、前記無人飛行体と前記ターゲット音の音源との間の距離が制御されるように、前記無人飛行体の移動を制御する情報処理方法を実行させる。
 以上、本発明の一つまたは複数の態様に係る無人飛行体、情報処理方法およびプログラムについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。
 なお、品質判定部101b、音源判定部101c、障害物検知部101g、飛行制御部101eで行う処理並びに画像認識処理、音声認識処理は、機械学習を用いてもよい。機械学習には、例えば、入力情報に対してラベル(出力情報)が付与された教師データを用いて入力と出力との関係を学習する教師あり学習、ラベルのない入力のみからデータの構造を構築する教師なし学習、ラベルありとラベルなしのどちらも扱う半教師あり学習、状態の観測結果から選択した行動に対するフィードバック(報酬)を得ることにより、最も多く報酬を得ることができる連続した行動を学習する強化学習などが挙げられる。また、機械学習の具体的な手法として、ニューラルネットワーク(多層のニューラルネットワークを用いた深層学習を含む)、遺伝的プログラミング、決定木、ベイジアン・ネットワーク、サポート・ベクター・マシン(SVM)などが存在する。本開示においては、以上で挙げた具体例のいずれかを用いればよい。
 本開示は、ターゲット音の品質を向上させることができる無人飛行体、情報処理方法およびプログラムなどとして有用である。
100  無人飛行体
101  プロセッサ
101a  収音処理部
101aa  ノイズ処理部
101ab  騒音レベル演算部
101b  品質判定部
101c  音源判定部
101d  位置検出部
101e  飛行制御部
101f  映像制御部
101g  障害物検知部
102  GPS受信機
103  加速度センサ
104  ジャイロセンサ
105  マイクロフォン
106  ジンバル
107  カメラ
108  測距センサ
109  通信IF
110  発生器
111  回転翼
112  アクチュエータ
130  ダクト
131  空間
140  本体
141  アーム
200  コントローラ
300  携帯端末
400  音源

Claims (15)

  1.  無人飛行体であって、
     音データを生成するマイクロフォンを少なくとも含むセンサと、
     プロセッサと、を備え、
     前記プロセッサは、
     前記マイクロフォンが生成する音データを用いて、ターゲット音の品質を判定し、
     前記センサが生成するデータを用いて、前記無人飛行体と前記ターゲット音の音源との位置関係を取得し、
     前記ターゲット音の品質と前記位置関係とに基づいて、前記無人飛行体と前記ターゲット音の音源との間の距離が制御されるように、前記無人飛行体の移動を制御する
     無人飛行体。
  2.  前記プロセッサは、前記ターゲット音の品質が予め定められた目標品質よりも高い場合、前記音源から離れるように前記無人飛行体の移動を制御する
     請求項1に記載の無人飛行体。
  3.  前記プロセッサは、前記音源から離れるように前記無人飛行体の移動を制御する場合、前記無人飛行体の現在位置から前記ターゲット音の品質が前記目標品質となる位置までの間のいずれかの位置に移動するように、前記無人飛行体の移動を制御する
     請求項2に記載の無人飛行体。
  4.  前記プロセッサは、前記ターゲット音の品質が予め定められた目標品質よりも低い場合、前記音源に近づくように前記無人飛行体の移動を制御する
     請求項1から3のいずれか1項に記載の無人飛行体。
  5.  前記プロセッサは、
     さらに、前記音源からの所定距離を示す距離情報を取得し、
     前記音源に近づくように前記無人飛行体の移動を制御する場合、前記距離情報と前記位置関係とに基づいて、前記音源から前記所定距離離れた位置よりも前記音源に近づかないように、前記無人飛行体の移動を制御する
     請求項4に記載の無人飛行体。
  6.  さらに、
     前記マイクロフォンの向き、および、前記無人飛行体から外向きの前記マイクロフォンの突出量の少なくとも一方を変更するアクチュエータを備え、
     前記プロセッサは、前記距離情報と前記位置関係とに基づいて、前記音源から前記所定距離離れた位置まで前記音源に近づくように前記無人飛行体の移動を制御した後において、前記ターゲット音の品質が予め定められた目標品質よりも品質が低い場合、前記アクチュエータを制御することで、前記マイクロフォンの向き、および、前記無人飛行体から外向きの前記マイクロフォンの突出量の少なくとも一方を変更する
     請求項5に記載の無人飛行体。
  7.  前記プロセッサは、前記品質を判定するための指標として、前記ターゲット音と前記無人飛行体の飛行に関わる騒音とを用いて算出されるSN(Signal Noise)比を算出する
     請求項1から6のいずれか1項に記載の無人飛行体。
  8.  前記プロセッサは、
     さらに、予め定められた目標品質として、前記無人飛行体の飛行に関わる騒音を用いて予め設定された目標SN比を取得し、
     取得された前記目標SN比と算出された前記SN比とを比較することで、前記ターゲット音の品質を判定する
     請求項7に記載の無人飛行体。
  9.  前記プロセッサは、
     前記無人飛行体が地面に対して近づくように前記無人飛行体を制御する
     請求項1から8のいずれか1項に記載の無人飛行体。
  10.  前記センサは、さらに、画像データを生成するイメージセンサを含み、
     前記プロセッサは、前記イメージセンサにより生成された前記画像データを用いて、前記位置関係を取得する
     請求項1から9のいずれか1項に記載の無人飛行体。
  11.  前記センサは、さらに、測距データを生成する測距センサを含み、
     前記プロセッサは、前記測距センサにより生成された前記測距データを用いて、前記位置関係を取得する
     請求項1から10のいずれか1項に記載の無人飛行体。
  12.  前記プロセッサは、前記ターゲット音の品質と前記位置関係と予め定められた目標品質とに基づいて目標距離を決定し、前記無人飛行体と前記音源との間の距離が前記目標距離となるように前記無人飛行体の移動を制御する
     請求項1から11のいずれか1項に記載の無人飛行体。
  13.  前記位置関係は、(i)前記無人飛行体と前記音源との間の距離、(ii)前記無人飛行体に対する前記音源の位置、および、(iii)前記無人飛行体から前記音源への方向の少なくともいずれか1つである
     請求項1から12のいずれか1項に記載の無人飛行体。
  14.  音データを生成するマイクロフォンを少なくとも含むセンサと、プロセッサと、を備える無人飛行体の前記プロセッサが行う情報処理方法であって、
     前記マイクロフォンが生成する音データを用いて、ターゲット音の品質を判定し、
     前記センサが生成するデータを用いて、前記無人飛行体と前記ターゲット音の音源との位置関係を取得し、
     前記ターゲット音の品質と前記位置関係とに基づいて、前記無人飛行体と前記ターゲット音の音源との間の距離が制御されるように、前記無人飛行体の移動を制御する
     情報処理方法。
  15.  音データを生成するマイクロフォンを少なくとも含むセンサと、プロセッサと、を備える無人飛行体の前記プロセッサが行う情報処理方法であって、
     前記マイクロフォンが生成する音データを用いて、ターゲット音の品質を判定し、
     前記センサが生成するデータを用いて、前記無人飛行体と前記ターゲット音の音源との位置関係を取得し、
     前記ターゲット音の品質と前記位置関係とに基づいて、前記無人飛行体と前記ターゲット音の音源との間の距離が制御されるように、前記無人飛行体の移動を制御する
     情報処理方法を前記プロセッサに実行させるためのプログラム。
PCT/JP2019/043783 2019-02-19 2019-11-08 無人飛行体、情報処理方法およびプログラム WO2020170510A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021501561A JP7442147B2 (ja) 2019-02-19 2019-11-08 無人飛行体、情報処理方法およびプログラム
CN201980067977.6A CN112912309A (zh) 2019-02-19 2019-11-08 无人飞行体、信息处理方法以及程序
EP19915970.8A EP3929074A4 (en) 2019-02-19 2019-11-08 UNMANNED AIRCRAFT, INFORMATION PROCESSING METHOD AND PROGRAM
US17/231,679 US11928974B2 (en) 2019-02-19 2021-04-15 Unmanned aircraft, information processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019027725 2019-02-19
JP2019-027725 2019-02-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/231,679 Continuation US11928974B2 (en) 2019-02-19 2021-04-15 Unmanned aircraft, information processing method, and recording medium

Publications (1)

Publication Number Publication Date
WO2020170510A1 true WO2020170510A1 (ja) 2020-08-27

Family

ID=72144006

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/043783 WO2020170510A1 (ja) 2019-02-19 2019-11-08 無人飛行体、情報処理方法およびプログラム

Country Status (5)

Country Link
US (1) US11928974B2 (ja)
EP (1) EP3929074A4 (ja)
JP (1) JP7442147B2 (ja)
CN (1) CN112912309A (ja)
WO (1) WO2020170510A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7296554B2 (ja) 2019-02-19 2023-06-23 パナソニックIpマネジメント株式会社 無人飛行体、情報処理方法およびプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021138441A1 (en) * 2019-12-31 2021-07-08 Zipline International Inc. Correlated motion and detection for aircraft
CN115027675B (zh) * 2022-06-21 2023-05-19 江汉大学 一种基于无人机平台用爆破现场噪声测量装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006181651A (ja) * 2004-12-24 2006-07-13 Toshiba Corp 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム
JP2008126329A (ja) * 2006-11-17 2008-06-05 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
US20170220036A1 (en) * 2016-01-28 2017-08-03 Qualcomm Incorporated Drone flight control
JP2018090117A (ja) * 2016-12-05 2018-06-14 株式会社エンルートM’s 無人飛行装置、無人飛行方法及び無人飛行プログラム
JP2019006154A (ja) * 2017-06-20 2019-01-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行体、飛行制御システム、飛行制御方法、プログラム及び記録媒体

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006134221A (ja) * 2004-11-09 2006-05-25 Matsushita Electric Ind Co Ltd 追従移動装置
JP2007158958A (ja) 2005-12-07 2007-06-21 Yamaha Corp 音声入出力装置
JP4435212B2 (ja) * 2007-06-19 2010-03-17 本田技研工業株式会社 姿勢認識装置及び自律ロボット
US9146295B2 (en) * 2012-05-24 2015-09-29 The Boeing Company Acoustic ranging system using atmospheric dispersion
US9275645B2 (en) * 2014-04-22 2016-03-01 Droneshield, Llc Drone detection and classification methods and apparatus
EP3161502B1 (en) 2014-08-29 2020-04-22 SZ DJI Technology Co., Ltd. An unmanned aerial vehicle (uav) for collecting audio data
CN112859899A (zh) * 2014-10-31 2021-05-28 深圳市大疆创新科技有限公司 用于利用视觉标记进行监视的系统和方法
US9997079B2 (en) * 2014-12-12 2018-06-12 Amazon Technologies, Inc. Commercial and general aircraft avoidance using multi-spectral wave detection
KR102353231B1 (ko) 2015-04-24 2022-01-20 삼성디스플레이 주식회사 비행 표시장치
US10663592B2 (en) * 2015-11-09 2020-05-26 Nec Solution Innovators, Ltd. Flight control device, flight control method, and computer-readable recording medium
CN107300689A (zh) * 2017-06-28 2017-10-27 南京理工大学 一种低空无人飞行器声源方位探测系统
US10852427B2 (en) * 2017-06-30 2020-12-01 Gopro, Inc. Ultrasonic ranging state management for unmanned aerial vehicles
US10748434B2 (en) * 2017-07-27 2020-08-18 Intel Corporation Methods, systems, and apparatus for drone collision avoidance and acoustic detection
US10290293B2 (en) * 2017-11-08 2019-05-14 Intel Corporation Systems, apparatus, and methods for drone audio noise reduction
EP3547308B1 (en) * 2018-03-26 2024-01-24 Sony Group Corporation Apparatuses and methods for acoustic noise cancelling

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006181651A (ja) * 2004-12-24 2006-07-13 Toshiba Corp 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム
JP2008126329A (ja) * 2006-11-17 2008-06-05 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
US20170220036A1 (en) * 2016-01-28 2017-08-03 Qualcomm Incorporated Drone flight control
JP2018090117A (ja) * 2016-12-05 2018-06-14 株式会社エンルートM’s 無人飛行装置、無人飛行方法及び無人飛行プログラム
JP2019006154A (ja) * 2017-06-20 2019-01-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行体、飛行制御システム、飛行制御方法、プログラム及び記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3929074A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7296554B2 (ja) 2019-02-19 2023-06-23 パナソニックIpマネジメント株式会社 無人飛行体、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US20210233416A1 (en) 2021-07-29
EP3929074A4 (en) 2022-06-01
EP3929074A1 (en) 2021-12-29
CN112912309A (zh) 2021-06-04
JP7442147B2 (ja) 2024-03-04
JPWO2020170510A1 (ja) 2021-12-16
US11928974B2 (en) 2024-03-12

Similar Documents

Publication Publication Date Title
CN110737277B (zh) 无人飞行体、信息处理方法以及程序记录介质
WO2020170510A1 (ja) 無人飛行体、情報処理方法およびプログラム
US20180288303A1 (en) System and method for providing autonomous photography and videography
JP7149498B2 (ja) 無人飛行体、情報処理方法およびプログラム
JP6912281B2 (ja) 飛行体、飛行制御システム、飛行制御方法、プログラム及び記録媒体
JP7391053B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2016181178A (ja) 自律移動ロボット
US20200262071A1 (en) Mobile robot for recognizing queue and operating method of mobile robot
WO2021014805A1 (ja) 無人飛行体および情報処理方法
JP7457949B2 (ja) 情報処理方法、無人飛行体及び無人飛行体制御システム
WO2020170489A1 (ja) 無人飛行体、情報処理方法およびプログラム
JP2020006793A (ja) 収音機能付き無人航空機
JP7452543B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム
JP2023095030A (ja) 異常検知システム、及び異常検知方法
CN110775269B (zh) 无人飞行体、信息处理方法以及程序记录介质
WO2021005942A1 (ja) 無人飛行体
JP2023128381A (ja) 飛行装置、飛行制御方法及びプログラム
JP2020111146A (ja) 無人飛行体、制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19915970

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021501561

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019915970

Country of ref document: EP

Effective date: 20210920