WO2017115448A1 - 無人航空機退避システム、無人航空機退避方法、及びプログラム - Google Patents

無人航空機退避システム、無人航空機退避方法、及びプログラム Download PDF

Info

Publication number
WO2017115448A1
WO2017115448A1 PCT/JP2015/086582 JP2015086582W WO2017115448A1 WO 2017115448 A1 WO2017115448 A1 WO 2017115448A1 JP 2015086582 W JP2015086582 W JP 2015086582W WO 2017115448 A1 WO2017115448 A1 WO 2017115448A1
Authority
WO
WIPO (PCT)
Prior art keywords
evacuation
destination
participant
unmanned aircraft
information
Prior art date
Application number
PCT/JP2015/086582
Other languages
English (en)
French (fr)
Inventor
貴之 陰山
秀明 向井
Original Assignee
楽天株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 楽天株式会社 filed Critical 楽天株式会社
Priority to US16/064,457 priority Critical patent/US11132005B2/en
Priority to JP2017558839A priority patent/JP6345889B2/ja
Priority to PCT/JP2015/086582 priority patent/WO2017115448A1/ja
Priority to CN201580085594.3A priority patent/CN108473201B/zh
Publication of WO2017115448A1 publication Critical patent/WO2017115448A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/20Initiating means actuated automatically, e.g. responsive to gust detectors using radiated signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P5/00Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/104UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS

Definitions

  • the present invention relates to an unmanned aircraft evacuation system, an unmanned aircraft evacuation method, and a program.
  • Patent Document 1 describes a system that provides an image obtained by flying an unmanned aerial vehicle according to a predetermined flight route and photographing a house, a building, or the like from above with a camera.
  • unmanned aerial vehicles When providing information about competitions and events using unmanned aerial vehicles, it may be preferable not to stay on the spot because unmanned aerial vehicles may interfere with participants. For example, when an unmanned aerial vehicle photographs the situation of a golf course where a golf tournament is held, if the player is photographed from the direction in which the ball jumps out, the unmanned aircraft may come into contact with the hit ball. Further, for example, when an unmanned aircraft is photographed near the player, there is a possibility that the player cannot concentrate on the shot due to the rotation sound of the propeller. Also, for example, when the unmanned aircraft is photographed from the front after entering the player and enters the player's field of view, the player may feel uncomfortable and cannot concentrate on the shot.
  • the present invention has been made in view of the above-mentioned problems, and its purpose is to prevent the participants from getting in the way when providing information on the location of competitions and events using unmanned aerial vehicles. is there.
  • an unmanned aircraft evacuation system includes participant position information acquisition means for acquiring participant position information regarding the position of a participant at a competition or event holding place, and the participant position information.
  • a movement instruction means for instructing an unmanned aerial vehicle for providing information relating to the venue, a layout information obtaining means for obtaining layout information relating to the layout of the venue, and the participation Evacuation destination deciding means for deciding the evacuation destination of the unmanned aircraft based on the person position information and the layout information; and evacuation means for evacuating the unmanned aircraft to the evacuation destination determined by the evacuation destination decision means. It is characterized by including.
  • the unmanned aerial vehicle evacuation method moves to a participant position information acquisition step for acquiring participant position information related to the position of the participant at a competition or event location, and a position determined based on the participant position information.
  • a movement instruction step for instructing an unmanned aerial vehicle for providing information on the venue
  • a layout information acquisition step for obtaining layout information on the layout of the venue, the participant location information, and the layout information
  • a evacuation step for evacuating the unmanned aircraft to the evacuation destination determined by the evacuation destination determination step.
  • the program according to the present invention is a participant position information acquisition means for acquiring participant position information relating to the position of the participant in a competition or event holding place, so as to move to a position determined based on the participant position information.
  • layout information acquisition means for obtaining layout information on the layout of the venue, the unmanned location information and the layout information
  • the computer is caused to function as an evacuation destination determination unit that determines an evacuation destination of an aircraft, and an evacuation unit that evacuates the unmanned aircraft to the evacuation destination determined by the evacuation destination determination unit.
  • the information storage medium according to the present invention is a computer-readable information storage medium storing the above program.
  • each of a plurality of positions at the holding location and a reference direction of the save destination are associated with the layout information, and the save destination determining means is the participant A retreat destination is determined based on the reference direction associated with the position.
  • a competition in which the participant skips an object is held at the holding place, and the reference direction is an estimated jump-out direction in which the object is estimated to jump out from each position of the holding place.
  • the evacuation destination determination means determines the evacuation destination based on the estimated pop-out direction associated with the position of the participant.
  • the reference direction is an estimated line-of-sight direction estimated when the participant sees from each position of the holding place, and the evacuation destination determination unit associates with the position of the participant.
  • a retreat destination is determined based on the estimated direction of the sight line.
  • the layout information includes a plurality of save destination candidate positions that are save destination candidates
  • the save destination determining means includes the plurality of save destination candidate positions.
  • a save destination candidate within a predetermined distance from the position of the unmanned aircraft is determined as a save destination.
  • the evacuation destination determining means determines a position that is determined based on the layout information and that is a predetermined distance or more away from the participant's position as the evacuation destination. It is characterized by that.
  • the unmanned aircraft includes a camera that captures the participant, and the unmanned aircraft evacuation system estimates the gaze direction of the participant based on a captured image captured by the camera.
  • the evacuation destination determining means further determines the evacuation destination based on the sight line direction estimated by the sight line direction estimating means.
  • the evacuation destination determining means determines a position that is determined based on the layout information and that is in a direction from the participant toward the unmanned aircraft as the evacuation destination. It is characterized by.
  • the unmanned aircraft evacuation system further includes wind information acquisition means for acquiring wind information related to at least one of the wind direction and the wind speed of the holding place, and the evacuation destination determination means includes the wind information The save destination is determined based on the above.
  • the evacuation destination determining means determines whether there is a place where landing is possible under the unmanned aircraft, and determines the place determined to be landing as a evacuation destination. To do.
  • the save destination determining unit determines a save direction that can be saved from a plurality of save directions in which priorities are determined, and the highest priority among the save directions determined to be saveable.
  • the evacuation destination is determined based on a high evacuation direction.
  • the evacuation unit causes the unmanned aircraft to stand by on the spot when it is determined by the evacuation destination determination unit that there is no evacuation direction that can be evacuated.
  • the unmanned aerial vehicle evacuation system is based on at least one of the situation detected by the unmanned aerial vehicle, the operation input to the terminal, the participant location information, and the current time. It further includes a situation determination means for determining whether the competition or the event has reached a given progress status, and when the evacuation means determines that the given progress status has been reached by the situation determination means, The unmanned aircraft is evacuated.
  • the present invention it is possible to prevent the participants from getting in the way when using the unmanned aerial vehicle to provide information on the location of the competition or event.
  • FIG. 1 is a diagram illustrating a hardware configuration of an unmanned aircraft evacuation system.
  • the unmanned aircraft evacuation system 1 includes a server 10, an unmanned aircraft 20, and a participant terminal 30.
  • Server 10, unmanned aerial vehicle 20, and participant terminal 30 are connected to each other via a network so that data can be transmitted and received.
  • the server 10, the unmanned aircraft 20, and the participant terminal 30 are shown one by one, but a plurality of these may be provided.
  • the server 10 is a server computer.
  • the server 10 includes a control unit 11, a storage unit 12, and a communication unit 13.
  • the control unit 11 includes, for example, one or a plurality of microprocessors.
  • the control unit 11 executes processing according to programs and data stored in the storage unit 12.
  • the storage unit 12 includes a main storage unit and an auxiliary storage unit.
  • the main storage unit is a volatile memory such as a RAM
  • the auxiliary storage unit is a non-volatile memory such as a hard disk or a flash memory.
  • the communication unit 13 includes a network card for wired communication or wireless communication. The communication unit 13 performs data communication via a network.
  • the unmanned aircraft 20 is an aircraft on which a person does not board, for example, an unmanned aircraft driven by a battery (so-called drone) or an unmanned aircraft driven by an engine.
  • the unmanned aircraft 20 includes a control unit 21, a storage unit 22, a communication unit 23, and a sensor unit 24.
  • the unmanned aerial vehicle 20 includes general hardware such as a propeller, a motor, and a battery, but is omitted here.
  • the hardware configurations of the control unit 21, the storage unit 22, and the communication unit 23 are the same as those of the control unit 11, the storage unit 12, and the communication unit 13, respectively.
  • the unmanned aerial vehicle 20 is used to provide information on an arbitrary place.
  • the information to be provided may be information that can be detected by the sensor unit 24, such as an image (still image or moving image), sound, climate, temperature, or wind.
  • the sensor unit 24 includes a camera 24A and a GPS sensor 24B.
  • the camera 24A records an image (still image or moving image) captured by an image sensor such as a CCD image sensor or a CMOS image sensor as digital data.
  • the GPS sensor 24B includes a receiver that receives a signal from a satellite and detects position information.
  • An arbitrary sensor may be mounted on the unmanned aircraft 20, and the sensor unit 24 includes an infrared sensor, a voice sensor (microphone), a wind direction wind speed sensor, an acceleration sensor, a gyro sensor, a geomagnetic sensor, an altitude sensor, a displacement sensor, Alternatively, a temperature sensor or the like may be included.
  • Participant terminal 30 is a computer operated by a participant of a competition or event, and is, for example, a portable information terminal (including a tablet computer), a mobile phone (including a smartphone), a personal computer, or the like.
  • the competition is not limited as long as an individual or a team competes under a predetermined rule, and may be a sport or a race.
  • the game is a ball game such as golf, skiing, shooting, track and field, or car racing.
  • An event is an event or an event, for example, a concert, an exhibition, or a festival. Participants may be people who are at the venue of the competition or event.
  • players, team staff, referees, management staff, etc. correspond to the participants. If it is an event, the organizer or management staff, etc. correspond to the participants. It is assumed that the organizers of competitions and events, the country, and local governments permit the unmanned aircraft 20 to fly over the venue in advance.
  • the participant terminal 30 includes a control unit 31, a storage unit 32, a communication unit 33, an operation unit 34, a display unit 35, and a GPS sensor 36.
  • the hardware configuration of the control unit 31, the storage unit 32, the communication unit 33, and the GPS sensor 36 is the same as that of the control unit 11, the storage unit 12, the communication unit 13, and the GPS sensor 24B.
  • the operation unit 34 is an input device for the player to operate, and is, for example, a pointing device such as a touch panel or a mouse, a keyboard, or the like.
  • the operation unit 34 transmits details of operations performed by the player to the control unit 31.
  • the display unit 35 is, for example, a liquid crystal display unit or an organic EL display unit.
  • the display unit 35 displays a screen according to instructions from the control unit 31.
  • each of the server 10, the unmanned aircraft 20, and the participant terminal 30 may include a reading unit (for example, an optical disk drive or a memory card slot) that reads a computer-readable information storage medium.
  • the program and data stored in the information storage medium may be supplied to each computer via the reading unit.
  • FIG. 2 is a diagram showing an outline of processing of the unmanned aircraft evacuation system 1.
  • the unmanned aerial vehicle 20 photographs a player who participates in a golf competition and provides it to viewers and spectators. That is, the case where an example of a competition is golf, an example of a holding place is a golf course, and an example of a participant is a player is demonstrated.
  • the unmanned aerial vehicle 20 flies near the player 41 during the round on the golf course 40 and shoots.
  • the player 41 stands near his ball. Since the player 41 often faces the green 43 from the current position 42, when the unmanned aircraft 20 is photographed from the position 44 on the green 43 side as viewed from the current position 42 of the ball, the player's facial expression before the shot is well displayed. You can shoot.
  • the unmanned aircraft 20 takes a picture from the position 44 until the player 41 addresses, and when the player 41 addresses, the unmanned aircraft 20 retreats to a place 45 that does not interfere with the player 41. .
  • the unmanned aerial vehicle 20 takes a picture from the position 44 until the player 41 addresses, and when the player 41 addresses, the unmanned aircraft 20 retreats to a place 45 that does not interfere with the player 41.
  • FIG. 3 is a functional block diagram illustrating an example of functions realized by the unmanned aircraft evacuation system 1.
  • the data storage unit 50, the participant position information acquisition unit 51, the movement instruction unit 52, the layout information acquisition unit 53, and the save destination determination unit 54 are realized by the server 10.
  • achieved by the unmanned aircraft 20 is demonstrated.
  • the data storage unit 50 is realized mainly by the storage unit 12.
  • the data storage unit 50 stores data for the unmanned aircraft 20 to provide and evacuate information.
  • a layout information database will be described as data stored in the data storage unit 50.
  • the layout information database stores layout information relating to the layout of the golf course. In this embodiment, since a golf competition is held on the golf course, the layout information database stores layout information for each golf course (for each hole).
  • FIG. 4 is a diagram showing an example of layout information.
  • the layout information is information indicating the topography of the golf course and the arrangement of each area such as green, pin, fairway, rough, bunker, pond, obstacle, and OB.
  • the layout information is described as a golf course layout represented by a two-dimensional map, but the golf course layout may be represented by 3D model data in a virtual three-dimensional space.
  • a golf course having a right turn after the middle stage will be described as an example. All areas outside the golf course are OB.
  • the layout information associates each of a plurality of positions on the golf course with the reference direction of the evacuation destination.
  • the reference direction is a direction for determining the retreat destination of the unmanned aircraft 20. Since golf described as an example of a game is a game in which a player flies an object (ball), an estimated jump-out direction in which the object jumps out from each position on the golf course will be described as an example of a reference direction.
  • the estimated jump-out direction is designated in advance by a golf course manager or the like.
  • the estimated pop-out direction is a direction from each position in the golf course toward the target position.
  • the target position is a position where the game can be advantageously advanced if there is an object at the position, such as a fairway or a green.
  • the estimated pop-out direction is described as a two-dimensional vector, but when the layout information is represented by a 3D model, the estimated pop-out direction may be indicated by a three-dimensional vector.
  • the golf course is divided into a plurality of areas and an estimated pop-out direction is determined for each area.
  • the golf course is divided into three areas A1 to A3.
  • Area A1 is the first half area of the golf course.
  • the area A2 is an area in the middle of the golf course.
  • a direction that jumps from the area A2 to the area OB and shortcuts to green is associated with the estimated jump-out direction V2.
  • Area A3 is an area at the end of the golf course, and the direction toward the green is associated with the estimated pop-out direction V3.
  • the data stored in the data storage unit 50 is not limited to the above example.
  • the data storage unit 50 may store the association between the coordinates of the golf course in the layout information and the latitude / longitude information in the real space.
  • the participant position information acquisition unit 51 is realized mainly by the control unit 11.
  • the participant position information acquisition unit 51 acquires participant position information related to the position of the player on the golf course.
  • the participant position information may be any information that can identify the position of the player.
  • the latitude / longitude information is information that specifies the position in the north-south direction and the position in the east-west direction on the earth, and is indicated by numerical values of degrees, minutes, and seconds, for example.
  • the participant position information may be base station information (for example, wireless LAN access point information) with which the communication unit 33 of the participant terminal 30 performs wireless communication.
  • the movement instruction unit 52 is realized mainly by the control unit 11.
  • the movement instruction unit 52 instructs the unmanned aerial vehicle 20 for providing information on the golf course to move to a position determined based on the participant position information.
  • Information provision may be performed for a player (an example of a participant) or may be performed for a person other than the player. That is, the information providing partner may be arbitrary, and the unmanned aircraft 20 may be for providing information to the player or may be for providing information to a person other than the player. Good.
  • the position determined based on the participant position information is a position where the unmanned aircraft 20 should acquire information, and is a position having a predetermined positional relationship with the position indicated by the participant position information.
  • the position determined based on the participant position information is a position where the unmanned aircraft 20 should photograph the player.
  • this position is referred to as a destination of the unmanned aircraft 20.
  • the positional relationship between the position indicated by the participant position information and the destination of the unmanned aircraft 20 may be stored in the data storage unit 50. This positional relationship may be shown in a mathematical expression format or a table format.
  • the movement instruction unit 52 instructs to move to the movement destination associated with the position indicated by the participant position information.
  • the movement instruction unit 52 may determine a position within a predetermined distance from the position indicated by the participant position information as the destination of the unmanned aircraft 20.
  • the above positional relationship may be defined in the layout information.
  • the movement instruction unit 52 may determine the destination of the unmanned aircraft 20 based on the participant position information and the layout information. For example, when the estimated pop-out direction is defined in the layout information as in the present embodiment, the movement instruction unit 52 is a predetermined distance from the position indicated by the participant position information in the estimated pop-out direction associated with the position. A distant position may be determined as the destination.
  • the destination may indicate only a two-dimensional position as in latitude and longitude information, or may indicate a three-dimensional position including altitude.
  • the destination indicates only a two-dimensional position such as latitude / longitude information
  • the unmanned aerial vehicle 20 moves to a predetermined altitude.
  • the altitude may be a fixed value or determined based on layout information.
  • the layout information acquisition unit 53 is realized mainly by the control unit 11.
  • the layout information acquisition unit 53 acquires layout information related to the layout of the golf course.
  • the layout information acquisition unit 53 acquires the layout information stored in the data storage unit 50.
  • layout information is memorize
  • the layout information acquisition part 53 specifies the golf course with a player based on participant position information, and was specified concerned. Golf course layout information is acquired.
  • the save destination determination unit 54 is realized mainly by the control unit 11.
  • the evacuation destination determination unit 54 determines the evacuation destination of the unmanned aircraft 20 based on the participant position information and the layout information. In the present embodiment, since the estimated jump-out direction is determined at each position on the golf course, the evacuation destination determination unit 54 determines the evacuation destination based on the estimated jump-out direction (an example of the reference direction) associated with the position of the player. Will be determined.
  • FIG. 5 is an explanatory diagram of a save destination determination method.
  • the evacuation destination determination unit 54 flies a hit ball based on the player position P1 indicated by the participant position information and the estimated pop-out direction V2 associated with the area A2 including the position P1.
  • a possible estimated hitting area R1 is determined. It is assumed that the relationship between the position P1 and the estimated jumping direction V2 and the estimated hitting ball area R1 is stored in the data storage unit 50 in advance. This relationship may be a mathematical expression format or a table format.
  • the evacuation destination determination unit 54 acquires the estimated hitting ball area R1 associated with the position P1 and the estimated pop-out direction V2.
  • the evacuation destination determining unit 54 determines a line segment L1 connecting the position P1 and a position P2 that is a predetermined distance away from the position P1 in the estimated pop-out direction V2 clockwise and counterclockwise around the position P1.
  • the region through which the straight line L1 passes when rotated by the angle ⁇ 1 is defined as an estimated hitting ball region R1.
  • the estimated hitting area R1 is an area surrounded by positions P1, P3, and P4.
  • the evacuation destination determination unit 54 determines an arbitrary position outside the estimated hitting ball area R1 as the evacuation destination.
  • the save destination determining unit 54 is a position determined based on the layout information (for example, a position outside the estimated hitting area R1), and is away from the position P1 indicated by the participant position information by a predetermined distance or more.
  • the determined position is determined as the save destination.
  • the evacuation destination determination unit 54 identifies the player area R2 that is a circle with a predetermined radius centered on the position P1.
  • the retreat destination determining unit 54 determines any position outside both the estimated hitting ball area R1 and the player area R2 as a retreat destination.
  • an evacuation destination candidate area an area outside both the estimated hitting area R1 and the player area R2 is referred to as an evacuation destination candidate area.
  • the save destination determination unit 54 may select any position in the save destination candidate area as the save destination. For example, the save destination determining section 54 may select one position randomly from the save destination candidate area, or the unmanned aircraft 20 may move. A position within a predetermined distance from the destination may be selected. Further, for example, the evacuation destination determination unit 54 may determine the position closest to the movement destination of the unmanned aircraft 20 in the evacuation destination candidate area as the evacuation destination. In addition, for example, the save destination determination unit 54 may determine a position in the direction opposite to the estimated pop-out direction V2 in the save destination candidate area as the save destination.
  • the position P5 shown in FIG. 5 is an OB area, and the unmanned aircraft 20 may come into contact with an obstacle such as a tree. You may determine the position P6 on the fairway without an obstruction as a retreat destination.
  • the evacuation destination determination unit 54 may specify the location where the obstacle is present based on the layout information, or the detection result of the sensor unit 24 of the unmanned aerial vehicle 20 (for example, the image of the camera 24A or the presence / absence of an object by the infrared sensor). The location where the obstacle is present may be specified based on the detection result.
  • the save destination may indicate only a two-dimensional position like latitude and longitude information, or may indicate a three-dimensional position including altitude.
  • the evacuation destination indicates only a two-dimensional position such as latitude and longitude information
  • the unmanned aircraft 20 moves to a predetermined altitude.
  • the altitude may be a fixed value or determined based on layout information.
  • the altitude of the save destination may be set so that a sufficient altitude is secured as compared with the case where the save destination is on the fairway. .
  • the situation determination unit 55 is realized mainly by the control unit 21.
  • the situation determination unit 55 determines whether the golf competition has a given progress.
  • a given progress situation is a situation in which the unmanned aerial vehicle 20 should be evacuated, and is a situation where the unmanned aerial vehicle 20 is in the way of a player when the unmanned aircraft 20 is in its current position.
  • the predetermined progress situation is a situation where the player performs a predetermined action (for example, a shot) or a situation where the player performs a preliminary action (for example, an address) for performing the predetermined action.
  • a predetermined action for example, a shot
  • a preliminary action for example, an address
  • the situation determination unit 55 determines whether the golf competition has a given progress based on the situation detected by the unmanned aircraft 20.
  • the situation detected by the unmanned aerial vehicle 20 may be a situation on a golf course, and may be information that can be detected by the sensor unit 24.
  • the captured image captured by the camera 24A corresponds to a situation detected by the unmanned aircraft 20 will be described.
  • the situation determination unit 55 determines whether the addressed player is photographed in the photographed image by performing template matching using the template image indicating the posture of the player when the predetermined progress situation is reached.
  • the template image indicates a human figure with a golf club and is stored in the data storage unit 50 in advance.
  • a known method can be applied to the template matching itself.
  • the captured image is used as a searched image.
  • the situation determination unit 55 performs pattern matching between each region of the captured image and the template image and calculates the degree of similarity between them. A higher similarity indicates that the images are similar, and a lower similarity indicates that the images are not similar.
  • the similarity may be calculated based on the difference between these pixel values. For example, the smaller the difference between pixel values, the higher the similarity.
  • the situation determination unit 55 determines that the player has addressed and has reached a given progress situation.
  • the evacuation unit 56 is realized mainly by the control unit 21.
  • the evacuation unit 56 evacuates the unmanned aircraft 20 to the evacuation destination determined by the evacuation destination determination unit 54.
  • the method itself for moving the unmanned aircraft 20 to the designated position may be performed by a known automatic piloting method.
  • the save unit 56 may automatically fly the unmanned aircraft 20 by setting the latitude / longitude information detected by the GPS sensor 24B as the current location and setting the latitude / longitude information of the save destination as the destination.
  • the unmanned aerial vehicle 20 controls the propeller so that the direction from the current location to the destination is the traveling direction by the control of the retreat unit 56.
  • the traveling direction may be determined using the direction obtained from the geomagnetic sensor of the sensor unit 24.
  • the evacuation unit 56 evacuates the unmanned aerial vehicle 20 when the situation determination unit 55 determines that the given progress situation has been reached. In other words, if the situation determination unit 55 does not determine that the given progress situation has been reached, the save unit 56 continues the shooting at the position indicated by the movement instruction unit 52 without saving the unmanned aircraft 20, and the situation determination unit 55. Thus, when it is determined that the given progress has been achieved, the unmanned aircraft 20 is withdrawn.
  • FIG. 6 is a flowchart showing an example of processing executed in the unmanned aircraft evacuation system 1.
  • the processing shown in FIG. 6 is executed by the control units 11, 21, 31 operating according to programs stored in the storage units 12, 22, 32, respectively.
  • the functional blocks shown in FIG. 4 are realized by executing the processing described below.
  • the control unit 11 requests participant position information from the participant terminal 30 (S1).
  • the IP address of the participant terminal 30 is stored in the storage unit 12 in advance, and the request for the participant location information is executed by transmitting data in a predetermined format to the IP address.
  • the control unit 31 transmits the participant position information detected by the GPS sensor 36 to the server 10 (S2).
  • the control unit 31 transmits the latitude / longitude information detected by the GPS sensor 36 based on the signal from the satellite as the participant position information.
  • the control unit 11 determines the destination of the unmanned aircraft 20 based on the received participant location information (S3). In S3, the control part 11 determines the latitude / longitude information which left
  • the control unit 11 determines the evacuation destination of the unmanned aircraft 20 based on the received participant position information and the layout information stored in the storage unit 12 (S4).
  • the control unit 11 converts the latitude / longitude information of the participant position information into the coordinates of the layout information, and acquires the estimated pop-out direction associated with the coordinates.
  • the control unit 11 calculates the estimated hitting area R1 based on the position indicated by the participant position information and the estimated pop-out direction. Furthermore, the control part 11 calculates player area
  • the control unit 11 acquires a save destination by selecting a position in the save destination candidate area outside the estimated hitting ball area R1 and the player area R2, and converting the position into latitude / longitude information.
  • the control unit 11 transmits a movement instruction to the unmanned aircraft 20 so as to move to the destination determined in S3 (S5).
  • the server 10 determines the save destination in S4, it is assumed that the move instruction includes both the move destination and the save destination.
  • the movement instruction may be performed in a predetermined data format.
  • the control unit 21 moves the unmanned aircraft 20 to the movement destination determined in S3 (S6).
  • the control unit 21 starts the movement of the unmanned aircraft 20 by setting the transfer destination determined in S3 as the destination of the autopilot algorithm.
  • the control unit 21 determines whether the unmanned aircraft 20 has arrived at the destination (S7). In S7, the control unit 21 determines whether the latitude / longitude information detected by the GPS sensor 24B matches the latitude / longitude information of the destination. When it is determined that the destination has been reached (S7; Y), the control unit 21 takes a picture of the player with the camera 24A (S8) and transmits the image data to the server 10 (S9). Note that the control unit 21 may identify the position where the player is present by rotating at the destination while photographing with the camera 24 ⁇ / b> A and performing person recognition processing on the photographed image. The control unit 21 may adjust the direction of the unmanned aircraft 20 so that the direction toward the specified position is the shooting direction of the camera 24A. The shooting in S8 may be performed in the moving image mode or in the still image mode.
  • control unit 21 determines whether the player has addressed based on the captured image (S10). In S10, the control unit 21 determines whether the player has addressed by performing template matching between the captured image and the template image indicating the address posture.
  • the control unit 21 transmits a notification that the player has addressed to the server 10 (S11), and evacuates the unmanned aircraft 20 to the evacuation destination (S12).
  • the notification in S11 may be performed in a predetermined data format.
  • the control unit 21 starts the movement of the unmanned aircraft 20 by setting the evacuation destination determined in S4 as the destination of the autopilot algorithm.
  • the process returns to S6, and the notification of S11 is not transmitted.
  • the control unit 11 when the image data transmitted in S9 is received, the control unit 11 provides player information to the audience, viewers, and the like based on the received image data (S13). In S13, the control unit 11 provides information by, for example, displaying a captured image on a display unit provided in a spectator seat or streaming a moving image via a network.
  • the control unit 11 determines whether a notification that the address has been received has been received (S14). If it is not determined that the address notification has been received (S14; N), the process returns to S1, and the request for the participant position information is executed again. By executing the processing after S1 again, for example, even when the player is walking toward the position of his or her ball, the movement destination and the evacuation destination are updated, so that the unmanned aircraft 20 follows the player. The evacuation destination can also correspond to the latest participant position information. On the other hand, if it is determined that a notification indicating that the address has been received has been received (S14; Y), this processing ends.
  • the unmanned aircraft 20 since the unmanned aircraft 20 evacuates to the evacuation destination when the player is photographed, it is possible to prevent the player from getting in the way. In this regard, if the unmanned aircraft 20 is evacuated in a randomly determined direction, depending on the layout of the golf course, it may interfere with the player (for example, evacuate in the direction the player is aiming for). Since the evacuation destination is determined based on the participant position information and layout information, the unmanned aerial vehicle 20 can be evacuated to a place corresponding to the current position of the player and the layout of the golf course so as not to obstruct the player. Certainty can be increased.
  • the unmanned aircraft 20 can retreat in a direction according to the position of the player, so that it does not interfere with the player. The certainty to do can be further increased.
  • the reference direction as the estimated jump-out direction, it is possible to further increase the certainty so that it does not get in the way of the player in a game of flying an object like golf.
  • the unmanned aircraft 20 retreats to a position away from the player by setting a position away from the player's position by a predetermined distance or more as a retreat destination, a situation in which the player cannot concentrate due to the propeller rotating sound occurs. Can be prevented.
  • the unmanned aerial vehicle 20 can be evacuated so that it does not get in the way of the player when the situation is to occur.
  • FIG. 7 is a functional block diagram of a modified example. As shown in FIG. 7, in the modification described below, in addition to the functions of the embodiment, a line-of-sight direction estimation unit 57 and a wind information acquisition unit 58 are realized. Here, a case where these are realized by the server 10 will be described.
  • the reference direction is the estimated jump-out direction of the hit ball
  • the addressed player often sees a direction other than the estimated jump-out direction.
  • the reference direction may be an estimated line-of-sight direction estimated when the player sees from each position on the golf course.
  • FIG. 8 is a diagram showing an example of the layout information of the modified example (1).
  • the estimated line-of-sight direction is designated in advance by a golf course manager or the like.
  • the estimated line-of-sight direction is a direction from each position in the golf course toward the target position, or a direction in which the player's body or face faces when shooting toward the target position.
  • the meaning of the target position may be the same as in the embodiment.
  • the estimated line-of-sight direction is described as a two-dimensional vector.
  • the layout information is represented by a 3D model, it may be represented by a three-dimensional vector.
  • two estimated gaze directions are associated with each of the areas A1 to A3.
  • the number of estimated line-of-sight directions may be one or three or more per one place.
  • the area A1 is associated with the estimated line-of-sight direction U1 in the same direction as the estimated pop-out direction V1, and the estimated line-of-sight direction U2 in the direction in which the player's body or face faces when shot in the estimated pop-out direction V1.
  • the area A2 is associated with an estimated line-of-sight direction U3 in the same direction as the estimated pop-out direction V2, and an estimated line-of-sight direction U4 in the direction in which the player's body or face faces when shot in the estimated pop-out direction V2.
  • the area A3 is associated with an estimated line-of-sight direction U5 in the same direction as the estimated pop-out direction V3 and an estimated line-of-sight direction U6 in the direction in which the player's body or face faces when shot in the estimated pop-out direction V3. Yes.
  • the evacuation destination determination unit 54 determines the evacuation destination based on the estimated line-of-sight direction associated with the position of the player. Will do.
  • FIG. 9 is an explanatory diagram of a save destination determination method in the modification (1).
  • the evacuation destination determination unit 54 is based on the position P10 of the player indicated by the participant position information and the estimated line-of-sight directions U3 and U4 associated with the area A2 including the position P10. The case where the estimated line-of-sight regions R3 and R4 that the player may see will be described. It is assumed that the relationship between the position P10 and the estimated line-of-sight directions U3 and U4 and the estimated line-of-sight regions R3 and R4 is stored in the data storage unit 50 in advance. This relationship may be a mathematical expression format or a table format.
  • the evacuation destination determination unit 54 acquires estimated line-of-sight areas R3 and R4 associated with the position P10 and the estimated line-of-sight directions U3 and U4.
  • the evacuation destination determining unit 54 determines a line segment L2 connecting the position P10 and the position P11 that is a predetermined distance away from the position P10 in the estimated line-of-sight direction U3, clockwise and counterclockwise with respect to the position P10.
  • a region through which the line segment L2 passes when rotated by the angle ⁇ 2 is defined as an estimated line-of-sight region R3.
  • the estimated line-of-sight area R3 is an area surrounded by positions P10, P12, and P13.
  • the evacuation destination determining unit 54 turns the line segment L3 connecting the position P10 and the position P14 separated from the position P10 in the estimated visual line direction U4 by a predetermined distance clockwise and counterclockwise with the position P10 as the center.
  • a region through which the line segment L3 passes when rotated by a predetermined angle ⁇ 3 is defined as an estimated line-of-sight region R4.
  • the estimated line-of-sight region R4 is a region surrounded by positions P10, P15, and P16.
  • the angles ⁇ 1 to ⁇ 3 may be the same or different from each other.
  • the line segments L1 to L3 may be the same as or different from each other.
  • the save destination determining unit 54 may specify the player region R5 that is a circle with a predetermined radius centered on the position P10. Then, the retreat destination determination unit 54 determines any position outside both the estimated line-of-sight regions R3, R4 and the player region R5 as a retreat destination. That is, in the modified example (1), the areas outside both the estimated line-of-sight areas R3 and R4 and the player area R5 are evacuation destination candidate areas. The process in which the save destination determination unit 54 determines the save destination based on the save destination candidate area is the same as in the embodiment.
  • the unmanned aircraft 20 is not put in the player's field of view. Therefore, it is possible to further increase the certainty so as not to disturb the player.
  • the layout information may be information used to determine the save destination.
  • the layout information may include a plurality of save destination candidate positions that are save destination candidates.
  • FIG. 10 is a diagram showing an example of the layout information of the modified example (2).
  • each position on the curve C1 drawn so as to surround the golf course is a retreat destination candidate position.
  • the evacuation destination candidate position is a position estimated that the hit ball does not fly or a position estimated that the player does not see.
  • the evacuation destination candidate position may be designated in advance by a golf course manager or the like.
  • the curve C1 is a line in which the dotted line C2 is divided.
  • the area around the dotted line C2 is not set as a retreat destination candidate position because there is a possibility that a hit ball may pass because the player performs a shortcut.
  • the layout information of this modification may be information defining the save destination candidate position, and is not limited to the method of determining the save destination candidate position as shown in FIG.
  • each of the plurality of save destination candidate positions may not be on the curve and may be separated from each other.
  • each position on the golf course and an evacuation destination candidate position may be associated with the layout information.
  • FIG. 11 is a diagram illustrating a method of determining a save destination in the modification (2).
  • the evacuation destination determination unit 54 acquires aircraft position information related to the position P20 of the unmanned aircraft 20.
  • the aircraft position information may be information that can identify the position of the unmanned aircraft 20, and here, a case where the latitude and longitude information detected by the GPS sensor 24B is used as the aircraft position information will be described.
  • the save destination determination unit 54 converts the latitude / longitude information of the aircraft position information into coordinates in the layout information.
  • the aircraft position information may be base station information (for example, wireless LAN access point information) with which the communication unit 23 of the unmanned aircraft 20 performs wireless communication.
  • the evacuation destination determination unit 54 specifies an evacuation destination candidate position within a predetermined distance from the position P20 indicated by the aircraft position information among the plurality of evacuation destination candidate positions determined in the layout information. If there is one identified save destination candidate position, the save destination determination unit 54 determines this save destination candidate position as a save destination. On the other hand, if there are a plurality of specified save destination candidate positions, the save destination determination unit 54 selects one of them and determines it as a save destination. This selection method may be arbitrary. For example, the evacuation destination determination unit 54 may select one at random, or may select the evacuation destination candidate position P21 that is closest to the position indicated by the aircraft position information. In the example of FIG. 11, since the evacuation destination candidate position is set in the OB area of the golf course, the evacuation destination is determined so that a sufficient altitude is secured so as not to contact an obstacle such as a tree. You may be made to do.
  • the process of determining the save destination can be simplified. Further, the golf course manager can specify in advance a position to be a candidate for the evacuation destination.
  • the line-of-sight direction of the player is determined in the layout information.
  • the line-of-sight direction of the player is determined based on the captured image captured by the camera 24A of the unmanned aircraft 20. It may be estimated.
  • the server 10 of the modified example (3) includes a line-of-sight direction estimation unit 57.
  • the line-of-sight direction estimation unit 57 is realized mainly by the control unit 11.
  • the line-of-sight direction estimation unit 57 estimates the line-of-sight direction of the player based on the captured image captured by the camera 24A.
  • Various known gaze estimation algorithms can be applied to the method of estimating the gaze direction from the captured image. For example, a template image indicating the basic shape of the face direction may be prepared in the storage unit 22 for each line-of-sight direction. In this case, the line-of-sight direction estimation unit 57 performs template matching between the captured image and each template image to identify the template image with the highest similarity.
  • the line-of-sight direction estimation unit 57 acquires the line-of-sight direction associated with the identified template image.
  • the line-of-sight direction indicated by the template image is a relative line-of-sight direction when viewed from the unmanned aircraft 20.
  • the line-of-sight direction estimation unit 57 determines the absolute line-of-sight direction of the player based on the direction of the unmanned aircraft 20 specified using the geomagnetic sensor or the gyro sensor of the sensor unit 24 and the direction indicated by the template image. Will be estimated.
  • the retreat destination determination unit 54 determines a retreat destination based on the gaze direction estimated by the gaze direction estimation unit 57.
  • the save destination determination method may be executed by a method in which the description of “estimated line-of-sight direction” in Modification Example (1) is read as “the line-of-sight direction estimated by the line-of-sight direction estimation unit 57”.
  • the evacuation destination is determined based on the line-of-sight direction estimated from the photographed image, so that the unmanned aircraft 20 can be evacuated without entering the player's current field of view.
  • the unmanned aircraft 20 when the unmanned aircraft 20 is retreated, if the player moves in a direction crossing the player's field of view, the player may feel the unmanned aircraft 20 in an annoying manner.
  • the unmanned aircraft 20 may be evacuated.
  • the save destination determination unit 54 of the modification (4) is a position (for example, a position in the save destination candidate area) determined based on the layout information, and a position in the direction from the participant toward the unmanned aircraft 20 Is determined as the save destination.
  • FIG. 12 is a diagram for explaining a method of evacuating the unmanned aerial vehicle 20 in the modification (4).
  • the evacuation destination determination unit 54 determines a position P32 in the direction from the position P30 indicated by the participant position information to the position P31 indicated by the aircraft position information as the evacuation destination.
  • the position P32 may be a position on a straight line from the position P30 to the position P31, or may be a position within a predetermined distance from this straight line.
  • the unmanned aircraft 20 retreats away from the player, and the movement of the unmanned aircraft 20 up, down, left, and right is reduced when viewed from the player. Therefore, when the unmanned aircraft 20 retreats, the player is obstructed. It can be prevented from feeling.
  • the unmanned aircraft 20 when the unmanned aircraft 20 is evacuated to the windward side as viewed from the player, the rotating sound of the propeller is likely to reach the player. There is a possibility that the rotating sound of the propeller gets in the way of the players in the address.
  • the unmanned aircraft 20 when the unmanned aircraft 20 is in the leeward direction as viewed from the athlete, the rotation sound of the propeller is difficult to reach to the athlete, so the unmanned aircraft 20 can rotate the propeller without having to evacuate so far. Sound may not get in the way of players in the address. For this reason, the evacuation destination of the unmanned aircraft 20 may be determined in consideration of the wind on the golf course.
  • the server 10 of the modified example (5) includes a wind information acquisition unit 58.
  • the wind information acquisition unit 58 is realized mainly by the control unit 11.
  • the wind information acquisition unit 58 acquires wind information related to at least one of the wind direction and the wind speed of the golf course. Although the case where the wind information indicates both the wind direction and the wind speed will be described here, only one of them may be indicated.
  • the wind information acquisition unit 58 may acquire wind information from a measurement unit that measures wind, or acquire wind information from a computer that provides wind information (for example, a server computer of an organization that provides weather information). May be.
  • the measuring means is, for example, an anemometer or a wind direction wind speed sensor.
  • the anemometer and the wind direction wind speed sensor may be set at an arbitrary position on the golf course, or may be provided in the unmanned aircraft 20 or the participant terminal 30.
  • the unmanned aerial vehicle 20 may estimate wind information by free-falling from the sky even if it is not particularly equipped with an anemometer or a wind direction and wind speed sensor. In this case, the unmanned aerial vehicle 20 may acquire the distance carried by the wind during the free fall using the acceleration sensor of the sensor unit 24 and estimate the wind information based on the distance.
  • the evacuation destination determination unit 54 determines the evacuation destination based on the wind information. For example, the save destination determination unit 54 determines a save destination candidate area in the same manner as the method described in the embodiment and the modification. This save destination candidate area is determined without considering the wind. For this reason, the save destination determination unit 54 corrects the save destination candidate area based on the wind information. For example, the evacuation destination determination unit 54 corrects the evacuation destination candidate area so that when the unmanned aircraft 20 evacuates to the leeward side, the evacuation destination candidate area moves longer than the evacuation side. That is, the evacuation destination determination unit 54 corrects the evacuation destination candidate area so that when the unmanned aircraft 20 evacuates to the leeward side, the evacuation destination determination area 54 moves a shorter distance than when the unmanned aircraft 20 evacuates to the leeward side. In the case where the unmanned aircraft 20 retreats in the direction perpendicular to the wind direction, the same travel distance may be used as in the case of no wind.
  • the unmanned aircraft 20 since the evacuation destination is determined based on the wind information, even when the unmanned aircraft 20 evacuates to the windward side, the propeller rotation sound reaches the athlete on the wind. Can be prevented. Further, when the unmanned aircraft 20 is evacuated to the leeward side, it is difficult for the rotation sound of the propeller to reach the player. Therefore, by keeping the moving distance to a minimum, battery and fuel consumption when the unmanned aircraft 20 is evacuated Can be suppressed.
  • the unmanned aircraft 20 when the unmanned aircraft 20 is in the vicinity of a place where it can land, when the player addresses, the unmanned aircraft 20 may be landed so as not to disturb the player.
  • the evacuation destination determination unit 57 determines whether there is a place where landing is possible under the unmanned aerial vehicle 20, and determines the place determined as landing possible as the evacuation destination. For example, the save destination determination unit 37 determines whether there is a place where landing is possible based on the layout information. For example, an area in which landing is possible may be specified in advance in the layout information, and it may be determined whether landing is possible depending on the type of area defined in the layout information. Here, a case will be described in which the evacuation destination determination unit 37 determines whether landing is possible according to the type of area.
  • the evacuation destination determination unit 37 determines that landing is possible when the position of the unmanned aircraft 20 is over the fairway, and landing is not possible when the position of the unmanned aircraft 20 is over the OB or a pond. Is determined. If the evacuation destination determination unit 37 determines that landing is possible, the evacuation destination determination unit 37 determines a position where landing is possible as the evacuation destination. This position may be a position below the current position of the unmanned aerial vehicle 20, and may be directly below, or may be the ground within a predetermined distance from directly below. Note that if the evacuation destination determination unit 37 determines that the position is impossible to land, the evacuation destination may be determined in the same manner as in the methods described in the embodiments and modifications (1) to (5).
  • the unmanned aircraft 20 can be landed so as not to disturb the player. For example, since the rotation of the propeller stops when the unmanned aerial vehicle 20 lands, it is possible to prevent the player from being concentrated due to the rotation sound of the propeller.
  • the save destination determination unit 57 of the modified example (7) determines a save direction that can be saved from a plurality of save directions that have been determined in priority order, and the save that has the highest priority among the save directions determined to be saveable. Based on the direction, the save destination is determined.
  • FIG. 13 is a diagram showing priorities in the retreat direction.
  • the priorities shown in FIG. 13 may be stored in the data storage unit 50 in advance.
  • the save destination determination unit 57 determines whether save in that direction is possible in order from the highest priority based on the layout information.
  • the evacuation destination determination unit 57 determines that evacuation is impossible when there is an obstacle in the evacuation direction. If the save destination determining unit 57 determines that the save is possible, the save destination determining unit 57 determines the position in the direction as the save destination. On the other hand, if it is determined that the save destination cannot be saved, the save destination determination unit 57 determines whether the save can be performed in the save direction of the next priority. Thereafter, the determination is repeated until a retractable retreat direction is found.
  • the save destination determination unit 57 may determine whether or not it is possible to save in order from the lowest priority, or may determine all save directions. The save destination determination unit 57 may determine the save destination based on the highest save order in the save directions that can be saved.
  • the unmanned aircraft 20 can be retreated in the retreat direction with a high priority, the unmanned aircraft 20 can be retreated in a direction that does not disturb the retreatable direction.
  • the unmanned aircraft 20 may be disturbed by moving the unmanned aircraft 20 or the unmanned aircraft 20 may be an obstacle. In this case, the unmanned aircraft 20 may be placed on the spot.
  • the evacuation unit of the modification (8) causes the unmanned aircraft 20 to stand by on the spot. In this case, the unmanned aerial vehicle 20 performs the hovering control so as to remain on the spot.
  • the unmanned aircraft 20 waits on the spot, so that the player is forced to move and obstruct the player.
  • the degree of getting in the way can be suppressed.
  • the situation determination unit 55 determines the progress based on the captured image taken by the unmanned aircraft 20, but other situations that can be detected by the unmanned airplane 20 may be used.
  • the situation determination unit 55 may determine the progress situation based on the voice detected by the unmanned aircraft 20. In this case, when the microphone of the sensor unit 24 detects a predetermined sound, the situation determination unit 55 determines that the given progress situation has been reached.
  • the situation determination unit 55 may determine the progress situation based on an operation input to a terminal such as the participant terminal 30.
  • the person or player who manages the progress performs a predetermined operation on the terminal, and the situation determination unit 55 determines that the given progress situation has been reached when the predetermined operation is input to the terminal.
  • the situation determination unit 55 may determine the progress situation based on the participant position information. In this case, the situation determination unit 55 determines that the given progress situation has been reached when the position indicated by the participant position information is within the predetermined area.
  • the situation determination unit 55 may determine the progress situation based on the current time. In this case, the situation determination unit 55 determines that the given progress situation has been reached when the current time has reached a predetermined time.
  • the timing at which the unmanned aircraft 20 retreats is not limited thereto.
  • the processing of the situation determination unit 55 may be omitted, and the evacuation unit 56 is unmanned as a evacuation destination when the unmanned aircraft 20 plays a player with the camera 24A, or when the player 24 takes a picture of the player with the camera 24A.
  • the aircraft 20 may be retreated.
  • Information may be provided based on information acquired by the unmanned aircraft 20.
  • the unmanned aerial vehicle 20 can detect wind information over the golf course (refer to the modification example (5))
  • information may be provided based on the wind information detected by the unmanned aircraft 20 at the destination.
  • the wind information itself may be provided to players, spectators, and the like, and the server 10 and the unmanned aircraft 20 perform from the position indicated by the participant position information based on the layout information and the wind information.
  • the recommended trajectory of the shot may be calculated, and the calculation result may be provided to players, spectators, and the like.
  • the recommended trajectory may be calculated using a known golf simulator so that the landing point is a predetermined area on the fair fay (that is, an area that is not an OB or a bunker).
  • the recommended trajectory may be provided as an image or sound, or may be provided depending on the position of the unmanned aircraft 20.
  • the unmanned aircraft 20 may provide the recommended trajectory by moving on the trajectory so as to indicate the recommended trajectory, or by moving to an arbitrary position on the recommended trajectory and hovering. In this case, if the unmanned aerial vehicle 20 stays on the spot when the player addresses, the ball hits the ball or enters the field of view of the participant.
  • the determination unit 55 determines that the situation is a predetermined situation, the unmanned aircraft 20 is retreated from the current position to the retreat destination.
  • the unmanned aircraft 20 can detect voice
  • the voice detected at the destination may be provided.
  • the unmanned aerial vehicle 20 can detect the climate and temperature
  • the climate and temperature detected at the destination may be provided.
  • the unmanned aerial vehicle evacuation system 1 can be applied to other competitions.
  • the unmanned aerial vehicle evacuation system 1 can be applied even when the unmanned aerial vehicle 20 photographs a ski jumping competition.
  • the unmanned aerial vehicle 20 takes a picture of the player on the jumping platform.
  • the unmanned aerial vehicle 20 retreats in a direction determined based on the layout information.
  • the situation in which the player starts is specified by, for example, the color of the signal that is a start signal.
  • the layout information defines the stadium layout.
  • the unmanned aerial vehicle evacuation system 1 can also be applied when the unmanned aerial vehicle 20 captures an event venue other than a competition.
  • each function described above may be realized by any computer of the unmanned aircraft evacuation system 1, and the function described as being realized by the server 10 is the unmanned aircraft 20 or the participant terminal 30. It may be realized with. Similarly, the function described as being realized by the unmanned aerial vehicle 20 may be realized by the server 10 or the participant terminal 30. Furthermore, among the functions described above, functions other than the participant position information acquisition unit 51, the movement instruction unit 52, the layout information acquisition unit 53, the save destination determination unit 54, and the save unit 56 may be omitted.

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

無人航空機を利用して競技やイベントの開催場所に関する情報を提供する場合に、参加者の邪魔にならないようにする。無人航空機退避システム(1)の参加者位置情報取得手段(51)は、競技又はイベントの開催場所における参加者の位置に関する参加者位置情報を取得する。移動指示手段(52)は、参加者位置情報に基づいて定まる位置に移動するように、開催場所に関する情報を提供するための無人航空機に指示する。レイアウト情報取得手段(53)は、開催場所のレイアウトに関するレイアウト情報を取得する。退避先決定手段(54)は、参加者位置情報とレイアウト情報とに基づいて、無人航空機の退避先を決定する。退避手段(56)は、退避先決定手段により決定された退避先に無人航空機を退避させる。

Description

無人航空機退避システム、無人航空機退避方法、及びプログラム
 本発明は、無人航空機退避システム、無人航空機退避方法、及びプログラムに関する。
 従来、無人航空機を利用して任意の場所に関する情報を提供する技術が知られている。例えば、特許文献1には、予め定められた飛行ルートに従って無人航空機を飛行させ、上空から家屋やビルなどをカメラで撮影した撮影画像を提供するシステムが記載されている。
特開2005-269413号公報
 無人航空機を利用して競技やイベントに関する情報を提供する場合、無人航空機が参加者の邪魔になることがあるため、その場に留まらない方が好ましいことがある。例えば、ゴルフの大会が開催されているゴルフコースの状況を無人航空機が撮影する場合に、ボールが飛び出す方向からプレイヤを撮影すると、無人航空機が打球に接触する可能性がある。また例えば、無人航空機がプレイヤの近くで撮影すると、プロペラの回転音のためにプレイヤがショットに集中できない可能性がある。また例えば、プレイヤがアドレスした後に無人航空機が正面から撮影してプレイヤの視界に入ると、プレイヤが無人航空機を目障りに感じてショットに集中できない可能性がある。
 本発明は上記課題に鑑みてなされたものであって、その目的は、無人航空機を利用して競技やイベントの開催場所に関する情報を提供する場合に、参加者の邪魔にならないようにすることである。
 上記課題を解決するために、本発明に係る無人航空機退避システムは、競技又はイベントの開催場所における参加者の位置に関する参加者位置情報を取得する参加者位置情報取得手段と、前記参加者位置情報に基づいて定まる位置に移動するように、前記開催場所に関する情報を提供するための無人航空機に指示する移動指示手段と、前記開催場所のレイアウトに関するレイアウト情報を取得するレイアウト情報取得手段と、前記参加者位置情報と前記レイアウト情報とに基づいて、前記無人航空機の退避先を決定する退避先決定手段と、前記退避先決定手段により決定された退避先に前記無人航空機を退避させる退避手段と、を含むことを特徴とする。
 本発明に係る無人航空機退避方法は、競技又はイベントの開催場所における参加者の位置に関する参加者位置情報を取得する参加者位置情報取得ステップと、前記参加者位置情報に基づいて定まる位置に移動するように、前記開催場所に関する情報を提供するための無人航空機に指示する移動指示ステップと、前記開催場所のレイアウトに関するレイアウト情報を取得するレイアウト情報取得ステップと、前記参加者位置情報と前記レイアウト情報とに基づいて、前記無人航空機の退避先を決定する退避先決定ステップと、前記退避先決定ステップにより決定された退避先に前記無人航空機を退避させる退避ステップと、を含むことを特徴とする。
 本発明に係るプログラムは、競技又はイベントの開催場所における参加者の位置に関する参加者位置情報を取得する参加者位置情報取得手段、前記参加者位置情報に基づいて定まる位置に移動するように、前記開催場所に関する情報を提供するための無人航空機に指示する移動指示手段、前記開催場所のレイアウトに関するレイアウト情報を取得するレイアウト情報取得手段、前記参加者位置情報と前記レイアウト情報とに基づいて、前記無人航空機の退避先を決定する退避先決定手段、前記退避先決定手段により決定された退避先に前記無人航空機を退避させる退避手段、としてコンピュータを機能させる。
 また、本発明に係る情報記憶媒体は、上記のプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体である。
 また、本発明の一態様では、前記レイアウト情報には、前記開催場所における複数の位置の各々と、前記退避先の基準方向と、が関連付けられており、前記退避先決定手段は、前記参加者の位置に関連付けられた前記基準方向に基づいて退避先を決定する、ことを特徴とする。
 また、本発明の一態様では、前記開催場所では、前記参加者が物体を飛ばす競技が開催され、前記基準方向は、前記開催場所の各位置から前記物体が飛び出すと推定される推定飛び出し方向であり、前記退避先決定手段は、前記参加者の位置に関連付けられた前記推定飛び出し方向に基づいて退避先を決定する、ことを特徴とする。
 また、本発明の一態様では、前記基準方向は、前記開催場所の各位置から前記参加者が見ると推定される推定視線方向であり、前記退避先決定手段は、前記参加者の位置に関連付けられた前記推定視線方向に基づいて退避先を決定する、ことを特徴とする。
 また、本発明の一態様では、前記レイアウト情報には、退避先の候補となる複数の退避先候補位置が定められており、前記退避先決定手段は、前記複数の退避先候補位置のうち、前記無人航空機の位置から所定距離以内の退避先候補を退避先として決定する、ことを特徴とする。
 また、本発明の一態様では、前記退避先決定手段は、前記レイアウト情報に基づいて定まる位置であって、かつ、前記参加者の位置から所定距離以上離れた位置を、退避先として決定する、ことを特徴とする。
 また、本発明の一態様では、前記無人航空機は、前記参加者を撮影するカメラを含み、前記無人航空機退避システムは、前記カメラが撮影した撮影画像に基づいて、前記参加者の視線方向を推定する視線方向推定手段を更に含み、前記退避先決定手段は、前記視線方向推定手段により推定された視線方向に基づいて、前記退避先を決定する、ことを特徴とする。
 また、本発明の一態様では、前記退避先決定手段は、前記レイアウト情報に基づいて定まる位置であって、かつ、前記参加者から前記無人航空機に向けた方向にある位置を、退避先として決定する、ことを特徴とする。
 また、本発明の一態様では、前記無人航空機退避システムは、前記開催場所の風向及び風速の少なくとも一方に関する風情報を取得する風情報取得手段を更に含み、前記退避先決定手段は、前記風情報に基づいて、前記退避先を決定する、ことを特徴とする。
 また、本発明の一態様では、前記退避先決定手段は、前記無人航空機の下に着陸可能な場所があるかを判定し、着陸可能と判定した場所を退避先として決定する、ことを特徴とする。
 また、本発明の一態様では、前記退避先決定手段は、優先順位が定められた複数の退避方向の中から退避可能な退避方向を判定し、退避可能と判定した退避方向のうち最も優先順位の高い退避方向に基づいて、退避先を決定する、ことを特徴とする。
 また、本発明の一態様では、前記退避手段は、前記退避先決定手段により退避可能な退避方向がないと判定された場合は、前記無人航空機をその場で待機させる、ことを特徴とする。
 また、本発明の一態様では、前記無人航空機退避システムは、前記無人航空機が検出した状況、端末に入力された操作、前記参加者位置情報、及び、現在の時間の少なくとも一つに基づいて、前記競技又は前記イベントが所与の進行状況になったかを判定する状況判定手段を更に含み、前記退避手段は、前記状況判定手段により前記所与の進行状況になったと判定された場合に、前記無人航空機を退避させる、ことを特徴とする。
 本発明によれば、無人航空機を利用して競技やイベントの開催場所に関する情報を提供する場合に、参加者の邪魔にならないようにすることが可能になる。
無人航空機退避システムのハードウェア構成を示す図である。 無人航空機退避システムの処理の概要を示す図である。 無人航空機退避システムで実現される機能の一例を示す機能ブロック図である。 レイアウト情報の一例を示す図である。 退避先の決定方法の説明図である。 無人航空機退避システムにおいて実行される処理の一例を示すフロー図である。 変形例の機能ブロック図である。 変形例(1)のレイアウト情報の一例を示す図である。 変形例(1)における退避先の決定方法の説明図である。 変形例(2)のレイアウト情報の一例を示す図である。 変形例(2)における退避先の決定方法を示す図である。 変形例(4)における無人航空機の退避方法を説明するための図である。 退避方向の優先順位を示す図である。
[1.無人航空機退避システムのハードウェア構成]
 以下、本発明に関わる無人航空機退避システムの実施形態の例を説明する。図1は、無人航空機退避システムのハードウェア構成を示す図である。図1に示すように、無人航空機退避システム1は、サーバ10、無人航空機20、及び参加者端末30を含む。サーバ10、無人航空機20、及び参加者端末30は、それぞれネットワークを介してデータ送受信可能に接続される。なお、図1では、サーバ10、無人航空機20、及び参加者端末30を1台ずつ記載しているが、これらは複数台ずつあってもよい。
 サーバ10は、サーバコンピュータである。サーバ10は、制御部11、記憶部12、及び通信部13を含む。制御部11は、例えば、一又は複数のマイクロプロセッサを含む。制御部11は、記憶部12に記憶されたプログラムやデータに従って処理を実行する。記憶部12は、主記憶部及び補助記憶部を含む。例えば、主記憶部はRAMなどの揮発性メモリであり、補助記憶部は、ハードディスクやフラッシュメモリなどの不揮発性メモリである。通信部13は、有線通信又は無線通信用のネットワークカードを含む。通信部13は、ネットワークを介してデータ通信を行う。
 無人航空機20は、人が搭乗しない航空機であり、例えば、バッテリーで駆動する無人航空機(いわゆるドローン)やエンジンで駆動する無人航空機である。無人航空機20は、制御部21、記憶部22、通信部23、及びセンサ部24を含む。なお、無人航空機20は、プロペラ・モーター・バッテリーなどの一般的なハードウェアも含むが、ここでは省略している。また、制御部21、記憶部22、及び通信部23のハードウェア構成は、それぞれ制御部11、記憶部12、及び通信部13と同様であるので説明を省略する。無人航空機20は、任意の場所の情報を提供するために用いられる。提供対象となる情報は、センサ部24により検出可能な情報であればよく、例えば、画像(静止画又は動画)、音声、気候、温度、又は風などである。
 センサ部24は、カメラ24A及びGPSセンサ24Bを含む。カメラ24Aは、CCDイメージセンサやCMOSイメージセンサなどの撮像素子で撮影した画像(静止画又は動画)をデジタルデータとして記録する。GPSセンサ24Bは、衛星からの信号を受信する受信機を含み、位置情報を検出する。なお、無人航空機20には、任意のセンサが搭載されてよく、センサ部24は、赤外線センサ、音声センサ(マイク)、風向風速センサ、加速度センサ、ジャイロセンサ、地磁気センサ、高度センサ、変位センサ、又は温度センサ等を含んでもよい。
 参加者端末30は、競技又はイベントの参加者が操作するコンピュータであり、例えば、携帯情報端末(タブレット型コンピュータを含む)、携帯電話機(スマートフォンを含む)、又はパーソナルコンピュータ等である。競技は、個人又はチームが所定のルールのもとで競うものであればよく、スポーツやレースなどであってよい。例えば、競技は、ゴルフなどの球技、スキー、射撃、陸上競技、又はカーレースなどである。イベントは、行事や催し物などであり、例えば、コンサート、展示会、又は祭りなどである。参加者は、競技又はイベントの開催場所にいる人間であればよい。競技であれば選手、チームスタッフ、審判、又は運営スタッフなどが参加者に相当する。イベントであれば開催者又は運営スタッフなどが参加者に相当する。なお、競技やイベントの主催者及び国や自治体は、事前に、無人航空機20が開催場所の上空を飛行することを許可しているものとする。
 参加者端末30は、制御部31、記憶部32、通信部33、操作部34、表示部35、及びGPSセンサ36を含む。制御部31、記憶部32、及び通信部33、及びGPSセンサ36のハードウェア構成は、それぞれ制御部11、記憶部12、通信部13、及びGPSセンサ24Bと同様であるので説明を省略する。
 操作部34は、プレイヤが操作を行うための入力デバイスであり、例えば、タッチパネルやマウス等のポインティングデバイスやキーボード等である。操作部34は、プレイヤによる操作内容を制御部31に伝達する。表示部35は、例えば、液晶表示部又は有機EL表示部等である。表示部35は、制御部31の指示に従って画面を表示する。
 なお、記憶部12,22,32に記憶されるものとして説明するプログラム及びデータは、ネットワークを介してこれらに供給されるようにしてもよい。また、サーバ10、無人航空機20、及び参加者端末30のハードウェア構成は、上記の例に限られず、種々のコンピュータのハードウェアを適用可能である。例えば、サーバ10、無人航空機20、及び参加者端末30の各々は、コンピュータ読み取り可能な情報記憶媒体を読み取る読取部(例えば、光ディスクドライブやメモリカードスロット)を含んでもよい。この場合、情報記憶媒体に記憶されたプログラムやデータが読取部を介して、各コンピュータに供給されるようにしてもよい。
[2.無人航空機退避システムの処理の概要]
 図2は、無人航空機退避システム1の処理の概要を示す図である。本実施形態では、無人航空機20が、ゴルフの競技会に参加する選手を撮影して視聴者や観客に提供する場合を説明する。即ち、競技の一例がゴルフであり、開催場所の一例がゴルフコースであり、参加者の一例が選手である場合を説明する。図2に示すように、無人航空機20は、ゴルフコース40でラウンド中の選手41の近くに飛行して撮影する。ここでは、選手41は、自分のボール付近に立っている。選手41は、現在位置42からグリーン43の方向を向くことが多いので、無人航空機20は、ボールの現在位置42から見てグリーン43側の位置44から撮影すると、ショット前の選手の表情をうまく撮影することができる。
 しかし、選手41がアドレスした場合、無人航空機20が位置44で撮影を続けていると選手41の視界に入ったままなので、選手41がショットに集中できなくなる可能性がある。また例えば、無人航空機20は、選手41が狙う方向にいるので、打球に接触する可能性もある。他にも例えば、無人航空機20が選手41の近くでホバリングしていると、プロペラの回転音のために選手41が集中できない可能性もある。このため、本実施形態では、選手41がアドレスするまでは無人航空機20が位置44から撮影し、選手41がアドレスすると無人航空機20が選手41の邪魔にならない場所45に退避するようになっている。以降、当該技術の詳細について説明する。
[3.無人航空機退避システムにおいて実現される機能]
 図3は、無人航空機退避システム1で実現される機能の一例を示す機能ブロック図である。図3に示すように、本実施形態では、データ記憶部50、参加者位置情報取得部51、移動指示部52、レイアウト情報取得部53、及び退避先決定部54が、サーバ10で実現され、状況判定部55及び退避部56が、無人航空機20で実現される場合を説明する。
[3-1.データ記憶部]
 データ記憶部50は、記憶部12を主として実現される。データ記憶部50は、無人航空機20が情報を提供したり退避したりするためのデータを記憶する。ここでは、データ記憶部50が記憶するデータとして、レイアウト情報データベースを説明する。レイアウト情報データベースには、ゴルフコースのレイアウトに関するレイアウト情報が格納される。本実施形態では、ゴルフコースでゴルフの競技会が開催されているので、レイアウト情報データベースには、ゴルフコースごと(ホールごと)にレイアウト情報が格納される。
 図4は、レイアウト情報の一例を示す図である。図4に示すように、レイアウト情報は、ゴルフコースの地形、及び、グリーン・ピン・フェアウェイ・ラフ・バンカー・池・障害物・OBなどの各エリアの配置を示す情報である。本実施形態では、レイアウト情報は、ゴルフコースのレイアウトを2次元的なマップで表したものとして説明するが、仮想3次元空間内の3Dモデルデータでゴルフコースのレイアウトが表されてもよい。図4の例では、中盤以降が右曲がりになるゴルフコースを例に挙げて説明する。なお、ゴルフコース外の領域は、全てOBとする。
 レイアウト情報には、ゴルフコースにおける複数の位置の各々と、退避先の基準方向と、が関連付けられている。基準方向は、無人航空機20の退避先を決定するための方向である。競技の一例として説明するゴルフは、選手が物体(ボール)を飛ばす競技なので、基準方向の一例として、ゴルフコースの各位置から当該物体が飛び出すと推定される推定飛び出し方向を説明する。推定飛び出し方向は、ゴルフコースの管理者などが予め指定する。例えば、推定飛び出し方向は、ゴルフコース内の各位置から目標位置に向けた方向である。目標位置は、その位置に物体があると競技を有利に進めることができる位置であり、例えば、フェアウェイやグリーンである。なお、ここでは、推定飛び出し方向を2次元ベクトルとして説明するが、レイアウト情報が3Dモデルで表される場合には、推定飛び出し方向は3次元ベクトルで示されてもよい。
 ここでは、ゴルフコースが複数のエリアに分割されており、エリアごとに推定飛び出し方向が定められている場合を説明する。なお、1箇所につき、推定視線方向は2つ以上であってもよい。例えば、図4の例では、ゴルフコースが3つのエリアA1~A3に分割されている。エリアA1は、ゴルフコースの前半のエリアであり、例えば、ティーグラウンドから見て正面方向が推定飛び出し方向V1として関連付けられている。エリアA2は、ゴルフコースの中盤のエリアであり、例えば、エリアA2からOBの領域を飛び越してグリーンにショートカットする方向が推定飛び出し方向V2として関連付けられている。エリアA3は、ゴルフコースの終盤のエリアであり、グリーンに向けた方向が推定飛び出し方向V3として関連付けられている。
 なお、データ記憶部50に記憶されるデータは上記の例に限られない。例えば、データ記憶部50は、レイアウト情報におけるゴルフコースの座標と、現実空間の緯度経度情報と、の関連付けを記憶してもよい。
[3-2.参加者位置情報取得部]
 参加者位置情報取得部51は、制御部11を主として実現される。参加者位置情報取得部51は、ゴルフコースにおける選手の位置に関する参加者位置情報を取得する。参加者位置情報は、選手の位置を特定可能な情報であればよく、ここでは、GPSセンサ36が検出した緯度経度情報を参加者位置情報として用いる場合を説明する。緯度経度情報は、地球上の南北方向の位置及び東西方向の位置を特定する情報であり、例えば、度・分・秒の各数値により示される。なお、参加者位置情報は、参加者端末30の通信部33が無線通信する基地局情報(例えば、無線LANのアクセスポイント情報)であってもよい。
[3-3.移動指示部]
 移動指示部52は、制御部11を主として実現される。移動指示部52は、参加者位置情報に基づいて定まる位置に移動するように、ゴルフコースに関する情報を提供するための無人航空機20に指示する。なお、情報提供は、選手(参加者の一例)に対して行われてもよいし、選手以外の人間に対して行われてもよい。即ち、情報の提供相手は任意であってよく、無人航空機20は、選手に情報を提供するためのものであってもよいし、選手以外の人間に情報を提供するためのものであってもよい。
 参加者位置情報に基づいて定まる位置とは、無人航空機20が情報を取得すべき位置であり、参加者位置情報が示す位置と所定の位置関係を有する位置である。本実施形態では、参加者位置情報に基づいて定まる位置は、無人航空機20が選手を撮影すべき位置である。以降、この位置を、無人航空機20の移動先という。例えば、参加者位置情報が示す位置と、無人航空機20の移動先と、の位置関係は、データ記憶部50に記憶されているようにすればよい。この位置関係は、数式形式で示されてもよいし、テーブル形式で示されてもよい。移動指示部52は、参加者位置情報が示す位置に関連付けられた移動先に移動するように指示することになる。例えば、移動指示部52は、参加者位置情報が示す位置から所定距離以内の位置を、無人航空機20の移動先として決定するようにしてもよい。
 また例えば、上記の位置関係は、レイアウト情報に定められていてもよい。即ち、移動指示部52は、参加者位置情報とレイアウト情報とに基づいて、無人航空機20の移動先を決定してもよい。例えば、本実施形態のように、レイアウト情報に推定飛び出し方向が定められている場合、移動指示部52は、参加者位置情報が示す位置から、当該位置に関連付けられた推定飛び出し方向に所定距離だけ離れた位置を移動先として決定してもよい。
 なお、移動先は、緯度経度情報のように2次元的な位置のみを示していてもよいし、高度を含む3次元的な位置を示してもよい。移動先が緯度経度情報のような2次元的な位置のみを示す場合、無人航空機20は、予め定められた所定の高度に移動する。なお、高度は、固定値であってもよいし、レイアウト情報に基づいて定まるようにしてもよい。
[3-4.レイアウト情報取得部]
 レイアウト情報取得部53は、制御部11を主として実現される。レイアウト情報取得部53は、ゴルフコースのレイアウトに関するレイアウト情報を取得する。レイアウト情報取得部53は、データ記憶部50に記憶されたレイアウト情報を取得する。ここでは、複数のゴルフコースごとにレイアウト情報がデータ記憶部50に記憶されているので、レイアウト情報取得部53は、参加者位置情報に基づいて選手がいるゴルフコースを特定し、当該特定されたゴルフコースのレイアウト情報を取得することになる。
[3-5.退避先決定部]
 退避先決定部54は、制御部11を主として実現される。退避先決定部54は、参加者位置情報とレイアウト情報とに基づいて、無人航空機20の退避先を決定する。本実施形態では、ゴルフコースの各位置に推定飛び出し方向が定められているので、退避先決定部54は、選手の位置に関連付けられた推定飛び出し方向(基準方向の一例)に基づいて退避先を決定することになる。
 図5は、退避先の決定方法の説明図である。図5に示すように、退避先決定部54は、参加者位置情報が示す選手の位置P1と、当該位置P1を含むエリアA2に関連付けられた推定飛び出し方向V2と、に基づいて、打球が飛ぶ可能性のある推定打球領域R1を決定する。位置P1及び推定飛び出し方向V2と、推定打球領域R1と、の関係は、データ記憶部50に予め記憶されているものとする。この関係は、数式形式であってもよいし、テーブル形式であってもよい。退避先決定部54は、位置P1及び推定飛び出し方向V2に関連付けられた推定打球領域R1を取得する。
 例えば、退避先決定部54は、位置P1と、位置P1から推定飛び出し方向V2に所定距離だけ離れた位置P2と、を結ぶ線分L1を、位置P1を中心にして右回り及び左回りに所定角度θ1だけ回転させた場合に直線L1が通る領域を推定打球領域R1とする。推定打球領域R1は、位置P1,P3,P4で囲まれた領域となる。退避先決定部54は、推定打球領域R1の外の任意の位置を退避先として決定する。
 本実施形態では、退避先決定部54は、レイアウト情報に基づいて定まる位置(例えば、推定打球領域R1の外の位置)であって、かつ、参加者位置情報が示す位置P1から所定距離以上離れた位置を、退避先として決定する。例えば、退避先決定部54は、位置P1を中心とした所定半径の円である選手領域R2を特定する。そして、退避先決定部54は、推定打球領域R1及び選手領域R2の両方の外の何れかの位置を退避先として決定する。以降、推定打球領域R1及び選手領域R2の両方の外の領域を、退避先候補領域という。
 退避先決定部54は、退避先候補領域内の任意の位置を退避先として選択すればよく、例えば、退避先候補領域からランダムに1つの位置を選択してもよいし、無人航空機20の移動先から所定距離以内になる位置を選択してもよい。また例えば、退避先決定部54は、退避先候補領域のうち、無人航空機20の移動先から最も近い位置を退避先として決定してもよい。他にも例えば、退避先決定部54は、退避先候補領域内のうち、推定飛び出し方向V2とは逆方向側にある位置を退避先として決定してもよい。
 なお、退避先候補領域であったとしても、図5に示す位置P5は、OBのエリアであり無人航空機20が木などの障害物に接触する可能性があるので、退避先決定部54は、障害物のないフェアウェイ上の位置P6を退避先として決定してもよい。退避先決定部54は、レイアウト情報に基づいて障害物がある場所を特定してもよいし、無人航空機20のセンサ部24の検出結果(例えば、カメラ24Aの撮影画像や赤外線センサによる物体有無の検出結果)に基づいて障害物がある場所を特定してもよい。
 また、退避先は、緯度経度情報のように2次元的な位置のみを示していてもよいし、高度を含む3次元的な位置を示してもよい。退避先が緯度経度情報のような2次元的な位置のみを示す場合、無人航空機20は、予め定められた所定の高度に移動する。なお、高度は、固定値であってもよいし、レイアウト情報に基づいて定まるようにしてもよい。例えば、退避先としてOBのエリアも設定可能にする場合には、退避先がフェアウェイ上である場合よりも十分な高度が確保されるように、退避先の高度が設定されるようにしてもよい。
[3-6.状況判定部]
 状況判定部55は、制御部21を主として実現される。状況判定部55は、ゴルフの競技会が所与の進行状況になったかを判定する。所与の進行状況とは、無人航空機20が退避すべき状況であり、無人航空機20が現在の位置にいると選手の邪魔になる状況である。例えば、所定の進行状況は、選手が所定の動作(例えば、ショット)をする状況、又は、選手が所定の動作をするための予備動作(例えば、アドレス)をする状況である。ここでは、選手がアドレスすることが、所定の進行状況になることに相当する場合を説明する。
 本実施形態では、状況判定部55は、無人航空機20が検出した状況に基づいて、ゴルフの競技会が所与の進行状況になったかを判定する場合を説明する。無人航空機20が検出する状況は、ゴルフコースにおける状況であればよく、センサ部24で検出可能な情報であればよい。ここでは、カメラ24Aが撮影した撮影画像が、無人航空機20が検出した状況に相当する場合を説明する。
 例えば、状況判定部55は、所定の進行状況になるときの選手の姿勢を示すテンプレート画像を利用してテンプレートマッチングを行うことで、アドレスした選手が撮影画像に撮影されているかを判定する。テンプレート画像は、ゴルフクラブを構えた人型を示すものであり、予めデータ記憶部50に記憶されているものとする。テンプレートマッチング自体は、公知の手法を適用可能である。撮影画像は、被探索画像として用いられる。例えば、状況判定部55は、撮影画像の各領域と、テンプレート画像と、をパターンマッチングして互いの類似度を計算する。類似度が高いほど画像同士が類似していることを示し、類似度が低いほど画像同士が類似していないことを示す。類似度の計算は、これらの画素値の差異に基づいて計算すればよい。例えば、画素値の差異が小さいほど類似度が高くなる。状況判定部55は、類似度が閾値以上である場合に、選手がアドレスして所与の進行状況になったと判定する。
[3-7.退避部]
 退避部56は、制御部21を主として実現される。退避部56は、退避先決定部54により決定された退避先に無人航空機20を退避させる。指定された位置に無人航空機20を移動させる方法自体は、公知の自動操縦方法で行われるようにすればよい。例えば、退避部56は、GPSセンサ24Bが検出した緯度経度情報を現在地とし、退避先の緯度経度情報を目的地に設定することによって、無人航空機20を自動飛行させるようにすればよい。無人航空機20は、退避部56の制御により、現在地から目的地に向けた方向が進行方向となるように、プロペラの制御を行うことになる。進行方向は、センサ部24の地磁気センサから得られた方角を利用して決定されるようにすればよい。
 本実施形態では、退避部56は、状況判定部55により所与の進行状況になったと判定された場合に、無人航空機20を退避させる。即ち、退避部56は、状況判定部55により所与の進行状況になったと判定されない場合は、無人航空機20を退避させず移動指示部52が指示した位置で撮影を継続させ、状況判定部55により所与の進行状況になったと判定された場合に、無人航空機20を退避させることになる。
[4.無人航空機退避システムにおいて実行される処理]
 図6は、無人航空機退避システム1において実行される処理の一例を示すフロー図である。図6に示す処理は、制御部11,21,31が、それぞれ記憶部12,22,32に記憶されたプログラムに従って動作することによって実行される。本実施形態では、下記に説明する処理が実行されることにより、図4に示す機能ブロックが実現される。
 図6に示すように、まず、サーバ10においては、制御部11は、参加者端末30に対して参加者位置情報を要求する(S1)。なお、参加者端末30のIPアドレスは、予め記憶部12に記憶されており、参加者位置情報の要求は、所定形式のデータをこのIPアドレスに対して送信することで実行される。
 参加者端末30においては、要求を受け付けると、制御部31は、GPSセンサ36が検出した参加者位置情報をサーバ10に送信する(S2)。S2においては、制御部31は、GPSセンサ36が衛星からの信号に基づいて検出した緯度経度情報を、参加者位置情報として送信することになる。
 サーバ10においては、参加者位置情報を受信すると、制御部11は、受信した参加者位置情報に基づいて、無人航空機20の移動先を決定する(S3)。S3においては、制御部11は、参加者位置情報の緯度経度情報から所定方向に離れた緯度経度情報を移動先として決定する。
 制御部11は、受信した参加者位置情報と、記憶部12に記憶されたレイアウト情報と、に基づいて、無人航空機20の退避先を決定する(S4)。S4においては、まず、制御部11は、参加者位置情報の緯度経度情報をレイアウト情報の座標に変換し、当該座標に関連付けられた推定飛び出し方向を取得する。制御部11は、参加者位置情報が示す位置と、推定飛び出し方向に基づいて、推定打球領域R1を計算する。更に、制御部11は、参加者位置情報に基づいて、選手領域R2を計算する。制御部11は、推定打球領域R1及び選手領域R2の外の退避先候補領域内の位置を選択し、緯度経度情報に変換することによって退避先を取得する。
 制御部11は、S3で決定した移動先に移動するように、無人航空機20に移動指示を送信する(S5)。なお、本実施形態では、サーバ10がS4で退避先を決定しているので、移動指示には、移動先と退避先の両方が含まれているものとする。移動指示は、所定のデータ形式により行われるようにすればよい。
 無人航空機20においては、移動指示を受信すると、制御部21は、S3で決定された移動先に無人航空機20を移動させる(S6)。S6においては、制御部21は、自動操縦アルゴリズムの目的地に、S3で決定された移送先を設定することで、無人航空機20の移動を開始する。
 制御部21は、無人航空機20が移動先に到着したかを判定する(S7)。S7においては、制御部21は、GPSセンサ24Bが検出した緯度経度情報と移動先の緯度経度情報とが一致したかを判定する。移動先に到着したと判定された場合(S7;Y)、制御部21は、カメラ24Aで選手の様子を撮影し(S8)、画像データをサーバ10に送信する(S9)。なお、制御部21は、カメラ24Aで撮影したまま移動先で回転し、撮影画像に対して人物認識処理を施すことによって、選手がいる位置を特定してもよい。制御部21は、当該特定した位置に向けた方向がカメラ24Aの撮影方向となるように、無人航空機20の向きを調整してもよい。S8の撮影は、動画モードで行われてもよいし、静止画モードで行われてもよい。
 無人航空機20においては、制御部21は、撮影画像に基づいて、選手がアドレスしたかを判定する(S10)。S10においては、制御部21は、撮影画像と、アドレスの姿勢を示すテンプレート画像と、のテンプレートマッチングを行うことによって、選手がアドレスしたかを判定する。
 選手がアドレスしたと判定された場合(S10;Y)、制御部21は、選手がアドレスした旨の通知をサーバ10に送信し(S11)、退避先に無人航空機20を退避させる(S12)。S11の通知は、所定のデータ形式で行われるようにすればよい。S12においては、制御部21は、自動操縦アルゴリズムの目的地として、S4で決定された退避先を設定することで、無人航空機20の移動を開始する。一方、選手がアドレスに入ったと判定されない場合(S11;N)、S6の処理に戻り、S11の通知は送信されない。
 サーバ10においては、S9で送信された画像データを受信すると、制御部11は、受信した画像データに基づいて、観客や視聴者などに対して選手の情報提供を行う(S13)。S13においては、制御部11は、例えば、観客席に設けられた表示部に撮影画像を表示させたり、ネットワーク経由で動画をストリーミング配信したりすることによって情報提供を行うことになる。
 制御部11は、アドレスした旨の通知を受信したかを判定する(S14)。アドレスした旨の通知を受信したと判定されない場合(S14;N)、S1に戻り、参加者位置情報の要求が再び実行される。S1以降の処理が再度実行されることによって、例えば、選手が自分のボールの位置に向けて歩いているときでも、移動先や退避先が更新されるので、無人航空機20は、選手を追いかけるように移動することができ、退避先も最新の参加者位置情報に対応するものとすることができる。一方、アドレスした旨の通知を受信したと判定された場合(S14;Y)、本処理は終了する。
 以上説明した無人航空機退避システム1によれば、無人航空機20が選手を撮影すると退避先に退避するので、選手の邪魔にならないようにすることができる。この点、無人航空機20をランダムに定まる方向に退避させると、ゴルフコースのレイアウトによっては逆に選手の邪魔になってしまう(例えば、選手が狙っている方向に退避してしまう)ことがあるが、退避先は参加者位置情報とレイアウト情報に基づいて定まるので、選手の現在の位置とゴルフコースのレイアウトに応じた場所に無人航空機20を退避させることができ、選手の邪魔にならないようにする確実性を高めることができる。
 また、選手の位置に関連付けられた基準方向に基づいて退避先が決定されることで、無人航空機20は、選手の位置に応じた方向に退避することができるので、選手の邪魔にならないようにする確実性をより高めることができる。
 更に、基準方向を推定飛び出し方向とすることで、ゴルフのように物体を飛ばす競技において、選手の邪魔にならないようにする確実性をより高めることができる。
 また、選手の位置から所定距離以上離れた位置を退避先とすることで、無人航空機20が選手から離れた位置に退避するので、プロペラの回転音のために選手が集中できないような状況が発生するのを防止することができる。
 また、選手のアドレスなどの所与の進行状況になった場合に無人航空機20を退避させることで、無人航空機20を退避させるべき状況になるまでは選手の撮影を継続させ、無人航空機20を退避させるべき状況になった場合に無人航空機20を退避させて選手の邪魔にならないようにすることができる。
[5.変形例]
 なお、本発明は、以上に説明した実施の形態に限定されるものではない。本発明の趣旨を逸脱しない範囲で、適宜変更可能である。
 図7は、変形例の機能ブロック図である。図7に示すように、下記に説明する変形例では、実施形態の機能に加えて、視線方向推定部57及び風情報取得部58が実現される。ここでは、これらがサーバ10で実現される場合を説明する。
 (1)例えば、実施形態では、基準方向が打球の推定飛び出し方向である場合を説明したが、アドレスした選手は、推定飛び出し方向以外の方向を見ることも多い。このため、選手の視界に無人航空機20が入るのを避けるために、基準方向は、ゴルフコースの各位置から選手が見ると推定される推定視線方向であってもよい。
 図8は、変形例(1)のレイアウト情報の一例を示す図である。図8に示すように、ここでは、実施形態と同様に、ゴルフコースが3つのエリアA1~A3に分割されている場合を説明する。推定視線方向は、ゴルフコースの管理者などが予め指定する。例えば、推定視線方向は、ゴルフコース内の各位置から目標位置に向けた方向、又は、目標位置に向けてショットする場合に選手の体若しくは顔が向く方向である。目標位置の意味は、実施形態と同様であってよい。なお、ここでは、推定視線方向を2次元ベクトルとして説明するが、レイアウト情報が3Dモデルで表される場合には3次元ベクトルで示されてもよい。
 図8の例では、エリアA1~A3の各々には、推定視線方向が2つずつ関連付けられている。なお、1箇所につき、推定視線方向は1つであってもよいし3つ以上であってもよい。例えば、エリアA1には、推定飛び出し方向V1と同じ方向の推定視線方向U1と、推定飛び出し方向V1にショットする場合に選手の体又は顔が向く方向の推定視線方向U2と、が関連付けられている。また例えば、エリアA2には、推定飛び出し方向V2と同じ方向の推定視線方向U3と、推定飛び出し方向V2にショットする場合に選手の体又は顔が向く方向の推定視線方向U4と、が関連付けられている。また例えば、エリアA3には、推定飛び出し方向V3と同じ方向の推定視線方向U5と、推定飛び出し方向V3にショットする場合に選手の体又は顔が向く方向の推定視線方向U6と、が関連付けられている。
 上記のように、本変形例では、ゴルフコースの各位置に推定視線方向が定められているので、退避先決定部54は、選手の位置に関連付けられた推定視線方向に基づいて退避先を決定することになる。
 図9は、変形例(1)における退避先の決定方法の説明図である。図9に示すように、ここでは、退避先決定部54は、参加者位置情報が示す選手の位置P10と、当該位置P10を含むエリアA2に関連付けられた推定視線方向U3,U4と、に基づいて、選手が見る可能性のある推定視線領域R3,R4を決定する場合を説明する。位置P10及び推定視線方向U3,U4と、推定視線領域R3,R4と、の関係は、データ記憶部50に予め記憶されているものとする。この関係は、数式形式であってもよいし、テーブル形式であってもよい。退避先決定部54は、位置P10及び推定視線方向U3,U4に関連付けられた推定視線領域R3,R4を取得する。
 例えば、退避先決定部54は、位置P10と、位置P10から推定視線方向U3に所定距離だけ離れた位置P11と、を結ぶ線分L2を、位置P10を中心にして右回り及び左回りに所定角度θ2だけ回転させた場合に線分L2が通る領域を推定視線領域R3とする。推定視線領域R3は、位置P10,P12,P13で囲まれた領域となる。同様に、退避先決定部54は、位置P10と、位置P10から推定視線方向U4に所定距離だけ離れた位置P14と、を結ぶ線分L3を、位置P10を中心にして右回り及び左回りに所定角度θ3だけ回転させた場合に線分L3が通る領域を推定視線領域R4とする。推定視線領域R4は、位置P10,P15,P16で囲まれた領域となる。なお、角度θ1~θ3は、互いに同じであってもよいし異なってもよい。同様に、線分L1~L3は、互いに同じであってもよいし異なってもよい。
 なお、変形例(1)においても、実施形態と同様に、退避先決定部54は、位置P10を中心とした所定半径の円である選手領域R5を特定してもよい。そして、退避先決定部54は、推定視線領域R3,R4及び選手領域R5の両方の外の何れかの位置を退避先として決定する。即ち、変形例(1)では、推定視線領域R3,R4及び選手領域R5の両方の外の領域が、退避先候補領域となる。退避先決定部54が退避先候補領域に基づいて退避先を決定する処理は、実施形態と同様である。
 変形例(1)によれば、基準方向を推定視線方向とすることで、選手が見ると推定される方向に無人航空機20がいないようにすることで、選手の視界に無人航空機20を入れないようにすることができるので、選手の邪魔にならないようにする確実性をより高めることができる。
 (2)また例えば、実施形態や変形例(1)では、基準方向がレイアウト情報に定められている場合を説明したが、レイアウト情報は、退避先を決定するために用いられる情報であればよく、レイアウト情報には、退避先の候補となる複数の退避先候補位置が定められているようにしてもよい。
 図10は、変形例(2)のレイアウト情報の一例を示す図である。図10に示すように、ここでは、ゴルフコースの周囲を囲むように引かれた曲線C1上の各位置が退避先候補位置となる。例えば、退避先候補位置は、打球が飛んでこないと推定される位置、又は、選手が見ないと推定される位置である。退避先候補位置は、ゴルフコースの管理者などにより予め指定されるようにすればよい。なお、図10の例では、曲線C1は、点線C2の部分が分断された線となっている。実施形態で説明したように、点線C2の周辺は、選手がショートカットするために打球が通る可能性があるため、退避先候補位置として設定されていない。
 なお、本変形例のレイアウト情報は、退避先候補位置を定義した情報であればよく、図10のような退避先候補位置の定め方に限られない。例えば、複数の退避先候補位置の各々は、曲線上になくてもよい、互いに離れていてもよい。他にも例えば、レイアウト情報には、ゴルフコース上の各位置と、退避先候補位置と、が関連付けられていてもよい。
 本変形例の退避先決定部54は、複数の退避先候補位置のうち、無人航空機20の位置から所定距離以内の退避先候補を退避先として決定することになる。図11は、変形例(2)における退避先の決定方法を示す図である。図11に示すように、まず、退避先決定部54は、無人航空機20の位置P20に関する航空機位置情報を取得する。航空機位置情報は、無人航空機20の位置を特定可能な情報であればよく、ここでは、GPSセンサ24Bが検出した緯度経度情報を航空機位置情報として用いる場合を説明する。退避先決定部54は、航空機位置情報の緯度経度情報をレイアウト情報における座標に変換する。なお、航空機位置情報は、無人航空機20の通信部23が無線通信する基地局情報(例えば、無線LANのアクセスポイント情報)であってもよい。
 退避先決定部54は、レイアウト情報に定められた複数の退避先候補位置のうち、航空機位置情報が示す位置P20から所定距離以内の退避先候補位置を特定する。退避先決定部54は、特定した退避先候補位置が1つであれば、この退避先候補位置を退避先として決定する。一方、退避先決定部54は、特定した退避先候補位置が複数であれば、そのうちの1つを選出して退避先として決定する。この選出方法は、任意であってよい。例えば、退避先決定部54は、ランダムに1つを選出してもよいし、航空機位置情報が示す位置から最も近い退避先候補位置P21を選択するようにしてもよい。なお、図11の例では、退避先候補位置は、ゴルフコースのOBエリアに設定されているので、木などの障害物に接触しない程度に十分な高度が確保されるように、退避先が決定されるようにしてもよい。
 変形例(2)によれば、レイアウト情報に退避先候補位置が定められているので、退避先を決定する処理を簡略化することができる。更に、ゴルフコースの管理者が退避先の候補となる位置を予め指定することができる。
 (3)また例えば、変形例(1)ではレイアウト情報に選手の推定視線方向が定められている場合を説明したが、無人航空機20のカメラ24Aで撮影した撮影画像に基づいて選手の視線方向を推定してもよい。
 変形例(3)のサーバ10は、視線方向推定部57を含む。視線方向推定部57は、制御部11を主として実現される。視線方向推定部57は、カメラ24Aが撮影した撮影画像に基づいて、選手の視線方向を推定する。撮影画像から視線方向を推定する方法自体は、公知の種々の視線推定アルゴリズムを適用可能である。例えば、視線方向ごとに、顔の向きの基本形状を示すテンプレート画像を記憶部22に用意しておいてもよい。この場合、視線方向推定部57は、撮影画像と、各テンプレート画像と、をテンプレートマッチングして、最も類似度の高いテンプレート画像を特定する。そして、視線方向推定部57は、当該特定したテンプレート画像に関連付けられた視線方向を取得する。なお、このテンプレート画像が示す視線方向は、無人航空機20から見たときの相対的な視線方向である。このため、視線方向推定部57は、センサ部24の地磁気センサやジャイロセンサを用いて特定される無人航空機20の向きと、テンプレート画像が示す向きと、に基づいて選手の絶対的な視線方向を推定することになる。
 退避先決定部54は、視線方向推定部57により推定された視線方向に基づいて、退避先を決定する。退避先の決定方法は、変形例(1)の「推定視線方向」の記載を「視線方向推定部57により推定された視線方向」と読み替えた方法で実行されるようにすればよい。
 変形例(3)によれば、撮影画像から推定される視線方向に基づいて退避先が決定されるので、選手の現在の視界に無人航空機20を入らないように退避させることができる。
 (4)また例えば、無人航空機20が退避する場合に選手の視界を横切る方向に移動すると、選手は無人航空機20を目障りに感じてしまうことがあるので、選手から無人航空機20を見た方向に無人航空機20を退避させてもよい。
 変形例(4)の退避先決定部54は、レイアウト情報に基づいて定まる位置(例えば、退避先候補領域内の位置)であって、かつ、参加者から無人航空機20に向けた方向にある位置を、退避先として決定する。
 図12は、変形例(4)における無人航空機20の退避方法を説明するための図である。図12に示すように、退避先決定部54は、参加者位置情報が示す位置P30から航空機位置情報が示す位置P31に向けた方向にある位置P32を退避先として決定する。なお、位置P32は、位置P30から位置P31に向けた直線上にある位置であってもよいし、この直線から所定距離以内の位置であってもよい。
 変形例(4)によれば、選手から遠ざかるように無人航空機20が退避し、選手から見て上下左右の無人航空機20の移動が少なくなるので、無人航空機20が退避する場合に選手が目障りに感じることを防止することができる。
 (5)また例えば、選手から見て風上の方に無人航空機20が退避する場合には、プロペラの回転音が選手のもとまで届きやすいので、無人航空機20は遠くまで退避しなければ、プロペラの回転音がアドレス中の選手の邪魔になってしまう可能性がある。一方、選手から見て風下の方に無人航空機20がいる場合には、プロペラの回転音が選手のもとまで届きにくいので、無人航空機20は、それほど遠くまで退避しなくても、プロペラの回転音がアドレス中の選手の邪魔にならない可能性がある。このため、ゴルフコース上の風を考慮にいれて無人航空機20の退避先が決定されてもよい。
 変形例(5)のサーバ10は、風情報取得部58を含む。風情報取得部58は、制御部11を主として実現される。風情報取得部58は、ゴルフコースの風向及び風速の少なくとも一方に関する風情報を取得する。ここでは、風情報が、風向及び風速の両方を示す場合を説明するが、何れか一方のみを示してもよい。例えば、風情報取得部58は、風を計測する計測手段から風情報を取得してもよいし、風情報を提供するコンピュータ(例えば、気象情報を提供する組織のサーバコンピュータ)から風情報を取得してもよい。
 計測手段は、例えば、風速計又は風向風速センサである。風速計や風向風速センサは、ゴルフコース上の任意の位置に設定されていてもよいし、無人航空機20や参加者端末30に備えられていてもよい。また、無人航空機20は、風速計や風向風速センサを特に備えていなくても、上空から自由落下することで風情報を推定してもよい。この場合、無人航空機20は、センサ部24の加速度センサなどを利用して、自由落下中に風により流された距離を取得し、当該距離に基づいて風情報を推定すればよい。
 退避先決定部54は、風情報に基づいて、退避先を決定することになる。例えば、退避先決定部54は、実施形態及び変形例で説明した方法と同様にして、退避先候補領域を決定する。この退避先候補領域は、風を考慮せずに決定されたものである。このため、退避先決定部54は、風情報に基づいて退避先候補領域を補正する。例えば、退避先決定部54は、無人航空機20が風上側に退避する場合には、風下側に退避する場合よりも長い距離を移動するように、退避先候補領域を補正する。即ち、退避先決定部54は、無人航空機20が風下側に退避する場合には、風上側に退避する場合よりも短い距離を移動するように、退避先候補領域を補正する。なお、風向きに対して垂直方向側に無人航空機20が退避する場合には、無風の場合と同じ移動距離としてもよい。
 変形例(5)によれば、風情報に基づいて退避先が決定されるので、無人航空機20が風上側に退避する場合であっても、プロペラの回転音が風に乗って選手に届いてしまうことを防止することができる。また、無人航空機20が風下側に退避する場合には、プロペラの回転音が選手に届きにくいので、移動距離を最低限にとどめることにより、無人航空機20が退避するときの電池や燃料の消費量を抑えることができる。
 (6)また例えば、無人航空機20が着陸可能な場所付近にいる場合には、選手がアドレスした場合に、無人航空機20を着陸させることで選手の邪魔にならないようにしてもよい。
 退避先決定部57は、無人航空機20の下に着陸可能な場所があるかを判定し、着陸可能と判定した場所を退避先として決定する。例えば、退避先決定部37は、レイアウト情報に基づいて着陸可能な場所があるかを判定する。例えば、レイアウト情報に、予め着陸可能な領域が指定されていてもよいし、レイアウト情報に定められたエリアの種類により着陸可能か否かが判定されてもよい。ここでは、退避先決定部37は、エリアの種類に応じて着陸可能かを判定する場合を説明する。
 例えば、退避先決定部37は、無人航空機20の位置がフェアウェイ上空であった場合には着陸可能と判定し、無人航空機20の位置がOBや池などの上空であった場合には着陸不可能と判定する。退避先決定部37は、着陸可能であると判定した場合、着陸可能な位置を退避先として決定する。この位置は、無人航空機20の現在の位置の下側の位置であればよく、真下であってもよいし、真下から所定距離以内の地面であってもよい。なお、退避先決定部37は、着陸不可能な位置であると判定した場合、実施形態や変形例(1)~(5)で説明した方法と同様にして退避先を決定すればよい。
 変形例(6)によれば、無人航空機20を着陸させることで、選手の邪魔にならないようにすることができる。例えば、無人航空機20が着陸すればプロペラの回転が停止するため、プロペラの回転音のために選手が集中できないようなことを防止することができる。
 (7)また例えば、退避先候補領域の中から退避先を決定する場合に、複数の退避方向に優先順位を付けておいて、優先順位の高い退避方向で退避してもよい。変形例(7)の退避先決定部57は、優先順位が定められた複数の退避方向の中から退避可能な退避方向を判定し、退避可能と判定した退避方向のうち最も優先順位の高い退避方向に基づいて、退避先を決定する。
 図13は、退避方向の優先順位を示す図である。図13に示す優先順位は、予めデータ記憶部50に記憶させておけばよい。例えば、退避先決定部57は、レイアウト情報に基づいて、優先順位が上のものから順番に、その方向での退避が可能かを判定する。退避先決定部57は、退避方向に障害物がある場合には、退避不可能であると判定する。退避先決定部57は、退避可能であると判定した場合は、その方向上の位置を退避先として決定する。一方、退避先決定部57は、退避不可能であると判定した場合は、次の優先順位の退避方向で退避可能かを判定する。以降、退避可能な退避方向が見つかるまで判定を繰り返すことになる。
 なお、ここでは、優先順位が上のものから順番に退避可能か判定される場合を説明したが、特に判定の順番はこれに限られない。退避先決定部57は、優先順位が下のものから順番に退避可能か判定してもよいし、全ての退避方向について判定してもよい。退避先決定部57は、退避可能な退避方向のうち最も優先順位の高いものに基づいて退避先を決定すればよい。
 変形例(7)によれば、優先順位の高い退避方向で無人航空機20を退避させることができるので、退避可能な方向のうち、より邪魔にならない方向に無人航空機20を退避させることができる。
 (8)また例えば、変形例(7)において退避可能な退避方向が無いと判定された場合には、無人航空機20を移動させるとかえって選手の邪魔になってしまったり、無人航空機20が障害物と接触してしまったりするので、その場合は、無人航空機20をその場で待機させるようにしてもよい。変形例(8)の退避部は、退避先決定部により退避可能な退避方向がないと判定された場合は、無人航空機20をその場で待機させる。この場合、無人航空機20は、その場で留まるようにホバリング制御を行うことになる。
 変形例(8)によれば、退避可能な退避方向が無い場合は、無人航空機20がその場で待機することによって、無理に移動して余計に選手の邪魔になってしまう場合よりも、選手の邪魔になる程度を抑えることができる。
 (9)また例えば、上記変形例(1)~(8)の何れか2つ以上を組み合わせるようにしてもよい。
 また例えば、実施形態では、状況判定部55は、無人航空機20が撮影した撮影画像に基づいて進行状況を判定したが、無人航空機20が検出可能な他の状況を用いてもよい。例えば、状況判定部55は、無人航空機20が検出した音声に基づいて進行状況を判定してもよい。この場合、センサ部24のマイクが所定の音声を検出した場合に、状況判定部55は、所与の進行状況になったと判定する。他にも例えば、状況判定部55は、参加者端末30などの端末に入力された操作に基づいて進行状況を判定してもよい。この場合、進行を管理する人間又は選手が端末に所定の操作を行い、状況判定部55は、所定の操作が端末に入力された場合に所与の進行状況になったと判定する。また例えば、状況判定部55は、参加者位置情報に基づいて進行状況を判定してもよい。この場合、状況判定部55は、参加者位置情報が示す位置が所定領域内にある場合に、所与の進行状況になったと判定する。また例えば、状況判定部55は、現在の時間に基づいて進行状況を判定してもよい。この場合、状況判定部55は、現在の時間が所定の時間になった場合に、所与の進行状況になったと判定する。
 また例えば、状況判定部55により所定の状況であると判定された場合に無人航空機20が退避する場合を説明したが、無人航空機20が退避するタイミングはこれに限られない。例えば、状況判定部55の処理は省略してもよく、退避部56は、無人航空機20がカメラ24Aで選手をした場合、又は、カメラ24Aで選手を一定時間撮影した場合に、退避先に無人航空機20を退避させるようにしてもよい。
 また例えば、実施形態では、観客や視聴者に対する情報提供が行われる場合を説明したが、選手に対する情報提供が行われてもよい。更に、無人航空機20が撮影した画像が提供される場合を説明したが、提供対象となるものは画像に限られない。無人航空機20が取得した情報に基づいて情報提供が行われるようにすればよい。例えば、無人航空機20がゴルフコース上空における風情報(変形例(5)参照)を検出可能な場合、無人航空機20が移動先で検出した風情報に基づいて情報提供が行われるようにしてもよい。この場合、風情報そのものが選手や観客などに対して提供されるようにしてもよいし、サーバ10や無人航空機20は、レイアウト情報と風情報に基づいて、参加者位置情報が示す位置から行うショットの推奨弾道を計算して、その計算結果が選手や観客などに提供されるようにしてもよい。推奨弾道は、公知のゴルフシミュレータを利用して、着地点がフェアフェイ上などの所定の領域(即ち、OBやバンカーなどではない領域)となるように計算されるようにすればよい。推奨弾道は、画像や音声として提供されてもよいし、無人航空機20の位置によって提供されてもよい。例えば、無人航空機20は、推奨弾道を示すように当該弾道上を移動したり、推奨弾道上の任意の位置に移動してホバリングしたりすることによって、推奨弾道を提供してもよい。この場合、選手がアドレスした場合に無人航空機20がその場に留まると打球に接触したり参加者の視界に入ったりするので、実施形態で説明した方法と同様にして、退避部56は、状況判定部55により所定の状況であると判定された場合に、無人航空機20を現在の位置から退避先に退避させることになる。
 他にも例えば、無人航空機20が音声を検出可能な場合には、移動先で検出した音声が提供されるようにしてもよい。更に、無人航空機20が気候や温度を検出可能な場合には、移動先で検出した気候や温度が提供されるようにしてもよい。
 また例えば、実施形態では、ゴルフの競技会の様子を無人航空機20が撮影する場合を説明したが、他の競技にも本発明に係る無人航空機退避システム1を適用することができる。例えば、スキージャンプの競技会の様子を無人航空機20が撮影する場合にも無人航空機退避システム1を適用することができる。この場合、選手がジャンプ台にいる様子を無人航空機20が撮影する。そして、選手がスタートする状況になった場合に、無人航空機20は、レイアウト情報に基づいて定まる方向に退避する。選手がスタートする状況は、例えば、スタートの合図となる信号の色によって特定される。この場合、レイアウト情報には、競技場のレイアウトが定められている。例えば、ジャンプ台によっては、リフト、鉄骨、及び照明などのように無人航空機20にとって障害物となりうる物の配置が異なるため、レイアウト情報には、これらの配置が定められていることになる。他にも例えば、競技以外のイベント会場の様子を無人航空機20が撮影する場合にも無人航空機退避システム1を適用することができる。
 また例えば、上記説明した各機能は、無人航空機退避システム1の何れかのコンピュータで実現されるようにすればよく、サーバ10で実現されるものとして説明した機能が無人航空機20又は参加者端末30で実現されてもよい。同様に、無人航空機20で実現されるものとして説明した機能がサーバ10又は参加者端末30で実現されてもよい。更に、上記説明した各機能のうち、参加者位置情報取得部51、移動指示部52、レイアウト情報取得部53、退避先決定部54、及び退避部56以外の機能は省略してもよい。
 

Claims (15)

  1.  競技又はイベントの開催場所における参加者の位置に関する参加者位置情報を取得する参加者位置情報取得手段と、
     前記参加者位置情報に基づいて定まる位置に移動するように、前記開催場所に関する情報を提供するための無人航空機に指示する移動指示手段と、
     前記開催場所のレイアウトに関するレイアウト情報を取得するレイアウト情報取得手段と、
     前記参加者位置情報と前記レイアウト情報とに基づいて、前記無人航空機の退避先を決定する退避先決定手段と、
     前記退避先決定手段により決定された退避先に前記無人航空機を退避させる退避手段と、
     を含むことを特徴とする無人航空機退避システム。
  2.  前記レイアウト情報には、前記開催場所における複数の位置の各々と、前記退避先の基準方向と、が関連付けられており、
     前記退避先決定手段は、前記参加者の位置に関連付けられた前記基準方向に基づいて退避先を決定する、
     ことを特徴とする請求項1に記載の無人航空機退避システム。
  3.  前記開催場所では、前記参加者が物体を飛ばす競技が開催され、
     前記基準方向は、前記開催場所の各位置から前記物体が飛び出すと推定される推定飛び出し方向であり、
     前記退避先決定手段は、前記参加者の位置に関連付けられた前記推定飛び出し方向に基づいて退避先を決定する、
     ことを特徴とする請求項2に記載の無人航空機退避システム。
  4.  前記基準方向は、前記開催場所の各位置から前記参加者が見ると推定される推定視線方向であり、
     前記退避先決定手段は、前記参加者の位置に関連付けられた前記推定視線方向に基づいて退避先を決定する、
     ことを特徴とする請求項2に記載の無人航空機退避システム。
  5.  前記レイアウト情報には、退避先の候補となる複数の退避先候補位置が定められており、
     前記退避先決定手段は、前記複数の退避先候補位置のうち、前記無人航空機の位置から所定距離以内の退避先候補を退避先として決定する、
     ことを特徴とする請求項1~4の何れかに記載の無人航空機退避システム。
  6.  前記退避先決定手段は、前記レイアウト情報に基づいて定まる位置であって、かつ、前記参加者の位置から所定距離以上離れた位置を、退避先として決定する、
     ことを特徴とする請求項1~5の何れかに記載の無人航空機退避システム。
  7.  前記無人航空機は、前記参加者を撮影するカメラを含み、
     前記無人航空機退避システムは、前記カメラが撮影した撮影画像に基づいて、前記参加者の視線方向を推定する視線方向推定手段を更に含み、
     前記退避先決定手段は、前記視線方向推定手段により推定された視線方向に基づいて、前記退避先を決定する、
     ことを特徴とする請求項1~6の何れかに記載の無人航空機退避システム。
  8.  前記退避先決定手段は、前記レイアウト情報に基づいて定まる位置であって、かつ、前記参加者から前記無人航空機に向けた方向にある位置を、退避先として決定する、
     ことを特徴とする請求項1~7の何れかに記載の無人航空機退避システム。
  9.  前記無人航空機退避システムは、前記開催場所の風向及び風速の少なくとも一方に関する風情報を取得する風情報取得手段を更に含み、
     前記退避先決定手段は、前記風情報に基づいて、前記退避先を決定する、
     ことを特徴とする請求項1~8の何れかに記載の無人航空機退避システム。
  10.  前記退避先決定手段は、前記無人航空機の下に着陸可能な場所があるかを判定し、着陸可能と判定した場所を退避先として決定する、
     ことを特徴とする請求項1~9の何れかに記載の無人航空機退避システム。
  11.  前記退避先決定手段は、優先順位が定められた複数の退避方向の中から退避可能な退避方向を判定し、退避可能と判定した退避方向のうち最も優先順位の高い退避方向に基づいて、退避先を決定する、
     ことを特徴とする請求項1~10の何れかに記載の無人航空機退避システム。
  12.  前記退避手段は、前記退避先決定手段により退避可能な退避方向がないと判定された場合は、前記無人航空機をその場で待機させる、
     ことを特徴とする請求項11に記載の無人航空機退避システム。
  13.  前記無人航空機退避システムは、前記無人航空機が検出した状況、端末に入力された操作、前記参加者位置情報、及び、現在の時間の少なくとも一つに基づいて、前記競技又は前記イベントが所与の進行状況になったかを判定する状況判定手段を更に含み、
     前記退避手段は、前記状況判定手段により前記所与の進行状況になったと判定された場合に、前記無人航空機を退避させる、
     ことを特徴とする請求項1~12の何れかに記載の無人航空機退避システム。
  14.  競技又はイベントの開催場所における参加者の位置に関する参加者位置情報を取得する参加者位置情報取得ステップと、
     前記参加者位置情報に基づいて定まる位置に移動するように、前記開催場所に関する情報を提供するための無人航空機に指示する移動指示ステップと、
     前記開催場所のレイアウトに関するレイアウト情報を取得するレイアウト情報取得ステップと、
     前記参加者位置情報と前記レイアウト情報とに基づいて、前記無人航空機の退避先を決定する退避先決定ステップと、
     前記退避先決定ステップにより決定された退避先に前記無人航空機を退避させる退避ステップと、
     を含むことを特徴とする無人航空機退避方法。
  15.  競技又はイベントの開催場所における参加者の位置に関する参加者位置情報を取得する参加者位置情報取得手段、
     前記参加者位置情報に基づいて定まる位置に移動するように、前記開催場所に関する情報を提供するための無人航空機に指示する移動指示手段、
     前記開催場所のレイアウトに関するレイアウト情報を取得するレイアウト情報取得手段、
     前記参加者位置情報と前記レイアウト情報とに基づいて、前記無人航空機の退避先を決定する退避先決定手段、
     前記退避先決定手段により決定された退避先に前記無人航空機を退避させる退避手段、
     としてコンピュータを機能させるためのプログラム。
PCT/JP2015/086582 2015-12-29 2015-12-29 無人航空機退避システム、無人航空機退避方法、及びプログラム WO2017115448A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/064,457 US11132005B2 (en) 2015-12-29 2015-12-29 Unmanned aerial vehicle escape system, unmanned aerial vehicle escape method, and program
JP2017558839A JP6345889B2 (ja) 2015-12-29 2015-12-29 無人航空機退避システム、無人航空機退避方法、及びプログラム
PCT/JP2015/086582 WO2017115448A1 (ja) 2015-12-29 2015-12-29 無人航空機退避システム、無人航空機退避方法、及びプログラム
CN201580085594.3A CN108473201B (zh) 2015-12-29 2015-12-29 无人飞行器退避系统、无人飞行器退避方法和记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/086582 WO2017115448A1 (ja) 2015-12-29 2015-12-29 無人航空機退避システム、無人航空機退避方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2017115448A1 true WO2017115448A1 (ja) 2017-07-06

Family

ID=59224893

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/086582 WO2017115448A1 (ja) 2015-12-29 2015-12-29 無人航空機退避システム、無人航空機退避方法、及びプログラム

Country Status (4)

Country Link
US (1) US11132005B2 (ja)
JP (1) JP6345889B2 (ja)
CN (1) CN108473201B (ja)
WO (1) WO2017115448A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019239694A1 (ja) * 2018-06-15 2019-12-19 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および情報処理システム
JPWO2019168045A1 (ja) * 2018-02-28 2020-08-06 株式会社ナイルワークス ドローン、その制御方法、および、制御プログラム
JP2021137330A (ja) * 2020-03-05 2021-09-16 株式会社竹中工務店 浮遊体移動制御装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9758246B1 (en) * 2016-01-06 2017-09-12 Gopro, Inc. Systems and methods for adjusting flight control of an unmanned aerial vehicle
US10591911B2 (en) * 2017-06-22 2020-03-17 Korea University Research And Business Foundation Apparatus and method for controlling drone formation
JP6712682B1 (ja) * 2018-12-25 2020-06-24 楽天株式会社 配置場所の決定方法、輸送システム、及び情報処理装置
CN112154654A (zh) * 2019-08-21 2020-12-29 深圳市大疆创新科技有限公司 比赛拍摄方法、电子设备、无人机与存储介质
US20230143934A1 (en) * 2021-11-10 2023-05-11 Honeywell International Inc. Selective video analytics based on capture location of video

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269413A (ja) * 2004-03-19 2005-09-29 Chugoku Electric Power Co Inc:The 無人飛行体を利用した空中撮影システム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004175209A (ja) * 2002-11-27 2004-06-24 Fuji Heavy Ind Ltd 無人航空機
JP2005271781A (ja) * 2004-03-25 2005-10-06 Seiko Epson Corp 情報収集ロボット
US7818127B1 (en) * 2004-06-18 2010-10-19 Geneva Aerospace, Inc. Collision avoidance for vehicle control systems
JP4651561B2 (ja) * 2006-03-08 2011-03-16 三菱電機株式会社 移動機制御装置及び移動機制御方法及びプログラム
DE102007032084A1 (de) * 2007-07-09 2009-01-22 Eads Deutschland Gmbh Kollisions- und Konfliktvermeidungssystem für autonome unbemannte Flugzeuge (UAV)
US9026272B2 (en) * 2007-12-14 2015-05-05 The Boeing Company Methods for autonomous tracking and surveillance
IL207116A (en) * 2009-08-10 2014-12-31 Stats Llc Location tracking method and method
US8219267B2 (en) * 2010-05-27 2012-07-10 Honeywell International Inc. Wind estimation for an unmanned aerial vehicle
US8626187B2 (en) * 2011-06-03 2014-01-07 Apple Inc. Monitoring geofence exit
CN102621988A (zh) * 2012-04-10 2012-08-01 西北工业大学 一种水下航行器的避障方法
US8594706B1 (en) * 2012-05-01 2013-11-26 Google Inc. System and method for determining visibility of geotagged content
US20140018979A1 (en) * 2012-07-13 2014-01-16 Honeywell International Inc. Autonomous airspace flight planning and virtual airspace containment system
US20150350614A1 (en) * 2012-08-31 2015-12-03 Brain Corporation Apparatus and methods for tracking using aerial video
US20140316614A1 (en) * 2012-12-17 2014-10-23 David L. Newman Drone for collecting images and system for categorizing image data
US20140207365A1 (en) * 2013-01-18 2014-07-24 Ge Aviation Systems Llc Methods for determining a flight path
US20150134143A1 (en) * 2013-10-04 2015-05-14 Jim Willenborg Novel tracking system using unmanned aerial vehicles
CN103592941A (zh) * 2013-10-30 2014-02-19 天津大学 一种飞行速度限制下的无人飞行器航迹规划方法
US9769387B1 (en) * 2013-11-05 2017-09-19 Trace Live Network Inc. Action camera system for unmanned aerial vehicle
US9710709B1 (en) * 2014-03-07 2017-07-18 Trace Live Network Inc. Cascade recognition for personal tracking via unmanned aerial vehicle (UAV)
CN106458318A (zh) * 2014-05-23 2017-02-22 莉莉机器人公司 用于照相和/或摄像的无人航拍直升机
JP6124384B2 (ja) * 2014-05-30 2017-05-10 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人機の進行方向の作成方法、システム、及びプログラム
US9678506B2 (en) 2014-06-19 2017-06-13 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US9798322B2 (en) * 2014-06-19 2017-10-24 Skydio, Inc. Virtual camera interface and other user interaction paradigms for a flying digital assistant
US9798324B2 (en) * 2014-07-18 2017-10-24 Helico Aerospace Industries Sia Autonomous vehicle operation
WO2016029170A1 (en) * 2014-08-22 2016-02-25 Cape Productions Inc. Methods and apparatus for automatic editing of video recorded by an unmanned aerial vehicle
CN104406593A (zh) * 2014-12-03 2015-03-11 广西民族大学 一种确定无人机航路最优路径的方法
US9552736B2 (en) * 2015-01-29 2017-01-24 Qualcomm Incorporated Systems and methods for restricting drone airspace access
JP6008005B2 (ja) * 2015-03-17 2016-10-19 日本電気株式会社 無人機運用システムおよびその制御方法
CN104834317B (zh) * 2015-04-24 2017-05-24 华北计算技术研究所 一种智能识别威胁类型的无人机飞行路径规划方法
CN104932524A (zh) * 2015-05-27 2015-09-23 深圳市高巨创新科技开发有限公司 一种无人飞行器及全向蔽障的方法
CN104932525B (zh) * 2015-05-28 2019-03-01 深圳一电航空技术有限公司 无人机的控制方法、装置、地面控制系统及无人机
CN104932526B (zh) * 2015-05-29 2020-08-28 深圳市大疆创新科技有限公司 一种飞行设备的控制方法及飞行设备
CN104853104B (zh) * 2015-06-01 2018-08-28 深圳市微队信息技术有限公司 一种自动跟踪拍摄运动目标的方法以及系统
WO2017057157A1 (ja) * 2015-09-30 2017-04-06 株式会社ニコン 飛行装置、移動装置、サーバおよびプログラム
US9928748B2 (en) * 2015-11-25 2018-03-27 International Business Machines Corporation Dynamic geo-fence for drone
US10409292B2 (en) * 2015-12-10 2019-09-10 Panasonic Intellectual Property Corporation Of America Movement control method, autonomous mobile robot, and recording medium storing program
CN106662873B (zh) * 2015-12-14 2018-07-10 瑞典爱立信有限公司 基于无线电网络条件对计划的移动的调整

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269413A (ja) * 2004-03-19 2005-09-29 Chugoku Electric Power Co Inc:The 無人飛行体を利用した空中撮影システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019168045A1 (ja) * 2018-02-28 2020-08-06 株式会社ナイルワークス ドローン、その制御方法、および、制御プログラム
WO2019239694A1 (ja) * 2018-06-15 2019-12-19 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および情報処理システム
US11417088B2 (en) 2018-06-15 2022-08-16 Sony Corporation Information processing device, information processing method, program, and information processing system
JP2021137330A (ja) * 2020-03-05 2021-09-16 株式会社竹中工務店 浮遊体移動制御装置

Also Published As

Publication number Publication date
CN108473201A (zh) 2018-08-31
CN108473201B (zh) 2021-11-05
US20190002104A1 (en) 2019-01-03
US11132005B2 (en) 2021-09-28
JP6345889B2 (ja) 2018-06-20
JPWO2017115448A1 (ja) 2018-06-14

Similar Documents

Publication Publication Date Title
JP6345889B2 (ja) 無人航空機退避システム、無人航空機退避方法、及びプログラム
JP6911762B2 (ja) 飛行装置、移動装置およびプログラム
KR101955368B1 (ko) 증강현실을 이용한 가상 드론 경기장 제공 시스템 및 그 방법
EP3566103B1 (en) Capturing images of a game by an unmanned autonomous vehicle
US9495783B1 (en) Augmented reality vision system for tracking and geolocating objects of interest
CN103246543B (zh) 显示控制设备,显示控制方法和程序
JP2010509665A (ja) ビデオゲームシステムの用のゲームゾーンの規定方法
JP2019535090A (ja) 仮想現実アトラクション制御方法及びシステム
WO2019000325A1 (zh) 用于无人机航拍的增强现实方法、处理器及无人机
JP6204635B1 (ja) ゴルフプレイ支援システム、ゴルフプレイ支援方法、及びプログラム
KR101853691B1 (ko) 그린에서의 퍼팅정보 제공방법
US20210192851A1 (en) Remote camera augmented reality system
CN114648625A (zh) 显示系统、显示装置以及程序
US20210031109A1 (en) Augmented reality gaming system
KR20200062399A (ko) 드론과 스마트폰을 활용한 골프정보 제공시스템
CN115624735A (zh) 一种用于球类运动的辅助训练系统和工作方法
US20180376075A1 (en) Method and system for recording video data using at least one remote-controllable camera system which can be aligned with objects
JP2005034529A (ja) ゴルフプレーヤのプレー支援方法およびシステム
KR20200032985A (ko) 골프 드론
KR101853688B1 (ko) 그린에서의 퍼팅정보 제공방법
WO2022188151A1 (zh) 影像拍摄方法、控制装置、可移动平台和计算机存储介质
US20240104927A1 (en) Control device and control method
KR102578814B1 (ko) 위치기반 게임을 이용한 ar 좌표 수집 방법 및 장치
JP7323355B2 (ja) 情報処理装置
JP7405734B2 (ja) 表示システム及びサーバ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15912114

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017558839

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15912114

Country of ref document: EP

Kind code of ref document: A1