JP2019059452A - Flight body, living body search system, living body search method, program, and recording medium - Google Patents

Flight body, living body search system, living body search method, program, and recording medium Download PDF

Info

Publication number
JP2019059452A
JP2019059452A JP2017188022A JP2017188022A JP2019059452A JP 2019059452 A JP2019059452 A JP 2019059452A JP 2017188022 A JP2017188022 A JP 2017188022A JP 2017188022 A JP2017188022 A JP 2017188022A JP 2019059452 A JP2019059452 A JP 2019059452A
Authority
JP
Japan
Prior art keywords
support member
living body
information
unit
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017188022A
Other languages
Japanese (ja)
Other versions
JP6859241B2 (en
Inventor
杰旻 周
Jiemin Zhou
杰旻 周
青宇 盧
Qingyu Lu
青宇 盧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2017188022A priority Critical patent/JP6859241B2/en
Priority to EP17927177.0A priority patent/EP3689754A4/en
Priority to PCT/CN2017/116603 priority patent/WO2019061860A1/en
Priority to CN201780064190.5A priority patent/CN109843726B/en
Publication of JP2019059452A publication Critical patent/JP2019059452A/en
Priority to US16/726,618 priority patent/US11531340B2/en
Application granted granted Critical
Publication of JP6859241B2 publication Critical patent/JP6859241B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0094Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/02Dropping, ejecting, or releasing articles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0022Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/32UAVs specially adapted for particular uses or applications for imaging, photography or videography for cartography or topography
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils

Abstract

To achieve the facilitation of disaster investigation and rescue efficiency which use a flight body.SOLUTION: A flight body is a flight body for searching a living body and includes: a sensor body 310 for detecting living body information about a living body; a support member for supporting the sensor part to be extendable and contractable; gimbals 200, 202 for causing the support member to be rotatable; a processing part for performing processing about the detection of the living body information; and an imaging part 230 for imaging an image. The processing part causes the imaging part to image an image of an investigation area, controls flight of the flight body so as to cause the flight body to approach toward the investigation area, extends the support member toward an investigation target existing in the investigation area, and causes the sensor part supported by the gimbal supported by the extended support member to detect living body information.SELECTED DRAWING: Figure 3

Description

本開示は、生体を探索する飛行体、生体探索システム、生体探索方法、プログラム、及び記録媒体に関する。   The present disclosure relates to an aircraft searching for a living body, a biological search system, a biological search method, a program, and a recording medium.

近年、無人航空機は、様々な用途で使用され始めている。例えば、無人航空機が、災害調査に活用され始めており、被災地の空撮による災害状況の把握や行方不明者の捜索などに活用され得る。(非特許文献1参照)。無人航空機は、特に、複雑な地形の領域や、二次災害のおそれのある場所での活用が期待されている。   In recent years, unmanned aerial vehicles have begun to be used in various applications. For example, unmanned aerial vehicles are beginning to be utilized for disaster investigations, and may be utilized for grasping the disaster situation by aerial photography of a stricken area or searching for a missing person. (See Non-Patent Document 1). Unmanned aerial vehicles are particularly expected to be used in complex terrain areas and in areas where there is a risk of secondary disasters.

「ドローンで人命救助 初の競技会」、[online]、2016年10月25日、おはよう日本、NHK、[平成29年8月30日検索]、インターネット<URL:http://www.nhk.or.jp/ohayou/digest/2016/10/1025.html?utm_int=detail_contents_news-link_001>"The first competition for lifesaving with drone", [online], October 25, 2016, Good morning Japan, NHK, [August 30, 2017 search], Internet <URL: http://www.nhk. or.jp/ohayou/digest/2016/10/10/25.html?utm_int=detail_contents_news-link_001>

非特許文献1では、無人航空機による災害調査において、無人航空機に取り付けられたカメラにより上空から撮像された画像が用いられるが、画像だけでは災害調査が困難となることがある。例えば、瓦礫の内部に人が埋まっており、瓦礫の外側からでは、瓦礫の内部に人が埋まっていることが視認できない場合には、人体を発見できない可能性が高くなる。また、人体を撮影するだけでは、人体がどのような状況にあるかを十分に把握できず、救助の効率が不十分となる可能性がある。   In Non-Patent Document 1, in a disaster survey by an unmanned aerial vehicle, an image captured from the upper sky by a camera attached to the unmanned aerial vehicle is used, but the disaster survey may be difficult by the image alone. For example, when a person is buried inside the rubble and it is not possible to visually recognize that the person is buried inside the rubble from outside the rubble, there is a high possibility that the human body can not be found. In addition, simply photographing the human body can not sufficiently grasp the situation of the human body, and the efficiency of rescue may be insufficient.

一態様において、飛行体は、回転翼が取り付けられる本体と、本体に接続された第1の支持部材と、第1の支持部材に支持された第1のジンバルと、第1のジンバルに回転可能に支持された第2の支持部材と、第2の支持部材に支持された第2のジンバルと、第2のジンバルに回転可能に支持されたセンサ部と、を備える。   In one aspect, the flying object is rotatable on a main body to which the rotary wing is attached, a first support member connected to the main body, a first gimbal supported on the first support member, and a first gimbal And a second gimbal supported by the second support member, and a sensor unit rotatably supported by the second gimbal.

第2の支持部材は、伸縮自在でよい。   The second support member may be telescopic.

第1の支持部材は、伸縮自在でよい。   The first support member may be telescopic.

センサ部は、生体に関する情報を検出してよい。   The sensor unit may detect information related to the living body.

一態様において、飛行体は、生体を探索する飛行体であって、生体に関する生体情報を検出するセンサ部と、センサ部を支持し、伸縮自在な支持部材と、支持部材を回転可能にジンバルと、生体情報の検出に関する処理を行う処理部と、画像を撮像する撮像部と、を備え、処理部は、撮像部に調査領域の画像を撮像させ、調査領域に向かって飛行体を接近させるよう、飛行体の飛行を制御し、調査領域に存在する調査対象に向けて支持部材を伸長させ、伸長された支持部材に支持されたジンバルに支持されたセンサ部に、生体情報を検出させる。   In one aspect, the flying object is a flying object searching a living body, and a sensor unit for detecting living body information related to the living body, a supportable sensor unit, an expandable support member, and a gimbal capable of rotating the support member And a processing unit that performs processing related to detection of biological information, and an imaging unit that captures an image, and the processing unit causes the imaging unit to capture an image of a survey area and make the flying object approach toward the survey area And controlling the flight of the flying object, extending the support member toward the survey target present in the survey area, and causing the sensor unit supported by the gimbal supported by the elongated support member to detect the biological information.

処理部は、生体情報として生体が存在する旨の情報が検出された場合、飛行体の位置情報を取得し、飛行体の位置情報をサーバ装置に送信してよい。   When information indicating that a living body is present is detected as biological information, the processing unit may acquire position information of the flying object, and transmit the position information of the flying object to the server device.

飛行体は、電波を発信する発信機を収容する収容部を備えてよい。処理部は、生体情報として生体が存在する旨の情報が検出された場合、収容部から発信機を投下させてよい。   The aircraft may include a housing that houses a transmitter for transmitting radio waves. The processing unit may drop the transmitter from the storage unit when information indicating that a living body is present is detected as the biological information.

処理部は、飛行体の制御を指示する制御装置から、発信機を投下するための投下指示情報を取得し、投下指示情報に基づいて、発信機を投下させてよい。   The processing unit may acquire drop instruction information for dropping the transmitter from the control device that instructs control of the aircraft, and may drop the transmitter based on the drop instruction information.

処理部は、飛行体の現在位置において、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たし、支持部材の伸長位置に障害物が存在しない場合、支持部材を伸長させてよい。   The processing unit satisfies a sensor condition indicating whether the sensor unit can detect biological information when the support member is extended at the current position of the flying object, and when the obstacle does not exist at the extended position of the support member The support member may be extended.

処理部は、飛行体の制御を指示する制御装置から、支持部材の伸長を指示するための伸長指示情報を取得し、伸長指示情報に基づいて、支持部材を伸長させてよい。   The processing unit may obtain extension instruction information for instructing extension of the support member from the control device for instructing control of the flying object, and may extend the support member based on the extension instruction information.

処理部は、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たさない場合、障害物を避けて飛行体を移動させてよい。   The processing unit may move the flying object avoiding the obstacle if the sensor condition does not satisfy the sensor condition indicating whether the sensor unit can detect biological information when the support member is extended.

処理部は、飛行体の制御を指示する制御装置から、飛行体の移動を指示するための移動指示情報を取得し、移動指示情報に基づいて、障害物を避けて飛行体を移動させてよい。   The processing unit may obtain movement instruction information for instructing movement of the aircraft from the control device instructing the control of the aircraft, and move the aircraft avoiding the obstacle based on the movement instruction information. .

処理部は、飛行体の現在位置において、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たし、支持部材の伸長位置に障害物が存在する場合、ジンバルを制御して支持部材の向きを変更してよい。   The processing unit satisfies the sensor condition indicating whether the sensor unit can detect biological information when the support member is extended at the current position of the flying object, and an obstacle is present at the extended position of the support member The gimbal may be controlled to change the orientation of the support member.

処理部は、飛行体の制御を指示する制御装置から、支持部材の向きを指示するための向き指示情報を取得し、向き指示情報に基づいて、支持部材の向きを変更してよい。   The processing unit may acquire direction instruction information for instructing the direction of the support member from the control device that instructs control of the flying object, and may change the direction of the support member based on the direction instruction information.

センサ部は、複数のセンサを含んでよい。処理部は、飛行体の制御を指示する制御装置から、センサ部に含まれる少なくとも1つのセンサをオン又はオフするためのオンオフ指示情報を取得し、オンオフ指示情報に基づいて、センサ部に含まれる少なくとも1つのセンサをオン又はオフしてよい。   The sensor unit may include a plurality of sensors. The processing unit acquires on / off instruction information for turning on / off at least one sensor included in the sensor unit from the control device instructing control of the flying object, and is included in the sensor unit based on the on / off instruction information. At least one sensor may be turned on or off.

センサ条件は、支持部材の一端から回転翼の端部に対応する支持部材の第1の点までの長さと、支持部材の一端から他端までの長さと、調査対象が存在する調査空間に挿入される支持部材の他端から第2の点までの長さと、に基づいて決定されてよい。   The sensor conditions are as follows: Length from one end of the support member to the first point of the support member corresponding to the end of the rotor, length from one end to the other end of the support member, and insertion into the survey space where the survey target exists It may be determined based on the length from the other end of the support member to the second point.

一態様において、生体探索システムは、生体を探索する飛行体及び表示装置を備える生体探索システムであって、飛行体は、生体に関する生体情報を検出するセンサ部と、センサ部を支持し、伸縮自在な支持部材と、支持部材を回転可能に支持するジンバルと、生体の探索に関する処理を行う処理部と、画像を撮像する撮像部と、を備え、処理部は、撮像部に調査領域の画像を撮像させ、調査領域に向かって飛行体を接近させるよう、飛行体の飛行を制御し、調査領域に存在する調査対象に向けて支持部材を伸長させ、伸長された支持部材に支持されたジンバルに支持されたセンサ部に、生体情報を検出させ、生体情報を送信し、表示装置は、生体情報を受信し、生体情報に基づいて表示する。   In one aspect, the living body searching system is a living body searching system including an flying body for searching a living body and a display device, wherein the flying body supports a sensor unit for detecting living body information on the living body and the sensor unit and is stretchable. Support member, a gimbal that rotatably supports the support member, a processing unit that performs processing for searching for a living body, and an imaging unit that captures an image, and the processing unit transmits the image of the survey area to the imaging unit Control the flight of the flying object so as to bring an image and approach the flying object toward the investigation region, extend the support member toward the investigation target existing in the investigation region, and use a gimbal supported by the extended support member The supported sensor unit detects the biological information and transmits the biological information, and the display device receives the biological information and displays it based on the biological information.

飛行体のセンサ部は、生体の周辺に存在する障害物までの距離を検出してよい。飛行体の処理部は、距離が所定距離未満である場合、距離に基づく第1の通知情報を表示装置へ送信してよい。表示装置は、第1の通知情報を受信し、第1の通知情報に基づいて表示してよい。   The sensor unit of the flying object may detect the distance to an obstacle present around the living body. When the distance is less than the predetermined distance, the processing unit of the aircraft may transmit, to the display device, first notification information based on the distance. The display device may receive the first notification information and may display based on the first notification information.

飛行体の処理部は、飛行体の現在位置において、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たす場合、センサ条件を満たすことに基づく第2の通知情報を表示装置へ送信してよい。表示装置は、第2の通知情報を受信し、第2の通知情報に基づいて表示してよい。   The processing unit of the flight object is based on satisfying the sensor condition if the sensor unit condition indicates whether detection of biological information is possible by the sensor unit when the support member is extended at the current position of the flight object. The second notification information may be sent to the display device. The display device may receive the second notification information and may display the second notification information based on the second notification information.

一態様において、生体探索方法は、生体に関する生体情報を検出するセンサ部と、センサ部を支持し、伸縮自在な支持部材と、支持部材を回転可能にジンバルと、を備え、生体を探索する飛行体における生体探索方法であって、画像を撮像する撮像部に調査領域の画像を撮像させるステップと、調査領域に向かって飛行体を接近させるよう、飛行体の飛行を制御するステップと、調査領域に存在する調査対象に向けて支持部材を伸長させるステップと、伸長された支持部材に支持されたジンバルに支持されたセンサ部に、生体情報を検出させるステップと、を有する。   In one aspect, the living body search method includes a sensor unit that detects living body information related to a living body, a telescopic support member that supports the sensor unit, and an expandable support member, and a gimbal that can rotatably support the support member, and searches for the living body A method of living body search in a body, comprising the steps of: imaging an image of a survey area with an imaging unit for capturing an image; controlling flight of the aircraft so as to bring the aircraft closer to the survey area; And e. Extending the support member toward the subject of investigation, and causing the sensor unit supported by the gimbal supported by the extended support member to detect the biological information.

生体探索方法は、生体情報として生体が存在する旨の情報が検出された場合、飛行体の位置情報を取得するステップと、飛行体の位置情報をサーバ装置に送信するステップと、を更に含んでよい。   The living body searching method further includes the steps of acquiring the position information of the flying object and transmitting the position information of the flying object to the server device when the information indicating that the living body exists is detected as the biological information. Good.

飛行体は、電波を発信する発信機を収容する収容部を備えてよい。生体情報として生体が存在する旨の情報が検出された場合、収容部から発信機を投下させるステップ、を更に含んでよい。   The aircraft may include a housing that houses a transmitter for transmitting radio waves. If information indicating that a living body exists is detected as biological information, the method may further include the step of dropping the transmitter from the storage unit.

生体探索方法は、飛行体の制御を指示する制御装置から、発信機を投下するための投下指示情報を取得するステップ、を更に含んでよい。発信機を投下させるステップは、投下指示情報に基づいて、発信機を投下させるステップを含んでよい。   The living body searching method may further include the step of obtaining drop instruction information for dropping a transmitter from a control device instructing control of an aircraft. The step of dropping the transmitter may include the step of dropping the transmitter based on the drop instruction information.

支持部材を伸長させるステップは、飛行体の現在位置において、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たし、支持部材の伸長位置に障害物が存在しない場合、支持部材を伸長させるステップを含んでよい。   In the step of extending the support member, at the current position of the flying object, when the support member is extended, a sensor condition indicating whether or not detection of biological information is possible by the sensor unit is satisfied, and the obstacle at the extension position of the support member And the step of extending the support member may be included.

生体探索方法は、飛行体の制御を指示する制御装置から、支持部材の伸長を指示するための伸長指示情報を取得するステップ、を更に含んでよい。支持部材を伸長させるステップは、伸長指示情報に基づいて、支持部材を伸長させてよい。   The living body searching method may further include the step of obtaining extension instruction information for instructing extension of the support member from a control device for instructing control of the flying object. The step of extending the support member may extend the support member based on the extension instruction information.

飛行体の飛行を制御するステップは、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たさない場合、障害物を避けて飛行体を移動させるステップを含んでよい。   The step of controlling the flight of the flying object is a step of moving the flying object by avoiding an obstacle if the sensor condition which indicates whether the sensor unit can detect biological information when extending the support member is not satisfied. May be included.

生体探索方法は、飛行体の制御を指示する制御装置から、飛行体の移動を指示するための移動指示情報を取得するステップ、を更に含んでよい。飛行体の飛行を制御するステップは、移動指示情報に基づいて、障害物を避けて飛行体を移動させるステップを含んでよい。   The living body searching method may further include the step of acquiring movement instruction information for instructing movement of the flying object from a control device instructing control of the flying object. The step of controlling the flight of the flying object may include moving the flying object avoiding an obstacle based on the movement instruction information.

生体探索方法は、飛行体の現在位置において、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たし、支持部材の伸長位置に障害物が存在する場合、ジンバルを制御して支持部材の向きを変更するステップ、を更に含んでよい。   In the living body searching method, when the support member is extended at the current position of the flying object, a sensor condition indicating whether the detection of biological information is possible by the sensor unit is satisfied, and an obstacle exists at the extended position of the support member In the case, the step of controlling the gimbal to change the orientation of the support member may be further included.

生体探索方法は、飛行体の制御を指示する制御装置から、支持部材の向きを指示するための向き指示情報を取得するステップ、を更に含んでよい。支持部材の向きを変更するステップは、向き指示情報に基づいて、支持部材の向きを変更するステップを含んでよい。   The living body searching method may further include the step of obtaining direction indication information for instructing the direction of the support member from a control device instructing control of the flying object. The step of changing the orientation of the support member may include the step of changing the orientation of the support member based on the direction indication information.

センサ部は、複数のセンサを含んでよい。生体探索方法は、飛行体の制御を指示する制御装置から、センサ部に含まれる少なくとも1つのセンサをオン又はオフするためのオンオフ指示情報を取得するステップと、オンオフ指示情報に基づいて、センサ部に含まれる少なくとも1つのセンサをオン又はオフするステップと、を更に含んでよい。   The sensor unit may include a plurality of sensors. The living body searching method comprises the steps of acquiring on / off instruction information for turning on / off at least one sensor included in the sensor unit from a control device instructing control of a flying object, and based on the on / off instruction information, And D. turning on or off at least one of the sensors included therein.

センサ条件は、支持部材の一端から回転翼の端部に対応する支持部材の第1の点までの長さと、支持部材の一端から他端までの長さと、調査対象が存在する調査空間に挿入される支持部材の他端から第2の点までの長さと、に基づいて決定されてよい。   The sensor conditions are as follows: Length from one end of the support member to the first point of the support member corresponding to the end of the rotor, length from one end to the other end of the support member, and insertion into the survey space where the survey target exists It may be determined based on the length from the other end of the support member to the second point.

一態様において、プログラムは、生体に関する生体情報を検出するセンサ部と、センサ部を支持し、伸縮自在な支持部材と、支持部材を回転可能にジンバルと、を備え、生体を探索する飛行体に、画像を撮像する撮像部に調査領域の画像を撮像させるステップと、調査領域に向かって飛行体を接近させるよう、飛行体の飛行を制御するステップと、調査領域に存在する調査対象に向けて支持部材を伸長させるステップと、伸長された支持部材に支持されたジンバルに支持されたセンサ部に、生体情報を検出させるステップと、を実行させるためのプログラムである。   In one aspect, a program includes a sensor unit for detecting biological information related to a living body, an expandable support member supporting the sensor unit, and a gimbal rotatably supporting the support member, and a flying body searching for a living body (B) causing the imaging unit to capture an image to capture an image of the survey area, (b) controlling the flight of the aircraft so that the flight body approaches the survey area, and (b) It is a program for performing the steps of extending the support member and causing the sensor unit supported by the gimbal supported by the extended support member to detect biological information.

一態様において、記録媒体は、生体に関する生体情報を検出するセンサ部と、センサ部を支持し、伸縮自在な支持部材と、支持部材を回転可能にジンバルと、を備え、生体を探索する飛行体に、画像を撮像する撮像部に調査領域の画像を撮像させるステップと、調査領域に向かって飛行体を接近させるよう、飛行体の飛行を制御するステップと、調査領域に存在する調査対象に向けて支持部材を伸長させるステップと、伸長された支持部材に支持されたジンバルに支持されたセンサ部に、生体情報を検出させるステップと、を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体である。   In one aspect, a recording medium includes a sensor unit for detecting biological information related to a living body, an expandable support member supporting the sensor unit, and a gimbal rotatably supporting the support member, and a flying body for searching for a living body A step of causing the imaging unit for capturing an image to capture an image of the survey area, a step of controlling the flight of the aircraft so as to make the flight body approach toward the survey area, and A computer readable recording medium recorded with a program for performing the steps of: extending the support member; and causing the sensor unit supported by the gimbal supported by the extended support member to detect biological information It is.

なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The above summary of the invention does not enumerate all features of the present disclosure. In addition, a subcombination of these feature groups can also be an invention.

第1の実施形態における生体探索システムの第1構成例を示す模式図The schematic diagram which shows the 1st structural example of the biological search system in 1st Embodiment 生体探索システムの第2構成例を示す模式図A schematic view showing a second configuration example of a living body search system 無人航空機のハードウェア構成の一例を示すブロック図Block diagram showing an example of the hardware configuration of an unmanned aerial vehicle 無人航空機の一例を示す外観図External view showing an example of an unmanned aerial vehicle 第2ポールが伸長されていない状態での無人航空機の構成例を示す概略図Schematic showing an example configuration of an unmanned aerial vehicle with the second pole not extended 第2ポールが伸長された状態での無人航空機の構成例を示す概略図Schematic showing an exemplary configuration of an unmanned aerial vehicle with the second pole extended センサ部を先端側から見た概略図Schematic view of the sensor unit viewed from the tip side 収容ボックスの構成例を示す概略斜視図Schematic perspective view showing a configuration example of a storage box 端末のハードウェア構成の一例を示すブロック図Block diagram showing an example of the hardware configuration of the terminal サーバ装置のハードウェア構成の一例を示すブロック図Block diagram showing an example of the hardware configuration of the server device 無人航空機に係る各種長さを説明するための図Diagram for explaining various lengths of unmanned aerial vehicles 操作地域の一例を示す図Diagram showing an example of operation area 端末における表示部の表示例を示す図A diagram showing a display example of a display unit in a terminal 障害物に囲まれた調査対象の第1例を示す図Diagram showing the first example of survey target surrounded by obstacles 表示部による障害物の周辺の第1表示例を示す図A diagram showing a first display example of an area around an obstacle by the display unit 障害物に囲まれた調査対象の第2例を示す図Figure showing a second example of the survey object surrounded by obstacles 表示部による障害物の周辺の第2表示例を示す図A diagram showing a second display example around an obstacle by the display unit 障害物に囲まれた調査対象の第3例を示す図Diagram showing the third example of survey target surrounded by obstacles 表示部による障害物の周辺の第3表示例を示す図A diagram showing a third display example around an obstacle by the display unit 障害物に囲まれた調査対象の第4例を示す図Diagram showing the fourth example of survey target surrounded by obstacles 表示部による障害物の周辺の第4表示例を示す図A diagram showing a fourth display example of the surroundings of the obstacle by the display unit 無人航空機による発信機の第1投下例を示す図Figure showing an example of the first drop of a transmitter by an unmanned aerial vehicle 無人航空機により発信機を第1投下例に従って投下する場合の表示部の表示例を示す図The figure which shows the example of a display of the display part in the case of dropping a transmitter according to a 1st example of dropping by a UAV 無人航空機による発信機の第2投下例を示す図The figure which shows the 2nd dropping example of the transmitter by the unmanned aerial vehicle 無人航空機により発信機を第2投下例に従って投下する場合の表示部の表示例を示す図The figure which shows the example of a display of the display part in the case of dropping a transmitter in accordance with the 2nd example of dropping by a UAV 左右移動が不要な場合の無人航空機と障害物との位置関係の一例を示す模式図A schematic diagram showing an example of the positional relationship between an unmanned aerial vehicle and an obstacle when left and right movement is unnecessary 図25Aの状態から無人航空機が調査対象へ接近した場合の無人航空機と障害物との位置関係の一例を示す模式図A schematic view showing an example of the positional relationship between the unmanned aerial vehicle and the obstacle when the unmanned aerial vehicle approaches the survey target from the state of FIG. 25A 左右移動が必要な場合の無人航空機と障害物との位置関係の一例を示す模式図A schematic diagram showing an example of the positional relationship between an unmanned aerial vehicle and an obstacle when left and right movement is required 無人航空機が障害物を避けて移動することを説明する図Diagram explaining that the UAV moves away from obstacles 第2ポールの向きを変更することを説明する図A diagram illustrating changing the orientation of the second pole センサ部により生体情報を検出することを説明する図A diagram for explaining detection of biological information by a sensor unit 第1ジンバルに対する第2ポールの向きを考慮した基準長さを説明するための図Diagram for explaining the reference length considering the orientation of the second pole relative to the first gimbal 生体探索システムの動作例を示すシーケンス図Sequence diagram showing an operation example of a living body search system 生体探索システムの動作例を示すシーケンス図(図28の続き)A sequence diagram showing an operation example of a living body search system (continuation of FIG. 28)

以下、発明の実施形態を通じて本開示を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。   Hereinafter, the present disclosure will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Not all combinations of features described in the embodiments are essential to the solution of the invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。   The claims, the description, the drawings, and the abstract contain matters that are subject to copyright protection. The copyright holder will not object to any copy of these documents as they appear in the Patent Office file or record. However, in all other cases, all copyrights are reserved.

以下の実施形態では、飛行体として、無人航空機(UAV:Unmanned Aerial Vehicle)を主に例示する。本明細書に添付する図面では、無人航空機を「UAV」とも表記する。生体探索方法は、無人航空機における動作が規定されたものである。記録媒体は、プログラム(例えば、無人航空機に各種の処理を実行させるためのプログラム)が記録されたものである。   In the following embodiments, an unmanned aerial vehicle (UAV) is mainly illustrated as a flying object. In the drawings attached to the present specification, the unmanned aerial vehicle is also referred to as "UAV". The biometric search method defines the operation in an unmanned aerial vehicle. The recording medium is recorded with a program (for example, a program for causing an unmanned aircraft to execute various processes).

(第1の実施形態)
図1Aは、第1の実施形態における生体探索システム10の第1構成例を示す模式図である。生体探索システム10は、無人航空機100、送信機50、端末80、及びサーバ装置40を備える。無人航空機100、送信機50、端末80、及びサーバ装置40は、相互に有線通信又は無線通信(例えば無線LAN(Local Area Network))により通信可能である。図1Aでは、端末80が携帯端末(例えばスマートフォン、タブレット端末)であることを例示している。送信機50は、制御装置の一例である。端末80は、制御装置の一例である。
First Embodiment
FIG. 1A is a schematic view showing a first configuration example of the living body search system 10 according to the first embodiment. The biometric system 10 includes an unmanned aerial vehicle 100, a transmitter 50, a terminal 80, and a server device 40. The unmanned aerial vehicle 100, the transmitter 50, the terminal 80, and the server device 40 can communicate with each other by wired communication or wireless communication (for example, wireless LAN (Local Area Network)). FIG. 1A exemplifies that the terminal 80 is a portable terminal (for example, a smartphone, a tablet terminal). The transmitter 50 is an example of a control device. The terminal 80 is an example of a control device.

図1Bは、第1の実施形態における生体探索システム10の第2構成例を示す模式図である。図1Bでは、端末80がPC(Personal Computer)であることを例示している。図1A及び図1Bのいずれであっても、端末80が有する機能は同じでよい。   FIG. 1B is a schematic view showing a second configuration example of the living body search system 10 according to the first embodiment. FIG. 1B exemplifies that the terminal 80 is a PC (Personal Computer). The functions of the terminal 80 may be the same in either of FIG. 1A and FIG. 1B.

図2は、無人航空機100のハードウェア構成の一例を示すブロック図である。無人航空機100は、UAV制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、第1ジンバル200と、第2ジンバル202と、第1ポール204、第2ポール206、回転翼機構210と、撮像部230と、GPS受信機240と、慣性計測装置(IMU:Inertial Measurement Unit)250と、磁気コンパス260と、気圧高度計270と、第1超音波センサ280と、レーザー測定器290と、センサ部310、及び収容ボックス320を含む構成である。   FIG. 2 is a block diagram showing an example of the hardware configuration of the unmanned aerial vehicle 100. As shown in FIG. The UAV 100 includes a UAV control unit 110, a communication interface 150, a memory 160, a storage 170, a first gimbal 200, a second gimbal 202, a first pole 204, a second pole 206, and a rotary wing mechanism 210. , An imaging unit 230, a GPS receiver 240, an inertial measurement unit (IMU: Inertial Measurement Unit) 250, a magnetic compass 260, a barometric altimeter 270, a first ultrasonic sensor 280, a laser measuring instrument 290, The sensor unit 310 and the containing box 320 are included.

センサ部310は、複数のセンサを含んでよい。センサ部310は、例えば、二酸化炭素センサ(CO2センサ)311、可視光LED(Light Emitting Diode)312、赤外線LED313、第2超音波センサ314、赤外線センサ315、撮像部316、及びマイクロホン317を含んでよい。なお、センサ部310におけるこれらの構成部の一部は、省略されてよい。収容ボックス320は、開閉部321及びカメラ322を備える。   The sensor unit 310 may include a plurality of sensors. The sensor unit 310 includes, for example, a carbon dioxide sensor (CO 2 sensor) 311, a visible light LED (Light Emitting Diode) 312, an infrared LED 313, a second ultrasonic sensor 314, an infrared sensor 315, an imaging unit 316, and a microphone 317. Good. Note that some of these components in the sensor unit 310 may be omitted. The accommodation box 320 includes an open / close unit 321 and a camera 322.

UAV制御部110は、処理部の一例である。第1ジンバル200は、ジンバルの一例である。第1ポール204は、第1の支持部材の一例である。第2ポール206は、第2の支持部材及び支持部材の一例である。   The UAV control unit 110 is an example of a processing unit. The first gimbal 200 is an example of a gimbal. The first pole 204 is an example of a first support member. The second pole 206 is an example of a second support member and a support member.

UAV制御部110は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。UAV制御部110は、無人航空機100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。   The UAV control unit 110 is configured using, for example, a central processing unit (CPU), a micro processing unit (MPU), or a digital signal processor (DSP). The UAV control unit 110 performs signal processing for integrally controlling the operation of each unit of the unmanned aerial vehicle 100, data input / output processing with other units, data calculation processing, and data storage processing.

UAV制御部110は、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御してよい。UAV制御部110は、UAV制御部110により生成した空撮経路に従って、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御してよい。UAV制御部110は、通信インタフェース150を介して遠隔の送信機50から受信した命令に従って、無人航空機100の飛行を制御してよい。送信機50から受信した命令は、例えば、送信機50に対する操縦者の操縦によって得られた前後・上下・左右・方向への移動の命令、回転、上昇、加工の命令、等を含む。   The UAV control unit 110 may control the flight of the unmanned aerial vehicle 100 in accordance with a program stored in the memory 160. The UAV control unit 110 may control the flight of the unmanned aerial vehicle 100 in accordance with a program stored in the memory 160 in accordance with the aerial photography path generated by the UAV control unit 110. The UAV control unit 110 may control the flight of the unmanned aerial vehicle 100 in accordance with instructions received from the remote transmitter 50 via the communication interface 150. The command received from the transmitter 50 includes, for example, a command to move in the back and forth, up and down, left and right, and directions obtained by the pilot of the pilot with respect to the transmitter 50, a command to rotate, lift and process.

UAV制御部110は、無人航空機100の位置を示す位置情報を取得する。UAV制御部110は、GPS受信機240から、無人航空機100が存在する緯度、経度及び高度を示す位置情報を取得してよい。UAV制御部110は、GPS受信機240から無人航空機100が存在する緯度及び経度を示す緯度経度情報、並びに気圧高度計270から無人航空機100が存在する高度を示す高度情報をそれぞれ位置情報として取得してよいUAV制御部110は、第1超音波センサ280による超音波の放射点と超音波の反射点との距離を高度情報として取得してよい。   The UAV control unit 110 acquires position information indicating the position of the unmanned aerial vehicle 100. The UAV control unit 110 may acquire, from the GPS receiver 240, positional information indicating the latitude, longitude, and altitude at which the unmanned aerial vehicle 100 is present. The UAV control unit 110 acquires, from the GPS receiver 240, latitude / longitude information indicating the latitude and longitude at which the unmanned aircraft 100 is present, and altitude information indicating the altitude at which the unmanned aircraft 100 is present from the barometric altimeter 270 as position information. The good UAV control unit 110 may acquire the distance between the radiation point of the ultrasonic wave by the first ultrasonic sensor 280 and the reflection point of the ultrasonic wave as the altitude information.

UAV制御部110は、磁気コンパス260から無人航空機100の向きを示す向き情報を取得してよい。向き情報は、例えば無人航空機100の機首の向きに対応する方位で示されてよい。   The UAV control unit 110 may acquire orientation information indicating the orientation of the unmanned aerial vehicle 100 from the magnetic compass 260. The orientation information may be indicated, for example, in an orientation corresponding to the orientation of the nose of the unmanned aerial vehicle 100.

UAV制御部110は、撮像部316が撮像すべき撮像範囲を撮像する時に無人航空機100が存在すべき位置を示す位置情報を取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報をメモリ160から取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報を、通信インタフェース150を介して他の装置から取得してよい。UAV制御部110は、地図データベース(3次元地図データベース又は2次元地図データベース)を参照して、無人航空機100が存在可能な位置を特定して、その位置を無人航空機100が存在すべき位置を示す位置情報として取得してよい。   The UAV control unit 110 may acquire position information indicating a position at which the unmanned aerial vehicle 100 should be present when the imaging unit 316 images the imaging range to be imaged. The UAV control unit 110 may obtain position information indicating the position where the unmanned aircraft 100 should be present from the memory 160. The UAV control unit 110 may acquire position information indicating the position where the unmanned aircraft 100 should be present from another device via the communication interface 150. The UAV control unit 110 refers to the map database (three-dimensional map database or two-dimensional map database) to identify the position where the unmanned aerial vehicle 100 can exist, and indicates the position where the unmanned aerial vehicle 100 should exist. It may be acquired as position information.

UAV制御部110は、撮像部316及び撮像部230のそれぞれの撮像範囲を示す撮像範囲情報を取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部316及び撮像部230の画角を示す画角情報を撮像部316及び撮像部230から取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部316及び撮像部230の撮像方向を示す情報を取得してよい。UAV制御部110は、例えば撮像部316の撮像方向を示す情報として、第1ジンバル200及び第2ジンバル202から撮像部316の姿勢の状態を示す姿勢情報を取得してよい。撮像部316の姿勢情報は、第1ジンバル200のロール軸、ピッチ軸及びヨー軸の基準回転角度からの回転角度と、第2ジンバル202のロール軸、ピッチ軸及びヨー軸の基準回転角度からの回転角度と、を合わせた(例えば合成した、合算した)情報でよい。   The UAV control unit 110 may acquire imaging range information indicating imaging ranges of the imaging unit 316 and the imaging unit 230. The UAV control unit 110 may acquire angle-of-view information indicating the angle of view of the imaging unit 316 and the imaging unit 230 from the imaging unit 316 and the imaging unit 230 as parameters for specifying the imaging range. The UAV control unit 110 may acquire information indicating an imaging direction of the imaging unit 316 and the imaging unit 230 as a parameter for specifying an imaging range. The UAV control unit 110 may acquire posture information indicating the posture state of the imaging unit 316 from the first gimbal 200 and the second gimbal 202, for example, as information indicating the imaging direction of the imaging unit 316. The orientation information of the imaging unit 316 includes the rotation angle of the first gimbal 200 from the reference rotation angle of the roll axis, pitch axis and yaw axis, and the reference rotation angle of the roll axis of the second gimbal 202, pitch axis and yaw axis. The rotation angle may be combined (for example, combined or added) information.

UAV制御部110は、撮像範囲を特定するためのパラメータとして、無人航空機100が存在する位置を示す位置情報を取得してよい。UAV制御部110は、撮像部316及び撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて、撮像部316が撮像する地理的な範囲を示す撮像範囲を画定し、撮像範囲情報を生成することで、撮像範囲情報を取得してよい。UAV制御部110は、メモリ160から撮像範囲情報を取得してよい。UAV制御部110は、通信インタフェース150を介して撮像範囲情報を取得してよい。   The UAV control unit 110 may acquire position information indicating a position where the unmanned aerial vehicle 100 is present as a parameter for specifying the imaging range. The UAV control unit 110 defines an imaging range indicating a geographical range to be imaged by the imaging unit 316 based on the angle of view and the imaging direction of the imaging unit 316 and the imaging unit 230 and the position where the unmanned aircraft 100 exists. Imaging range information may be acquired by generating imaging range information. The UAV control unit 110 may acquire imaging range information from the memory 160. The UAV control unit 110 may acquire imaging range information via the communication interface 150.

UAV制御部110は、第1ジンバル200、第2ジンバル202、第1ポール204、第2ポール206、回転翼機構210、撮像部230、撮像部316を含むセンサ部310及び収容ボックス320を制御する。UAV制御部110は、撮像部316の撮像方向又は画角を変更することによって、撮像部316の撮像範囲を制御してよい。UAV制御部110は、第1ジンバル200及び第2ジンバル202の少なくとも一方の回転機構を制御することで、第2ジンバル202に支持されている撮像部316の撮像範囲を制御してよい。   The UAV control unit 110 controls the sensor unit 310 including the first gimbal 200, the second gimbal 202, the first pole 204, the second pole 206, the rotary wing mechanism 210, the imaging unit 230, the imaging unit 316, and the accommodation box 320. . The UAV control unit 110 may control the imaging range of the imaging unit 316 by changing the imaging direction or the angle of view of the imaging unit 316. The UAV control unit 110 may control the imaging range of the imaging unit 316 supported by the second gimbal 202 by controlling the rotation mechanism of at least one of the first gimbal 200 and the second gimbal 202.

撮像範囲とは、撮像部316又は撮像部230により撮像される地理的な範囲をいう。撮像範囲は、緯度、経度、及び高度で定義される。撮像範囲は、緯度、経度、及び高度で定義される3次元空間データにおける範囲でよい。撮像範囲は、緯度及び経度で定義される2次元空間データにおける範囲でもよい。撮像範囲は、撮像部316又は撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて特定されてよい。撮像部316及び撮像部230の撮像方向は、撮像部316及び撮像部230の撮像レンズが設けられた正面が向く方位と俯角とから定義されてよい。撮像部316の撮像方向は、無人航空機100の機首の方位と、撮像部316の姿勢の状態とから特定される方向でよい。撮像部230の撮像方向は、無人航空機100の機首の方位と、撮像部230が設けられた位置とから特定される方向でよい。   The imaging range refers to a geographical range imaged by the imaging unit 316 or the imaging unit 230. The imaging range is defined by latitude, longitude, and altitude. The imaging range may be a range in three-dimensional spatial data defined by latitude, longitude, and altitude. The imaging range may be a range in two-dimensional spatial data defined by latitude and longitude. The imaging range may be specified based on the angle of view and the imaging direction of the imaging unit 316 or the imaging unit 230, and the position where the unmanned aerial vehicle 100 is present. The imaging directions of the imaging unit 316 and the imaging unit 230 may be defined from an azimuth and a direction in which the imaging lens of the imaging unit 316 and the imaging lens of the imaging unit 230 is provided. The imaging direction of the imaging unit 316 may be a direction specified from the heading of the nose of the unmanned aerial vehicle 100 and the state of the attitude of the imaging unit 316. The imaging direction of the imaging unit 230 may be a direction specified from the heading of the nose of the unmanned aerial vehicle 100 and the position where the imaging unit 230 is provided.

UAV制御部110は、複数の撮像部230により撮像された複数の画像を解析することで、無人航空機100の周囲の環境を特定してよい。UAV制御部110は、無人航空機100の周囲の環境に基づいて、例えば障害物を回避して飛行を制御してよい。   The UAV control unit 110 may identify the environment around the unmanned aerial vehicle 100 by analyzing the plurality of images captured by the plurality of imaging units 230. The UAV control unit 110 may control the flight based on, for example, the obstacle around the unmanned aerial vehicle 100 based on the environment.

UAV制御部110は、無人航空機100の周囲に存在するオブジェクトの立体形状(3次元形状)を示す立体情報(3次元情報)を取得してよい。オブジェクトは、例えば、建物、道路、車、木、瓦礫等の障害物、等でよい。立体情報は、例えば、3次元空間データである。UAV制御部110は、複数の撮像部230から得られたそれぞれの画像から、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を生成することで、立体情報を取得してよい。UAV制御部110は、メモリ160又はストレージ170に格納された3次元地図データベースを参照することにより、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を取得してよい。UAV制御部110は、ネットワーク上に存在するサーバが管理する3次元地図データベースを参照することで、無人航空機100の周囲に存在するオブジェクトの立体形状に関する立体情報を取得してよい。   The UAV control unit 110 may acquire three-dimensional information (three-dimensional information) indicating a three-dimensional shape (three-dimensional shape) of an object present around the unmanned aerial vehicle 100. The objects may be, for example, buildings, roads, cars, trees, obstacles such as rubble, etc. The three-dimensional information is, for example, three-dimensional space data. The UAV control unit 110 may acquire three-dimensional information by generating three-dimensional information indicating the three-dimensional shape of an object present around the unmanned aerial vehicle 100 from the respective images obtained from the plurality of imaging units 230. The UAV control unit 110 may acquire three-dimensional information indicating the three-dimensional shape of an object present around the unmanned aerial vehicle 100 by referring to the three-dimensional map database stored in the memory 160 or the storage 170. The UAV control unit 110 may acquire three-dimensional information on the three-dimensional shape of an object present around the unmanned aerial vehicle 100 by referring to a three-dimensional map database managed by a server present on the network.

UAV制御部110は、回転翼機構210を制御することで、無人航空機100の飛行を制御する。つまり、UAV制御部110は、回転翼機構210を制御することにより、無人航空機100の緯度、経度、及び高度を含む位置を制御する。UAV制御部110は、無人航空機100の飛行を制御することにより、撮像部316の撮像範囲を制御してよい。UAV制御部110は、撮像部316が備えるズームレンズを制御することで、撮像部316の画角を制御してよい。UAV制御部110は、撮像部316のデジタルズーム機能を利用して、デジタルズームにより、撮像部316の画角を制御してよい。   The UAV control unit 110 controls the flight of the unmanned aerial vehicle 100 by controlling the rotary wing mechanism 210. That is, the UAV control unit 110 controls the rotary wing mechanism 210 to control the position including the latitude, longitude, and altitude of the unmanned aerial vehicle 100. The UAV control unit 110 may control the imaging range of the imaging unit 316 by controlling the flight of the unmanned aerial vehicle 100. The UAV control unit 110 may control the angle of view of the imaging unit 316 by controlling the zoom lens included in the imaging unit 316. The UAV control unit 110 may control the angle of view of the imaging unit 316 by digital zoom using the digital zoom function of the imaging unit 316.

通信インタフェース150は、例えば、送信機50、端末80、及びサーバ装置40と通信する。通信インタフェース150は、任意の無線通信方式により無線通信してよい。通信インタフェース150は、任意の有線通信方式により有線通信してもよい。通信インタフェース150は、空撮画像や空撮画像に関する付加情報を、端末80やサーバ装置40に送信してよい。空撮画像は、動画であっても静止画であってもよい。通信インタフェース150は、センサ部310により検出された検出情報(例えば生体に関する生体情報)を、端末80やサーバ装置40に送信してよい。   The communication interface 150 communicates with, for example, the transmitter 50, the terminal 80, and the server device 40. The communication interface 150 may perform wireless communication by any wireless communication scheme. The communication interface 150 may perform wired communication by any wired communication method. The communication interface 150 may transmit additional information on the aerial image and the aerial image to the terminal 80 and the server device 40. The aerial image may be a moving image or a still image. The communication interface 150 may transmit detection information (for example, biological information related to a living body) detected by the sensor unit 310 to the terminal 80 or the server device 40.

メモリ160は、UAV制御部110が、第1ジンバル200、第2ジンバル202、第1ポール204、第2ポール206、回転翼機構210、撮像部230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、第1超音波センサ280、レーザー測定器290、センサ部310、及び収容ボックス320を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSB(Universal Serial Bus)メモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、UAV本体102(図3参照)から無人航空機100から取り外し可能であってもよい。   The memory 160 includes a first gimbal 200, a second gimbal 202, a first pole 204, a second pole 206, a rotary wing mechanism 210, an imaging unit 230, a GPS receiver 240, an inertial measurement device 250, and a magnetic sensor 160. The compass 260, the barometric pressure altimeter 270, the first ultrasonic sensor 280, the laser measuring device 290, the sensor unit 310, and programs required to control the containing box 320 are stored. The memory 160 may be a computer readable recording medium, and may be a static random access memory (SRAM), a dynamic random access memory (DRAM), an erasable programmable read only memory (EPROM), an electrically erasable programmable read only memory (EEPROM), and It may include at least one of flash memory such as Universal Serial Bus (USB) memory. The memory 160 may be removable from the UAV 100 from the UAV body 102 (see FIG. 3).

ストレージ170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SDカード、USBメモリ、その他のストレージの少なくとも1つを含んでよい。ストレージ170は、各種情報、各種データを保持してよい。ストレージ170は、UAV本体102から無人航空機100から取り外し可能であってもよい。ストレージ170は、例えば、空撮画像、空撮画像に関する付加情報、センサ部310により検出された生体情報、を記録してよい。   The storage 170 may include at least one of a hard disk drive (HDD), a solid state drive (SSD), an SD card, a USB memory, and other storage. The storage 170 may hold various information and various data. Storage 170 may be removable from UAV body 102 from unmanned aerial vehicle 100. The storage 170 may record, for example, an aerial image, additional information related to the aerial image, and biological information detected by the sensor unit 310.

回転翼機構210は、複数の回転翼211と、複数の回転翼211を回転させる複数の駆動モータと、を有する。回転翼機構210は、UAV制御部110により回転を制御されることにより、無人航空機100を飛行させる。回転翼211の数は、例えば4つでもよいし、その他の数でもよい。また、無人航空機100は、回転翼を有さない固定翼機でもよい。   The rotary wing mechanism 210 has a plurality of rotary wings 211 and a plurality of drive motors for rotating the plurality of rotary wings 211. The rotary wing mechanism 210 causes the unmanned aircraft 100 to fly by being controlled in rotation by the UAV control unit 110. The number of rotary wings 211 may be, for example, four or any other number. Furthermore, the unmanned aerial vehicle 100 may be a fixed wing aircraft that does not have rotary wings.

撮像部316は、所望の撮像範囲に含まれる被写体(例えば、空撮対象となる上空の様子、山や川等の景色、地上の建物)を撮像する撮像用のカメラ(メインカメラ)でよい。撮像部316は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像部316の撮像により得られた画像データ(例えば空撮画像)は、撮像部316が有するメモリ、又はストレージ170に格納されてよい。撮像部316により複数の箇所で撮像範囲の一部を重複して撮像された画像に基づいて、無人航空機100の周囲の3次元空間データ(3次元形状データ)が生成されてよい。   The imaging unit 316 may be an imaging camera (main camera) for imaging a subject (for example, the sky in the aerial view target, a landscape such as a mountain or a river, a building on the ground) included in a desired imaging range. The imaging unit 316 images a subject in a desired imaging range to generate data of a captured image. Image data (for example, an aerial image) obtained by imaging of the imaging unit 316 may be stored in a memory of the imaging unit 316 or the storage 170. Three-dimensional space data (three-dimensional shape data) around the unmanned aerial vehicle 100 may be generated based on an image captured by the imaging unit 316 in which a part of the imaging range is overlapped at a plurality of locations.

撮像部230は、無人航空機100の飛行を制御するために無人航空機100の周囲を撮像するセンシング用のカメラ(サブカメラ)でよい。2つの撮像部230が、無人航空機100の機首である正面に設けられてよい。さらに、他の2つの撮像部230が、無人航空機100の底面に設けられてよい。正面側の2つの撮像部230はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像部230もペアとなり、ステレオカメラとして機能してよい。複数の撮像部230により撮像された画像に基づいて、無人航空機100の周囲の3次元空間データ(3次元形状データ)が生成されてよい。なお、無人航空機100が備える撮像部230の数は4つに限定されない。無人航空機100は、少なくとも1つの撮像部230を備えてよい。無人航空機100は、無人航空機100の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像部230を備えてよい。撮像部230で設定できる画角は、撮像部316で設定できる画角より広くてよい。撮像部230は、単焦点レンズ又は魚眼レンズを有してよい。撮像部230は、無人航空機100の周囲を撮像して撮像画像のデータを生成する。撮像部230の画像データは、ストレージ170に格納されてよい。   The imaging unit 230 may be a sensing camera (sub-camera) that images the periphery of the unmanned aerial vehicle 100 to control the flight of the unmanned aerial vehicle 100. Two imaging units 230 may be provided on the front side, which is the nose of the unmanned aerial vehicle 100. Furthermore, two other imaging units 230 may be provided on the bottom of the unmanned aerial vehicle 100. The two front imaging units 230 may be paired to function as a so-called stereo camera. The two imaging units 230 on the bottom side may also be paired and function as a stereo camera. Three-dimensional space data (three-dimensional shape data) around the unmanned aerial vehicle 100 may be generated based on the images captured by the plurality of imaging units 230. The number of imaging units 230 provided in the unmanned aerial vehicle 100 is not limited to four. The unmanned aerial vehicle 100 may include at least one imaging unit 230. The unmanned aerial vehicle 100 may include at least one imaging unit 230 on each of the nose, aft, side, bottom, and ceiling of the unmanned aerial vehicle 100. The angle of view that can be set by the imaging unit 230 may be wider than the angle of view that can be set by the imaging unit 316. The imaging unit 230 may have a single focus lens or a fisheye lens. The imaging unit 230 images the periphery of the unmanned aerial vehicle 100 to generate data of a captured image. The image data of the imaging unit 230 may be stored in the storage 170.

GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人航空機100の位置)を算出する。GPS受信機240は、無人航空機100の位置情報をUAV制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりにUAV制御部110により行われてよい。この場合、UAV制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。   The GPS receiver 240 receives a plurality of signals indicating times transmitted from a plurality of navigation satellites (ie, GPS satellites) and the position (coordinates) of each GPS satellite. The GPS receiver 240 calculates the position of the GPS receiver 240 (that is, the position of the unmanned aerial vehicle 100) based on the received plurality of signals. The GPS receiver 240 outputs the position information of the unmanned aerial vehicle 100 to the UAV control unit 110. The calculation of the position information of the GPS receiver 240 may be performed by the UAV control unit 110 instead of the GPS receiver 240. In this case, the UAV control unit 110 receives information indicating the time included in the plurality of signals received by the GPS receiver 240 and the position of each GPS satellite.

慣性計測装置250は、無人航空機100の姿勢を検出し、検出結果をUAV制御部110に出力する。慣性計測装置250は、無人航空機100の姿勢として、無人航空機100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出してよい。   The inertial measurement device 250 detects the attitude of the unmanned aerial vehicle 100, and outputs the detection result to the UAV control unit 110. The inertial measurement device 250 detects, as the attitude of the unmanned aerial vehicle 100, accelerations in three axial directions in front, rear, left, right, and upper and lower directions of the unmanned aerial vehicle 100, and angular velocities in three axial directions of pitch, roll, and yaw axes. You may

磁気コンパス260は、無人航空機100の機首の方位を検出し、検出結果をUAV制御部110に出力する。   The magnetic compass 260 detects the heading of the nose of the unmanned aerial vehicle 100, and outputs the detection result to the UAV control unit 110.

気圧高度計270は、無人航空機100が飛行する高度を検出し、検出結果をUAV制御部110に出力する。   The barometric altimeter 270 detects the altitude at which the unmanned aircraft 100 flies, and outputs the detection result to the UAV control unit 110.

第1超音波センサ280は、超音波を放射し、地面や物体により反射された超音波を検出し、検出結果をUAV制御部110に出力する。検出結果は、無人航空機100から地面までの距離つまり高度を示してよい。検出結果は、無人航空機100から物体(例えば、生体、障害物)までの距離を示してよい。   The first ultrasonic sensor 280 emits an ultrasonic wave, detects an ultrasonic wave reflected by the ground or an object, and outputs the detection result to the UAV control unit 110. The detection result may indicate the distance or altitude from the unmanned aerial vehicle 100 to the ground. The detection result may indicate the distance from the unmanned aerial vehicle 100 to an object (e.g., a living body, an obstacle).

レーザー測定器290は、物体にレーザー光を照射し、物体で反射された反射光を受光し、反射光により無人航空機100と物体との間の距離を測定する。レーザー光による距離の測定方式は、一例として、タイムオブフライト方式でよい。   The laser measuring device 290 irradiates the object with laser light, receives the light reflected from the object, and measures the distance between the UAV 100 and the object by the reflected light. The measurement method of the distance by the laser light may be, for example, a time of flight method.

図3は、無人航空機100の一例を示す外観図である。   FIG. 3 is an external view showing an example of the unmanned aerial vehicle 100. As shown in FIG.

第1ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に、第2ポール206を回転可能に支持してよい。第1ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に第2ポール206を回転させることで、第2ポール206の向きを変更してよい。   The first gimbal 200 may rotatably support the second pole 206 about the yaw axis, the pitch axis, and the roll axis. The first gimbal 200 may change the orientation of the second pole 206 by rotating the second pole 206 about at least one of the yaw axis, the pitch axis, and the roll axis.

ヨー軸、ピッチ軸、及びロール軸は、以下のように定められてよい。例えば、水平方向(地面と平行な方向)にロール軸が定義されたとする。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸が定められ、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(z軸参照)が定められる。   The yaw axis, pitch axis, and roll axis may be defined as follows. For example, it is assumed that the roll axis is defined in the horizontal direction (direction parallel to the ground). In this case, a pitch axis is defined in a direction parallel to the ground and perpendicular to the roll axis, and a yaw axis (see z axis) is defined in a direction perpendicular to the ground and perpendicular to the roll axis and the pitch axis.

第2ジンバル202は、ヨー軸、ピッチ軸、及びロール軸を中心に、センサ部310を回転可能に支持してよい。第2ジンバル202は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心にセンサ部310を回転させることで、センサ部310の向きを変更してよい。   The second gimbal 202 may support the sensor unit 310 rotatably about the yaw axis, the pitch axis, and the roll axis. The second gimbal 202 may change the orientation of the sensor unit 310 by rotating the sensor unit 310 around at least one of the yaw axis, the pitch axis, and the roll axis.

UAV本体102には、回転翼機構210の回転翼211、撮像部230、第1ポール204、収容ボックス320、等が取り付けられている。UAV本体102は、本体の一例である。   The UAV main body 102 is attached with a rotary wing 211 of the rotary wing mechanism 210, an imaging unit 230, a first pole 204, an accommodation box 320, and the like. The UAV main body 102 is an example of a main body.

第1ポール204は、ヨー軸(z)に沿って配置されてよい。第1ポール204は、伸縮自在でもよいし、伸縮自在でなくてもよい。第1ポール204は、UAV制御部110の制御により、伸縮し、長さが変化してよい。第1ポール204は、通常時には、伸長されていない状態でよい。第1ポール204が伸長された場合の長さは、例えば1m以下である。   The first pole 204 may be disposed along the yaw axis (z). The first pole 204 may or may not be stretchable. The first pole 204 may expand and contract and change in length under the control of the UAV control unit 110. The first pole 204 may normally be in an unextended state. The length when the first pole 204 is extended is, for example, 1 m or less.

第1ジンバル200は、第1ポール204に接続され支持される。第1ジンバル200は、UAV制御部110の制御により、第2ポール206の角度、つまり第2ポール206が延びる方向(第2ポール206の向き)を調整する。   The first gimbal 200 is connected to and supported by the first pole 204. The first gimbal 200 adjusts the angle of the second pole 206, that is, the direction in which the second pole 206 extends (the direction of the second pole 206), under the control of the UAV control unit 110.

第2ポール206は、第1ジンバル200に接続され支持される。第2ポール206は、第1ジンバル200により角度が調整され、つまり第2ポール206の延びる方向が調整される。第2ポール206は、伸縮自在である。第1ポール204は、UAV制御部110の制御により、伸縮し、長さが変化してよい。第2ポール206は、通常時には、伸長されていない状態でよい。第2ポール206が伸長された場合の長さは、例えば1m〜2mである。第2ポール206は、通常時には、基準方向(図3ではロール軸(x)に沿う方向)に沿って延びていてよい。この基準方向は、水平方向(例えばロール軸(x)又はピッチ軸(y))に沿う方向である。   The second pole 206 is connected to and supported by the first gimbal 200. The second pole 206 is adjusted in angle by the first gimbal 200, that is, the extending direction of the second pole 206 is adjusted. The second pole 206 is telescopic. The first pole 204 may expand and contract and change in length under the control of the UAV control unit 110. The second pole 206 may normally be in an unextended state. The length when the second pole 206 is extended is, for example, 1 m to 2 m. The second pole 206 may normally extend along a reference direction (in FIG. 3 along the roll axis (x)). The reference direction is a direction along the horizontal direction (for example, roll axis (x) or pitch axis (y)).

第2ジンバル202は、第2ポール206に接続され支持される。第2ジンバル202は、第2ジンバル202よりも先端側に取り付けられたセンサ部310の角度(向き)を調整する。   The second gimbal 202 is connected to and supported by the second pole 206. The second gimbal 202 adjusts the angle (direction) of the sensor unit 310 attached to the tip side of the second gimbal 202.

このように、無人航空機100は、2つのジンバル(第1ジンバル200、第2ジンバル202)を備えることで、先端部に設けられたセンサ部310の位置調整を細かく実施できる。無人航空機100は、例えば、第1ジンバル200に対する第2ポール206の角度を調整することで、調査対象の周辺に障害物が存在する場合でも、障害物の隙間を通過させて第2ポール206を伸ばし、センサ部310を障害物の隙間の奥に進入させることができる。無人航空機100は、例えば、第2ジンバル202に対するセンサ部310の角度を調整することで、障害物の隙間の奥の空間において、センサ部310の向きの調整を柔軟に行うことができ、調査対象としての生体が不動である場合でも、生体に関する情報(生体情報)を所望の方向から検出(測定)することができる。よって、無人航空機100は、障害物が多数存在する場合や生体が動けない場合でも、生体情報を好適に検出できる可能性を高くできる。   Thus, by providing the two gimbals (the first gimbal 200 and the second gimbal 202), the unmanned aerial vehicle 100 can finely adjust the position of the sensor unit 310 provided at the tip. For example, by adjusting the angle of the second pole 206 with respect to the first gimbal 200, the unmanned aerial vehicle 100 allows the second pole 206 to pass through the clearance of the obstacle even if there is an obstacle around the survey target. By stretching the sensor unit 310, the sensor unit 310 can be advanced into the gap of the obstacle. For example, by adjusting the angle of the sensor unit 310 with respect to the second gimbal 202, the unmanned aerial vehicle 100 can flexibly adjust the orientation of the sensor unit 310 in the space behind the clearance of the obstacle, and the survey target Even when the living body is immobile, information (biological information) on the living body can be detected (measured) from a desired direction. Thus, the unmanned aerial vehicle 100 can increase the possibility of suitably detecting biological information even when there are many obstacles or when the living body can not move.

また、第2ジンバル202が伸縮自在である場合には、無人航空機100は、障害物の隙間において第2ポール206を伸長させることができ、第2ポールより更に先端に位置するセンサ部310が、調査対象としての生体に接近することを補助できる。   In addition, when the second gimbal 202 is extendable, the unmanned aerial vehicle 100 can extend the second pole 206 in the clearance of the obstacle, and the sensor unit 310 located further to the tip than the second pole, It can assist in accessing the living body as the subject of investigation.

また、第1ジンバル200が伸縮自在である場合には、無人航空機100は、例えば障害物が多数あったり飛行環境が劣悪であったりして下降することが困難である場合でも、第1ジンバル200を伸長させることで、センサ部310が位置する高度を下げることができる。よって、重力方向における第2ポール206やセンサ部310の位置調整の自由度が向上し、無人航空機100は、様々な災害状況に対応して、生体の探索をし易くできる。   In addition, when the first gimbal 200 is extendable, the unmanned aerial vehicle 100 is difficult to descend, for example, when there are many obstacles or the flight environment is poor. The height at which the sensor unit 310 is located can be lowered. Therefore, the freedom of position adjustment of the second pole 206 and the sensor unit 310 in the gravity direction is improved, and the unmanned aerial vehicle 100 can easily search for a living body in response to various disaster situations.

図4は、第2ポール206が伸長されていない状態での無人航空機100の構成例を示す概略図である。図5は、第2ポール206が伸長された状態での無人航空機100の構成例を示す概略図である。図6は、センサ部310を先端側から見た概略図である。図6では、センサ部310のイメージセンサ316aに対向する視点からセンサ部310を見ている。   FIG. 4 is a schematic view showing a configuration example of the unmanned aerial vehicle 100 in a state in which the second pole 206 is not extended. FIG. 5 is a schematic view showing a configuration example of the unmanned aerial vehicle 100 in a state in which the second pole 206 is extended. FIG. 6 is a schematic view of the sensor unit 310 viewed from the tip side. In FIG. 6, the sensor unit 310 is viewed from the viewpoint facing the image sensor 316 a of the sensor unit 310.

二酸化炭素センサ311は、二酸化炭素センサ311周辺の二酸化炭素(CO2)のガス濃度を測定する。可視光LED312は、可視光領域の波長を有する可視光(例えば白色光)を出射する。赤外線LED313は、赤外光領域の波長を有する赤外光を出射する。可視光及び赤外光は、調査対象に対して出射され、調査対象が照明されてよい。   The carbon dioxide sensor 311 measures the gas concentration of carbon dioxide (CO 2) around the carbon dioxide sensor 311. The visible light LED 312 emits visible light (eg, white light) having a wavelength in the visible light range. The infrared LED 313 emits infrared light having a wavelength in the infrared light range. The visible light and the infrared light may be emitted to the investigation subject, and the investigation subject may be illuminated.

第2超音波センサ314は、超音波を放射し、地面や物体により反射された超音波を検出し、検出結果をUAV制御部110に出力する。検出結果は、第2超音波センサ314から物体(例えば、生体、障害物)までの距離を示してよい。   The second ultrasonic sensor 314 emits an ultrasonic wave, detects an ultrasonic wave reflected by the ground or an object, and outputs the detection result to the UAV control unit 110. The detection result may indicate the distance from the second ultrasonic sensor 314 to an object (e.g., a living body, an obstacle).

撮像部316は、イメージセンサ316aを有し、画像を撮像する。イメージセンサ316aは、可視光に対する感度を有する。イメージセンサ316aは、赤外光に対する感度を有してよい。撮像部316は、UAV制御部110の制御により、可視光LED312により可視光が出射されて被写体が照明されている期間に、被写体を撮像してよい。撮像部316は、UAV制御部110の制御により、赤外光LED313により赤外光が被写体に向けて出射されている期間に、被写体を撮像してよい。   The imaging unit 316 includes an image sensor 316a and captures an image. The image sensor 316a has sensitivity to visible light. The image sensor 316a may have sensitivity to infrared light. Under the control of the UAV control unit 110, the imaging unit 316 may capture an image of the subject during a period in which the visible light is emitted by the visible light LED 312 and the subject is illuminated. Under the control of the UAV control unit 110, the imaging unit 316 may capture an object during a period in which infrared light is emitted toward the object by the infrared light LED 313.

マイクロホン317は、マイクロホン317周囲に発生した音を収音する。   The microphone 317 picks up the sound generated around the microphone 317.

図6では、センサ部310において、イメージセンサ316aが中央に配置され、イメージセンサ316aの周囲に可視光LED312及び赤外線LED313が配置される。イメージセンサ316aは、略円形状に形成されてもよいし、他の形状(例えば矩形状)に形成されてもよい。可視光LED312及び赤外線LED313は、イメージセンサ316aの周囲に略円形状に形成されてもよいし、他の形状(例えば矩形状)に形成されてもよい。可視光LED312及び赤外線LED313は、複数設けられ、それぞれの可視光LED312及び赤外線LED313が交互に配置されてよい。なお、可視光LED312及び赤外線LED313が交互に配置されなくてもよい。   In FIG. 6, in the sensor unit 310, the image sensor 316a is disposed at the center, and the visible light LED 312 and the infrared LED 313 are disposed around the image sensor 316a. The image sensor 316a may be formed in a substantially circular shape, or may be formed in another shape (for example, a rectangular shape). The visible light LED 312 and the infrared LED 313 may be formed in a substantially circular shape around the image sensor 316a, or may be formed in another shape (for example, a rectangular shape). A plurality of visible light LEDs 312 and infrared LEDs 313 may be provided, and the visible light LEDs 312 and the infrared LEDs 313 may be alternately arranged. The visible light LEDs 312 and the infrared light LEDs 313 may not be alternately arranged.

図4に示すように、第2ポール206が伸長されていない非伸長状態であると、水平方向においてUAV本体102から第2ポール206が突出する部分が短くなり、又はUAV本体102から第2ポール206が突出しない。そのため、無人航空機100は、飛行中に第2ポール206が他の物体に衝突等することを意識する必要が低くなり、安全な飛行をし易くなる。   As shown in FIG. 4, when the second pole 206 is not extended, in a non-extended state, the portion where the second pole 206 protrudes from the UAV main body 102 becomes short in the horizontal direction, or the second pole from the UAV main body 102 206 does not protrude. Therefore, in the unmanned aerial vehicle 100, it becomes less necessary to be aware that the second pole 206 collides with another object during flight, and it becomes easy to make a safe flight.

図5に示すように、第2ポール206が伸長された伸長状態であると、水平方向においてUAV本体102から第2ポール206が突出する部分が長くなる。そのため、無人航空機100は、伸長された第2ポール206よりも先端側に位置するセンサ部310と、UAV本体102や回転翼211と、の距離を長くすることができる。この場合、無人航空機100は、例えば瓦礫等に包囲された空間であっても、センサ部310を用いた各種測定をし易くなる。   As shown in FIG. 5, when the second pole 206 is in the extended state, the portion where the second pole 206 protrudes from the UAV main body 102 in the horizontal direction becomes long. Therefore, the unmanned aerial vehicle 100 can lengthen the distance between the sensor unit 310 located on the tip side of the extended second pole 206 and the UAV main body 102 or the rotary wing 211. In this case, the unmanned aerial vehicle 100 can easily perform various measurements using the sensor unit 310 even in a space surrounded by rubble, for example.

また、センサ部310に含まれる各種センサは、全てが同時に動作する必要はなく、一部がオフにされたり、他の一部がオンにされたりしてよい。例えば、障害物(例えば瓦礫)に埋まっている調査対象のデータを検出しようとする場合には、まず、撮像部316により画像を撮像し、この画像を端末80の表示部88に表示させてよい。つまり、ユーザは、目視で画像中に人等の生体が存在するかどうかを確認してよい。得られた画像において光量が不足している場合には、可視光LED312を用いて調査対象を照明し、可視画像を撮像してよい。また、赤外光LED313を用いて調査対象を照明し、赤外画像を撮像してよい。また、画像による確認が十分に行えない場合には、センサ部310は、マイクロホン317をオンにして音声データを収音したり、二酸化炭素センサ311により二酸化炭素の量を検出したりしてよい。順に各センサの電源がオンにされる場合、無人航空機100は、省電力化を図れる。なお、センサ部310の各種センサを全てオンにし、同時に動作させてもよい。この場合、無人航空機100は、短時間で調査対象のデータ(生体情報)を取得できる。   In addition, the various sensors included in the sensor unit 310 do not have to operate all at the same time, and some of them may be turned off or some of them may be turned on. For example, when detecting data to be surveyed that is buried in an obstacle (for example, rubble), first, an image may be captured by the imaging unit 316 and this image may be displayed on the display unit 88 of the terminal 80. . That is, the user may visually confirm whether or not a living body such as a person is present in the image. If the amount of light in the obtained image is insufficient, the object to be examined may be illuminated using the visible light LED 312 to pick up a visible image. In addition, an infrared light LED 313 may be used to illuminate a survey target and to capture an infrared image. In addition, when the confirmation by the image can not be sufficiently performed, the sensor unit 310 may turn on the microphone 317 to pick up voice data, or detect the amount of carbon dioxide by the carbon dioxide sensor 311. When the power of each sensor is turned on in order, the unmanned aerial vehicle 100 can achieve power saving. Note that all the various sensors of the sensor unit 310 may be turned on and operated simultaneously. In this case, the unmanned aerial vehicle 100 can acquire data (biometric information) to be surveyed in a short time.

また、図4及び図5では、第1超音波センサ280は、UAV本体102の前方に取り付けられている。第1超音波センサ280は、UAV本体102の前端(つまり、無人航空機100の前端、無人航空機100が備える前方の回転翼211の前端)から物体(例えば調査対象の周囲の障害物)までの距離を検出する。   Also, in FIGS. 4 and 5, the first ultrasonic sensor 280 is attached to the front of the UAV main body 102. The first ultrasonic sensor 280 is a distance from the front end of the UAV body 102 (that is, the front end of the unmanned aerial vehicle 100, the front end of the rotary wing 211 in front of the unmanned aerial vehicle 100) to an object (for example, an obstacle around the surveyed object) To detect

図7は、収容ボックス320の構成例を示す概略斜視図である。   FIG. 7 is a schematic perspective view showing a configuration example of the storage box 320. As shown in FIG.

収容ボックス320は、1つ以上の発信機400(例えば小型発信機)を搭載し、収容する。収容ボックス320は、1つ以上の開閉部321(例えば開閉扉)及びカメラ322を有する。   The accommodation box 320 mounts and accommodates one or more transmitters 400 (e.g., small transmitters). The storage box 320 has one or more opening / closing units 321 (for example, an opening / closing door) and a camera 322.

開閉部321は、通常時には閉じられている。開閉部321は、例えばUAV制御部110の制御により、開かれてよい。例えば、UAV制御部110は、GPS受信機240を介して取得された位置情報が所定の位置を示す場合に、開閉部321を開いてよい。UAV制御部110は、通信インタフェース150を介して取得された端末80の操作部83の操作情報(開指示情報)に基づいて、開閉部321を開いてよい。開閉部321が開かれると、収容ボックス320に収容された発信機400が開閉部321を通過し、投下される。無人航空機100は、発信機400を投下することで、発信機が投下された位置をマーキングすることができる。例えば、ユーザが発信機400の電波を捕捉することで、発信機400の投下位置の周辺に存在する生体を発見し易くなる。なお、ユーザは、生体を探索する人(例えば災害現場や事故現場で生体の探索や救助を行う救助隊員)や生体の探索を支援する人(例えばセンタに待機して救助隊員と連携する人)、その他の人でよい。   The opening and closing unit 321 is normally closed. The open / close unit 321 may be opened, for example, under the control of the UAV control unit 110. For example, when the position information acquired via the GPS receiver 240 indicates a predetermined position, the UAV control unit 110 may open the opening / closing unit 321. The UAV control unit 110 may open the open / close unit 321 based on the operation information (open instruction information) of the operation unit 83 of the terminal 80 acquired via the communication interface 150. When the opening / closing unit 321 is opened, the transmitter 400 accommodated in the accommodation box 320 passes through the opening / closing unit 321 and is dropped. The unmanned aerial vehicle 100 can mark the position where the transmitter was dropped by dropping the transmitter 400. For example, when the user captures the radio wave of the transmitter 400, it becomes easy to find a living body around the dropping position of the transmitter 400. The user is a person who searches for a living body (for example, a rescue worker who searches for or rescues a living body at a disaster site or an accident site) or a person who supports searching for a living body (for example, a person who stands by at a center and cooperates with a rescue worker) , Other people may be good.

カメラ322は、例えば、収容ボックス320の下部に設けられ、収容ボックス320の下方の画像を撮像する。カメラ322は、例えば、収容ボックス320から発信機400を投下する際に、発信機400の投下位置を確認するために用いられる。カメラ322により画像を撮像することで、無人航空機100は、投下された発信機400が生体に落下することを抑制可能である。カメラ322により撮像された画像は、端末80へ送られ、表示されてよい。   The camera 322 is provided, for example, at the lower part of the storage box 320, and captures an image of the lower part of the storage box 320. The camera 322 is used, for example, to confirm the dropping position of the transmitter 400 when dropping the transmitter 400 from the containing box 320. By capturing an image with the camera 322, the unmanned aerial vehicle 100 can suppress the dropped transmitter 400 from falling into a living body. The image captured by the camera 322 may be sent to the terminal 80 and displayed.

発信機400は、電波を発信する。発信された電波は、例えば、ユーザが所持する端末80に受信されてよい。この場合、ユーザは、このユーザが所持する端末80による発信機400からの電波の受信状況を確認することで、発信機400が存在するか否か、つまり生体が存在するかを判定できる。よって、発信機400は、ユーザによる災害救助を支援できる。   The transmitter 400 transmits a radio wave. The transmitted radio wave may be received by, for example, the terminal 80 possessed by the user. In this case, the user can determine whether the transmitter 400 is present, that is, whether a living body exists, by confirming the reception condition of radio waves from the transmitter 400 by the terminal 80 possessed by the user. Thus, the transmitter 400 can support disaster relief by the user.

発信機400は、自機を識別するための自機に固有の識別情報を含む信号を発信してよい。発信機400が複数存在する場合、発信機400の識別情報はそれぞれ異なる。そのため、収容ボックス320から複数の発信機400が投下された場合でも、端末80により受信した信号に含まれる識別情報によって、どの発信機400が発する信号かが識別可能である。   The transmitter 400 may transmit a signal including identification information unique to the own device for identifying the own device. When a plurality of transmitters 400 exist, identification information of the transmitters 400 is different. Therefore, even when a plurality of transmitters 400 are dropped from the accommodation box 320, it is possible to identify which of the transmitters 400 emits a signal from the identification information included in the signal received by the terminal 80.

発信機400は、発信機400の各部へ電力を供給するためのバッテリを有する。バッテリは、例えば発信機400が少なくとも48時間にわたって稼働することが可能な容量を有する。これにより、発信機400は、48時間以上連続的に電波を発信し続けることができ、発信機400の近くに存在する生存者の発見をし易くできる。   The transmitter 400 has a battery for supplying power to each part of the transmitter 400. The battery has, for example, a capacity that allows the transmitter 400 to operate for at least 48 hours. As a result, the transmitter 400 can continuously transmit radio waves continuously for 48 hours or more, and it becomes easy to find a survivor present near the transmitter 400.

図8は、端末80のハードウェア構成の一例を示すブロック図である。端末80は、端末制御部81、操作部83、通信部85、メモリ87、表示部88、及びストレージ89を備えてよい。端末80は、ユーザに所持され得る。端末80とともに、送信機50が、ユーザに所持されてもよい。   FIG. 8 is a block diagram showing an example of the hardware configuration of the terminal 80. As shown in FIG. The terminal 80 may include a terminal control unit 81, an operation unit 83, a communication unit 85, a memory 87, a display unit 88, and a storage 89. The terminal 80 may be possessed by a user. The transmitter 50 may be possessed by the user together with the terminal 80.

端末制御部81は、例えばCPU、MPU又はDSPを用いて構成される。端末制御部81は、端末80の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。   The terminal control unit 81 is configured using, for example, a CPU, an MPU or a DSP. The terminal control unit 81 performs signal processing for integrally controlling the operation of each unit of the terminal 80, input / output processing of data between the other units, arithmetic processing of data, and storage processing of data.

端末制御部81は、通信部85を介して、無人航空機100サーバ装置や送信機50からのデータや空撮画像や情報(例えば生体情報)を取得してよい。端末制御部81は、操作部83を介して入力されたデータや情報を取得してよい。端末制御部81は、メモリ87又はストレージ89に保持されたデータや空撮画像や情報を取得してよい。端末制御部81は、通信部85を介して、無人航空機100やサーバ装置や送信機50へ、データや情報を送信してよい。端末制御部81は、データや情報や空撮画像を表示部88に送り、このデータや情報や空撮画像に基づく表示情報を表示部88に表示させてよい。   The terminal control unit 81 may acquire data from the unmanned aerial vehicle 100 server device or the transmitter 50, an aerial image or information (for example, biological information) via the communication unit 85. The terminal control unit 81 may acquire data and information input via the operation unit 83. The terminal control unit 81 may acquire data or an aerial image or information held in the memory 87 or the storage 89. The terminal control unit 81 may transmit data or information to the unmanned aerial vehicle 100, the server device, or the transmitter 50 via the communication unit 85. The terminal control unit 81 may send data, information, and an aerial image to the display unit 88, and cause the display unit 88 to display display information based on the data, information, and the aerial image.

端末制御部81は、生体の探索を支援するためのアプリケーション(生体探索支援アプリケーション)を実行してよい。端末制御部81は、アプリケーションで用いられる各種のデータを生成してよい。   The terminal control unit 81 may execute an application (a living body search support application) for supporting a search for a living body. The terminal control unit 81 may generate various data used in the application.

操作部83は、端末80のユーザにより入力されるデータや情報を受け付けて取得する。操作部83は、ボタン、キー、タッチパネル、マイクロホン、等を含んでよい。ここでは、主に、操作部83と表示部88とがタッチパネルにより構成されることを例示する。この場合、操作部83は、タッチ操作、タップ操作、ドラック操作等を受付可能である。操作部83は、各種パラメータの情報を受け付けてよい。操作部83により入力された情報は、無人航空機100やサーバ装置や送信機50へ送信されてよい。   The operation unit 83 receives and acquires data and information input by the user of the terminal 80. The operation unit 83 may include a button, a key, a touch panel, a microphone, and the like. Here, it is mainly illustrated that the operation unit 83 and the display unit 88 are configured by a touch panel. In this case, the operation unit 83 can receive a touch operation, a tap operation, a drag operation, and the like. The operation unit 83 may receive information on various parameters. The information input by the operation unit 83 may be transmitted to the unmanned aerial vehicle 100, a server device, or the transmitter 50.

通信部85は、各種の無線通信方式により、無人航空機100やサーバ装置40や送信機50との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。通信部85は、任意の有線通信方式により有線通信してもよい。   The communication unit 85 performs wireless communication with the unmanned aerial vehicle 100, the server device 40, and the transmitter 50 by various wireless communication methods. The wireless communication scheme of the wireless communication may include, for example, communication via a wireless LAN, Bluetooth (registered trademark), or a public wireless channel. The communication unit 85 may perform wired communication by any wired communication method.

メモリ87は、例えば端末80の動作を規定するプログラムや設定値のデータが格納されたROMと、端末制御部81の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。メモリ87には、ROM及びRAM以外のメモリが含まれてよい。メモリ87は、端末80の内部に設けられてよい。メモリ87は、端末80から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。   The memory 87 has, for example, a ROM storing a program for defining the operation of the terminal 80 and data of setting values, and a RAM for temporarily storing various information and data used in processing of the terminal control unit 81. You may The memory 87 may include memories other than the ROM and the RAM. The memory 87 may be provided inside the terminal 80. The memory 87 may be removable from the terminal 80. The program may include an application program.

表示部88は、例えばLCD(Liquid Crystal Display)を用いて構成され、端末制御部81から出力された各種の情報やデータや空撮画像や生体情報を表示する。表示部88は、アプリケーションの実行に係る各種データや情報を表示してよい。   The display unit 88 is configured using, for example, an LCD (Liquid Crystal Display), and displays various information and data output from the terminal control unit 81, an aerial image, and biological information. The display unit 88 may display various data and information related to the execution of the application.

ストレージ89は、各種データ、情報を蓄積し、保持する。ストレージ89は、HDD、SSD、SDカード、USBメモリ、等でよい。ストレージ89は、端末80の内部に設けられてよい。ストレージ89は、端末80から取り外し可能に設けられてよい。ストレージ89は、無人航空機100やサーバ装置40や送信機50から取得された空撮画像や生体情報を保持してよい。   The storage 89 accumulates and holds various data and information. The storage 89 may be an HDD, an SSD, an SD card, a USB memory, or the like. The storage 89 may be provided inside the terminal 80. The storage 89 may be provided removable from the terminal 80. The storage 89 may hold aerial images and biological information acquired from the unmanned aerial vehicle 100, the server device 40, and the transmitter 50.

送信機50は、端末80と同様の構成部を有するので、詳細な説明については省略する。送信機50は、制御部、操作部、通信部、メモリ、等を有する。操作部は、例えば、無人航空機100の飛行の制御を指示するためのコントロールスティックでよい。送信機50は、表示部を有してもよい。送信機50は、端末80と同様の機能を有し、端末80が省略されてもよい。端末80は、送信機50と同様の機能を有し、送信機50が省略されてもよい。   The transmitter 50 has the same configuration as the terminal 80, and thus the detailed description is omitted. The transmitter 50 includes a control unit, an operation unit, a communication unit, a memory, and the like. The operation unit may be, for example, a control stick for instructing control of the flight of the unmanned aerial vehicle 100. The transmitter 50 may have a display. The transmitter 50 has the same function as the terminal 80, and the terminal 80 may be omitted. The terminal 80 has the same function as the transmitter 50, and the transmitter 50 may be omitted.

図9は、サーバ装置40のハードウェア構成の一例を示すブロック図である。サーバ装置40は、サーバ制御部41、通信部45、メモリ47及びストレージ49を備えてよい。サーバ装置40は、例えば災害救助を行うためのセンタに設置されてよい。センタには、モニタが備えられ、サーバ制御部41の制御により、サーバ制御部41により処理した各種情報が表示されてよい。   FIG. 9 is a block diagram showing an example of the hardware configuration of the server device 40. As shown in FIG. The server device 40 may include a server control unit 41, a communication unit 45, a memory 47, and a storage 49. The server device 40 may be installed, for example, at a center for disaster relief. The center may be provided with a monitor, and under control of the server control unit 41, various information processed by the server control unit 41 may be displayed.

サーバ制御部41は、例えばCPU、MPU又はDSPを用いて構成される。サーバ制御部41は、サーバ装置40の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。   The server control unit 41 is configured using, for example, a CPU, an MPU or a DSP. The server control unit 41 performs signal processing for integrally controlling the operation of each unit of the server device 40, data input / output processing with other units, data calculation processing, and data storage processing.

サーバ制御部41は、通信部45を介して、無人航空機100や送信機50や端末80からのデータや空撮画像や情報(例えば生体情報)を取得してよい。サーバ制御部41は、メモリ47又はストレージ49に保持されたデータや空撮画像や情報を取得してよい。サーバ制御部41は、通信部45を介して、無人航空機100や送信機50や端末80へ、データや情報を送信してよい。   The server control unit 41 may acquire data from the unmanned aerial vehicle 100, the transmitter 50, and the terminal 80, an aerial image, and information (for example, biometric information) via the communication unit 45. The server control unit 41 may acquire data or an aerial image or information held in the memory 47 or the storage 49. The server control unit 41 may transmit data and information to the unmanned aerial vehicle 100, the transmitter 50, and the terminal 80 via the communication unit 45.

サーバ制御部41は、生体の探索を支援するためのアプリケーション(生体探索支援アプリケーション)を実行してよい。サーバ制御部41は、アプリケーションで用いられる各種のデータを生成してよい。   The server control unit 41 may execute an application (a living body search support application) for supporting a search for a living body. The server control unit 41 may generate various data used in the application.

通信部45は、各種の無線通信方式により、無人航空機100や送信機50や端末80との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。通信部45は、任意の有線通信方式により有線通信してもよい。   The communication unit 45 wirelessly communicates with the unmanned aerial vehicle 100, the transmitter 50, and the terminal 80 by various wireless communication methods. The wireless communication scheme of the wireless communication may include, for example, communication via a wireless LAN, Bluetooth (registered trademark), or a public wireless channel. The communication unit 45 may perform wired communication by any wired communication method.

メモリ47は、例えばサーバ装置40の動作を規定するプログラムや設定値のデータが格納されたROMと、サーバ制御部41の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。メモリ47には、ROM及びRAM以外のメモリが含まれてよい。メモリ47は、サーバ装置40の内部に設けられてよい。メモリ47は、サーバ装置40から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。   The memory 47 includes, for example, a ROM storing a program for defining the operation of the server device 40 and data of setting values, and a RAM for temporarily storing various information and data used in processing of the server control unit 41. You may The memory 47 may include memories other than the ROM and the RAM. The memory 47 may be provided inside the server device 40. The memory 47 may be provided to be removable from the server device 40. The program may include an application program.

ストレージ49は、各種データ、情報を蓄積し、保持する。ストレージ49は、HDD、SSD、SDカード、USBメモリ、等でよい。ストレージ49は、サーバ装置40の内部に設けられてよい。ストレージ89は、サーバ装置40から取り外し可能に設けられてよい。サーバ装置40は、無人航空機100や送信機50や端末80から取得された空撮画像や生体情報を保持してよい。   The storage 49 accumulates and holds various data and information. The storage 49 may be an HDD, an SSD, an SD card, a USB memory, or the like. The storage 49 may be provided inside the server device 40. The storage 89 may be provided to be removable from the server device 40. The server device 40 may hold aerial images and biological information acquired from the unmanned aerial vehicle 100, the transmitter 50, and the terminal 80.

次に、無人航空機100に係る各種長さについて説明する。
図10は、無人航空機100に係る各種長さを説明するための図である。図10では、無人航空機100を無人航空機100の真下から見ている。
Next, various lengths of the unmanned aerial vehicle 100 will be described.
FIG. 10 is a view for explaining various lengths of the unmanned aerial vehicle 100. As shown in FIG. In FIG. 10, the unmanned aerial vehicle 100 is viewed from directly below the unmanned aerial vehicle 100.

長さL1は、第2ポール206の全体の長さ(全長)を示し、「L_Total」とも記載する。長さL2は、第1ジンバル200の中心部c1(言い換えると第2ポール206の一端)から前方(図10では右方)の回転翼211の端部までの距離を示し、「L_front」とも記載する。つまり長さL2は、無人航空機100の前後方向の長さの略半分を示してよい。長さL3は、センサ部310を動作させるために、調査対象に進入した場合(調査対象の周囲の障害物の隙間に進入した場合)の進入位置p1から第2ジンバル202(第2ジンバル202の中心部)までの最短距離を示し、「L_min」とも記載する。言い換えると、センサ部310が生体情報を検出可能となるために、調査対象が存在する空間(調査空間ともいう)にセンサ部310が最低限進入するべき長さである。第2ポール206のうち、調査空間内に長さL3に相当する部分が進入すれば、センサ部310が好適に動作し、生体情報の検出が可能となる。L_minは、例えば、cmオーダーの長さでよく、10cm、20cm程度でよい。   The length L1 indicates the entire length (full length) of the second pole 206 and is also described as "L_Total". The length L2 indicates the distance from the center portion c1 of the first gimbal 200 (in other words, one end of the second pole 206) to the end of the rotary wing 211 forward (rightward in FIG. 10), and is also described as "L_front" Do. That is, the length L2 may indicate approximately half the length of the unmanned aerial vehicle 100 in the front-rear direction. The length L3 is set to the second gimbal 202 (the second gimbal 202) from the approach position p1 when the sensor part 310 is operated, when it enters the examination target (when it enters the gap of the obstacle around the Indicates the shortest distance to the center), and is also described as “L_min”. In other words, in order for the sensor unit 310 to be able to detect biological information, it is a length at which the sensor unit 310 should at least enter the space in which the investigation target exists (also referred to as the investigation space). If a portion of the second pole 206 corresponding to the length L3 enters the investigation space, the sensor unit 310 operates properly, and detection of biological information becomes possible. L_min may be, for example, a length on the order of cm, and may be about 10 cm or 20 cm.

長さL2は、第2ポール206の一端から回転翼211の端部に対応する第2ポール206の第1の点までの長さの一例である。長さL1は、第2ポール206の一端から他端までの長さの一例である。長さL3は、調査対象が存在する調査空間に挿入される第2ポール206の他端から第2の点までの長さの一例である。   The length L2 is an example of the length from one end of the second pole 206 to the first point of the second pole 206 corresponding to the end of the rotary wing 211. The length L1 is an example of the length from one end of the second pole 206 to the other end. The length L3 is an example of the length from the other end of the second pole 206 inserted into the survey space where the survey target exists to the second point.

なお、長さL1〜L3は、いずれも固定値である。長さL3は、センサ部310における各種センサによる検出可能範囲の大きさに依存する。   The lengths L1 to L3 are all fixed values. The length L3 depends on the size of the detectable range of various sensors in the sensor unit 310.

調査空間内に第2ポール206が長さL3以上にわたって進入しているか否かは、センサ部310を好適に使用するための条件となる。そのため、本実施形態では、この条件を「センサ条件」とも称する。したがって、調査空間内に第2ポール206が長さL3以上進入している場合、センサ条件を満たしている。調査空間内に第2ポール206が長さL3未満進入している場合、又は、調査空間内に第2ポール206が進入していない場合、センサ条件を満たしていない。   Whether or not the second pole 206 has entered the survey space over the length L3 or more is a condition for suitably using the sensor unit 310. Therefore, in the present embodiment, this condition is also referred to as "sensor condition". Therefore, the sensor condition is satisfied when the second pole 206 has entered into the survey space for the length L3 or more. If the second pole 206 has entered less than the length L3 in the examination space, or if the second pole 206 has not entered the examination space, the sensor condition is not satisfied.

ここで、センサ条件を満たすか満たさないかの境界である、障害物の隙間の奥に存在する調査空間内に第2ポール206がちょうど長さL3で進入した場合の、無人航空機100の前端(前方の回転翼211の前端)と障害物との距離を、基準長さdとする。調査空間内に、第2ポール206が長さL3以上の長さで進入した場合、第2ポール206がちょうど長さL3で進入した場合と比較すると、無人航空機100は、より前方に位置する。そのため、無人航空機100の前端と障害物との距離は、基準長さdよりも短くなる。したがって、無人航空機100の前端と障害物との距離が、基準長さdよりも短くなると、センサ条件を満たすことになる。一方、無人航空機100の前端と障害物との距離が、長さdよりも長くなると、センサ条件を満たさないことになる。   Here, the front end of the unmanned aerial vehicle 100 in the case where the second pole 206 has just entered the length L 3 into the survey space existing at the back of the gap of the obstacle, which is the boundary whether or not the sensor condition is satisfied. The distance between the front end of the front rotary wing 211 and the obstacle is a reference length d. When the second pole 206 enters with the length L3 or more in the survey space, the unmanned aerial vehicle 100 is positioned more forward than the case where the second pole 206 enters with the length L3. Therefore, the distance between the front end of the UAV 100 and the obstacle is shorter than the reference length d. Therefore, when the distance between the front end of the unmanned aerial vehicle 100 and the obstacle becomes shorter than the reference length d, the sensor condition is satisfied. On the other hand, when the distance between the front end of the unmanned aerial vehicle 100 and the obstacle becomes longer than the length d, the sensor condition will not be satisfied.

基準長さdの一例として、第2ポール206が基準方向に延びている場合の基準長さを、基準長さd0とする(図25B、図26B、図26C参照)。基準長さdの一例として、第2ポール206が基準方向から変更された方向に延びている場合の基準長さを、基準長さd1とする(図26D参照)。   As an example of the reference length d, a reference length in the case where the second pole 206 extends in the reference direction is taken as a reference length d0 (see FIGS. 25B, 26B, and 26C). As an example of the reference length d, a reference length when the second pole 206 extends in the direction changed from the reference direction is set as a reference length d1 (see FIG. 26D).

UAV制御部110は、センサ部310により生体情報を検出する際、センサ条件を満たしているか否かを判定してよい。UAV制御部110は、第2ポール206の向きが変更された場合、センサ条件を満たしているか否かを判定してよい。UAV制御部110は、第2ポール206の向きが変更される度に、センサ条件を満たしているか否かを判定してよい。   When the biological information is detected by the sensor unit 310, the UAV control unit 110 may determine whether the sensor condition is satisfied. When the orientation of the second pole 206 is changed, the UAV control unit 110 may determine whether the sensor condition is satisfied. Every time the direction of the second pole 206 is changed, the UAV control unit 110 may determine whether the sensor condition is satisfied.

次に、生体探索システム10による無人航空機100、送信機50及び端末80を用いた生体の探索例について説明する。   Next, a search example of a living body using the unmanned aerial vehicle 100, the transmitter 50, and the terminal 80 by the living body search system 10 will be described.

生体探索システム10は、地震等により壊れた建物の残骸に埋まっている生存者等の生体を探索する。この場合、ユーザは、送信機50等を用いて、安全な場所において無人航空機100を飛行させ、無人航空機100が捜索地域SR1(調査領域)において生体を探索し、無人航空機100により得られた生体情報を基に、生体の探索を行ってよい。無人航空機100とユーザが所持する送信機50や端末80との間では、無線通信等によりデータ通信される。   The living body search system 10 searches for living bodies such as survivors buried in the debris of a building broken due to an earthquake or the like. In this case, the user causes the unmanned aerial vehicle 100 to fly at a safe place using the transmitter 50 and the like, and the unmanned aerial vehicle 100 searches for a living body in the search area SR1 (survey area). Based on the information, a living body may be searched. Data communication is performed by wireless communication or the like between the unmanned aerial vehicle 100 and the transmitter 50 or the terminal 80 possessed by the user.

無人航空機100では、UAV制御部110は、生体の探索に関する機能を有し、生体の探索に関する処理を行う。送信機50は、生体の探索の支援に関する機能を有し、生体の探索の支援に関する処理を行う。端末80では、端末制御部81は、生体の探索の支援に関する機能を有し、生体の探索の支援に関する処理を行う。サーバ装置40では、サーバ制御部41は、生体の探索の支援に関する機能を有し、生体の探索の支援に関する処理を行う。   In the unmanned aerial vehicle 100, the UAV control unit 110 has a function related to searching for a living body, and performs processing related to searching for a living body. The transmitter 50 has a function related to the support of the search of a living body, and performs processing related to the support of the search of the living body. In the terminal 80, the terminal control unit 81 has a function related to the support of the search of a living body, and performs processing related to the support of the search of the living body. In the server device 40, the server control unit 41 has a function related to the support of the search of a living body, and performs processing related to the support of the search of the living body.

図11は、捜索地域A1の一例を示す図である。   FIG. 11 is a diagram showing an example of the search area A1.

無人航空機100は、捜索地域SR1(調査領域の一例)の領域内を飛行する。UAV制御部110は、送信機50からの操作情報(飛行制御の指示情報)を取得し、操作情報に基づいて無人航空機100を捜索地域SR1内で移動させてよい。つまり、無人航空機100は、ユーザ操作で(手動で)飛行操作されてよい。UAV制御部110は、メモリ160等から飛行経路情報を取得し、飛行経路情報に基づいて無人航空機100を捜索地域SR1内で移動させてよい。UAV制御部110は、センサ部310により検出された検出情報を取得し、検出情報に基づいて無人航空機100を捜索地域SR1内で移動させてよい。つまり、無人航空機100は、ユーザ操作無しで(自動で)飛行制御されてよい。   The unmanned aerial vehicle 100 flies in the area of a search area SR1 (an example of a survey area). The UAV control unit 110 may obtain operation information (instruction information for flight control) from the transmitter 50, and move the unmanned aircraft 100 within the search area SR1 based on the operation information. That is, the unmanned aerial vehicle 100 may be fly operated (manually) by user operation. The UAV control unit 110 may obtain flight path information from the memory 160 or the like, and move the unmanned aerial vehicle 100 within the search area SR1 based on the flight path information. The UAV control unit 110 may acquire detection information detected by the sensor unit 310, and move the unmanned aerial vehicle 100 within the search area SR1 based on the detection information. That is, the unmanned aerial vehicle 100 may be flight-controlled (automatically) without user operation.

例えば、UAV制御部110は、撮像部316により撮像された画像において、画像認識等により画像内に調査対象(例えば生体)が認識された場合、無人航空機100を、認識された調査対象を含む所定範囲内で移動させてよく、又は認識された調査対象に向かって移動させてよい。ここでの調査対象は、特定の物体(生体等)でもよいし、特定の場所(生存者がいそうな場所等)でもよい。なお、生体は、人体以外(例えば犬、猫などの動物)でもよい。   For example, when the survey target (for example, a living body) is recognized in the image by image recognition or the like in the image captured by the imaging unit 316, for example, the UAV control unit 110 determines that the unmanned aerial vehicle 100 includes the recognized survey target. It may be moved within the range, or may be moved towards the recognized research object. The object of investigation here may be a specific object (such as a living body) or a specific place (such as a place where a survivor is likely to be). The living body may be other than the human body (for example, an animal such as a dog or a cat).

UAV制御部110は、二酸化炭素センサ311により生体の存在を示す閾値th1以上の二酸化炭素が検出された場合、無人航空機100を、二酸化炭素が検出された位置を含む所定範囲内で移動させてよいし、二酸化炭素が検出された位置に向かって移動させてよい。   The UAV control unit 110 may move the unmanned aerial vehicle 100 within a predetermined range including the position at which carbon dioxide is detected, when the carbon dioxide sensor 311 detects carbon dioxide at a threshold th1 or more indicating the presence of a living body. And the carbon dioxide may be moved towards the detected position.

UAV制御部110は、赤外線センサ315により生体の温度(例えば36〜37℃程度の温度)を検出した場合、無人航空機100を、生体の温度が検出された位置を含む所定範囲内で移動させてよいし、生体の温度が検出された位置に向かって移動させてよい。   When the temperature of the living body (for example, a temperature of about 36 to 37 ° C.) is detected by the infrared sensor 315, the UAV control unit 110 moves the unmanned aerial vehicle 100 within a predetermined range including the position where the temperature of the living body is detected. It may be moved toward the position where the temperature of the living body is detected.

UAV制御部110は、マイクロホン317により何らかの音が検出された場合、無人航空機100を、音が検出された位置を含む所定範囲内で移動させてよいし、音が検出された位置に向かって移動させてよい。   When a sound is detected by the microphone 317, the UAV control unit 110 may move the unmanned aerial vehicle 100 within a predetermined range including the position at which the sound is detected, or moves toward the position at which the sound is detected. You may

UAV制御部110は、マイクロホン317により所定の音(例えば人の発する声、動物の鳴き声)が検出された場合、無人航空機100を、所定の音が検出された位置を含む所定範囲内で移動させてよいし、所定の音が検出された位置に向かって移動させてよい。   When the microphone 317 detects a predetermined sound (for example, a voice of a person or a cry of an animal), the UAV control unit 110 moves the unmanned aerial vehicle 100 within a predetermined range including the position at which the predetermined sound is detected. It may be moved toward a position where a predetermined sound is detected.

図12は、端末80における表示部88の表示例を示す図である。端末80は、例えば、PC、スマートフォン、又は送信機50でよい。   FIG. 12 is a view showing a display example of the display unit 88 in the terminal 80. As shown in FIG. The terminal 80 may be, for example, a PC, a smartphone, or a transmitter 50.

図12では、表示部88は、ライブビュー画像g11と、二酸化炭素センサ311による二酸化炭素の検出値(Readout)と、マイクロホン317による音の検出値(Readout)と、を含んで表示する。これらの表示情報は、表示部88により表示される情報の一例であり、例えばセンサ部310により検出された他の検出値が表示されてもよい。端末80では、端末制御部81は、ライブビュー画像g11や二酸化炭素の検出値や音の検出値の情報を、通信部85を介して無人航空機100から取得してよい。ライブビュー画像g11は、可視光LED312及び赤外線LED313の少なくとも1つが発光した状態で撮像部316により撮像された画像でもよいし、可視光LED312及び赤外線LED313の双方が発光していない状態で撮像部316により撮像された画像でもよい。   In FIG. 12, the display unit 88 displays the live view image g11, the detection value (Readout) of carbon dioxide by the carbon dioxide sensor 311, and the detection value (Readout) of sound by the microphone 317. The display information is an example of information displayed by the display unit 88. For example, another detection value detected by the sensor unit 310 may be displayed. In the terminal 80, the terminal control unit 81 may acquire the live view image g11, the detected value of carbon dioxide, and the information of the detected value of sound from the unmanned aerial vehicle 100 via the communication unit 85. The live view image g11 may be an image captured by the imaging unit 316 in a state where at least one of the visible light LED 312 and the infrared LED 313 emits light, or the imaging unit 316 in a state where neither the visible light LED 312 nor the infrared LED 313 emits light. It may be an image captured by

図13は、障害物BCに囲まれた調査対象SROの第1例を示す図である。障害物BCは、例えば地震により倒壊した建物、家具、の一部でよく、瓦礫でもよい。障害物BCの周囲では、捜索地域SR1の領域内を飛行する無人航空機100が、調査対象SROに近づいてきている。   FIG. 13 is a diagram showing a first example of a survey target SRO surrounded by an obstacle BC. The obstacle BC may be, for example, part of a building or furniture collapsed due to an earthquake, or may be rubble. Around the obstacle BC, the unmanned aerial vehicle 100 flying in the area of the search area SR1 is approaching the surveyed SRO.

図14は、表示部88による障害物BCの周辺の第1表示例を示す図である。図14に示されたライブビュー画像g11は、障害物BCに近づく図13の無人航空機100の撮像部316により撮像された画像である。この時点では、センサ部310は、電源オン(動作可能な状態)にされていない。そのため、センサ部310における各センサにより各種情報が検出されていない。したがって、端末80の端末制御部81は、センサ部310に含まれる二酸化炭素センサ311による検出値やマイクロホン317による検出値を取得しておらず、センサの検出結果としての検出値を表示部88に表示させていない。   FIG. 14 is a diagram showing a first display example around the obstacle BC by the display unit 88. As shown in FIG. The live view image g11 illustrated in FIG. 14 is an image captured by the imaging unit 316 of the unmanned aircraft 100 of FIG. 13 approaching the obstacle BC. At this time, the sensor unit 310 is not turned on (enabled). Therefore, various information is not detected by each sensor in the sensor unit 310. Therefore, the terminal control unit 81 of the terminal 80 does not acquire the detection value by the carbon dioxide sensor 311 or the detection value by the microphone 317 included in the sensor unit 310, and the detection value as the detection result of the sensor is displayed on the display unit 88. It is not displayed.

なお、端末制御部81は、操作部83を介してセンサ検出値の表示領域の入力(例えば押下)を検出すると、通信部85を介して、入力が検出されたセンサに対応するセンサのオンオフを指示するためのオンオフ指示情報を、無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、通信インタフェース150を介してオンオフ指示情報を取得し、オンオフ指示情報に基づいて、該当するセンサのオンオフの状態を切り替えてよい。センサ検出値の表示領域は、例えば、二酸化炭素センサ311による二酸化炭素の検出値の表示領域g12や、マイクロホン317による音声信号の検出値の表示領域g13を含んでよい。つまり、表示領域g12が押下された場合、二酸化炭素センサ311がオンやオフにされてよい。表示領域g13が押下された場合、マイクロホン317がオンやオフにされてよい。   When the terminal control unit 81 detects an input (for example, pressing) of the display area of the sensor detection value via the operation unit 83, the terminal control unit 81 turns on / off the sensor corresponding to the sensor whose input is detected via the communication unit 85. On / off instruction information for instructing may be transmitted to the unmanned aerial vehicle 100. In the unmanned aerial vehicle 100, the UAV control unit 110 may obtain on / off instruction information via the communication interface 150, and switch the on / off state of the corresponding sensor based on the on / off instruction information. The display area of the sensor detection value may include, for example, a display area g12 of a detection value of carbon dioxide by the carbon dioxide sensor 311 and a display area g13 of a detection value of an audio signal by the microphone 317. That is, when the display area g12 is pressed, the carbon dioxide sensor 311 may be turned on or off. When the display area g13 is pressed, the microphone 317 may be turned on or off.

無人航空機100は、センサ部310に含まれる各種センサのオンオフの状態を切り替えることで、非使用時にオン状態が継続されることを抑制でき、センサ部310の消費電力を低減できる。また、端末80は、操作部83を介して各種センサのオンオフを指示できるので、直感的に容易に各種センサのオンオフの状態を切り替えできる。   By switching the on / off states of the various sensors included in the sensor unit 310, the unmanned aerial vehicle 100 can suppress the continuation of the on state when not in use, and can reduce the power consumption of the sensor unit 310. In addition, since the terminal 80 can instruct on / off of various sensors via the operation unit 83, it is possible to intuitively easily switch on / off states of various sensors.

なお、表示部88におけるライブビュー画像g11の領域には、可視光LED312の点灯/消灯の状態を示すLEDボタンB1と、赤外線LED313の点灯/消灯の状態を示すIRLEDボタンB2と、が存在する。例えば、可視光LED312及び赤外線LED313の点灯状態は、実線で示され、可視光LED312及び赤外線LED313の消灯状態は、点線で示される。図14では、LEDボタンB1及びIRLEDボタンB2が点線で示されており、可視光LED312及び赤外線LED313が消灯されている状態であることを示す。   In the region of the live view image g11 in the display unit 88, there are an LED button B1 indicating the on / off state of the visible light LED 312 and an IR LED button B2 indicating the on / off state of the infrared LED 313. For example, the lighting states of the visible light LED 312 and the infrared LED 313 are indicated by a solid line, and the extinguishing states of the visible light LED 312 and the infrared LED 313 are indicated by a dotted line. In FIG. 14, the LED button B1 and the IR LED button B2 are shown by dotted lines, which indicate that the visible light LED 312 and the infrared LED 313 are in the off state.

なお、端末制御部81は、操作部83を介してLEDボタンB1の入力(例えば押下)を検出すると、LED312の点灯状態及び消灯状態を切り替えてよい。同様に、端末制御部81は、操作部83を介してIRLEDボタンB2の入力(例えば押下)を検出すると、IRLED313の点灯状態及び消灯状態を切り替えてよい。   When the terminal control unit 81 detects an input (for example, a press) of the LED button B1 via the operation unit 83, the terminal control unit 81 may switch the on / off state of the LED 312. Similarly, when the terminal control unit 81 detects an input (for example, pressing) of the IR LED button B2 via the operation unit 83, the terminal control unit 81 may switch on and off the IR LED 313.

ユーザは、端末80の表示部88を介して、ライブビュー画像g11により捜索地域SR1の状況(現場の状況)を確認する。無人航空機100は、上記の手動又は自動により移動して、調査対象SROに接近し、又は調査対象SROを取り囲む障害物BCに接近する。障害物BCへの接近時には、無人航空機100のUAV制御部110は、第2ポール206を、水平方向(ロール軸及びピッチ軸に平行な方向)に維持し、無人航空機100の前進方向にセンサ部310が向くように制御する。UAV制御部110は、例えば複数の障害物BCの隙間に向かって無人航空機100が接近するよう飛行を制御する。この結果、例えば、複数の障害物BCの隙間の奥に存在する調査対象SRO(例えば生体)に、無人航空機100が接近することになる。   The user confirms the situation (the situation of the site) of the search area SR1 with the live view image g11 via the display unit 88 of the terminal 80. The unmanned aerial vehicle 100 moves manually or automatically as described above to approach the surveyed SRO or an obstacle BC surrounding the surveyed SRO. When approaching the obstacle BC, the UAV control unit 110 of the unmanned aerial vehicle 100 maintains the second pole 206 in the horizontal direction (a direction parallel to the roll axis and the pitch axis), and the sensor portion in the forward direction of the unmanned aerial vehicle 100 Control so that 310 points. The UAV control unit 110 controls flight so that the unmanned aerial vehicle 100 approaches, for example, a gap between a plurality of obstacles BC. As a result, for example, the unmanned aerial vehicle 100 approaches the survey target SRO (for example, a living body) present in the back of the gaps between the plurality of obstacles BC.

図15は、障害物BCに囲まれた調査対象SROの第2例を示す図である。障害物BCの周囲では、捜索地域SR1の領域内を飛行する無人航空機100が、図13の状態よりも調査対象SROに更に近づいてきている。   FIG. 15 is a diagram showing a second example of the investigation target SRO surrounded by the obstacle BC. Around the obstacle BC, the unmanned aerial vehicle 100 flying in the area of the search area SR1 is closer to the investigation target SRO than the state of FIG.

図16は、表示部88による障害物BCの周辺の第2表示例を示す図である。図16に示されたライブビュー画像g11は、図14の状態よりも更に調査対象SROに近づいた図15の無人航空機100の撮像部316により撮像された画像である。図16では、センサ部310に含まれる撮像部316が、障害物BCに包囲された内部の調査対象SROを確認できるように、撮像部316が調査対象SROを向くように調整されている。撮像部316の向きは、UAV制御部110により制御されてよい。   FIG. 16 is a view showing a second display example around the obstacle BC by the display unit 88. As shown in FIG. The live view image g11 shown in FIG. 16 is an image captured by the imaging unit 316 of the unmanned aerial vehicle 100 of FIG. 15 closer to the investigation target SRO than the state of FIG. In FIG. 16, the imaging unit 316 included in the sensor unit 310 is adjusted to face the investigation target SRO so that the inside of the investigation target SRO surrounded by the obstacle BC can be confirmed. The orientation of the imaging unit 316 may be controlled by the UAV control unit 110.

また、図16のタイミングでは、第1超音波センサ280が、電源オンされており、動作可能となっている。第1超音波センサ280は、第1超音波センサ280から(つまり無人航空機100から)調査対象SROや障害物BCまでの距離を測定する。端末80では、端末制御部81が、通信部85を介して、第1超音波センサ280による距離の測定結果を取得する。端末制御部81は、取得された距離の測定結果に基づいて、障害物BCが近くに存在することを示す障害物接近マークMK1(例えばMK11,MK12)を、表示部88に表示させてよい。障害物接近マークMK1は、例えば超音波が発信されていることを示すマークや、そのマークにより表現されてよい。   Further, at the timing shown in FIG. 16, the first ultrasonic sensor 280 is powered on and is operable. The first ultrasonic sensor 280 measures the distance from the first ultrasonic sensor 280 (that is, from the unmanned aerial vehicle 100) to the investigation target SRO and the obstacle BC. In the terminal 80, the terminal control unit 81 acquires the measurement result of the distance by the first ultrasonic sensor 280 via the communication unit 85. The terminal control unit 81 may cause the display unit 88 to display an obstacle approach mark MK1 (for example, MK11 and MK12) indicating that the obstacle BC is present, based on the acquired measurement result of the distance. The obstacle approach mark MK1 may be expressed by, for example, a mark indicating that an ultrasonic wave is transmitted, or the mark.

例えば、表示部88は、距離に応じて段階的に距離区分を分け、距離区分に対応する表示態様で、障害物接近マークMK1を表示してよい。ライブビュー画像g11を撮像する無人航空機100から障害物BCまでの距離は、前方及び左方において2m程度であり、右方において1m未満であってよい。例えば、上記距離が2m程度の場合には、障害物接近マークMK11(例えば斜線のハッチングを含むマーク、黄色のマーク)が表示されてよい。上記距離が1m程度の場合には、障害物接近マークMK1が障害物接近マークMK12(例えば黒塗りのマーク、赤色のマーク)で示されてよい。   For example, the display unit 88 may divide the distance division in stages according to the distance, and display the obstacle approach mark MK1 in a display mode corresponding to the distance division. The distance from the unmanned aerial vehicle 100 that captures the live view image g11 to the obstacle BC may be about 2 m in front and left, and less than 1 m in the right. For example, when the distance is about 2 m, an obstacle approach mark MK11 (for example, a mark including hatching, a yellow mark) may be displayed. When the distance is about 1 m, the obstacle approach mark MK1 may be indicated by an obstacle approach mark MK12 (for example, a black mark, a red mark).

表示態様は、例えば、障害物接近マークMK1の表示色、表示パターン(例えば点灯、点滅、)その他の表示対応により示されてよい。また、端末制御部81は、障害物接近マークMK1の表示とともに、又は障害物接近マークMK1の表示の代わりに、障害物BCの接近の情報を音声情報として音声出力してもよい。この場合も、端末制御部81は、距離区分に応じて、音声出力態様を変更してよい。また、端末制御部81は、障害物BCの接近の情報を、表示や音声出力する代わりに、その他の提示方法により提示してもよい。   The display mode may be indicated, for example, by the display color of the obstacle approach mark MK1, the display pattern (for example, lighting, blinking, etc.) or other display correspondence. Further, the terminal control unit 81 may output voice of information on approach of the obstacle BC as voice information together with the display of the obstacle approach mark MK1 or instead of the display of the obstacle approach mark MK1. Also in this case, the terminal control unit 81 may change the voice output mode according to the distance division. In addition, the terminal control unit 81 may present information on the approach of the obstacle BC by other presentation methods instead of displaying and outputting voice.

このように、第1超音波センサ280は、調査対象SROの周囲に四方に存在する障害物BCとの距離を測定してよい。UAV制御部110は、第1超音波センサ280により測定された距離(測定距離)が閾値th2(安全が確保される安全距離)よりも小さい場合、端末80の表示部88にその旨を表示させてよい。この場合、UAV制御部110は、通信インタフェース150を介して、測定距離が安全距離よりも小さい旨(第1の通知情報の一例)を端末80へ送信してよい。端末制御部81は、通信部85を介して、測定距離が安全距離よりも小さい旨を取得し、測定距離が安全距離よりも小さい旨(例えば障害物接近マークMK1)を表示部88に表示させてよい。UAV制御部110は、手動又は自動で、障害物BCを避けて無人航空機100の位置を調整し、無人航空機100を調査対象SROに接近させてよい。この場合、ユーザが、測定距離が安全距離よりも小さい旨を端末80の表示部88による障害物接近マークMK1の表示により確認し、送信機50を操作することで、送信機50が、無人航空機100の飛行の制御を指示し、無人航空機100の位置の調整を指示してよい。なお、閾値th2(安全距離)は、基準長さdよりも長くてよい。   Thus, the first ultrasonic sensor 280 may measure the distance to the obstacle BC that exists in the four directions around the surveyed SRO. If the distance (measurement distance) measured by the first ultrasonic sensor 280 is smaller than a threshold th2 (safety distance for ensuring safety), the UAV control unit 110 causes the display unit 88 of the terminal 80 to display that effect. You may In this case, the UAV control unit 110 may transmit to the terminal 80 that the measurement distance is smaller than the safe distance (an example of the first notification information) via the communication interface 150. The terminal control unit 81 acquires that the measurement distance is smaller than the safety distance via the communication unit 85, and causes the display unit 88 to display that the measurement distance is smaller than the safety distance (for example, the obstacle approach mark MK1). You may The UAV control unit 110 may manually or automatically adjust the position of the unmanned aerial vehicle 100 by avoiding the obstacle BC and make the unmanned aerial vehicle 100 approach the survey target SRO. In this case, the user confirms that the measurement distance is smaller than the safe distance by the display of the obstacle approach mark MK1 by the display unit 88 of the terminal 80, and operates the transmitter 50, whereby the transmitter 50 is an unmanned aerial vehicle Control of the flight of 100 may be instructed, and adjustment of the position of the unmanned aerial vehicle 100 may be instructed. The threshold th2 (safety distance) may be longer than the reference length d.

これにより、端末80は、障害物接近マークMK1を表示することで、無人航空機100に障害物BCが接近していることを知らせることができる。よって、ユーザは、表示部88の障害物接近マークを確認しながら、無人航空機100の飛行制御を指示するための操縦を慎重に行うことができる。   Thus, the terminal 80 can notify the unmanned aircraft 100 that the obstacle BC is approaching by displaying the obstacle approach mark MK1. Thus, the user can carefully control the flight control of the UAV 100 while confirming the obstacle approach mark on the display unit 88.

図17は、障害物BCに囲まれた調査対象SROの第3例を示す図である。障害物BCの周囲では、捜索地域SR1の領域内を飛行する無人航空機100が、図15の状態よりも調査対象SROに更に近づいてきている。   FIG. 17 is a diagram showing a third example of the investigation target SRO surrounded by the obstacle BC. Around the obstacle BC, the unmanned aerial vehicle 100 flying in the area of the search area SR1 is closer to the surveyed SRO than the state of FIG.

図18は、表示部88による障害物BCの周辺の第3表示例を示す図である。図18に示されたライブビュー画像g11は、図16の状態よりも更に調査対象SROに近づいた図17の無人航空機100の撮像部316により撮像された画像である。図18では、センサ部310に含まれる撮像部316が、障害物BCに包囲された内部の調査対象SROを確認できるように、撮像部316が調査対象SROを向くように調整されている。撮像部316の向きは、UAV制御部110により調整されてよい。   FIG. 18 is a view showing a third display example of the periphery of the obstacle BC by the display unit 88. As shown in FIG. The live view image g11 shown in FIG. 18 is an image captured by the imaging unit 316 of the unmanned aerial vehicle 100 of FIG. 17 closer to the investigation target SRO than the state of FIG. In FIG. 18, the imaging unit 316 included in the sensor unit 310 is adjusted to face the investigation target SRO so that the inside of the investigation target SRO surrounded by the obstacle BC can be confirmed. The orientation of the imaging unit 316 may be adjusted by the UAV control unit 110.

図18では、表示部88が、ライブビュー画像g11に対してセンサ条件満足マークMK2を重ねて表示している。センサ条件満足マークMK2により、ライブビュー画像g11の表示領域の外縁が強調して表示(強調表示)されてよい。端末制御部81は、センサ条件を満たす場合、つまり第1超音波センサ280による障害物BCまでの測定距離が閾値th3よりも短い場合、このようなセンサ条件満足マークMK2を表示してよい。閾値th3は、上記の基準長さd0と一致してよい。センサ条件満足マークMK2は、例えば、ライブビュー画像g11の表示領域の外縁に示される太枠でよい。また、センサ条件満足マークMK2は、例えば、ライブビュー画像g11の表示領域の外縁に示される緑色の枠でよい。つまり、センサ条件満足マークMK2が、ライブビュー画像g11の注目を引くような表示態様(枠の太さ、枠の色、その他の表示態様)で表示されればよい。   In FIG. 18, the display unit 88 superimposes the sensor condition satisfaction mark MK2 on the live view image g11 and displays it. The outer edge of the display area of the live view image g11 may be highlighted (highlighted) by the sensor condition satisfaction mark MK2. The terminal control unit 81 may display such a sensor condition satisfaction mark MK2 when the sensor condition is satisfied, that is, when the measurement distance to the obstacle BC by the first ultrasonic sensor 280 is shorter than the threshold th3. The threshold th3 may coincide with the reference length d0 described above. The sensor condition satisfaction mark MK2 may be, for example, a thick frame shown on the outer edge of the display area of the live view image g11. The sensor condition satisfaction mark MK2 may be, for example, a green frame shown on the outer edge of the display area of the live view image g11. That is, the sensor condition satisfaction mark MK2 may be displayed in a display mode (frame thickness, frame color, or other display mode) that draws attention of the live view image g11.

測定距離が閾値th3よりも短い場合、センサ条件を満たし、測定距離が閾値th3以上である場合、センサ条件を満たさなくてよい。センサ条件を満足するとは、センサ部310により調査対象SROに関するデータを検出可能であることを指してよい。この場合、センサ部310における少なくとも1つのセンサにより調査対象SROに関するデータを検出可能であることを指してよい。また、センサ部310における電源オンされているセンサのうちの少なくとも1つにより調査対象SROに関するデータを検出可能であることを指してよい。   If the measurement distance is shorter than the threshold th3, the sensor condition is satisfied, and if the measurement distance is the threshold th3 or more, the sensor condition may not be satisfied. Satisfying the sensor condition may indicate that the sensor unit 310 can detect data on the surveyed SRO. In this case, at least one sensor in the sensor unit 310 may indicate that data on the survey target SRO can be detected. Also, it may indicate that data related to the survey target SRO can be detected by at least one of the sensors turned on in the sensor unit 310.

このように、ユーザは、表示部88に表示されたセンサ条件満足マークMK2を確認することで、第2ポール206を伸長することでセンサ部310によりデータ(生体情報))を検出可能であることを把握できる。したがって、無人航空機100は、この時点の位置から移動せずに、センサ部310により生体情報を検出可能である。つまり、無人航空機100及び生体探索システム10は、ユーザに対してセンサ部310による生体情報の検出が可能な状態であることを提示でき、ユーザは提示を参考にして生体探索の手順を進行できる。よって、無人航空機100及び生体探索システム10は、生体の探索効率を向上できる。   Thus, the user can detect data (biometric information) by the sensor unit 310 by extending the second pole 206 by confirming the sensor condition satisfaction mark MK2 displayed on the display unit 88. Can understand Therefore, the unmanned aerial vehicle 100 can detect biological information by the sensor unit 310 without moving from the position at this time. That is, the unmanned aerial vehicle 100 and the living body searching system 10 can present to the user that the sensor unit 310 is capable of detecting the living body information, and the user can proceed with the living search procedure with reference to the presentation. Thus, the unmanned aerial vehicle 100 and the biological search system 10 can improve the search efficiency of the living body.

図19は、障害物BCに囲まれた調査対象SROの第4例を示す図である。障害物BCの周囲では、捜索地域SR1の領域内を飛行する無人航空機100が、図17の状態よりも調査対象SROに更に接近している。また、図19では、必要に応じて第2ポール206の向きが調整されて、障害物BCの隙間に挿入され、センサ部310が調査空間に進入している。   FIG. 19 is a diagram illustrating a fourth example of the investigation target SRO surrounded by the obstacle BC. Around the obstacle BC, the unmanned aerial vehicle 100 flying in the area of the search area SR1 is closer to the surveyed SRO than the state of FIG. Further, in FIG. 19, the direction of the second pole 206 is adjusted as necessary, and inserted into the gap of the obstacle BC, and the sensor unit 310 enters the investigation space.

図20は、表示部88による障害物BCの周辺の第4表示例を示す図である。図20に示されたライブビュー画像g11は、図18の状態よりも更に調査対象SROに近づいた図19の無人航空機100の撮像部316により撮像された画像である。   FIG. 20 is a view showing a fourth display example around the obstacle BC by the display unit 88. As shown in FIG. The live view image g11 shown in FIG. 20 is an image captured by the imaging unit 316 of the unmanned aerial vehicle 100 of FIG. 19 closer to the investigation target SRO than in the state of FIG.

図20では、センサ部310(例えば撮像部316のイメージセンサ316a)が、障害物BCに包囲された内部の調査対象SROに関する情報を検出できるように、センサ部310に含まれる各種センサ(例えば二酸化炭素センサ311、イメージセンサ316a、マイクロホン317)が調査対象SROを向くように調整されてよい。この場合、第2ポール206が障害物BCの隙間を調査対象SROに向かって挿入されるように、第1ジンバル200に対する第2ポール206の角度が調整されてよい。第2ポール206の角度は、UAV制御部110により調整されてよい。また、センサ部310が所望の方向を向くように、第2ジンバル202に対するセンサ部310の角度が調整されてよい。センサ部310の角度は、UAV制御部110により調整されてよい。   In FIG. 20, various sensors (e.g., dioxide dioxide) included in the sensor unit 310 can be detected so that the sensor unit 310 (e.g., the image sensor 316a of the imaging unit 316) can detect information related to the investigation target SRO surrounded by the obstacle BC. The carbon sensor 311, the image sensor 316a, and the microphone 317) may be adjusted to face the investigation target SRO. In this case, the angle of the second pole 206 with respect to the first gimbal 200 may be adjusted such that the second pole 206 is inserted toward the investigation target SRO in the clearance of the obstacle BC. The angle of the second pole 206 may be adjusted by the UAV control unit 110. Also, the angle of the sensor unit 310 with respect to the second gimbal 202 may be adjusted so that the sensor unit 310 is directed in a desired direction. The angle of the sensor unit 310 may be adjusted by the UAV control unit 110.

図20は、図18の状態よりも調査対象SROに近づいているので、センサ条件が満たされており、センサ部310による生体情報の検出が可能な状態が継続される。よって、表示部88は、ライブビュー画像g11とともにセンサ条件満足マークMK2を表示する。   FIG. 20 is closer to the investigation target SRO than the state of FIG. 18, so the sensor condition is satisfied, and the state in which the biological information can be detected by the sensor unit 310 is continued. Therefore, the display unit 88 displays the sensor condition satisfaction mark MK2 together with the live view image g11.

また、図20では、LEDボタンB1が、実線で示されており、つまり点灯状態である。よって、調査対象SROがLED312により照明されている。そのため、障害物BCの隙間の奥に調査対象SROが位置し、調査対象SROの周囲に光量が少なく暗い場合でも、LED312により照明できる。よって、無人航空機100は、例えば、明るさを強化して撮像部316により画像を撮像できる。したがって、ユーザは、表示部88により表示されるライブビュー画像g11を見易くなり、調査対象SROの状態を視覚的に確認し易くなる。   Further, in FIG. 20, the LED button B1 is indicated by a solid line, that is, in the lighting state. Therefore, the investigation target SRO is illuminated by the LED 312. Therefore, even if the investigation target SRO is located deep in the gap of the obstacle BC and the light amount is small around the investigation target SRO, the LED 312 can illuminate. Thus, for example, the unmanned aerial vehicle 100 can enhance the brightness and capture an image by the imaging unit 316. Therefore, the user can easily view the live view image g11 displayed by the display unit 88, and visually confirm the state of the survey target SRO.

また、図20では、センサ部310に含まれる各種センサによる検出値が、表示部88に表示される。図20の状態では、センサ条件を満たし、センサ部310に含まれる各種センサにより実際にデータが検出されている。よって、表示部88は、各種センサによる検出値、検出値に基づく情報を表示できる。したがって、ユーザは、可視光や赤外光で照明された調査対象SROのライブビュー画像g11や、各種センサによる検出値(例えば表示領域g12に示された二酸化炭素の検出値、表示領域g13に示された音声信号の検出値)を確認可能である。   Further, in FIG. 20, detection values by various sensors included in the sensor unit 310 are displayed on the display unit 88. In the state of FIG. 20, sensor conditions are satisfied, and data are actually detected by various sensors included in the sensor unit 310. Therefore, the display unit 88 can display information based on detection values by the various sensors and the detection values. Therefore, the user can display the live view image g11 of the investigation target SRO illuminated by visible light or infrared light, detection values by various sensors (for example, detection values of carbon dioxide indicated in the display area g12, display area g13 Can be confirmed).

図21は、無人航空機100による発信機400の第1投下例を示す図である。図21では、発信機400が、無人航空機100の収容ボックス320から障害物BCの隙間に投下されている。   FIG. 21 is a view showing a first drop example of the transmitter 400 by the unmanned aerial vehicle 100. In FIG. 21, the transmitter 400 is dropped from the storage box 320 of the unmanned aerial vehicle 100 into the gap of the obstacle BC.

UAV制御部110は、調査対象としての生体があると判定された場合、つまり得られた生体情報が生体を存在する旨の情報をであった場合、発信機400を投下させる。例えば、UAV制御部110は、撮像部316により撮像された画像に対する画像認識により、生体が存在すると判定してよい。UAV制御部110は、二酸化炭素センサ311により生体の存在を示す閾値th1以上の二酸化炭素が検出された場合、生体が存在すると判定してよい。UAV制御部110は、赤外線センサ315により生体の温度(例えば36〜37℃程度の温度)を検出した場合、生体が存在すると判定してよい。UAV制御部110は、マイクロホン317により何らかの音が検出された場合、又は所定の音(例えば人の発する声、動物の鳴き声)が検出された場合、生体が存在すると判定してよい。   The UAV control unit 110 drops the transmitter 400 when it is determined that there is a living body to be investigated, that is, when the obtained biological information indicates that the living body exists. For example, the UAV control unit 110 may determine that a living body exists by image recognition on an image captured by the imaging unit 316. The UAV control unit 110 may determine that a living body is present when the carbon dioxide sensor 311 detects carbon dioxide at or above a threshold th1 indicating the presence of a living body. When the temperature of the living body (for example, a temperature of about 36 to 37 ° C.) is detected by the infrared sensor 315, the UAV control unit 110 may determine that the living body is present. The UAV control unit 110 may determine that a living body is present when any sound is detected by the microphone 317 or when a predetermined sound (for example, a voice of a person or a call of an animal) is detected.

UAV制御部110は、センサ部310による生体情報の検出の結果、調査対象SROに生体が含まれると判定すると、カメラ322により調査対象SROの周辺を撮像する。この撮像画像は、通信インタフェース150を介して端末80に送られ、ユーザにより確認されてよい。UAV制御部110は、手動又は自動により、調査対象SROの周辺や調査対象SROが所在する障害物BCの隙間に発信機400を投下するよう、開閉部321を開くよう制御してよい。つまり、送信機50の制御部又は端末80の端末制御部81が、操作部を介して発信機400を投下するための指示を入力し、通信部を介して投下指示情報を無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、投下指示情報に基づいて、発信機400を投下させてよい。例えば、調査対象SROの周辺や調査対象SROが所在する障害物BCの隙間の真上において、開閉部321が開状態とされてよい。なお、調査対象SROの周辺や調査対象SROが所在する障害物BCの隙間に発信機400を投下することが困難である場合、調査対象SROが所在する障害物BCの隙間の近傍に、発信機400が投下されてもよい。   When the UAV control unit 110 determines that the living body is included in the investigation target SRO as a result of the detection of the biological information by the sensor unit 310, the camera 322 images the periphery of the investigation target SRO. This captured image may be sent to the terminal 80 via the communication interface 150 and confirmed by the user. The UAV control unit 110 may control to open the opening / closing unit 321 so as to drop the transmitter 400 manually or automatically, around the surveyed SRO or in the gap between the obstacles BC where the surveyed SRO is located. That is, the control unit of the transmitter 50 or the terminal control unit 81 of the terminal 80 inputs an instruction for dropping the transmitter 400 through the operation unit, and transmits drop instruction information to the unmanned aircraft 100 through the communication unit. You may In the unmanned aerial vehicle 100, the UAV control unit 110 may drop the transmitter 400 based on the drop instruction information. For example, the open / close unit 321 may be in the open state in the vicinity of the survey target SRO or directly above the gap of the obstacle BC in which the survey target SRO is located. If it is difficult to drop the transmitter 400 in the vicinity of the surveyed SRO or in the gap between the obstacle BC where the surveyed SRO is located, the transmitter may be placed near the gap in the obstacle BC where the surveyed SRO is located. 400 may be dropped.

また、UAV制御部110は、発信機400を投下する際には無人航空機100を降下させ、発信機400の飛行高度が閾値th4以下である場合に、発信機400を投下するようにしてよい。これにより、高所から発信機400が落下して発信機が破損したり故障したりすることを抑制できる。なお、閾値th4は、例えば2mである。閾値th4は、固定値でも可変値でもよい。   Further, the UAV control unit 110 may lower the unmanned aerial vehicle 100 when dropping the transmitter 400 and may drop the transmitter 400 when the flight altitude of the transmitter 400 is equal to or less than the threshold th4. As a result, it is possible to suppress that the transmitter 400 is dropped from a high place and the transmitter is damaged or broken. The threshold th4 is 2 m, for example. The threshold th4 may be a fixed value or a variable value.

図22は、無人航空機100により発信機400を第1投下例に従って投下する場合の表示部88の表示例を示す図である。   FIG. 22 is a diagram showing a display example of the display unit 88 when the unmanned aerial vehicle 100 drops the transmitter 400 according to the first dropping example.

表示部88におけるライブビュー画像g11の領域には、収容ボックス320の開閉部321を開閉するためのMARKボタンB3が存在する。例えば、開閉部321の開状態は、実線で示され、開閉部321の閉状態は、点線で示される。図22では、MARKボタンB3が実線で示されており、開閉部321が開かれていることを示す。   In the region of the live view image g11 in the display unit 88, a MARK button B3 for opening and closing the opening and closing unit 321 of the accommodation box 320 is present. For example, the open state of the opening / closing unit 321 is indicated by a solid line, and the closed state of the opening / closing unit 321 is indicated by a dotted line. In FIG. 22, the MARK button B3 is indicated by a solid line, which indicates that the open / close unit 321 is opened.

なお、端末制御部81は、操作部83を介してMARKボタンB3の入力(例えば押下)を検出すると、開閉部321の開状態及び閉状態を切り替えてよい。例えば、ユーザは、端末80の表示部88のライブビュー画像g11を見ながら、送信機50により無人航空機100の飛行の制御を指示し、所望の位置においてMARKボタンB3を押してよい。これにより、無人航空機100は、ユーザ所望の位置において開閉部321を開き、発信機400を投下できる。   When the terminal control unit 81 detects an input (for example, pressing) of the MARK button B3 via the operation unit 83, the terminal control unit 81 may switch between the open state and the closed state of the opening / closing unit 321. For example, while watching the live view image g11 of the display unit 88 of the terminal 80, the user may instruct the control of the flight of the unmanned aerial vehicle 100 by the transmitter 50 and press the MARK button B3 at a desired position. Thereby, the unmanned aerial vehicle 100 can open the opening / closing part 321 at the position desired by the user and drop the transmitter 400.

このように、無人航空機100は、調査対象SROの周辺に発信機400を投下することで、生体が発見された場所をマーキングできる。よって、例えば、マーキング後にユーザが生体の発見場所付近に近づくと、発信機400から発信される電波を受信でき、生体の所在位置に向かうことができる。よって、無人航空機100は、ユーザが動きながら生体を探索するよりも効率的に且つ安全に、生体の捜索を行うことができる。   Thus, the unmanned aerial vehicle 100 can mark the place where the living body was found by dropping the transmitter 400 around the surveyed SRO. Thus, for example, when the user approaches the vicinity of the location where the living body was found after marking, the radio wave transmitted from the transmitter 400 can be received, and the user can head to the location of the living body. Thus, the unmanned aerial vehicle 100 can search for a living body more efficiently and safely than searching for a living body while the user is moving.

また、ユーザは、表示部88を介して生体付近の状況を確認しながら、MARKボタンB3を押下することで、発信機400を投下できる。よって、無人航空機100は、ユーザ所望のタイミングや位置において、発信機400を投下できる。   In addition, the user can drop the transmitter 400 by pressing the MARK button B3 while confirming the situation in the vicinity of the living body via the display unit 88. Thus, the unmanned aerial vehicle 100 can drop the transmitter 400 at the timing and position desired by the user.

図23は、無人航空機100による発信機400の第2投下例を示す図である。図23では、発信機400が、無人航空機100の収容ボックス320から生体LBとしての人物の周辺に投下されている。   FIG. 23 is a view showing a second drop example of the transmitter 400 by the unmanned aerial vehicle 100. As shown in FIG. In FIG. 23, the transmitter 400 is dropped from the storage box 320 of the unmanned aerial vehicle 100 around the person as the living body LB.

図23では、生体LBを包囲するような障害物BCが存在しておらず、生体LBの周辺に容易に発信機400を投下できる状態にある。UAV制御部110は、例えば、手動又は自動により、生体LBの周辺に発信機400を投下するよう、開閉部321を開くよう制御してよい。この場合、UAV制御部110は、生体LBの位置を避けて、発信機400を投下してよい。   In FIG. 23, there is no obstacle BC surrounding the living body LB, and the transmitter 400 can be easily dropped around the living body LB. For example, the UAV control unit 110 may control to open the opening / closing unit 321 so as to drop the transmitter 400 around the living body LB manually or automatically. In this case, the UAV control unit 110 may drop the transmitter 400 while avoiding the position of the living body LB.

図24は、無人航空機100により発信機400を第2投下例に従って投下する場合の表示部88の表示例を示す図である。図24では、生体LBの周辺に障害物BCが存在しないので、ライブビュー画像g11には生体LBが識別容易に表示されている。   FIG. 24 is a diagram showing a display example of the display unit 88 when the unmanned aerial vehicle 100 drops the transmitter 400 according to the second dropping example. In FIG. 24, since the obstacle BC does not exist around the living body LB, the living body LB is displayed easily in the live view image g11.

このように、無人航空機100は、センサ部310が障害物BCの隙間の奥に挿入されなくても、調査対象としての生体LBを識別可能(例えば視認可能)である場合、障害物BCの隙間に発信機400を投下せずに、生体LBの周辺に発信機400を投下可能である。この場合でも、生体LBの位置のマーキングが可能である。   As described above, when the unmanned aerial vehicle 100 is capable of identifying (for example, visually recognizing) the living body LB as a survey target even if the sensor unit 310 is not inserted in the back of the gap of the obstacle BC, the gap of the obstacle BC It is possible to drop the transmitter 400 around the living body LB without dropping the transmitter 400. Even in this case, marking of the position of the living body LB is possible.

次に、障害物BCを考慮した無人航空機100の調査対象SROへの具体的な接近方法について説明する。この場合、無人航空機100は、障害物BCを避けるために左右移動(つまり進行方向(前進方向)でない水平方向の移動)する場合と、障害物BCを避けなくてよく左右移動しない場合と、が想定される。   Next, a specific approach to the survey target SRO of the unmanned aerial vehicle 100 in consideration of the obstacle BC will be described. In this case, the unmanned aerial vehicle 100 moves left and right (that is, moves in the horizontal direction other than the advancing direction (advancing direction)) to avoid the obstacle BC, and cases where the left and right movement does not occur without avoiding the obstacle BC. is assumed.

図25Aは、左右移動が不要な場合の無人航空機100と障害物BCとの位置関係の一例を示す模式図である。図25Bは、図25Aの状態から無人航空機100が調査対象SROへ接近した場合の無人航空機100と障害物BCとの位置関係の一例を示す模式図である。図25A,図25Bは、無人航空機100及び障害物BCを下方から見た図である。   FIG. 25A is a schematic view showing an example of the positional relationship between the unmanned aerial vehicle 100 and the obstacle BC when left and right movement is unnecessary. 25B is a schematic view showing an example of the positional relationship between the unmanned aerial vehicle 100 and the obstacle BC when the unmanned aerial vehicle 100 approaches the survey target SRO from the state of FIG. 25A. 25A and 25B are views from below of the unmanned aerial vehicle 100 and the obstacle BC.

図25Aでは、調査対象SROが前方(図25Aにおける右方向)にある。また、無人航空機100が備える撮像部316と調査対象SROとの間に、障害物BCが存在していない。つまり、無人航空機100が備える撮像部316と調査対象SROとを結ぶ直線上に、障害物BCが存在していない。よって、無人航空機100がそのまま前進移動することで、調査対象SROに到達可能である。   In FIG. 25A, the surveyed SRO is forward (rightward in FIG. 25A). In addition, the obstacle BC does not exist between the imaging unit 316 included in the unmanned aerial vehicle 100 and the investigation target SRO. That is, the obstacle BC does not exist on a straight line connecting the imaging unit 316 of the unmanned aerial vehicle 100 and the investigation target SRO. Therefore, it is possible to reach the surveyed SRO by moving the unmanned aerial vehicle 100 forward as it is.

図25Bでは、図25Aの状態から無人航空機100が前方(図25Aにおける右方向)へ移動したことで、第1超音波センサ280により測定された障害物BCまでの測定距離が基準長さd0であり、センサ条件を満たすことを示している。この場合、ライブビュー画像g11とともにセンサ条件満足マークMK2が表示される。この測定距離は、無人航空機100の前方の回転翼211から障害物BC(進入位置p1)までの距離であり、基準長さd0となっている。   In FIG. 25B, when the unmanned aerial vehicle 100 moves forward (rightward in FIG. 25A) from the state of FIG. 25A, the measurement distance to the obstacle BC measured by the first ultrasonic sensor 280 is the reference length d0. Yes, indicating that the sensor condition is satisfied. In this case, the sensor condition satisfaction mark MK2 is displayed together with the live view image g11. This measurement distance is the distance from the rotary wing 211 in front of the unmanned aerial vehicle 100 to the obstacle BC (the approach position p1), and has a reference length d0.

図25Bに示す位置で、無人航空機100のUAV制御部110は、第2ポール206を伸ばし、センサ部310により調査対象SR0における生体情報を検出する。生体情報は、生体が存在することを示す情報や、生体が存在しないことを示す情報を含んでよい。   At the position shown in FIG. 25B, the UAV control unit 110 of the unmanned aerial vehicle 100 stretches the second pole 206, and the sensor unit 310 detects biological information in the investigation target SR0. The biological information may include information indicating that a living body exists or information indicating that a living body does not exist.

この場合、UAV制御部110は、第2ポール206が伸長するための伸長指示情報を取得し、伸長指示情報に基づいて第2ポール206を伸長させる。UAV制御部110は、自動又は手動で、第2ポール206を伸長させる。   In this case, the UAV control unit 110 acquires decompression instruction information for the second pole 206 to be decompressed, and decompresses the second pole 206 based on the decompression command information. The UAV control unit 110 extends the second pole 206 automatically or manually.

手動で第2ポール206を伸長させる場合、送信機50の制御部又は端末80の端末制御部81は、操作部を介して第2ポール206を伸長するための指示を入力し、通信部を介して伸長指示情報を無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、伸長指示情報に基づいて、第2ポール206を伸長させてよい。   When the second pole 206 is manually extended, the control unit of the transmitter 50 or the terminal control unit 81 of the terminal 80 inputs an instruction for extending the second pole 206 via the operation unit, and via the communication unit The extension instruction information may be transmitted to the unmanned aerial vehicle 100. In the unmanned aerial vehicle 100, the UAV control unit 110 may extend the second pole 206 based on the extension instruction information.

自動で第2ポール206を伸長させる場合、UAV制御部110は、無人航空機100の現在位置において、センサ条件を満たし、且つ、第2ポール206の伸長位置(第2ポール206が伸長した場合に第2ポール206が到達する位置)に障害物BCが存在しない場合、第2ポール206を伸長させてよい。第2ポール206の伸長位置に障害物BCが存在するか否かは、例えば、無人航空機100の現在位置で撮像部316により撮像された画像に対する画像認識を用いて判定されてよい。図25Bでは、第2ポール206の伸長位置に障害物BCが存在しない。   When automatically extending the second pole 206, the UAV control unit 110 satisfies the sensor condition at the current position of the unmanned aerial vehicle 100, and the extended position of the second pole 206 (if the second pole 206 is extended, If the obstacle BC does not exist at the position where the two poles 206 reach, the second pole 206 may be extended. Whether or not the obstacle BC is present at the extended position of the second pole 206 may be determined, for example, using image recognition on the image captured by the imaging unit 316 at the current position of the unmanned aerial vehicle 100. In FIG. 25B, the obstacle BC is not present at the extended position of the second pole 206.

したがって、無人航空機100は、生体情報を検出するための所定の位置まで到達した場合に、第2ポール206を伸ばして、第2ポール206の先端側に設けられたセンサ部310により生体情報を検出できる。また、生体情報を検出するための所定の位置に到達する前には、第2ポール206を縮めた状態に維持することで、無人航空機100の第2ポール206を含めた全体のサイズが小さくなり、無人航空機100が調査対象SROの周辺の障害物BCに衝突し難くなる。よって、無人航空機100が移動し易くなり、無人航空機100の衝突による破損も抑制できる。   Therefore, when the unmanned aerial vehicle 100 reaches a predetermined position for detecting biological information, the second pole 206 is extended and the biological information is detected by the sensor unit 310 provided on the tip side of the second pole 206 it can. In addition, by keeping the second pole 206 in a contracted state before reaching a predetermined position for detecting biological information, the overall size of the unmanned aerial vehicle 100 including the second pole 206 is reduced. , It becomes difficult for the unmanned aerial vehicle 100 to collide with the obstacle BC around the surveyed SRO. Therefore, the unmanned aerial vehicle 100 can be easily moved, and damage due to a collision of the unmanned aerial vehicle 100 can be suppressed.

また、手動で第2ポール206が伸長することで、ユーザは、表示部88を介して調査対象SROの付近の状況を確認しながら、第2ポール206の伸長を指示するためのポール伸長ボタン(不図示)を押下することで、第2ポール206の伸長させることができる。よって、無人航空機100は、ユーザ所望のタイミングや位置において、第2ポール206を伸長できる。   In addition, the pole extension button for instructing the extension of the second pole 206 while the user confirms the situation in the vicinity of the investigation target SRO through the display unit 88 by the extension of the second pole 206 manually. The second pole 206 can be extended by pressing (not shown). Thus, the unmanned aerial vehicle 100 can extend the second pole 206 at the timing and position desired by the user.

図26Aは、左右移動が必要な場合の無人航空機100と障害物BCとの位置関係の一例を示す模式図である。図26Bは、無人航空機100が障害物BCを避けて移動することを説明する図である。図26Cは、第2ポール206の向きを変更することを説明する図である。図26Dは、センサ部310によりセンシングすることを説明する図である。図26A〜図26Dは、無人航空機100及び障害物BCを下方から見た図である。   FIG. 26A is a schematic view showing an example of the positional relationship between the unmanned aerial vehicle 100 and the obstacle BC when left and right movement is required. FIG. 26B is a view for explaining that the unmanned aerial vehicle 100 moves avoiding the obstacle BC. FIG. 26C is a view for explaining changing the orientation of the second pole 206. FIG. 26D is a diagram for describing sensing by the sensor unit 310. 26A to 26D are views from below of the unmanned aerial vehicle 100 and the obstacle BC.

図26Aでは、調査対象SROが前方(図26Aにおける右方向)にある。一方、無人航空機100が備える撮像部316と調査対象SROとの間に、障害物BCが存在する。つまり、無人航空機100が備える撮像部316と調査対象SROとを結ぶ直線上に、障害物BCが存在する。よって、無人航空機100がそのまま前進移動すると、回転翼211等が障害物BCに接触する。   In FIG. 26A, the surveyed SRO is forward (rightward in FIG. 26A). On the other hand, an obstacle BC exists between the imaging unit 316 included in the unmanned aerial vehicle 100 and the survey target SRO. That is, the obstacle BC is present on a straight line connecting the imaging unit 316 of the unmanned aerial vehicle 100 and the investigation target SRO. Therefore, when the unmanned aerial vehicle 100 moves forward as it is, the rotary wings 211 and the like contact the obstacle BC.

この場合、UAV制御部110は、無人航空機100が移動するための移動指示情報を取得し、移動指示情報に基づいて無人航空機100を移動させる。UAV制御部110は、自動又は手動で移動する。   In this case, the UAV control unit 110 acquires movement instruction information for moving the unmanned aerial vehicle 100, and moves the unmanned aircraft 100 based on the movement instruction information. The UAV control unit 110 moves automatically or manually.

手動で無人航空機100を移動させる場合、送信機50の制御部又は端末80の端末制御部81は、操作部を介して無人航空機100を移動するための指示を入力し、通信部を介して移動指示情報を無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、移動指示情報に基づいて、無人航空機100を伸長させてよい。   When manually moving the unmanned aerial vehicle 100, the control unit of the transmitter 50 or the terminal control unit 81 of the terminal 80 inputs an instruction for moving the unmanned aerial vehicle 100 via the operation unit, and moves via the communication unit The instruction information may be transmitted to the unmanned aerial vehicle 100. In the unmanned aerial vehicle 100, the UAV control unit 110 may extend the unmanned aerial vehicle 100 based on the movement instruction information.

自動で無人航空機100を移動させる場合、UAV制御部110は、センサ条件を満たさない場合、障害物BCを避けて無人航空機100を移動させてよい。障害物BCを避けた無人航空機100の移動は、無人航空機100の現在位置で撮像部316により撮像された画像に対する画像認識を用いて障害物BCの位置や距離を測定し、この障害物BCを避けるよう調整されればよい。   When automatically moving the unmanned aerial vehicle 100, the UAV control unit 110 may move the unmanned aerial vehicle 100 avoiding the obstacle BC if the sensor conditions are not satisfied. The movement of the unmanned aerial vehicle 100 avoiding the obstacle BC uses the image recognition for the image captured by the imaging unit 316 at the current position of the unmanned aerial vehicle 100 to measure the position and distance of the obstacle BC. It should be adjusted to avoid.

したがって、無人航空機100は、無人航空機100の飛行進路において調査対象SROの周辺が障害物BCにより覆われていても、飛行進路を任意の方向に変更し、障害物BCを避けながら調査対象SROに接近できる。よって、無人航空機100は、センサ部310により生体情報を検出可能な状態に近づけることができ、生体を発見でき、救助に成功する確率を高くできる。   Therefore, even if the periphery of the surveyed SRO is covered by the obstacle BC in the flight course of the unmanned aircraft 100, the unmanned aerial vehicle 100 changes the flight course to an arbitrary direction and avoids the obstacle BC to be the surveyed SRO. It can be approached. Therefore, the unmanned aerial vehicle 100 can bring the biological information closer to a detectable state by the sensor unit 310, can detect a living body, and can increase the probability of success in rescue.

また、手動で無人航空機100を移動させることで、ユーザは、表示部88を介して調査対象SROの付近の状況を確認しながら、障害物BCを避けて無人航空機100を飛行させ移動させることができる。よって、無人航空機100は、ユーザ所望のタイミングや位置を考慮して、無人航空機100を移動させることができる。   Also, by manually moving the unmanned aerial vehicle 100, the user may fly and move the unmanned aerial vehicle 100 while avoiding the obstacle BC while confirming the situation in the vicinity of the surveyed SRO via the display unit 88. it can. Thus, the unmanned aerial vehicle 100 can move the unmanned aerial vehicle 100 in consideration of the timing and position desired by the user.

図26Bでは、図26Aの状態から無人航空機100が左前方(図26Bにおける右上方向)へ移動しており、センサ条件を満たしていることを示している。この場合、ライブビュー画像g1とともにセンサ条件満足マークMK2が表示されている。つまり、センサ部310により生体情報を検出するためには、更に無人航空機100が移動する必要がないことを示している。   In FIG. 26B, the unmanned aerial vehicle 100 is moving to the left front (upper right direction in FIG. 26B) from the state of FIG. 26A, which indicates that the sensor condition is satisfied. In this case, the sensor condition satisfaction mark MK2 is displayed together with the live view image g1. That is, in order to detect biological information by the sensor unit 310, it is further shown that the unmanned aerial vehicle 100 does not need to move.

図26Bにおいて、第2ポール206の向きを変更せずに第2ポール206を伸長すると、第2ポール206に前方に位置する障害物BCに衝突する。また、第2ポール206が延びる方向の延長線上に、調査対象SROが存在しない。そのため、UAV制御部110は、調査対象SROの方向を向くように、第2ポール206の向きを水平方向において変更する。   In FIG. 26B, when the second pole 206 is extended without changing the orientation of the second pole 206, the second pole 206 collides with an obstacle BC located in front. Also, the surveyed SRO does not exist on the extension of the direction in which the second pole 206 extends. Therefore, the UAV control unit 110 changes the direction of the second pole 206 in the horizontal direction so as to turn to the direction of the investigation target SRO.

この場合、UAV制御部110は、第2ポール206の向きを変更するための向き指示情報を取得し、向き指示情報に基づいて第2ポール206の向きを変更する。UAV制御部110は、自動又は手動で、第2ポール206の向きを変更する。   In this case, the UAV control unit 110 acquires direction instruction information for changing the direction of the second pole 206, and changes the direction of the second pole 206 based on the direction instruction information. The UAV control unit 110 changes the orientation of the second pole 206 automatically or manually.

手動で第2ポール206の向きを変更する場合、送信機50の制御部又は端末80の端末制御部81は、操作部を介して第2ポール206の向きを変更するための指示を入力し、通信部を介して向き指示情報を無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、向き指示情報に基づいて、第1ジンバル200を制御し、第2ポール206の向きを変更してよい。   When changing the direction of the second pole 206 manually, the control unit of the transmitter 50 or the terminal control unit 81 of the terminal 80 inputs an instruction for changing the direction of the second pole 206 via the operation unit, Direction indication information may be transmitted to the unmanned aerial vehicle 100 via the communication unit. In the unmanned aerial vehicle 100, the UAV control unit 110 may control the first gimbal 200 to change the direction of the second pole 206 based on the direction indication information.

自動で第2ポール206の向きを変更する場合、UAV制御部110は、無人航空機100の現在位置において、センサ条件を満たし、第2ポール206の伸長位置に障害物BCが存在する場合、第1ジンバル200を制御して第2ポール206の向きを変更してよい。図26Bでは、第2ポール206の伸長位置に障害物BCが存在する。   When automatically changing the orientation of the second pole 206, the UAV control unit 110 satisfies the sensor condition at the current position of the unmanned aerial vehicle 100, and when the obstacle BC is present at the extended position of the second pole 206, the first The gimbal 200 may be controlled to change the orientation of the second pole 206. In FIG. 26B, the obstacle BC is present at the extended position of the second pole 206.

したがって、無人航空機100は、第2ポール206の向きを変更することで、例えば無人航空機100の前進方向に障害物BCが存在する場合でも、無人航空機100を移動させずに、障害物BCの隙間にセンサ部310を進入させ、センサ部310を調査対象SROに近づけることができる。また、無人航空機100は、無人航空機100を所望の位置に移動させた後に、第2ポール206の向きを変更することで、無人航空機100と調査対象SROとの位置関係を微調整することができる。これにより、無人航空機100は、センサ部310により生体情報を検出できる可能性を高くできる。   Therefore, by changing the direction of the second pole 206, the unmanned aerial vehicle 100 does not move the unmanned aerial vehicle 100, for example, even if there is an obstacle BC in the forward direction of the unmanned aerial vehicle 100. The sensor unit 310 can be moved closer to the survey target SRO. In addition, the unmanned aerial vehicle 100 can finely adjust the positional relationship between the unmanned aerial vehicle 100 and the surveyed SRO by changing the direction of the second pole 206 after moving the unmanned aerial vehicle 100 to a desired position. . Thus, the unmanned aerial vehicle 100 can increase the possibility that the sensor unit 310 can detect biological information.

また、手動で第2ポール206の向きを変更することで、ユーザは、表示部88を介して障害物BCや調査対象SROの付近の状況を確認しながら、障害物BCを避けて障害物BCの隙間に進入可能となるように第2ポール206の向きを調整できる。よって、無人航空機100は、ユーザ所望のタイミングや位置を考慮して、第2ポール206の向きを変更できる。   In addition, by manually changing the direction of the second pole 206, the user avoids the obstacle BC while checking the situation in the vicinity of the obstacle BC and the SRO to be surveyed through the display unit 88, and thus the obstacle BC The orientation of the second pole 206 can be adjusted so that it can enter into the gap between the two. Therefore, the unmanned aerial vehicle 100 can change the direction of the second pole 206 in consideration of the timing and position desired by the user.

図26Cでは、UAV制御部110は、無人航空機100が図26Bの位置から位置を変更せずに、第1ジンバル200が第2ポール206を支持する角度を調整し、第2ポール206の向きを右前方(図26Cにおける右下方向)に変更している。これにより、無人航空機100は、第2ポール206を伸長すると、第2ポール206が障害物BCに衝突することを回避できる。また、調査対象SROに向かって第2ポール206を伸長することが可能となる。   26C, the UAV control unit 110 adjusts the angle at which the first gimbal 200 supports the second pole 206 without changing the position of the unmanned aerial vehicle 100 from the position of FIG. 26B, and the direction of the second pole 206 is changed. It is changed to the right front (lower right direction in FIG. 26C). Thereby, when the unmanned aerial vehicle 100 extends the second pole 206, the second pole 206 can be prevented from colliding with the obstacle BC. In addition, it is possible to extend the second pole 206 toward the investigation target SRO.

また、図26Cでは、無人航空機100の前方端部(前方の回転翼211の先端)から無人航空機100に対向する障害物BCまでの距離が、基準長さd0に一致している。ここで、図26Cでは、第2ポール206の向きが変更されたことに伴い、基準長さd0が基準長さd1に変更されている。基準長さd1は、基準長さd0よりも短い。センサ条件を満たすには、基準長さd1よりも短い必要があるため、図26Cでは、センサ条件を満たしていないことになる。つまり、第2ポール206を最大限伸ばした場合の長さL3を考慮すると、長さL3の起点(回転翼211側の端点)が障害物BCの進入位置p1よりも手前側(無人航空機100側)に位置する。よって、センサ部310によるセンシングを可能とするためには、更に無人航空機100が前進する必要がある。   Also, in FIG. 26C, the distance from the front end of the unmanned aerial vehicle 100 (the tip of the front rotary wing 211) to the obstacle BC facing the unmanned aerial vehicle 100 corresponds to the reference length d0. Here, in FIG. 26C, as the direction of the second pole 206 is changed, the reference length d0 is changed to the reference length d1. The reference length d1 is shorter than the reference length d0. Since it is necessary to be shorter than the reference length d1 in order to satisfy the sensor condition, the sensor condition is not satisfied in FIG. 26C. That is, considering the length L3 when the second pole 206 is maximally extended, the starting point of the length L3 (end point on the rotary wing 211 side) is closer to the front than the entry position p1 of the obstacle BC (the unmanned aerial vehicle 100 side Located in). Therefore, in order to enable sensing by the sensor unit 310, the unmanned aerial vehicle 100 must further advance.

図26Dでは、無人航空機100が、図26Cの状態よりも対向する障害物BCに向かって前進しており、無人航空機100の前方端部と障害物BCとの距離が、基準長さd1となっている。この場合、センサ条件を満たしており、ライブビュー画像g1とともにセンサ条件満足マークMK2が表示される。つまり、図26Dに示された無人航空機100の位置において、センサ部310により生体情報を検出可能であることを示している。   In FIG. 26D, the unmanned aerial vehicle 100 is advanced toward the opposing obstacle BC more than the state of FIG. 26C, and the distance between the front end of the unmanned aerial vehicle 100 and the obstacle BC is the reference length d1. ing. In this case, the sensor condition is satisfied, and the sensor condition satisfaction mark MK2 is displayed together with the live view image g1. That is, at the position of the unmanned aerial vehicle 100 shown in FIG. 26D, it is shown that the biological information can be detected by the sensor unit 310.

このように、無人航空機100は、調査対象SROが前方に存在し、且つ障害物BCを避けるために、左右移動(水平方向の前後以外の移動)が必要な場合、UAV制御部110は、上記の手動又は自動により、無人航空機100の飛行を制御し、無人航空機100の位置を移動させる。また、UAV制御部110は、第1ジンバル200を制御し、センサ部310が調査対象SROの方向に向くよう制御する。この場合、例えば撮像部316による撮像方向が調査対象SROの方向となる。   As described above, in the case where the unmanned aerial vehicle 100 requires the SRO to be surveyed to move forward and to move from side to side (movement other than front and back in the horizontal direction) in order to avoid the obstacle BC, the UAV control unit 110 Manually or automatically control the flight of the unmanned aerial vehicle 100 and move the unmanned aerial vehicle 100 position. In addition, the UAV control unit 110 controls the first gimbal 200 so that the sensor unit 310 faces in the direction of the survey target SRO. In this case, for example, the imaging direction by the imaging unit 316 is the direction of the investigation target SRO.

また、第1ジンバル200を制御して第2ポール206の向きを調整すると、UAV制御部110は、第2ポール206の角度により変化する基準長さdを再算出し、再算出結果に応じて、ライブビュー画像g11とともにセンサ条件満足マークMK2を表示し、又は表示しない。   Further, when the direction of the second pole 206 is adjusted by controlling the first gimbal 200, the UAV control unit 110 recalculates the reference length d which changes depending on the angle of the second pole 206, and according to the recalculation result The sensor condition satisfaction mark MK2 is displayed or not displayed together with the live view image g11.

次に、基準長さd(d1,d2)の詳細について説明する。   Next, the details of the reference length d (d1, d2) will be described.

UAV制御部110は、センサ条件を満たしているか否かを判定するための基準長さdを算出する。UAV制御部110は、第1ジンバル200を制御し、第1ジンバル200に対する第2ポール206の向きを変更した場合、基準長さdを再算出してよい。   The UAV control unit 110 calculates a reference length d for determining whether the sensor condition is satisfied. When the UAV control unit 110 controls the first gimbal 200 and changes the orientation of the second pole 206 with respect to the first gimbal 200, the UAV control unit 110 may recalculate the reference length d.

例えば、図25B、図26B、図26Cに示した基準長さd0は、以下の(式1)により表されてよい。
d0=L1−L2−L3 ・・・(式1)
For example, the reference length d0 shown in FIG. 25B, FIG. 26B, and FIG. 26C may be represented by the following (Expression 1).
d0 = L1-L2-L3 (Equation 1)

図27は、第1ジンバル200に対する第2ポール206の向きを考慮した基準長さd1を説明するための図である。   FIG. 27 is a diagram for describing a reference length d1 in which the direction of the second pole 206 with respect to the first gimbal 200 is taken into consideration.

例えば、図26Cに示した第1ジンバル200に対する第2ポール206の向きを変更した後における無人航空機100と障害物BCとの距離d1は、以下の(式2)により表されてよい。
d1=L1’−L2−L3 ・・・(式2)
なお、L1’=L1×cosα×cosβ
なお、αは、第2ポール206の延びる方向とy軸(ピッチ軸に相当)との成す角度でよい。βは、第2ポール206の延びる方向とz軸(ヨー軸に相当)との成す角度でよい。
For example, the distance d1 between the unmanned aerial vehicle 100 and the obstacle BC after changing the orientation of the second pole 206 with respect to the first gimbal 200 shown in FIG. 26C may be expressed by the following (Formula 2).
d1 = L1'-L2-L3 (Equation 2)
In addition, L1 ′ = L1 × cos α × cos β
Here, α may be an angle formed by the extending direction of the second pole 206 and the y axis (corresponding to the pitch axis). β may be an angle between the extending direction of the second pole 206 and the z-axis (corresponding to the yaw axis).

つまり、角度αは、例えば図27に示した第2ポール206の基準方向(ここではy軸に沿う方向)に対する第2ポール206が延びる方向の角度のうちの水平方向成分(水平角度)を示す。βは、例えば図27に示した第2ポール206の基準方向に対する第2ポール206が延びる方向の角度のうちの垂直方向成分(垂直角度)を示す。このように、第2ポール206の延びる方向が基準方向から変更されると、第2ポール206が伸長された場合に到達する到達範囲が短くなる。一方、第2ポール206の向きが変化しても、無人航空機100の基準方向(例えば前進方向)は変化しない。そのため、基準長さdの方向としては、無人航空機100の基準方向から変更されず、センシング可能な有効範囲が短くなった(手前側になった)として扱い、基準長さdを短くして対応する。   In other words, the angle α indicates, for example, a horizontal component (horizontal angle) of the angle in the extending direction of the second pole 206 with respect to the reference direction (here, the direction along the y axis) of the second pole 206 shown in FIG. . β indicates, for example, the vertical component (vertical angle) of the angle in the extending direction of the second pole 206 with respect to the reference direction of the second pole 206 shown in FIG. As such, when the extension direction of the second pole 206 is changed from the reference direction, the reachable range when the second pole 206 is extended becomes short. On the other hand, even if the orientation of the second pole 206 changes, the reference direction (for example, the forward direction) of the unmanned aerial vehicle 100 does not change. Therefore, the direction of the reference length d is not changed from the reference direction of the unmanned aerial vehicle 100, and is treated as if the effective range capable of sensing is shortened (becomes the near side), and the reference length d is shortened Do.

次に、生体探索システム10の動作について説明する。   Next, the operation of the living body search system 10 will be described.

図28は、生体探索システム10の動作例を示すシーケンス図である。ここでは、センサ部310に含まれる各種センサの電源がオンされており、各種センサが動作可能となっていることを想定する。   FIG. 28 is a sequence diagram showing an operation example of the living body search system 10. Here, it is assumed that the power supplies of the various sensors included in the sensor unit 310 are turned on and the various sensors are operable.

無人航空機100では、UAV制御部110は、捜索地域SR1において撮像部316に画像を撮像させ、通信インタフェース150を介して、撮像された空撮画像を端末80へ送信する(S101)。端末80では、端末制御部81は、通信部85を介して空撮画像を受信し、空撮画像をライブビュー画像g11として表示部88に表示させる(S201)。   In the unmanned aerial vehicle 100, the UAV control unit 110 causes the imaging unit 316 to capture an image in the search area SR1, and transmits the captured aerial image to the terminal 80 via the communication interface 150 (S101). In the terminal 80, the terminal control unit 81 receives an aerial image via the communication unit 85, and causes the display unit 88 to display the aerial image as the live view image g11 (S201).

ユーザは、ライブビュー画像g11を、表示部88の画面で確認し、無人航空機100を調査対象SROに近づけるよう、送信機50を操作する。送信機50は、ユーザ操作に基づく飛行指示情報を無人航空機100へ送信する。無人航空機100では、UAV制御部110は、通信インタフェース150を介して受信された飛行指示情報に基づいて、無人航空機100の飛行を制御する。また、UAV制御部110は、第2ポール206が基準方向を向くように、第1ジンバル200を制御し、無人航空機100が前進方向(例えば図27のy軸に沿う方向)を向くよう制御している。   The user confirms the live view image g11 on the screen of the display unit 88, and operates the transmitter 50 so that the unmanned aerial vehicle 100 approaches the survey target SRO. The transmitter 50 transmits flight instruction information to the unmanned aircraft 100 based on user operation. In the unmanned aerial vehicle 100, the UAV control unit 110 controls the flight of the unmanned aerial vehicle 100 based on the flight instruction information received via the communication interface 150. Further, the UAV control unit 110 controls the first gimbal 200 such that the second pole 206 faces the reference direction, and controls the unmanned aerial vehicle 100 to face the forward direction (for example, the direction along the y axis in FIG. 27). ing.

UAV制御部110は、無人航空機100が障害物BCの隙間の奥に位置する調査対象SROに近づけるように制御する。UAV制御部110は、第1超音波センサ280を介して、調査対象SROの周囲の四方に存在する障害物BCとの距離を測定(検出)する(S102)。   The UAV control unit 110 controls the unmanned aerial vehicle 100 to approach the survey target SRO located in the back of the gap of the obstacle BC. The UAV control unit 110 measures (detects) the distance from the obstacle BC present in all directions around the investigation target SRO via the first ultrasonic sensor 280 (S102).

UAV制御部110は、測定距離が安全距離よりも小さい(安全距離未満である)場合、通信インタフェース150を介してその旨を端末80へ通知する(S103)。端末80では、端末制御部81は、通信部85を介してその旨を受信し、障害物接近マークMK1を表示部88に表示させる(S202)。なお、測定距離に応じて、障害物接近マークMK1の表示態様を変更してもよい。   When the measurement distance is smaller than the safe distance (less than the safe distance), the UAV control unit 110 notifies the terminal 80 of that via the communication interface 150 (S103). In the terminal 80, the terminal control unit 81 receives that via the communication unit 85, and causes the display unit 88 to display the obstacle approach mark MK1 (S202). Note that the display mode of the obstacle approach mark MK1 may be changed according to the measurement distance.

ユーザは、表示部88に表示された障害物接近マークMK1を参照しながら、障害物BCに無人航空機100が衝突しないように、送信機50を操作して、無人航空機100の飛行指示を行う(S203)。送信機50は、ユーザ操作に基づく飛行指示情報を無人航空機100へ送信する(S204)。無人航空機100では、UAV制御部110は、通信インタフェース150を介して受信された飛行指示情報に基づいて、無人航空機100の飛行を制御し、無人航空機100の位置を調整する(S104)。   The user operates the transmitter 50 to issue a flight instruction of the unmanned aerial vehicle 100 so that the unmanned aerial vehicle 100 does not collide with the obstacle BC while referring to the obstacle approach mark MK1 displayed on the display unit 88 (FIG. S203). The transmitter 50 transmits flight instruction information based on a user operation to the unmanned aerial vehicle 100 (S204). In the UAV 100, the UAV control unit 110 controls the flight of the UAV 100 based on the flight instruction information received via the communication interface 150, and adjusts the position of the UAV 100 (S104).

UAV制御部110は、無人航空機100の前進方向への飛行に伴い、第1超音波センサ280による測定距離が閾値th3よりも短くなると、この飛行位置でセンサ条件を満たす。この場合、UAV制御部110は、センサ条件を満たす旨(第2の通知情報の一例)を、通信インタフェース150を介して端末80へ通知する(S105)。端末80では、端末制御部81は、通信部85を介してセンサ条件を満たす旨を受信し、センサ条件満足マークMK2を表示部88に表示させる(S205)。   When the distance measured by the first ultrasonic sensor 280 becomes shorter than the threshold th3 as the UAV control unit 110 flies in the forward direction of the unmanned aerial vehicle 100, the sensor condition is satisfied at this flight position. In this case, the UAV control unit 110 notifies the terminal 80 that the sensor condition is satisfied (an example of the second notification information) via the communication interface 150 (S105). In the terminal 80, the terminal control unit 81 receives an indication that the sensor condition is satisfied via the communication unit 85, and causes the display unit 88 to display the sensor condition satisfaction mark MK2 (S205).

ユーザは、送信機50の操作部又は端末80の操作部83を介して、第1ジンバル200の角度を制御し第2ポール206の向きを調整する指示を入力する(S206)。送信機50の制御部又は端末制御部81は、ユーザ操作を受け、通信部85等を介して、第2ポール206の向き指示情報を無人航空機100へ送信する(S207)。無人航空機100では、UAV制御部110は、通信インタフェース150を介して向き指示情報を受信し、向き指示情報に基づいて、第2ポール206の向きを変更する(S106)。   The user inputs an instruction to control the angle of the first gimbal 200 and adjust the direction of the second pole 206 via the operation unit of the transmitter 50 or the operation unit 83 of the terminal 80 (S206). The control unit or the terminal control unit 81 of the transmitter 50 receives the user operation, and transmits the direction indication information of the second pole 206 to the unmanned aerial vehicle 100 via the communication unit 85 or the like (S207). In the unmanned aerial vehicle 100, the UAV control unit 110 receives the direction indication information via the communication interface 150, and changes the direction of the second pole 206 based on the direction indication information (S106).

UAV制御部110は、第1ジンバル200に対する第2ポール206の角度の調整により、基準長さd0が短くなり、センサ条件を満たさなくなった場合、その旨を表示させる。この場合、UAV制御部110は、通信インタフェース150を介してセンサ条件を満たさない旨を端末80へ送信する。端末80では、端末制御部81は、通信部85を介してセンサ条件を満たさない旨を受信し、表示部88によるセンサ条件満足マークMK2の表示を解除する(表示を停止させる)。これにより、ユーザは、センサ条件に満足しなくなったことを認識できる。この場合、例えば、UAV制御部110は、無人航空機100を手動又は自動により前進移動させ、センサ条件を満足するよう調整する。   When the reference length d0 is shortened by adjusting the angle of the second pole 206 with respect to the first gimbal 200 and the sensor condition is not satisfied, the UAV control unit 110 displays that effect. In this case, the UAV control unit 110 transmits to the terminal 80 that the sensor condition is not satisfied via the communication interface 150. In the terminal 80, the terminal control unit 81 receives an indication that the sensor condition is not satisfied via the communication unit 85, and cancels the display of the sensor condition satisfaction mark MK2 by the display unit 88 (stops the display). Thereby, the user can recognize that the sensor condition is not satisfied. In this case, for example, the UAV control unit 110 moves the unmanned aerial vehicle 100 forward or manually manually or automatically, and adjusts the sensor condition to be satisfied.

ユーザは、例えばセンサ条件満足マークMK2の表示によりセンサ条件を満足していることを確認すると、送信機50の操作部又は端末80の操作部83を介して、第2ポール206を伸長させる指示を入力する(S208)。送信機50の制御部又は端末制御部81は、ユーザ操作を受け、通信部85等を介して、第2ポール206の伸長指示情報を無人航空機100へ送信する(S209)。無人航空機100では、UAV制御部110は、通信インタフェース150を介して伸長指示情報を受信し、伸長指示情報に基づいて、第2ポール206を伸ばす(S107)。   When the user confirms that the sensor condition is satisfied, for example, by the display of the sensor condition satisfaction mark MK2, the user instructs to extend the second pole 206 via the operation unit of the transmitter 50 or the operation unit 83 of the terminal 80. It inputs (S208). The control unit or the terminal control unit 81 of the transmitter 50 receives the user operation, and transmits the extension instruction information of the second pole 206 to the unmanned aerial vehicle 100 via the communication unit 85 or the like (S209). In the UAV 100, the UAV control unit 110 receives the extension instruction information via the communication interface 150, and extends the second pole 206 based on the extension instruction information (S107).

ユーザは、第2ポール206の伸長を確認すると、送信機50の操作部又は端末80の操作部83を介して、第2ジンバル202を制御し、センサ部310の向きを調査対象SROの方向に向ける指示を入力する(S210)。送信機50の制御部又は端末制御部81は、ユーザ操作を受け、通信部85等を介して、センサ部310の向き指示情報を無人航空機100へ送信する(S211)。無人航空機100では、UAV制御部110は、通信インタフェース150を介して向き指示情報を受信し、向き指示情報に基づいて、センサ部310の向きを変更する(S108)。   When the user confirms the extension of the second pole 206, the user controls the second gimbal 202 via the operation unit of the transmitter 50 or the operation unit 83 of the terminal 80 to orient the sensor unit 310 in the direction of the SRO to be investigated. An instruction to turn is input (S210). The control unit or the terminal control unit 81 of the transmitter 50 receives the user operation, and transmits the direction instruction information of the sensor unit 310 to the unmanned aerial vehicle 100 via the communication unit 85 or the like (S211). In the unmanned aerial vehicle 100, the UAV control unit 110 receives the direction instruction information via the communication interface 150, and changes the direction of the sensor unit 310 based on the direction instruction information (S108).

UAV制御部110は、調査対象SROに接近し、調査対象SROに向けられたセンサ部310に含まれる各種センサに、生体情報を検出させる(S109)。生体情報は、センサ部310により検出され、調査対象に関するデータを含む情報でよい。UAV制御部110は、検出された生体情報を基に、生体の有無を判定する(S110)。   The UAV control unit 110 approaches the survey target SRO and causes various sensors included in the sensor unit 310 directed to the survey target SRO to detect biological information (S109). The biological information may be information that is detected by the sensor unit 310 and includes data related to the survey target. The UAV control unit 110 determines the presence or absence of a living body based on the detected biological information (S110).

UAV制御部110は、生体(例えば生存者)が存在すると判定した場合、発信機400が収容された収容ボックス320の開閉部321を開き、発信機400を投下する(S111)。   If the UAV control unit 110 determines that a living body (for example, a living person) is present, the UAV control unit 110 opens the opening / closing unit 321 of the accommodation box 320 in which the transmitter 400 is accommodated, and drops the transmitter 400 (S111).

また、UAV制御部110は、生体が存在すると判定した際、GPS受信機240を介して無人航空機100の位置情報を取得する。UAV制御部110は、通信インタフェース150を介して、無人航空機100のこの位置情報をサーバ装置40へ送信する。UAV制御部110は、通信インタフェース150を介して、無人航空機100の位置情報を取得する。UAV制御部110は、通信インタフェース150を介して、無人航空機100の位置情報とともに、センサ部310により検出された生体情報や撮像部316又は撮像部230により撮像された画像をサーバ装置40へ送信してもよい。撮像部316により撮像された画像は、生体が映り込んだ画像でよい。   Further, when it is determined that a living body is present, the UAV control unit 110 acquires position information of the unmanned aerial vehicle 100 via the GPS receiver 240. The UAV control unit 110 transmits this position information of the unmanned aerial vehicle 100 to the server device 40 via the communication interface 150. The UAV control unit 110 acquires position information of the unmanned aerial vehicle 100 via the communication interface 150. The UAV control unit 110 transmits the biological information detected by the sensor unit 310 and the image taken by the imaging unit 316 or the imaging unit 230 to the server device 40 together with the position information of the unmanned aerial vehicle 100 via the communication interface 150. May be The image captured by the imaging unit 316 may be an image captured by a living body.

このような無人航空機100及び生体探索システム10によれば、各種カメラや各種ジンバルを用いて生体の探索を行うことに加え、センサ部310の各種センサを用いて生体の探索を行うので、視覚的に生体の有無を判断できるとともに、視覚以外の情報を用いて生体の有無を判断できる。よって、無人航空機100及び生体探索システム10は、例えば、救援効率を改善でき、救援時間を節約できる。また、地震や雪崩により、人が瓦礫や雪の下に埋まっている場合でも、無人航空機100及び生体探索システム10は、ユーザが生体を探索する際のリスクを低減して、生体を探索できる。   According to the unmanned aerial vehicle 100 and the living body searching system 10, in addition to searching for a living body using various cameras and various gimbals, searching for a living body is performed using various sensors of the sensor unit 310. The presence or absence of a living body can be determined using information other than vision. Thus, the unmanned aerial vehicle 100 and the biometric system 10 can, for example, improve the rescue efficiency and save the rescue time. In addition, even when a person is buried under rubble or snow due to an earthquake or an avalanche, the unmanned aerial vehicle 100 and the living body searching system 10 can search for a living body by reducing the risk when the user searches for a living body.

次に、サーバ装置40による生体情報や発信者情報の管理について説明する。   Next, management of biological information and caller information by the server device 40 will be described.

サーバ装置40では、サーバ制御部41は、通信部45を介して無人航空機100から生体の位置情報を取得する。サーバ制御部41は、通信部45を介して無人航空機100から生体情報や撮像部316又は撮像部230により撮像された画像を取得してもよい。サーバ制御部41は、取得された生体の位置情報、生体情報、画像、等をストレージ49にストレージ49に蓄積させる。   In the server device 40, the server control unit 41 acquires position information of the living body from the unmanned aerial vehicle 100 via the communication unit 45. The server control unit 41 may acquire biological information or an image captured by the imaging unit 316 or the imaging unit 230 from the unmanned aerial vehicle 100 via the communication unit 45. The server control unit 41 causes the storage 49 to accumulate the acquired position information of the living body, the biological information, the image, and the like in the storage 49.

ストレージ49は、生体情報や発信機400に関する情報(発信機情報)を保持してよい。発信機情報は、過去に投下された又は今後投下される発信機400の情報でよい。例えば、ストレージ49は、発信機400の識別情報、その発信機400が投下された位置情報(無人航空機100の位置情報)、生体情報、等を保持してよい。発信機400が投下された位置の情報は、生体の位置情報と一致してよい。ストレージ49は、生体情報や発信機情報とともに、無人航空機100が撮像した画像を保持してよい。この空撮画像は、調査対象SROに含まれる生体の画像でよい。   The storage 49 may hold biological information and information (transmitter information) on the transmitter 400. The transmitter information may be information of the transmitter 400 dropped in the past or dropped in the future. For example, the storage 49 may hold identification information of the transmitter 400, position information on which the transmitter 400 is dropped (position information of the unmanned aerial vehicle 100), biological information, and the like. The information on the position where the transmitter 400 is dropped may match the position information on the living body. The storage 49 may hold an image captured by the unmanned aerial vehicle 100 together with the biometric information and the transmitter information. This aerial image may be an image of a living body included in the survey target SRO.

サーバ制御部41は、ストレージ49に蓄積された情報(生体の位置情報、生体情報、画像、等)を取得し、外部のモニタに表示させてよい。サーバ制御部41は、通信部45を介して、ストレージ49に蓄積された情報(生体の位置情報、生体情報、画像、等)を端末80等に送信してよい。   The server control unit 41 may acquire information (position information of a living body, biological information, an image, and the like) accumulated in the storage 49 and display the information on an external monitor. The server control unit 41 may transmit, via the communication unit 45, information stored in the storage 49 (position information of a living body, biological information, an image, etc.) to the terminal 80 or the like.

サーバ制御部41は、ストレージ49に保持された地図データを取得してよい。サーバ制御部41は、通信部45を介して外部サーバから地図データを取得してよい。サーバ制御部41は、地図データにおいて、無人航空機100から取得された生体の位置情報を重畳してよい。生体の位置情報が重畳された地図データは、外部のモニタに表示されてもよいし、端末80に送信されてよい。   The server control unit 41 may acquire the map data held in the storage 49. The server control unit 41 may acquire map data from an external server via the communication unit 45. The server control unit 41 may superimpose the position information of the living body acquired from the unmanned aerial vehicle 100 in the map data. The map data on which the position information of the living body is superimposed may be displayed on an external monitor or may be transmitted to the terminal 80.

このように、サーバ装置40に生体の位置情報等が送られて蓄積されることで、サーバ装置40を集約するセンタ内では、生体の位置情報等を一覧して確認できる。よって、例えばセンタから出発するユーザが生体の存在する位置に直接向かうことができる。また、サーバ装置40とユーザが有する端末80とが連携することで、ユーザは、生体の位置情報や発信機の情報を救助現場付近でも確認できる。   As described above, by transmitting location information and the like of the living body to the server device 40 and accumulating the same, in the center where the server devices 40 are integrated, location information and the like of the living body can be listed and confirmed. Thus, for example, a user departing from the center can go directly to the position where the living body exists. Further, by the server device 40 and the terminal 80 possessed by the user collaborating, the user can confirm the position information of the living body and the information of the transmitter near the rescue site.

このように、災害救助センタの救助隊員は、外部のモニタを参照して、生体が所持位置を確認できる。また、捜索地域SR1に向かった救助隊員は、端末80の表示部88を参照して、生体の所持位置を確認できる。また、ユーザは、位置情報とともに生体情報を取得でき、生体が存在する各位置に、どのような状態の生体が存在するかを把握することが可能である。   Thus, the rescue worker of the disaster relief center can refer to the external monitor to confirm the position of the living body. Further, the rescue worker who has headed to the search area SR1 can refer to the display unit 88 of the terminal 80 to confirm the possession position of the living body. In addition, the user can acquire biological information as well as position information, and can grasp what state a living body exists at each position where the living body exists.

また、ユーザは、生体の周辺に近づくと、端末80により、生体の周辺に投下された発信機400の電波を受信できる。よって、生体探索システム10は、障害物BCが多く手がかりなく生体を探索する場合と比較すると、生体の探索効率、救助効率を大幅に向上できる。   Further, when the user approaches the periphery of the living body, the terminal 80 can receive the radio wave of the transmitter 400 dropped around the living body. Therefore, the living body search system 10 can significantly improve the searching efficiency and the rescue efficiency of the living body as compared with the case where the obstacle BC searches a living body without many clues.

本実施形態では、無人航空機100が、生体の探索に関する処理を実施することを例示したが、これに限られない。例えば、送信機50の処理部や端末80の端末制御部81が、本実施形態で説明した生体の探索に関する処理の少なくとも一部を行ってもよい。これにより、生体の探査に関する処理の実行時における無人航空機100の処理負荷を低減でき、負荷分散が図れる。   In the present embodiment, the unmanned aerial vehicle 100 exemplifies execution of a process related to searching for a living body, but the present invention is not limited to this. For example, the processing unit of the transmitter 50 and the terminal control unit 81 of the terminal 80 may perform at least a part of the processing related to the search for a living body described in the present embodiment. As a result, the processing load on the unmanned aerial vehicle 100 can be reduced at the time of execution of processing relating to the search for a living body, and load distribution can be achieved.

本実施形態では、無人航空機100の生体探索を支援する端末80(無人航空機100の制御を指示する端末)と、実際に生体の探索に向かう救助隊員が保持する端末80とは、同じ端末でもよいし、別個の端末でもよい。   In the present embodiment, the terminal 80 that supports biological search of the unmanned aerial vehicle 100 (a terminal that instructs control of the unmanned aerial vehicle 100) may be the same terminal as the terminal 80 that a rescue worker who actually goes searching for a living body holds. Or a separate terminal.

以上、本開示を実施形態を用いて説明したが、本開示の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。   Although the present disclosure has been described above using the embodiments, the technical scope of the present disclosure is not limited to the scope described in the above-described embodiments. It is obvious for those skilled in the art to add various changes or improvements to the embodiment described above. It is also apparent from the scope of the claims that the embodiments added with such alterations or improvements can be included in the technical scope of the present disclosure.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The execution order of each process such as operations, procedures, steps, and steps in the apparatuses, systems, programs, and methods shown in the claims, the specification, and the drawings is particularly “before”, “preceding” Etc., and can be realized in any order as long as the output of the previous process is not used in the later process. With regard to the flow of operations in the claims, the specification, and the drawings, even if it is described using “first,” “next,” etc. for the sake of convenience, it means that it is essential to carry out in this order. is not.

10 生体探索システム
40 サーバ装置
41 サーバ制御部
45 通信部
47 メモリ
49 ストレージ
50 送信機
80 端末
81 端末制御部
83 操作部
85 通信部
87 メモリ
88 表示部
89 ストレージ
100 無人航空機
110 UAV制御部
150 通信インタフェース
160 メモリ
170 ストレージ
200 第1ジンバル
202 第2ジンバル
204 第1ポール
206 第2ポール
210 回転翼機構
230 撮像部
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 第1超音波センサ
290 レーザー測定器
310 センサ部
311 二酸化炭素センサ
312 可視光LED
313 赤外線LED
314 第2超音波センサ
315 赤外線センサ
316 撮像部
316a イメージセンサ
317 マイクロホン
320 収容ボックス
321 開閉部
322 カメラ
B1 LEDボタン
B2 IRLEDボタン
B3 MARKボタン
BC 障害物
g11 ライブビュー画像
g12,g13 検出値の表示領域
MK1,MK11,MK12 障害物接近マーク
MK2 センサ条件満足マーク
LB 生体
p1 挿入位置
SRO 調査対象
SR1 捜索地域
U1 ユーザ
DESCRIPTION OF SYMBOLS 10 living body search system 40 server apparatus 41 server control part 45 communication part 47 memory 49 storage 50 transmitter 80 terminal 81 terminal control part 83 operation part 85 communication part 87 memory 88 display part 89 storage 100 unmanned aerial vehicle 110 UAV control part 150 communication interface 160 memory 170 storage 200 first gimbal 202 second gimbal 204 first pole 206 second pole 210 rotary wing mechanism 230 imaging unit 240 GPS receiver 250 inertia measurement device 260 magnetic compass 270 barometric altimeter 280 first ultrasonic sensor 290 laser measurement 310 Sensor section 311 Carbon dioxide sensor 312 Visible light LED
313 Infrared LED
314 second ultrasonic sensor 315 infrared sensor 316 imaging unit 316a image sensor 317 microphone 320 accommodation box 321 opening / closing unit camera B1 LED button B2 IR LED button B3 MARK button BC obstacle g11 live view image g12, g13 display area of detected values MK1 , MK11, MK12 obstacle approach mark MK2 sensor condition satisfaction mark LB living body p1 insertion position SRO survey target SR1 search area U1 user

Claims (33)

回転翼が取り付けられる本体と、
前記本体に接続された第1の支持部材と、
前記第1の支持部材に支持された第1のジンバルと、
前記第1のジンバルに回転可能に支持された第2の支持部材と、
前記第2の支持部材に支持された第2のジンバルと、
前記第2のジンバルに回転可能に支持されたセンサ部と、
を備える飛行体。
A body to which a rotor is attached;
A first support member connected to the body;
A first gimbal supported by the first support member;
A second support member rotatably supported by the first gimbal;
A second gimbal supported by the second support member;
A sensor unit rotatably supported by the second gimbal;
A flying body equipped with
前記第2の支持部材は、伸縮自在である、
請求項1に記載の飛行体。
The second support member is telescopic.
The aircraft according to claim 1.
前記第1の支持部材は、伸縮自在である、
請求項1又は2に記載の飛行体。
The first support member is telescopic.
The aircraft according to claim 1 or 2.
前記センサ部は、生体に関する情報を検出する、
請求項1〜3のいずれか1項に記載の飛行体。
The sensor unit detects information on a living body.
The aircraft according to any one of claims 1 to 3.
生体を探索する飛行体であって、
前記生体に関する生体情報を検出するセンサ部と、
前記センサ部を支持し、伸縮自在な支持部材と、
前記支持部材を回転可能にジンバルと、
前記生体の探索に関する処理を行う処理部と、
画像を撮像する撮像部と、
を備え、
前記処理部は、
前記撮像部に調査領域の画像を撮像させ、
前記調査領域に向かって前記飛行体を接近させるよう、前記飛行体の飛行を制御し、
前記調査領域に存在する調査対象に向けて前記支持部材を伸長させ、
伸長された前記支持部材に支持された前記ジンバルに支持された前記センサ部に、前記生体情報を検出させる、
飛行体。
It is an aircraft searching for a living body,
A sensor unit that detects biological information related to the living body;
An expandable support member that supports the sensor unit;
A gimbal rotatably supporting the support member;
A processing unit that performs processing related to searching for the living body;
An imaging unit that captures an image;
Equipped with
The processing unit is
Causing the imaging unit to capture an image of a survey area;
Controlling the flight of the aircraft to bring the aircraft closer to the survey area;
Elongating the support member towards the investigation object present in the investigation area,
Causing the sensor unit supported by the gimbal supported by the extended support member to detect the biological information;
Flying body.
前記処理部は、
前記生体情報として前記生体が存在する旨の情報が検出された場合、
前記飛行体の位置情報を取得し、
前記飛行体の位置情報をサーバ装置に送信する、
請求項5に記載の飛行体。
The processing unit is
When information indicating that the living body is present is detected as the biological information,
Get location information of the aircraft,
Transmitting location information of the aircraft to a server device;
The aircraft according to claim 5.
前記飛行体は、電波を発信する発信機を収容する収容部を備え、
前記処理部は、前記生体情報として前記生体が存在する旨の情報が検出された場合、前記収容部から前記発信機を投下させる、
請求項6に記載の飛行体。
The flying object includes a housing portion for housing a transmitter for transmitting radio waves,
The processing unit drops the transmitter from the storage unit when information indicating that the living body is present is detected as the biological information.
The aircraft according to claim 6.
前記処理部は、
前記飛行体の制御を指示する制御装置から、前記発信機を投下するための投下指示情報を取得し、
前記投下指示情報に基づいて、前記発信機を投下させる、
請求項7に記載の飛行体。
The processing unit is
The drop instruction information for dropping the transmitter is obtained from the control device instructing the control of the flying object;
Causing the transmitter to be dropped based on the drop instruction information;
The aircraft according to claim 7.
前記処理部は、前記飛行体の現在位置において、前記支持部材を伸長させた場合に前記センサ部により前記生体情報の検出が可能か否かを示すセンサ条件を満たし、前記支持部材の伸長位置に障害物が存在しない場合、前記支持部材を伸長させる、
請求項5〜8のいずれか1項に記載の飛行体。
The processing unit satisfies a sensor condition indicating whether the biological information can be detected by the sensor unit when the support member is extended at the current position of the flying object, and the processing unit sets the extended position of the support member. If the obstacle is not present, extend the support member
The aircraft according to any one of claims 5 to 8.
前記処理部は、
前記飛行体の制御を指示する制御装置から、前記支持部材の伸長を指示するための伸長指示情報を取得し、
前記伸長指示情報に基づいて、前記支持部材を伸長させる、
請求項9に記載の飛行体。
The processing unit is
Obtaining extension instruction information for instructing extension of the support member from a control device instructing control of the flying object;
Extending the support member based on the extension instruction information;
The aircraft of claim 9.
前記処理部は、前記支持部材を伸長させた場合に前記センサ部により前記生体情報の検出が可能か否かを示すセンサ条件を満たさない場合、障害物を避けて前記飛行体を移動させる、
請求項5〜10のいずれか1項に記載の飛行体。
When the processing unit does not satisfy a sensor condition indicating whether or not the biological information can be detected by the sensor unit when the support member is extended, the processing unit moves the flying object avoiding an obstacle.
The aircraft according to any one of claims 5 to 10.
前記処理部は、
前記飛行体の制御を指示する制御装置から、前記飛行体の移動を指示するための移動指示情報を取得し、
前記移動指示情報に基づいて、前記障害物を避けて前記飛行体を移動させる、
請求項11に記載の飛行体。
The processing unit is
The movement instruction information for instructing the movement of the flight body is acquired from the control device instructing the control of the flight body,
Moving the flying object avoiding the obstacle based on the movement instruction information;
The aircraft according to claim 11.
前記処理部は、前記飛行体の現在位置において、前記支持部材を伸長させた場合に前記センサ部により前記生体情報の検出が可能か否かを示すセンサ条件を満たし、前記支持部材の伸長位置に障害物が存在する場合、前記ジンバルを制御して前記支持部材の向きを変更する、
請求項5〜12のいずれか1項に記載の飛行体。
The processing unit satisfies a sensor condition indicating whether the biological information can be detected by the sensor unit when the support member is extended at the current position of the flying object, and the processing unit sets the extended position of the support member. Controlling the gimbal to change the orientation of the support member if an obstacle is present,
The aircraft according to any one of claims 5 to 12.
前記処理部は、前記飛行体の制御を指示する制御装置から、前記支持部材の向きを指示するための向き指示情報を取得し、
前記向き指示情報に基づいて、前記支持部材の向きを変更する、
請求項13に記載の飛行体。
The processing unit acquires direction instruction information for instructing the direction of the support member from a control device that instructs control of the aircraft.
Changing the direction of the support member based on the direction instruction information;
The aircraft of claim 13.
前記センサ部は、複数のセンサを含み、
前記処理部は、前記飛行体の制御を指示する制御装置から、前記センサ部に含まれる少なくとも1つのセンサをオン又はオフするためのオンオフ指示情報を取得し、
前記オンオフ指示情報に基づいて、前記センサ部に含まれる少なくとも1つのセンサをオン又はオフする、
請求項5〜14のいずれか1項に記載の飛行体。
The sensor unit includes a plurality of sensors,
The processing unit acquires on / off instruction information for turning on or off at least one sensor included in the sensor unit from a control device that instructs control of the flying object.
At least one sensor included in the sensor unit is turned on or off based on the on / off instruction information.
The aircraft according to any one of claims 5 to 14.
前記センサ条件は、前記支持部材の一端から回転翼の端部に対応する前記支持部材の第1の点までの長さと、前記支持部材の前記一端から他端までの長さと、前記調査対象が存在する調査空間に挿入される前記支持部材の前記他端から第2の点までの長さと、に基づいて決定された、
請求項9、11、13のいずれか1項に記載の飛行体。
The sensor condition includes the length from one end of the support member to the first point of the support member corresponding to the end of the rotary wing, the length from the one end to the other end of the support member, and the survey target Determined based on the length from the other end of the support member inserted into the existing survey space to the second point,
The airframe according to any one of claims 9, 11 and 13.
生体を探索する飛行体及び表示装置を備える生体探索システムであって、
前記飛行体は、
生体に関する生体情報を検出するセンサ部と、
前記センサ部を支持し、伸縮自在な支持部材と、
前記支持部材を回転可能に支持するジンバルと、
前記生体の探索に関する処理を行う処理部と、
画像を撮像する撮像部と、
を備え、
前記処理部は、
前記撮像部に調査領域の画像を撮像させ、
前記調査領域に向かって前記飛行体を接近させるよう、前記飛行体の飛行を制御し、
前記調査領域に存在する調査対象に向けて前記支持部材を伸長させ、
伸長された前記支持部材に支持された前記ジンバルに支持された前記センサ部に、前記生体情報を検出させ、
前記生体情報を送信し、
前記表示装置は、
前記生体情報を受信し、
前記生体情報に基づいて表示する、
生体探索システム。
A living body search system comprising an aircraft and a display device for searching a living body, comprising:
The aircraft is
A sensor unit for detecting biological information on a living body;
An expandable support member that supports the sensor unit;
A gimbal rotatably supporting the support member;
A processing unit that performs processing related to searching for the living body;
An imaging unit that captures an image;
Equipped with
The processing unit is
Causing the imaging unit to capture an image of a survey area;
Controlling the flight of the aircraft to bring the aircraft closer to the survey area;
Elongating the support member towards the investigation object present in the investigation area,
Causing the sensor unit supported by the gimbal supported by the extended support member to detect the biological information;
Send the biological information,
The display device is
Receiving the biological information,
Display based on the biological information
Biometric search system.
前記飛行体の前記センサ部は、前記生体の周辺に存在する障害物までの距離を検出し、
前記飛行体の前記処理部は、前記距離が所定距離未満である場合、前記距離に基づく第1の通知情報を表示装置へ送信し、
前記表示装置は、
前記第1の通知情報を受信し、
前記第1の通知情報に基づいて表示する、
請求項17に記載の生体探索システム。
The sensor unit of the flying object detects a distance to an obstacle present around the living body,
If the distance is less than a predetermined distance, the processing unit of the aircraft transmits first notification information based on the distance to a display device.
The display device is
Receiving the first notification information;
Display based on the first notification information,
The biometric search system according to claim 17.
前記飛行体の前記処理部は、前記飛行体の現在位置において、前記支持部材を伸長させた場合に前記センサ部により前記生体情報の検出が可能か否かを示すセンサ条件を満たす場合、前記センサ条件を満たすことに基づく第2の通知情報を表示装置へ送信し、
前記表示装置は、
前記第2の通知情報を受信し、
前記第2の通知情報に基づいて表示する、
請求項17又は18に記載の生体探索システム。
When the processing unit of the flight object satisfies a sensor condition indicating whether the detection of the biological information is possible by the sensor unit when the support member is extended at the current position of the flight object, the sensor Sending to the display device second notification information based on satisfying the condition;
The display device is
Receiving the second notification information;
Display based on the second notification information,
The biometric system according to claim 17 or 18.
生体に関する生体情報を検出するセンサ部と、前記センサ部を支持し、伸縮自在な支持部材と、前記支持部材を回転可能にジンバルと、を備え、前記生体を探索する飛行体における生体探索方法であって、
画像を撮像する撮像部に調査領域の画像を撮像させるステップと、
前記調査領域に向かって前記飛行体を接近させるよう、前記飛行体の飛行を制御するステップと、
前記調査領域に存在する調査対象に向けて前記支持部材を伸長させるステップと、
伸長された前記支持部材に支持された前記ジンバルに支持された前記センサ部に、前記生体情報を検出させるステップと、
を有する生体探索方法。
A living body searching method for a flying object, comprising: a sensor unit for detecting living body information related to a living body; a support member which supports the sensor unit and which is stretchable; and a gimbal which can rotatably support the support member; There,
Causing an imaging unit for capturing an image to capture an image of a survey area;
Controlling the flight of the aircraft to bring the aircraft closer towards the investigation area;
Elongating the support member towards a survey object present in the survey area;
Causing the sensor unit supported by the gimbal supported by the extended support member to detect the biological information;
A living body search method having:
前記生体情報として前記生体が存在する旨の情報が検出された場合、前記飛行体の位置情報を取得するステップと、
前記飛行体の位置情報をサーバ装置に送信するステップと、を更に含む、
請求項20に記載の生体探索方法。
Acquiring position information of the flying object when information indicating the presence of the living body is detected as the biological information;
Transmitting the position information of the aircraft to a server device.
21. The living body search method according to claim 20.
前記飛行体は、電波を発信する発信機を収容する収容部を備え、
前記生体情報として前記生体が存在する旨の情報が検出された場合、前記収容部から前記発信機を投下させるステップ、を更に含む、
請求項21に記載の生体探索方法。
The flying object includes a housing portion for housing a transmitter for transmitting radio waves,
And dropping the transmitter from the storage unit when information indicating the presence of the living body is detected as the biological information.
22. The living body search method according to claim 21.
前記飛行体の制御を指示する制御装置から、前記発信機を投下するための投下指示情報を取得するステップ、を更に含み、
前記発信機を投下させるステップは、前記投下指示情報に基づいて、前記発信機を投下させるステップを含む、
請求項22に記載の生体探索方法。
Obtaining from the control device instructing control of the flying object, dropping instruction information for dropping the transmitter;
The step of dropping the transmitter includes the step of dropping the transmitter based on the drop instruction information.
The biometric search method according to claim 22.
前記支持部材を伸長させるステップは、前記飛行体の現在位置において、前記支持部材を伸長させた場合に前記センサ部により前記生体情報の検出が可能か否かを示すセンサ条件を満たし、前記支持部材の伸長位置に障害物が存在しない場合、前記支持部材を伸長させるステップを含む、
請求項20〜23のいずれか1項に記載の生体探索方法。
The step of extending the support member satisfies a sensor condition indicating whether the biological information can be detected by the sensor unit when the support member is extended at the current position of the flying object, the support member Extending the support member if there is no obstruction in the extended position of
The biological search method according to any one of claims 20 to 23.
前記飛行体の制御を指示する制御装置から、前記支持部材の伸長を指示するための伸長指示情報を取得するステップ、を更に含み、
前記支持部材を伸長させるステップは、前記伸長指示情報に基づいて、前記支持部材を伸長させる、
請求項24に記載の生体探索方法。
Obtaining extension instruction information for instructing extension of the support member from a control device instructing control of the aircraft;
The step of extending the support member extends the support member based on the extension instruction information.
The living body search method according to claim 24.
前記飛行体の飛行を制御するステップは、前記支持部材を伸長させた場合に前記センサ部により前記生体情報の検出が可能か否かを示すセンサ条件を満たさない場合、障害物を避けて前記飛行体を移動させるステップを含む、
請求項20〜25のいずれか1項に記載の生体探索方法。
The step of controlling the flight of the flying object avoids an obstacle when the sensor condition indicating whether the biological information can be detected by the sensor unit is not satisfied when the support member is extended, the flight is performed without the obstacle. Including moving the body,
The living body search method according to any one of claims 20 to 25.
前記飛行体の制御を指示する制御装置から、前記飛行体の移動を指示するための移動指示情報を取得するステップ、を更に含み、
前記飛行体の飛行を制御するステップは、前記移動指示情報に基づいて、前記障害物を避けて前記飛行体を移動させるステップを含む、
請求項26に記載の生体探索方法。
Acquiring movement instruction information for instructing movement of the flight body from a control device instructing control of the flight body;
The step of controlling the flight of the flying object may include moving the flying object avoiding the obstacle based on the movement instruction information.
The living body search method according to claim 26.
前記飛行体の現在位置において、前記支持部材を伸長させた場合に前記センサ部により前記生体情報の検出が可能か否かを示すセンサ条件を満たし、前記支持部材の伸長位置に障害物が存在する場合、前記ジンバルを制御して前記支持部材の向きを変更するステップ、を更に含む、
請求項20〜27のいずれか1項に記載の生体探索方法。
At the current position of the flying object, when the support member is extended, a sensor condition indicating whether the biological information can be detected by the sensor unit is satisfied, and an obstacle is present at the extended position of the support member And controlling the gimbal to change the orientation of the support member.
The living body search method according to any one of claims 20 to 27.
前記飛行体の制御を指示する制御装置から、前記支持部材の向きを指示するための向き指示情報を取得するステップ、を更に含み、
前記支持部材の向きを変更するステップは、前記向き指示情報に基づいて、前記支持部材の向きを変更するステップを含む、
請求項28に記載の生体探索方法。
Obtaining direction indication information for instructing the direction of the support member from a control device instructing control of the aircraft;
The step of changing the direction of the support member includes the step of changing the direction of the support member based on the direction instruction information.
29. The living body search method according to claim 28.
前記センサ部は、複数のセンサを含み、
前記飛行体の制御を指示する制御装置から、前記センサ部に含まれる少なくとも1つのセンサをオン又はオフするためのオンオフ指示情報を取得するステップと、
前記オンオフ指示情報に基づいて、前記センサ部に含まれる少なくとも1つのセンサをオン又はオフするステップと、を更に含む、
請求項20〜29のいずれか1項に記載の生体探索方法。
The sensor unit includes a plurality of sensors,
Acquiring on / off instruction information for turning on / off at least one sensor included in the sensor unit from a control device instructing control of the flying object;
Switching on or off at least one sensor included in the sensor unit based on the on / off instruction information;
The living body search method according to any one of claims 20 to 29.
前記センサ条件は、前記支持部材の一端から回転翼の端部に対応する前記支持部材の第1の点までの長さと、前記支持部材の前記一端から他端までの長さと、前記調査対象が存在する調査空間に挿入される前記支持部材の前記他端から第2の点までの長さと、に基づいて決定された、
請求項24、26、28のいずれか1項に記載の生体探索方法。
The sensor condition includes the length from one end of the support member to the first point of the support member corresponding to the end of the rotary wing, the length from the one end to the other end of the support member, and the survey target Determined based on the length from the other end of the support member inserted into the existing survey space to the second point,
29. The living body searching method according to any one of claims 24, 26, 28.
生体に関する生体情報を検出するセンサ部と、前記センサ部を支持し、伸縮自在な支持部材と、前記支持部材を回転可能にジンバルと、を備え、前記生体を探索する飛行体に、
画像を撮像する撮像部に調査領域の画像を撮像させるステップと、
前記調査領域に向かって前記飛行体を接近させるよう、前記飛行体の飛行を制御するステップと、
前記調査領域に存在する調査対象に向けて前記支持部材を伸長させるステップと、
伸長された前記支持部材に支持された前記ジンバルに支持された前記センサ部に、前記生体情報を検出させるステップと、
を実行させるためのプログラム。
A flying object for detecting a living body, comprising: a sensor unit for detecting living body information on a living body; a support member which supports the sensor unit and which is stretchable; and a gimbal which can rotatably support the support member;
Causing an imaging unit for capturing an image to capture an image of a survey area;
Controlling the flight of the aircraft to bring the aircraft closer towards the investigation area;
Elongating the support member towards a survey object present in the survey area;
Causing the sensor unit supported by the gimbal supported by the extended support member to detect the biological information;
A program to run a program.
生体に関する生体情報を検出するセンサ部と、前記センサ部を支持し、伸縮自在な支持部材と、前記支持部材を回転可能にジンバルと、を備え、前記生体を探索する飛行体に、
画像を撮像する撮像部に調査領域の画像を撮像させるステップと、
前記調査領域に向かって前記飛行体を接近させるよう、前記飛行体の飛行を制御するステップと、
前記調査領域に存在する調査対象に向けて前記支持部材を伸長させるステップと、
伸長された前記支持部材に支持された前記ジンバルに支持された前記センサ部に、前記生体情報を検出させるステップと、
を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。
A flying object for detecting a living body, comprising: a sensor unit for detecting living body information on a living body; a support member which supports the sensor unit and which is stretchable; and a gimbal which can rotatably support the support member;
Causing an imaging unit for capturing an image to capture an image of a survey area;
Controlling the flight of the aircraft to bring the aircraft closer towards the investigation area;
Elongating the support member towards a survey object present in the survey area;
Causing the sensor unit supported by the gimbal supported by the extended support member to detect the biological information;
A computer readable recording medium recording a program for executing the program.
JP2017188022A 2017-09-28 2017-09-28 Aircraft, biological search systems, biological search methods, programs, and recording media Active JP6859241B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017188022A JP6859241B2 (en) 2017-09-28 2017-09-28 Aircraft, biological search systems, biological search methods, programs, and recording media
EP17927177.0A EP3689754A4 (en) 2017-09-28 2017-12-15 Flying body, living body detection system, living body detection method, program and recording medium
PCT/CN2017/116603 WO2019061860A1 (en) 2017-09-28 2017-12-15 Flying body, living body detection system, living body detection method, program and recording medium
CN201780064190.5A CN109843726B (en) 2017-09-28 2017-12-15 Flying object, biological detection system, biological detection method, program, and recording medium
US16/726,618 US11531340B2 (en) 2017-09-28 2019-12-24 Flying body, living body detection system, living body detection method, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017188022A JP6859241B2 (en) 2017-09-28 2017-09-28 Aircraft, biological search systems, biological search methods, programs, and recording media

Publications (2)

Publication Number Publication Date
JP2019059452A true JP2019059452A (en) 2019-04-18
JP6859241B2 JP6859241B2 (en) 2021-04-14

Family

ID=65902132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017188022A Active JP6859241B2 (en) 2017-09-28 2017-09-28 Aircraft, biological search systems, biological search methods, programs, and recording media

Country Status (5)

Country Link
US (1) US11531340B2 (en)
EP (1) EP3689754A4 (en)
JP (1) JP6859241B2 (en)
CN (1) CN109843726B (en)
WO (1) WO2019061860A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021058866A (en) * 2019-10-09 2021-04-15 ソフトバンク株式会社 Injection device, program, system, and injection method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021144260A (en) * 2018-06-15 2021-09-24 ソニーグループ株式会社 Information processing device, information processing method, program, and information processing system
EP3957561B1 (en) * 2019-04-18 2023-07-19 Panasonic Intellectual Property Management Co., Ltd. Unmanned flight body, control method, and program
CN109976370B (en) * 2019-04-19 2022-09-30 深圳市道通智能航空技术股份有限公司 Control method and device for vertical face surrounding flight, terminal and storage medium
JP7302349B2 (en) * 2019-07-23 2023-07-04 東洋製罐株式会社 Unmanned Aerial Vehicles, Launch Methods and Programs
JP2022100121A (en) * 2020-12-23 2022-07-05 トヨタ自動車株式会社 Server, vehicle detection system and vehicle detection method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04349095A (en) * 1991-05-28 1992-12-03 Toshiba Corp Working device for airplane
JPH0871964A (en) * 1994-09-09 1996-03-19 Mitsubishi Heavy Ind Ltd Rotating equipment capturing device
JP2008150028A (en) * 2006-09-21 2008-07-03 Honeywell Internatl Inc Unmanned sensor placement in cluttered terrain
WO2017041302A1 (en) * 2015-09-11 2017-03-16 SZ DJI Technology Co., Ltd. Stabilizing platform
JP2017074821A (en) * 2015-10-13 2017-04-20 独立行政法人国立高等専門学校機構 Drowning rescue device
JP2017077080A (en) * 2015-10-14 2017-04-20 東京電力ホールディングス株式会社 State detector and state detection program
JP2017136914A (en) * 2016-02-02 2017-08-10 株式会社プロドローン Unmanned rotary wing machine

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101914893B (en) * 2010-07-09 2011-07-27 重庆交通大学 Bridge detection robot based on four-axle aircraft
US9384668B2 (en) * 2012-05-09 2016-07-05 Singularity University Transportation using network of unmanned aerial vehicles
CN203444123U (en) * 2013-08-05 2014-02-19 朱小炜 Flight life detector
US10132951B2 (en) * 2013-10-22 2018-11-20 Alan Haddy Detection of buried assets using drone apparatus
US11397258B2 (en) * 2015-07-17 2022-07-26 Origin Wireless, Inc. Method, apparatus, and system for outdoor target tracking
CN104477399B (en) * 2014-11-26 2016-09-07 马鞍山市靓马航空科技有限公司 A kind of many rotor wing unmanned aerial vehicles of night search and rescue
CN204433078U (en) * 2015-01-30 2015-07-01 深圳市大疆创新科技有限公司 The Cloud Terrace and use the aircraft of this The Cloud Terrace
KR101536574B1 (en) * 2015-03-02 2015-07-14 건설표준시험원(주) drone for checking structure
US9944366B2 (en) * 2015-05-19 2018-04-17 Rujing Tang Unmanned aerial vehicle system and methods for use
US9984586B2 (en) * 2015-11-22 2018-05-29 Victor Popa-Simil Method and device to improve the flying abilities of the airborne devices operator
WO2017147188A1 (en) * 2016-02-23 2017-08-31 Culver Matthew Systems and methods for unmanned aerial vehicles
CN206141848U (en) * 2016-10-09 2017-05-03 无锡飞天侠科技有限公司 Unmanned aerial vehicle is monitored with plant diseases and insect pests to agricultural
KR101715210B1 (en) * 2016-11-01 2017-03-22 한국건설기술연구원 Apparatus and method for detecting Buried Persons's position using unmanned moving unit
CN106412525B (en) * 2016-11-11 2023-04-07 湖南广远视通网络技术有限公司 Warning lamp
CN106741895A (en) * 2016-12-28 2017-05-31 合肥工业大学 The operating method of inspection unmanned plane violating the regulations and inspection unmanned plane violating the regulations
CN107089319A (en) * 2017-04-20 2017-08-25 中化舟山危化品应急救援基地有限公司 Storage tank fire detection system
CN107168358A (en) * 2017-06-30 2017-09-15 马鞍山市赛迪智能科技有限公司 A kind of three-dimensional modeling data acquisition method based on multi-angle oblique camera
US20190057233A1 (en) * 2017-08-15 2019-02-21 Lawrence Livermore National Security, Llc Detection and tracking system using tattoos

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04349095A (en) * 1991-05-28 1992-12-03 Toshiba Corp Working device for airplane
JPH0871964A (en) * 1994-09-09 1996-03-19 Mitsubishi Heavy Ind Ltd Rotating equipment capturing device
JP2008150028A (en) * 2006-09-21 2008-07-03 Honeywell Internatl Inc Unmanned sensor placement in cluttered terrain
WO2017041302A1 (en) * 2015-09-11 2017-03-16 SZ DJI Technology Co., Ltd. Stabilizing platform
JP2017074821A (en) * 2015-10-13 2017-04-20 独立行政法人国立高等専門学校機構 Drowning rescue device
JP2017077080A (en) * 2015-10-14 2017-04-20 東京電力ホールディングス株式会社 State detector and state detection program
JP2017136914A (en) * 2016-02-02 2017-08-10 株式会社プロドローン Unmanned rotary wing machine

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021058866A (en) * 2019-10-09 2021-04-15 ソフトバンク株式会社 Injection device, program, system, and injection method

Also Published As

Publication number Publication date
CN109843726B (en) 2021-10-19
JP6859241B2 (en) 2021-04-14
US11531340B2 (en) 2022-12-20
EP3689754A4 (en) 2021-07-07
WO2019061860A1 (en) 2019-04-04
CN109843726A (en) 2019-06-04
US20200150662A1 (en) 2020-05-14
EP3689754A1 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
JP6859241B2 (en) Aircraft, biological search systems, biological search methods, programs, and recording media
US11794890B2 (en) Unmanned aerial vehicle inspection system
US11550315B2 (en) Unmanned aerial vehicle inspection system
US10354407B2 (en) Camera for locating hidden objects
US9513635B1 (en) Unmanned aerial vehicle inspection system
KR101690502B1 (en) System for tracking using drone
EP3064899A1 (en) Tracking in an indoor environment
WO2019041633A1 (en) Communication relay method, relay aerial vehicle, program, and recording medium
US20200064133A1 (en) Information processing device, aerial photography route generation method, aerial photography route generation system, program, and storage medium
JP2006027331A (en) Method for collecting aerial image information by utilizing unmanned flying object
JPWO2018193574A1 (en) Flight path generation method, information processing apparatus, flight path generation system, program, and recording medium
JP2017117018A (en) System and method for setting/registering flight route for small unmanned aircraft
JP2019053501A (en) Flying device, management device, flight management method and program
JP6460524B2 (en) NAVIGATION SYSTEM, NAVIGATION DEVICE, FLYER, AND NAVIGATION CONTROL METHOD
JP7040827B1 (en) Search support system and rescue support program
JP2018005878A (en) Movable body
KR102474684B1 (en) Apparatus For Disaster Relief
KR102503849B1 (en) Mobile Base Station and System for Providing Services Using Mobile Base Station
EP3967599A1 (en) Information processing device, information processing method, program, and information processing system
KR20150078576A (en) System and Method for Taking a Picture with Partner Have a Same Place but Different Time
JP7317684B2 (en) Mobile object, information processing device, and imaging system
JP2023076166A (en) Search device, autonomous search system, monitoring device, search method, and program
JP2022036109A (en) Management apparatus
WO2017221867A1 (en) Moving device, program, and computer-readable recording medium
JP2024034690A (en) Detection system, detection method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210325

R150 Certificate of patent or registration of utility model

Ref document number: 6859241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150