JP2019059452A - Flight body, living body search system, living body search method, program, and recording medium - Google Patents
Flight body, living body search system, living body search method, program, and recording medium Download PDFInfo
- Publication number
- JP2019059452A JP2019059452A JP2017188022A JP2017188022A JP2019059452A JP 2019059452 A JP2019059452 A JP 2019059452A JP 2017188022 A JP2017188022 A JP 2017188022A JP 2017188022 A JP2017188022 A JP 2017188022A JP 2019059452 A JP2019059452 A JP 2019059452A
- Authority
- JP
- Japan
- Prior art keywords
- support member
- living body
- information
- unit
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000003384 imaging method Methods 0.000 claims abstract description 149
- 238000012545 processing Methods 0.000 claims abstract description 67
- 238000011835 investigation Methods 0.000 claims abstract description 56
- 238000001514 detection method Methods 0.000 claims abstract description 36
- 230000008859 change Effects 0.000 claims description 14
- 238000013459 approach Methods 0.000 abstract description 38
- 238000004891 communication Methods 0.000 description 79
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 42
- 238000010586 diagram Methods 0.000 description 36
- 230000015654 memory Effects 0.000 description 36
- 238000005259 measurement Methods 0.000 description 22
- 229910002092 carbon dioxide Inorganic materials 0.000 description 21
- 239000001569 carbon dioxide Substances 0.000 description 21
- 230000006870 function Effects 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 10
- 230000004308 accommodation Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 6
- 238000003825 pressing Methods 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0094—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D1/00—Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
- B64D1/02—Dropping, ejecting, or releasing articles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
- B64U20/80—Arrangement of on-board electronics, e.g. avionics systems or wiring
- B64U20/87—Mounting of imaging devices, e.g. mounting of gimbals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
- G05D1/0022—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the communication link
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
- G05D1/0038—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/102—Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/106—Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
- H04L67/125—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
- B64U2101/32—UAVs specially adapted for particular uses or applications for imaging, photography or videography for cartography or topography
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
Abstract
Description
本開示は、生体を探索する飛行体、生体探索システム、生体探索方法、プログラム、及び記録媒体に関する。 The present disclosure relates to an aircraft searching for a living body, a biological search system, a biological search method, a program, and a recording medium.
近年、無人航空機は、様々な用途で使用され始めている。例えば、無人航空機が、災害調査に活用され始めており、被災地の空撮による災害状況の把握や行方不明者の捜索などに活用され得る。(非特許文献1参照)。無人航空機は、特に、複雑な地形の領域や、二次災害のおそれのある場所での活用が期待されている。 In recent years, unmanned aerial vehicles have begun to be used in various applications. For example, unmanned aerial vehicles are beginning to be utilized for disaster investigations, and may be utilized for grasping the disaster situation by aerial photography of a stricken area or searching for a missing person. (See Non-Patent Document 1). Unmanned aerial vehicles are particularly expected to be used in complex terrain areas and in areas where there is a risk of secondary disasters.
非特許文献1では、無人航空機による災害調査において、無人航空機に取り付けられたカメラにより上空から撮像された画像が用いられるが、画像だけでは災害調査が困難となることがある。例えば、瓦礫の内部に人が埋まっており、瓦礫の外側からでは、瓦礫の内部に人が埋まっていることが視認できない場合には、人体を発見できない可能性が高くなる。また、人体を撮影するだけでは、人体がどのような状況にあるかを十分に把握できず、救助の効率が不十分となる可能性がある。 In Non-Patent Document 1, in a disaster survey by an unmanned aerial vehicle, an image captured from the upper sky by a camera attached to the unmanned aerial vehicle is used, but the disaster survey may be difficult by the image alone. For example, when a person is buried inside the rubble and it is not possible to visually recognize that the person is buried inside the rubble from outside the rubble, there is a high possibility that the human body can not be found. In addition, simply photographing the human body can not sufficiently grasp the situation of the human body, and the efficiency of rescue may be insufficient.
一態様において、飛行体は、回転翼が取り付けられる本体と、本体に接続された第1の支持部材と、第1の支持部材に支持された第1のジンバルと、第1のジンバルに回転可能に支持された第2の支持部材と、第2の支持部材に支持された第2のジンバルと、第2のジンバルに回転可能に支持されたセンサ部と、を備える。 In one aspect, the flying object is rotatable on a main body to which the rotary wing is attached, a first support member connected to the main body, a first gimbal supported on the first support member, and a first gimbal And a second gimbal supported by the second support member, and a sensor unit rotatably supported by the second gimbal.
第2の支持部材は、伸縮自在でよい。 The second support member may be telescopic.
第1の支持部材は、伸縮自在でよい。 The first support member may be telescopic.
センサ部は、生体に関する情報を検出してよい。 The sensor unit may detect information related to the living body.
一態様において、飛行体は、生体を探索する飛行体であって、生体に関する生体情報を検出するセンサ部と、センサ部を支持し、伸縮自在な支持部材と、支持部材を回転可能にジンバルと、生体情報の検出に関する処理を行う処理部と、画像を撮像する撮像部と、を備え、処理部は、撮像部に調査領域の画像を撮像させ、調査領域に向かって飛行体を接近させるよう、飛行体の飛行を制御し、調査領域に存在する調査対象に向けて支持部材を伸長させ、伸長された支持部材に支持されたジンバルに支持されたセンサ部に、生体情報を検出させる。 In one aspect, the flying object is a flying object searching a living body, and a sensor unit for detecting living body information related to the living body, a supportable sensor unit, an expandable support member, and a gimbal capable of rotating the support member And a processing unit that performs processing related to detection of biological information, and an imaging unit that captures an image, and the processing unit causes the imaging unit to capture an image of a survey area and make the flying object approach toward the survey area And controlling the flight of the flying object, extending the support member toward the survey target present in the survey area, and causing the sensor unit supported by the gimbal supported by the elongated support member to detect the biological information.
処理部は、生体情報として生体が存在する旨の情報が検出された場合、飛行体の位置情報を取得し、飛行体の位置情報をサーバ装置に送信してよい。 When information indicating that a living body is present is detected as biological information, the processing unit may acquire position information of the flying object, and transmit the position information of the flying object to the server device.
飛行体は、電波を発信する発信機を収容する収容部を備えてよい。処理部は、生体情報として生体が存在する旨の情報が検出された場合、収容部から発信機を投下させてよい。 The aircraft may include a housing that houses a transmitter for transmitting radio waves. The processing unit may drop the transmitter from the storage unit when information indicating that a living body is present is detected as the biological information.
処理部は、飛行体の制御を指示する制御装置から、発信機を投下するための投下指示情報を取得し、投下指示情報に基づいて、発信機を投下させてよい。 The processing unit may acquire drop instruction information for dropping the transmitter from the control device that instructs control of the aircraft, and may drop the transmitter based on the drop instruction information.
処理部は、飛行体の現在位置において、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たし、支持部材の伸長位置に障害物が存在しない場合、支持部材を伸長させてよい。 The processing unit satisfies a sensor condition indicating whether the sensor unit can detect biological information when the support member is extended at the current position of the flying object, and when the obstacle does not exist at the extended position of the support member The support member may be extended.
処理部は、飛行体の制御を指示する制御装置から、支持部材の伸長を指示するための伸長指示情報を取得し、伸長指示情報に基づいて、支持部材を伸長させてよい。 The processing unit may obtain extension instruction information for instructing extension of the support member from the control device for instructing control of the flying object, and may extend the support member based on the extension instruction information.
処理部は、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たさない場合、障害物を避けて飛行体を移動させてよい。 The processing unit may move the flying object avoiding the obstacle if the sensor condition does not satisfy the sensor condition indicating whether the sensor unit can detect biological information when the support member is extended.
処理部は、飛行体の制御を指示する制御装置から、飛行体の移動を指示するための移動指示情報を取得し、移動指示情報に基づいて、障害物を避けて飛行体を移動させてよい。 The processing unit may obtain movement instruction information for instructing movement of the aircraft from the control device instructing the control of the aircraft, and move the aircraft avoiding the obstacle based on the movement instruction information. .
処理部は、飛行体の現在位置において、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たし、支持部材の伸長位置に障害物が存在する場合、ジンバルを制御して支持部材の向きを変更してよい。 The processing unit satisfies the sensor condition indicating whether the sensor unit can detect biological information when the support member is extended at the current position of the flying object, and an obstacle is present at the extended position of the support member The gimbal may be controlled to change the orientation of the support member.
処理部は、飛行体の制御を指示する制御装置から、支持部材の向きを指示するための向き指示情報を取得し、向き指示情報に基づいて、支持部材の向きを変更してよい。 The processing unit may acquire direction instruction information for instructing the direction of the support member from the control device that instructs control of the flying object, and may change the direction of the support member based on the direction instruction information.
センサ部は、複数のセンサを含んでよい。処理部は、飛行体の制御を指示する制御装置から、センサ部に含まれる少なくとも1つのセンサをオン又はオフするためのオンオフ指示情報を取得し、オンオフ指示情報に基づいて、センサ部に含まれる少なくとも1つのセンサをオン又はオフしてよい。 The sensor unit may include a plurality of sensors. The processing unit acquires on / off instruction information for turning on / off at least one sensor included in the sensor unit from the control device instructing control of the flying object, and is included in the sensor unit based on the on / off instruction information. At least one sensor may be turned on or off.
センサ条件は、支持部材の一端から回転翼の端部に対応する支持部材の第1の点までの長さと、支持部材の一端から他端までの長さと、調査対象が存在する調査空間に挿入される支持部材の他端から第2の点までの長さと、に基づいて決定されてよい。 The sensor conditions are as follows: Length from one end of the support member to the first point of the support member corresponding to the end of the rotor, length from one end to the other end of the support member, and insertion into the survey space where the survey target exists It may be determined based on the length from the other end of the support member to the second point.
一態様において、生体探索システムは、生体を探索する飛行体及び表示装置を備える生体探索システムであって、飛行体は、生体に関する生体情報を検出するセンサ部と、センサ部を支持し、伸縮自在な支持部材と、支持部材を回転可能に支持するジンバルと、生体の探索に関する処理を行う処理部と、画像を撮像する撮像部と、を備え、処理部は、撮像部に調査領域の画像を撮像させ、調査領域に向かって飛行体を接近させるよう、飛行体の飛行を制御し、調査領域に存在する調査対象に向けて支持部材を伸長させ、伸長された支持部材に支持されたジンバルに支持されたセンサ部に、生体情報を検出させ、生体情報を送信し、表示装置は、生体情報を受信し、生体情報に基づいて表示する。 In one aspect, the living body searching system is a living body searching system including an flying body for searching a living body and a display device, wherein the flying body supports a sensor unit for detecting living body information on the living body and the sensor unit and is stretchable. Support member, a gimbal that rotatably supports the support member, a processing unit that performs processing for searching for a living body, and an imaging unit that captures an image, and the processing unit transmits the image of the survey area to the imaging unit Control the flight of the flying object so as to bring an image and approach the flying object toward the investigation region, extend the support member toward the investigation target existing in the investigation region, and use a gimbal supported by the extended support member The supported sensor unit detects the biological information and transmits the biological information, and the display device receives the biological information and displays it based on the biological information.
飛行体のセンサ部は、生体の周辺に存在する障害物までの距離を検出してよい。飛行体の処理部は、距離が所定距離未満である場合、距離に基づく第1の通知情報を表示装置へ送信してよい。表示装置は、第1の通知情報を受信し、第1の通知情報に基づいて表示してよい。 The sensor unit of the flying object may detect the distance to an obstacle present around the living body. When the distance is less than the predetermined distance, the processing unit of the aircraft may transmit, to the display device, first notification information based on the distance. The display device may receive the first notification information and may display based on the first notification information.
飛行体の処理部は、飛行体の現在位置において、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たす場合、センサ条件を満たすことに基づく第2の通知情報を表示装置へ送信してよい。表示装置は、第2の通知情報を受信し、第2の通知情報に基づいて表示してよい。 The processing unit of the flight object is based on satisfying the sensor condition if the sensor unit condition indicates whether detection of biological information is possible by the sensor unit when the support member is extended at the current position of the flight object. The second notification information may be sent to the display device. The display device may receive the second notification information and may display the second notification information based on the second notification information.
一態様において、生体探索方法は、生体に関する生体情報を検出するセンサ部と、センサ部を支持し、伸縮自在な支持部材と、支持部材を回転可能にジンバルと、を備え、生体を探索する飛行体における生体探索方法であって、画像を撮像する撮像部に調査領域の画像を撮像させるステップと、調査領域に向かって飛行体を接近させるよう、飛行体の飛行を制御するステップと、調査領域に存在する調査対象に向けて支持部材を伸長させるステップと、伸長された支持部材に支持されたジンバルに支持されたセンサ部に、生体情報を検出させるステップと、を有する。 In one aspect, the living body search method includes a sensor unit that detects living body information related to a living body, a telescopic support member that supports the sensor unit, and an expandable support member, and a gimbal that can rotatably support the support member, and searches for the living body A method of living body search in a body, comprising the steps of: imaging an image of a survey area with an imaging unit for capturing an image; controlling flight of the aircraft so as to bring the aircraft closer to the survey area; And e. Extending the support member toward the subject of investigation, and causing the sensor unit supported by the gimbal supported by the extended support member to detect the biological information.
生体探索方法は、生体情報として生体が存在する旨の情報が検出された場合、飛行体の位置情報を取得するステップと、飛行体の位置情報をサーバ装置に送信するステップと、を更に含んでよい。 The living body searching method further includes the steps of acquiring the position information of the flying object and transmitting the position information of the flying object to the server device when the information indicating that the living body exists is detected as the biological information. Good.
飛行体は、電波を発信する発信機を収容する収容部を備えてよい。生体情報として生体が存在する旨の情報が検出された場合、収容部から発信機を投下させるステップ、を更に含んでよい。 The aircraft may include a housing that houses a transmitter for transmitting radio waves. If information indicating that a living body exists is detected as biological information, the method may further include the step of dropping the transmitter from the storage unit.
生体探索方法は、飛行体の制御を指示する制御装置から、発信機を投下するための投下指示情報を取得するステップ、を更に含んでよい。発信機を投下させるステップは、投下指示情報に基づいて、発信機を投下させるステップを含んでよい。 The living body searching method may further include the step of obtaining drop instruction information for dropping a transmitter from a control device instructing control of an aircraft. The step of dropping the transmitter may include the step of dropping the transmitter based on the drop instruction information.
支持部材を伸長させるステップは、飛行体の現在位置において、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たし、支持部材の伸長位置に障害物が存在しない場合、支持部材を伸長させるステップを含んでよい。 In the step of extending the support member, at the current position of the flying object, when the support member is extended, a sensor condition indicating whether or not detection of biological information is possible by the sensor unit is satisfied, and the obstacle at the extension position of the support member And the step of extending the support member may be included.
生体探索方法は、飛行体の制御を指示する制御装置から、支持部材の伸長を指示するための伸長指示情報を取得するステップ、を更に含んでよい。支持部材を伸長させるステップは、伸長指示情報に基づいて、支持部材を伸長させてよい。 The living body searching method may further include the step of obtaining extension instruction information for instructing extension of the support member from a control device for instructing control of the flying object. The step of extending the support member may extend the support member based on the extension instruction information.
飛行体の飛行を制御するステップは、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たさない場合、障害物を避けて飛行体を移動させるステップを含んでよい。 The step of controlling the flight of the flying object is a step of moving the flying object by avoiding an obstacle if the sensor condition which indicates whether the sensor unit can detect biological information when extending the support member is not satisfied. May be included.
生体探索方法は、飛行体の制御を指示する制御装置から、飛行体の移動を指示するための移動指示情報を取得するステップ、を更に含んでよい。飛行体の飛行を制御するステップは、移動指示情報に基づいて、障害物を避けて飛行体を移動させるステップを含んでよい。 The living body searching method may further include the step of acquiring movement instruction information for instructing movement of the flying object from a control device instructing control of the flying object. The step of controlling the flight of the flying object may include moving the flying object avoiding an obstacle based on the movement instruction information.
生体探索方法は、飛行体の現在位置において、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たし、支持部材の伸長位置に障害物が存在する場合、ジンバルを制御して支持部材の向きを変更するステップ、を更に含んでよい。 In the living body searching method, when the support member is extended at the current position of the flying object, a sensor condition indicating whether the detection of biological information is possible by the sensor unit is satisfied, and an obstacle exists at the extended position of the support member In the case, the step of controlling the gimbal to change the orientation of the support member may be further included.
生体探索方法は、飛行体の制御を指示する制御装置から、支持部材の向きを指示するための向き指示情報を取得するステップ、を更に含んでよい。支持部材の向きを変更するステップは、向き指示情報に基づいて、支持部材の向きを変更するステップを含んでよい。 The living body searching method may further include the step of obtaining direction indication information for instructing the direction of the support member from a control device instructing control of the flying object. The step of changing the orientation of the support member may include the step of changing the orientation of the support member based on the direction indication information.
センサ部は、複数のセンサを含んでよい。生体探索方法は、飛行体の制御を指示する制御装置から、センサ部に含まれる少なくとも1つのセンサをオン又はオフするためのオンオフ指示情報を取得するステップと、オンオフ指示情報に基づいて、センサ部に含まれる少なくとも1つのセンサをオン又はオフするステップと、を更に含んでよい。 The sensor unit may include a plurality of sensors. The living body searching method comprises the steps of acquiring on / off instruction information for turning on / off at least one sensor included in the sensor unit from a control device instructing control of a flying object, and based on the on / off instruction information, And D. turning on or off at least one of the sensors included therein.
センサ条件は、支持部材の一端から回転翼の端部に対応する支持部材の第1の点までの長さと、支持部材の一端から他端までの長さと、調査対象が存在する調査空間に挿入される支持部材の他端から第2の点までの長さと、に基づいて決定されてよい。 The sensor conditions are as follows: Length from one end of the support member to the first point of the support member corresponding to the end of the rotor, length from one end to the other end of the support member, and insertion into the survey space where the survey target exists It may be determined based on the length from the other end of the support member to the second point.
一態様において、プログラムは、生体に関する生体情報を検出するセンサ部と、センサ部を支持し、伸縮自在な支持部材と、支持部材を回転可能にジンバルと、を備え、生体を探索する飛行体に、画像を撮像する撮像部に調査領域の画像を撮像させるステップと、調査領域に向かって飛行体を接近させるよう、飛行体の飛行を制御するステップと、調査領域に存在する調査対象に向けて支持部材を伸長させるステップと、伸長された支持部材に支持されたジンバルに支持されたセンサ部に、生体情報を検出させるステップと、を実行させるためのプログラムである。 In one aspect, a program includes a sensor unit for detecting biological information related to a living body, an expandable support member supporting the sensor unit, and a gimbal rotatably supporting the support member, and a flying body searching for a living body (B) causing the imaging unit to capture an image to capture an image of the survey area, (b) controlling the flight of the aircraft so that the flight body approaches the survey area, and (b) It is a program for performing the steps of extending the support member and causing the sensor unit supported by the gimbal supported by the extended support member to detect biological information.
一態様において、記録媒体は、生体に関する生体情報を検出するセンサ部と、センサ部を支持し、伸縮自在な支持部材と、支持部材を回転可能にジンバルと、を備え、生体を探索する飛行体に、画像を撮像する撮像部に調査領域の画像を撮像させるステップと、調査領域に向かって飛行体を接近させるよう、飛行体の飛行を制御するステップと、調査領域に存在する調査対象に向けて支持部材を伸長させるステップと、伸長された支持部材に支持されたジンバルに支持されたセンサ部に、生体情報を検出させるステップと、を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体である。 In one aspect, a recording medium includes a sensor unit for detecting biological information related to a living body, an expandable support member supporting the sensor unit, and a gimbal rotatably supporting the support member, and a flying body for searching for a living body A step of causing the imaging unit for capturing an image to capture an image of the survey area, a step of controlling the flight of the aircraft so as to make the flight body approach toward the survey area, and A computer readable recording medium recorded with a program for performing the steps of: extending the support member; and causing the sensor unit supported by the gimbal supported by the extended support member to detect biological information It is.
なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The above summary of the invention does not enumerate all features of the present disclosure. In addition, a subcombination of these feature groups can also be an invention.
以下、発明の実施形態を通じて本開示を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。 Hereinafter, the present disclosure will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Not all combinations of features described in the embodiments are essential to the solution of the invention.
特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。 The claims, the description, the drawings, and the abstract contain matters that are subject to copyright protection. The copyright holder will not object to any copy of these documents as they appear in the Patent Office file or record. However, in all other cases, all copyrights are reserved.
以下の実施形態では、飛行体として、無人航空機(UAV:Unmanned Aerial Vehicle)を主に例示する。本明細書に添付する図面では、無人航空機を「UAV」とも表記する。生体探索方法は、無人航空機における動作が規定されたものである。記録媒体は、プログラム(例えば、無人航空機に各種の処理を実行させるためのプログラム)が記録されたものである。 In the following embodiments, an unmanned aerial vehicle (UAV) is mainly illustrated as a flying object. In the drawings attached to the present specification, the unmanned aerial vehicle is also referred to as "UAV". The biometric search method defines the operation in an unmanned aerial vehicle. The recording medium is recorded with a program (for example, a program for causing an unmanned aircraft to execute various processes).
(第1の実施形態)
図1Aは、第1の実施形態における生体探索システム10の第1構成例を示す模式図である。生体探索システム10は、無人航空機100、送信機50、端末80、及びサーバ装置40を備える。無人航空機100、送信機50、端末80、及びサーバ装置40は、相互に有線通信又は無線通信(例えば無線LAN(Local Area Network))により通信可能である。図1Aでは、端末80が携帯端末(例えばスマートフォン、タブレット端末)であることを例示している。送信機50は、制御装置の一例である。端末80は、制御装置の一例である。
First Embodiment
FIG. 1A is a schematic view showing a first configuration example of the living
図1Bは、第1の実施形態における生体探索システム10の第2構成例を示す模式図である。図1Bでは、端末80がPC(Personal Computer)であることを例示している。図1A及び図1Bのいずれであっても、端末80が有する機能は同じでよい。
FIG. 1B is a schematic view showing a second configuration example of the living
図2は、無人航空機100のハードウェア構成の一例を示すブロック図である。無人航空機100は、UAV制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、第1ジンバル200と、第2ジンバル202と、第1ポール204、第2ポール206、回転翼機構210と、撮像部230と、GPS受信機240と、慣性計測装置(IMU:Inertial Measurement Unit)250と、磁気コンパス260と、気圧高度計270と、第1超音波センサ280と、レーザー測定器290と、センサ部310、及び収容ボックス320を含む構成である。
FIG. 2 is a block diagram showing an example of the hardware configuration of the unmanned
センサ部310は、複数のセンサを含んでよい。センサ部310は、例えば、二酸化炭素センサ(CO2センサ)311、可視光LED(Light Emitting Diode)312、赤外線LED313、第2超音波センサ314、赤外線センサ315、撮像部316、及びマイクロホン317を含んでよい。なお、センサ部310におけるこれらの構成部の一部は、省略されてよい。収容ボックス320は、開閉部321及びカメラ322を備える。
The
UAV制御部110は、処理部の一例である。第1ジンバル200は、ジンバルの一例である。第1ポール204は、第1の支持部材の一例である。第2ポール206は、第2の支持部材及び支持部材の一例である。
The
UAV制御部110は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。UAV制御部110は、無人航空機100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
The
UAV制御部110は、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御してよい。UAV制御部110は、UAV制御部110により生成した空撮経路に従って、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御してよい。UAV制御部110は、通信インタフェース150を介して遠隔の送信機50から受信した命令に従って、無人航空機100の飛行を制御してよい。送信機50から受信した命令は、例えば、送信機50に対する操縦者の操縦によって得られた前後・上下・左右・方向への移動の命令、回転、上昇、加工の命令、等を含む。
The
UAV制御部110は、無人航空機100の位置を示す位置情報を取得する。UAV制御部110は、GPS受信機240から、無人航空機100が存在する緯度、経度及び高度を示す位置情報を取得してよい。UAV制御部110は、GPS受信機240から無人航空機100が存在する緯度及び経度を示す緯度経度情報、並びに気圧高度計270から無人航空機100が存在する高度を示す高度情報をそれぞれ位置情報として取得してよいUAV制御部110は、第1超音波センサ280による超音波の放射点と超音波の反射点との距離を高度情報として取得してよい。
The
UAV制御部110は、磁気コンパス260から無人航空機100の向きを示す向き情報を取得してよい。向き情報は、例えば無人航空機100の機首の向きに対応する方位で示されてよい。
The
UAV制御部110は、撮像部316が撮像すべき撮像範囲を撮像する時に無人航空機100が存在すべき位置を示す位置情報を取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報をメモリ160から取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報を、通信インタフェース150を介して他の装置から取得してよい。UAV制御部110は、地図データベース(3次元地図データベース又は2次元地図データベース)を参照して、無人航空機100が存在可能な位置を特定して、その位置を無人航空機100が存在すべき位置を示す位置情報として取得してよい。
The
UAV制御部110は、撮像部316及び撮像部230のそれぞれの撮像範囲を示す撮像範囲情報を取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部316及び撮像部230の画角を示す画角情報を撮像部316及び撮像部230から取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部316及び撮像部230の撮像方向を示す情報を取得してよい。UAV制御部110は、例えば撮像部316の撮像方向を示す情報として、第1ジンバル200及び第2ジンバル202から撮像部316の姿勢の状態を示す姿勢情報を取得してよい。撮像部316の姿勢情報は、第1ジンバル200のロール軸、ピッチ軸及びヨー軸の基準回転角度からの回転角度と、第2ジンバル202のロール軸、ピッチ軸及びヨー軸の基準回転角度からの回転角度と、を合わせた(例えば合成した、合算した)情報でよい。
The
UAV制御部110は、撮像範囲を特定するためのパラメータとして、無人航空機100が存在する位置を示す位置情報を取得してよい。UAV制御部110は、撮像部316及び撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて、撮像部316が撮像する地理的な範囲を示す撮像範囲を画定し、撮像範囲情報を生成することで、撮像範囲情報を取得してよい。UAV制御部110は、メモリ160から撮像範囲情報を取得してよい。UAV制御部110は、通信インタフェース150を介して撮像範囲情報を取得してよい。
The
UAV制御部110は、第1ジンバル200、第2ジンバル202、第1ポール204、第2ポール206、回転翼機構210、撮像部230、撮像部316を含むセンサ部310及び収容ボックス320を制御する。UAV制御部110は、撮像部316の撮像方向又は画角を変更することによって、撮像部316の撮像範囲を制御してよい。UAV制御部110は、第1ジンバル200及び第2ジンバル202の少なくとも一方の回転機構を制御することで、第2ジンバル202に支持されている撮像部316の撮像範囲を制御してよい。
The
撮像範囲とは、撮像部316又は撮像部230により撮像される地理的な範囲をいう。撮像範囲は、緯度、経度、及び高度で定義される。撮像範囲は、緯度、経度、及び高度で定義される3次元空間データにおける範囲でよい。撮像範囲は、緯度及び経度で定義される2次元空間データにおける範囲でもよい。撮像範囲は、撮像部316又は撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて特定されてよい。撮像部316及び撮像部230の撮像方向は、撮像部316及び撮像部230の撮像レンズが設けられた正面が向く方位と俯角とから定義されてよい。撮像部316の撮像方向は、無人航空機100の機首の方位と、撮像部316の姿勢の状態とから特定される方向でよい。撮像部230の撮像方向は、無人航空機100の機首の方位と、撮像部230が設けられた位置とから特定される方向でよい。
The imaging range refers to a geographical range imaged by the
UAV制御部110は、複数の撮像部230により撮像された複数の画像を解析することで、無人航空機100の周囲の環境を特定してよい。UAV制御部110は、無人航空機100の周囲の環境に基づいて、例えば障害物を回避して飛行を制御してよい。
The
UAV制御部110は、無人航空機100の周囲に存在するオブジェクトの立体形状(3次元形状)を示す立体情報(3次元情報)を取得してよい。オブジェクトは、例えば、建物、道路、車、木、瓦礫等の障害物、等でよい。立体情報は、例えば、3次元空間データである。UAV制御部110は、複数の撮像部230から得られたそれぞれの画像から、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を生成することで、立体情報を取得してよい。UAV制御部110は、メモリ160又はストレージ170に格納された3次元地図データベースを参照することにより、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を取得してよい。UAV制御部110は、ネットワーク上に存在するサーバが管理する3次元地図データベースを参照することで、無人航空機100の周囲に存在するオブジェクトの立体形状に関する立体情報を取得してよい。
The
UAV制御部110は、回転翼機構210を制御することで、無人航空機100の飛行を制御する。つまり、UAV制御部110は、回転翼機構210を制御することにより、無人航空機100の緯度、経度、及び高度を含む位置を制御する。UAV制御部110は、無人航空機100の飛行を制御することにより、撮像部316の撮像範囲を制御してよい。UAV制御部110は、撮像部316が備えるズームレンズを制御することで、撮像部316の画角を制御してよい。UAV制御部110は、撮像部316のデジタルズーム機能を利用して、デジタルズームにより、撮像部316の画角を制御してよい。
The
通信インタフェース150は、例えば、送信機50、端末80、及びサーバ装置40と通信する。通信インタフェース150は、任意の無線通信方式により無線通信してよい。通信インタフェース150は、任意の有線通信方式により有線通信してもよい。通信インタフェース150は、空撮画像や空撮画像に関する付加情報を、端末80やサーバ装置40に送信してよい。空撮画像は、動画であっても静止画であってもよい。通信インタフェース150は、センサ部310により検出された検出情報(例えば生体に関する生体情報)を、端末80やサーバ装置40に送信してよい。
The communication interface 150 communicates with, for example, the
メモリ160は、UAV制御部110が、第1ジンバル200、第2ジンバル202、第1ポール204、第2ポール206、回転翼機構210、撮像部230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、第1超音波センサ280、レーザー測定器290、センサ部310、及び収容ボックス320を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSB(Universal Serial Bus)メモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、UAV本体102(図3参照)から無人航空機100から取り外し可能であってもよい。
The
ストレージ170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SDカード、USBメモリ、その他のストレージの少なくとも1つを含んでよい。ストレージ170は、各種情報、各種データを保持してよい。ストレージ170は、UAV本体102から無人航空機100から取り外し可能であってもよい。ストレージ170は、例えば、空撮画像、空撮画像に関する付加情報、センサ部310により検出された生体情報、を記録してよい。
The storage 170 may include at least one of a hard disk drive (HDD), a solid state drive (SSD), an SD card, a USB memory, and other storage. The storage 170 may hold various information and various data. Storage 170 may be removable from
回転翼機構210は、複数の回転翼211と、複数の回転翼211を回転させる複数の駆動モータと、を有する。回転翼機構210は、UAV制御部110により回転を制御されることにより、無人航空機100を飛行させる。回転翼211の数は、例えば4つでもよいし、その他の数でもよい。また、無人航空機100は、回転翼を有さない固定翼機でもよい。
The
撮像部316は、所望の撮像範囲に含まれる被写体(例えば、空撮対象となる上空の様子、山や川等の景色、地上の建物)を撮像する撮像用のカメラ(メインカメラ)でよい。撮像部316は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像部316の撮像により得られた画像データ(例えば空撮画像)は、撮像部316が有するメモリ、又はストレージ170に格納されてよい。撮像部316により複数の箇所で撮像範囲の一部を重複して撮像された画像に基づいて、無人航空機100の周囲の3次元空間データ(3次元形状データ)が生成されてよい。
The
撮像部230は、無人航空機100の飛行を制御するために無人航空機100の周囲を撮像するセンシング用のカメラ(サブカメラ)でよい。2つの撮像部230が、無人航空機100の機首である正面に設けられてよい。さらに、他の2つの撮像部230が、無人航空機100の底面に設けられてよい。正面側の2つの撮像部230はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像部230もペアとなり、ステレオカメラとして機能してよい。複数の撮像部230により撮像された画像に基づいて、無人航空機100の周囲の3次元空間データ(3次元形状データ)が生成されてよい。なお、無人航空機100が備える撮像部230の数は4つに限定されない。無人航空機100は、少なくとも1つの撮像部230を備えてよい。無人航空機100は、無人航空機100の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像部230を備えてよい。撮像部230で設定できる画角は、撮像部316で設定できる画角より広くてよい。撮像部230は、単焦点レンズ又は魚眼レンズを有してよい。撮像部230は、無人航空機100の周囲を撮像して撮像画像のデータを生成する。撮像部230の画像データは、ストレージ170に格納されてよい。
The
GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人航空機100の位置)を算出する。GPS受信機240は、無人航空機100の位置情報をUAV制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりにUAV制御部110により行われてよい。この場合、UAV制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。
The
慣性計測装置250は、無人航空機100の姿勢を検出し、検出結果をUAV制御部110に出力する。慣性計測装置250は、無人航空機100の姿勢として、無人航空機100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出してよい。
The
磁気コンパス260は、無人航空機100の機首の方位を検出し、検出結果をUAV制御部110に出力する。
The
気圧高度計270は、無人航空機100が飛行する高度を検出し、検出結果をUAV制御部110に出力する。
The
第1超音波センサ280は、超音波を放射し、地面や物体により反射された超音波を検出し、検出結果をUAV制御部110に出力する。検出結果は、無人航空機100から地面までの距離つまり高度を示してよい。検出結果は、無人航空機100から物体(例えば、生体、障害物)までの距離を示してよい。
The first
レーザー測定器290は、物体にレーザー光を照射し、物体で反射された反射光を受光し、反射光により無人航空機100と物体との間の距離を測定する。レーザー光による距離の測定方式は、一例として、タイムオブフライト方式でよい。
The
図3は、無人航空機100の一例を示す外観図である。
FIG. 3 is an external view showing an example of the unmanned
第1ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に、第2ポール206を回転可能に支持してよい。第1ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に第2ポール206を回転させることで、第2ポール206の向きを変更してよい。
The
ヨー軸、ピッチ軸、及びロール軸は、以下のように定められてよい。例えば、水平方向(地面と平行な方向)にロール軸が定義されたとする。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸が定められ、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(z軸参照)が定められる。 The yaw axis, pitch axis, and roll axis may be defined as follows. For example, it is assumed that the roll axis is defined in the horizontal direction (direction parallel to the ground). In this case, a pitch axis is defined in a direction parallel to the ground and perpendicular to the roll axis, and a yaw axis (see z axis) is defined in a direction perpendicular to the ground and perpendicular to the roll axis and the pitch axis.
第2ジンバル202は、ヨー軸、ピッチ軸、及びロール軸を中心に、センサ部310を回転可能に支持してよい。第2ジンバル202は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心にセンサ部310を回転させることで、センサ部310の向きを変更してよい。
The
UAV本体102には、回転翼機構210の回転翼211、撮像部230、第1ポール204、収容ボックス320、等が取り付けられている。UAV本体102は、本体の一例である。
The UAV
第1ポール204は、ヨー軸(z)に沿って配置されてよい。第1ポール204は、伸縮自在でもよいし、伸縮自在でなくてもよい。第1ポール204は、UAV制御部110の制御により、伸縮し、長さが変化してよい。第1ポール204は、通常時には、伸長されていない状態でよい。第1ポール204が伸長された場合の長さは、例えば1m以下である。
The
第1ジンバル200は、第1ポール204に接続され支持される。第1ジンバル200は、UAV制御部110の制御により、第2ポール206の角度、つまり第2ポール206が延びる方向(第2ポール206の向き)を調整する。
The
第2ポール206は、第1ジンバル200に接続され支持される。第2ポール206は、第1ジンバル200により角度が調整され、つまり第2ポール206の延びる方向が調整される。第2ポール206は、伸縮自在である。第1ポール204は、UAV制御部110の制御により、伸縮し、長さが変化してよい。第2ポール206は、通常時には、伸長されていない状態でよい。第2ポール206が伸長された場合の長さは、例えば1m〜2mである。第2ポール206は、通常時には、基準方向(図3ではロール軸(x)に沿う方向)に沿って延びていてよい。この基準方向は、水平方向(例えばロール軸(x)又はピッチ軸(y))に沿う方向である。
The
第2ジンバル202は、第2ポール206に接続され支持される。第2ジンバル202は、第2ジンバル202よりも先端側に取り付けられたセンサ部310の角度(向き)を調整する。
The
このように、無人航空機100は、2つのジンバル(第1ジンバル200、第2ジンバル202)を備えることで、先端部に設けられたセンサ部310の位置調整を細かく実施できる。無人航空機100は、例えば、第1ジンバル200に対する第2ポール206の角度を調整することで、調査対象の周辺に障害物が存在する場合でも、障害物の隙間を通過させて第2ポール206を伸ばし、センサ部310を障害物の隙間の奥に進入させることができる。無人航空機100は、例えば、第2ジンバル202に対するセンサ部310の角度を調整することで、障害物の隙間の奥の空間において、センサ部310の向きの調整を柔軟に行うことができ、調査対象としての生体が不動である場合でも、生体に関する情報(生体情報)を所望の方向から検出(測定)することができる。よって、無人航空機100は、障害物が多数存在する場合や生体が動けない場合でも、生体情報を好適に検出できる可能性を高くできる。
Thus, by providing the two gimbals (the
また、第2ジンバル202が伸縮自在である場合には、無人航空機100は、障害物の隙間において第2ポール206を伸長させることができ、第2ポールより更に先端に位置するセンサ部310が、調査対象としての生体に接近することを補助できる。
In addition, when the
また、第1ジンバル200が伸縮自在である場合には、無人航空機100は、例えば障害物が多数あったり飛行環境が劣悪であったりして下降することが困難である場合でも、第1ジンバル200を伸長させることで、センサ部310が位置する高度を下げることができる。よって、重力方向における第2ポール206やセンサ部310の位置調整の自由度が向上し、無人航空機100は、様々な災害状況に対応して、生体の探索をし易くできる。
In addition, when the
図4は、第2ポール206が伸長されていない状態での無人航空機100の構成例を示す概略図である。図5は、第2ポール206が伸長された状態での無人航空機100の構成例を示す概略図である。図6は、センサ部310を先端側から見た概略図である。図6では、センサ部310のイメージセンサ316aに対向する視点からセンサ部310を見ている。
FIG. 4 is a schematic view showing a configuration example of the unmanned
二酸化炭素センサ311は、二酸化炭素センサ311周辺の二酸化炭素(CO2)のガス濃度を測定する。可視光LED312は、可視光領域の波長を有する可視光(例えば白色光)を出射する。赤外線LED313は、赤外光領域の波長を有する赤外光を出射する。可視光及び赤外光は、調査対象に対して出射され、調査対象が照明されてよい。
The
第2超音波センサ314は、超音波を放射し、地面や物体により反射された超音波を検出し、検出結果をUAV制御部110に出力する。検出結果は、第2超音波センサ314から物体(例えば、生体、障害物)までの距離を示してよい。
The second
撮像部316は、イメージセンサ316aを有し、画像を撮像する。イメージセンサ316aは、可視光に対する感度を有する。イメージセンサ316aは、赤外光に対する感度を有してよい。撮像部316は、UAV制御部110の制御により、可視光LED312により可視光が出射されて被写体が照明されている期間に、被写体を撮像してよい。撮像部316は、UAV制御部110の制御により、赤外光LED313により赤外光が被写体に向けて出射されている期間に、被写体を撮像してよい。
The
マイクロホン317は、マイクロホン317周囲に発生した音を収音する。
The
図6では、センサ部310において、イメージセンサ316aが中央に配置され、イメージセンサ316aの周囲に可視光LED312及び赤外線LED313が配置される。イメージセンサ316aは、略円形状に形成されてもよいし、他の形状(例えば矩形状)に形成されてもよい。可視光LED312及び赤外線LED313は、イメージセンサ316aの周囲に略円形状に形成されてもよいし、他の形状(例えば矩形状)に形成されてもよい。可視光LED312及び赤外線LED313は、複数設けられ、それぞれの可視光LED312及び赤外線LED313が交互に配置されてよい。なお、可視光LED312及び赤外線LED313が交互に配置されなくてもよい。
In FIG. 6, in the
図4に示すように、第2ポール206が伸長されていない非伸長状態であると、水平方向においてUAV本体102から第2ポール206が突出する部分が短くなり、又はUAV本体102から第2ポール206が突出しない。そのため、無人航空機100は、飛行中に第2ポール206が他の物体に衝突等することを意識する必要が低くなり、安全な飛行をし易くなる。
As shown in FIG. 4, when the
図5に示すように、第2ポール206が伸長された伸長状態であると、水平方向においてUAV本体102から第2ポール206が突出する部分が長くなる。そのため、無人航空機100は、伸長された第2ポール206よりも先端側に位置するセンサ部310と、UAV本体102や回転翼211と、の距離を長くすることができる。この場合、無人航空機100は、例えば瓦礫等に包囲された空間であっても、センサ部310を用いた各種測定をし易くなる。
As shown in FIG. 5, when the
また、センサ部310に含まれる各種センサは、全てが同時に動作する必要はなく、一部がオフにされたり、他の一部がオンにされたりしてよい。例えば、障害物(例えば瓦礫)に埋まっている調査対象のデータを検出しようとする場合には、まず、撮像部316により画像を撮像し、この画像を端末80の表示部88に表示させてよい。つまり、ユーザは、目視で画像中に人等の生体が存在するかどうかを確認してよい。得られた画像において光量が不足している場合には、可視光LED312を用いて調査対象を照明し、可視画像を撮像してよい。また、赤外光LED313を用いて調査対象を照明し、赤外画像を撮像してよい。また、画像による確認が十分に行えない場合には、センサ部310は、マイクロホン317をオンにして音声データを収音したり、二酸化炭素センサ311により二酸化炭素の量を検出したりしてよい。順に各センサの電源がオンにされる場合、無人航空機100は、省電力化を図れる。なお、センサ部310の各種センサを全てオンにし、同時に動作させてもよい。この場合、無人航空機100は、短時間で調査対象のデータ(生体情報)を取得できる。
In addition, the various sensors included in the
また、図4及び図5では、第1超音波センサ280は、UAV本体102の前方に取り付けられている。第1超音波センサ280は、UAV本体102の前端(つまり、無人航空機100の前端、無人航空機100が備える前方の回転翼211の前端)から物体(例えば調査対象の周囲の障害物)までの距離を検出する。
Also, in FIGS. 4 and 5, the first
図7は、収容ボックス320の構成例を示す概略斜視図である。
FIG. 7 is a schematic perspective view showing a configuration example of the
収容ボックス320は、1つ以上の発信機400(例えば小型発信機)を搭載し、収容する。収容ボックス320は、1つ以上の開閉部321(例えば開閉扉)及びカメラ322を有する。
The
開閉部321は、通常時には閉じられている。開閉部321は、例えばUAV制御部110の制御により、開かれてよい。例えば、UAV制御部110は、GPS受信機240を介して取得された位置情報が所定の位置を示す場合に、開閉部321を開いてよい。UAV制御部110は、通信インタフェース150を介して取得された端末80の操作部83の操作情報(開指示情報)に基づいて、開閉部321を開いてよい。開閉部321が開かれると、収容ボックス320に収容された発信機400が開閉部321を通過し、投下される。無人航空機100は、発信機400を投下することで、発信機が投下された位置をマーキングすることができる。例えば、ユーザが発信機400の電波を捕捉することで、発信機400の投下位置の周辺に存在する生体を発見し易くなる。なお、ユーザは、生体を探索する人(例えば災害現場や事故現場で生体の探索や救助を行う救助隊員)や生体の探索を支援する人(例えばセンタに待機して救助隊員と連携する人)、その他の人でよい。
The opening and
カメラ322は、例えば、収容ボックス320の下部に設けられ、収容ボックス320の下方の画像を撮像する。カメラ322は、例えば、収容ボックス320から発信機400を投下する際に、発信機400の投下位置を確認するために用いられる。カメラ322により画像を撮像することで、無人航空機100は、投下された発信機400が生体に落下することを抑制可能である。カメラ322により撮像された画像は、端末80へ送られ、表示されてよい。
The
発信機400は、電波を発信する。発信された電波は、例えば、ユーザが所持する端末80に受信されてよい。この場合、ユーザは、このユーザが所持する端末80による発信機400からの電波の受信状況を確認することで、発信機400が存在するか否か、つまり生体が存在するかを判定できる。よって、発信機400は、ユーザによる災害救助を支援できる。
The
発信機400は、自機を識別するための自機に固有の識別情報を含む信号を発信してよい。発信機400が複数存在する場合、発信機400の識別情報はそれぞれ異なる。そのため、収容ボックス320から複数の発信機400が投下された場合でも、端末80により受信した信号に含まれる識別情報によって、どの発信機400が発する信号かが識別可能である。
The
発信機400は、発信機400の各部へ電力を供給するためのバッテリを有する。バッテリは、例えば発信機400が少なくとも48時間にわたって稼働することが可能な容量を有する。これにより、発信機400は、48時間以上連続的に電波を発信し続けることができ、発信機400の近くに存在する生存者の発見をし易くできる。
The
図8は、端末80のハードウェア構成の一例を示すブロック図である。端末80は、端末制御部81、操作部83、通信部85、メモリ87、表示部88、及びストレージ89を備えてよい。端末80は、ユーザに所持され得る。端末80とともに、送信機50が、ユーザに所持されてもよい。
FIG. 8 is a block diagram showing an example of the hardware configuration of the terminal 80. As shown in FIG. The terminal 80 may include a
端末制御部81は、例えばCPU、MPU又はDSPを用いて構成される。端末制御部81は、端末80の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
The
端末制御部81は、通信部85を介して、無人航空機100サーバ装置や送信機50からのデータや空撮画像や情報(例えば生体情報)を取得してよい。端末制御部81は、操作部83を介して入力されたデータや情報を取得してよい。端末制御部81は、メモリ87又はストレージ89に保持されたデータや空撮画像や情報を取得してよい。端末制御部81は、通信部85を介して、無人航空機100やサーバ装置や送信機50へ、データや情報を送信してよい。端末制御部81は、データや情報や空撮画像を表示部88に送り、このデータや情報や空撮画像に基づく表示情報を表示部88に表示させてよい。
The
端末制御部81は、生体の探索を支援するためのアプリケーション(生体探索支援アプリケーション)を実行してよい。端末制御部81は、アプリケーションで用いられる各種のデータを生成してよい。
The
操作部83は、端末80のユーザにより入力されるデータや情報を受け付けて取得する。操作部83は、ボタン、キー、タッチパネル、マイクロホン、等を含んでよい。ここでは、主に、操作部83と表示部88とがタッチパネルにより構成されることを例示する。この場合、操作部83は、タッチ操作、タップ操作、ドラック操作等を受付可能である。操作部83は、各種パラメータの情報を受け付けてよい。操作部83により入力された情報は、無人航空機100やサーバ装置や送信機50へ送信されてよい。
The
通信部85は、各種の無線通信方式により、無人航空機100やサーバ装置40や送信機50との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。通信部85は、任意の有線通信方式により有線通信してもよい。
The
メモリ87は、例えば端末80の動作を規定するプログラムや設定値のデータが格納されたROMと、端末制御部81の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。メモリ87には、ROM及びRAM以外のメモリが含まれてよい。メモリ87は、端末80の内部に設けられてよい。メモリ87は、端末80から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。
The
表示部88は、例えばLCD(Liquid Crystal Display)を用いて構成され、端末制御部81から出力された各種の情報やデータや空撮画像や生体情報を表示する。表示部88は、アプリケーションの実行に係る各種データや情報を表示してよい。
The
ストレージ89は、各種データ、情報を蓄積し、保持する。ストレージ89は、HDD、SSD、SDカード、USBメモリ、等でよい。ストレージ89は、端末80の内部に設けられてよい。ストレージ89は、端末80から取り外し可能に設けられてよい。ストレージ89は、無人航空機100やサーバ装置40や送信機50から取得された空撮画像や生体情報を保持してよい。
The
送信機50は、端末80と同様の構成部を有するので、詳細な説明については省略する。送信機50は、制御部、操作部、通信部、メモリ、等を有する。操作部は、例えば、無人航空機100の飛行の制御を指示するためのコントロールスティックでよい。送信機50は、表示部を有してもよい。送信機50は、端末80と同様の機能を有し、端末80が省略されてもよい。端末80は、送信機50と同様の機能を有し、送信機50が省略されてもよい。
The
図9は、サーバ装置40のハードウェア構成の一例を示すブロック図である。サーバ装置40は、サーバ制御部41、通信部45、メモリ47及びストレージ49を備えてよい。サーバ装置40は、例えば災害救助を行うためのセンタに設置されてよい。センタには、モニタが備えられ、サーバ制御部41の制御により、サーバ制御部41により処理した各種情報が表示されてよい。
FIG. 9 is a block diagram showing an example of the hardware configuration of the
サーバ制御部41は、例えばCPU、MPU又はDSPを用いて構成される。サーバ制御部41は、サーバ装置40の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
The
サーバ制御部41は、通信部45を介して、無人航空機100や送信機50や端末80からのデータや空撮画像や情報(例えば生体情報)を取得してよい。サーバ制御部41は、メモリ47又はストレージ49に保持されたデータや空撮画像や情報を取得してよい。サーバ制御部41は、通信部45を介して、無人航空機100や送信機50や端末80へ、データや情報を送信してよい。
The
サーバ制御部41は、生体の探索を支援するためのアプリケーション(生体探索支援アプリケーション)を実行してよい。サーバ制御部41は、アプリケーションで用いられる各種のデータを生成してよい。
The
通信部45は、各種の無線通信方式により、無人航空機100や送信機50や端末80との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。通信部45は、任意の有線通信方式により有線通信してもよい。
The
メモリ47は、例えばサーバ装置40の動作を規定するプログラムや設定値のデータが格納されたROMと、サーバ制御部41の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。メモリ47には、ROM及びRAM以外のメモリが含まれてよい。メモリ47は、サーバ装置40の内部に設けられてよい。メモリ47は、サーバ装置40から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。
The
ストレージ49は、各種データ、情報を蓄積し、保持する。ストレージ49は、HDD、SSD、SDカード、USBメモリ、等でよい。ストレージ49は、サーバ装置40の内部に設けられてよい。ストレージ89は、サーバ装置40から取り外し可能に設けられてよい。サーバ装置40は、無人航空機100や送信機50や端末80から取得された空撮画像や生体情報を保持してよい。
The
次に、無人航空機100に係る各種長さについて説明する。
図10は、無人航空機100に係る各種長さを説明するための図である。図10では、無人航空機100を無人航空機100の真下から見ている。
Next, various lengths of the unmanned
FIG. 10 is a view for explaining various lengths of the unmanned
長さL1は、第2ポール206の全体の長さ(全長)を示し、「L_Total」とも記載する。長さL2は、第1ジンバル200の中心部c1(言い換えると第2ポール206の一端)から前方(図10では右方)の回転翼211の端部までの距離を示し、「L_front」とも記載する。つまり長さL2は、無人航空機100の前後方向の長さの略半分を示してよい。長さL3は、センサ部310を動作させるために、調査対象に進入した場合(調査対象の周囲の障害物の隙間に進入した場合)の進入位置p1から第2ジンバル202(第2ジンバル202の中心部)までの最短距離を示し、「L_min」とも記載する。言い換えると、センサ部310が生体情報を検出可能となるために、調査対象が存在する空間(調査空間ともいう)にセンサ部310が最低限進入するべき長さである。第2ポール206のうち、調査空間内に長さL3に相当する部分が進入すれば、センサ部310が好適に動作し、生体情報の検出が可能となる。L_minは、例えば、cmオーダーの長さでよく、10cm、20cm程度でよい。
The length L1 indicates the entire length (full length) of the
長さL2は、第2ポール206の一端から回転翼211の端部に対応する第2ポール206の第1の点までの長さの一例である。長さL1は、第2ポール206の一端から他端までの長さの一例である。長さL3は、調査対象が存在する調査空間に挿入される第2ポール206の他端から第2の点までの長さの一例である。
The length L2 is an example of the length from one end of the
なお、長さL1〜L3は、いずれも固定値である。長さL3は、センサ部310における各種センサによる検出可能範囲の大きさに依存する。
The lengths L1 to L3 are all fixed values. The length L3 depends on the size of the detectable range of various sensors in the
調査空間内に第2ポール206が長さL3以上にわたって進入しているか否かは、センサ部310を好適に使用するための条件となる。そのため、本実施形態では、この条件を「センサ条件」とも称する。したがって、調査空間内に第2ポール206が長さL3以上進入している場合、センサ条件を満たしている。調査空間内に第2ポール206が長さL3未満進入している場合、又は、調査空間内に第2ポール206が進入していない場合、センサ条件を満たしていない。
Whether or not the
ここで、センサ条件を満たすか満たさないかの境界である、障害物の隙間の奥に存在する調査空間内に第2ポール206がちょうど長さL3で進入した場合の、無人航空機100の前端(前方の回転翼211の前端)と障害物との距離を、基準長さdとする。調査空間内に、第2ポール206が長さL3以上の長さで進入した場合、第2ポール206がちょうど長さL3で進入した場合と比較すると、無人航空機100は、より前方に位置する。そのため、無人航空機100の前端と障害物との距離は、基準長さdよりも短くなる。したがって、無人航空機100の前端と障害物との距離が、基準長さdよりも短くなると、センサ条件を満たすことになる。一方、無人航空機100の前端と障害物との距離が、長さdよりも長くなると、センサ条件を満たさないことになる。
Here, the front end of the unmanned
基準長さdの一例として、第2ポール206が基準方向に延びている場合の基準長さを、基準長さd0とする(図25B、図26B、図26C参照)。基準長さdの一例として、第2ポール206が基準方向から変更された方向に延びている場合の基準長さを、基準長さd1とする(図26D参照)。
As an example of the reference length d, a reference length in the case where the
UAV制御部110は、センサ部310により生体情報を検出する際、センサ条件を満たしているか否かを判定してよい。UAV制御部110は、第2ポール206の向きが変更された場合、センサ条件を満たしているか否かを判定してよい。UAV制御部110は、第2ポール206の向きが変更される度に、センサ条件を満たしているか否かを判定してよい。
When the biological information is detected by the
次に、生体探索システム10による無人航空機100、送信機50及び端末80を用いた生体の探索例について説明する。
Next, a search example of a living body using the unmanned
生体探索システム10は、地震等により壊れた建物の残骸に埋まっている生存者等の生体を探索する。この場合、ユーザは、送信機50等を用いて、安全な場所において無人航空機100を飛行させ、無人航空機100が捜索地域SR1(調査領域)において生体を探索し、無人航空機100により得られた生体情報を基に、生体の探索を行ってよい。無人航空機100とユーザが所持する送信機50や端末80との間では、無線通信等によりデータ通信される。
The living
無人航空機100では、UAV制御部110は、生体の探索に関する機能を有し、生体の探索に関する処理を行う。送信機50は、生体の探索の支援に関する機能を有し、生体の探索の支援に関する処理を行う。端末80では、端末制御部81は、生体の探索の支援に関する機能を有し、生体の探索の支援に関する処理を行う。サーバ装置40では、サーバ制御部41は、生体の探索の支援に関する機能を有し、生体の探索の支援に関する処理を行う。
In the unmanned
図11は、捜索地域A1の一例を示す図である。 FIG. 11 is a diagram showing an example of the search area A1.
無人航空機100は、捜索地域SR1(調査領域の一例)の領域内を飛行する。UAV制御部110は、送信機50からの操作情報(飛行制御の指示情報)を取得し、操作情報に基づいて無人航空機100を捜索地域SR1内で移動させてよい。つまり、無人航空機100は、ユーザ操作で(手動で)飛行操作されてよい。UAV制御部110は、メモリ160等から飛行経路情報を取得し、飛行経路情報に基づいて無人航空機100を捜索地域SR1内で移動させてよい。UAV制御部110は、センサ部310により検出された検出情報を取得し、検出情報に基づいて無人航空機100を捜索地域SR1内で移動させてよい。つまり、無人航空機100は、ユーザ操作無しで(自動で)飛行制御されてよい。
The unmanned
例えば、UAV制御部110は、撮像部316により撮像された画像において、画像認識等により画像内に調査対象(例えば生体)が認識された場合、無人航空機100を、認識された調査対象を含む所定範囲内で移動させてよく、又は認識された調査対象に向かって移動させてよい。ここでの調査対象は、特定の物体(生体等)でもよいし、特定の場所(生存者がいそうな場所等)でもよい。なお、生体は、人体以外(例えば犬、猫などの動物)でもよい。
For example, when the survey target (for example, a living body) is recognized in the image by image recognition or the like in the image captured by the
UAV制御部110は、二酸化炭素センサ311により生体の存在を示す閾値th1以上の二酸化炭素が検出された場合、無人航空機100を、二酸化炭素が検出された位置を含む所定範囲内で移動させてよいし、二酸化炭素が検出された位置に向かって移動させてよい。
The
UAV制御部110は、赤外線センサ315により生体の温度(例えば36〜37℃程度の温度)を検出した場合、無人航空機100を、生体の温度が検出された位置を含む所定範囲内で移動させてよいし、生体の温度が検出された位置に向かって移動させてよい。
When the temperature of the living body (for example, a temperature of about 36 to 37 ° C.) is detected by the
UAV制御部110は、マイクロホン317により何らかの音が検出された場合、無人航空機100を、音が検出された位置を含む所定範囲内で移動させてよいし、音が検出された位置に向かって移動させてよい。
When a sound is detected by the
UAV制御部110は、マイクロホン317により所定の音(例えば人の発する声、動物の鳴き声)が検出された場合、無人航空機100を、所定の音が検出された位置を含む所定範囲内で移動させてよいし、所定の音が検出された位置に向かって移動させてよい。
When the
図12は、端末80における表示部88の表示例を示す図である。端末80は、例えば、PC、スマートフォン、又は送信機50でよい。
FIG. 12 is a view showing a display example of the
図12では、表示部88は、ライブビュー画像g11と、二酸化炭素センサ311による二酸化炭素の検出値(Readout)と、マイクロホン317による音の検出値(Readout)と、を含んで表示する。これらの表示情報は、表示部88により表示される情報の一例であり、例えばセンサ部310により検出された他の検出値が表示されてもよい。端末80では、端末制御部81は、ライブビュー画像g11や二酸化炭素の検出値や音の検出値の情報を、通信部85を介して無人航空機100から取得してよい。ライブビュー画像g11は、可視光LED312及び赤外線LED313の少なくとも1つが発光した状態で撮像部316により撮像された画像でもよいし、可視光LED312及び赤外線LED313の双方が発光していない状態で撮像部316により撮像された画像でもよい。
In FIG. 12, the
図13は、障害物BCに囲まれた調査対象SROの第1例を示す図である。障害物BCは、例えば地震により倒壊した建物、家具、の一部でよく、瓦礫でもよい。障害物BCの周囲では、捜索地域SR1の領域内を飛行する無人航空機100が、調査対象SROに近づいてきている。
FIG. 13 is a diagram showing a first example of a survey target SRO surrounded by an obstacle BC. The obstacle BC may be, for example, part of a building or furniture collapsed due to an earthquake, or may be rubble. Around the obstacle BC, the unmanned
図14は、表示部88による障害物BCの周辺の第1表示例を示す図である。図14に示されたライブビュー画像g11は、障害物BCに近づく図13の無人航空機100の撮像部316により撮像された画像である。この時点では、センサ部310は、電源オン(動作可能な状態)にされていない。そのため、センサ部310における各センサにより各種情報が検出されていない。したがって、端末80の端末制御部81は、センサ部310に含まれる二酸化炭素センサ311による検出値やマイクロホン317による検出値を取得しておらず、センサの検出結果としての検出値を表示部88に表示させていない。
FIG. 14 is a diagram showing a first display example around the obstacle BC by the
なお、端末制御部81は、操作部83を介してセンサ検出値の表示領域の入力(例えば押下)を検出すると、通信部85を介して、入力が検出されたセンサに対応するセンサのオンオフを指示するためのオンオフ指示情報を、無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、通信インタフェース150を介してオンオフ指示情報を取得し、オンオフ指示情報に基づいて、該当するセンサのオンオフの状態を切り替えてよい。センサ検出値の表示領域は、例えば、二酸化炭素センサ311による二酸化炭素の検出値の表示領域g12や、マイクロホン317による音声信号の検出値の表示領域g13を含んでよい。つまり、表示領域g12が押下された場合、二酸化炭素センサ311がオンやオフにされてよい。表示領域g13が押下された場合、マイクロホン317がオンやオフにされてよい。
When the
無人航空機100は、センサ部310に含まれる各種センサのオンオフの状態を切り替えることで、非使用時にオン状態が継続されることを抑制でき、センサ部310の消費電力を低減できる。また、端末80は、操作部83を介して各種センサのオンオフを指示できるので、直感的に容易に各種センサのオンオフの状態を切り替えできる。
By switching the on / off states of the various sensors included in the
なお、表示部88におけるライブビュー画像g11の領域には、可視光LED312の点灯/消灯の状態を示すLEDボタンB1と、赤外線LED313の点灯/消灯の状態を示すIRLEDボタンB2と、が存在する。例えば、可視光LED312及び赤外線LED313の点灯状態は、実線で示され、可視光LED312及び赤外線LED313の消灯状態は、点線で示される。図14では、LEDボタンB1及びIRLEDボタンB2が点線で示されており、可視光LED312及び赤外線LED313が消灯されている状態であることを示す。
In the region of the live view image g11 in the
なお、端末制御部81は、操作部83を介してLEDボタンB1の入力(例えば押下)を検出すると、LED312の点灯状態及び消灯状態を切り替えてよい。同様に、端末制御部81は、操作部83を介してIRLEDボタンB2の入力(例えば押下)を検出すると、IRLED313の点灯状態及び消灯状態を切り替えてよい。
When the
ユーザは、端末80の表示部88を介して、ライブビュー画像g11により捜索地域SR1の状況(現場の状況)を確認する。無人航空機100は、上記の手動又は自動により移動して、調査対象SROに接近し、又は調査対象SROを取り囲む障害物BCに接近する。障害物BCへの接近時には、無人航空機100のUAV制御部110は、第2ポール206を、水平方向(ロール軸及びピッチ軸に平行な方向)に維持し、無人航空機100の前進方向にセンサ部310が向くように制御する。UAV制御部110は、例えば複数の障害物BCの隙間に向かって無人航空機100が接近するよう飛行を制御する。この結果、例えば、複数の障害物BCの隙間の奥に存在する調査対象SRO(例えば生体)に、無人航空機100が接近することになる。
The user confirms the situation (the situation of the site) of the search area SR1 with the live view image g11 via the
図15は、障害物BCに囲まれた調査対象SROの第2例を示す図である。障害物BCの周囲では、捜索地域SR1の領域内を飛行する無人航空機100が、図13の状態よりも調査対象SROに更に近づいてきている。
FIG. 15 is a diagram showing a second example of the investigation target SRO surrounded by the obstacle BC. Around the obstacle BC, the unmanned
図16は、表示部88による障害物BCの周辺の第2表示例を示す図である。図16に示されたライブビュー画像g11は、図14の状態よりも更に調査対象SROに近づいた図15の無人航空機100の撮像部316により撮像された画像である。図16では、センサ部310に含まれる撮像部316が、障害物BCに包囲された内部の調査対象SROを確認できるように、撮像部316が調査対象SROを向くように調整されている。撮像部316の向きは、UAV制御部110により制御されてよい。
FIG. 16 is a view showing a second display example around the obstacle BC by the
また、図16のタイミングでは、第1超音波センサ280が、電源オンされており、動作可能となっている。第1超音波センサ280は、第1超音波センサ280から(つまり無人航空機100から)調査対象SROや障害物BCまでの距離を測定する。端末80では、端末制御部81が、通信部85を介して、第1超音波センサ280による距離の測定結果を取得する。端末制御部81は、取得された距離の測定結果に基づいて、障害物BCが近くに存在することを示す障害物接近マークMK1(例えばMK11,MK12)を、表示部88に表示させてよい。障害物接近マークMK1は、例えば超音波が発信されていることを示すマークや、そのマークにより表現されてよい。
Further, at the timing shown in FIG. 16, the first
例えば、表示部88は、距離に応じて段階的に距離区分を分け、距離区分に対応する表示態様で、障害物接近マークMK1を表示してよい。ライブビュー画像g11を撮像する無人航空機100から障害物BCまでの距離は、前方及び左方において2m程度であり、右方において1m未満であってよい。例えば、上記距離が2m程度の場合には、障害物接近マークMK11(例えば斜線のハッチングを含むマーク、黄色のマーク)が表示されてよい。上記距離が1m程度の場合には、障害物接近マークMK1が障害物接近マークMK12(例えば黒塗りのマーク、赤色のマーク)で示されてよい。
For example, the
表示態様は、例えば、障害物接近マークMK1の表示色、表示パターン(例えば点灯、点滅、)その他の表示対応により示されてよい。また、端末制御部81は、障害物接近マークMK1の表示とともに、又は障害物接近マークMK1の表示の代わりに、障害物BCの接近の情報を音声情報として音声出力してもよい。この場合も、端末制御部81は、距離区分に応じて、音声出力態様を変更してよい。また、端末制御部81は、障害物BCの接近の情報を、表示や音声出力する代わりに、その他の提示方法により提示してもよい。
The display mode may be indicated, for example, by the display color of the obstacle approach mark MK1, the display pattern (for example, lighting, blinking, etc.) or other display correspondence. Further, the
このように、第1超音波センサ280は、調査対象SROの周囲に四方に存在する障害物BCとの距離を測定してよい。UAV制御部110は、第1超音波センサ280により測定された距離(測定距離)が閾値th2(安全が確保される安全距離)よりも小さい場合、端末80の表示部88にその旨を表示させてよい。この場合、UAV制御部110は、通信インタフェース150を介して、測定距離が安全距離よりも小さい旨(第1の通知情報の一例)を端末80へ送信してよい。端末制御部81は、通信部85を介して、測定距離が安全距離よりも小さい旨を取得し、測定距離が安全距離よりも小さい旨(例えば障害物接近マークMK1)を表示部88に表示させてよい。UAV制御部110は、手動又は自動で、障害物BCを避けて無人航空機100の位置を調整し、無人航空機100を調査対象SROに接近させてよい。この場合、ユーザが、測定距離が安全距離よりも小さい旨を端末80の表示部88による障害物接近マークMK1の表示により確認し、送信機50を操作することで、送信機50が、無人航空機100の飛行の制御を指示し、無人航空機100の位置の調整を指示してよい。なお、閾値th2(安全距離)は、基準長さdよりも長くてよい。
Thus, the first
これにより、端末80は、障害物接近マークMK1を表示することで、無人航空機100に障害物BCが接近していることを知らせることができる。よって、ユーザは、表示部88の障害物接近マークを確認しながら、無人航空機100の飛行制御を指示するための操縦を慎重に行うことができる。
Thus, the terminal 80 can notify the
図17は、障害物BCに囲まれた調査対象SROの第3例を示す図である。障害物BCの周囲では、捜索地域SR1の領域内を飛行する無人航空機100が、図15の状態よりも調査対象SROに更に近づいてきている。
FIG. 17 is a diagram showing a third example of the investigation target SRO surrounded by the obstacle BC. Around the obstacle BC, the unmanned
図18は、表示部88による障害物BCの周辺の第3表示例を示す図である。図18に示されたライブビュー画像g11は、図16の状態よりも更に調査対象SROに近づいた図17の無人航空機100の撮像部316により撮像された画像である。図18では、センサ部310に含まれる撮像部316が、障害物BCに包囲された内部の調査対象SROを確認できるように、撮像部316が調査対象SROを向くように調整されている。撮像部316の向きは、UAV制御部110により調整されてよい。
FIG. 18 is a view showing a third display example of the periphery of the obstacle BC by the
図18では、表示部88が、ライブビュー画像g11に対してセンサ条件満足マークMK2を重ねて表示している。センサ条件満足マークMK2により、ライブビュー画像g11の表示領域の外縁が強調して表示(強調表示)されてよい。端末制御部81は、センサ条件を満たす場合、つまり第1超音波センサ280による障害物BCまでの測定距離が閾値th3よりも短い場合、このようなセンサ条件満足マークMK2を表示してよい。閾値th3は、上記の基準長さd0と一致してよい。センサ条件満足マークMK2は、例えば、ライブビュー画像g11の表示領域の外縁に示される太枠でよい。また、センサ条件満足マークMK2は、例えば、ライブビュー画像g11の表示領域の外縁に示される緑色の枠でよい。つまり、センサ条件満足マークMK2が、ライブビュー画像g11の注目を引くような表示態様(枠の太さ、枠の色、その他の表示態様)で表示されればよい。
In FIG. 18, the
測定距離が閾値th3よりも短い場合、センサ条件を満たし、測定距離が閾値th3以上である場合、センサ条件を満たさなくてよい。センサ条件を満足するとは、センサ部310により調査対象SROに関するデータを検出可能であることを指してよい。この場合、センサ部310における少なくとも1つのセンサにより調査対象SROに関するデータを検出可能であることを指してよい。また、センサ部310における電源オンされているセンサのうちの少なくとも1つにより調査対象SROに関するデータを検出可能であることを指してよい。
If the measurement distance is shorter than the threshold th3, the sensor condition is satisfied, and if the measurement distance is the threshold th3 or more, the sensor condition may not be satisfied. Satisfying the sensor condition may indicate that the
このように、ユーザは、表示部88に表示されたセンサ条件満足マークMK2を確認することで、第2ポール206を伸長することでセンサ部310によりデータ(生体情報))を検出可能であることを把握できる。したがって、無人航空機100は、この時点の位置から移動せずに、センサ部310により生体情報を検出可能である。つまり、無人航空機100及び生体探索システム10は、ユーザに対してセンサ部310による生体情報の検出が可能な状態であることを提示でき、ユーザは提示を参考にして生体探索の手順を進行できる。よって、無人航空機100及び生体探索システム10は、生体の探索効率を向上できる。
Thus, the user can detect data (biometric information) by the
図19は、障害物BCに囲まれた調査対象SROの第4例を示す図である。障害物BCの周囲では、捜索地域SR1の領域内を飛行する無人航空機100が、図17の状態よりも調査対象SROに更に接近している。また、図19では、必要に応じて第2ポール206の向きが調整されて、障害物BCの隙間に挿入され、センサ部310が調査空間に進入している。
FIG. 19 is a diagram illustrating a fourth example of the investigation target SRO surrounded by the obstacle BC. Around the obstacle BC, the unmanned
図20は、表示部88による障害物BCの周辺の第4表示例を示す図である。図20に示されたライブビュー画像g11は、図18の状態よりも更に調査対象SROに近づいた図19の無人航空機100の撮像部316により撮像された画像である。
FIG. 20 is a view showing a fourth display example around the obstacle BC by the
図20では、センサ部310(例えば撮像部316のイメージセンサ316a)が、障害物BCに包囲された内部の調査対象SROに関する情報を検出できるように、センサ部310に含まれる各種センサ(例えば二酸化炭素センサ311、イメージセンサ316a、マイクロホン317)が調査対象SROを向くように調整されてよい。この場合、第2ポール206が障害物BCの隙間を調査対象SROに向かって挿入されるように、第1ジンバル200に対する第2ポール206の角度が調整されてよい。第2ポール206の角度は、UAV制御部110により調整されてよい。また、センサ部310が所望の方向を向くように、第2ジンバル202に対するセンサ部310の角度が調整されてよい。センサ部310の角度は、UAV制御部110により調整されてよい。
In FIG. 20, various sensors (e.g., dioxide dioxide) included in the
図20は、図18の状態よりも調査対象SROに近づいているので、センサ条件が満たされており、センサ部310による生体情報の検出が可能な状態が継続される。よって、表示部88は、ライブビュー画像g11とともにセンサ条件満足マークMK2を表示する。
FIG. 20 is closer to the investigation target SRO than the state of FIG. 18, so the sensor condition is satisfied, and the state in which the biological information can be detected by the
また、図20では、LEDボタンB1が、実線で示されており、つまり点灯状態である。よって、調査対象SROがLED312により照明されている。そのため、障害物BCの隙間の奥に調査対象SROが位置し、調査対象SROの周囲に光量が少なく暗い場合でも、LED312により照明できる。よって、無人航空機100は、例えば、明るさを強化して撮像部316により画像を撮像できる。したがって、ユーザは、表示部88により表示されるライブビュー画像g11を見易くなり、調査対象SROの状態を視覚的に確認し易くなる。
Further, in FIG. 20, the LED button B1 is indicated by a solid line, that is, in the lighting state. Therefore, the investigation target SRO is illuminated by the
また、図20では、センサ部310に含まれる各種センサによる検出値が、表示部88に表示される。図20の状態では、センサ条件を満たし、センサ部310に含まれる各種センサにより実際にデータが検出されている。よって、表示部88は、各種センサによる検出値、検出値に基づく情報を表示できる。したがって、ユーザは、可視光や赤外光で照明された調査対象SROのライブビュー画像g11や、各種センサによる検出値(例えば表示領域g12に示された二酸化炭素の検出値、表示領域g13に示された音声信号の検出値)を確認可能である。
Further, in FIG. 20, detection values by various sensors included in the
図21は、無人航空機100による発信機400の第1投下例を示す図である。図21では、発信機400が、無人航空機100の収容ボックス320から障害物BCの隙間に投下されている。
FIG. 21 is a view showing a first drop example of the
UAV制御部110は、調査対象としての生体があると判定された場合、つまり得られた生体情報が生体を存在する旨の情報をであった場合、発信機400を投下させる。例えば、UAV制御部110は、撮像部316により撮像された画像に対する画像認識により、生体が存在すると判定してよい。UAV制御部110は、二酸化炭素センサ311により生体の存在を示す閾値th1以上の二酸化炭素が検出された場合、生体が存在すると判定してよい。UAV制御部110は、赤外線センサ315により生体の温度(例えば36〜37℃程度の温度)を検出した場合、生体が存在すると判定してよい。UAV制御部110は、マイクロホン317により何らかの音が検出された場合、又は所定の音(例えば人の発する声、動物の鳴き声)が検出された場合、生体が存在すると判定してよい。
The
UAV制御部110は、センサ部310による生体情報の検出の結果、調査対象SROに生体が含まれると判定すると、カメラ322により調査対象SROの周辺を撮像する。この撮像画像は、通信インタフェース150を介して端末80に送られ、ユーザにより確認されてよい。UAV制御部110は、手動又は自動により、調査対象SROの周辺や調査対象SROが所在する障害物BCの隙間に発信機400を投下するよう、開閉部321を開くよう制御してよい。つまり、送信機50の制御部又は端末80の端末制御部81が、操作部を介して発信機400を投下するための指示を入力し、通信部を介して投下指示情報を無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、投下指示情報に基づいて、発信機400を投下させてよい。例えば、調査対象SROの周辺や調査対象SROが所在する障害物BCの隙間の真上において、開閉部321が開状態とされてよい。なお、調査対象SROの周辺や調査対象SROが所在する障害物BCの隙間に発信機400を投下することが困難である場合、調査対象SROが所在する障害物BCの隙間の近傍に、発信機400が投下されてもよい。
When the
また、UAV制御部110は、発信機400を投下する際には無人航空機100を降下させ、発信機400の飛行高度が閾値th4以下である場合に、発信機400を投下するようにしてよい。これにより、高所から発信機400が落下して発信機が破損したり故障したりすることを抑制できる。なお、閾値th4は、例えば2mである。閾値th4は、固定値でも可変値でもよい。
Further, the
図22は、無人航空機100により発信機400を第1投下例に従って投下する場合の表示部88の表示例を示す図である。
FIG. 22 is a diagram showing a display example of the
表示部88におけるライブビュー画像g11の領域には、収容ボックス320の開閉部321を開閉するためのMARKボタンB3が存在する。例えば、開閉部321の開状態は、実線で示され、開閉部321の閉状態は、点線で示される。図22では、MARKボタンB3が実線で示されており、開閉部321が開かれていることを示す。
In the region of the live view image g11 in the
なお、端末制御部81は、操作部83を介してMARKボタンB3の入力(例えば押下)を検出すると、開閉部321の開状態及び閉状態を切り替えてよい。例えば、ユーザは、端末80の表示部88のライブビュー画像g11を見ながら、送信機50により無人航空機100の飛行の制御を指示し、所望の位置においてMARKボタンB3を押してよい。これにより、無人航空機100は、ユーザ所望の位置において開閉部321を開き、発信機400を投下できる。
When the
このように、無人航空機100は、調査対象SROの周辺に発信機400を投下することで、生体が発見された場所をマーキングできる。よって、例えば、マーキング後にユーザが生体の発見場所付近に近づくと、発信機400から発信される電波を受信でき、生体の所在位置に向かうことができる。よって、無人航空機100は、ユーザが動きながら生体を探索するよりも効率的に且つ安全に、生体の捜索を行うことができる。
Thus, the unmanned
また、ユーザは、表示部88を介して生体付近の状況を確認しながら、MARKボタンB3を押下することで、発信機400を投下できる。よって、無人航空機100は、ユーザ所望のタイミングや位置において、発信機400を投下できる。
In addition, the user can drop the
図23は、無人航空機100による発信機400の第2投下例を示す図である。図23では、発信機400が、無人航空機100の収容ボックス320から生体LBとしての人物の周辺に投下されている。
FIG. 23 is a view showing a second drop example of the
図23では、生体LBを包囲するような障害物BCが存在しておらず、生体LBの周辺に容易に発信機400を投下できる状態にある。UAV制御部110は、例えば、手動又は自動により、生体LBの周辺に発信機400を投下するよう、開閉部321を開くよう制御してよい。この場合、UAV制御部110は、生体LBの位置を避けて、発信機400を投下してよい。
In FIG. 23, there is no obstacle BC surrounding the living body LB, and the
図24は、無人航空機100により発信機400を第2投下例に従って投下する場合の表示部88の表示例を示す図である。図24では、生体LBの周辺に障害物BCが存在しないので、ライブビュー画像g11には生体LBが識別容易に表示されている。
FIG. 24 is a diagram showing a display example of the
このように、無人航空機100は、センサ部310が障害物BCの隙間の奥に挿入されなくても、調査対象としての生体LBを識別可能(例えば視認可能)である場合、障害物BCの隙間に発信機400を投下せずに、生体LBの周辺に発信機400を投下可能である。この場合でも、生体LBの位置のマーキングが可能である。
As described above, when the unmanned
次に、障害物BCを考慮した無人航空機100の調査対象SROへの具体的な接近方法について説明する。この場合、無人航空機100は、障害物BCを避けるために左右移動(つまり進行方向(前進方向)でない水平方向の移動)する場合と、障害物BCを避けなくてよく左右移動しない場合と、が想定される。
Next, a specific approach to the survey target SRO of the unmanned
図25Aは、左右移動が不要な場合の無人航空機100と障害物BCとの位置関係の一例を示す模式図である。図25Bは、図25Aの状態から無人航空機100が調査対象SROへ接近した場合の無人航空機100と障害物BCとの位置関係の一例を示す模式図である。図25A,図25Bは、無人航空機100及び障害物BCを下方から見た図である。
FIG. 25A is a schematic view showing an example of the positional relationship between the unmanned
図25Aでは、調査対象SROが前方(図25Aにおける右方向)にある。また、無人航空機100が備える撮像部316と調査対象SROとの間に、障害物BCが存在していない。つまり、無人航空機100が備える撮像部316と調査対象SROとを結ぶ直線上に、障害物BCが存在していない。よって、無人航空機100がそのまま前進移動することで、調査対象SROに到達可能である。
In FIG. 25A, the surveyed SRO is forward (rightward in FIG. 25A). In addition, the obstacle BC does not exist between the
図25Bでは、図25Aの状態から無人航空機100が前方(図25Aにおける右方向)へ移動したことで、第1超音波センサ280により測定された障害物BCまでの測定距離が基準長さd0であり、センサ条件を満たすことを示している。この場合、ライブビュー画像g11とともにセンサ条件満足マークMK2が表示される。この測定距離は、無人航空機100の前方の回転翼211から障害物BC(進入位置p1)までの距離であり、基準長さd0となっている。
In FIG. 25B, when the unmanned
図25Bに示す位置で、無人航空機100のUAV制御部110は、第2ポール206を伸ばし、センサ部310により調査対象SR0における生体情報を検出する。生体情報は、生体が存在することを示す情報や、生体が存在しないことを示す情報を含んでよい。
At the position shown in FIG. 25B, the
この場合、UAV制御部110は、第2ポール206が伸長するための伸長指示情報を取得し、伸長指示情報に基づいて第2ポール206を伸長させる。UAV制御部110は、自動又は手動で、第2ポール206を伸長させる。
In this case, the
手動で第2ポール206を伸長させる場合、送信機50の制御部又は端末80の端末制御部81は、操作部を介して第2ポール206を伸長するための指示を入力し、通信部を介して伸長指示情報を無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、伸長指示情報に基づいて、第2ポール206を伸長させてよい。
When the
自動で第2ポール206を伸長させる場合、UAV制御部110は、無人航空機100の現在位置において、センサ条件を満たし、且つ、第2ポール206の伸長位置(第2ポール206が伸長した場合に第2ポール206が到達する位置)に障害物BCが存在しない場合、第2ポール206を伸長させてよい。第2ポール206の伸長位置に障害物BCが存在するか否かは、例えば、無人航空機100の現在位置で撮像部316により撮像された画像に対する画像認識を用いて判定されてよい。図25Bでは、第2ポール206の伸長位置に障害物BCが存在しない。
When automatically extending the
したがって、無人航空機100は、生体情報を検出するための所定の位置まで到達した場合に、第2ポール206を伸ばして、第2ポール206の先端側に設けられたセンサ部310により生体情報を検出できる。また、生体情報を検出するための所定の位置に到達する前には、第2ポール206を縮めた状態に維持することで、無人航空機100の第2ポール206を含めた全体のサイズが小さくなり、無人航空機100が調査対象SROの周辺の障害物BCに衝突し難くなる。よって、無人航空機100が移動し易くなり、無人航空機100の衝突による破損も抑制できる。
Therefore, when the unmanned
また、手動で第2ポール206が伸長することで、ユーザは、表示部88を介して調査対象SROの付近の状況を確認しながら、第2ポール206の伸長を指示するためのポール伸長ボタン(不図示)を押下することで、第2ポール206の伸長させることができる。よって、無人航空機100は、ユーザ所望のタイミングや位置において、第2ポール206を伸長できる。
In addition, the pole extension button for instructing the extension of the
図26Aは、左右移動が必要な場合の無人航空機100と障害物BCとの位置関係の一例を示す模式図である。図26Bは、無人航空機100が障害物BCを避けて移動することを説明する図である。図26Cは、第2ポール206の向きを変更することを説明する図である。図26Dは、センサ部310によりセンシングすることを説明する図である。図26A〜図26Dは、無人航空機100及び障害物BCを下方から見た図である。
FIG. 26A is a schematic view showing an example of the positional relationship between the unmanned
図26Aでは、調査対象SROが前方(図26Aにおける右方向)にある。一方、無人航空機100が備える撮像部316と調査対象SROとの間に、障害物BCが存在する。つまり、無人航空機100が備える撮像部316と調査対象SROとを結ぶ直線上に、障害物BCが存在する。よって、無人航空機100がそのまま前進移動すると、回転翼211等が障害物BCに接触する。
In FIG. 26A, the surveyed SRO is forward (rightward in FIG. 26A). On the other hand, an obstacle BC exists between the
この場合、UAV制御部110は、無人航空機100が移動するための移動指示情報を取得し、移動指示情報に基づいて無人航空機100を移動させる。UAV制御部110は、自動又は手動で移動する。
In this case, the
手動で無人航空機100を移動させる場合、送信機50の制御部又は端末80の端末制御部81は、操作部を介して無人航空機100を移動するための指示を入力し、通信部を介して移動指示情報を無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、移動指示情報に基づいて、無人航空機100を伸長させてよい。
When manually moving the unmanned
自動で無人航空機100を移動させる場合、UAV制御部110は、センサ条件を満たさない場合、障害物BCを避けて無人航空機100を移動させてよい。障害物BCを避けた無人航空機100の移動は、無人航空機100の現在位置で撮像部316により撮像された画像に対する画像認識を用いて障害物BCの位置や距離を測定し、この障害物BCを避けるよう調整されればよい。
When automatically moving the unmanned
したがって、無人航空機100は、無人航空機100の飛行進路において調査対象SROの周辺が障害物BCにより覆われていても、飛行進路を任意の方向に変更し、障害物BCを避けながら調査対象SROに接近できる。よって、無人航空機100は、センサ部310により生体情報を検出可能な状態に近づけることができ、生体を発見でき、救助に成功する確率を高くできる。
Therefore, even if the periphery of the surveyed SRO is covered by the obstacle BC in the flight course of the
また、手動で無人航空機100を移動させることで、ユーザは、表示部88を介して調査対象SROの付近の状況を確認しながら、障害物BCを避けて無人航空機100を飛行させ移動させることができる。よって、無人航空機100は、ユーザ所望のタイミングや位置を考慮して、無人航空機100を移動させることができる。
Also, by manually moving the unmanned
図26Bでは、図26Aの状態から無人航空機100が左前方(図26Bにおける右上方向)へ移動しており、センサ条件を満たしていることを示している。この場合、ライブビュー画像g1とともにセンサ条件満足マークMK2が表示されている。つまり、センサ部310により生体情報を検出するためには、更に無人航空機100が移動する必要がないことを示している。
In FIG. 26B, the unmanned
図26Bにおいて、第2ポール206の向きを変更せずに第2ポール206を伸長すると、第2ポール206に前方に位置する障害物BCに衝突する。また、第2ポール206が延びる方向の延長線上に、調査対象SROが存在しない。そのため、UAV制御部110は、調査対象SROの方向を向くように、第2ポール206の向きを水平方向において変更する。
In FIG. 26B, when the
この場合、UAV制御部110は、第2ポール206の向きを変更するための向き指示情報を取得し、向き指示情報に基づいて第2ポール206の向きを変更する。UAV制御部110は、自動又は手動で、第2ポール206の向きを変更する。
In this case, the
手動で第2ポール206の向きを変更する場合、送信機50の制御部又は端末80の端末制御部81は、操作部を介して第2ポール206の向きを変更するための指示を入力し、通信部を介して向き指示情報を無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、向き指示情報に基づいて、第1ジンバル200を制御し、第2ポール206の向きを変更してよい。
When changing the direction of the
自動で第2ポール206の向きを変更する場合、UAV制御部110は、無人航空機100の現在位置において、センサ条件を満たし、第2ポール206の伸長位置に障害物BCが存在する場合、第1ジンバル200を制御して第2ポール206の向きを変更してよい。図26Bでは、第2ポール206の伸長位置に障害物BCが存在する。
When automatically changing the orientation of the
したがって、無人航空機100は、第2ポール206の向きを変更することで、例えば無人航空機100の前進方向に障害物BCが存在する場合でも、無人航空機100を移動させずに、障害物BCの隙間にセンサ部310を進入させ、センサ部310を調査対象SROに近づけることができる。また、無人航空機100は、無人航空機100を所望の位置に移動させた後に、第2ポール206の向きを変更することで、無人航空機100と調査対象SROとの位置関係を微調整することができる。これにより、無人航空機100は、センサ部310により生体情報を検出できる可能性を高くできる。
Therefore, by changing the direction of the
また、手動で第2ポール206の向きを変更することで、ユーザは、表示部88を介して障害物BCや調査対象SROの付近の状況を確認しながら、障害物BCを避けて障害物BCの隙間に進入可能となるように第2ポール206の向きを調整できる。よって、無人航空機100は、ユーザ所望のタイミングや位置を考慮して、第2ポール206の向きを変更できる。
In addition, by manually changing the direction of the
図26Cでは、UAV制御部110は、無人航空機100が図26Bの位置から位置を変更せずに、第1ジンバル200が第2ポール206を支持する角度を調整し、第2ポール206の向きを右前方(図26Cにおける右下方向)に変更している。これにより、無人航空機100は、第2ポール206を伸長すると、第2ポール206が障害物BCに衝突することを回避できる。また、調査対象SROに向かって第2ポール206を伸長することが可能となる。
26C, the
また、図26Cでは、無人航空機100の前方端部(前方の回転翼211の先端)から無人航空機100に対向する障害物BCまでの距離が、基準長さd0に一致している。ここで、図26Cでは、第2ポール206の向きが変更されたことに伴い、基準長さd0が基準長さd1に変更されている。基準長さd1は、基準長さd0よりも短い。センサ条件を満たすには、基準長さd1よりも短い必要があるため、図26Cでは、センサ条件を満たしていないことになる。つまり、第2ポール206を最大限伸ばした場合の長さL3を考慮すると、長さL3の起点(回転翼211側の端点)が障害物BCの進入位置p1よりも手前側(無人航空機100側)に位置する。よって、センサ部310によるセンシングを可能とするためには、更に無人航空機100が前進する必要がある。
Also, in FIG. 26C, the distance from the front end of the unmanned aerial vehicle 100 (the tip of the front rotary wing 211) to the obstacle BC facing the unmanned
図26Dでは、無人航空機100が、図26Cの状態よりも対向する障害物BCに向かって前進しており、無人航空機100の前方端部と障害物BCとの距離が、基準長さd1となっている。この場合、センサ条件を満たしており、ライブビュー画像g1とともにセンサ条件満足マークMK2が表示される。つまり、図26Dに示された無人航空機100の位置において、センサ部310により生体情報を検出可能であることを示している。
In FIG. 26D, the unmanned
このように、無人航空機100は、調査対象SROが前方に存在し、且つ障害物BCを避けるために、左右移動(水平方向の前後以外の移動)が必要な場合、UAV制御部110は、上記の手動又は自動により、無人航空機100の飛行を制御し、無人航空機100の位置を移動させる。また、UAV制御部110は、第1ジンバル200を制御し、センサ部310が調査対象SROの方向に向くよう制御する。この場合、例えば撮像部316による撮像方向が調査対象SROの方向となる。
As described above, in the case where the unmanned
また、第1ジンバル200を制御して第2ポール206の向きを調整すると、UAV制御部110は、第2ポール206の角度により変化する基準長さdを再算出し、再算出結果に応じて、ライブビュー画像g11とともにセンサ条件満足マークMK2を表示し、又は表示しない。
Further, when the direction of the
次に、基準長さd(d1,d2)の詳細について説明する。 Next, the details of the reference length d (d1, d2) will be described.
UAV制御部110は、センサ条件を満たしているか否かを判定するための基準長さdを算出する。UAV制御部110は、第1ジンバル200を制御し、第1ジンバル200に対する第2ポール206の向きを変更した場合、基準長さdを再算出してよい。
The
例えば、図25B、図26B、図26Cに示した基準長さd0は、以下の(式1)により表されてよい。
d0=L1−L2−L3 ・・・(式1)
For example, the reference length d0 shown in FIG. 25B, FIG. 26B, and FIG. 26C may be represented by the following (Expression 1).
d0 = L1-L2-L3 (Equation 1)
図27は、第1ジンバル200に対する第2ポール206の向きを考慮した基準長さd1を説明するための図である。
FIG. 27 is a diagram for describing a reference length d1 in which the direction of the
例えば、図26Cに示した第1ジンバル200に対する第2ポール206の向きを変更した後における無人航空機100と障害物BCとの距離d1は、以下の(式2)により表されてよい。
d1=L1’−L2−L3 ・・・(式2)
なお、L1’=L1×cosα×cosβ
なお、αは、第2ポール206の延びる方向とy軸(ピッチ軸に相当)との成す角度でよい。βは、第2ポール206の延びる方向とz軸(ヨー軸に相当)との成す角度でよい。
For example, the distance d1 between the unmanned
d1 = L1'-L2-L3 (Equation 2)
In addition, L1 ′ = L1 × cos α × cos β
Here, α may be an angle formed by the extending direction of the
つまり、角度αは、例えば図27に示した第2ポール206の基準方向(ここではy軸に沿う方向)に対する第2ポール206が延びる方向の角度のうちの水平方向成分(水平角度)を示す。βは、例えば図27に示した第2ポール206の基準方向に対する第2ポール206が延びる方向の角度のうちの垂直方向成分(垂直角度)を示す。このように、第2ポール206の延びる方向が基準方向から変更されると、第2ポール206が伸長された場合に到達する到達範囲が短くなる。一方、第2ポール206の向きが変化しても、無人航空機100の基準方向(例えば前進方向)は変化しない。そのため、基準長さdの方向としては、無人航空機100の基準方向から変更されず、センシング可能な有効範囲が短くなった(手前側になった)として扱い、基準長さdを短くして対応する。
In other words, the angle α indicates, for example, a horizontal component (horizontal angle) of the angle in the extending direction of the
次に、生体探索システム10の動作について説明する。
Next, the operation of the living
図28は、生体探索システム10の動作例を示すシーケンス図である。ここでは、センサ部310に含まれる各種センサの電源がオンされており、各種センサが動作可能となっていることを想定する。
FIG. 28 is a sequence diagram showing an operation example of the living
無人航空機100では、UAV制御部110は、捜索地域SR1において撮像部316に画像を撮像させ、通信インタフェース150を介して、撮像された空撮画像を端末80へ送信する(S101)。端末80では、端末制御部81は、通信部85を介して空撮画像を受信し、空撮画像をライブビュー画像g11として表示部88に表示させる(S201)。
In the unmanned
ユーザは、ライブビュー画像g11を、表示部88の画面で確認し、無人航空機100を調査対象SROに近づけるよう、送信機50を操作する。送信機50は、ユーザ操作に基づく飛行指示情報を無人航空機100へ送信する。無人航空機100では、UAV制御部110は、通信インタフェース150を介して受信された飛行指示情報に基づいて、無人航空機100の飛行を制御する。また、UAV制御部110は、第2ポール206が基準方向を向くように、第1ジンバル200を制御し、無人航空機100が前進方向(例えば図27のy軸に沿う方向)を向くよう制御している。
The user confirms the live view image g11 on the screen of the
UAV制御部110は、無人航空機100が障害物BCの隙間の奥に位置する調査対象SROに近づけるように制御する。UAV制御部110は、第1超音波センサ280を介して、調査対象SROの周囲の四方に存在する障害物BCとの距離を測定(検出)する(S102)。
The
UAV制御部110は、測定距離が安全距離よりも小さい(安全距離未満である)場合、通信インタフェース150を介してその旨を端末80へ通知する(S103)。端末80では、端末制御部81は、通信部85を介してその旨を受信し、障害物接近マークMK1を表示部88に表示させる(S202)。なお、測定距離に応じて、障害物接近マークMK1の表示態様を変更してもよい。
When the measurement distance is smaller than the safe distance (less than the safe distance), the
ユーザは、表示部88に表示された障害物接近マークMK1を参照しながら、障害物BCに無人航空機100が衝突しないように、送信機50を操作して、無人航空機100の飛行指示を行う(S203)。送信機50は、ユーザ操作に基づく飛行指示情報を無人航空機100へ送信する(S204)。無人航空機100では、UAV制御部110は、通信インタフェース150を介して受信された飛行指示情報に基づいて、無人航空機100の飛行を制御し、無人航空機100の位置を調整する(S104)。
The user operates the
UAV制御部110は、無人航空機100の前進方向への飛行に伴い、第1超音波センサ280による測定距離が閾値th3よりも短くなると、この飛行位置でセンサ条件を満たす。この場合、UAV制御部110は、センサ条件を満たす旨(第2の通知情報の一例)を、通信インタフェース150を介して端末80へ通知する(S105)。端末80では、端末制御部81は、通信部85を介してセンサ条件を満たす旨を受信し、センサ条件満足マークMK2を表示部88に表示させる(S205)。
When the distance measured by the first
ユーザは、送信機50の操作部又は端末80の操作部83を介して、第1ジンバル200の角度を制御し第2ポール206の向きを調整する指示を入力する(S206)。送信機50の制御部又は端末制御部81は、ユーザ操作を受け、通信部85等を介して、第2ポール206の向き指示情報を無人航空機100へ送信する(S207)。無人航空機100では、UAV制御部110は、通信インタフェース150を介して向き指示情報を受信し、向き指示情報に基づいて、第2ポール206の向きを変更する(S106)。
The user inputs an instruction to control the angle of the
UAV制御部110は、第1ジンバル200に対する第2ポール206の角度の調整により、基準長さd0が短くなり、センサ条件を満たさなくなった場合、その旨を表示させる。この場合、UAV制御部110は、通信インタフェース150を介してセンサ条件を満たさない旨を端末80へ送信する。端末80では、端末制御部81は、通信部85を介してセンサ条件を満たさない旨を受信し、表示部88によるセンサ条件満足マークMK2の表示を解除する(表示を停止させる)。これにより、ユーザは、センサ条件に満足しなくなったことを認識できる。この場合、例えば、UAV制御部110は、無人航空機100を手動又は自動により前進移動させ、センサ条件を満足するよう調整する。
When the reference length d0 is shortened by adjusting the angle of the
ユーザは、例えばセンサ条件満足マークMK2の表示によりセンサ条件を満足していることを確認すると、送信機50の操作部又は端末80の操作部83を介して、第2ポール206を伸長させる指示を入力する(S208)。送信機50の制御部又は端末制御部81は、ユーザ操作を受け、通信部85等を介して、第2ポール206の伸長指示情報を無人航空機100へ送信する(S209)。無人航空機100では、UAV制御部110は、通信インタフェース150を介して伸長指示情報を受信し、伸長指示情報に基づいて、第2ポール206を伸ばす(S107)。
When the user confirms that the sensor condition is satisfied, for example, by the display of the sensor condition satisfaction mark MK2, the user instructs to extend the
ユーザは、第2ポール206の伸長を確認すると、送信機50の操作部又は端末80の操作部83を介して、第2ジンバル202を制御し、センサ部310の向きを調査対象SROの方向に向ける指示を入力する(S210)。送信機50の制御部又は端末制御部81は、ユーザ操作を受け、通信部85等を介して、センサ部310の向き指示情報を無人航空機100へ送信する(S211)。無人航空機100では、UAV制御部110は、通信インタフェース150を介して向き指示情報を受信し、向き指示情報に基づいて、センサ部310の向きを変更する(S108)。
When the user confirms the extension of the
UAV制御部110は、調査対象SROに接近し、調査対象SROに向けられたセンサ部310に含まれる各種センサに、生体情報を検出させる(S109)。生体情報は、センサ部310により検出され、調査対象に関するデータを含む情報でよい。UAV制御部110は、検出された生体情報を基に、生体の有無を判定する(S110)。
The
UAV制御部110は、生体(例えば生存者)が存在すると判定した場合、発信機400が収容された収容ボックス320の開閉部321を開き、発信機400を投下する(S111)。
If the
また、UAV制御部110は、生体が存在すると判定した際、GPS受信機240を介して無人航空機100の位置情報を取得する。UAV制御部110は、通信インタフェース150を介して、無人航空機100のこの位置情報をサーバ装置40へ送信する。UAV制御部110は、通信インタフェース150を介して、無人航空機100の位置情報を取得する。UAV制御部110は、通信インタフェース150を介して、無人航空機100の位置情報とともに、センサ部310により検出された生体情報や撮像部316又は撮像部230により撮像された画像をサーバ装置40へ送信してもよい。撮像部316により撮像された画像は、生体が映り込んだ画像でよい。
Further, when it is determined that a living body is present, the
このような無人航空機100及び生体探索システム10によれば、各種カメラや各種ジンバルを用いて生体の探索を行うことに加え、センサ部310の各種センサを用いて生体の探索を行うので、視覚的に生体の有無を判断できるとともに、視覚以外の情報を用いて生体の有無を判断できる。よって、無人航空機100及び生体探索システム10は、例えば、救援効率を改善でき、救援時間を節約できる。また、地震や雪崩により、人が瓦礫や雪の下に埋まっている場合でも、無人航空機100及び生体探索システム10は、ユーザが生体を探索する際のリスクを低減して、生体を探索できる。
According to the unmanned
次に、サーバ装置40による生体情報や発信者情報の管理について説明する。
Next, management of biological information and caller information by the
サーバ装置40では、サーバ制御部41は、通信部45を介して無人航空機100から生体の位置情報を取得する。サーバ制御部41は、通信部45を介して無人航空機100から生体情報や撮像部316又は撮像部230により撮像された画像を取得してもよい。サーバ制御部41は、取得された生体の位置情報、生体情報、画像、等をストレージ49にストレージ49に蓄積させる。
In the
ストレージ49は、生体情報や発信機400に関する情報(発信機情報)を保持してよい。発信機情報は、過去に投下された又は今後投下される発信機400の情報でよい。例えば、ストレージ49は、発信機400の識別情報、その発信機400が投下された位置情報(無人航空機100の位置情報)、生体情報、等を保持してよい。発信機400が投下された位置の情報は、生体の位置情報と一致してよい。ストレージ49は、生体情報や発信機情報とともに、無人航空機100が撮像した画像を保持してよい。この空撮画像は、調査対象SROに含まれる生体の画像でよい。
The
サーバ制御部41は、ストレージ49に蓄積された情報(生体の位置情報、生体情報、画像、等)を取得し、外部のモニタに表示させてよい。サーバ制御部41は、通信部45を介して、ストレージ49に蓄積された情報(生体の位置情報、生体情報、画像、等)を端末80等に送信してよい。
The
サーバ制御部41は、ストレージ49に保持された地図データを取得してよい。サーバ制御部41は、通信部45を介して外部サーバから地図データを取得してよい。サーバ制御部41は、地図データにおいて、無人航空機100から取得された生体の位置情報を重畳してよい。生体の位置情報が重畳された地図データは、外部のモニタに表示されてもよいし、端末80に送信されてよい。
The
このように、サーバ装置40に生体の位置情報等が送られて蓄積されることで、サーバ装置40を集約するセンタ内では、生体の位置情報等を一覧して確認できる。よって、例えばセンタから出発するユーザが生体の存在する位置に直接向かうことができる。また、サーバ装置40とユーザが有する端末80とが連携することで、ユーザは、生体の位置情報や発信機の情報を救助現場付近でも確認できる。
As described above, by transmitting location information and the like of the living body to the
このように、災害救助センタの救助隊員は、外部のモニタを参照して、生体が所持位置を確認できる。また、捜索地域SR1に向かった救助隊員は、端末80の表示部88を参照して、生体の所持位置を確認できる。また、ユーザは、位置情報とともに生体情報を取得でき、生体が存在する各位置に、どのような状態の生体が存在するかを把握することが可能である。
Thus, the rescue worker of the disaster relief center can refer to the external monitor to confirm the position of the living body. Further, the rescue worker who has headed to the search area SR1 can refer to the
また、ユーザは、生体の周辺に近づくと、端末80により、生体の周辺に投下された発信機400の電波を受信できる。よって、生体探索システム10は、障害物BCが多く手がかりなく生体を探索する場合と比較すると、生体の探索効率、救助効率を大幅に向上できる。
Further, when the user approaches the periphery of the living body, the terminal 80 can receive the radio wave of the
本実施形態では、無人航空機100が、生体の探索に関する処理を実施することを例示したが、これに限られない。例えば、送信機50の処理部や端末80の端末制御部81が、本実施形態で説明した生体の探索に関する処理の少なくとも一部を行ってもよい。これにより、生体の探査に関する処理の実行時における無人航空機100の処理負荷を低減でき、負荷分散が図れる。
In the present embodiment, the unmanned
本実施形態では、無人航空機100の生体探索を支援する端末80(無人航空機100の制御を指示する端末)と、実際に生体の探索に向かう救助隊員が保持する端末80とは、同じ端末でもよいし、別個の端末でもよい。 In the present embodiment, the terminal 80 that supports biological search of the unmanned aerial vehicle 100 (a terminal that instructs control of the unmanned aerial vehicle 100) may be the same terminal as the terminal 80 that a rescue worker who actually goes searching for a living body holds. Or a separate terminal.
以上、本開示を実施形態を用いて説明したが、本開示の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。 Although the present disclosure has been described above using the embodiments, the technical scope of the present disclosure is not limited to the scope described in the above-described embodiments. It is obvious for those skilled in the art to add various changes or improvements to the embodiment described above. It is also apparent from the scope of the claims that the embodiments added with such alterations or improvements can be included in the technical scope of the present disclosure.
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as operations, procedures, steps, and steps in the apparatuses, systems, programs, and methods shown in the claims, the specification, and the drawings is particularly “before”, “preceding” Etc., and can be realized in any order as long as the output of the previous process is not used in the later process. With regard to the flow of operations in the claims, the specification, and the drawings, even if it is described using “first,” “next,” etc. for the sake of convenience, it means that it is essential to carry out in this order. is not.
10 生体探索システム
40 サーバ装置
41 サーバ制御部
45 通信部
47 メモリ
49 ストレージ
50 送信機
80 端末
81 端末制御部
83 操作部
85 通信部
87 メモリ
88 表示部
89 ストレージ
100 無人航空機
110 UAV制御部
150 通信インタフェース
160 メモリ
170 ストレージ
200 第1ジンバル
202 第2ジンバル
204 第1ポール
206 第2ポール
210 回転翼機構
230 撮像部
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 第1超音波センサ
290 レーザー測定器
310 センサ部
311 二酸化炭素センサ
312 可視光LED
313 赤外線LED
314 第2超音波センサ
315 赤外線センサ
316 撮像部
316a イメージセンサ
317 マイクロホン
320 収容ボックス
321 開閉部
322 カメラ
B1 LEDボタン
B2 IRLEDボタン
B3 MARKボタン
BC 障害物
g11 ライブビュー画像
g12,g13 検出値の表示領域
MK1,MK11,MK12 障害物接近マーク
MK2 センサ条件満足マーク
LB 生体
p1 挿入位置
SRO 調査対象
SR1 捜索地域
U1 ユーザ
DESCRIPTION OF
313 Infrared LED
314 second
Claims (33)
前記本体に接続された第1の支持部材と、
前記第1の支持部材に支持された第1のジンバルと、
前記第1のジンバルに回転可能に支持された第2の支持部材と、
前記第2の支持部材に支持された第2のジンバルと、
前記第2のジンバルに回転可能に支持されたセンサ部と、
を備える飛行体。 A body to which a rotor is attached;
A first support member connected to the body;
A first gimbal supported by the first support member;
A second support member rotatably supported by the first gimbal;
A second gimbal supported by the second support member;
A sensor unit rotatably supported by the second gimbal;
A flying body equipped with
請求項1に記載の飛行体。 The second support member is telescopic.
The aircraft according to claim 1.
請求項1又は2に記載の飛行体。 The first support member is telescopic.
The aircraft according to claim 1 or 2.
請求項1〜3のいずれか1項に記載の飛行体。 The sensor unit detects information on a living body.
The aircraft according to any one of claims 1 to 3.
前記生体に関する生体情報を検出するセンサ部と、
前記センサ部を支持し、伸縮自在な支持部材と、
前記支持部材を回転可能にジンバルと、
前記生体の探索に関する処理を行う処理部と、
画像を撮像する撮像部と、
を備え、
前記処理部は、
前記撮像部に調査領域の画像を撮像させ、
前記調査領域に向かって前記飛行体を接近させるよう、前記飛行体の飛行を制御し、
前記調査領域に存在する調査対象に向けて前記支持部材を伸長させ、
伸長された前記支持部材に支持された前記ジンバルに支持された前記センサ部に、前記生体情報を検出させる、
飛行体。 It is an aircraft searching for a living body,
A sensor unit that detects biological information related to the living body;
An expandable support member that supports the sensor unit;
A gimbal rotatably supporting the support member;
A processing unit that performs processing related to searching for the living body;
An imaging unit that captures an image;
Equipped with
The processing unit is
Causing the imaging unit to capture an image of a survey area;
Controlling the flight of the aircraft to bring the aircraft closer to the survey area;
Elongating the support member towards the investigation object present in the investigation area,
Causing the sensor unit supported by the gimbal supported by the extended support member to detect the biological information;
Flying body.
前記生体情報として前記生体が存在する旨の情報が検出された場合、
前記飛行体の位置情報を取得し、
前記飛行体の位置情報をサーバ装置に送信する、
請求項5に記載の飛行体。 The processing unit is
When information indicating that the living body is present is detected as the biological information,
Get location information of the aircraft,
Transmitting location information of the aircraft to a server device;
The aircraft according to claim 5.
前記処理部は、前記生体情報として前記生体が存在する旨の情報が検出された場合、前記収容部から前記発信機を投下させる、
請求項6に記載の飛行体。 The flying object includes a housing portion for housing a transmitter for transmitting radio waves,
The processing unit drops the transmitter from the storage unit when information indicating that the living body is present is detected as the biological information.
The aircraft according to claim 6.
前記飛行体の制御を指示する制御装置から、前記発信機を投下するための投下指示情報を取得し、
前記投下指示情報に基づいて、前記発信機を投下させる、
請求項7に記載の飛行体。 The processing unit is
The drop instruction information for dropping the transmitter is obtained from the control device instructing the control of the flying object;
Causing the transmitter to be dropped based on the drop instruction information;
The aircraft according to claim 7.
請求項5〜8のいずれか1項に記載の飛行体。 The processing unit satisfies a sensor condition indicating whether the biological information can be detected by the sensor unit when the support member is extended at the current position of the flying object, and the processing unit sets the extended position of the support member. If the obstacle is not present, extend the support member
The aircraft according to any one of claims 5 to 8.
前記飛行体の制御を指示する制御装置から、前記支持部材の伸長を指示するための伸長指示情報を取得し、
前記伸長指示情報に基づいて、前記支持部材を伸長させる、
請求項9に記載の飛行体。 The processing unit is
Obtaining extension instruction information for instructing extension of the support member from a control device instructing control of the flying object;
Extending the support member based on the extension instruction information;
The aircraft of claim 9.
請求項5〜10のいずれか1項に記載の飛行体。 When the processing unit does not satisfy a sensor condition indicating whether or not the biological information can be detected by the sensor unit when the support member is extended, the processing unit moves the flying object avoiding an obstacle.
The aircraft according to any one of claims 5 to 10.
前記飛行体の制御を指示する制御装置から、前記飛行体の移動を指示するための移動指示情報を取得し、
前記移動指示情報に基づいて、前記障害物を避けて前記飛行体を移動させる、
請求項11に記載の飛行体。 The processing unit is
The movement instruction information for instructing the movement of the flight body is acquired from the control device instructing the control of the flight body,
Moving the flying object avoiding the obstacle based on the movement instruction information;
The aircraft according to claim 11.
請求項5〜12のいずれか1項に記載の飛行体。 The processing unit satisfies a sensor condition indicating whether the biological information can be detected by the sensor unit when the support member is extended at the current position of the flying object, and the processing unit sets the extended position of the support member. Controlling the gimbal to change the orientation of the support member if an obstacle is present,
The aircraft according to any one of claims 5 to 12.
前記向き指示情報に基づいて、前記支持部材の向きを変更する、
請求項13に記載の飛行体。 The processing unit acquires direction instruction information for instructing the direction of the support member from a control device that instructs control of the aircraft.
Changing the direction of the support member based on the direction instruction information;
The aircraft of claim 13.
前記処理部は、前記飛行体の制御を指示する制御装置から、前記センサ部に含まれる少なくとも1つのセンサをオン又はオフするためのオンオフ指示情報を取得し、
前記オンオフ指示情報に基づいて、前記センサ部に含まれる少なくとも1つのセンサをオン又はオフする、
請求項5〜14のいずれか1項に記載の飛行体。 The sensor unit includes a plurality of sensors,
The processing unit acquires on / off instruction information for turning on or off at least one sensor included in the sensor unit from a control device that instructs control of the flying object.
At least one sensor included in the sensor unit is turned on or off based on the on / off instruction information.
The aircraft according to any one of claims 5 to 14.
請求項9、11、13のいずれか1項に記載の飛行体。 The sensor condition includes the length from one end of the support member to the first point of the support member corresponding to the end of the rotary wing, the length from the one end to the other end of the support member, and the survey target Determined based on the length from the other end of the support member inserted into the existing survey space to the second point,
The airframe according to any one of claims 9, 11 and 13.
前記飛行体は、
生体に関する生体情報を検出するセンサ部と、
前記センサ部を支持し、伸縮自在な支持部材と、
前記支持部材を回転可能に支持するジンバルと、
前記生体の探索に関する処理を行う処理部と、
画像を撮像する撮像部と、
を備え、
前記処理部は、
前記撮像部に調査領域の画像を撮像させ、
前記調査領域に向かって前記飛行体を接近させるよう、前記飛行体の飛行を制御し、
前記調査領域に存在する調査対象に向けて前記支持部材を伸長させ、
伸長された前記支持部材に支持された前記ジンバルに支持された前記センサ部に、前記生体情報を検出させ、
前記生体情報を送信し、
前記表示装置は、
前記生体情報を受信し、
前記生体情報に基づいて表示する、
生体探索システム。 A living body search system comprising an aircraft and a display device for searching a living body, comprising:
The aircraft is
A sensor unit for detecting biological information on a living body;
An expandable support member that supports the sensor unit;
A gimbal rotatably supporting the support member;
A processing unit that performs processing related to searching for the living body;
An imaging unit that captures an image;
Equipped with
The processing unit is
Causing the imaging unit to capture an image of a survey area;
Controlling the flight of the aircraft to bring the aircraft closer to the survey area;
Elongating the support member towards the investigation object present in the investigation area,
Causing the sensor unit supported by the gimbal supported by the extended support member to detect the biological information;
Send the biological information,
The display device is
Receiving the biological information,
Display based on the biological information
Biometric search system.
前記飛行体の前記処理部は、前記距離が所定距離未満である場合、前記距離に基づく第1の通知情報を表示装置へ送信し、
前記表示装置は、
前記第1の通知情報を受信し、
前記第1の通知情報に基づいて表示する、
請求項17に記載の生体探索システム。 The sensor unit of the flying object detects a distance to an obstacle present around the living body,
If the distance is less than a predetermined distance, the processing unit of the aircraft transmits first notification information based on the distance to a display device.
The display device is
Receiving the first notification information;
Display based on the first notification information,
The biometric search system according to claim 17.
前記表示装置は、
前記第2の通知情報を受信し、
前記第2の通知情報に基づいて表示する、
請求項17又は18に記載の生体探索システム。 When the processing unit of the flight object satisfies a sensor condition indicating whether the detection of the biological information is possible by the sensor unit when the support member is extended at the current position of the flight object, the sensor Sending to the display device second notification information based on satisfying the condition;
The display device is
Receiving the second notification information;
Display based on the second notification information,
The biometric system according to claim 17 or 18.
画像を撮像する撮像部に調査領域の画像を撮像させるステップと、
前記調査領域に向かって前記飛行体を接近させるよう、前記飛行体の飛行を制御するステップと、
前記調査領域に存在する調査対象に向けて前記支持部材を伸長させるステップと、
伸長された前記支持部材に支持された前記ジンバルに支持された前記センサ部に、前記生体情報を検出させるステップと、
を有する生体探索方法。 A living body searching method for a flying object, comprising: a sensor unit for detecting living body information related to a living body; a support member which supports the sensor unit and which is stretchable; and a gimbal which can rotatably support the support member; There,
Causing an imaging unit for capturing an image to capture an image of a survey area;
Controlling the flight of the aircraft to bring the aircraft closer towards the investigation area;
Elongating the support member towards a survey object present in the survey area;
Causing the sensor unit supported by the gimbal supported by the extended support member to detect the biological information;
A living body search method having:
前記飛行体の位置情報をサーバ装置に送信するステップと、を更に含む、
請求項20に記載の生体探索方法。 Acquiring position information of the flying object when information indicating the presence of the living body is detected as the biological information;
Transmitting the position information of the aircraft to a server device.
21. The living body search method according to claim 20.
前記生体情報として前記生体が存在する旨の情報が検出された場合、前記収容部から前記発信機を投下させるステップ、を更に含む、
請求項21に記載の生体探索方法。 The flying object includes a housing portion for housing a transmitter for transmitting radio waves,
And dropping the transmitter from the storage unit when information indicating the presence of the living body is detected as the biological information.
22. The living body search method according to claim 21.
前記発信機を投下させるステップは、前記投下指示情報に基づいて、前記発信機を投下させるステップを含む、
請求項22に記載の生体探索方法。 Obtaining from the control device instructing control of the flying object, dropping instruction information for dropping the transmitter;
The step of dropping the transmitter includes the step of dropping the transmitter based on the drop instruction information.
The biometric search method according to claim 22.
請求項20〜23のいずれか1項に記載の生体探索方法。 The step of extending the support member satisfies a sensor condition indicating whether the biological information can be detected by the sensor unit when the support member is extended at the current position of the flying object, the support member Extending the support member if there is no obstruction in the extended position of
The biological search method according to any one of claims 20 to 23.
前記支持部材を伸長させるステップは、前記伸長指示情報に基づいて、前記支持部材を伸長させる、
請求項24に記載の生体探索方法。 Obtaining extension instruction information for instructing extension of the support member from a control device instructing control of the aircraft;
The step of extending the support member extends the support member based on the extension instruction information.
The living body search method according to claim 24.
請求項20〜25のいずれか1項に記載の生体探索方法。 The step of controlling the flight of the flying object avoids an obstacle when the sensor condition indicating whether the biological information can be detected by the sensor unit is not satisfied when the support member is extended, the flight is performed without the obstacle. Including moving the body,
The living body search method according to any one of claims 20 to 25.
前記飛行体の飛行を制御するステップは、前記移動指示情報に基づいて、前記障害物を避けて前記飛行体を移動させるステップを含む、
請求項26に記載の生体探索方法。 Acquiring movement instruction information for instructing movement of the flight body from a control device instructing control of the flight body;
The step of controlling the flight of the flying object may include moving the flying object avoiding the obstacle based on the movement instruction information.
The living body search method according to claim 26.
請求項20〜27のいずれか1項に記載の生体探索方法。 At the current position of the flying object, when the support member is extended, a sensor condition indicating whether the biological information can be detected by the sensor unit is satisfied, and an obstacle is present at the extended position of the support member And controlling the gimbal to change the orientation of the support member.
The living body search method according to any one of claims 20 to 27.
前記支持部材の向きを変更するステップは、前記向き指示情報に基づいて、前記支持部材の向きを変更するステップを含む、
請求項28に記載の生体探索方法。 Obtaining direction indication information for instructing the direction of the support member from a control device instructing control of the aircraft;
The step of changing the direction of the support member includes the step of changing the direction of the support member based on the direction instruction information.
29. The living body search method according to claim 28.
前記飛行体の制御を指示する制御装置から、前記センサ部に含まれる少なくとも1つのセンサをオン又はオフするためのオンオフ指示情報を取得するステップと、
前記オンオフ指示情報に基づいて、前記センサ部に含まれる少なくとも1つのセンサをオン又はオフするステップと、を更に含む、
請求項20〜29のいずれか1項に記載の生体探索方法。 The sensor unit includes a plurality of sensors,
Acquiring on / off instruction information for turning on / off at least one sensor included in the sensor unit from a control device instructing control of the flying object;
Switching on or off at least one sensor included in the sensor unit based on the on / off instruction information;
The living body search method according to any one of claims 20 to 29.
請求項24、26、28のいずれか1項に記載の生体探索方法。 The sensor condition includes the length from one end of the support member to the first point of the support member corresponding to the end of the rotary wing, the length from the one end to the other end of the support member, and the survey target Determined based on the length from the other end of the support member inserted into the existing survey space to the second point,
29. The living body searching method according to any one of claims 24, 26, 28.
画像を撮像する撮像部に調査領域の画像を撮像させるステップと、
前記調査領域に向かって前記飛行体を接近させるよう、前記飛行体の飛行を制御するステップと、
前記調査領域に存在する調査対象に向けて前記支持部材を伸長させるステップと、
伸長された前記支持部材に支持された前記ジンバルに支持された前記センサ部に、前記生体情報を検出させるステップと、
を実行させるためのプログラム。 A flying object for detecting a living body, comprising: a sensor unit for detecting living body information on a living body; a support member which supports the sensor unit and which is stretchable; and a gimbal which can rotatably support the support member;
Causing an imaging unit for capturing an image to capture an image of a survey area;
Controlling the flight of the aircraft to bring the aircraft closer towards the investigation area;
Elongating the support member towards a survey object present in the survey area;
Causing the sensor unit supported by the gimbal supported by the extended support member to detect the biological information;
A program to run a program.
画像を撮像する撮像部に調査領域の画像を撮像させるステップと、
前記調査領域に向かって前記飛行体を接近させるよう、前記飛行体の飛行を制御するステップと、
前記調査領域に存在する調査対象に向けて前記支持部材を伸長させるステップと、
伸長された前記支持部材に支持された前記ジンバルに支持された前記センサ部に、前記生体情報を検出させるステップと、
を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。 A flying object for detecting a living body, comprising: a sensor unit for detecting living body information on a living body; a support member which supports the sensor unit and which is stretchable; and a gimbal which can rotatably support the support member;
Causing an imaging unit for capturing an image to capture an image of a survey area;
Controlling the flight of the aircraft to bring the aircraft closer towards the investigation area;
Elongating the support member towards a survey object present in the survey area;
Causing the sensor unit supported by the gimbal supported by the extended support member to detect the biological information;
A computer readable recording medium recording a program for executing the program.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017188022A JP6859241B2 (en) | 2017-09-28 | 2017-09-28 | Aircraft, biological search systems, biological search methods, programs, and recording media |
EP17927177.0A EP3689754A4 (en) | 2017-09-28 | 2017-12-15 | Flying body, living body detection system, living body detection method, program and recording medium |
PCT/CN2017/116603 WO2019061860A1 (en) | 2017-09-28 | 2017-12-15 | Flying body, living body detection system, living body detection method, program and recording medium |
CN201780064190.5A CN109843726B (en) | 2017-09-28 | 2017-12-15 | Flying object, biological detection system, biological detection method, program, and recording medium |
US16/726,618 US11531340B2 (en) | 2017-09-28 | 2019-12-24 | Flying body, living body detection system, living body detection method, program and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017188022A JP6859241B2 (en) | 2017-09-28 | 2017-09-28 | Aircraft, biological search systems, biological search methods, programs, and recording media |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019059452A true JP2019059452A (en) | 2019-04-18 |
JP6859241B2 JP6859241B2 (en) | 2021-04-14 |
Family
ID=65902132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017188022A Active JP6859241B2 (en) | 2017-09-28 | 2017-09-28 | Aircraft, biological search systems, biological search methods, programs, and recording media |
Country Status (5)
Country | Link |
---|---|
US (1) | US11531340B2 (en) |
EP (1) | EP3689754A4 (en) |
JP (1) | JP6859241B2 (en) |
CN (1) | CN109843726B (en) |
WO (1) | WO2019061860A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021058866A (en) * | 2019-10-09 | 2021-04-15 | ソフトバンク株式会社 | Injection device, program, system, and injection method |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021144260A (en) * | 2018-06-15 | 2021-09-24 | ソニーグループ株式会社 | Information processing device, information processing method, program, and information processing system |
EP3957561B1 (en) * | 2019-04-18 | 2023-07-19 | Panasonic Intellectual Property Management Co., Ltd. | Unmanned flight body, control method, and program |
CN109976370B (en) * | 2019-04-19 | 2022-09-30 | 深圳市道通智能航空技术股份有限公司 | Control method and device for vertical face surrounding flight, terminal and storage medium |
JP7302349B2 (en) * | 2019-07-23 | 2023-07-04 | 東洋製罐株式会社 | Unmanned Aerial Vehicles, Launch Methods and Programs |
JP2022100121A (en) * | 2020-12-23 | 2022-07-05 | トヨタ自動車株式会社 | Server, vehicle detection system and vehicle detection method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04349095A (en) * | 1991-05-28 | 1992-12-03 | Toshiba Corp | Working device for airplane |
JPH0871964A (en) * | 1994-09-09 | 1996-03-19 | Mitsubishi Heavy Ind Ltd | Rotating equipment capturing device |
JP2008150028A (en) * | 2006-09-21 | 2008-07-03 | Honeywell Internatl Inc | Unmanned sensor placement in cluttered terrain |
WO2017041302A1 (en) * | 2015-09-11 | 2017-03-16 | SZ DJI Technology Co., Ltd. | Stabilizing platform |
JP2017074821A (en) * | 2015-10-13 | 2017-04-20 | 独立行政法人国立高等専門学校機構 | Drowning rescue device |
JP2017077080A (en) * | 2015-10-14 | 2017-04-20 | 東京電力ホールディングス株式会社 | State detector and state detection program |
JP2017136914A (en) * | 2016-02-02 | 2017-08-10 | 株式会社プロドローン | Unmanned rotary wing machine |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101914893B (en) * | 2010-07-09 | 2011-07-27 | 重庆交通大学 | Bridge detection robot based on four-axle aircraft |
US9384668B2 (en) * | 2012-05-09 | 2016-07-05 | Singularity University | Transportation using network of unmanned aerial vehicles |
CN203444123U (en) * | 2013-08-05 | 2014-02-19 | 朱小炜 | Flight life detector |
US10132951B2 (en) * | 2013-10-22 | 2018-11-20 | Alan Haddy | Detection of buried assets using drone apparatus |
US11397258B2 (en) * | 2015-07-17 | 2022-07-26 | Origin Wireless, Inc. | Method, apparatus, and system for outdoor target tracking |
CN104477399B (en) * | 2014-11-26 | 2016-09-07 | 马鞍山市靓马航空科技有限公司 | A kind of many rotor wing unmanned aerial vehicles of night search and rescue |
CN204433078U (en) * | 2015-01-30 | 2015-07-01 | 深圳市大疆创新科技有限公司 | The Cloud Terrace and use the aircraft of this The Cloud Terrace |
KR101536574B1 (en) * | 2015-03-02 | 2015-07-14 | 건설표준시험원(주) | drone for checking structure |
US9944366B2 (en) * | 2015-05-19 | 2018-04-17 | Rujing Tang | Unmanned aerial vehicle system and methods for use |
US9984586B2 (en) * | 2015-11-22 | 2018-05-29 | Victor Popa-Simil | Method and device to improve the flying abilities of the airborne devices operator |
WO2017147188A1 (en) * | 2016-02-23 | 2017-08-31 | Culver Matthew | Systems and methods for unmanned aerial vehicles |
CN206141848U (en) * | 2016-10-09 | 2017-05-03 | 无锡飞天侠科技有限公司 | Unmanned aerial vehicle is monitored with plant diseases and insect pests to agricultural |
KR101715210B1 (en) * | 2016-11-01 | 2017-03-22 | 한국건설기술연구원 | Apparatus and method for detecting Buried Persons's position using unmanned moving unit |
CN106412525B (en) * | 2016-11-11 | 2023-04-07 | 湖南广远视通网络技术有限公司 | Warning lamp |
CN106741895A (en) * | 2016-12-28 | 2017-05-31 | 合肥工业大学 | The operating method of inspection unmanned plane violating the regulations and inspection unmanned plane violating the regulations |
CN107089319A (en) * | 2017-04-20 | 2017-08-25 | 中化舟山危化品应急救援基地有限公司 | Storage tank fire detection system |
CN107168358A (en) * | 2017-06-30 | 2017-09-15 | 马鞍山市赛迪智能科技有限公司 | A kind of three-dimensional modeling data acquisition method based on multi-angle oblique camera |
US20190057233A1 (en) * | 2017-08-15 | 2019-02-21 | Lawrence Livermore National Security, Llc | Detection and tracking system using tattoos |
-
2017
- 2017-09-28 JP JP2017188022A patent/JP6859241B2/en active Active
- 2017-12-15 EP EP17927177.0A patent/EP3689754A4/en not_active Withdrawn
- 2017-12-15 WO PCT/CN2017/116603 patent/WO2019061860A1/en unknown
- 2017-12-15 CN CN201780064190.5A patent/CN109843726B/en not_active Expired - Fee Related
-
2019
- 2019-12-24 US US16/726,618 patent/US11531340B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04349095A (en) * | 1991-05-28 | 1992-12-03 | Toshiba Corp | Working device for airplane |
JPH0871964A (en) * | 1994-09-09 | 1996-03-19 | Mitsubishi Heavy Ind Ltd | Rotating equipment capturing device |
JP2008150028A (en) * | 2006-09-21 | 2008-07-03 | Honeywell Internatl Inc | Unmanned sensor placement in cluttered terrain |
WO2017041302A1 (en) * | 2015-09-11 | 2017-03-16 | SZ DJI Technology Co., Ltd. | Stabilizing platform |
JP2017074821A (en) * | 2015-10-13 | 2017-04-20 | 独立行政法人国立高等専門学校機構 | Drowning rescue device |
JP2017077080A (en) * | 2015-10-14 | 2017-04-20 | 東京電力ホールディングス株式会社 | State detector and state detection program |
JP2017136914A (en) * | 2016-02-02 | 2017-08-10 | 株式会社プロドローン | Unmanned rotary wing machine |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021058866A (en) * | 2019-10-09 | 2021-04-15 | ソフトバンク株式会社 | Injection device, program, system, and injection method |
Also Published As
Publication number | Publication date |
---|---|
CN109843726B (en) | 2021-10-19 |
JP6859241B2 (en) | 2021-04-14 |
US11531340B2 (en) | 2022-12-20 |
EP3689754A4 (en) | 2021-07-07 |
WO2019061860A1 (en) | 2019-04-04 |
CN109843726A (en) | 2019-06-04 |
US20200150662A1 (en) | 2020-05-14 |
EP3689754A1 (en) | 2020-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6859241B2 (en) | Aircraft, biological search systems, biological search methods, programs, and recording media | |
US11794890B2 (en) | Unmanned aerial vehicle inspection system | |
US11550315B2 (en) | Unmanned aerial vehicle inspection system | |
US10354407B2 (en) | Camera for locating hidden objects | |
US9513635B1 (en) | Unmanned aerial vehicle inspection system | |
KR101690502B1 (en) | System for tracking using drone | |
EP3064899A1 (en) | Tracking in an indoor environment | |
WO2019041633A1 (en) | Communication relay method, relay aerial vehicle, program, and recording medium | |
US20200064133A1 (en) | Information processing device, aerial photography route generation method, aerial photography route generation system, program, and storage medium | |
JP2006027331A (en) | Method for collecting aerial image information by utilizing unmanned flying object | |
JPWO2018193574A1 (en) | Flight path generation method, information processing apparatus, flight path generation system, program, and recording medium | |
JP2017117018A (en) | System and method for setting/registering flight route for small unmanned aircraft | |
JP2019053501A (en) | Flying device, management device, flight management method and program | |
JP6460524B2 (en) | NAVIGATION SYSTEM, NAVIGATION DEVICE, FLYER, AND NAVIGATION CONTROL METHOD | |
JP7040827B1 (en) | Search support system and rescue support program | |
JP2018005878A (en) | Movable body | |
KR102474684B1 (en) | Apparatus For Disaster Relief | |
KR102503849B1 (en) | Mobile Base Station and System for Providing Services Using Mobile Base Station | |
EP3967599A1 (en) | Information processing device, information processing method, program, and information processing system | |
KR20150078576A (en) | System and Method for Taking a Picture with Partner Have a Same Place but Different Time | |
JP7317684B2 (en) | Mobile object, information processing device, and imaging system | |
JP2023076166A (en) | Search device, autonomous search system, monitoring device, search method, and program | |
JP2022036109A (en) | Management apparatus | |
WO2017221867A1 (en) | Moving device, program, and computer-readable recording medium | |
JP2024034690A (en) | Detection system, detection method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210325 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6859241 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |