JP2023122997A - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP2023122997A
JP2023122997A JP2022026796A JP2022026796A JP2023122997A JP 2023122997 A JP2023122997 A JP 2023122997A JP 2022026796 A JP2022026796 A JP 2022026796A JP 2022026796 A JP2022026796 A JP 2022026796A JP 2023122997 A JP2023122997 A JP 2023122997A
Authority
JP
Japan
Prior art keywords
landing position
aerial vehicle
unmanned aerial
information processing
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022026796A
Other languages
Japanese (ja)
Inventor
弘樹 佐野
Hiroki Sano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2022026796A priority Critical patent/JP2023122997A/en
Publication of JP2023122997A publication Critical patent/JP2023122997A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a technology which enables more accurate determination of a position at which an unmanned aircraft can safely land.SOLUTION: Provided is an information processing device which includes: a map generation part for detecting an object position based on the distance between an unmanned aircraft and the object, and the orientation of the object relative to the unmanned aircraft, which are detected on the basis of the sensor data measured by a sensor mounted on the unmanned aircraft, and generating an object map based on the object position; and a landing position determination part for determining a landing position of the unmanned aircraft based on the object map.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関するものである。 The present invention relates to an information processing device, an information processing method, and a program.

近年、無人航空機の着陸位置を決定する技術が知られている。例えば、着陸候補となる範囲を複数の領域に分割し、その範囲がカメラによって撮像されて得られた画像から、ディープラーニングにより領域ごとに物体の有無を識別し、物体がないと判断された領域を安全な着陸位置と判断する技術が開示されている(例えば、特許文献1参照)。 Techniques for determining the landing position of an unmanned aerial vehicle have been known in recent years. For example, a candidate landing area is divided into multiple areas, and the area is captured by a camera. Based on the images obtained, deep learning is used to identify the presence or absence of objects in each area, and the areas where it is determined that there are no objects. is a safe landing position (see, for example, Patent Document 1).

特開2019-196150号公報JP 2019-196150 A

しかし、無人航空機が安全に着地可能な位置をより精度良く決定することを可能とする技術が提供されることが望まれる。 However, it is desirable to provide a technique that enables the unmanned aerial vehicle to more accurately determine a safe landing position.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、無人航空機が安全に着地可能な位置をより精度良く決定する技術を提供することにある。 Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for more accurately determining a position where an unmanned aerial vehicle can land safely.

上記問題を解決するために、本発明のある観点によれば、無人航空機に搭載されたセンサによって計測されたセンサデータに基づいて検出された、前記無人航空機と物体との距離、および、前記無人航空機を基準とした前記物体の方向に基づいて、物体位置を検出し、前記物体位置に基づいて物体マップを生成するマップ生成部と、前記物体マップに基づいて、前記無人航空機の着陸位置を決定する着陸位置決定部と、を備える、情報処理装置が提供される。 In order to solve the above problems, according to one aspect of the present invention, the distance between the unmanned aerial vehicle and an object detected based on sensor data measured by a sensor mounted on the unmanned aerial vehicle, and the unmanned aerial vehicle a map generation unit that detects an object position based on the direction of the object with respect to the aircraft and generates an object map based on the object position; and determines a landing position of the unmanned aerial vehicle based on the object map. An information processing device is provided, comprising: a landing position determination unit that

前記物体マップは、複数の領域に分割されており、前記着陸位置決定部は、前記物体マップに基づいて領域ごとに前記物体が検出された検出領域であるか否かを判定し、前記物体が検出されない非検出領域を前記着陸位置として決定してもよい。 The object map is divided into a plurality of areas, and the landing position determination unit determines whether each area is a detection area in which the object is detected based on the object map, A non-detection area that is not detected may be determined as the landing position.

前記着陸位置決定部は、前記非検出領域が複数ある場合に、複数の前記非検出領域のうち、前記検出領域から最も遠い領域を、前記着陸位置として決定してもよい。 When there are a plurality of non-detection areas, the landing position determining section may determine an area farthest from the detection area among the plurality of non-detection areas as the landing position.

前記着陸位置決定部は、前記センサデータに基づいて検出された前記物体の速度に基づいて、前記物体が移動しているか否かを判定し、前記物体が移動している場合に、前記物体が検出された前記検出領域から最も遠い領域を、前記着陸位置として決定してもよい。 The landing position determination unit determines whether or not the object is moving based on the speed of the object detected based on the sensor data, and determines whether the object is moving if the object is moving. A region farthest from the detected detection region may be determined as the landing position.

前記着陸位置決定部は、前記センサデータに基づいて検出された前記物体の速度と前記検出領域とに基づいて、前記物体が通過する領域を推測通過領域として推測し、複数の前記非検出領域のうち、前記推測通過領域とは最も遠い領域を、前記着陸位置として決定してもよい。 The landing position determination unit estimates an area through which the object passes as an estimated passage area based on the speed of the object detected based on the sensor data and the detection area, and determines the plurality of non-detection areas. Among them, the farthest area from the estimated passage area may be determined as the landing position.

前記複数の領域それぞれは、複数のサブ領域に分割されており、前記着陸位置決定部は、前記複数の領域のいずれにも物体が検出された場合に、前記複数の領域から選択された選択領域に物体が検出されたかをサブ領域ごとに判定し、前記物体が検出されないサブ領域を前記着陸位置として決定してもよい。 Each of the plurality of areas is divided into a plurality of sub-areas, and the landing position determining unit selects a selected area from the plurality of areas when an object is detected in any of the plurality of areas. It may be determined whether an object is detected in each sub-region, and the sub-region in which the object is not detected may be determined as the landing position.

前記着陸位置決定部は、領域ごとの物体の数、物体のサイズまたは物体の位置に基づいて前記選択領域を選択してもよい。 The landing position determiner may select the selected regions based on the number of objects per region, the size of objects, or the position of objects.

前記マップ生成部は、位置検出センサによって検出された前記無人航空機の緯度および経度と前記距離と前記方向とに基づいて、前記物体位置として前記物体の緯度および経度を算出してもよい。 The map generator may calculate the latitude and longitude of the object as the object position based on the latitude and longitude of the unmanned aerial vehicle, the distance, and the direction detected by the position detection sensor.

前記マップ生成部は、複数の領域に分割された設定範囲を生成し、前記設定範囲の前記物体位置に対応する位置に、前記物体が検出されたことをマッピングし、マッピング後の設定範囲を前記物体マップとして生成してもよい。 The map generation unit generates a set range divided into a plurality of areas, maps detection of the object to a position corresponding to the object position in the set range, and converts the set range after mapping to the position corresponding to the object position. It may be generated as an object map.

前記マップ生成部は、前記無人航空機の緯度および経度に基づく緯度範囲と経度範囲との組み合わせを前記設定範囲として生成してもよい。 The map generator may generate a combination of a latitude range and a longitude range based on the latitude and longitude of the unmanned aerial vehicle as the set range.

前記マップ生成部は、前記無人航空機の緯度および経度に基づいて、緯度範囲と経度範囲との組み合わせによってそれぞれが構成される複数の候補範囲から、物体の数、物体のサイズまたは物体の位置に基づいて前記設定範囲を選択してもよい。 Based on the latitude and longitude of the unmanned aerial vehicle, the map generation unit selects from a plurality of candidate ranges each configured by a combination of a latitude range and a longitude range, based on the number of objects, the size of the objects, or the position of the objects. to select the setting range.

また、本発明のある観点によれば、無人航空機に搭載されたセンサによって計測されたセンサデータに基づいて検出された、前記無人航空機と物体との距離、および、前記無人航空機を基準とした前記物体の方向に基づいて、物体位置を検出し、前記物体位置に基づいて物体マップを生成することと、前記物体マップに基づいて、前記無人航空機の着陸位置を決定することと、を備える、情報処理方法が提供される。 Further, according to an aspect of the present invention, the distance between the unmanned aerial vehicle and an object detected based on sensor data measured by a sensor mounted on the unmanned aerial vehicle, and the detecting an object position based on an object orientation; generating an object map based on the object position; and determining a landing position of the unmanned aerial vehicle based on the object map. A processing method is provided.

また、本発明のある観点によれば、コンピュータを、無人航空機に搭載されたセンサによって計測されたセンサデータに基づいて検出された、前記無人航空機と物体との距離、および、前記無人航空機を基準とした前記物体の方向に基づいて、物体位置を検出し、前記物体位置に基づいて物体マップを生成するマップ生成部と、前記物体マップに基づいて、前記無人航空機の着陸位置を決定する着陸位置決定部と、を備える情報処理装置として機能させるプログラムが提供される。 Further, according to an aspect of the present invention, a computer detects a distance between the unmanned aerial vehicle and an object based on sensor data measured by a sensor mounted on the unmanned aerial vehicle, and a map generation unit that detects an object position based on the direction of the object and generates an object map based on the object position; and a landing position that determines the landing position of the unmanned aerial vehicle based on the object map A program for functioning as an information processing apparatus including a determining unit is provided.

以上説明したように本発明によれば、無人航空機が安全に着地可能な位置をより精度良く決定することが可能である。 As described above, according to the present invention, it is possible to more accurately determine a safe landing position for an unmanned aerial vehicle.

FMCWレーダの回路構成を示す図である。It is a figure which shows the circuit structure of FMCW radar. 本発明の実施形態に係る情報処理装置の機能構成例を示すブロック図である。1 is a block diagram showing a functional configuration example of an information processing apparatus according to an embodiment of the present invention; FIG. 複数の領域に分割された設定範囲の例を示す図である。FIG. 5 is a diagram showing an example of a setting range divided into multiple areas; 領域に障害物が存在する状況の例を示す図である。FIG. 10 is a diagram showing an example of a situation in which an obstacle exists in an area; 一次元FFT処理部による距離FFTによって得られる周波数スペクトルの例を示す図である。It is a figure which shows the example of the frequency spectrum obtained by distance FFT by a one-dimensional FFT processing part. 障害物が検出されない非検出領域が着陸位置として決定される例について説明するための図である。FIG. 10 is a diagram for explaining an example in which a non-detection area where no obstacle is detected is determined as the landing position; 移動する障害物が検出された場合における着陸位置の決定例について説明するための図である。FIG. 5 is a diagram for explaining an example of determining a landing position when a moving obstacle is detected; 全領域に障害物が検出された場合について説明するための図である。FIG. 10 is a diagram for explaining a case where an obstacle is detected in the entire area;

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.

また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。 In addition, in this specification and drawings, a plurality of components having substantially the same functional configuration are distinguished by attaching different numerals after the same reference numerals. In addition, similar components in different embodiments are distinguished from each other by using the same reference numerals followed by different alphabets. However, when there is no particular need to distinguish between a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are used.

[概要の説明]
続いて、本発明の実施形態の概要を説明する。
[Description of overview]
Next, an outline of an embodiment of the present invention will be described.

近年、無人航空機の着陸位置を決定する技術が知られている。例えば、着陸候補となる範囲を複数の領域に分割し、その範囲がカメラによって撮像されて得られた画像から、ディープラーニングにより領域ごとに物体の有無を識別し、物体がないと判断された領域を安全な着陸位置と判断する技術が開示されている。 Techniques for determining the landing position of an unmanned aerial vehicle have been known in recent years. For example, a candidate landing area is divided into multiple areas, and the area is captured by a camera. Based on the images obtained, deep learning is used to identify the presence or absence of objects in each area, and the areas where it is determined that there are no objects. is disclosed as a safe landing position.

しかし、ディープラーニングによる識別では、教師データの質によっては、教師データにない物体が識別対象の画像に含まれる場合などがあり得る。かかる場合に、安全に着陸可能な位置を精度良く決定することができない可能性がある。そこで、本発明の実施形態においては、無人航空機が安全に着地可能な位置をより精度良く決定する技術について主に説明する。 However, in identification by deep learning, depending on the quality of the training data, there may be cases where an object not included in the training data is included in the image to be identified. In such a case, it may not be possible to accurately determine a safe landing position. Therefore, in the embodiments of the present invention, a technique for more accurately determining a safe landing position for an unmanned aerial vehicle will be mainly described.

さらに、ディープラーニングによる識別では、大量の教師データを用いた学習が必要となるため、教師データを収集するためのコストが必要となってしまう。そこで、本発明の実施形態においては、大量の教師データを収集するためのコストを掛けずに無人航空機が着地可能な位置を決定する技術についても説明する。 Furthermore, since identification by deep learning requires learning using a large amount of teacher data, the cost of collecting the teacher data is required. Therefore, in the embodiment of the present invention, a technique for determining a position where an unmanned aerial vehicle can land without incurring the cost of collecting a large amount of training data will also be described.

また、物体が検出されない領域を着陸位置として決定するだけでは、複数の領域のいずれにも物体が存在すると判定された場合に、無人航空機の着陸位置を決定することができなくなってしまう。そこで、本発明の実施形態においては、無人航空機の着陸位置が決定されない可能性を低減する技術についても説明する。 In addition, it is not possible to determine the landing position of the unmanned aerial vehicle simply by determining the area where no object is detected as the landing position when it is determined that the object exists in any of the plurality of areas. Therefore, in the embodiments of the present invention, a technique for reducing the possibility that the landing position of the unmanned aerial vehicle is not determined will also be described.

以上、本発明の実施形態の概要を説明した。 The outline of the embodiment of the present invention has been described above.

[実施形態の詳細]
続いて、本発明の実施形態の詳細について説明する。
[Details of embodiment]
Next, details of embodiments of the present invention will be described.

(構成の説明)
本発明の実施形態に係る技術では、無人航空機にセンサが搭載される。そして、センサによって計測されたセンサデータに基づいて、無人航空機と物体との距離、無人航空機を基準とした物体の方向(以下、「角度」とも言う。)および物体の速度が検出される。そして、検出されたこれらの情報が無人航空機の着陸位置の決定に用いられる。
(Description of configuration)
In the technology according to the embodiment of the present invention, a sensor is mounted on an unmanned aerial vehicle. Based on the sensor data measured by the sensor, the distance between the unmanned aerial vehicle and the object, the direction of the object relative to the unmanned aerial vehicle (hereinafter also referred to as "angle"), and the speed of the object are detected. These pieces of detected information are then used to determine the landing position of the unmanned aerial vehicle.

以下の説明においては、「物体」が無人航空機の着陸の障害となり得るため、「物体」を「障害物」とも称する。また、以下の説明においては、センサの例として、FMCW(Frequency Modulated Continuous Wave)レーダが用いられる場合について説明する。しかし、後の変形例においても説明するように、無人航空機に搭載されるセンサは、FMCWレーダに限定されない。また、以下の説明では、「無人航空機」を「ドローン」とも称する。 In the following description, the "object" is also referred to as an "obstacle" because the "object" can become an obstacle to the landing of the unmanned aerial vehicle. Also, in the following description, a case where an FMCW (Frequency Modulated Continuous Wave) radar is used as an example of a sensor will be described. However, as will be explained later in the modified example, the sensors mounted on the unmanned aerial vehicle are not limited to FMCW radars. Also, in the following description, "unmanned aerial vehicle" is also referred to as "drone".

(FMCWレーダの回路構成)
図1は、FMCWレーダの回路構成を示す図である。図1を参照しながら、FMCWレーダの回路構成例について説明する。図1に示されるように、FMCWレーダは、シンセサイザ11と、送信アンテナ12と、受信アンテナ13と、ミキサ14とを備える。また、図1には、障害物B1が示されている。
(Circuit configuration of FMCW radar)
FIG. 1 is a diagram showing the circuit configuration of an FMCW radar. A circuit configuration example of the FMCW radar will be described with reference to FIG. As shown in FIG. 1, the FMCW radar comprises a synthesizer 11, a transmitting antenna 12, a receiving antenna 13 and a mixer 14. FIG. 1 also shows an obstacle B1.

シンセサイザ11は、信号を生成する。シンセサイザ11は、送信アンテナ12と接続されており、生成した信号を送信アンテナ12に出力する。送信アンテナ12は、シンセサイザ11によって生成された信号を送信する。受信アンテナ13は、送信アンテナ12によって送信されて障害物B1において反射された信号を受信する。 A synthesizer 11 generates a signal. The synthesizer 11 is connected to the transmitting antenna 12 and outputs the generated signal to the transmitting antenna 12 . A transmitting antenna 12 transmits the signal generated by the synthesizer 11 . The receiving antenna 13 receives the signal transmitted by the transmitting antenna 12 and reflected by the obstacle B1.

ミキサ14は、送信アンテナ12および受信アンテナ13それぞれと接続されており、ミキサ14には、送信アンテナ12によって送信された信号と、受信アンテナ13によって受信された信号とが入力される。ミキサ14は、送信アンテナ12によって送信された信号と、受信アンテナ13によって受信された信号とに基づいて、IF(Intermediate Frequency)信号を生成する。ミキサ14は、生成したIF信号を情報処理装置1(図2)に出力する。 Mixer 14 is connected to each of transmitting antenna 12 and receiving antenna 13 , and signals transmitted by transmitting antenna 12 and signals received by receiving antenna 13 are input to mixer 14 . Mixer 14 generates an IF (Intermediate Frequency) signal based on the signal transmitted by transmitting antenna 12 and the signal received by receiving antenna 13 . Mixer 14 outputs the generated IF signal to information processing apparatus 1 (FIG. 2).

以上、FMCWレーダの回路構成例について説明した。 The circuit configuration example of the FMCW radar has been described above.

(情報処理装置の機能構成例)
図2は、本発明の実施形態に係る情報処理装置1の機能構成例を示すブロック図である。図2を参照しながら、情報処理装置1の機能構成例について説明する。情報処理装置1は、FMCWレーダによって生成されたIF信号に対して処理を行う。
(Example of functional configuration of information processing device)
FIG. 2 is a block diagram showing a functional configuration example of the information processing device 1 according to the embodiment of the present invention. A functional configuration example of the information processing apparatus 1 will be described with reference to FIG. The information processing device 1 processes an IF signal generated by the FMCW radar.

なお、本発明の実施形態では、FMCWレーダと同様に、情報処理装置1もドローンに搭載される場合を主に想定する。しかし、情報処理装置1は、必ずしもドローンに搭載されなくてもよい。例えば、情報処理装置1は、ドローンとは離れた箇所に設けられていてもよい。かかる場合には、FMCWレーダと情報処理装置1とは、無線信号により互いに通信可能であってもよい。 It should be noted that, in the embodiment of the present invention, it is mainly assumed that the information processing device 1 is also mounted on a drone like the FMCW radar. However, the information processing device 1 does not necessarily have to be mounted on a drone. For example, the information processing device 1 may be provided at a location away from the drone. In such a case, the FMCW radar and the information processing device 1 may be able to communicate with each other through radio signals.

情報処理装置1は、CPU(Central Processing Unit)などの演算装置(プロセッサ)を含み、ROM(Read Only Memory)により記憶されているプログラムが演算装置によりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、これらのブロックは、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。 The information processing apparatus 1 includes an arithmetic unit (processor) such as a CPU (Central Processing Unit). Functionality can be realized. At this time, a computer-readable recording medium recording the program may also be provided. Alternatively, these blocks may be composed of dedicated hardware, or may be composed of a combination of multiple pieces of hardware.

演算装置による演算に必要なデータは、メモリによって適宜記憶される。図2に示すように、情報処理装置1は、事前処理部15と、一次元FFT(Fast Fourier Transform)処理部16と、距離検出部17と、二次元FFT処理部18と、速度検出部19と、三次元FFT処理部20と、角度検出部21と、障害物マップ生成部22(マップ生成部)と、着陸位置決定部23とを備える。 Data required for calculation by the calculation device is appropriately stored in the memory. As shown in FIG. 2, the information processing apparatus 1 includes a preprocessing unit 15, a one-dimensional FFT (Fast Fourier Transform) processing unit 16, a distance detection unit 17, a two-dimensional FFT processing unit 18, and a speed detection unit 19. , a three-dimensional FFT processor 20 , an angle detector 21 , an obstacle map generator 22 (map generator), and a landing position determiner 23 .

FMCWレーダによって生成されたIF信号は、事前処理部15に入力される。事前処理部15は、一次元FFT処理部16に接続されている。一次元FFT処理部16は、距離検出部17および二次元FFT処理部18それぞれに接続されている。二次元FFT処理部18は、速度検出部19および三次元FFT処理部20それぞれに接続されている。三次元FFT処理部20は、角度検出部21に接続されている。 An IF signal generated by the FMCW radar is input to the preprocessing section 15 . The preprocessing section 15 is connected to the one-dimensional FFT processing section 16 . The one-dimensional FFT processing section 16 is connected to the distance detection section 17 and the two-dimensional FFT processing section 18 respectively. The two-dimensional FFT processing section 18 is connected to each of the velocity detection section 19 and the three-dimensional FFT processing section 20 . The three-dimensional FFT processing section 20 is connected to the angle detection section 21 .

距離検出部17は、障害物マップ生成部22に接続されている。角度検出部21は、障害物マップ生成部22に接続されている。速度検出部19は、着陸位置決定部23に接続されている。障害物マップ生成部22は、着陸位置決定部23に接続されている。着陸位置決定部23には、速度検出部19および障害物マップ生成部22それぞれから出力された信号が入力される。 The distance detector 17 is connected to the obstacle map generator 22 . The angle detection section 21 is connected to the obstacle map generation section 22 . The speed detection section 19 is connected to the landing position determination section 23 . The obstacle map generation section 22 is connected to the landing position determination section 23 . Signals output from the speed detection unit 19 and the obstacle map generation unit 22 are input to the landing position determination unit 23 .

一例として、着陸位置決定部23は、速度検出部19および障害物マップ生成部22それぞれから出力された信号に基づいて、ドローンの着陸位置を決定する。ドローンは、着陸位置決定部23によって決定された着陸位置に自身が着陸するように、モータなどを制御する。なお、後にも説明するように、一例として、着陸位置は、緯度および経度の組み合わせによって表現され得る。 As an example, the landing position determination unit 23 determines the landing position of the drone based on signals output from the speed detection unit 19 and the obstacle map generation unit 22, respectively. The drone controls its motors and the like so that it lands at the landing position determined by the landing position determination unit 23 . As will be explained later, for example, the landing position can be represented by a combination of latitude and longitude.

以上、FMCWレーダの回路構成例について説明した。 The circuit configuration example of the FMCW radar has been described above.

(動作の説明)
続いて、本発明の実施形態に係るドローンの動作例について説明する。まず、ドローンは、複数の領域に分割された設定範囲を生成する。より詳細に、ドローンは、緯度範囲と経度範囲との組み合わせを設定範囲として生成する。ここでは、設定範囲が、あらかじめ決められた緯度範囲と経度範囲との組み合わせである場合を主に想定する。しかし、後の変形例においても説明するように、設定範囲は、ドローンの緯度および経度に基づいて生成されてもよい。
(Description of operation)
Next, an operation example of the drone according to the embodiment of the present invention will be described. First, the drone generates a set range divided into multiple regions. More specifically, the drone generates a combination of latitude range and longitude range as the set range. Here, it is mainly assumed that the set range is a combination of a predetermined latitude range and longitude range. However, as will also be explained in later variations, the set range may be generated based on the latitude and longitude of the drone.

図3は、複数の領域に分割された設定範囲の例を示す図である。図3を参照すると、ドローンD1が示されている。また、図3を参照すると、複数の領域(すなわち、領域R1~R9)に分割された設定範囲H1が示されている。領域R1~R9それぞれは、ドローンD1の着陸位置として決定される候補に該当する。典型的には、ドローンD1の着陸位置は、地面E1であるため、設定範囲H1は、地面E1に対応する位置に生成される(すなわち、設定範囲H1の高さはゼロである)。 FIG. 3 is a diagram showing an example of a setting range divided into a plurality of areas. Referring to FIG. 3, drone D1 is shown. Also, referring to FIG. 3, a setting range H1 divided into a plurality of regions (ie, regions R1 to R9) is shown. Each of the regions R1 to R9 corresponds to a candidate determined as the landing position of the drone D1. Typically, the landing position of the drone D1 is the ground E1, so the set range H1 is generated at a position corresponding to the ground E1 (that is, the height of the set range H1 is zero).

また、設定範囲H1は、緯度範囲と経度範囲との組み合わせによって生成される。図3に示された例では、設定範囲H1が縦3領域と横3領域からなる合計9領域に分割されているが、設定範囲H1がどのように複数の領域に分割されるか(例えば、設定範囲H1が分割される方向、分割される数など)は限定されない。また、領域R1~R9のサイズおよび形状は同じでなくてもよい。 Also, the setting range H1 is generated by combining the latitude range and the longitude range. In the example shown in FIG. 3, the setting range H1 is divided into a total of 9 areas consisting of 3 vertical areas and 3 horizontal areas. The direction in which the setting range H1 is divided, the number of divisions, etc.) are not limited. Also, the sizes and shapes of the regions R1 to R9 may not be the same.

このように設定範囲H1が生成されている状態において、ドローンD1が、領域R1~R9のいずれかに着陸する場合を想定する。かかる場合に、ドローンD1は、設定範囲H1のどの位置に障害物が検出されるかを判定し、判定結果に応じて、設定範囲H1のどの位置に着陸するのが安全であるかを決定する。 Assume that the drone D1 lands in one of the regions R1 to R9 in the state where the set range H1 is generated in this way. In such a case, the drone D1 determines at which position in the set range H1 the obstacle is detected, and depending on the determination result, determines at which position in the set range H1 it is safe to land. .

図4は、領域R5に障害物が存在する状況の例を示す図である。図4を参照すると、領域R5に障害物R11および障害物R12が存在している。かかる場合に、ドローンD1は、FMCWレーダ(図1)を利用して、領域R5に障害物B11および障害物B12が存在することを検出し得る。 FIG. 4 is a diagram showing an example of a situation in which an obstacle exists in region R5. Referring to FIG. 4, an obstacle R11 and an obstacle R12 are present in the region R5. In such a case, the drone D1 can detect the presence of the obstacle B11 and the obstacle B12 in the region R5 using the FMCW radar (FIG. 1).

まず、FMCWレーダ(図1)の動作について説明する。シンセサイザ11は、チャープ信号と呼ばれる時間的に周波数が変化する信号を生成する。そして、送信アンテナ12は、チャープ信号を出射すると、チャープ信号が物体において反射される。受信アンテナ13は、物体からの反射波を受信する。送信アンテナ12による送信信号および受信アンテナ13による受信信号それぞれは、ミキサ14に入力される。 First, the operation of the FMCW radar (FIG. 1) will be described. The synthesizer 11 generates a signal whose frequency changes with time, called a chirp signal. When the transmitting antenna 12 emits a chirp signal, the chirp signal is reflected by the object. A receiving antenna 13 receives a reflected wave from an object. A signal transmitted by the transmitting antenna 12 and a signal received by the receiving antenna 13 are each input to the mixer 14 .

ミキサ14は、送信信号と受信信号とを乗算し、送信信号と受信信号の周波数の差に相当する周波数を持ったIF信号を生成する。ミキサ14は、生成したIF信号を情報処理装置1に出力する。 The mixer 14 multiplies the transmission signal and the reception signal to generate an IF signal having a frequency corresponding to the frequency difference between the transmission signal and the reception signal. Mixer 14 outputs the generated IF signal to information processing apparatus 1 .

続いて、情報処理装置1(図2)の動作について説明する。事前処理部15は、ミキサ14によって生成されたIF信号を取得する。事前処理部15は、IF信号に対する各種処理を実行する。事前処理部15によって実行される処理の例としては、DC(Direct Current)成分の除去、干渉の低減などが挙げられる。事前処理部15による処理後のIF信号は、一次元FFT処理部16に出力される。 Next, the operation of the information processing device 1 (FIG. 2) will be described. A preprocessing unit 15 acquires the IF signal generated by the mixer 14 . The preprocessing unit 15 performs various types of processing on the IF signal. Examples of processing executed by the preprocessing unit 15 include removal of DC (Direct Current) components, reduction of interference, and the like. The IF signal processed by the preprocessing unit 15 is output to the one-dimensional FFT processing unit 16 .

一次元FFT処理部16は、事前処理部15による処理後のIF信号に対して距離FFTを行う。これによって、一次元FFT処理部16は、周波数スペクトルを得る。 The one-dimensional FFT processing unit 16 performs distance FFT on the IF signal processed by the preprocessing unit 15 . Thereby, the one-dimensional FFT processor 16 obtains a frequency spectrum.

図5は、一次元FFT処理部16による距離FFTによって得られる周波数スペクトルの例を示す図である。図5に示された周波数スペクトルは、周波数f1、f2においてピークを取っている。このピークが障害物の存在を示している。 FIG. 5 is a diagram showing an example of a frequency spectrum obtained by distance FFT by the one-dimensional FFT processor 16. In FIG. The frequency spectrum shown in FIG. 5 has peaks at frequencies f1 and f2. This peak indicates the presence of an obstacle.

距離検出部17は、一次元FFT処理部16によって得られた周波数スペクトルに基づいて、ドローンD1と障害物との距離を検出する。より詳細に、距離検出部17は、一次元FFT処理部16によって得られた周波数スペクトルからピークを抽出する。そして、距離検出部17は、ピークを取る周波数f1、f2を距離に換算することによって、ドローンD1と障害物との距離を検出する。これにより、距離ごとに障害物が存在するか否かが判定され得る。 The distance detection unit 17 detects the distance between the drone D1 and the obstacle based on the frequency spectrum obtained by the one-dimensional FFT processing unit 16. More specifically, the distance detector 17 extracts peaks from the frequency spectrum obtained by the one-dimensional FFT processor 16 . Then, the distance detection unit 17 detects the distance between the drone D1 and the obstacle by converting the peak frequencies f1 and f2 into a distance. Thereby, it can be determined whether or not an obstacle exists for each distance.

障害物の速度を検出するには、チャープフレームと呼ばれる時間的に連続したチャープ信号の集まりを利用する。送信アンテナ12によってチャープフレームが送信され、ミキサ14によって各チャープに対するIF信号が得られる。一次元FFT処理部16によってそれぞれのIF信号に対する距離FFTが行われ、それぞれのIF信号に対する周波数スペクトルが得られる。周波数スペクトルには障害物の存在を示すピークが現れる。 To detect the speed of an obstacle, a group of time-continuous chirp signals called a chirp frame is used. Chirp frames are transmitted by a transmit antenna 12 and an IF signal for each chirp is obtained by a mixer 14 . A one-dimensional FFT processor 16 performs a distance FFT on each IF signal to obtain a frequency spectrum for each IF signal. A peak appears in the frequency spectrum indicating the presence of an obstacle.

二次元FFT処理部18は、チャープフレーム内における同様の位置に存在するピークのデータ全体に対して、さらにFFT(速度FFT)をかける。これによって、二次元FFT処理部18は、角周波数スペクトルを得る。 The two-dimensional FFT processor 18 further applies FFT (velocity FFT) to the entire data of peaks existing at similar positions in the chirp frame. Thereby, the two-dimensional FFT processor 18 obtains an angular frequency spectrum.

速度検出部19は、二次元FFT処理部18によって得られた角周波数スペクトルに基づいて、障害物の速度を検出する。より詳細に、速度検出部19は、二次元FFT処理部18によって得られた角周波数スペクトルからピークを抽出する。そして、速度検出部19は、ピークを取る角周波数を速度に換算することによって、障害物の速度を検出する。 A velocity detector 19 detects the velocity of the obstacle based on the angular frequency spectrum obtained by the two-dimensional FFT processor 18 . More specifically, the velocity detector 19 extracts peaks from the angular frequency spectrum obtained by the two-dimensional FFT processor 18 . Then, the speed detection unit 19 detects the speed of the obstacle by converting the peak angular frequency into speed.

ドローンD1の位置を基準とした障害物の方向を検出するには、複数の受信アンテナ13を利用する。 A plurality of receiving antennas 13 are used to detect the direction of the obstacle with reference to the position of the drone D1.

三次元FFT処理部20は、複数の受信アンテナ13それぞれに対応する速度FFTの結果に対して、さらにFFT(角度FFT)をかける。これによって、三次元FFT処理部20は、スペクトルを得る。 The three-dimensional FFT processing unit 20 further applies FFT (angle FFT) to the velocity FFT results corresponding to each of the plurality of receiving antennas 13 . Thereby, the three-dimensional FFT processor 20 obtains a spectrum.

角度検出部21は、三次元FFT処理部20によって得られたスペクトルからピークを抽出する。このピークは、受信アンテナ13間における位相差に該当する。そこで、角度検出部21は、この位相差を角度に換算することによって、ドローンD1の位置を基準とした障害物の存在する方向を検出する。 The angle detection section 21 extracts peaks from the spectrum obtained by the three-dimensional FFT processing section 20 . This peak corresponds to the phase difference between the receiving antennas 13 . Therefore, the angle detection unit 21 detects the direction in which the obstacle exists with the position of the drone D1 as a reference by converting the phase difference into an angle.

障害物マップ生成部22は、距離検出部17によって検出されたドローンD1と障害物との距離と、角度検出部21によって検出されたドローンD1の位置を基準とした障害物の存在する方向とに基づいて、障害物の位置を検出する。そして、障害物マップ生成部22は、検出した障害物の位置に基づいて障害物マップを生成する。より詳細に、障害物マップ生成部22は、検出した障害物の位置に対応する設定範囲H1における位置に、障害物が検出されたことをマッピングすることによって、マッピング後の設定範囲H1を障害物マップとして生成し得る。 The obstacle map generation unit 22 determines the distance between the drone D1 and the obstacle detected by the distance detection unit 17 and the direction of the obstacle based on the position of the drone D1 detected by the angle detection unit 21. Based on this, the position of the obstacle is detected. Then, the obstacle map generator 22 generates an obstacle map based on the positions of the detected obstacles. More specifically, the obstacle map generation unit 22 maps the detection of an obstacle to a position in the set range H1 corresponding to the position of the detected obstacle, thereby mapping the set range H1 after mapping to the position of the obstacle. Can be generated as a map.

例えば、障害物マップ生成部22は、と、ドローンD1と障害物との距離と、ドローンD1の位置を基準とした障害物の存在する方向とに基づいて、障害物の緯度および経度を障害物の位置として算出する。そして、設定範囲H1は、緯度範囲および経度範囲を有する。そこで、障害物マップ生成部22は、検出した障害物の緯度および経度に対応する設定範囲H1における緯度および経度に、障害物が検出されたことをマッピングすることによって障害物マップを生成し得る。 For example, the obstacle map generation unit 22 calculates the latitude and longitude of the obstacle based on the distance between the drone D1 and the obstacle and the direction in which the obstacle exists with respect to the position of the drone D1. is calculated as the position of The setting range H1 has a latitude range and a longitude range. Therefore, the obstacle map generation unit 22 can generate an obstacle map by mapping the detected obstacle to the latitude and longitude in the set range H1 corresponding to the latitude and longitude of the detected obstacle.

なお、典型的には、位置検出センサとして、GPS(Global Positioning System)センサが用いられ得る。しかし、位置検出センサは、GPSセンサに限定されない。 Note that typically, a GPS (Global Positioning System) sensor can be used as the position detection sensor. However, the position detection sensor is not limited to the GPS sensor.

着陸位置決定部23は、障害物マップに基づいて、ドローンD1の着陸位置を決定する。これによって、ドローンD1の安全に着地可能な位置がより精度良く決定され得る。 The landing position determination unit 23 determines the landing position of the drone D1 based on the obstacle map. Thereby, the position where the drone D1 can land safely can be determined with higher accuracy.

より詳細に、障害物マップは、複数の領域に分割されている。そこで、障害物マップ生成部22は、障害物マップに基づいて、障害物が検出された検出領域であるか障害物が検出されない非検出領域であるかを判定する。そして、障害物マップ生成部22は、障害物が検出されない非検出領域をドローンD1の着陸位置として決定し得る。これによって、ドローンD1の着地位置として安全な領域が決定され得る。 More specifically, the obstacle map is divided into multiple regions. Therefore, based on the obstacle map, the obstacle map generation unit 22 determines whether it is a detection area where an obstacle is detected or a non-detection area where no obstacle is detected. Then, the obstacle map generator 22 can determine a non-detection area where no obstacle is detected as the landing position of the drone D1. Thereby, a safe area can be determined as the landing position of the drone D1.

図6は、障害物が検出されない非検出領域が着陸位置として決定される例について説明するための図である。図6を参照すると、障害物マップM1が示されている。領域R4には、障害物B11が検出されているため、領域R4は、検出領域である。同様に、領域R5には、障害物B12が検出されているため、領域R5は、検出領域である。一方、領域R1~R3、R5~R7、R9それぞれは、障害物が検出されない非検出領域である。 FIG. 6 is a diagram for explaining an example in which a non-detection area where no obstacle is detected is determined as the landing position. Referring to FIG. 6, an obstacle map M1 is shown. Since the obstacle B11 is detected in the area R4, the area R4 is a detection area. Similarly, the area R5 is a detection area because the obstacle B12 is detected in the area R5. On the other hand, areas R1 to R3, R5 to R7, and R9 are non-detection areas where obstacles are not detected.

そこで、着陸位置決定部23は、非検出領域である領域R1~R3、R5~R7、R9のいずれかを着陸位置として決定してもよい。例えば、このように非検出領域が複数ある場合に、図6に示されるように、着陸位置決定部23は、検出領域である領域R4、R8から最も遠い非検出領域であるR3をドローンD1の着陸位置として決定してもよい。これによって、ドローンD1の着地位置としてより安全な領域が決定され得る。 Therefore, the landing position determination unit 23 may determine any one of the non-detection regions R1 to R3, R5 to R7, and R9 as the landing position. For example, when there are a plurality of non-detection areas, as shown in FIG. 6, the landing position determining unit 23 selects the non-detection area R3, which is the farthest non-detection area from the detection areas R4 and R8, of the drone D1. It may be determined as a landing position. Thereby, a safer area can be determined as the landing position of the drone D1.

あるいは、障害物は静止しているとは限らず、障害物が移動している場合も想定され得る。そこで、着陸位置決定部23は、速度検出部19によって検出された障害物の速度に基づいて、障害物が移動しているか否かを判定してもよい。そして、着陸位置決定部23は、障害物が移動している場合に、移動している障害物が検出された検出領域から最も遠い領域を、着陸位置として決定してもよい。 Alternatively, the obstacle is not always stationary, and it can be assumed that the obstacle is moving. Therefore, the landing position determination section 23 may determine whether or not the obstacle is moving based on the speed of the obstacle detected by the speed detection section 19 . Then, when the obstacle is moving, the landing position determination unit 23 may determine the area farthest from the detection area where the moving obstacle is detected as the landing position.

図7は、移動する障害物が検出された場合における着陸位置の決定例について説明するための図である。図7を参照すると、障害物マップM2が示されている。領域R7には、障害物B13が検出されているため、領域R7は、検出領域である。一方、領域R1~R6、R8、R9それぞれは、障害物が検出されない非検出領域である。また、障害物B13は、領域R7から領域R8に向かって移動している。 FIG. 7 is a diagram for explaining an example of landing position determination when a moving obstacle is detected. Referring to FIG. 7, an obstacle map M2 is shown. Since the obstacle B13 is detected in the area R7, the area R7 is a detection area. On the other hand, areas R1 to R6, R8, and R9 are non-detection areas where obstacles are not detected. Also, the obstacle B13 is moving from the region R7 toward the region R8.

そこで、着陸位置決定部23は、速度検出部19によって検出された障害物B13の速度に基づいて、障害物B13が移動していると判定する。このとき、着陸位置決定部23は、移動している障害物B13が検出された検出領域である領域R7から最も遠い領域R3を、着陸位置として決定してもよい。これによって、ドローンD1の着地位置として障害物の移動も考慮した、より安全な領域が決定され得る。 Therefore, the landing position determining section 23 determines that the obstacle B13 is moving based on the speed of the obstacle B13 detected by the speed detecting section 19 . At this time, the landing position determination unit 23 may determine the farthest region R3 from the region R7, which is the detection region where the moving obstacle B13 is detected, as the landing position. As a result, a safer area can be determined as the landing position of the drone D1 in consideration of movement of obstacles.

あるいは、着陸位置決定部23は、速度検出部19によって検出された障害物B13の速度と検出領域である領域R7とに基づいて、障害物B13が通過する領域を推測通過領域として推測してもよい。ここでは、障害物B13が直線上を移動すると仮定する場合を想定する。かかる場合には、着陸位置決定部23は、障害物B13が領域R7から領域R8に移動していることを判定し、領域R7から領域R8に向かう直線上に位置する領域R7~R9を推測通過領域として判定する。 Alternatively, the landing position determination unit 23 may estimate the area through which the obstacle B13 passes as the estimated passage area based on the speed of the obstacle B13 detected by the speed detection unit 19 and the detection area R7. good. Here, it is assumed that the obstacle B13 moves along a straight line. In such a case, the landing position determination unit 23 determines that the obstacle B13 is moving from the region R7 to the region R8, and presumably passes through the regions R7 to R9 located on a straight line from the region R7 to the region R8. Determined as an area.

このとき、着陸位置決定部23は、複数の非検出領域である領域R1~R6、R8、R9のうち、推測通過領域である領域R7~R9とは最も遠い領域R1~R3のいずれかを、着陸位置として決定してもよい。これによって、ドローンD1の着地位置として障害物の推測通過領域も考慮した、より安全な領域が決定され得る。なお、ここでは、障害物B13が直線上を移動すると仮定したが、障害物B13の移動方向は直線上でなくてもよい。 At this time, the landing position determination unit 23 selects one of the regions R1 to R3, which is the furthest from the estimated passage regions R7 to R9, among the plurality of non-detection regions R1 to R6, R8, and R9. It may be determined as a landing position. As a result, a safer area can be determined as the landing position of the drone D1, taking into account the estimated passage area of the obstacle. Although it is assumed here that the obstacle B13 moves along a straight line, the moving direction of the obstacle B13 does not have to be along a straight line.

領域R1~領域R9それぞれは、複数のサブ領域に分割されていてもよい。そして、着陸位置決定部23は、領域R1~領域R9のいずれにも障害物が検出された場合に、領域R1~領域R9から選択された領域(以下、「選択領域」とも言う。)に障害物が検出されたかをサブ領域ごとに判定してもよい。そして、着陸位置決定部23は、障害物が検出されないサブ領域を着陸位置として決定してもよい。これによって、ドローンD1の着陸位置が決定されない可能性が低減され得る。 Each of the regions R1 to R9 may be divided into a plurality of sub-regions. Then, when an obstacle is detected in any of the regions R1 to R9, the landing position determination unit 23 detects an obstacle in a region selected from the regions R1 to R9 (hereinafter also referred to as “selected region”). It may be determined for each sub-region whether an object is detected. Then, the landing position determination unit 23 may determine a sub-region in which no obstacle is detected as the landing position. This may reduce the possibility that the landing position of drone D1 is not determined.

選択領域は、どのような条件に従って選択されてもよい。一例として、領域R1~R9それぞれの障害物の数、障害物のサイズまたは障害物の位置に基づいて選択領域が選択されてもよい。例えば、障害物の数が最も少ない領域が選択領域として選択されてもよい。あるいは、障害物のサイズが最も小さい領域が選択領域として選択されてもよい。あるいは、障害物の位置が最も端に近い領域が選択領域として選択されてもよい。ここでは、領域R5が選択領域として選択された場合を想定する。 The selection area may be selected according to any condition. As an example, the selected regions may be selected based on the number of obstacles, the size of the obstacles, or the position of the obstacles in each of the regions R1-R9. For example, the area with the fewest number of obstacles may be selected as the selection area. Alternatively, the area with the smallest obstacle size may be selected as the selection area. Alternatively, an area where the position of the obstacle is closest to the edge may be selected as the selection area. Here, it is assumed that the region R5 is selected as the selected region.

図8は、全領域に障害物が検出された場合について説明するための図である。図8を参照すると、領域R5が、複数のサブ領域(サブ領域r1~r4)に分割されている。なお、図8に示された例では、領域R5が縦2つのサブ領域と横2つのサブ領域からなる合計4つのサブ領域に分割されているが、領域R5がどのように複数のサブ領域に分割されるか(例えば、領域R5が分割される方向、分割される数など)は限定されない。また、サブ領域r1~r4のサイズおよび形状は同じでなくてもよい。 FIG. 8 is a diagram for explaining a case where obstacles are detected in the entire area. Referring to FIG. 8, region R5 is divided into a plurality of sub-regions (sub-regions r1 to r4). In the example shown in FIG. 8, the region R5 is divided into a total of four sub-regions consisting of two vertical sub-regions and two horizontal sub-regions. Whether it is divided (for example, the direction in which the region R5 is divided, the number of divisions, etc.) is not limited. Also, the sizes and shapes of the sub-regions r1-r4 may not be the same.

また、領域R1~R9それぞれのサブ領域への分割は、同じであってもよいし、異なってもよい。 Also, the division into sub-regions of the regions R1 to R9 may be the same or different.

障害物マップM3を参照すると、サブ領域r2には、障害物B12が検出され、サブ領域r3には、障害物B11が検出されている。すなわち、着陸位置決定部23は、サブ領域r2およびサブ領域r3それぞれを検出領域として判定する。一方、着陸位置決定部23は、サブ領域r1およびサブ領域r4それぞれを非検出領域として判定する。着陸位置決定部23は、サブ領域r1およびサブ領域r4のいずれかを着陸位置として決定してもよい。 Referring to the obstacle map M3, an obstacle B12 is detected in the sub-region r2, and an obstacle B11 is detected in the sub-region r3. That is, the landing position determination unit 23 determines each of the sub-region r2 and the sub-region r3 as detection regions. On the other hand, the landing position determination unit 23 determines each of the sub-region r1 and the sub-region r4 as non-detection regions. The landing position determination unit 23 may determine either sub-region r1 or sub-region r4 as the landing position.

以上、本発明の実施形態の詳細について説明した。 The details of the embodiments of the present invention have been described above.

[効果の説明]
以上に説明したように、本発明の実施形態によれば、レーダを利用した直接の測定による障害物の検出を行うことによって、安全に着陸可能な領域を容易かつ正確に識別することができる。また、本発明の実施形態によれば、移動する障害物から離れた領域を着陸位置として選択することによって、着陸の際に障害物とドローンとが接触する可能性を低減できる。
[Explanation of effect]
As described above, according to the embodiments of the present invention, a safe landing area can be easily and accurately identified by detecting obstacles by direct measurement using radar. Embodiments of the present invention also reduce the likelihood of collision between the obstacle and the drone during landing by selecting a landing location away from moving obstacles.

さらに、本発明の実施形態によれば、いずれの領域にも障害物が存在する場合などにおいて、障害物マップに基づいて、領域内のサブ領域を安全な着陸位置として決定することが可能となる。これによって、いずれの領域にも障害物が存在する場合などにおいて、ドローンが着陸できなくなる可能性が低減され得る。 Furthermore, according to the embodiment of the present invention, it is possible to determine a sub-area within the area as a safe landing position based on the obstacle map, such as when an obstacle exists in any area. . This may reduce the likelihood that the drone will not be able to land, such as when there are obstacles in either area.

[変形例の説明]
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
[Explanation of modification]
Although the preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention belongs can conceive of various modifications or modifications within the scope of the technical idea described in the claims. It is understood that these also naturally belong to the technical scope of the present invention.

上記では、ドローンD1に搭載される障害物検出用のセンサの例として、FMCWレーダを例に挙げて説明した。しかし、ドローンD1に搭載される障害物検出用のセンサは、かかる例に限定されない。例えば、ドローンD1に搭載される障害物検出用のセンサは、他の方式によるレーダであってもよいし、LiDAR(Light Detection and Ranging)であってもよいし、他のセンサであってもよい。 In the above, the FMCW radar has been described as an example of the obstacle detection sensor mounted on the drone D1. However, the obstacle detection sensor mounted on the drone D1 is not limited to this example. For example, the obstacle detection sensor mounted on the drone D1 may be a radar by another method, may be LiDAR (Light Detection and Ranging), or may be another sensor. .

上記では、設定範囲H1があらかじめ決められた緯度範囲と経度範囲との組み合わせである場合を主に想定した。しかし、設定範囲H1は、ドローンD1の緯度および経度に基づいて生成されてもよい。すなわち、障害物マップ生成部22は、ドローンD1に搭載された位置検出センサによって検出されたドローンD1の緯度および経度に基づいて、緯度範囲と経度範囲との組み合わせを設定範囲H1として生成してもよい。 In the above, it is mainly assumed that the setting range H1 is a combination of a predetermined latitude range and longitude range. However, the setting range H1 may be generated based on the latitude and longitude of the drone D1. That is, the obstacle map generation unit 22 generates a combination of the latitude range and the longitude range as the setting range H1 based on the latitude and longitude of the drone D1 detected by the position detection sensor mounted on the drone D1. good.

例えば、ドローンD1の緯度および経度を基準とした設定範囲H1の相対的な緯度および経度のオフセット量と、設定範囲H1の緯度幅および経度幅があらかじめ決められている場合が想定される。かかる場合には、障害物マップ生成部22は、ドローンD1の緯度および経度とオフセット量と設定範囲H1の緯度幅および経度幅とに基づいて、設定範囲H1を生成してもよい。 For example, it is assumed that the relative latitude and longitude offset amount of the setting range H1 with respect to the latitude and longitude of the drone D1 and the latitude width and longitude width of the setting range H1 are predetermined. In such a case, the obstacle map generator 22 may generate the setting range H1 based on the latitude and longitude of the drone D1, the offset amount, and the latitude width and longitude width of the setting range H1.

あるいは、障害物マップ生成部22は、ドローンD1の緯度および経度に基づいて、緯度範囲と経度範囲との組み合わせによってそれぞれが構成される複数の候補範囲を生成してもよい。そして、障害物マップ生成部22は、複数の候補範囲から設定範囲H1を選択してもよい。 Alternatively, the obstacle map generation unit 22 may generate a plurality of candidate ranges each configured by a combination of a latitude range and a longitude range, based on the latitude and longitude of the drone D1. Then, the obstacle map generator 22 may select the set range H1 from a plurality of candidate ranges.

設定範囲H1は、どのような条件に従って選択されてもよい。一例として、複数の候補範囲それぞれの障害物の数、障害物のサイズまたは障害物の位置に基づいて設定範囲H1が選択されてもよい。例えば、障害物の数が最も少ない候補範囲が設定範囲H1として選択されてもよい。あるいは、障害物のサイズが最も小さい候補範囲が設定範囲H1として選択されてもよい。あるいは、障害物の位置が最も端に近い候補範囲が設定範囲H1として選択されてもよい。 The setting range H1 may be selected according to any conditions. As an example, the setting range H1 may be selected based on the number of obstacles, the size of the obstacles, or the position of the obstacles in each of the multiple candidate ranges. For example, a candidate range with the smallest number of obstacles may be selected as the set range H1. Alternatively, a candidate range with the smallest obstacle size may be selected as the set range H1. Alternatively, a candidate range in which the position of the obstacle is closest to the edge may be selected as the set range H1.

また、上記では、障害物が検出された検出領域にはドローンD1の着陸位置として決定されない場合を主に想定した。しかし、障害物が検出された検出領域であっても、障害物の形状によっては、ドローンD1の着陸位置として決定されてもよい。例えば、着陸位置決定部23は、障害物の形状が平坦な上面を有する形状である場合には、その上面を着陸位置として決定してもよい。なお、障害物の形状は、一例として、一次元FFT処理部16によって得られる周波数スペクトルのピークの形状によって把握され得る。 Moreover, in the above description, it is mainly assumed that the detection area where the obstacle is detected is not determined as the landing position of the drone D1. However, even a detection area where an obstacle is detected may be determined as the landing position of the drone D1 depending on the shape of the obstacle. For example, if the obstacle has a flat top surface, the landing position determining unit 23 may determine the top surface as the landing position. The shape of the obstacle can be grasped by the shape of the peak of the frequency spectrum obtained by the one-dimensional FFT processing section 16, for example.

1 情報処理装置
11 シンセサイザ
12 送信アンテナ
13 受信アンテナ
14 ミキサ
15 事前処理部
16 一次元FFT処理部
17 距離検出部
18 二次元FFT処理部
19 速度検出部
20 三次元FFT処理部
21 角度検出部
22 障害物マップ生成部
23 着陸位置決定部
1 information processing device 11 synthesizer 12 transmitting antenna 13 receiving antenna 14 mixer 15 preprocessing unit 16 one-dimensional FFT processing unit 17 distance detection unit 18 two-dimensional FFT processing unit 19 speed detection unit 20 three-dimensional FFT processing unit 21 angle detection unit 22 failure Object map generation unit 23 Landing position determination unit

Claims (13)

無人航空機に搭載されたセンサによって計測されたセンサデータに基づいて検出された、前記無人航空機と物体との距離、および、前記無人航空機を基準とした前記物体の方向に基づいて、物体位置を検出し、前記物体位置に基づいて物体マップを生成するマップ生成部と、
前記物体マップに基づいて、前記無人航空機の着陸位置を決定する着陸位置決定部と、
を備える、情報処理装置。
Detecting the position of an object based on the distance between the unmanned aerial vehicle and the object and the direction of the object relative to the unmanned aerial vehicle, which are detected based on sensor data measured by a sensor mounted on the unmanned aerial vehicle. and a map generator that generates an object map based on the object position;
a landing position determination unit that determines a landing position of the unmanned aerial vehicle based on the object map;
An information processing device.
前記物体マップは、複数の領域に分割されており、
前記着陸位置決定部は、前記物体マップに基づいて領域ごとに前記物体が検出された検出領域であるか否かを判定し、前記物体が検出されない非検出領域を前記着陸位置として決定する、
請求項1に記載の情報処理装置。
the object map is divided into a plurality of regions,
The landing position determination unit determines whether each area is a detection area in which the object is detected based on the object map, and determines a non-detection area in which the object is not detected as the landing position.
The information processing device according to claim 1 .
前記着陸位置決定部は、前記非検出領域が複数ある場合に、複数の前記非検出領域のうち、前記検出領域から最も遠い領域を、前記着陸位置として決定する、
請求項2に記載の情報処理装置。
When there are a plurality of non-detection areas, the landing position determination unit determines an area farthest from the detection area among the plurality of non-detection areas as the landing position.
The information processing apparatus according to claim 2.
前記着陸位置決定部は、前記センサデータに基づいて検出された前記物体の速度に基づいて、前記物体が移動しているか否かを判定し、前記物体が移動している場合に、前記物体が検出された前記検出領域から最も遠い領域を、前記着陸位置として決定する、
請求項3に記載の情報処理装置。
The landing position determination unit determines whether or not the object is moving based on the speed of the object detected based on the sensor data, and determines whether the object is moving if the object is moving. determining the farthest area from the detected detection area as the landing position;
The information processing apparatus according to claim 3.
前記着陸位置決定部は、前記センサデータに基づいて検出された前記物体の速度と前記検出領域とに基づいて、前記物体が通過する領域を推測通過領域として推測し、複数の前記非検出領域のうち、前記推測通過領域とは最も遠い領域を、前記着陸位置として決定する、
請求項2に記載の情報処理装置。
The landing position determination unit estimates an area through which the object passes as an estimated passage area based on the speed of the object detected based on the sensor data and the detection area, and determines the plurality of non-detection areas. Among them, the area farthest from the estimated passing area is determined as the landing position;
The information processing apparatus according to claim 2.
前記複数の領域それぞれは、複数のサブ領域に分割されており、
前記着陸位置決定部は、前記複数の領域のいずれにも物体が検出された場合に、前記複数の領域から選択された選択領域に物体が検出されたかをサブ領域ごとに判定し、前記物体が検出されないサブ領域を前記着陸位置として決定する、
請求項2に記載の情報処理装置。
each of the plurality of regions is divided into a plurality of sub-regions,
The landing position determination unit determines, for each sub-region, whether an object is detected in a selected region selected from the plurality of regions when an object is detected in any of the plurality of regions, and determining an undetected sub-region as the landing position;
The information processing apparatus according to claim 2.
前記着陸位置決定部は、領域ごとの物体の数、物体のサイズまたは物体の位置に基づいて前記選択領域を選択する、
請求項6に記載の情報処理装置。
The landing position determiner selects the selected regions based on the number of objects per region, the size of objects, or the position of objects.
The information processing device according to claim 6 .
前記マップ生成部は、位置検出センサによって検出された前記無人航空機の緯度および経度と前記距離と前記方向とに基づいて、前記物体位置として前記物体の緯度および経度を算出する、
請求項1~7のいずれか一項に記載の情報処理装置。
The map generation unit calculates the latitude and longitude of the object as the object position based on the latitude and longitude of the unmanned aerial vehicle, the distance, and the direction detected by a position detection sensor.
The information processing apparatus according to any one of claims 1 to 7.
前記マップ生成部は、複数の領域に分割された設定範囲を生成し、前記設定範囲の前記物体位置に対応する位置に、前記物体が検出されたことをマッピングし、マッピング後の設定範囲を前記物体マップとして生成する、
請求項1~8のいずれか一項に記載の情報処理装置。
The map generation unit generates a set range divided into a plurality of areas, maps detection of the object to a position corresponding to the object position in the set range, and converts the set range after mapping to the position corresponding to the object position. generated as an object map,
The information processing apparatus according to any one of claims 1 to 8.
前記マップ生成部は、前記無人航空機の緯度および経度に基づく緯度範囲と経度範囲との組み合わせを前記設定範囲として生成する、
請求項9に記載の情報処理装置。
The map generation unit generates a combination of a latitude range and a longitude range based on the latitude and longitude of the unmanned aerial vehicle as the setting range.
The information processing apparatus according to claim 9 .
前記マップ生成部は、前記無人航空機の緯度および経度に基づいて、緯度範囲と経度範囲との組み合わせによってそれぞれが構成される複数の候補範囲から、物体の数、物体のサイズまたは物体の位置に基づいて前記設定範囲を選択する、
請求項10に記載の情報処理装置。
Based on the latitude and longitude of the unmanned aerial vehicle, the map generation unit selects from a plurality of candidate ranges each configured by a combination of a latitude range and a longitude range, based on the number of objects, the size of the objects, or the position of the objects. to select the setting range;
The information processing apparatus according to claim 10.
無人航空機に搭載されたセンサによって計測されたセンサデータに基づいて検出された、前記無人航空機と物体との距離、および、前記無人航空機を基準とした前記物体の方向に基づいて、物体位置を検出し、前記物体位置に基づいて物体マップを生成することと、
前記物体マップに基づいて、前記無人航空機の着陸位置を決定することと、
を備える、情報処理方法。
Detecting the position of an object based on the distance between the unmanned aerial vehicle and the object and the direction of the object relative to the unmanned aerial vehicle, which are detected based on sensor data measured by a sensor mounted on the unmanned aerial vehicle. and generating an object map based on the object positions;
determining a landing position of the unmanned aerial vehicle based on the object map;
A method of processing information, comprising:
コンピュータを、
無人航空機に搭載されたセンサによって計測されたセンサデータに基づいて検出された、前記無人航空機と物体との距離、および、前記無人航空機を基準とした前記物体の方向に基づいて、物体位置を検出し、前記物体位置に基づいて物体マップを生成するマップ生成部と、
前記物体マップに基づいて、前記無人航空機の着陸位置を決定する着陸位置決定部と、
を備える情報処理装置として機能させるプログラム。
the computer,
Detecting the position of an object based on the distance between the unmanned aerial vehicle and the object and the direction of the object relative to the unmanned aerial vehicle, which are detected based on sensor data measured by a sensor mounted on the unmanned aerial vehicle. and a map generator that generates an object map based on the object position;
a landing position determination unit that determines a landing position of the unmanned aerial vehicle based on the object map;
A program that functions as an information processing device comprising
JP2022026796A 2022-02-24 2022-02-24 Information processing device, information processing method and program Pending JP2023122997A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022026796A JP2023122997A (en) 2022-02-24 2022-02-24 Information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022026796A JP2023122997A (en) 2022-02-24 2022-02-24 Information processing device, information processing method and program

Publications (1)

Publication Number Publication Date
JP2023122997A true JP2023122997A (en) 2023-09-05

Family

ID=87885926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022026796A Pending JP2023122997A (en) 2022-02-24 2022-02-24 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP2023122997A (en)

Similar Documents

Publication Publication Date Title
US9939522B2 (en) Systems and methods for 4-dimensional radar tracking
US11828839B2 (en) Method and apparatus for operating radar
EP3663790A1 (en) Method and apparatus for processing radar data
KR102516367B1 (en) Method and device to process radar data
JP2017223461A (en) Radar device and detection method
KR20210001219A (en) Radar data processing device and method to adjust local resolving power
JP6892600B2 (en) Object detection method and object detection device
JP2005084034A (en) Object detecting device
JP2015148452A (en) Synthetic aperture radar system
JP5846472B2 (en) Vehicle object detection device
JP2008164545A (en) Moving target detecting device, moving target detection method, and moving target detection program
JP2019039686A (en) Radar device and target detection method
JP2009264968A (en) Radar device, method of processing signal for radar device, and vehicle control system
US10539659B2 (en) Apparatus for detecting axial misalignment
US20220066015A1 (en) Radar odometry system and method
JP2021135149A (en) Dynamic target detection system, dynamic target detection method, and computer-executable program
JP2023122997A (en) Information processing device, information processing method and program
JP2015014472A (en) Echo signal processing device, ocean wave radar, echo signal processing method, and echo signal processing program
JP2008304329A (en) Measuring device
JP3954993B2 (en) Vehicle object detection device
JP2011185719A (en) Tracking radar device
WO2022191197A1 (en) Object-position detecting device and method
KR20190103636A (en) Method and apparatus for detecting a target
JP2018151327A (en) Radar device and method of combining bearings
JP2024038993A (en) Radar signal processing method and device