JP6754518B2 - Position estimation system - Google Patents

Position estimation system Download PDF

Info

Publication number
JP6754518B2
JP6754518B2 JP2015239674A JP2015239674A JP6754518B2 JP 6754518 B2 JP6754518 B2 JP 6754518B2 JP 2015239674 A JP2015239674 A JP 2015239674A JP 2015239674 A JP2015239674 A JP 2015239674A JP 6754518 B2 JP6754518 B2 JP 6754518B2
Authority
JP
Japan
Prior art keywords
light receiving
receiving element
light
position estimation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015239674A
Other languages
Japanese (ja)
Other versions
JP2016109698A (en
Inventor
肇 延原
肇 延原
星汰 鋤先
星汰 鋤先
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tsukuba NUC
Original Assignee
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tsukuba NUC filed Critical University of Tsukuba NUC
Publication of JP2016109698A publication Critical patent/JP2016109698A/en
Application granted granted Critical
Publication of JP6754518B2 publication Critical patent/JP6754518B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、位置推定システムに関する。
本願は、2014年12月8日に、日本に出願された特願2014−248336号に基づき優先権を主張し、その内容をここに援用する。
The present invention relates to a position estimation system.
The present application claims priority based on Japanese Patent Application No. 2014-248336 filed in Japan on December 8, 2014, the contents of which are incorporated herein by reference.

対象物体の位置を推定するために、モーションセンサやGPS(Global Positioning System)等を含んだ位置推定装置が用いられている。この位置推定装置は、例えば、UAV(Unmanned Aerial Vehicle)などの移動体の制御に用いられている。 In order to estimate the position of the target object, a position estimation device including a motion sensor, GPS (Global Positioning System) and the like is used. This position estimation device is used for controlling a moving body such as a UAV (Unmanned Aerial Vehicle), for example.

阿部剛、水島晃、野口伸、レーザスキャナを用いた農用車両の直進追従制御に関する研究、農業機械学会誌、2005年、67(3)、65−71Tsuyoshi Abe, Akira Mizushima, Noboru Noguchi, Research on Straight Tracking Control of Agricultural Vehicles Using Laser Scanner, Journal of Agricultural Machinery Society, 2005, 67 (3), 65-71 神原誠之、横矢直和、複数の赤外線受光体を利用した位置姿勢センサの試作 電子情報通信学会総合大会講演論文集 2004年Masayuki Kamihara, Naokazu Yokoya, Prototype of Position and Posture Sensor Using Multiple Infrared Receivers Proceedings of IEICE General Conference 2004 土方俊介、梅田和昇、室内における赤外LEDを用いた移動ロボットの位置・姿勢推定手法、第11回 ロボティクスシンポジア予稿集、2006.3 pp.141−146Shunsuke Hijikata, Kazunobu Umeda, Position / Posture Estimating Method for Mobile Robots Using Infrared LEDs in the Room, 11th Robotics Symposia Proceedings, 2006.3 pp. 141-146 岩倉ほか、赤外線距離センサを搭載した飛行ロボットの屋内自己位置推定(OS3 自律知能無人ビークルの運動と制御、「振動と運動の制御」シンポジウム講演論文集 2011(12)、2011−06−28、253−258Iwakura et al., Indoor self-position estimation of a flying robot equipped with an infrared distance sensor (OS3 Autonomous Intelligent Unmanned Vehicle Motion and Control, "Vibration and Motion Control" Symposium Proceedings 2011 (12), 2011-06-28, 253 -258 藤永仁、得竹浩、砂田茂 小型無人航空機の誘導制御と自律飛行試験、日本航空宇宙学会論文集、2008、Vol.56、No.649、pp.57−64Hitoshi Fujinaga, Hiroshi Tokutake, Shigeru Sunada Guidance control and autonomous flight test of small unmanned aerial vehicles, Proceedings of the Japan Aerospace Society, 2008, Vol. 56, No. 649, pp. 57-64 安達宏幸、中山栄純、菅生誠、水澤純一、KINECTを用いた大関節三次元リアルタイム測定実験の報告、電子情報通信学会技術研究報告=IEICE technical report:信学技報 2014−07−26、114(153)、25−29Hiroyuki Adachi, Eijun Nakayama, Makoto Sugo, Junichi Mizusawa, Report on 3D real-time measurement experiment of large joints using KINEC, IEICE Technical Report: IEICE Technical Report 2014-07-26, 114 (153), 25-29

従来の位置推定装置の推定精度は十分でない場合があった。
本発明は、上記事情を考慮してなされたものであり、より高精度に位置を推定することができる位置推定システムを提供することを目的とする。
The estimation accuracy of the conventional position estimation device may not be sufficient.
The present invention has been made in consideration of the above circumstances, and an object of the present invention is to provide a position estimation system capable of estimating a position with higher accuracy.

本発明は、光を発する発光部と、第1の方向を指向する第1の受光素子と、前記第1の方向とは異なる第2の方向を指向する第2の受光素子と、前記第1の方向および前記第2の方向とは異なる第3の方向を指向する第3の受光素子とを含み、前記第1の受光素子、前記第2の受光素子、および前記第3の受光素子が互いに離間しないように設けられた受光部と、前記第1の受光素子、前記第2の受光素子および前記第3の受光素子の受光結果を用いて前記受光部に対する前記発光部の位置推定する位置推定部と、を備え、前記位置推定部は、前記第1の受光素子、前記第2の受光素子および前記第3の受光素子のそれぞれに対して幾何領域を設定し、前記設定した幾何領域と、前記設定した幾何領域に対して設定された幾何学的な拘束条件と、前記受光結果である光の強さを示す情報に基づいて得られた前記発光部が発光した光の減衰度と、に基づいて前記受光部に対する前記発光部の位置推定し、前記幾何領域は、前記受光素子との距離が遠くなるのに応じて前記受光素子の指向方向を中心とした半径が小さくなり、前記半径の変化率は前記距離が遠くなるのに従って小さくなる三次元曲面であり、且つ前記発光部の存在する可能性がある領域である位置推定システムである。
The present invention includes a light emitting unit that emits light, a first light receiving element that points in a first direction, a second light receiving element that points in a second direction different from the first direction, and the first light receiving element. The first light receiving element, the second light receiving element, and the third light receiving element include a third light receiving element that points in a direction different from that of the second direction and a third light receiving element that is different from the second direction. A position for estimating the position of the light emitting unit with respect to the light receiving unit using the light receiving unit provided so as not to be separated from each other and the light receiving results of the first light receiving element, the second light receiving element, and the third light receiving element. The position estimation unit includes an estimation unit, and the position estimation unit sets a geometric region for each of the first light receiving element, the second light receiving element, and the third light receiving element, and sets the geometric region with the set geometric region. , The geometric constraint condition set for the set geometric region, and the degree of attenuation of the light emitted by the light emitting unit obtained based on the information indicating the intensity of the light as the light receiving result. The position of the light emitting portion with respect to the light receiving portion is estimated based on the above, and the geometric region has a smaller radius centered on the direction direction of the light receiving element as the distance from the light receiving element increases. This is a position estimation system in which the rate of change of the radius is a three-dimensional curved surface that becomes smaller as the distance increases, and is a region in which the light emitting portion may exist.

本発明は、より高精度に位置を推定することができる位置推定システムを提供することである。 The present invention is to provide a position estimation system capable of estimating a position with higher accuracy.

第1の実施形態の位置推定システム1の概念図である。It is a conceptual diagram of the position estimation system 1 of 1st Embodiment. 位置推定システム1の機能構成を示す図である。It is a figure which shows the functional structure of the position estimation system 1. 位置推定装置50により実行される処理の流れを示すフローチャートである。It is a flowchart which shows the flow of processing executed by the position estimation apparatus 50. 幾何領域の概念図である。It is a conceptual diagram of a geometric area. 位置推定マップ60の一例を示す図である。It is a figure which shows an example of the position estimation map 60. 位置推定システム1Aを搭載したUAV群(飛行体システム)の構成概要図である。It is a block diagram of the UAV group (flying body system) equipped with the position estimation system 1A. 第2の実施形態の位置推定システム1Aの目標飛行体100の機能構成を示す図である。It is a figure which shows the functional structure of the target flying object 100 of the position estimation system 1A of the 2nd Embodiment. 第3の実施形態の幾何領域の概念図である。It is a conceptual diagram of the geometric area of the 3rd Embodiment. 第4の実施形態の幾何領域の概念図である。It is a conceptual diagram of the geometric area of 4th Embodiment. 位置推定システムが位置を推定する場合における手法の概要図である。It is a schematic diagram of the method when a position estimation system estimates a position. 出力信号と信号伝搬の概念図である。It is a conceptual diagram of an output signal and signal propagation. 自己位置発信装置の回路図である。It is a circuit diagram of the self-position transmitter. マイコンを用いて発信信号1セットごとに送受信機間の距離変化による赤外線信号の受信時間を計測した結果を示す図である。It is a figure which shows the result of having measured the reception time of an infrared signal by the distance change between a transmitter / receiver for each set of transmission signals using a microcomputer. 受信機の回路図である。It is a circuit diagram of a receiver. 実験1−2の結果を示す図である。It is a figure which shows the result of experiment 1-2. 送受信機間の距離と受光カウント数の相関を示す図である。It is a figure which shows the correlation of the distance between a transmitter / receiver, and the received light count number. サンプリング回数の違いによる推定距離と真値の差を示す図である。It is a figure which shows the difference between the estimated distance and the true value by the difference in the number of samplings. 角度変化による受信時間を計測した結果を示す図である。It is a figure which shows the result of having measured the reception time by an angle change. 各距離におけるカウント回数と角度の相関関係のグラフを示す図である。It is a figure which shows the graph of the correlation of the number of counts and an angle at each distance. センサ配置の概念図を示す。The conceptual diagram of the sensor arrangement is shown. カウント回数と距離・角度との関係を示す図。The figure which shows the relationship between the count count and the distance / angle.

以下、図面を参照し、本発明の位置推定システムの実施形態について説明する。 Hereinafter, embodiments of the position estimation system of the present invention will be described with reference to the drawings.

<第1の実施形態>
図1は、第1の実施形態の位置推定システム1の概念図である。位置推定システム1は、発光装置10と、位置推定装置50を搭載した飛行体20とを含んでもよいが、これに限定されない。位置推定装置50は、発光装置10から発光された光を互いに独立した方向を指向する複数の受光素子によって受光し、複数の受光素子によって受光された光の強さを示す情報に基づいて、発光装置10の位置を導出する。
<First Embodiment>
FIG. 1 is a conceptual diagram of the position estimation system 1 of the first embodiment. The position estimation system 1 may include, but is not limited to, a light emitting device 10 and an air vehicle 20 equipped with the position estimation device 50. The position estimation device 50 receives the light emitted from the light emitting device 10 by a plurality of light receiving elements that direct directions independently of each other, and emits light based on information indicating the intensity of the light received by the plurality of light receiving elements. The position of the device 10 is derived.

図2は、位置推定システム1の機能構成を示す図である。発光装置10は、発光部12−1から12−n、および発光制御部14が搭載される。以下、発光部12−1から12−nを、区別しない場合は、単に発光部12という。 FIG. 2 is a diagram showing a functional configuration of the position estimation system 1. The light emitting device 10 is equipped with light emitting units 12-1 to 12-n and a light emitting control unit 14. Hereinafter, when the light emitting units 12-1 to 12-n are not distinguished, they are simply referred to as the light emitting unit 12.

発光部12は、例えば固定局または移動局として設けられる。発光部12は、指向性の低い光を発光する。発光部12−1から12−nは、それぞれ異なる方向に向けて光を発光する。発光部12は、例えば時間ごとに振幅変調された赤外光である。 The light emitting unit 12 is provided as, for example, a fixed station or a mobile station. The light emitting unit 12 emits light having low directivity. The light emitting units 12-1 to 12-n emit light in different directions. The light emitting unit 12 is, for example, infrared light whose amplitude is modulated with time.

例えば、発光部12は、発光部12の光源を覆うカバー部を有する。カバー部は、発光部12の光源から発光された光を散乱させることで、発光された光の指向性を低下させる。なお、振幅変調に代えて、周波数変調や、パルス変調など、その他の変調方式を用いてもよい。発光制御部14は、自装置の記憶領域に記憶された発光部12の発光パターンを示す情報を参照し、発光部12に所定の光を発光させる。 For example, the light emitting unit 12 has a cover unit that covers the light source of the light emitting unit 12. The cover unit scatters the light emitted from the light source of the light emitting unit 12 to reduce the directivity of the emitted light. In addition, instead of the amplitude modulation, other modulation methods such as frequency modulation and pulse modulation may be used. The light emitting control unit 14 refers to the information indicating the light emitting pattern of the light emitting unit 12 stored in the storage area of the own device, and causes the light emitting unit 12 to emit a predetermined light.

飛行体20は、蓄電池22と、アンテナ24と、通信制御部26と、センサ28と、ロータ30−1から30‐4と、ロータ駆動部32と、飛行制御部34と、位置推定装置50とを含んでもよいが、これに限定されない。 The aircraft body 20 includes a storage battery 22, an antenna 24, a communication control unit 26, a sensor 28, rotors 30-1 to 30-4, a rotor drive unit 32, a flight control unit 34, and a position estimation device 50. May include, but is not limited to.

蓄電池22は、例えばリチウムポリマー電池や、リチウムイオン電池である。蓄電池22は、飛行体20に着脱可能に搭載される。蓄電池22は、飛行体20の各部に電力を供給する。 The storage battery 22 is, for example, a lithium polymer battery or a lithium ion battery. The storage battery 22 is detachably mounted on the flying object 20. The storage battery 22 supplies electric power to each part of the flying object 20.

アンテナ24は、コントローラ(不図示)の送信部から送信された電波を受信する。コントローラとは、ユーザが飛行体を遠隔操作するための装置である。コントローラの送信部から送信された電波には、コントローラに対して入力された操作量が含まれる。通信制御部26は、コントローラと、飛行体20との無線通信を制御する。 The antenna 24 receives radio waves transmitted from a transmission unit of a controller (not shown). A controller is a device for a user to remotely control an air vehicle. The radio wave transmitted from the transmitter of the controller includes the amount of operation input to the controller. The communication control unit 26 controls wireless communication between the controller and the flying object 20.

センサ28は、例えば高度センサや、測距センサ、ジャイロセンサ等である。高度センサは、飛行体20の機体の鉛直下方にレーザを投光し、投光したレーザの反射光を受光する。高度センサは、例えば受光した光の位相の遅れに基づいて、飛行体20の高度を算出する。測距センサは、飛行体20の機体の水平方向にレーザを投光し、投光したレーザの反射光を受光する。測距センサは、例えば受光した光の位相の遅れに基づいて、飛行体20の周辺に存在する物体を検出する。ジャイロセンサは、飛行体20の機体の姿勢を検出する。 The sensor 28 is, for example, an altitude sensor, a distance measuring sensor, a gyro sensor, or the like. The altitude sensor projects a laser vertically below the body of the flying object 20 and receives the reflected light of the projected laser. The altitude sensor calculates the altitude of the flying object 20 based on, for example, the phase delay of the received light. The distance measuring sensor projects a laser in the horizontal direction of the airframe 20 and receives the reflected light of the projected laser. The ranging sensor detects an object existing around the flying object 20 based on, for example, a phase delay of the received light. The gyro sensor detects the attitude of the airframe 20.

ロータ30−1から30‐4は回転体(回転翼)である。以下、ロータ30−1から30−4を、区別しない場合は単にロータ30と称する。ロータ駆動部32は、各ロータ30を駆動させる。なお、本実施形態では、一例としてロータ30−1から30−4を備えるものとして説明するが、これに限られない。例えば、ロータは、1つであってもよい。 Rotors 30-1 to 30-4 are rotating bodies (rotor blades). Hereinafter, rotors 30-1 to 30-4 are simply referred to as rotors 30 when they are not distinguished. The rotor drive unit 32 drives each rotor 30. In the present embodiment, the rotors 30-1 to 30-4 will be provided as an example, but the present embodiment is not limited to this. For example, there may be one rotor.

飛行制御部34は、位置推定装置50の処理結果や、センサ28により算出された高度、検出された機体の周辺状況、機体の姿勢等を統合して、ロータ駆動部32を制御する。飛行制御部34は、例えばロータ駆動部32を制御して、各ロータ30の回転数を増減させる。これにより、飛行制御部34は、飛行体20を上昇、下降、方向転換、前進等させる。飛行制御部34は、例えば予め設定された飛行ルートに基づいて自機を制御する。 The flight control unit 34 controls the rotor drive unit 32 by integrating the processing result of the position estimation device 50, the altitude calculated by the sensor 28, the detected surrounding condition of the airframe, the attitude of the airframe, and the like. The flight control unit 34 controls, for example, the rotor drive unit 32 to increase or decrease the rotation speed of each rotor 30. As a result, the flight control unit 34 raises, lowers, changes direction, moves forward, and the like. The flight control unit 34 controls the aircraft based on, for example, a preset flight route.

位置推定装置50は、記憶部52と、受光部56(受光素子57−1から57−3)と、位置推定部58を備える。記憶部52は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置により実現される。位置推定部58は、CPU(Central Processing Unit)などのプロセッサがプログラムを実行することで実現される。また、これらの位置推定部58は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)などのハードウェアで実現されてもよい。 The position estimation device 50 includes a storage unit 52, a light receiving unit 56 (light receiving elements 57-1 to 57-3), and a position estimation unit 58. The storage unit 52 is realized by, for example, a storage device such as a RAM (Random Access Memory), a ROM (Read Only Memory), an HDD (Hard Disk Drive), or a flash memory. The position estimation unit 58 is realized by executing a program by a processor such as a CPU (Central Processing Unit). Further, these position estimation units 58 may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), and FPGA (Field-Programmable Gate Array).

記憶部52には、受光素子57−1から57−3が取り付けられた位置、受光素子57−1から57−3が光を受光する受光方向の中心軸の向き、発光部12が発光する光に関する情報(振幅等)が記憶される。また、記憶部52には、予め設定された飛行ルートや、飛行計画が記憶されている。 The storage unit 52 has a position where the light receiving elements 57-1 to 57-3 are attached, the direction of the central axis of the light receiving direction in which the light receiving elements 57-1 to 57-3 receive light, and the light emitted by the light emitting unit 12. Information (amplitude, etc.) about is stored. Further, the storage unit 52 stores a preset flight route and flight plan.

受光素子57−1から57−3は、例えばフォトダイオードである。受光素子57−1から57−3は、それぞれ異なる方向に受光面が正対するように飛行体20に配置される。受光素子57−1から57−3は、例えば機体の下側の側面(地上と対向する面)に配置される。また、受光素子57−1から57−3は、例えば、ほぼ1箇所に集められて設けられる。なお、受光素子57−1から57−3は、互いに異なる箇所に離間して設けられてもよい。以下、受光部56の受光素子57−1から57−3を、区別しない場合は単に受光素子57と称する。 The light receiving elements 57-1 to 57-3 are, for example, photodiodes. The light receiving elements 57-1 to 57-3 are arranged on the flying object 20 so that the light receiving surfaces face each other in different directions. The light receiving elements 57-1 to 57-3 are arranged, for example, on the lower side surface (the surface facing the ground) of the airframe. Further, the light receiving elements 57-1 to 57-3 are collected and provided at, for example, substantially one place. The light receiving elements 57-1 to 57-3 may be provided at different locations apart from each other. Hereinafter, the light receiving elements 57-1 to 57-3 of the light receiving unit 56 are simply referred to as light receiving elements 57 when they are not distinguished.

位置推定部58は、各受光素子57により受光された光に含まれる光の強さを示す情報に基づいて、発光部12の存在する可能性がある幾何領域を設定し(限定し)、設定した幾何領域の交わりに基づいて発光部12の位置を推定する。位置推定部58の処理の詳細については後述する。 The position estimation unit 58 sets (limits) the geometric region in which the light emitting unit 12 may exist based on the information indicating the intensity of the light contained in the light received by each light receiving element 57. The position of the light emitting unit 12 is estimated based on the intersection of the geometric regions. The details of the processing of the position estimation unit 58 will be described later.

図3は、位置推定装置50により実行される処理の流れを示すフローチャートである。本処理は、繰り返し実行される処理である。まず、位置推定部58が、受光部56の各受信素子57により受光された光に含まれる光の強さを示す情報(受光結果)を取得する(ステップS100)。 FIG. 3 is a flowchart showing a flow of processing executed by the position estimation device 50. This process is a process that is repeatedly executed. First, the position estimation unit 58 acquires information (light receiving result) indicating the intensity of the light contained in the light received by each receiving element 57 of the light receiving unit 56 (step S100).

次に、位置推定部58は、ステップS100で取得した受光結果に基づいて、幾何領域を設定する(ステップS102)。次に、位置推定部58は、ステップS102で設定した幾何領域の交わり位置を導出する(ステップS104)。幾何領域の交わり位置は、発光部12の位置である。 Next, the position estimation unit 58 sets the geometric region based on the light receiving result acquired in step S100 (step S102). Next, the position estimation unit 58 derives the intersection position of the geometric region set in step S102 (step S104). The intersecting position of the geometric regions is the position of the light emitting unit 12.

図4は、幾何領域の概念図である。幾何領域は、曲面、平面、空間領域、曲線、直線などを含む。図中、X軸は受光素子57の指向方向と一致している。指向方向とは、受光素子57の受光感度が高い部分の中心軸方向である。位置推定部58は、受光素子57の受光結果に基づいて、幾何領域を設定する。位置推定部58は、受光結果(図中、出力A>B>C)に対応する受光素子57からの距離と角度との関係(幾何領域)を複数導出する。受光結果とは、受光素子57の出力結果である。この三次元曲面の幾何領域は、距離が遠くなるのに応じて受光素子57に正対する方向を軸とした半径が小さくなり、半径の変化率は距離が遠くなるのに従って小さくなる曲面(円錐を曲成したような曲面)である。なぜなら、光の強さは、受光素子57と発光部12との距離が遠くなる程弱くなり、受光素子57と発光部12との入射角度が正対方向から離れている程弱くなるからである。この傾向を反映させて、発光部12が存在する位置の集合を求めたものが幾何領域である。 FIG. 4 is a conceptual diagram of a geometric area. Geometric regions include curved surfaces, planes, spatial regions, curves, straight lines, and the like. In the figure, the X-axis coincides with the directing direction of the light receiving element 57. The directing direction is the central axis direction of the portion of the light receiving element 57 having high light receiving sensitivity. The position estimation unit 58 sets a geometric region based on the light receiving result of the light receiving element 57. The position estimation unit 58 derives a plurality of relationships (geometric regions) between the distance and the angle from the light receiving element 57 corresponding to the light receiving result (output A> B> C in the figure). The light receiving result is an output result of the light receiving element 57. The geometric region of this three-dimensional curved surface has a smaller radius about the direction facing the light receiving element 57 as the distance increases, and the rate of change of the radius decreases as the distance increases. It is a curved surface that looks like a curved surface). This is because the intensity of light becomes weaker as the distance between the light receiving element 57 and the light emitting unit 12 increases, and becomes weaker as the incident angle between the light receiving element 57 and the light emitting unit 12 increases from the facing direction. .. Reflecting this tendency, the geometric region is a set of positions where the light emitting unit 12 exists.

また、幾何領域の交わり位置は、位置推定部58により3つの受光素子57のそれぞれに対応して設定された3つの幾何領域の交わりである。位置推定部58は、導出された幾何領域の交わり位置、および受光素子57の設置条件に基づいて、発光部12の位置を導出する。位置の導出手法の詳細は、後述する「実施例」で説明する。 Further, the intersection position of the geometric regions is the intersection of the three geometric regions set by the position estimation unit 58 corresponding to each of the three light receiving elements 57. The position estimation unit 58 derives the position of the light emitting unit 12 based on the intersecting position of the derived geometric regions and the installation conditions of the light receiving element 57. Details of the position derivation method will be described in "Examples" described later.

次に、位置推定部58は、発光部12の位置に対する自機の位置を推定する(ステップS106)。次に、飛行制御部34が、位置推定部58により推定された自機の位置と、予め設定された飛行ルートに基づいて、自機を制御する(ステップS108)。これにより本フローチャートの1ルーチンの処理は終了し、ステップS100の処理に戻る。 Next, the position estimation unit 58 estimates the position of the own machine with respect to the position of the light emitting unit 12 (step S106). Next, the flight control unit 34 controls the own aircraft based on the position of the own aircraft estimated by the position estimation unit 58 and the preset flight route (step S108). As a result, the processing of one routine of this flowchart is completed, and the process returns to the processing of step S100.

例えば、発光部12が飛行体20の着陸位置付近に設けられている場合、飛行体20は、位置推定部58の推定結果に基づいて自機を制御することにより、より精度よく自機の着陸目標位置を特定することができる。この結果、飛行体20は、より精度よく自機を着陸目標位置に着陸させることができる。 For example, when the light emitting unit 12 is provided near the landing position of the aircraft body 20, the aircraft body 20 controls its own aircraft based on the estimation result of the position estimation unit 58, so that the aircraft body 20 can land more accurately. The target position can be specified. As a result, the aircraft 20 can land its own aircraft at the landing target position with higher accuracy.

なお、本フローチャートのステップS102およびステップS104の処理に代えて、位置推定部58は、位置推定マップに基づいて、自機に対する発光部12の位置を導出してもよい。この場合、記憶部52には、位置推定マップが格納される。図5は、位置推定マップ60の一例を示す図である。位置推定マップ60は、3つの受光素子57の受光結果に、自機に対する発光部12の位置が対応付けられたマップである。位置推定マップ60は、幾何領域の重なりに基づいて位置を推定する原理に基づいて作成されたものである。位置推定マップ60は、例えば上述した原理を用いた実験またはシミュレーションによって求められた結果に基づいて設定されたものである。 In addition, instead of the processing of step S102 and step S104 of this flowchart, the position estimation unit 58 may derive the position of the light emitting unit 12 with respect to the own machine based on the position estimation map. In this case, the position estimation map is stored in the storage unit 52. FIG. 5 is a diagram showing an example of the position estimation map 60. The position estimation map 60 is a map in which the positions of the light emitting unit 12 with respect to the own machine are associated with the light receiving results of the three light receiving elements 57. The position estimation map 60 is created based on the principle of estimating the position based on the overlap of geometric regions. The position estimation map 60 is set based on the result obtained by, for example, an experiment or a simulation using the above-mentioned principle.

図中、α1からα3は、受光素子57−1から57−3のそれぞれに対応する出力結果である。位置推定部58は、位置推定マップ60を参照し、3つの受光素子57の受光結果の交点に基づいて、自機に対する発光部12の位置(図中、P1またはP2)を導出する。図中、位置P1およびP2は、例えば、三次元座標により定義される。また、位置推定部58は、四則演算、近似式(多項式近似、直線近似、折れ線近似)を用いて発光部12の位置を導出してもよい。 In the figure, α1 to α3 are output results corresponding to each of the light receiving elements 57-1 to 57-3. The position estimation unit 58 refers to the position estimation map 60 and derives the position (P1 or P2 in the figure) of the light emitting unit 12 with respect to the own machine based on the intersection of the light receiving results of the three light receiving elements 57. In the figure, positions P1 and P2 are defined by, for example, three-dimensional coordinates. Further, the position estimation unit 58 may derive the position of the light emitting unit 12 by using four arithmetic operations and approximation formulas (polynomial approximation, straight line approximation, polygonal line approximation).

以上説明した第1の実施形態の位置推定システム1は、光を発する発光部12により発光された光を受光する互いに独立した方向に向く複数の受光素子57の受光結果に基づき、幾何領域の交わり位置を発光部12の位置と推定することにより、より高精度に発光部12の位置を推定することができる。この結果、飛行体20は、位置推定部58により導出された発光部12の位置に基づいて、より精度よく自機を制御することができる。 The position estimation system 1 of the first embodiment described above intersects geometric regions based on the light receiving results of a plurality of light receiving elements 57 that receive the light emitted by the light emitting unit 12 that emits light and that are directed in directions independent of each other. By estimating the position as the position of the light emitting unit 12, the position of the light emitting unit 12 can be estimated with higher accuracy. As a result, the flying object 20 can control its own aircraft more accurately based on the position of the light emitting unit 12 derived by the position estimation unit 58.

(第2の実施形態)
以下、第2の実施形態について説明する。ここでは、第1の実施形態との相違点を中心に説明し、第1の実施形態と共通する機能等についての説明は省略する。第2の実施形態では、発光部12は、飛行体20が追従する目標飛行体100に設けられる。
(Second Embodiment)
Hereinafter, the second embodiment will be described. Here, the differences from the first embodiment will be mainly described, and the description of the functions and the like common to the first embodiment will be omitted. In the second embodiment, the light emitting unit 12 is provided on the target flying object 100 that the flying object 20 follows.

図6は、位置推定システム1Aを搭載したUAV群(飛行体システム)の構成概要図である。本実施形態において取り扱うUAV群に関しては、まず目標飛行体(親機)100と飛行体(子機)20に役割を分担させる。親機には事前情報を与えるなどにより絶対的な自己位置を認識できるような設備を搭載する。そのような設備は高価で重いため子機には搭載せず、親機を追従させる。親機に発光装置10を搭載し、これを子機に搭載した受光素子57によって発光装置10から発光された光を検出し追従するような形で群体制御を実現する。 FIG. 6 is a configuration schematic diagram of a UAV group (aircraft system) equipped with the position estimation system 1A. Regarding the UAV group handled in the present embodiment, first, the target flying object (master unit) 100 and the flying object (slave unit) 20 are assigned roles. The base unit will be equipped with equipment that can recognize the absolute self-position by giving advance information. Since such equipment is expensive and heavy, it is not installed in the slave unit, but the master unit is made to follow. A light emitting device 10 is mounted on the master unit, and the light receiving element 57 mounted on the slave unit detects and follows the light emitted from the light emitting device 10 to realize colony control.

第2の実施形態の位置推定システム1Aは、飛行体20と、目標飛行体100とを備える。図7は、第2の実施形態の位置推定システム1Aの目標飛行体100の機能構成を示す図である。 The position estimation system 1A of the second embodiment includes a flying object 20 and a target flying object 100. FIG. 7 is a diagram showing a functional configuration of the target aircraft 100 of the position estimation system 1A of the second embodiment.

目標飛行体100が備える発光部12−1から12−nと、発光制御部14とは、発光装置10が備える発光部12−1から12−nと、発光制御部14と同様の機能構成であるため説明を省略する。また、目標飛行体100が備える蓄電池22と、アンテナ24と、通信制御部26と、センサ28と、ロータ30−1から30−4と、ロータ駆動部32と、記憶部52とは、飛行体20が備える蓄電池22と、・・・記憶部52と同様の機能構成であるため説明を省略する。 The light emitting units 12-1 to 12-n included in the target aircraft 100 and the light emitting control unit 14 have the same functional configurations as the light emitting units 12-1 to 12-n included in the light emitting device 10 and the light emitting control unit 14. Therefore, the description is omitted. Further, the storage battery 22, the antenna 24, the communication control unit 26, the sensor 28, the rotors 30-1 to 30-4, the rotor drive unit 32, and the storage unit 52 included in the target aircraft 100 are the aircraft. Since the storage battery 22 included in the 20 has the same functional configuration as the storage unit 52, the description thereof will be omitted.

目標飛行体100の飛行制御部34は、センサ28の検出結果や、記憶部52に記憶された飛行ルートに基づいて、ロータ30を制御する。これにより、目標飛行体100は、目標地点に向けて、または飛行ルートに従って飛行する。また、目標飛行体100は、コントローラから発信された電波に基づいて、制御されてもよい。 The flight control unit 34 of the target aircraft 100 controls the rotor 30 based on the detection result of the sensor 28 and the flight route stored in the storage unit 52. As a result, the target aircraft 100 flies toward the target point or according to the flight route. Further, the target aircraft 100 may be controlled based on the radio waves transmitted from the controller.

第2の実施形態の飛行体20の動作について説明する。まず、飛行体20の受光素子57が、目標飛行体100の発光部12から発光された光を受光する。飛行体20の位置推定部58が、位置推定マップ60を参照し、受信素子57の受光結果に基づいて、目標飛行体100の位置を導出する。位置推定部58が、目標飛行体100に対する自機の位置を推定する。飛行制御部34が、位置推定部58により導出された目標飛行体100の位置と、自機の位置とに基づいて、目標飛行体100に追従するように自機を制御する。 The operation of the flying object 20 of the second embodiment will be described. First, the light receiving element 57 of the flying object 20 receives the light emitted from the light emitting unit 12 of the target flying object 100. The position estimation unit 58 of the aircraft 20 refers to the position estimation map 60, and derives the position of the target aircraft 100 based on the light receiving result of the receiving element 57. The position estimation unit 58 estimates the position of the aircraft with respect to the target aircraft 100. The flight control unit 34 controls the own aircraft so as to follow the target aircraft 100 based on the position of the target aircraft 100 derived by the position estimation unit 58 and the position of the own aircraft.

なお、目標飛行体100には、位置推定装置50が搭載されてもよい。この場合、目標飛行体100の位置推定装置50は、例えば地上等に設けられた発光装置10の発光部12から発光される光の受光結果に基づいて、発光部12の位置を導出する。目標飛行体100の位置推定装置50は、導出した発光部12の位置に基づいて、自機を制御する。更に目標飛行体100に追従する飛行体20は、目標飛行体100の発光部12から発光される光の受光結果に基づいて、目標飛行体100の位置を導出する。飛行体20の位置推定装置50は、導出した目標飛行体100の位置に基づいて、自機を制御する。この結果、より精度よく飛行体20および目標飛行体100の群体制御を行うことができる。 The target aircraft 100 may be equipped with a position estimation device 50. In this case, the position estimation device 50 of the target flying object 100 derives the position of the light emitting unit 12 based on the light receiving result of the light emitted from the light emitting unit 12 of the light emitting device 10 provided on the ground or the like. The position estimation device 50 of the target aircraft 100 controls its own aircraft based on the position of the derived light emitting unit 12. Further, the flying object 20 following the target flying object 100 derives the position of the target flying object 100 based on the light receiving result of the light emitted from the light emitting unit 12 of the target flying object 100. The position estimation device 50 of the aircraft 20 controls its own aircraft based on the derived position of the target aircraft 100. As a result, the colony control of the flying object 20 and the target flying object 100 can be performed more accurately.

以上説明した第2の実施形態によれば、位置推定システム1Aは、目標飛行体100の発光部12により発光された光の受光結果に基づいて、目標飛行体100の位置をより高精度に推定することができる。この結果、飛行体20は、位置推定部58により導出された目標飛行体100および自機の位置に基づいて、より精度よく目標飛行体100を追従することができる。 According to the second embodiment described above, the position estimation system 1A estimates the position of the target flying object 100 with higher accuracy based on the light receiving result of the light emitted by the light emitting unit 12 of the target flying object 100. can do. As a result, the aircraft 20 can follow the target aircraft 100 more accurately based on the positions of the target aircraft 100 and its own aircraft derived by the position estimation unit 58.

(第3の実施形態)
以下、第3の実施形態について説明する。ここでは、第1の実施形態との相違点を中心に説明し、第1の実施形態と共通する機能等についての説明は省略する。第1の実施形態では、三次元空間における発光部12の位置を導出したが、第2の実施形態では、二次元空間における発光部12の位置を導出する。位置推定装置50は、例えば自動車における駐車制御や、自走式掃除機などに適用可能である。
(Third Embodiment)
Hereinafter, the third embodiment will be described. Here, the differences from the first embodiment will be mainly described, and the description of the functions and the like common to the first embodiment will be omitted. In the first embodiment, the position of the light emitting unit 12 in the three-dimensional space is derived, but in the second embodiment, the position of the light emitting unit 12 in the two-dimensional space is derived. The position estimation device 50 can be applied to, for example, parking control in an automobile, a self-propelled vacuum cleaner, and the like.

第3の実施形態の位置推定装置50は、2つの受光素子57の受光結果に基づいて、二次元曲線の交点に基づいて、発光部12の二次元の位置を導出する。図8は、第3の実施形態の幾何領域の概念図である。図中、X軸は受光素子57−1の指向方向と一致している。図中、Y軸は受光素子57−2の指向方向と一致している。指向方向とは、受光素子57の受光感度が高い部分の中心軸方向である。位置推定部58は、受光素子57の受光結果に基づいて、二次元曲線の幾何領域を設定する。位置推定部58は、受光結果(図中、出力A>B>C>D)に対応する自機からの距離と角度との関係を複数導出する。位置推定部58は、設定した2つの幾何領域の交わりを導出し、導出した交わり位置を発光部12の位置として導出する。例えば、受光素子57−1の受光結果が出力Dであり、受光素子57−2の受光結果が出力Bである場合、位置推定部58は、出力Dと出力Bの交わる位置に発光部12が存在すると推定する。 The position estimation device 50 of the third embodiment derives the two-dimensional position of the light emitting unit 12 based on the intersection of the two-dimensional curves based on the light receiving results of the two light receiving elements 57. FIG. 8 is a conceptual diagram of the geometric region of the third embodiment. In the figure, the X-axis coincides with the directing direction of the light receiving element 57-1. In the figure, the Y-axis coincides with the directing direction of the light receiving element 57-2. The directing direction is the central axis direction of the portion of the light receiving element 57 having high light receiving sensitivity. The position estimation unit 58 sets the geometric region of the two-dimensional curve based on the light receiving result of the light receiving element 57. The position estimation unit 58 derives a plurality of relationships between the distance and the angle from the own machine corresponding to the light reception result (output A> B> C> D in the figure). The position estimation unit 58 derives the intersection of the two set geometric regions, and derives the derived intersection position as the position of the light emitting unit 12. For example, when the light receiving result of the light receiving element 57-1 is the output D and the light receiving result of the light receiving element 57-2 is the output B, the position estimation unit 58 has the light emitting unit 12 at the position where the output D and the output B intersect. Presumed to exist.

第3の実施形態の位置推定装置50は、自走型の移動体に搭載されてもよい。自動車における駐車制御に適用される場合、自動車の駐車目標位置付近に発光部12が設けられる。位置推定装置50が搭載された自動車は、発光部12から発光された光の受光結果に基づいて自車の位置を推定する。自動車は、自車の位置の推定結果に基づいて自車を精度よく駐車することができる。 The position estimation device 50 of the third embodiment may be mounted on a self-propelled moving body. When applied to parking control in an automobile, a light emitting unit 12 is provided near a parking target position of the automobile. The automobile equipped with the position estimation device 50 estimates the position of the own vehicle based on the light receiving result of the light emitted from the light emitting unit 12. The car can park the car accurately based on the estimation result of the position of the car.

例えば位置推定装置50は、床面に散乱するごみ等を吸引する自走型床掃除装置に搭載されてもよい。例えば自走型床掃除装置は、複数の走行モータと、複数の車輪と、ごみ吸引部と、走行制御部とを含む。車輪は、走行モータにより出力された動力により回転する。これにより自走型床掃除装置は、所定の方向に向けて走行する。走行制御部は、位置推定装置50により導出された発光部12の位置に基づいて、走行モータを制御する。この結果、自走型床掃除装置は、位置推定装置50の位置の推定結果に基づいて、より精度よく自装置を制御することができる。 For example, the position estimation device 50 may be mounted on a self-propelled floor cleaning device that sucks dust and the like scattered on the floor surface. For example, a self-propelled floor cleaning device includes a plurality of traveling motors, a plurality of wheels, a dust suction unit, and a traveling control unit. The wheels are rotated by the power output by the traveling motor. As a result, the self-propelled floor cleaning device travels in a predetermined direction. The travel control unit controls the travel motor based on the position of the light emitting unit 12 derived by the position estimation device 50. As a result, the self-propelled floor cleaning device can control the self-propelled floor cleaning device more accurately based on the estimation result of the position of the position estimation device 50.

以上説明した第3の実施形態によれば、位置推定装置50は、発光部12により発光された光の受光結果に基づいて、発光部12の二次元位置を、より高精度に位置を推定することができる。 According to the third embodiment described above, the position estimation device 50 estimates the two-dimensional position of the light emitting unit 12 with higher accuracy based on the light receiving result of the light emitted by the light emitting unit 12. be able to.

(第4の実施形態)
以下、第4の実施形態について説明する。ここでは、第1から第3の実施形態との相違点を中心に説明し、第1から第3の実施形態と共通する機能等についての説明は省略する。第1から第3の実施形態では、受光素子57−1から57−3は、ほぼ1箇所に集められて設けられているものとした。これに対して、第4の実施形態では、互いに異なる箇所に離間して設けられ、位置推定部58は、複数の受光素子57により受光された光の強さを示す情報に基づいて、発光部12の位置を推定する。なお、本実施形態では、位置推定部58は、平面上における発光部12の位置を推定する。
(Fourth Embodiment)
Hereinafter, the fourth embodiment will be described. Here, the differences from the first to third embodiments will be mainly described, and the description of the functions and the like common to the first to third embodiments will be omitted. In the first to third embodiments, the light receiving elements 57-1 to 57-3 are gathered and provided at substantially one place. On the other hand, in the fourth embodiment, the position estimation unit 58 is provided at different locations apart from each other, and the position estimation unit 58 is a light emitting unit based on information indicating the intensity of light received by the plurality of light receiving elements 57. Estimate 12 positions. In the present embodiment, the position estimation unit 58 estimates the position of the light emitting unit 12 on a plane.

図9は、第4の実施形態の幾何領域の概念図である。第4の実施形態では、受光素子57−1および57−2は互いに異なる箇所に離間して設けられる。図示する例では、受光素子57−1の指向方向(Y軸方向)と受光素子57−2の指向方向(Y軸方向)とは一致している。更に受光素子57−1と受光素子57−2との距離Labは、記憶部52に予め記憶されている。位置推定部58は、受光結果に対応する幾何領域を、受光素子57ごとに導出する。図中、出力A(57−1)から出力C(57−1)は、受光素子57−1の受光結果に基づく幾何領域、すなわち発光部12が存在する可能性がある領域を示し、出力A(57−2)から出力E(57−2)は、受光素子57−2の受光結果に基づく幾何領域を示している。 FIG. 9 is a conceptual diagram of the geometric region of the fourth embodiment. In the fourth embodiment, the light receiving elements 57-1 and 57-2 are provided at different locations apart from each other. In the illustrated example, the directional direction (Y-axis direction) of the light receiving element 57-1 and the directional direction (Y-axis direction) of the light receiving element 57-2 coincide with each other. Further, the distance Lab between the light receiving element 57-1 and the light receiving element 57-2 is stored in advance in the storage unit 52. The position estimation unit 58 derives a geometric region corresponding to the light receiving result for each light receiving element 57. In the figure, outputs A (57-1) to C (57-1) indicate a geometric region based on the light receiving result of the light receiving element 57-1, that is, a region where the light emitting unit 12 may exist, and the output A The output E (57-2) from (57-2) shows a geometric region based on the light receiving result of the light receiving element 57-2.

位置推定部58は、設定した2つの曲線(幾何領域)の交わりを導出する。そして、位置推定部58は、導出した曲線の交わりに基づいて、発光部12の位置を導出する。例えば、受光素子57−1の受光結果が出力B(57−1)であり、受光素子57−2の受光結果が出力D(57−2)である場合、位置推定部58は、出力B(57−1)に対応する幾何領域と出力D(57−2)に対応する幾何領域との交わる位置と、受光素子57間の距離Labとに基づいて、受光素子57に対する発光部12が存在する位置(例えば角度αおよび距離Laと、角度βおよび距離Lb)を推定することができる。 The position estimation unit 58 derives the intersection of the two set curves (geometric regions). Then, the position estimation unit 58 derives the position of the light emitting unit 12 based on the intersection of the derived curves. For example, when the light receiving result of the light receiving element 57-1 is the output B (57-1) and the light receiving result of the light receiving element 57-2 is the output D (57-2), the position estimation unit 58 performs the output B (57-1). The light emitting unit 12 with respect to the light receiving element 57 exists based on the position where the geometric region corresponding to 57-1) and the geometric region corresponding to the output D (57-2) intersect and the distance Lab between the light receiving elements 57. Positions (eg, angle α and distance La, and angle β and distance Lb) can be estimated.

なお、位置推定部58は、位置推定マップに基づいて、自機に対する発光部12の位置を導出してもよい。位置推定マップ60は、受光素子57の受光結果に、自機に対する発光部12の位置が対応付けられたマップである。位置推定マップ60は、幾何領域の重なりに基づいて位置を推定する原理および受光素子57間の距離に基づいて作成されたものである。また、本実施形態では、位置推定部58は、2つの受光素子57の受光結果に基づいて、発光部12の二次元位置を推定するものとしてが、これに限られない。例えば、位置推定部58は、それぞれが互いに離間した3つの受光素子57の受光結果に基づいて、発光部12の三次元位置を推定してもよい。また、複数の受光素子57は、互いに異なる箇所に離間して設けられ、互いに独立した方向を指向してもよいし、同一の方向を指向してもよい。 The position estimation unit 58 may derive the position of the light emitting unit 12 with respect to the own machine based on the position estimation map. The position estimation map 60 is a map in which the position of the light emitting unit 12 with respect to the own machine is associated with the light receiving result of the light receiving element 57. The position estimation map 60 is created based on the principle of estimating the position based on the overlap of geometric regions and the distance between the light receiving elements 57. Further, in the present embodiment, the position estimation unit 58 estimates the two-dimensional position of the light emitting unit 12 based on the light receiving results of the two light receiving elements 57, but is not limited to this. For example, the position estimation unit 58 may estimate the three-dimensional position of the light emitting unit 12 based on the light receiving results of the three light receiving elements 57, which are separated from each other. Further, the plurality of light receiving elements 57 may be provided at different positions apart from each other and may be directed in directions independent of each other, or may be directed in the same direction.

以上説明した第4の実施形態によれば、複数の受光素子57は互いに異なる箇所に離間して設けられ、位置推定装置50は、複数の受光素子57により受光された光の強さを示す情報に基づいて、発光部12の存在する可能性がある幾何領域を複数の受光素子57のそれぞれに対応させて設定し、設定した幾何領域の交わり位置を発光部12の位置と推定する。この結果、より高精度に発光部12の位置を推定することができる。 According to the fourth embodiment described above, the plurality of light receiving elements 57 are provided at different positions apart from each other, and the position estimation device 50 provides information indicating the intensity of light received by the plurality of light receiving elements 57. Based on the above, a geometric region in which the light emitting unit 12 may exist is set corresponding to each of the plurality of light receiving elements 57, and the intersection position of the set geometric regions is estimated as the position of the light emitting unit 12. As a result, the position of the light emitting unit 12 can be estimated with higher accuracy.

また、第1から第4の実施形態の位置推定システム1または1Aは、両眼視差映像を液晶ディスプレイに表示する三次元表示手法に適用してもよい。三次元映像をユーザ(看者)に提供する場合、ユーザの頭部の位置を推定する必要がある。従って、位置推定システム1の発光部12をユーザの頭部における任意の位置等に配置し、受光部56を発光部12が発する光を受光可能な任意の位置に配置する。これにより、位置推定システム1または1Aは、ユーザの頭部の位置(視点)を推定し、推定した頭部の位置に対応した両眼視差映像を液晶ディスプレイに表示させることができる。なお、受光部56をユーザの頭部における任意の位置等に配置し、発光部12は受光部56に光を届けることができる任意の位置に配置してもよい。なお、ユーザの頭部の位置がある程度、一律である場合、位置推定システム1または1Aは、ユーザの頭部の位置を2次元で推定してもよい。 Further, the position estimation system 1 or 1A of the first to fourth embodiments may be applied to a three-dimensional display method for displaying a binocular parallax image on a liquid crystal display. When providing a three-dimensional image to a user (viewer), it is necessary to estimate the position of the user's head. Therefore, the light emitting unit 12 of the position estimation system 1 is arranged at an arbitrary position or the like on the user's head, and the light receiving unit 56 is arranged at an arbitrary position where the light emitted by the light emitting unit 12 can be received. As a result, the position estimation system 1 or 1A can estimate the position (viewpoint) of the user's head and display the binocular parallax image corresponding to the estimated head position on the liquid crystal display. The light receiving unit 56 may be arranged at an arbitrary position on the user's head, and the light emitting unit 12 may be arranged at an arbitrary position capable of delivering light to the light receiving unit 56. If the position of the user's head is uniform to some extent, the position estimation system 1 or 1A may estimate the position of the user's head in two dimensions.

(実施例)
出願人は、以下の実験を行い位置推定システムにより、振幅変調光による自己位置発信とその3次元位置の推定について確認した。
本実験では、提案手法を実機に実装する前の予備実験として、2つの予備実験を示す。1つめの予備実験は、発光素子と受光素子をそれぞれ1つずつ利用した、距離推定のための予備実験である。2つめの予備実験は、1つの発光素子と3つの受光素子を用いた、3次元位置推定のための予備実験である。
(Example)
The applicant conducted the following experiment and confirmed the self-position transmission by the amplitude-modulated light and the estimation of its three-dimensional position by the position estimation system.
In this experiment, two preliminary experiments are shown as preliminary experiments before the proposed method is implemented in an actual machine. The first preliminary experiment is a preliminary experiment for distance estimation using one light emitting element and one light receiving element. The second preliminary experiment is a preliminary experiment for three-dimensional position estimation using one light emitting element and three light receiving elements.

図10は、位置推定システムが位置を推定する場合における手法の概要図である。位置推定システムは、例えば発信装置、受信装置および周辺回路を組み合わせたシステムである。位置推定システムは、無段階に赤外光の輝度を変化させたものを、38[kHz]のパルスによるキャリア波を用いて変調し、その減衰の様子から距離を推定することにより、数ミリ秒〜数十ミリ秒の短時間で外光等の環境による影響の少ない高精度の自己位置発信を行うことができる。また、3次元位置推定においては、あらかじめ発信機側センサの赤外光の受信強度の分布の対応を取っておくことや位置推定を行う際の判定時間を調整することで精度の向上を図ることができる。また、今回、位置推定システムで行う3次元位置推定実験においては3個の受光素子を用いているが、個数を増加させることで推定範囲及び精度を向上させることができる。 FIG. 10 is a schematic diagram of a method when the position estimation system estimates the position. The position estimation system is, for example, a system that combines a transmitter, a receiver, and peripheral circuits. The position estimation system modulates the steplessly changed brightness of infrared light using a carrier wave with a pulse of 38 [kHz], and estimates the distance from the state of attenuation for several milliseconds. It is possible to perform high-precision self-position transmission with little influence from the environment such as external light in a short time of several tens of milliseconds. In addition, in the three-dimensional position estimation, the accuracy should be improved by making a correspondence in advance with the distribution of the infrared light reception intensity of the transmitter side sensor and adjusting the judgment time when performing the position estimation. Can be done. In addition, although three light receiving elements are used in the three-dimensional position estimation experiment performed by the position estimation system this time, the estimation range and accuracy can be improved by increasing the number of light receiving elements.

ここで、自己位置発信装置として中心波長940[nm]の赤外線を用い、距離に相関してエネルギーの減衰した光をIRセンサで検出することで自己位置発信源までの距離を推定する。さらにIRセンサを任意の方向に多数配置することで自己位置発信源までの角度も推定可能になるため3次元位置推定を行うことができる。 Here, infrared rays having a central wavelength of 940 [nm] are used as the self-position transmitting device, and the distance to the self-position transmitting source is estimated by detecting the light whose energy is attenuated in correlation with the distance with the IR sensor. Further, by arranging a large number of IR sensors in an arbitrary direction, the angle to the self-position source can be estimated, so that the three-dimensional position can be estimated.

図11は、出力信号と信号伝搬の概念図である。自己位置発信装置は、AM変調された単調減少の信号を38[kHz]のキャリア波を用いて変調し、(図10及び図11)に示す信号を赤外線発光する。キャリア波を用いることで、出力を大きくすることができるため、機体間の距離を長くすることが可能となる。また、周波数フィルターを用いて外乱の影響を軽減する。 FIG. 11 is a conceptual diagram of an output signal and signal propagation. The self-position transmitting device modulates the AM-modulated monotonically decreasing signal using a carrier wave of 38 [kHz], and emits the signal shown in (FIGS. 10 and 11) by infrared rays. By using the carrier wave, the output can be increased, so that the distance between the aircraft can be increased. In addition, a frequency filter is used to reduce the influence of disturbance.

受信装置はキャリア波に合わせたフィルター回路を搭載したIRセンサ(デジタル出力の赤外線リモコン受光モジュール:PL−IRM1261−C438)を使用する。赤外線信号が空間を伝搬する際、空間中でそのエネルギーが減衰する。そのため図11に示すように、距離に応じて受信機が信号を受信する時間が変化する。 The receiving device uses an IR sensor (digital output infrared remote control light receiving module: PL-IRM1261-C438) equipped with a filter circuit matched to the carrier wave. As an infrared signal propagates through space, its energy is attenuated in space. Therefore, as shown in FIG. 11, the time for the receiver to receive the signal changes according to the distance.

この時間と発信−受信機間の距離の相関関係を用いて距離を推定することができる。さらに、任意の方向に多数センサを配置し、3次元的空間の距離及び角度と、各センサの反応する時間を統合的に処理し相関関係を解析することで3次元空間上の位置推定が可能になる。 The distance can be estimated using the correlation between this time and the distance between the transmitter and the receiver. Furthermore, by arranging a large number of sensors in any direction and processing the distance and angle of the three-dimensional space and the reaction time of each sensor in an integrated manner and analyzing the correlation, it is possible to estimate the position in the three-dimensional space. become.

(距離推定のための予備実験)
発光素子と受光素子をそれぞれ1つずつ利用した予備実験に関しては、4段階に分けて性能向上を行った。それぞれの過程を、以下に説明する。図12は、自己位置発信装置の回路図である。sig1を一定時間ONにしてVccの電圧でコンデンサを充電する。sig2を30[kHz]で200回スイッチングすることでコンデンサのエネルギーを用いて図11に示す赤外線信号を出力する。Vcc、約30[kHz]のduty比、コンデンサ容量、充電時間、LEDの電流制限抵抗、放電時間(パルス回数)を変えることで任意の距離分解能と測定周期(充電時間+発光時間)を得ることができる。本実験では、Vcc5[V],duty1/3,コンデンサ4.7[μF],充電時間500[μs],抵抗330[Ω],200パルスで実験を行った。
(Preliminary experiment for distance estimation)
Regarding the preliminary experiment using one light emitting element and one light receiving element, the performance was improved in four stages. Each process will be described below. FIG. 12 is a circuit diagram of the self-position transmitting device. Turn on sig1 for a certain period of time to charge the capacitor with the voltage of Vcc. By switching sig2 at 30 [kHz] 200 times, the infrared signal shown in FIG. 11 is output using the energy of the capacitor. Arbitrary distance resolution and measurement cycle (charging time + light emission time) can be obtained by changing the duty ratio of Vcc, about 30 [kHz], capacitor capacity, charging time, LED current limiting resistance, and discharging time (number of pulses). Can be done. In this experiment, the experiment was performed with Vcc5 [V], duty1 / 3, capacitor 4.7 [μF], charging time 500 [μs], resistance 330 [Ω], and 200 pulses.

(実験1−1)
図13は、マイコン(AVR:16[MHz])を用いて発信信号1セットごとに送受信機間の距離変化による赤外線信号の受信時間を計測した結果を示す図である。図13に示すように、送受信機間の距離が小さくなるに従って赤外線の受信時間が増加していることがわかる。一方、距離が小さくなるに従って、センサ感度が非常に悪くなり出力波形が安定するまで約1秒を要し応答性が悪くなる、といった結果が得られた。また、送信機側から赤外線を7ミリ秒ほど出力しているが受信側では250[mm]の距離でも1ミリ秒ほどしか受信できていないという結果が得られた。この原因は、信号を受信し続けると内部回路で電荷が飽和しセンサが正常に動作しなくなる特性であると考え、この問題を解決するため図14に示す回路を用いて受信信号1セットごとに受信機(センサ)の電源をグランドに接地することでセンサ内部の電荷のリセットを行った。
(Experiment 1-1)
FIG. 13 is a diagram showing the results of measuring the reception time of an infrared signal due to a change in the distance between transmitters and receivers for each set of transmission signals using a microcomputer (AVR: 16 [MHz]). As shown in FIG. 13, it can be seen that the infrared reception time increases as the distance between the transmitters and receivers decreases. On the other hand, as the distance became smaller, the sensor sensitivity became very poor, and it took about 1 second for the output waveform to stabilize, resulting in poor responsiveness. In addition, although infrared rays are output from the transmitter side for about 7 milliseconds, the result is obtained that the receiving side can receive only about 1 millisecond even at a distance of 250 [mm]. It is considered that the cause of this is that if the signal is continuously received, the electric charge is saturated in the internal circuit and the sensor does not operate normally. In order to solve this problem, the circuit shown in FIG. 14 is used for each set of received signals. The charge inside the sensor was reset by grounding the power supply of the receiver (sensor) to the ground.

(実験1−2)
実験1−1の問題を解決するため、図14に示す回路を用いて受信信号1セットごとに受信機(センサ)の電源をグランドに接地することでセンサ内部の電荷のリセットを行った。図14は、受信機の回路図である。赤外線信号の受光時間計測直後に300マイクロ秒電源を落とす。再度電源を供給し、安定するまで100マイクロ秒待つ。再び赤外線信号の受光時間計測する。以上の流れで計測を行った。実験1−2の結果を図15に示す。
(Experiment 1-2)
In order to solve the problem of Experiment 1-1, the charge inside the sensor was reset by grounding the power supply of the receiver (sensor) to the ground for each set of received signals using the circuit shown in FIG. FIG. 14 is a circuit diagram of the receiver. Immediately after measuring the light receiving time of the infrared signal, turn off the power for 300 microseconds. Power again and wait 100 microseconds for stabilization. Measure the light receiving time of the infrared signal again. The measurement was performed according to the above flow. The results of Experiment 1-2 are shown in FIG.

図14に示す回路により、毎回初期状態で計測できるため応答性は非常に良く約200マイクロ秒程度の遅延である。しかし、図15より送受信機間の距離が1500[mm]〜500[mm]の間で距離の減少に従って受信時間が増加するという結果が得られなかった。原因として、ノイズ等の影響によりセンサへ電源を供給するタイミングが不安定になったと考えられる。 With the circuit shown in FIG. 14, since each measurement can be performed in the initial state, the responsiveness is very good and the delay is about 200 microseconds. However, from FIG. 15, the result that the distance between the transmitters and receivers is between 1500 [mm] and 500 [mm] and the reception time increases as the distance decreases cannot be obtained. It is considered that the cause is that the timing of supplying power to the sensor becomes unstable due to the influence of noise and the like.

(実験1−3)
実験1−2で発生した問題を解決するため、マイコンのメインプログラムのループ回数で赤外線信号受光時間をカウントするプログラムを作成した。送信機側の電源や環境等の影響でカウント回数にばらつきがあるため、500カウントを1000回計測した平均回数を結果のグラフを図16に示す。1000回の計測に要する時間は約7秒であることから500カウントは送信信号1セットの約7.2ミリ秒で行われていることが確認できた。測定結果を図16に示す。
(Experiment 1-3)
In order to solve the problem that occurred in Experiment 1-2, we created a program that counts the infrared signal reception time by the number of loops of the main program of the microcomputer. Since the number of counts varies due to the influence of the power supply on the transmitter side, the environment, etc., the average number of times 500 counts are measured 1000 times is shown in FIG. Since the time required for 1000 measurements is about 7 seconds, it was confirmed that 500 counts were performed in about 7.2 milliseconds for one set of transmission signals. The measurement result is shown in FIG.

図16は、送受信機間の距離と受光カウント数の相関を示す図である。また、図11の回路を用いて一定回数ごとに初期化することで応答性に関しては約200マイクロ秒の遅延という、UAVに実装し位置推定を行うのに十分な結果を得ることができた。このデータを元に、距離300[mm]〜700[mm](式(1))と700[mm]〜2500[mm](式(2))に分けてカウント(x)から距離(l)を推定する4次の近似式を作成した。近似式を式(1)および式(2)に示す。

Figure 0006754518
Figure 0006754518
FIG. 16 is a diagram showing the correlation between the distance between transmitters and receivers and the number of received light reception counts. In addition, by initializing at regular intervals using the circuit of FIG. 11, a delay of about 200 microseconds in terms of responsiveness, which is sufficient for mounting on a UAV and performing position estimation, could be obtained. Based on this data, the distances are divided into distances of 300 [mm] to 700 [mm] (formula (1)) and 700 [mm] to 2500 [mm] (formula (2)), and the distances (l) from the count (x) A fourth-order approximation formula was created to estimate. Approximate equations are shown in equations (1) and (2).
Figure 0006754518
Figure 0006754518

図17は、サンプリング回数の違いによる推定距離と真値の差を示す図である。サンプリング回数が多いほど誤差が小さくなる。サンプリング回数が100回(約0.7秒)を超えると誤差は20[mm]以内に収束する。しかし、近似式による誤差や環境等の影響によりサンプリング回数を一定以上増やしても誤差は0に収束しなかった。 FIG. 17 is a diagram showing the difference between the estimated distance and the true value due to the difference in the number of samplings. The larger the number of samplings, the smaller the error. If the number of samplings exceeds 100 (about 0.7 seconds), the error converges within 20 [mm]. However, the error did not converge to 0 even if the number of samplings was increased by a certain amount or more due to the error due to the approximate expression and the influence of the environment.

(実験1−4)
図18は、同様にして、光軸を90[deg]として0[deg]〜180[deg]の角度変化による受信時間を計測した結果を示す図である。図18より、センサの感度は中心から±15[deg]では変化しないこと、左右に対称性があることなどの特性がわかった。
(Experiment 1-4)
FIG. 18 is a diagram showing the results of measuring the reception time due to an angle change from 0 [deg] to 180 [deg] with the optical axis set to 90 [deg]. From FIG. 18, it was found that the sensitivity of the sensor does not change at ± 15 [deg] from the center, and that the sensor has left-right symmetry.

(3次元位置推定のための予備実験)
上述した「距離推定のための予備実験」と同様の条件でセンサの素子を3個に拡張し、3次元位置推定の予備実験、及び評価実験を行う。
(Preliminary experiment for 3D position estimation)
Under the same conditions as the above-mentioned "preliminary experiment for distance estimation", the sensor elements are expanded to three, and a preliminary experiment for three-dimensional position estimation and an evaluation experiment are performed.

(実験2−1)
図19は、各距離におけるカウント回数と角度の相関関係のグラフを示す図である。送受信機間の距離を50[mm]間隔で変えて計測した。グラフの曲線は左上から順に距離300[mm]のライン、350[mm]のライン、400[mm]のラインを示している。図19より、センサが受光したカウント回数(n)に対応する距離(r)と角度(θ)のセットが複数推定できる(図4参照)。
(Experiment 2-1)
FIG. 19 is a graph showing a graph of the correlation between the number of counts and the angle at each distance. The distance between the transmitters and receivers was changed at intervals of 50 [mm] for measurement. The curve of the graph shows a line of a distance of 300 [mm], a line of 350 [mm], and a line of 400 [mm] in order from the upper left. From FIG. 19, a plurality of sets of distance (r) and angle (θ) corresponding to the number of counts (n) received by the sensor can be estimated (see FIG. 4).

(3次元位置推定のための評価実験)
3次元空間上に直交座標系x−y−z軸と受信機の光軸が一致するように3つ配置した。図20は、センサ配置の概念図を示す。センサの中心から発信機までの距離rを350[mm]とした。位置推定手法を以下に示す。3つのセンサから取得したカウント回数を図19のグラフ(近似式)に当てはめ、各距離の場合における推定角度を算出する。例として、距離300[mm]の場合のカウント回数と角度の関係の近似式を式(3)に示す。

Figure 0006754518
(Evaluation experiment for 3D position estimation)
Three were arranged on the three-dimensional space so that the Cartesian coordinate system xyz axis and the optical axis of the receiver coincide with each other. FIG. 20 shows a conceptual diagram of the sensor arrangement. The distance r from the center of the sensor to the transmitter was set to 350 [mm]. The position estimation method is shown below. The number of counts acquired from the three sensors is applied to the graph (approximate formula) of FIG. 19 to calculate the estimated angle for each distance. As an example, an approximate expression of the relationship between the number of counts and the angle when the distance is 300 [mm] is shown in the equation (3).
Figure 0006754518

近似式のxにセンサから得られた値(センサA=289,B=302,C=293)を代入することで推定角度を求める。同様に、他の距離の場合における角度推定の近似式にも代入し、距離300[mm],350[mm],400[mm]の場合の推定角度を求める。結果を図21に示す。図21は、カウント回数と距離・角度との関係を示す図である。 The estimated angle is obtained by substituting the values (sensor A = 289, B = 302, C = 293) obtained from the sensor into x in the approximate expression. Similarly, by substituting into the approximate expression for angle estimation in the case of other distances, the estimated angle in the case of distances of 300 [mm], 350 [mm], and 400 [mm] is obtained. The results are shown in FIG. FIG. 21 is a diagram showing the relationship between the number of counts and the distance / angle.

3つセンサは1点に存在すると見なすと、送信機までの距離はすべてのセンサで同じである。また、3つのセンサの光軸を直交させているので図20に示すように幾何学的な束縛条件が存在する。図20で使用している文字を用いて式(4)を示す。

Figure 0006754518
Assuming that the three sensors are at one point, the distance to the transmitter is the same for all sensors. Further, since the optical axes of the three sensors are orthogonal to each other, there is a geometric binding condition as shown in FIG. Equation (4) is shown using the characters used in FIG.
Figure 0006754518

式(4)より、発信機の光軸と3つのそれぞれのセンサのなす角度の余弦の平方和が1なる。図21より、各距離における推定角度を代入すると、300[mm]における角度の余弦の平方和は0.8396、350[mm]では0.9574、400[mm]では数値1.064となり、350[mm]の場合が最も1に近いので解となる。また、その時の角度が推定される送信機の光軸と各センサの光軸とのなす推定角度である。 From equation (4), the sum of squares of the cosine of the angle formed by the optical axis of the transmitter and each of the three sensors is 1. Substituting the estimated angle at each distance from FIG. 21, the sum of squares of the cosine of the angle at 300 [mm] is 0.8396, 0.9574 at 350 [mm], and the numerical value 1.064 at 400 [mm], which is 350. Since the case of [mm] is the closest to 1, it is a solution. Further, it is an estimated angle formed by the optical axis of the transmitter and the optical axis of each sensor at which the angle at that time is estimated.

このアルゴリズムにより3次元位置推定を行ったところ、約0.2秒のサンプリング時間により、送受信機関の距離精度±25[mm]、各センサの光軸に対する角度精度±3°以内の3次元の位置推定のデータ取得が行えたことを確認した。センサの特性データを50[mm]間隔でサンプリングしたため誤差が最大±25[mm]となったが、さらに細かくデータを収集しておくことで精度の向上が可能である。 When the three-dimensional position was estimated by this algorithm, the three-dimensional position within ± 25 [mm] of the distance accuracy of the transmitting and receiving engine and ± 3 ° of the angle accuracy with respect to the optical axis of each sensor was obtained with a sampling time of about 0.2 seconds. It was confirmed that the estimated data could be acquired. Since the characteristic data of the sensor was sampled at intervals of 50 [mm], the maximum error was ± 25 [mm], but the accuracy can be improved by collecting the data in more detail.

このように位置推定システムは、受信部として3つの受光素子を直交するように配置し、その光軸に沿って3次元直行座標軸を定義し(原点を受光素子)、振幅変調赤外光の発信源の位置(距離、角度)を推定する。3つの受光素子が反応する時間を3つの入力として、角度に関する条件、距離に関する条件により、発信源の位置(距離1つ、角度2つ)を推定する。 In this way, the position estimation system arranges three light receiving elements orthogonally as a receiving unit, defines a three-dimensional orthogonal coordinate axis along the optical axis (the origin is the light receiving element), and transmits amplitude-modulated infrared light. Estimate the position (distance, angle) of the source. With the time when the three light receiving elements react as three inputs, the position of the source (one distance, two angles) is estimated according to the conditions related to the angle and the conditions related to the distance.

また、位置推定システムは、UAVを含む移動体の群体制御に利用することができる。例えば、あるマルチロータのUAVに発信機および周辺回路を搭載し、その他のマルチロータUAVに受信機および周辺回路を搭載する。発信機を搭載しているUAVの飛行に合わせて受信機を搭載しているその他のUAVが追従することにより編隊飛行を実現することができる。 In addition, the position estimation system can be used for colony control of moving bodies including UAVs. For example, one multi-rotor UAV is equipped with a transmitter and peripheral circuits, and another multi-rotor UAV is equipped with a receiver and peripheral circuits. A formation flight can be realized by following the flight of the UAV equipped with the transmitter and the flight of the other UAV equipped with the receiver.

上述したように、屋内外問わず使用できる安価で小型軽量の3次元位置推定システムの実現に向けて、振幅変調赤外光の有効性を検証した。様々な光量の下、実験を行い同様の性能を得ることができたため外乱による影響は非常に小さいと言える。屋外など様々な環境で運用されているUAVへの応用に期待できる。発信機及び3次元位置推定アルゴリズムを作り、短時間で高精度の位置推定が可能なデータを取得するシステムを実現した。位置推定システムによる位置推定手法は安定して高精度な位置推定が可能であり、GPSと併用して自律的な機体間の距離の短い編隊飛行を行うことができる。さらに、GPSの使えない建物内や瓦礫の中などの狭い場所でも要救助者の探索を含めた情報収集が体系的に実現できる。災害時の初期情報収集が迅速に行えるため、被害の抑制や人命救助に大きく貢献できる。また、自律制御の際の着陸誘導や、通過ポイントの誘導など様々な面で使用可能であると考えられる。 As described above, the effectiveness of amplitude-modulated infrared light was verified toward the realization of an inexpensive, compact and lightweight three-dimensional position estimation system that can be used indoors and outdoors. It can be said that the influence of disturbance is very small because the same performance could be obtained by conducting experiments under various light quantities. It can be expected to be applied to UAVs that are operated in various environments such as outdoors. We created a transmitter and a three-dimensional position estimation algorithm, and realized a system that acquires data that enables highly accurate position estimation in a short time. The position estimation method using the position estimation system enables stable and highly accurate position estimation, and can be used in combination with GPS to perform autonomous formation flight with a short distance between aircraft. Furthermore, it is possible to systematically collect information including the search for a rescuer even in a narrow place such as in a building where GPS cannot be used or in rubble. Since the initial information can be collected quickly in the event of a disaster, it can greatly contribute to the control of damage and the saving of lives. In addition, it is considered that it can be used in various aspects such as landing guidance during autonomous control and guidance of passing points.

以上、本発明を実施するための形態について実施形態または実験結果を用いて説明したが、本発明はこうした実施形態または実験結果に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments or experimental results, the present invention is not limited to these embodiments or experimental results and does not deviate from the gist of the present invention. Various modifications and substitutions can be made in.

1,1A…位置推定システム、10…発光装置、12…発光部、20…飛行体、56…受光部、57…受光素子、58…位置推定部 1,1A ... position estimation system, 10 ... light emitting device, 12 ... light emitting unit, 20 ... flying object, 56 ... light receiving unit, 57 ... light receiving element, 58 ... position estimation unit

Claims (6)

光を発する発光部と、
第1の方向を指向する第1の受光素子と、
前記第1の方向とは異なる第2の方向を指向する第2の受光素子と、
前記第1の方向および前記第2の方向とは異なる第3の方向を指向する第3の受光素子とを含み、前記第1の受光素子、前記第2の受光素子、および前記第3の受光素子が互いに離間しないように設けられた受光部と、
前記第1の受光素子、前記第2の受光素子および前記第3の受光素子の受光結果を用いて前記受光部に対する前記発光部の位置を推定する位置推定部と、を備え、
前記位置推定部は、
前記第1の受光素子、前記第2の受光素子および前記第3の受光素子のそれぞれに対して幾何領域を設定し、
前記設定した幾何領域と、前記設定した幾何領域に対して設定された幾何学的な拘束条件と、前記受光結果である光の強さを示す情報に基づいて得られた前記発光部が発光した光の減衰度と、に基づいて前記受光部に対する前記発光部の位置を推定し、
前記幾何領域は、受光素子との距離が遠くなるのに応じて前記受光素子の指向方向を中心とした半径が小さくなり、前記半径の変化率は前記距離が遠くなるのに従って小さくなる三次元曲面であり、且つ前記発光部の存在する可能性がある領域である、
位置推定システム。
A light emitting part that emits light and
A first light receiving element that points in the first direction,
A second light receiving element that points in a second direction different from the first direction,
The first light receiving element, the second light receiving element, and the third light receiving element include the first direction and a third light receiving element that points in a third direction different from the second direction. A light receiving part provided so that the elements are not separated from each other,
A position estimation unit that estimates the position of the light emitting unit with respect to the light receiving unit using the light receiving result of the first light receiving element, the second light receiving element, and the third light receiving element is provided.
The position estimation unit
Geometric regions are set for each of the first light receiving element, the second light receiving element, and the third light receiving element.
The light emitting unit obtained based on the set geometric region, the geometric constraint condition set for the set geometric region, and the information indicating the light intensity as the light receiving result emitted light. Based on the degree of light attenuation, the position of the light emitting part with respect to the light receiving part is estimated.
In the geometric region, the radius centered on the direction of direction of the light receiving element decreases as the distance from the light receiving element increases, and the rate of change of the radius decreases as the distance increases. And is a region where the light emitting portion may exist.
Position estimation system.
前記第1の受光素子が指向する前記第1の方向と、前記第2の受光素子が指向する前記第2の方向と、前記第3の受光素子が指向する前記第3の方向とは、互いに直交し、且つ前記発光部から、前記第1の受光素子までの距離と、前記第2の受光素子までの距離と、前記第3の受光素子までの距離とが同じとみなせるように配置されている、
請求項1に記載の位置推定システム。
Wherein said first direction in which the first light receiving element is directed, and the second direction in which the second light receiving element is directed, and the third direction in which the third light receiving element is oriented to each other They are orthogonal to each other and are arranged so that the distance from the light emitting unit to the first light receiving element, the distance to the second light receiving element, and the distance to the third light receiving element can be regarded as the same. Yes,
The position estimation system according to claim 1.
前記発光部が発光する光は、振幅変調光である、
請求項1または2に記載の位置推定システム。
The light emitted by the light emitting unit is amplitude-modulated light.
The position estimation system according to claim 1 or 2.
前記受光部および前記位置推定部は、飛行体に搭載され、
前記発光部は固定局である、
請求項1から3のうちいずれか1項に記載の位置推定システム。
The light receiving unit and the position estimation unit are mounted on the flying object.
The light emitting unit is a fixed station.
The position estimation system according to any one of claims 1 to 3.
前記発光部は、第1の飛行体に搭載され、
前記受光素子および前記位置推定部は、第2の飛行体に搭載され、
前記第2の飛行体は、前記第1の飛行体に追従して飛行する、
請求項1から3のうちいずれか1項に記載の位置推定システム。
The light emitting unit is mounted on the first flying object and is mounted on the first flying object.
The light receiving element and the position estimation unit are mounted on the second flying object.
The second flying object follows the first flying object and flies.
The position estimation system according to any one of claims 1 to 3.
前記第1の飛行体は、
更に、自己位置を認識する設備と、前記自己位置と予め設定された飛行ルートとに基づいて、自機の飛行を制御する飛行制御部と、前記自機が飛行している際に、前記発光部に光を放射させる発光制御部と、を備え、
前記第2の飛行体は、
更に、自己位置を認識する設備の認識結果に依らずに、前記位置推定部の推定部に基づいて、前記第1の飛行体に追従させるように自機を制御する飛行制御部と、
を備える、
請求項5に記載の位置推定システム。
The first flying object is
Further, a device that recognizes the self-position, a flight control unit that controls the flight of the own aircraft based on the self-position and a preset flight route, and the light emission when the own aircraft is in flight. Equipped with a light emission control unit that radiates light to the unit
The second flying object is
Further, a flight control unit that controls the aircraft so as to follow the first flying object based on the estimation unit of the position estimation unit, regardless of the recognition result of the equipment that recognizes the self-position.
To prepare
The position estimation system according to claim 5.
JP2015239674A 2014-12-08 2015-12-08 Position estimation system Active JP6754518B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014248336 2014-12-08
JP2014248336 2014-12-08

Publications (2)

Publication Number Publication Date
JP2016109698A JP2016109698A (en) 2016-06-20
JP6754518B2 true JP6754518B2 (en) 2020-09-16

Family

ID=56124038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015239674A Active JP6754518B2 (en) 2014-12-08 2015-12-08 Position estimation system

Country Status (1)

Country Link
JP (1) JP6754518B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6853530B2 (en) * 2016-12-26 2021-03-31 国立研究開発法人情報通信研究機構 Unmanned aerial vehicle current position detection system, unmanned aerial vehicle
KR101876829B1 (en) * 2017-09-21 2018-07-10 주식회사 블루젠드론 Induction control system for indoor flight control of small drones
CN109472460B (en) * 2018-10-18 2021-11-02 信阳师范学院 Real-time operation coverage area reconstruction method and system based on effective intersection points
JP7319117B2 (en) * 2019-07-11 2023-08-01 Hapsモバイル株式会社 Guidance system, aircraft carrier, control device, program, and control method
CN111061273B (en) * 2019-12-26 2023-06-06 航天时代(青岛)海洋装备科技发展有限公司 Autonomous obstacle avoidance fusion method and system for unmanned ship

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6197715A (en) * 1984-10-18 1986-05-16 Casio Comput Co Ltd Infrared-ray tracking robot system
JPS62165171A (en) * 1986-01-17 1987-07-21 Komatsu Ltd Measuring system for position of vehicle
JP3474372B2 (en) * 1995-10-18 2003-12-08 理化学研究所 Sensor system
TW542739B (en) * 2001-05-25 2003-07-21 Interlego Ag System for transmitting and receiving information about the orientation of a robot and information about the distance between the system and a robot
JP2005167517A (en) * 2003-12-01 2005-06-23 Olympus Corp Image processor, calibration method thereof, and image processing program
JP5572933B2 (en) * 2008-09-09 2014-08-20 株式会社リコー Position measuring apparatus, position measuring program, position measuring method, and position measuring system
RU2432581C1 (en) * 2010-03-03 2011-10-27 Общество с ограниченной ответственностью "РТЛ-Сервис" Method to locate radio centre, system of radio centre location and unit of data processing
US9018575B2 (en) * 2012-12-14 2015-04-28 Raytheon Company Non-retroreflective optical threat detection system and methods having an imaging detector aligned with a tilted image plane to reconstruct an image from plural image slices

Also Published As

Publication number Publication date
JP2016109698A (en) 2016-06-20

Similar Documents

Publication Publication Date Title
JP6754518B2 (en) Position estimation system
US9594381B1 (en) Enhanced distance detection system
EP3603372B1 (en) Moving robot, method for controlling the same, and terminal
EP3603370B1 (en) Moving robot, method for controlling moving robot, and moving robot system
CN111033561B (en) System and method for navigating a robotic device using semantic information
CN113029117B (en) Flight sensor
US11960278B2 (en) Moving robot and controlling method thereof
US10852738B2 (en) Self-propelled robotic tool navigation
US11989017B2 (en) Station apparatus and moving robot system
US20180350086A1 (en) System And Method Of Dynamically Filtering Depth Estimates To Generate A Volumetric Map Of A Three-Dimensional Environment Having An Adjustable Maximum Depth
CN111801717A (en) Automatic exploration control for robotic vehicles
Lee et al. Low-cost dual rotating infrared sensor for mobile robot swarm applications
Ghidary et al. A new Home Robot Positioning System (HRPS) using IR switched multi ultrasonic sensors
CN111093907A (en) Robust navigation of a robotic vehicle
EP4191360A1 (en) Distance measurement device and robotic vacuum cleaner
JP6508320B1 (en) Control system of unmanned aircraft
KR101872295B1 (en) Apparatus for attitude stabilization of small unmanned aerial vehicle
CN111694006A (en) Navigation sensing system for indoor unmanned system
US11231722B2 (en) Mobile body system and control method
Zhao et al. A remote aerial robot for topographic survey
CN215813856U (en) Bridge detection device
Srujan et al. An optical external localization system and applications to indoor tracking
CN113029158A (en) Rotor craft based on laser and sound fusion positioning and positioning method thereof
WO2018157103A1 (en) Sensing and communication system for rotorcraft
JP2004233073A (en) Position recognition means and position recognition system of flying object

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200807

R150 Certificate of patent or registration of utility model

Ref document number: 6754518

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250