JP7440272B2 - Aircraft, 3D position/attitude measurement device, and 3D position/attitude measurement method - Google Patents

Aircraft, 3D position/attitude measurement device, and 3D position/attitude measurement method Download PDF

Info

Publication number
JP7440272B2
JP7440272B2 JP2020004375A JP2020004375A JP7440272B2 JP 7440272 B2 JP7440272 B2 JP 7440272B2 JP 2020004375 A JP2020004375 A JP 2020004375A JP 2020004375 A JP2020004375 A JP 2020004375A JP 7440272 B2 JP7440272 B2 JP 7440272B2
Authority
JP
Japan
Prior art keywords
attitude
light source
flying object
dimensional
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020004375A
Other languages
Japanese (ja)
Other versions
JP2021109618A (en
Inventor
基文 福井
和也 横山
沙李 荒木
祐生 大平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2020004375A priority Critical patent/JP7440272B2/en
Publication of JP2021109618A publication Critical patent/JP2021109618A/en
Application granted granted Critical
Publication of JP7440272B2 publication Critical patent/JP7440272B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、飛行体、3次元位置・姿勢計測装置、及び3次元位置・姿勢計測方法に関する。 The present invention relates to a flying object, a three-dimensional position/attitude measurement device, and a three-dimensional position/attitude measurement method.

従来から、飛行体に撮像装置を取り付けて当該撮像装置によって建物の外壁等を撮影し、生成された画像を合成して当該建物の全体像を把握することが行われている。画像の合成処理においては、撮像時の飛行体の3次元位置及び姿勢の情報が必要となる。そのために、飛行体の3次元位置及び姿勢を測定する技術が考案されている。 BACKGROUND ART Conventionally, an imaging device is attached to a flying object, the exterior walls of a building, etc. are photographed by the imaging device, and the generated images are combined to obtain an overall image of the building. In image synthesis processing, information on the three-dimensional position and attitude of the flying object at the time of image capture is required. To this end, techniques have been devised to measure the three-dimensional position and attitude of an aircraft.

例えば、GPS信号受信機や測距センサ等を飛行体に搭載することにより、飛行体の3次元位置及び姿勢を測定する技術が提案されている。また、例えば、飛行体に複数の光源を取り付けておき、固定された2次元イメージセンサによって当該飛行体を撮影して生成された画像に含まれる光源の位置に基づいて飛行体の3次元的な位置及び姿勢を計測する方法が提案されている(例えば、特許文献1)。 For example, a technology has been proposed that measures the three-dimensional position and attitude of an aircraft by mounting a GPS signal receiver, a distance measuring sensor, or the like on the aircraft. For example, a plurality of light sources may be attached to a flying object, and a fixed two-dimensional image sensor may be used to photograph the flying object. Based on the position of the light source included in the generated image, the three-dimensional image of the flying object may be displayed. A method of measuring position and orientation has been proposed (for example, Patent Document 1).

特開2003-254716号公報Japanese Patent Application Publication No. 2003-254716

しかしながら、例えばボイラー炉の内部等の空間においては、GPS信号の受信が困難な場合や、センサの搭載により大型化した飛行体が進入することが困難な場合がある。また、飛行体に取り付けられた光源の位置のみに基づいて当該飛行体の3次元位置・姿勢を計測する場合、多数の光源が必要になる。 However, for example, in a space such as the inside of a boiler furnace, it may be difficult to receive a GPS signal, or it may be difficult for an aircraft that has become larger due to mounting a sensor to enter the space. Furthermore, when measuring the three-dimensional position and attitude of an aircraft based only on the position of a light source attached to the aircraft, a large number of light sources are required.

そこで、本発明は、GPS信号の受信が困難な環境や、大型の装置が進入することの困難な狭い環境においても、少ない数の光源によって3次元位置・姿勢を把握することの可能な飛行体と、当該飛行体の3次元的位置・姿勢を計測する3次元位置・姿勢計測装置及び3次元位置・姿勢計測方法を提供することを目的とする。 Therefore, the present invention provides an aircraft that can grasp the three-dimensional position and attitude using a small number of light sources, even in environments where it is difficult to receive GPS signals or in narrow environments where it is difficult for large devices to enter. Another object of the present invention is to provide a three-dimensional position/attitude measurement device and a three-dimensional position/attitude measurement method for measuring the three-dimensional position/attitude of the flying object.

本発明の一態様に係る3次元位置・姿勢計測装置は、少なくとも1つの光源を有する飛行体の空間的な位置及び姿勢を算出する3次元位置・姿勢計測装置であって、飛行体を含むシーンを撮像することにより画像を生成する撮像部と、撮像部により生成された画像から、少なくとも1つの光源の発光態様を抽出する抽出部と、少なくとも1つの光源の画像における2次元座標と、抽出部により抽出された発光態様に基づいて、飛行体の3次元位置及び姿勢を算出する算出部と、を備える。 A three-dimensional position/attitude measuring device according to one aspect of the present invention is a three-dimensional position/attitude measuring device that calculates a spatial position and attitude of an aircraft having at least one light source, and is a three-dimensional position/attitude measuring device that calculates a spatial position and attitude of an aircraft that includes a scene including the aircraft. an imaging unit that generates an image by capturing an image; an extraction unit that extracts a light emission mode of at least one light source from the image generated by the imaging unit; two-dimensional coordinates of the at least one light source in the image; and a calculation unit that calculates the three-dimensional position and attitude of the flying object based on the light emission mode extracted by.

この態様によれば、GPS信号の受信が困難な環境や、大型の装置が進入することの困難な狭い環境においても、少ない数の光源によって飛行体の3次元位置・姿勢を把握することが可能となる。そして、飛行体の3次元位置・姿勢の把握が可能となることにより、飛行体に設けられた撮像装置によって生成された画像が、観察対象である大型設備等のうちのどの部分をどの向きで撮像した画像であるのかを把握可能となり、以て大型設備等の観察が可能となる。 According to this aspect, it is possible to grasp the three-dimensional position and attitude of the aircraft using a small number of light sources, even in environments where it is difficult to receive GPS signals or in narrow environments where it is difficult for large devices to enter. becomes. By making it possible to grasp the three-dimensional position and attitude of the aircraft, images generated by the imaging device installed on the aircraft can be used to determine which part of the large equipment being observed and in which direction. It becomes possible to ascertain whether the image is a captured image, and it becomes possible to observe large equipment, etc.

本発明によれば、少ない数の光源によって3次元位置・姿勢を把握することの可能な飛行体と、当該飛行体の3次元的位置・姿勢を計測する3次元位置・姿勢計測装置及び3次元位置・姿勢計測方法を提供することができる。そして、飛行体の3次元位置・姿勢の把握が可能となることにより、飛行体の飛行制御や、飛行体に設けられた撮像装置により大型設備等の画像診断等が可能となる。 According to the present invention, there is provided a flying object whose three-dimensional position and attitude can be determined using a small number of light sources, a three-dimensional position and attitude measuring device which measures the three-dimensional position and attitude of the flying object, and a three-dimensional A position/orientation measurement method can be provided. By making it possible to grasp the three-dimensional position and attitude of the flying object, it becomes possible to control the flight of the flying object and perform image diagnosis of large equipment using an imaging device installed on the flying object.

第1実施形態に係る3次元位置・姿勢計測システム1の構成の一例を示す概略図である。1 is a schematic diagram showing an example of the configuration of a three-dimensional position/orientation measurement system 1 according to a first embodiment. 第1実施形態に係る飛行体10aの構成の一例を示すブロック図である。It is a block diagram showing an example of composition of flying object 10a concerning a 1st embodiment. 第1実施形態に係る3次元位置・姿勢計測装置20の構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of a three-dimensional position/orientation measuring device 20 according to the first embodiment. 参照情報の一例について説明するための模式的な図である。FIG. 3 is a schematic diagram for explaining an example of reference information. 第1実施形態に係る3次元位置・姿勢計測システム1による飛行体10aの3次元位置・姿勢計測方法の動作フローの一例を示す図である。FIG. 3 is a diagram illustrating an example of an operation flow of a three-dimensional position/attitude measurement method of a flying object 10a by the three-dimensional position/attitude measurement system 1 according to the first embodiment. カメラ21a及び光源13の位置関係の一例を模式的に示す図である。3 is a diagram schematically showing an example of the positional relationship between a camera 21a and a light source 13. FIG. 第2実施形態に係る3次元位置・姿勢計測システム2の構成の一例を示す概略図である。FIG. 2 is a schematic diagram showing an example of the configuration of a three-dimensional position/orientation measurement system 2 according to a second embodiment. 第2実施形態に係る飛行体10aの構成の一例を示すブロック図である。It is a block diagram showing an example of composition of flying object 10a concerning a 2nd embodiment. 第2実施形態に係る3次元位置・姿勢計測装置20の構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of a three-dimensional position/orientation measuring device 20 according to a second embodiment. 第2実施形態に係る3次元位置・姿勢計測システム2による飛行体10aの3次元位置・姿勢計測方法の動作フローの一例を示す図である。FIG. 7 is a diagram illustrating an example of an operation flow of a method for measuring the three-dimensional position and attitude of the flying object 10a using the three-dimensional position and attitude measurement system 2 according to the second embodiment. カメラ21a及び光源13A、13Bの位置関係の一例を模式的に示す図である。It is a figure which shows typically an example of the positional relationship of the camera 21a and light sources 13A and 13B. 第3実施形態に係る3次元位置・姿勢計測システム3の構成の一例を示す概略図である。FIG. 3 is a schematic diagram showing an example of the configuration of a three-dimensional position/orientation measurement system 3 according to a third embodiment. 第3実施形態に係る飛行体10aの構成の一例を示すブロック図である。It is a block diagram showing an example of composition of flying object 10a concerning a 3rd embodiment. 第3実施形態に係る3次元位置・姿勢計測装置20の構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the configuration of a three-dimensional position/orientation measuring device 20 according to a third embodiment. 第3実施形態に係る3次元位置・姿勢計測システム2による飛行体10aの3次元位置・姿勢計測方法の動作フローの一例を示す図である。FIG. 7 is a diagram showing an example of an operation flow of a three-dimensional position/attitude measurement method of a flying object 10a by a three-dimensional position/attitude measurement system 2 according to a third embodiment. カメラ21a及び光源13A、13B、13Cの位置関係の一例を模式的に示す図である。It is a figure which shows typically an example of the positional relationship of camera 21a and light sources 13A, 13B, and 13C.

添付図面を参照して、本発明の好適な実施形態について説明する。(なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。) Preferred embodiments of the present invention will be described with reference to the accompanying drawings. (In each figure, items with the same reference numerals have the same or similar configurations.)

[第1実施形態]
以下では、第1実施形態に係る3次元位置・姿勢計測システム1について説明する。第1実施形態に係る3次元位置・姿勢計測システム1においては、飛行体10aは、飛行体10aの姿勢に応じた発光態様で発光する1つの光源を備える。第1実施形態に係る3次元位置・姿勢計測システム1では、カメラ21aが飛行体10aを撮像して得られた画像における光源13の2次元座標及び輝度に基づいて、飛行体10aの3次元位置が算出される。また、当該画像に対して時系列的に前後する複数の画像に基づいて光源13の発光態様が抽出された上で、当該発光態様に基づいて飛行体10aの3次元姿勢が算出される。
[First embodiment]
Below, a three-dimensional position/orientation measurement system 1 according to the first embodiment will be described. In the three-dimensional position/attitude measurement system 1 according to the first embodiment, the flying object 10a includes one light source that emits light in a light emission mode depending on the attitude of the flying object 10a. In the three-dimensional position/attitude measurement system 1 according to the first embodiment, the three-dimensional position of the flying object 10a is determined based on the two-dimensional coordinates and brightness of the light source 13 in the image obtained by imaging the flying object 10a with the camera 21a. is calculated. Further, the light emission mode of the light source 13 is extracted based on a plurality of images that are sequentially preceding and following the image, and then the three-dimensional attitude of the flying object 10a is calculated based on the light emission mode.

(1)構成
(1-1)3次元位置・姿勢計測システム1
図1は、第1実施形態に係る3次元位置・姿勢計測システム1の構成の一例を示す概略図である。3次元位置・姿勢計測システム1は、例えば、飛行体10aと、操縦装置10bと、3次元位置・姿勢計測装置20とを、備える。
(1) Configuration (1-1) Three-dimensional position/orientation measurement system 1
FIG. 1 is a schematic diagram showing an example of the configuration of a three-dimensional position/orientation measurement system 1 according to the first embodiment. The three-dimensional position/attitude measurement system 1 includes, for example, a flying object 10a, a control device 10b, and a three-dimensional position/attitude measurement device 20.

飛行体10aには1つの光源13が設けられている。飛行体10aは、操縦装置10bから受信した操縦信号や撮像信号に応じた動作を行う。操縦装置10bは、遠隔的に飛行体10aを操縦するための情報処理装置であり、例えば、メモリ、通信回路、及びプロセッサ等を含んで構成される。操縦装置10bは、操作者による操作を受け付けると、当該操作に応じた操縦信号や撮像信号を例えば無線通信により飛行体10aに送信する。 One light source 13 is provided in the aircraft 10a. The flying object 10a performs operations according to the control signal and imaging signal received from the control device 10b. The control device 10b is an information processing device for remotely controlling the flying object 10a, and includes, for example, a memory, a communication circuit, a processor, and the like. When the control device 10b receives an operation by the operator, it transmits a control signal and an imaging signal corresponding to the operation to the flying object 10a, for example, by wireless communication.

3次元位置・姿勢計測装置20は、飛行体10aの3次元位置及び姿勢を測定する装置であり、例えば、カメラ21aと、制御ユニット21bとを備える。カメラ21aは、飛行体10aを含むシーンを撮像することにより画像を生成し、当該画像を制御ユニット21bに供給する。制御ユニット21bは、カメラ21aから供給された画像を解析して、当該画像における光源13の2次元座標や発光態様に基づいて、飛行体10aの3次元位置及び姿勢を算出する。 The three-dimensional position/attitude measurement device 20 is a device that measures the three-dimensional position and attitude of the flying object 10a, and includes, for example, a camera 21a and a control unit 21b. The camera 21a generates an image by capturing a scene including the flying object 10a, and supplies the image to the control unit 21b. The control unit 21b analyzes the image supplied from the camera 21a, and calculates the three-dimensional position and attitude of the flying object 10a based on the two-dimensional coordinates and light emission mode of the light source 13 in the image.

(1-2)飛行体10a
図2は、第1実施形態に係る飛行体10aの構成の一例を示すブロック図である。
(1-2) Aircraft 10a
FIG. 2 is a block diagram showing an example of the configuration of the flying object 10a according to the first embodiment.

図2に示すように、飛行体10aは、4つのモータ11、カメラ12、光源13、制御ユニット14等を備える。制御ユニット14は、制御部140、メモリ141、モータコントローラ142、通信部143、姿勢センサ144、及びバッテリ145等を含む。 As shown in FIG. 2, the flying object 10a includes four motors 11, a camera 12, a light source 13, a control unit 14, and the like. The control unit 14 includes a control section 140, a memory 141, a motor controller 142, a communication section 143, an attitude sensor 144, a battery 145, and the like.

4つのモータ11は、それぞれの出力軸に取り付けた回転翼を個別に回転駆動するモータである。各モータ11はプロペラに接続されており、モータ11が回転することによりプロペラが浮力を生じさせ、これにより飛行体10aが飛行可能となる。 The four motors 11 are motors that individually rotate rotary blades attached to respective output shafts. Each motor 11 is connected to a propeller, and as the motor 11 rotates, the propeller generates buoyancy, which allows the flying object 10a to fly.

カメラ12は、CCD(Charge-Coupled Device)やCMOS(Complementary MOS)などのイメージセンサを備え、カメラ制御部140bからの制御データに基づいてイメージセンサにより対象物(例えば、大型設備の外壁等)を撮像し、撮像により得た画像を制御部140に出力する。 The camera 12 includes an image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary MOS), and uses the image sensor to detect an object (for example, the outer wall of a large facility) based on control data from the camera control unit 140b. The image is captured and the image obtained by the capture is output to the control unit 140.

光源13は、PWM(Pulse Width Modulation)信号により駆動するLED(Light Emitting Diode)発光部を有する。なお、光源13は、LEDの他に、キセノンランプなどの他の発光部を用いてもよい。光源13は、照明の明るさを設定する設定レジスタを有し、設定レジスタに設定された明るさにPWM信号のパルス幅を調節してLED発光部を駆動する。設定レジスタに対する明るさの設定は、制御部140が行うものとし、パルス幅を調節する制御データを設定する。また、発光部の明るさの可変方式は、PWM信号の他に、例えば発光部に流れる電流値を可変させるなど、適宜変形してもよい。 The light source 13 has an LED (Light Emitting Diode) light emitting section that is driven by a PWM (Pulse Width Modulation) signal. Note that the light source 13 may use other light emitting parts such as a xenon lamp in addition to the LED. The light source 13 has a setting register for setting the brightness of the illumination, and drives the LED light emitting section by adjusting the pulse width of the PWM signal to the brightness set in the setting register. The control unit 140 sets the brightness in the setting register, and sets control data for adjusting the pulse width. In addition to the PWM signal, the method for varying the brightness of the light emitting section may be modified as appropriate, such as by varying the value of the current flowing through the light emitting section.

制御部140は、CPU(Central Processing Unit)等により構成されるマイクロコンピュータを有する。制御部140は、メモリ141に記憶されている制御プログラムを実行することにより、飛行体10aの各部に制御データを出力して、飛行体10a全体を統括的に制御する。制御部140は、例えば、モータ制御部140aと、カメラ制御部140bと、光源制御部140cとを備える。 The control unit 140 includes a microcomputer including a CPU (Central Processing Unit) and the like. The control unit 140 outputs control data to each part of the aircraft 10a by executing a control program stored in the memory 141, thereby controlling the entire aircraft 10a in an integrated manner. The control unit 140 includes, for example, a motor control unit 140a, a camera control unit 140b, and a light source control unit 140c.

モータ制御部140aは、通信部143が受信した操縦装置10bからの操縦信号に対応する制御データをモータコントローラ142へ出力して各モータ11を制御する。これにより、モータ制御部140aは、飛行体10aの飛行に関する制御を行う。 The motor control unit 140a controls each motor 11 by outputting control data corresponding to the control signal from the control device 10b received by the communication unit 143 to the motor controller 142. Thereby, the motor control unit 140a performs control regarding the flight of the flying object 10a.

カメラ制御部140bは、通信部143が受信した操縦装置10bからの撮像信号に対応する制御データをカメラ12へ出力して、カメラ12の撮像に関する制御を行う。
カメラ制御部140bは、カメラ12から出力された画像を所定形式に変換してメモリ141に保存する。
The camera control unit 140b outputs control data corresponding to the imaging signal from the control device 10b received by the communication unit 143 to the camera 12, and performs control regarding imaging by the camera 12.
The camera control unit 140b converts the image output from the camera 12 into a predetermined format and stores it in the memory 141.

光源制御部140cは、飛行体10aの3次元姿勢を示す姿勢センサ144の出力をモニタし、それらの出力値に対応した発光態様で発光するように光源13に制御データを出力して、光源13の発光に関する制御を行う。 The light source control unit 140c monitors the output of the attitude sensor 144 indicating the three-dimensional attitude of the flying object 10a, and outputs control data to the light source 13 so that the light source 13 emits light in a light emission mode corresponding to the output value. Controls light emission.

具体的には、光源制御部140cは、メモリ141に記憶された参照情報を参照して、姿勢センサ144の出力に基づき、飛行体10aの3次元姿勢であるX軸周りの回転角度α、Y軸周りの回転角度β、及びZ軸周りの回転角度γに対応する色情報や点滅周波数等の発光態様で、光源13を発光させる。例えば、光源制御部140cは、回転角度αに対応する色情報C1、回転角度βに対応する色情報C2、及び回転角度γに対応する色情報C3で、光源13を所定期間ずつ順次に発光させてもよい。また、光源制御部140cは、回転角度αに対応する点滅周波数f1、回転角度βに対応する点滅周波数f2、及び回転角度γに対応する点滅周波数f3で、光源13を所定期間ずつ順次に発光させてもよい。 Specifically, the light source control unit 140c refers to the reference information stored in the memory 141, and based on the output of the attitude sensor 144, determines the rotation angle α, Y around the X axis, which is the three-dimensional attitude of the flying object 10a. The light source 13 is caused to emit light in a light emitting manner such as color information and blinking frequency corresponding to the rotation angle β around the axis and the rotation angle γ around the Z axis. For example, the light source control unit 140c causes the light source 13 to sequentially emit light for a predetermined period using color information C1 corresponding to the rotation angle α, color information C2 corresponding to the rotation angle β, and color information C3 corresponding to the rotation angle γ. It's okay. Further, the light source control unit 140c causes the light source 13 to sequentially emit light for a predetermined period at a blinking frequency f1 corresponding to the rotation angle α, a blinking frequency f2 corresponding to the rotation angle β, and a blinking frequency f3 corresponding to the rotation angle γ. It's okay.

メモリ141は、ROMやRAM等により構成され、ドライバプログラム、オペレーティングシステムプログラム、及びアプリケーションプログラム等の各種のプログラムや、各種のデータを記憶する。メモリ141は、例えば、制御部140がモータ制御部140a、光源制御部140c、及びカメラ制御部140b等を実現するためのプログラムを記憶する。また、メモリ141は、例えば、カメラ制御部140bから出力された画像を記憶する。また、メモリ141は、例えば、光源制御部140cが光源13の発光を制御する際に参照する参照情報を記憶する。参照情報については後述する。メモリ141が記憶する各種のプログラムは、例えばCD-ROM、DVD-ROM等のコンピュータ読取可能な可搬型記録媒体から、公知のセットアッププログラム等を用いてメモリ141にインストールされてもよい。 The memory 141 is composed of ROM, RAM, etc., and stores various programs such as driver programs, operating system programs, and application programs, and various data. The memory 141 stores, for example, programs for the control unit 140 to implement the motor control unit 140a, the light source control unit 140c, the camera control unit 140b, and the like. Further, the memory 141 stores, for example, images output from the camera control unit 140b. Further, the memory 141 stores, for example, reference information that the light source control unit 140c refers to when controlling light emission from the light source 13. Reference information will be described later. The various programs stored in the memory 141 may be installed in the memory 141 from a computer-readable portable recording medium such as a CD-ROM or a DVD-ROM using a known setup program or the like.

モータコントローラ142は、制御部140のモータ制御部140aからの制御データに基づいて4つのモータ11の回転数を個別に制御する。 The motor controller 142 individually controls the rotation speeds of the four motors 11 based on control data from the motor control section 140a of the control section 140.

通信部143は、WiFiやBluetooth(登録商標)などの通信方式により無線通信を行う無線通信機である。例えば、通信部143は、電波を受信し、受信電波から受信データを復調して受信データ内の操縦信号や撮像信号に関するデータを制御部140に出力する。 The communication unit 143 is a wireless communication device that performs wireless communication using a communication method such as WiFi or Bluetooth (registered trademark). For example, the communication unit 143 receives radio waves, demodulates received data from the received radio waves, and outputs data related to the control signal and imaging signal in the received data to the control unit 140.

姿勢センサ144は、例えば、3軸ジャイロセンサ等の角速度センサによって構成され、飛行体10aの3次元姿勢を検知し、検知結果を制御部140に出力する。ここで、姿勢センサ144が検知する飛行体10aの3次元姿勢は、例えば、X軸周りに回転角度αだけ回転させ、次にY軸周りに回転角度βだけ回転させ、次にZ軸周りに回転角度γだけ回転させた場合の3次元姿勢として規定される。 The attitude sensor 144 includes, for example, an angular velocity sensor such as a three-axis gyro sensor, detects the three-dimensional attitude of the flying object 10a, and outputs the detection result to the control unit 140. Here, the three-dimensional attitude of the flying object 10a detected by the attitude sensor 144 is, for example, rotated around the X axis by a rotation angle α, then rotated around the Y axis by a rotation angle β, and then rotated around the Z axis. It is defined as a three-dimensional posture when rotated by a rotation angle γ.

バッテリ146は、リチウムイオン電池などであり、飛行体10aの各部に駆動電力を供給する。 The battery 146 is a lithium ion battery or the like, and supplies driving power to each part of the aircraft 10a.

(1-3)3次元位置・姿勢計測装置20
図3は、第1実施形態に係る3次元位置・姿勢計測装置20の構成の一例を示すブロック図である。
(1-3) Three-dimensional position/orientation measuring device 20
FIG. 3 is a block diagram showing an example of the configuration of the three-dimensional position/orientation measuring device 20 according to the first embodiment.

3次元位置・姿勢計測装置20は、例えば、カメラ21aと、制御ユニット21b内に設けられた通信部22と、メモリ23と、制御部24とを備える。 The three-dimensional position/orientation measuring device 20 includes, for example, a camera 21a, a communication section 22 provided in a control unit 21b, a memory 23, and a control section 24.

カメラ21aは、CCD(Charge-Coupled Device)やCMOS(Complementary MOS)などのイメージセンサを備える。カメラ21aは、カメラ制御部25から供給される制御データに基づいて、当該イメージセンサにより所定のフレームレートによって飛行体10aを撮像して画像を生成し、メモリ23に出力する。カメラ21aの画像生成におけるフレームレートは、光源13の点滅周波数が把握可能ように十分大きいものであってよい。 The camera 21a includes an image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary MOS). The camera 21a generates an image by capturing an image of the flying object 10a using the image sensor at a predetermined frame rate based on the control data supplied from the camera control unit 25, and outputs the image to the memory 23. The frame rate of image generation by the camera 21a may be sufficiently large so that the blinking frequency of the light source 13 can be determined.

通信部22は、WiFiやBluetooth(登録商標)などの通信方式により無線通信を行う無線通信機である。通信部22は、飛行体10aを含む他の装置等との間で情報を送受信する。 The communication unit 22 is a wireless communication device that performs wireless communication using a communication method such as WiFi or Bluetooth (registered trademark). The communication unit 22 transmits and receives information to and from other devices including the flying object 10a.

メモリ23は、ROMやRAM等により構成され、ドライバプログラム、オペレーティングシステムプログラム、及びアプリケーションプログラム等の各種のプログラムや、各種のデータを記憶する。また、メモリ23は、例えば、カメラ21aが生成した画像を時系列的に記憶する。また、例えば、メモリ23は、画像に基づいて飛行体10aの3次元位置や姿勢を算出するための各種の参照情報を記憶する。当該参照情報は、例えば、3次元姿勢算出部273が、解析対象の動画像から抽出された光源13の発光態様に基づいて、飛行体10aの姿勢を算出する際に参照される。参照情報については後述する。 The memory 23 is composed of a ROM, a RAM, etc., and stores various programs such as driver programs, operating system programs, and application programs, and various data. Furthermore, the memory 23 stores, for example, images generated by the camera 21a in chronological order. Further, for example, the memory 23 stores various types of reference information for calculating the three-dimensional position and attitude of the flying object 10a based on the image. The reference information is referred to, for example, when the three-dimensional attitude calculation unit 273 calculates the attitude of the flying object 10a based on the light emission mode of the light source 13 extracted from the moving image to be analyzed. Reference information will be described later.

制御部24は、CPU(Central Processing Unit)等により構成されるマイクロコンピュータを有する。制御部24は、メモリ23に記憶されている制御プログラムを実行することにより、3次元位置・姿勢計測装置20の各部に制御データを出力して、3次元位置・姿勢計測装置20全体を統括的に制御する。 The control unit 24 includes a microcomputer including a CPU (Central Processing Unit) and the like. The control unit 24 outputs control data to each part of the three-dimensional position/orientation measuring device 20 by executing the control program stored in the memory 23, thereby controlling the entire three-dimensional position/orientation measuring device 20. to control.

カメラ制御部25は、制御データをカメラ21aへ出力して、カメラ21aの撮像に関する制御を行う。カメラ制御部25は、カメラ21aから出力された画像にタイムスタンプを付加し、所定形式に変換してメモリ23に保存する。 The camera control unit 25 outputs control data to the camera 21a to control imaging by the camera 21a. The camera control unit 25 adds a time stamp to the image output from the camera 21a, converts it into a predetermined format, and stores it in the memory 23.

画像処理部26は、メモリ23に保存された画像から所定の画像を抽出し、当該画像を処理することにより、3次元位置・姿勢計測のための種々のパラメータを算出・抽出する。画像処理部26は、例えば、光源特定部261、及び発光態様抽出部262を含む。 The image processing unit 26 extracts a predetermined image from the images stored in the memory 23 and processes the image to calculate and extract various parameters for three-dimensional position/orientation measurement. The image processing unit 26 includes, for example, a light source identification unit 261 and a light emission mode extraction unit 262.

光源特定部261は、解析対象の画像から光源13を特定する。光源特定部261が光源13を特定する方法は特に限定されないが、例えば以下のように光源13を特定してもよい。すなわち、光源特定部261は、画像に含まれる各画素の輝度及び/又は色情報(色差等)を参照して、輝度及び/又は色情報(色差等)が所定の閾値以上である画素を、光源13に対応する画素であると特定してもよい。また、光源特定部261は、画像中の任意の領域(略円状、略矩形等の形状を有する領域であってよい)に含まれる複数の画素のうちの所定の割合以上について、輝度及び/又は色情報(色差等)が所定の閾値以上である場合に、当該領域を光源13に対応する画素(領域)であると特定してもよい。そして、特定された画素(領域)の位置に応じて、光源13の2次元座標を決定する。 The light source identifying unit 261 identifies the light source 13 from the image to be analyzed. Although the method by which the light source specifying unit 261 specifies the light source 13 is not particularly limited, the light source 13 may be specified as follows, for example. That is, the light source specifying unit 261 refers to the brightness and/or color information (color difference, etc.) of each pixel included in the image, and identifies pixels whose brightness and/or color information (color difference, etc.) is equal to or higher than a predetermined threshold. A pixel corresponding to the light source 13 may be specified. In addition, the light source specifying unit 261 determines the luminance and/or Alternatively, the area may be identified as a pixel (area) corresponding to the light source 13 when the color information (color difference, etc.) is greater than or equal to a predetermined threshold. Then, two-dimensional coordinates of the light source 13 are determined according to the position of the specified pixel (area).

発光態様抽出部262は、メモリ23から解析対象の画像を含む所定期間(飛行体10aが移動していないと見なせる程度に十分に短い期間であってよい)内に撮像された複数の画像を抽出し、当該複数の画像から光源13の発光態様を抽出する。ここで、発光態様は、光源の色情報や点滅周波数等によって規定される。例えば、発光態様は、光源13の色情報が、色情報C1、色情報C2、及び色情報C3と順次に変化することであってもよい。また、例えば、発光態様は、光源13による点滅の周波数が、所定期間ずつ、周波数f1、周波数f2、及び周波数f3と順次に変化することであってもよい。 The light emission mode extraction unit 262 extracts a plurality of images captured within a predetermined period (which may be a sufficiently short period to the extent that it can be considered that the flying object 10a is not moving) including the image to be analyzed from the memory 23. Then, the light emission mode of the light source 13 is extracted from the plurality of images. Here, the light emission mode is defined by color information of the light source, blinking frequency, and the like. For example, the light emission mode may be such that the color information of the light source 13 changes sequentially to color information C1, color information C2, and color information C3. Further, for example, the light emission mode may be such that the frequency of blinking by the light source 13 changes sequentially from frequency f1 to frequency f2 to frequency f3 for each predetermined period.

3次元位置・姿勢算出部27は、画像処理部26により算出・抽出された各種のパラメータを用いて、飛行体10aの3次元位置及び3次元姿勢を算出する。3次元位置・姿勢算出部27は、例えば、3次元方向算出部271、3次元位置算出部272、及び3次元姿勢算出部273を含む。 The three-dimensional position/attitude calculation unit 27 uses various parameters calculated and extracted by the image processing unit 26 to calculate the three-dimensional position and three-dimensional attitude of the flying object 10a. The three-dimensional position/orientation calculation unit 27 includes, for example, a three-dimensional direction calculation unit 271, a three-dimensional position calculation unit 272, and a three-dimensional orientation calculation unit 273.

3次元方向算出部271は、解析対象の画像における光源13の2次元座標によって、光源13の3次元方向を算出する。ここで、「3次元方向」は、光学的原点Oに対する方向である。当該算出方法については後述する。 The three-dimensional direction calculation unit 271 calculates the three-dimensional direction of the light source 13 based on the two-dimensional coordinates of the light source 13 in the image to be analyzed. Here, the "three-dimensional direction" is a direction with respect to the optical origin O. The calculation method will be described later.

3次元位置算出部272は、3次元方向算出部271により算出された光源13の3次元方向と、解析対象の画像に含まれる光源13の輝度とに基づいて、光源13の3次元位置を算出する。当該算出方法については後述する。 The three-dimensional position calculation unit 272 calculates the three-dimensional position of the light source 13 based on the three-dimensional direction of the light source 13 calculated by the three-dimensional direction calculation unit 271 and the brightness of the light source 13 included in the image to be analyzed. do. The calculation method will be described later.

3次元姿勢算出部273は、発光態様抽出部273により抽出された光源13の発光態様に基づいて、飛行体10aの姿勢を算出する。当該算出方法については後述する。 The three-dimensional attitude calculation section 273 calculates the attitude of the flying object 10a based on the light emission mode of the light source 13 extracted by the light emission mode extraction section 273. The calculation method will be described later.

ここで、図4を参照して、参照情報について説明する。図4は、参照情報の一例について説明するための模式的な図である。上述したとおり、参照情報は、例えば、飛行体10aのメモリ141に記憶され、飛行体10aの光源制御部140cが光源13の発光を制御する際に参照される。また、上述したとおり、参照情報は、例えば、3次元位置・姿勢計測装置20の3次元姿勢算出部273が、解析対象となる動画像から抽出された光源13の発光態様に基づいて、飛行体10aの3次元姿勢を算出する際に参照される。 Here, reference information will be explained with reference to FIG. 4. FIG. 4 is a schematic diagram for explaining an example of reference information. As described above, the reference information is stored, for example, in the memory 141 of the aircraft 10a, and is referenced when the light source control unit 140c of the aircraft 10a controls the light emission of the light source 13. Further, as described above, the reference information is, for example, the 3D attitude calculation unit 273 of the 3D position/attitude measurement device 20 based on the light emitting mode of the light source 13 extracted from the moving image to be analyzed. It is referred to when calculating the three-dimensional attitude of 10a.

図4は、光源13の色情報C又は点滅周波数fと、軸周りの回転角度θとの関係式が規定されたグラフが示されている。参照情報は、色情報C又は点滅周波数fによって回転角度θが一意的に定まるような関係式であれば特に限定されず、図4に示したような比例関係の他、比例関係ではない単調増加又は単調減少(一対一の写像関係)の関係式であればよい。図4には、一例として、色情報C又は点滅周波数fに対して回転角度θが単調増加するグラフが示されている。当該グラフを用いることにより、光源13の発光態様に含まれる色情報Cや点滅周波数fによって、飛行体10aの3次元姿勢に含まれる回転角度θを表すことが可能となる。そして、飛行体10aは当該参照情報を用いて順次に光源13を発光させることにより、姿勢センサ144が検知した飛行体10aの3次元姿勢を、光源13の発光態様で表現できるようになる。また、3次元位置・姿勢計測装置20は、飛行体10aを撮像することにより得られる画像から抽出された光源13の発光態様に基づいて、飛行体10aの3次元姿勢を算出することが可能となる。 FIG. 4 shows a graph in which a relational expression between the color information C or blinking frequency f of the light source 13 and the rotation angle θ around the axis is defined. The reference information is not particularly limited as long as it is a relational expression in which the rotation angle θ is uniquely determined by the color information C or the blinking frequency f, and in addition to the proportional relationship shown in FIG. Alternatively, any relational expression that is monotonically decreasing (one-to-one mapping relationship) may be used. As an example, FIG. 4 shows a graph in which the rotation angle θ monotonically increases with respect to the color information C or the blinking frequency f. By using the graph, it becomes possible to express the rotation angle θ included in the three-dimensional attitude of the flying object 10a using the color information C and the blinking frequency f included in the light emission mode of the light source 13. Then, by sequentially causing the light sources 13 to emit light using the reference information, the flying object 10a can express the three-dimensional attitude of the flying object 10a detected by the attitude sensor 144 by the light emitting mode of the light sources 13. Furthermore, the three-dimensional position/attitude measuring device 20 is capable of calculating the three-dimensional attitude of the flying object 10a based on the light emission mode of the light source 13 extracted from the image obtained by imaging the flying object 10a. Become.

(2)3次元位置・姿勢計測方法
図5及び図6を参照して、第1実施形態に係る3次元位置・姿勢計測システム1による飛行体10aの3次元位置・姿勢計測方法の動作フローについて説明する。
(2) Three-dimensional position/attitude measurement method Referring to FIGS. 5 and 6, the operation flow of the three-dimensional position/attitude measurement method of the flying object 10a by the three-dimensional position/attitude measurement system 1 according to the first embodiment explain.

なお、以下では、図6に示すとおり、カメラ21aの光学的原点をOとし、3次元座標の軸を互いに直交するX軸、Y軸、及びZ軸とし、カメラ21aにより生成された解析対象の画像をPとし、カメラ21aの焦点距離をFとする。また、画像P内の2次元座標原点をOPとし、画像P内の2次元座標の軸をX軸に平行なx軸、及びY軸に平行なy軸とし、2次元座標原点OPの3次元位置座標を(0,0,F)とする。また、飛行体10aが備える光源13の3次元位置を点Aとし、点Aの3次元座標を(XA,YA,ZA)とする。点Aの画像Pにおける位置を点aとし、点aの画像Pにおける2次元座標を(xa,ya)とし、点aの輝度をIaとする。 In the following, as shown in FIG. 6, the optical origin of the camera 21a is O, and the axes of three-dimensional coordinates are the X-axis, Y-axis, and Z-axis that are orthogonal to each other, and the analysis target generated by the camera 21a is Let the image be P and the focal length of the camera 21a be F. In addition, the two-dimensional coordinate origin in the image P is O P , the two-dimensional coordinate axes in the image P are the x axis parallel to the X axis, and the y axis parallel to the Y axis, and the two dimensional coordinate origin O P is Let the three-dimensional position coordinates be (0, 0, F). Also, let the three-dimensional position of the light source 13 provided on the aircraft 10a be a point A, and let the three-dimensional coordinates of the point A be (X A , Y A , Z A ). Let the position of point A in image P be point a, the two-dimensional coordinates of point a in image P be (x a , y a ), and the brightness of point a be I a .

(S11:光源を特定する)
まず、光源特定部261は、メモリ23から取得された解析対象の画像Pから光源13を特定する。光源特定部261は、例えば、画像に含まれる各画素の輝度を参照して、輝度が所定の閾値以上である画素を、光源に対応する画素であると特定する。そして、特定された画素に基づいて、光源13の2次元座標を特定する。これにより、光源13の2次元座標及び輝度が特定される。
(S11: Identify the light source)
First, the light source identifying unit 261 identifies the light source 13 from the image P to be analyzed acquired from the memory 23 . For example, the light source identifying unit 261 refers to the brightness of each pixel included in the image and identifies a pixel whose brightness is equal to or higher than a predetermined threshold as a pixel corresponding to a light source. Then, the two-dimensional coordinates of the light source 13 are specified based on the specified pixels. Thereby, the two-dimensional coordinates and brightness of the light source 13 are specified.

(S12:発光態様を抽出する)
次に、発光態様抽出部262は、解析対象の画像Pを含む所定期間内に撮像された複数の画像をメモリ23から抽出し、当該複数の画像から光源13の発光態様を抽出する。発光態様は、光源13の色情報や点滅周波数等によって規定される。例えば、発光態様は、光源13の色情報が、色情報C1、色情報C2、及び色情報C3と順次に変化することであってもよい。なお、この場合、発光態様抽出部262は例えば、画像に含まれる画素の色度情報に基づいて色情報を算出してよい。また、例えば、発光態様は、光源13による点滅の周波数が、周波数f1、周波数f2、及び周波数f3と順次に変化することであってもよい。
(S12: Extract light emission mode)
Next, the light emission mode extraction unit 262 extracts from the memory 23 a plurality of images captured within a predetermined period, including the image P to be analyzed, and extracts the light emission mode of the light source 13 from the plurality of images. The light emission mode is defined by color information, blinking frequency, etc. of the light source 13. For example, the light emission mode may be such that the color information of the light source 13 changes sequentially to color information C1, color information C2, and color information C3. Note that in this case, the light emission mode extraction unit 262 may calculate color information based on chromaticity information of pixels included in the image, for example. Further, for example, the light emission mode may be such that the frequency of blinking by the light source 13 changes sequentially to frequency f1, frequency f2, and frequency f3.

(S13:光源の3次元方向を算出する)
次に、3次元方向算出部271は、解析対象の画像Pに基づいて点Aの3次元方向を算出する。すなわち、点AのX軸方向及びZ軸方向の3次元座標XA及びZA、点aのx軸方向の2次元座標xa、及びカメラ12の焦点距離Fについて式(1)が成り立つ。
(S13: Calculate the three-dimensional direction of the light source)
Next, the three-dimensional direction calculation unit 271 calculates the three-dimensional direction of the point A based on the image P to be analyzed. That is, equation (1) holds for the three-dimensional coordinates X A and Z A of point A in the X-axis direction and Z-axis direction, the two-dimensional coordinate x a of point a in the x-axis direction, and the focal length F of the camera 12.

式(1)をXAについて解くと、次の式(2)を得る。 When formula (1) is solved for X A , the following formula (2) is obtained.

同様にして、点AのY軸方向及びZ軸方向の3次元座標YA及びZA、点aのy軸方向の2次元座標ya、及びカメラ12の焦点距離Fに基づいて、次の式(3)を得る。 Similarly, based on the three-dimensional coordinates Y A and Z A of point A in the Y-axis direction and Z-axis direction, the two-dimensional coordinate ya of point a in the Y-axis direction, and the focal length F of the camera 12, the following We obtain equation (3).

式(2)及び式(3)より、点Aの3次元座標(XA,YA,ZA)は、次の式(4)のように表される。 From equations (2) and (3), the three-dimensional coordinates (X A , Y A , Z A ) of point A are expressed as shown in equation (4) below.

すなわち、点Aの3次元方向は、次の式(5)に示すベクトルlの方向に一致する。 That is, the three-dimensional direction of point A matches the direction of vector l shown in the following equation (5).

(S14:光源の3次元位置を算出する)
次に、3次元位置算出部272は、光源13の3次元位置を算出する。まず、光源13の解析対象の画像Pにおける輝度Iaと、光源13の光学的原点Oからの距離Rとは、定数をCとすると、次の式(6)を満たす。
(S14: Calculate the three-dimensional position of the light source)
Next, the three-dimensional position calculation unit 272 calculates the three-dimensional position of the light source 13. First, the brightness I a of the light source 13 in the image P to be analyzed and the distance R from the optical origin O of the light source 13 satisfy the following equation (6), where C is a constant.

式(6)に式(4)を代入すると、次の式(7)が成り立つ。 When formula (4) is substituted into formula (6), the following formula (7) holds true.

式(7)をZAについて解いて、次の式(8)を得る。 Equation (7) is solved for Z A to obtain the following equation (8).

以上より、光源13の3次元位置は、次の式(9)のように表される。 From the above, the three-dimensional position of the light source 13 is expressed as in the following equation (9).

(S15:光源の3次元姿勢を算出する)
次に、3次元姿勢算出部273は、S12で抽出された光源13の発光態様に基づいて、飛行体10aの3次元姿勢を算出する。
(S15: Calculate the three-dimensional posture of the light source)
Next, the three-dimensional attitude calculation unit 273 calculates the three-dimensional attitude of the flying object 10a based on the light emission mode of the light source 13 extracted in S12.

例えば、発光態様が光源13の色情報C1、C2、及びC3で規定される場合に、メモリ23に記憶された参照情報において、色情報C1は角度θ1に、色情報C2は角度θ2に、色情報C3は角度θ3にそれぞれ対応するものとする。この場合、3次元姿勢算出部263は、飛行体10aの姿勢を、X軸周りにθ1だけ回転し、Y軸周りにθ2だけ回転し、Z軸周りにθ3だけ回転した姿勢であると算出する。 For example, when the light emission mode is defined by the color information C1, C2, and C3 of the light source 13, in the reference information stored in the memory 23, the color information C1 is set at the angle θ1, the color information C2 is set at the angle θ2, and the color information C1 is set at the angle θ2. It is assumed that the information C3 corresponds to the angle θ3. In this case, the three-dimensional attitude calculation unit 263 calculates that the attitude of the flying object 10a is an attitude in which the aircraft 10a is rotated by θ1 around the X-axis, rotated by θ2 around the Y-axis, and rotated by θ3 around the Z-axis. .

また、例えば、発光態様が光源13の点滅周波数f1、f2、及びf3で規定される場合に、メモリ23に記憶された参照情報において、点滅周波数f1は角度θ1に、点滅周波数f2は角度θ2に、点滅周波数f3は角度θ3度にそれぞれ対応するものとする。この場合、3次元姿勢算出部263は、飛行体10aの姿勢を、X軸周りにθ1だけ回転し、Y軸周りにθ2だけ回転し、Z軸周りにθ3だけ回転した姿勢であると算出する。以上で、飛行体10aの3次元位置及び姿勢が算出される。 For example, when the light emission mode is defined by the blinking frequencies f1, f2, and f3 of the light source 13, in the reference information stored in the memory 23, the blinking frequency f1 is set to the angle θ1, and the blinking frequency f2 is set to the angle θ2. , blinking frequency f3 corresponds to an angle θ3 degrees, respectively. In this case, the three-dimensional attitude calculation unit 263 calculates that the attitude of the flying object 10a is an attitude in which the aircraft 10a is rotated by θ1 around the X-axis, rotated by θ2 around the Y-axis, and rotated by θ3 around the Z-axis. . With the above steps, the three-dimensional position and attitude of the flying object 10a are calculated.

(3)3次元位置・姿勢計測システム1の用途
第1実施形態に係る3次元位置・姿勢計測システム1は、例えば、以下のように利用され得る。まず、飛行体10aは、操縦装置10bから供給される操縦信号や撮像信号に基づいて、大型設備の外壁等の対象物をカメラ12により撮像しながら飛行する。このとき、3次元位置・姿勢計測装置20のカメラ21aは、飛行中の飛行体10aを所定のフレームレートによって継続的に撮像する。
(3) Applications of the three-dimensional position/orientation measurement system 1 The three-dimensional position/orientation measurement system 1 according to the first embodiment can be used, for example, as follows. First, the flying object 10a flies while imaging an object such as an outer wall of a large facility with the camera 12 based on a control signal and an imaging signal supplied from the control device 10b. At this time, the camera 21a of the three-dimensional position/attitude measurement device 20 continuously images the flying object 10a at a predetermined frame rate.

そして、飛行体10aのカメラ12による対象物の撮像と、3次元位置・姿勢計測装置20のカメラ21aによる飛行体10aの撮像とが終了した後で、3次元位置・姿勢計測20は、上述したように、カメラ21aにより生成された画像に基づいて、当該画像が撮像された時点における飛行体10aの3次元位置及び姿勢を算出する。更に、このようにして算出された3次元位置及び姿勢の情報は、飛行体10aのカメラ12により生成された対象物(大型設備の外壁等)の画像を合成する際に用いられる。 Then, after the imaging of the object by the camera 12 of the aircraft 10a and the imaging of the aircraft 10a by the camera 21a of the three-dimensional position/attitude measurement device 20 are completed, the three-dimensional position/attitude measurement 20 is performed as described above. Based on the image generated by the camera 21a, the three-dimensional position and attitude of the flying object 10a at the time the image was captured are calculated. Further, the information on the three-dimensional position and attitude calculated in this way is used when synthesizing images of the object (such as the outer wall of a large facility) generated by the camera 12 of the flying object 10a.

例えば、飛行体10aの3次元姿勢が、X軸周りに回転角度αだけ回転し、Y軸周りに回転角度βだけ回転し、Z軸周りに回転角度γだけ回転したものとすると、当該3次元姿勢に対応する回転行列は、次の式(R)のように表される。 For example, if the three-dimensional attitude of the flying object 10a is rotated around the X-axis by a rotation angle α, rotated around the Y-axis by a rotation angle β, and rotated around the Z-axis by a rotation angle γ, the three-dimensional attitude The rotation matrix corresponding to the orientation is expressed as the following equation (R).

したがって、飛行体10aのカメラ12が生成した画像に対して、当該3次元姿勢に対応する回転行列の逆行列を掛けることで、飛行体10aの3次元姿勢の分が補正された補正画像を得ることができる。そして、飛行体10aの各3次元位置について、このように補正画像を生成した上で、生成された補正画像同士を合成することにより、大型設備の外壁等の対象物についての画像が生成される。 Therefore, by multiplying the image generated by the camera 12 of the aircraft 10a by the inverse matrix of the rotation matrix corresponding to the three-dimensional attitude, a corrected image in which the three-dimensional attitude of the aircraft 10a is corrected is obtained. be able to. Then, by generating a corrected image in this manner for each three-dimensional position of the aircraft 10a, and then composing the generated corrected images, an image of a target object such as an outer wall of a large facility is generated. .

[第2実施形態]
以下では、第2実施形態に係る3次元位置・姿勢計測システム2について説明する。
[Second embodiment]
Below, a three-dimensional position/orientation measurement system 2 according to a second embodiment will be described.

(1)構成
図7は、第2実施形態に係る3次元位置・姿勢計測システム2の構成の一例を示す概略図である。図8は、第2実施形態に係る飛行体10aの構成の一例を示すブロック図である。図9は、第2実施形態に係る3次元位置・姿勢計測装置20の構成の一例を示すブロック図である。
(1) Configuration FIG. 7 is a schematic diagram showing an example of the configuration of a three-dimensional position/orientation measurement system 2 according to the second embodiment. FIG. 8 is a block diagram showing an example of the configuration of a flying object 10a according to the second embodiment. FIG. 9 is a block diagram showing an example of the configuration of a three-dimensional position/orientation measuring device 20 according to the second embodiment.

図7及び図8に示すとおり、第2実施形態に係る3次元位置・姿勢計測システム2においては、飛行体10aは、飛行体10aの姿勢に応じた発光態様で発光する2つの光源13A及び13Bを備える。光源13A及び13Bそれぞれの3次元位置が算出されれば、当該2つの3次元位置に基づいて、2つの光源13A及び13Bを通るベクトルが算出可能である。そして、当該ベクトルが算出されれば、飛行体10aの3次元姿勢については、当該ベクトル周りの回転角度という1つのパラメータのみが未知のパラメータとして残る。そこで、第2実施形態に係る3次元位置・姿勢計測システム2における飛行体10aは、2つの光源13A及び13Bを通るベクトル周りの飛行体10aの回転角度に基づいた発光態様(色情報や点滅周波数等)で発光する。これにより、3次元位置・姿勢計測装置20は、光源13A及び/又は13Bの発光態様を用いて当該1つのパラメータのみを特定すればよいため、光源13A及び/又は13Bの発光の制御が簡素になる。 As shown in FIGS. 7 and 8, in the three-dimensional position/attitude measurement system 2 according to the second embodiment, the flying object 10a has two light sources 13A and 13B that emit light in a light emission mode according to the attitude of the flying object 10a. Equipped with Once the three-dimensional positions of the light sources 13A and 13B are calculated, a vector passing through the two light sources 13A and 13B can be calculated based on the two three-dimensional positions. Once the vector is calculated, only one parameter, the rotation angle around the vector, remains as an unknown parameter regarding the three-dimensional attitude of the flying object 10a. Therefore, the flying object 10a in the three-dimensional position/attitude measurement system 2 according to the second embodiment has a light emission mode (color information and blinking frequency) based on the rotation angle of the flying object 10a around the vector passing through the two light sources 13A and 13B. etc.) to emit light. As a result, the three-dimensional position/orientation measurement device 20 only needs to specify the one parameter using the light emission mode of the light sources 13A and/or 13B, so that the control of the light emission of the light sources 13A and/or 13B is simplified. Become.

このため、図8に示すとおり、第2実施形態に係る飛行体10aでは、制御部140が含む光源制御部140cは、例えば、ベクトル算出部140c1と、回転角度算出部140c2とを含む。ここで、ベクトル算出部140c1は、飛行体10aの3次元姿勢を示す姿勢センサ144の出力に基づいて、2つの光源13A及び13Bを通るベクトルの方向を算出する。また、回転角度算出部140c2は、飛行体10aの3次元姿勢を示す姿勢センサ144の出力、及びベクトル算出部140c1が算出したベクトル(2つの光源13A及び13Bを通るベクトル)の方向に基づいて、当該ベクトル周りの飛行体10aの回転角度を算出する。そして、光源制御部140cは、回転角度算出部140c2によって算出された回転角度に応じた発光態様(色情報や点滅周波数)で光源13A及び/又は光源13Bを発光させる。 Therefore, as shown in FIG. 8, in the flying object 10a according to the second embodiment, the light source control section 140c included in the control section 140 includes, for example, a vector calculation section 140c1 and a rotation angle calculation section 140c2. Here, the vector calculation unit 140c1 calculates the direction of a vector passing through the two light sources 13A and 13B based on the output of the attitude sensor 144 indicating the three-dimensional attitude of the flying object 10a. Further, the rotation angle calculation unit 140c2 calculates the following based on the output of the attitude sensor 144 indicating the three-dimensional attitude of the flying object 10a and the direction of the vector (vector passing through the two light sources 13A and 13B) calculated by the vector calculation unit 140c1. The rotation angle of the flying object 10a around the vector is calculated. Then, the light source control unit 140c causes the light source 13A and/or the light source 13B to emit light in a light emission mode (color information and blinking frequency) according to the rotation angle calculated by the rotation angle calculation unit 140c2.

図9に示すとおり、第2実施形態に係る3次元位置・姿勢計測装置20の3次元姿勢算出部273は、例えば、ベクトル算出部273aと、回転角度算出部273bとを含む。ベクトル算出部273aは、2つの光源13A及び13Bそれぞれの3次元位置に基づいて、2つの光源13A及び13Bを通るベクトルの方向を算出する。回転角度算出部273bは、発光態様抽出部262により抽出された発光態様に基づいて、2つの光源13A及び13Bを通るベクトルの周りの飛行体10aの回転角度を算出する。 As shown in FIG. 9, the three-dimensional orientation calculation unit 273 of the three-dimensional position/orientation measuring device 20 according to the second embodiment includes, for example, a vector calculation unit 273a and a rotation angle calculation unit 273b. The vector calculation unit 273a calculates the direction of a vector passing through the two light sources 13A and 13B based on the three-dimensional positions of the two light sources 13A and 13B. The rotation angle calculating section 273b calculates the rotation angle of the flying object 10a around the vector passing through the two light sources 13A and 13B, based on the light emission mode extracted by the light emission mode extraction section 262.

(2)3次元位置・姿勢計測方法
図10及び図11を参照して、第2実施形態に係る3次元位置・姿勢計測システム2による飛行体10aの3次元位置・姿勢計測方法の動作フローについて説明する。
(2) Three-dimensional position/attitude measurement method Referring to FIGS. 10 and 11, the operation flow of the three-dimensional position/attitude measurement method of the flying object 10a by the three-dimensional position/attitude measurement system 2 according to the second embodiment explain.

なお、以下では、図11に示すとおり、飛行体10aが備える光源13Aの3次元位置を点Aとし、点Aの3次元座標を(XA,YA,ZA)とし、点Aの画像Pにおける位置を点aとし、点aの画像Pにおける2次元座標を(xa,ya)とし、点aの輝度をIaとする。また、飛行体10aが備える光源13Bの3次元位置を点Bとし、点Bの3次元座標を(XB,YB,ZB)とし、点Bの画像Pにおける位置を点Bとし、点Bの画像Pにおける2次元座標を(xB,yB)とし、点Bの輝度をIBとする。 In the following, as shown in FIG. 11, the three-dimensional position of the light source 13A provided on the aircraft 10a is taken as point A, the three-dimensional coordinates of point A are taken as (X A , Y A , Z A ), and the image of point A is Let the position in P be point a, the two-dimensional coordinates of point a in image P be (x a , y a ), and the brightness of point a be I a . Further, the three-dimensional position of the light source 13B provided on the aircraft 10a is defined as point B, the three-dimensional coordinates of point B are (X B , Y B , Z B ), the position of point B in image P is defined as point B, and the point Let the two-dimensional coordinates of point B in image P be (x B , y B ), and the brightness of point B be I B .

(S21:光源を特定する)
まず、光源特定部261は、メモリ23から取得された解析対象の画像Pから光源13A及び13Bそれぞれを特定する。光源特定部261は、例えば、画像に含まれる各画素の輝度を参照して、輝度が所定の閾値以上である画素を、光源に対応する画素であると特定する。そして、特定された画素に基づいて、光源13A及び13Bそれぞれの2次元座標を特定する。これにより、光源13A及び13Bそれぞれの2次元座標及び輝度が特定される。
(S21: Identify the light source)
First, the light source identifying unit 261 identifies each of the light sources 13A and 13B from the image P to be analyzed acquired from the memory 23. For example, the light source identifying unit 261 refers to the brightness of each pixel included in the image and identifies a pixel whose brightness is equal to or higher than a predetermined threshold as a pixel corresponding to a light source. Then, based on the identified pixels, two-dimensional coordinates of each of the light sources 13A and 13B are identified. Thereby, the two-dimensional coordinates and brightness of each of the light sources 13A and 13B are specified.

(S22:発光態様を抽出する)
次に、発光態様抽出部262は、光源13Aの発光態様及び/又は光源13Bの発光態様を抽出する。例えば、発光態様抽出部262は、解析対象の画像Pから、光源13Aの色情報及び/又は光源13Bの色情報を抽出してもよい。或いは、発光態様抽出部262は、解析対象の画像Pを含む所定期間内に撮像された複数の画像をメモリ23から抽出し、当該複数の画像から光源13Aの点滅周波数及び/又は光源13Bの点滅周波数を抽出してもよい。
(S22: Extract light emission mode)
Next, the light emission mode extraction unit 262 extracts the light emission mode of the light source 13A and/or the light emission mode of the light source 13B. For example, the light emission mode extraction unit 262 may extract color information of the light source 13A and/or color information of the light source 13B from the image P to be analyzed. Alternatively, the light emission mode extraction unit 262 extracts from the memory 23 a plurality of images captured within a predetermined period including the image P to be analyzed, and extracts the blinking frequency of the light source 13A and/or the blinking frequency of the light source 13B from the plurality of images. Frequencies may also be extracted.

(S23:光源の3次元方向を算出する)
次に、3次元方向算出部271は、解析対象の画像Pに基づいて点A及び点Bそれぞれの3次元方向を算出する。すなわち、点AのX軸方向及びZ軸方向の3次元座標XA及びZA、点aのx軸方向の2次元座標xa、及びカメラ12の焦点距離Fに基づいて、点Aの3次元方向は、次の式(10-1)に示すベクトルl1の方向に一致する。
(S23: Calculate the three-dimensional direction of the light source)
Next, the three-dimensional direction calculation unit 271 calculates the three-dimensional directions of each of the points A and B based on the image P to be analyzed. That is, based on the three-dimensional coordinates X A and Z A of point A in the X-axis direction and Z-axis direction, the two-dimensional coordinate x a of point a in the x-axis direction, and the focal length F of the camera 12, The dimensional direction coincides with the direction of vector l1 shown in the following equation (10-1).

また、点BのX軸方向及びZ軸方向の3次元座標XB及びZB、点bのx軸方向の2次元座標xb、及びカメラ12の焦点距離Fに基づいて、点Bの3次元方向は、次の式(10-2)に示すベクトルl2の方向に一致する。 Also, based on the three-dimensional coordinates X B and Z B of point B in the X-axis direction and Z-axis direction, the two-dimensional coordinate x b of point b in the x-axis direction, and the focal length F of the camera 12, The dimensional direction coincides with the direction of vector l2 shown in the following equation (10-2).

(S24:光源の3次元位置を算出する)
次に、3次元位置算出部272は、光源13A及び13Bそれぞれの3次元位置を算出する。まず、光源13及び13Bそれぞれの解析対象の画像Pにおける輝度Ia及びIb、光源13及び13Bそれぞれの光学的原点Oからの距離RA及びRBとは、定数をCとすると、次の式(11)を満たす。
(S24: Calculate the three-dimensional position of the light source)
Next, the three-dimensional position calculation unit 272 calculates the three-dimensional positions of each of the light sources 13A and 13B. First, the brightness I a and I b of the image P to be analyzed for the light sources 13 and 13B, and the distances R A and R B of the light sources 13 and 13B from the optical origin O, respectively, are as follows, where C is a constant. Formula (11) is satisfied.

式(10-1)、式(10-2)、及び式(11)に基づいて、光源13A及び13Bそれぞれの3次元位置は、次の式(12)及び式(13)のように表される。 Based on formulas (10-1), (10-2), and (11), the three-dimensional positions of the light sources 13A and 13B are expressed as in the following formulas (12) and (13). Ru.

(S25:2つの光源を通るベクトルの方向を算出する)
次に、3次元姿勢算出部273のベクトル算出部273aは、飛行体10aが備える光源13Aと光源13Bとを通るベクトルを、次の式(14)のように求める。
(S25: Calculate the direction of the vector passing through the two light sources)
Next, the vector calculation unit 273a of the three-dimensional attitude calculation unit 273 calculates a vector passing through the light sources 13A and 13B of the flying object 10a as shown in the following equation (14).

(S26:ベクトル周りの回転角度を算出する)
次に、3次元姿勢算出部273の回転角度算出部273bは、メモリ23に記憶された参照情報を参照して、S22で抽出された光源13Aの発光態様及び/又は光源13Bの発光態様に基づいて、飛行体10aのベクトルAB周りの回転角度を算出する。例えば、光源13Aの色情報及び/又は光源13Bの色情報がC4であり、参照情報において色情報C4が回転角度θ4に対応する場合、3次元姿勢算出部273は、飛行体10aの姿勢を、ベクトルAB周りにθ4だけ回転した姿勢であると算出する。或いは、光源13Aの点滅周波数及び/又は光源13Bの点滅周波数がf4であり、参照情報において点滅周波数f4が回転角度θ4に対応する場合、3次元姿勢算出部273は、飛行体10aの姿勢を、ベクトルAB周りにθ4だけ回転した姿勢であると算出する。以上で、飛行体10aの3次元位置及び姿勢が算出される。
(S26: Calculate the rotation angle around the vector)
Next, the rotation angle calculation section 273b of the three-dimensional posture calculation section 273 refers to the reference information stored in the memory 23, and based on the light emission mode of the light source 13A and/or the light emission mode of the light source 13B extracted in S22. Then, the rotation angle of the flying object 10a around the vector AB is calculated. For example, if the color information of the light source 13A and/or the color information of the light source 13B is C4, and the color information C4 corresponds to the rotation angle θ4 in the reference information, the three-dimensional attitude calculation unit 273 calculates the attitude of the flying object 10a by It is calculated that the posture is rotated by θ4 around the vector AB. Alternatively, if the blinking frequency of the light source 13A and/or the blinking frequency of the light source 13B is f4, and the blinking frequency f4 corresponds to the rotation angle θ4 in the reference information, the three-dimensional attitude calculation unit 273 calculates the attitude of the flying object 10a by It is calculated that the posture is rotated by θ4 around the vector AB. With the above steps, the three-dimensional position and attitude of the flying object 10a are calculated.

[第3実施形態]
以下では、第3実施形態に係る3次元位置・姿勢計測システム3について説明する。
[Third embodiment]
Below, a three-dimensional position/orientation measurement system 3 according to a third embodiment will be described.

(1)構成
図12は、第3実施形態に係る3次元位置・姿勢計測システム3の構成の一例を示す概略図である。図13は、第3実施形態に係る飛行体10aの構成の一例を示すブロック図である。図14は、第3実施形態に係る3次元位置・姿勢計測装置20の構成の一例を示すブロック図である。
(1) Configuration FIG. 12 is a schematic diagram showing an example of the configuration of a three-dimensional position/orientation measurement system 3 according to the third embodiment. FIG. 13 is a block diagram showing an example of the configuration of a flying object 10a according to the third embodiment. FIG. 14 is a block diagram showing an example of the configuration of a three-dimensional position/orientation measuring device 20 according to the third embodiment.

図12及び図13に示すとおり、第3実施形態に係る3次元位置・姿勢計測システム3においては、飛行体10aは3つの光源13A、13B、及び13Cを備える。飛行体10aの光源制御部140cは、光源13A、13B、及び13Cを、飛行体10aの3次元姿勢に基づいた発光態様で発光させる制御は実行しない。光源制御部140cによる光源13A、13B、及び13Cの発光の制御は、飛行体10aの3次元姿勢に基づいた発光態様で発光させる制御でなければ、特にその内容は限定されないが、例えば、所定の色情報や強度等で光源13A、13B、及び13Cそれぞれを発光させてもよい。 As shown in FIGS. 12 and 13, in the three-dimensional position/attitude measurement system 3 according to the third embodiment, the flying object 10a includes three light sources 13A, 13B, and 13C. The light source control unit 140c of the aircraft 10a does not control the light sources 13A, 13B, and 13C to emit light in a light emission mode based on the three-dimensional attitude of the aircraft 10a. The light source control unit 140c controls the light sources 13A, 13B, and 13C to emit light in a manner that is based on the three-dimensional attitude of the flying object 10a, but is not particularly limited in its content. Each of the light sources 13A, 13B, and 13C may be caused to emit light based on color information, intensity, or the like.

第3実施形態に係る3次元位置・姿勢計測システム3においては、飛行体10aは、姿勢センサ144を備えなくてもよい。また、第3実施形態に係る3次元位置・姿勢計測システム3においては、飛行体10aのメモリ141は、光源13A、13B、及び13Cを飛行体10aの3次元姿勢に応じた発光態様で発光制御する際に参照する参照情報は記憶しなくてもよい。 In the three-dimensional position/attitude measurement system 3 according to the third embodiment, the flying object 10a does not need to include the attitude sensor 144. Furthermore, in the three-dimensional position/attitude measurement system 3 according to the third embodiment, the memory 141 of the flying object 10a controls the light sources 13A, 13B, and 13C to emit light in a light emission mode according to the three-dimensional attitude of the flying object 10a. There is no need to store the reference information to be referred to when doing so.

図14に示すとおり、第3実施形態に係る3次元位置・姿勢計測システム3においては、3次元位置・姿勢計測装置20の画像処理部26は、発光態様抽出部262を含まなくてもよい。また、第3実施形態に係る3次元位置・姿勢計測システム3においては、3次元方向算出部271は、解析対象となる画像における光源13A、13B、及び13Cそれぞれの2次元座標に基づいて、光源13A、13B、及び13Cそれぞれの3次元方向を算出する。また、第3実施形態に係る3次元位置・姿勢計測システム3においては、3次元位置算出部272は、光源13A、13B、及び13Cそれぞれの3次元方向と、解析対象となる画像における光源13A、13B、及び13Cそれぞれの輝度から算出される各光源13までの距離とに基づいて、各光源13の3次元位置を算出する。また、第3実施形態に係る3次元位置・姿勢計測システム3においては、3次元姿勢算出部273は、光源13A、13B、及び13Cそれぞれの3次元位置に基づいて、飛行体10aの3次元姿勢を算出する。 As shown in FIG. 14, in the three-dimensional position/orientation measurement system 3 according to the third embodiment, the image processing section 26 of the three-dimensional position/orientation measurement device 20 does not need to include the light emission mode extraction section 262. Further, in the three-dimensional position/orientation measurement system 3 according to the third embodiment, the three-dimensional direction calculation unit 271 calculates the light source based on the two-dimensional coordinates of each of the light sources 13A, 13B, and 13C in the image to be analyzed. The three-dimensional directions of each of 13A, 13B, and 13C are calculated. In the three-dimensional position/orientation measurement system 3 according to the third embodiment, the three-dimensional position calculation unit 272 calculates the three-dimensional directions of the light sources 13A, 13B, and 13C, and the light source 13A in the image to be analyzed. The three-dimensional position of each light source 13 is calculated based on the distance to each light source 13 calculated from the brightness of each of 13B and 13C. Further, in the three-dimensional position/attitude measurement system 3 according to the third embodiment, the three-dimensional attitude calculation unit 273 calculates the three-dimensional attitude of the flying object 10a based on the three-dimensional positions of the light sources 13A, 13B, and 13C. Calculate.

(2)3次元位置・姿勢計測方法
図15及び図16を参照して、第3実施形態に係る3次元位置・姿勢計測システム3による飛行体10aの3次元位置・姿勢計測方法の動作フローについて説明する。
(2) Three-dimensional position/attitude measurement method Referring to FIGS. 15 and 16, the operation flow of the three-dimensional position/attitude measurement method of the flying object 10a by the three-dimensional position/attitude measurement system 3 according to the third embodiment explain.

なお、以下では、図16に示すとおり、飛行体10aが備える光源13Aの3次元位置を点Aとし、点Aの3次元座標を(XA,YA,ZA)とし、点Aの画像Pにおける位置を点aとし、点aの画像Pにおける2次元座標を(xa,ya)とし、点aの輝度をIaとする。また、飛行体10aが備える光源13Bの3次元位置を点Bとし、点Bの3次元座標を(XB,YB,ZB)とし、点Bの画像Pにおける位置を点Bとし、点Bの画像Pにおける2次元座標を(xB,yB)とし、点Bの輝度をIBとする。また、飛行体10aが備える光源13Cの3次元位置を点Cとし、点Cの3次元座標を(XC,YC,ZC)とし、点Cの画像Pにおける位置を点Cとし、点Cの画像Pにおける2次元座標を(xC,yC)とし、点Cの輝度をICとする。 In the following, as shown in FIG. 16, the three-dimensional position of the light source 13A provided on the aircraft 10a is referred to as point A, the three-dimensional coordinates of point A are (X A , Y A , Z A ), and the image of point A is Let the position in P be point a, the two-dimensional coordinates of point a in image P be (x a , y a ), and the brightness of point a be I a . Further, the three-dimensional position of the light source 13B provided on the aircraft 10a is defined as point B, the three-dimensional coordinates of point B are (X B , Y B , Z B ), the position of point B in image P is defined as point B, and the point Let the two-dimensional coordinates of point B in image P be (x B , y B ), and the brightness of point B be I B . Further, the three-dimensional position of the light source 13C provided on the aircraft 10a is a point C, the three-dimensional coordinates of the point C are (X C , Y C , Z C ), the position of the point C in the image P is a point C, and the point Let the two-dimensional coordinates of point C in image P be (x C , y C ), and the brightness of point C be I C .

(S31:光源を特定する)
まず、光源特定部261は、メモリ23から取得された解析対象の画像Pから光源13A、13B、及び13Cそれぞれを特定する。光源特定部261は、例えば、画像に含まれる各画素の輝度を参照して、輝度が所定の閾値以上である画素を、光源に対応する画素であると特定する。そして、特定された画素に基づいて、光源13A、13B、及び13Cそれぞれの2次元座標を特定する。これにより、光源13A、13B、及び13Cそれぞれの2次元座標及び輝度が特定される。
(S31: Identify the light source)
First, the light source identifying unit 261 identifies each of the light sources 13A, 13B, and 13C from the image P to be analyzed acquired from the memory 23. For example, the light source identifying unit 261 refers to the brightness of each pixel included in the image and identifies a pixel whose brightness is equal to or higher than a predetermined threshold as a pixel corresponding to a light source. Then, based on the identified pixels, the two-dimensional coordinates of each of the light sources 13A, 13B, and 13C are identified. Thereby, the two-dimensional coordinates and brightness of each of the light sources 13A, 13B, and 13C are specified.

(S32:光源の3次元方向を算出する)
次に、3次元方向算出部271は、解析対象の画像Pに基づいて点A、点B、及び点Cそれぞれの3次元方向を算出する。すなわち、点AのX軸方向及びZ軸方向の3次元座標XA及びZA、点aのx軸方向の2次元座標xa、及びカメラ12の焦点距離Fに基づいて、点Aの3次元方向は、次の式(15-1)に示すベクトルl1の方向に一致する。
(S32: Calculate the three-dimensional direction of the light source)
Next, the three-dimensional direction calculating unit 271 calculates the three-dimensional directions of each of the points A, B, and C based on the image P to be analyzed. That is, based on the three-dimensional coordinates X A and Z A of point A in the X-axis direction and Z-axis direction, the two-dimensional coordinate x a of point a in the x-axis direction, and the focal length F of the camera 12, The dimensional direction coincides with the direction of vector l1 shown in the following equation (15-1).

また、点BのX軸方向及びZ軸方向の3次元座標XB及びZB、点bのx軸方向の2次元座標xb、及びカメラ12の焦点距離Fに基づいて、点Bの3次元方向は、次の式(15-2)に示すベクトルl2の方向に一致する。 Also, based on the three-dimensional coordinates X B and Z B of point B in the X-axis direction and Z-axis direction, the two-dimensional coordinate x b of point b in the x-axis direction, and the focal length F of the camera 12, The dimensional direction coincides with the direction of vector l2 shown in the following equation (15-2).

また、点CのX軸方向及びZ軸方向の3次元座標XC及びZC、点cのx軸方向の2次元座標xc、及びカメラ12の焦点距離Fに基づいて、点Cの3次元方向は、次の式(15-3)に示すベクトルl3の方向に一致する。 Also, based on the three-dimensional coordinates X C and Z C of point C in the X-axis direction and Z-axis direction, the two-dimensional coordinate x c of point c in the x-axis direction, and the focal length F of the camera 12, the three-dimensional coordinates of point C The dimensional direction coincides with the direction of vector l3 shown in the following equation (15-3).

(S33:光源の3次元位置を算出する)
次に、3次元位置算出部272は、光源13A、13B、及び13Cそれぞれの3次元位置を算出する。まず、光源13A、13B、及び13Cそれぞれの解析対象の画像Pにおける輝度Ia、Ib、及びIc、光源13A、13B、及び13Cそれぞれの光学的原点Oからの距離RA、RB、RCは、定数をCとすると、次の式(16)を満たす。
(S33: Calculate the three-dimensional position of the light source)
Next, the three-dimensional position calculation unit 272 calculates the three-dimensional positions of each of the light sources 13A, 13B, and 13C. First, the luminances I a , I b , and I c of each of the light sources 13A, 13B, and 13C in the image P to be analyzed, and the distances R A , RB , of each of the light sources 13A, 13B, and 13C from the optical origin O, R C satisfies the following formula (16), where C is a constant.

式(15-1)、式(15-2)、式(15-3)、及び式(16)に基づいて、光源13A、13B、及び13Cそれぞれの3次元位置は、次の式(17)、式(18)、及び式(19)のように表される。 Based on Equation (15-1), Equation (15-2), Equation (15-3), and Equation (16), the three-dimensional positions of the light sources 13A, 13B, and 13C are calculated using the following equation (17). , Expression (18), and Expression (19).

(S34:光源の3次元姿勢を算出する)
次に、3次元姿勢算出部273は、光源13A、13B、及び13Cそれぞれの3次元位置に基づいて、飛行体10aの3次元位置及び姿勢を求める。飛行体10aの3次元位置は、光源13A、13B、及び13Cそれぞれの3次元位置に基づいて規定されれば、その表記方法は特に限定されないが、例えば、光源13A、13B、及び13Cの重心等であってよい。また、飛行体10aの3次元姿勢は、例えば、光源13A、13B、及び13Cそれぞれの3次元位置に基づいて規定されれば、その表記方法は特に限定されないが、例えば、次の式(20)のように、光源13B及び光源13Cの中点から光源13Aへ向くベクトルとして表されてもよい。
(S34: Calculate the three-dimensional posture of the light source)
Next, the three-dimensional attitude calculation unit 273 calculates the three-dimensional position and attitude of the flying object 10a based on the three-dimensional positions of the light sources 13A, 13B, and 13C. The three-dimensional position of the flying object 10a is not particularly limited as long as it is defined based on the three-dimensional positions of the light sources 13A, 13B, and 13C, but for example, the center of gravity of the light sources 13A, 13B, and 13C, etc. It may be. Further, the three-dimensional attitude of the flying object 10a is not particularly limited as long as it is defined based on the three-dimensional positions of the light sources 13A, 13B, and 13C, but for example, the following equation (20) is used. It may be expressed as a vector directed from the midpoint between the light source 13B and the light source 13C toward the light source 13A, as shown in FIG.

以上、様々な実施形態について説明した。上述した各実施形態に係る飛行体、3次元位置・姿勢計測装置、及び3次元位置・姿勢計測方法によれば、GPS信号の受信が困難な環境や、大型の装置が進入することの困難な狭い環境においても、少ない数の光源によって飛行体の3次元位置・姿勢を把握することが可能となる。 Various embodiments have been described above. According to the flying object, the three-dimensional position/attitude measurement device, and the three-dimensional position/attitude measurement method according to each of the embodiments described above, the flying object, the three-dimensional position/attitude measurement device, and the three-dimensional position/attitude measurement method can be used in environments where it is difficult to receive GPS signals or where it is difficult for large devices to enter. Even in a confined environment, it is possible to grasp the three-dimensional position and attitude of an aircraft using a small number of light sources.

以上説明した各実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The embodiments described above are intended to facilitate understanding of the present invention, and are not intended to be interpreted as limiting the present invention. Each element included in the embodiment, as well as its arrangement, material, conditions, shape, size, etc., are not limited to those illustrated, and can be changed as appropriate. Further, it is possible to partially replace or combine the structures shown in different embodiments.

1、2、3…3次元位置・姿勢計測システム、10a…飛行体、10b…操縦装置、11…モータ、12…カメラ、13、13A、13B、13C…光源、140…制御部、140a…モータ制御部、140b…カメラ制御部、140c…光源制御部、140c1…ベクトル算出部、140c2…回転角度算出部、141…メモリ、142…モータコントローラ、143…通信部、144…姿勢センサ、145…バッテリ、20…3次元位置・姿勢計測装置、21a…カメラ、21b…制御ユニット、22…通信部、23…メモリ、24…制御部、25…カメラ制御部、26…画像処理部、261…光源特定部、27…3次元位置・姿勢算出部、271…3次元方向算出部、272…3次元位置算出部、273…3次元姿勢算出部、273a…ベクトル算出部、273b…回転角度算出部 1, 2, 3... Three-dimensional position/attitude measurement system, 10a... Flying object, 10b... Control device, 11... Motor, 12... Camera, 13, 13A, 13B, 13C... Light source, 140... Control unit, 140a... Motor Control unit, 140b...Camera control unit, 140c...Light source control unit, 140c1...Vector calculation unit, 140c2...Rotation angle calculation unit, 141...Memory, 142...Motor controller, 143...Communication unit, 144...Posture sensor, 145...Battery , 20...Three-dimensional position/orientation measuring device, 21a...Camera, 21b...Control unit, 22...Communication unit, 23...Memory, 24...Control unit, 25...Camera control unit, 26...Image processing unit, 261...Light source identification Part, 27...3D position/attitude calculation unit, 271...3D direction calculation unit, 272...3D position calculation unit, 273...3D attitude calculation unit, 273a...Vector calculation unit, 273b...Rotation angle calculation unit

Claims (9)

飛行体であって、
前記飛行体の姿勢を検出する姿勢検出部と、
少なくとも1つの光源と、
前記少なくとも1つの光源を、前記姿勢検出部が検出する姿勢に基づいた発光態様で発光させる光源制御部と、を備え、
前記姿勢検出部は、前記飛行体の姿勢として、直交する3つの座標軸の各々を回転軸とする3つの回転角度を検出し、
前記光源制御部は、前記少なくとも1つの光源を、前記姿勢検出部が検出する前記3つの回転角度の各々に応じた色情報及び/又は点滅周波数で発光させることを特徴とする、飛行体。
A flying object,
an attitude detection unit that detects the attitude of the flying object;
at least one light source;
a light source control unit that causes the at least one light source to emit light in a light emission mode based on the orientation detected by the orientation detection unit;
The attitude detection unit detects three rotation angles with each of three orthogonal coordinate axes as rotation axes as the attitude of the flying object ,
The flying object, wherein the light source control unit causes the at least one light source to emit light with color information and/or blinking frequency according to each of the three rotation angles detected by the attitude detection unit.
前記光源制御部は、前記少なくとも1つの光源を、前記3つの回転角度の各々に応じた色情報で、順次に発光させる、請求項に記載の飛行体。 The flying object according to claim 1 , wherein the light source control unit causes the at least one light source to sequentially emit light with color information corresponding to each of the three rotation angles. 前記光源制御部は、前記少なくとも1つの光源を、前記3つの回転角度の各々に応じた点滅周波数で、順次に発光させる、請求項に記載の飛行体。 The flying object according to claim 1 , wherein the light source control unit causes the at least one light source to sequentially emit light at a blinking frequency corresponding to each of the three rotation angles. 前記姿勢検出部は、角速度センサである、請求項1~のいずれか一項に記載の飛行体。 The flying object according to any one of claims 1 to 3 , wherein the attitude detection section is an angular velocity sensor. 前記少なくとも1つの光源は、LEDである、請求項1~のいずれか一項に記載の飛行体。 The aircraft according to any one of claims 1 to 4 , wherein the at least one light source is an LED. 前記少なくとも1つの光源の数は、1つ又は2つである、請求項1~のいずれか一項に記載の飛行体。 The flying object according to any one of claims 1 to 5 , wherein the number of the at least one light source is one or two. 請求項1~のいずれか一項に記載の飛行体の空間的な位置及び姿勢を算出する3次元位置・姿勢計測装置であって、
前記飛行体を含むシーンを撮像することにより画像を生成する撮像部と、
前記撮像部により生成された画像から、前記少なくとも1つの光源の発光態様を抽出する抽出部と、
前記少なくとも1つの光源の前記画像における2次元座標と、前記抽出部により抽出された前記発光態様に基づいて、前記飛行体の3次元位置及び姿勢を算出する算出部と、を備える、3次元位置・姿勢計測装置。
A three-dimensional position/attitude measuring device for calculating the spatial position and attitude of a flying object according to any one of claims 1 to 6 ,
an imaging unit that generates an image by imaging a scene including the flying object;
an extraction unit that extracts a light emission mode of the at least one light source from the image generated by the imaging unit;
a three-dimensional position, comprising: a calculation unit that calculates a three-dimensional position and attitude of the flying object based on two-dimensional coordinates of the at least one light source in the image and the light emission mode extracted by the extraction unit;・Posture measurement device.
請求項1~7のいずれか一項に記載の飛行体を含むシーンを撮像することにより画像を生成することと、
生成された前記画像から、前記少なくとも1つの光源の発光態様を抽出することと、
前記少なくとも1つの光源の前記画像における2次元座標と、抽出された前記発光態様に基づいて、前記飛行体の3次元位置及び姿勢を算出することと、を含む、3次元位置・姿勢計測方法。
Generating an image by capturing a scene including the flying object according to any one of claims 1 to 7;
extracting a light emission mode of the at least one light source from the generated image;
A three-dimensional position/attitude measurement method comprising: calculating a three-dimensional position and attitude of the flying object based on two-dimensional coordinates of the at least one light source in the image and the extracted light emission mode.
少なくとも3つの光源を備える飛行体の空間的な位置及び姿勢を算出する3次元位置・姿勢計測装置であって、
前記飛行体を含むシーンを撮像することにより画像を生成する撮像部と、
前記少なくとも3つの光源の各々の前記画像における2次元座標及び輝度に基づいて、前記少なくとも3つの光源の各々の3次元位置を算出することにより、前記飛行体の位置及び姿勢を算出する算出部と、を備え、
前記飛行体の姿勢は前記少なくとも3つの光源の各々の前記3次元位置に基づいて規定されることを特徴とする、3次元位置・姿勢計測装置。
A three-dimensional position/attitude measurement device that calculates the spatial position and attitude of a flying object comprising at least three light sources,
an imaging unit that generates an image by imaging a scene including the flying object;
a calculation unit that calculates the position and attitude of the flying object by calculating the three-dimensional position of each of the at least three light sources based on the two-dimensional coordinates and brightness in the image of each of the at least three light sources; , comprising;
A three-dimensional position/attitude measurement device, wherein the attitude of the flying object is defined based on the three-dimensional positions of each of the at least three light sources.
JP2020004375A 2020-01-15 2020-01-15 Aircraft, 3D position/attitude measurement device, and 3D position/attitude measurement method Active JP7440272B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020004375A JP7440272B2 (en) 2020-01-15 2020-01-15 Aircraft, 3D position/attitude measurement device, and 3D position/attitude measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020004375A JP7440272B2 (en) 2020-01-15 2020-01-15 Aircraft, 3D position/attitude measurement device, and 3D position/attitude measurement method

Publications (2)

Publication Number Publication Date
JP2021109618A JP2021109618A (en) 2021-08-02
JP7440272B2 true JP7440272B2 (en) 2024-02-28

Family

ID=77058920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020004375A Active JP7440272B2 (en) 2020-01-15 2020-01-15 Aircraft, 3D position/attitude measurement device, and 3D position/attitude measurement method

Country Status (1)

Country Link
JP (1) JP7440272B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113819889B (en) * 2021-09-09 2024-01-26 中国电子科技集团公司第五十四研究所 Relative ranging and attitude measuring method based on aircraft rotor wing light source detection

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003254716A (en) 2002-03-04 2003-09-10 Sony Corp Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program
US20100168949A1 (en) 2008-12-19 2010-07-01 Malecki Robert S System and Method for Autonomous Vehicle Control
JP2016177640A (en) 2015-03-20 2016-10-06 三菱電機株式会社 Video monitoring system
JP2018144731A (en) 2017-03-08 2018-09-20 株式会社Soken Flight device
JP2019133441A (en) 2018-01-31 2019-08-08 井関農機株式会社 Work vehicle managing system
JP2019176418A (en) 2018-03-29 2019-10-10 井関農機株式会社 Management system of work vehicle

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11165287A (en) * 1997-12-08 1999-06-22 Yukio Saito Position detection device, position control device and robot control device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003254716A (en) 2002-03-04 2003-09-10 Sony Corp Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program
US20100168949A1 (en) 2008-12-19 2010-07-01 Malecki Robert S System and Method for Autonomous Vehicle Control
JP2016177640A (en) 2015-03-20 2016-10-06 三菱電機株式会社 Video monitoring system
JP2018144731A (en) 2017-03-08 2018-09-20 株式会社Soken Flight device
JP2019133441A (en) 2018-01-31 2019-08-08 井関農機株式会社 Work vehicle managing system
JP2019176418A (en) 2018-03-29 2019-10-10 井関農機株式会社 Management system of work vehicle

Also Published As

Publication number Publication date
JP2021109618A (en) 2021-08-02

Similar Documents

Publication Publication Date Title
US10648809B2 (en) Adaptive compass calibration based on local field conditions
CN109382821B (en) Calibration method, calibration system, and program
CN105981074B (en) For demarcating system, the method and apparatus of imaging device
US8699829B2 (en) Hand held portable three dimensional scanner
CN107289931B (en) A kind of methods, devices and systems positioning rigid body
US20160327389A1 (en) Calibration Transfer Between Two Devices
JP6583840B1 (en) Inspection system
TWI687870B (en) Environment acquisition system and environment acquisition method
JP2017015704A (en) Camera unit adapted to be mounted on drone to map land, and image pickup management method by camera unit
JP7153306B2 (en) Detection target localization system
JP7440272B2 (en) Aircraft, 3D position/attitude measurement device, and 3D position/attitude measurement method
CN105867400A (en) Flying control method and device for unmanned aerial vehicle
WO2020166178A1 (en) Information processing device, information processing method, and program
JP2010078466A (en) Method and system for automatic marker registration
JP2009175012A (en) Measurement device and measurement method
JP2014086804A (en) Auxiliary imaging apparatus and program
JP6681101B2 (en) Inspection system
KR20180123778A (en) Method for detecting object in aerial images and apparatus for the same
EP3995396A1 (en) Information processing device, information processing method, program, and information processing system
JP4255272B2 (en) Image generation device
CN105094377B (en) Cursor display method, equipment and the system of intelligent controller
WO2023089983A1 (en) Information processing device, information processing method, and program
JP7370045B2 (en) Dimension display system and method
WO2024069669A1 (en) Information processing system, program, information processing method, terminal, and server
JP2006153506A (en) Position detection device and position detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240215

R150 Certificate of patent or registration of utility model

Ref document number: 7440272

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150