JP2017201757A - Image acquisition system, image acquisition method, and image processing method - Google Patents

Image acquisition system, image acquisition method, and image processing method Download PDF

Info

Publication number
JP2017201757A
JP2017201757A JP2016093098A JP2016093098A JP2017201757A JP 2017201757 A JP2017201757 A JP 2017201757A JP 2016093098 A JP2016093098 A JP 2016093098A JP 2016093098 A JP2016093098 A JP 2016093098A JP 2017201757 A JP2017201757 A JP 2017201757A
Authority
JP
Japan
Prior art keywords
image
camera
uav
imaging
aerial vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016093098A
Other languages
Japanese (ja)
Inventor
健一 明石
Kenichi Akashi
健一 明石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016093098A priority Critical patent/JP2017201757A/en
Publication of JP2017201757A publication Critical patent/JP2017201757A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a method for accurately compositing images acquired by a plurality of unmanned aircrafts, and an apparatus using the same.SOLUTION: There is provided an image acquisition system comprising: a first unmanned aircraft that includes a first camera; a second unmanned aircraft that includes a second camera; a commanding device that includes a third camera; and an image processing apparatus that performs composition processing of compositing a first image obtained by photographing an imaging object with the first camera and a second image obtained by photographing the imaging object with the second camera, wherein the commanding device acquires a third image by photographing the first unmanned aircraft and the second unmanned aircraft photographing the imaging object, and the image processing apparatus detects the respective attitudes of the first unmanned aircraft and the second unmanned aircraft on the basis of the third image, and performs processing of correcting the difference between the attitudes in performing the composition processing of compositing the first image and the second image.SELECTED DRAWING: Figure 3

Description

本発明は無人航空機(UAV(Unmanned aerial vehicle))を用いた画像取得方法に関する。   The present invention relates to an image acquisition method using an unmanned aerial vehicle (UAV (Unmanned aerial vehicle)).

ビル壁面、橋脚等の建造物の維持管理のために、赤外線カメラを用いた検査手法が広く用いられている。この検査手法は、コンクリート内部の空洞や表面の傷(異常部位)等と正常部位との温度差を赤外線カメラにより可視化することにより、従来の打音検査等に比べて広範囲を迅速に検査可能であることが特徴である。   An inspection method using an infrared camera is widely used for maintenance of buildings such as building walls and piers. This inspection method makes it possible to inspect a wide area more quickly than conventional hammering sound inspections by visualizing the temperature difference between a normal part and cavities inside the concrete or scratches on the surface (abnormal part). It is a feature.

他方、UAVはセンサーやバッテリーの技術進歩に伴って、近年著しい発展を遂げており、様々な分野と融合した製品、システムが開発されている。上述した建造物の維持管理分野も例外ではない。   On the other hand, UAV has made remarkable progress in recent years with the technological advancement of sensors and batteries, and products and systems that are integrated with various fields have been developed. The building maintenance field mentioned above is no exception.

特許第5697592号公報Japanese Patent No. 5697592 特開2015−119372号公報JP2015-119372A

特許文献1では、赤外線画像を取得可能なカメラをUAVに搭載し、UAVを構造物の検査に用いるシステムが提案されている。上述した赤外線カメラを用いた検査においては、赤外線画像と可視光画像を比較し、異常部位の判別を行う。この判別は、赤外線画像と可視光画像を重ねあわせる(合成する)ことで容易となる。この際、2種の画像を同時に取得することによって、より精度の高い合成画像を短時間で生成することが可能となる。上述した同時取得には、1台のUAVに2種のカメラを搭載することが望ましいが、UAVの搭載量や駆動電源の制約により、現状では実現が難しい。容易に実現が可能な構成として2つのUAVにそれぞれ異なるカメラを搭載し、同時に撮像を行うことで、上述の2種の画像の同時取得が可能となる。しかしながら、この構成の場合2つのカメラの位置関係と向きが固定されず、気流等の外部環境によって常に変動する状態となる。このため、画像の合成精度を向上させる工夫が必要となる。   Patent Document 1 proposes a system in which a camera capable of acquiring an infrared image is mounted on a UAV and the UAV is used for inspection of a structure. In the inspection using the above-described infrared camera, the infrared image and the visible light image are compared to determine the abnormal part. This discrimination is facilitated by superimposing (combining) the infrared image and the visible light image. At this time, by acquiring two types of images at the same time, it is possible to generate a synthesized image with higher accuracy in a short time. Although it is desirable to mount two types of cameras on one UAV for the above-mentioned simultaneous acquisition, it is difficult to realize at present due to restrictions on the amount of UAV mounted and the drive power supply. As a configuration that can be easily realized, two different cameras are mounted on two UAVs, and simultaneous imaging is performed, whereby the above-described two types of images can be simultaneously acquired. However, in this configuration, the positional relationship and orientation of the two cameras are not fixed, and the camera always changes depending on the external environment such as airflow. For this reason, a device for improving the image synthesis accuracy is required.

特許文献2では、複数のカメラで構造物の画像を取得し、画像中の特徴点あるいは基準となるマーカを基に画像の位置合わせを行っている。このような特徴点を用いた画像の位置合わせは一般的に行われており、カメラが固定されている状況においては精度よく位置合わせが可能となる。しかし、この手法では上述したカメラの位置変動がある場合、精度の低下、又は画像処理時間の長時間化が問題となる。さらにマーカを用いるならば、撮像対象へのマーカの設置作業を必要とするため、作業時間、コストの面で不利となる。   In Patent Document 2, images of a structure are acquired by a plurality of cameras, and image alignment is performed based on feature points in the images or reference markers. Image alignment using such feature points is generally performed, and in a situation where the camera is fixed, alignment can be performed with high accuracy. However, in this method, when there is a change in the position of the camera described above, there is a problem in that the accuracy is lowered or the image processing time is increased. Further, if a marker is used, it is necessary to install the marker on the imaging target, which is disadvantageous in terms of work time and cost.

その他の方法として、画像を取得した際の互いのカメラの位置関係と向きを基に画像を補正する方法が挙げられる。カメラの位置関係と向きを得る方法としてはUAVに搭載したセンサー類を用いることが考えられるが、センサーの応答速度及び精度が問題となる。一般的なUAVにおいて屋外では特に位置はGPS(Global Positioning System)、高度は気圧センサーを用いることが多い。しかし、GPSの精度はおよそ1mオーダー、気圧センサーも0.1mオーダーと画像の補正に用いるには精度が不足する。   As another method, there is a method of correcting an image based on the positional relationship and orientation of each other's cameras when the image is acquired. As a method for obtaining the positional relationship and orientation of the camera, it is conceivable to use sensors mounted on the UAV, but the response speed and accuracy of the sensor are problematic. In general UAVs, GPS (Global Positioning System) is often used outdoors, and barometric pressure sensors are often used for altitude. However, the accuracy of GPS is on the order of 1 m, and the pressure sensor is also on the order of 0.1 m, which is insufficient for use in image correction.

本発明は、上記の課題に対し、複数の無人航空機にて取得した画像の合成を精度よく行う方法及びそれを用いた装置を提供することを目的とする。   An object of the present invention is to provide a method for accurately synthesizing images acquired by a plurality of unmanned aerial vehicles and an apparatus using the method.

本発明の第1態様は、第1のカメラを有する第1の無人航空機と、第2のカメラを有する第2の無人航空機と、第3のカメラを有する指令装置と、前記第1のカメラで撮像対象を撮像することにより得られた第1の画像と前記第2のカメラで前記撮像対象を撮像することにより得られた第2の画像とを合成する合成処理を行う画像処理装置と、を有する画像取得システムであって、前記指令装置が、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を前記第3のカメラにより撮像することにより、第3の画像を取得し、前記画像処理装置が、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の前記合成処理を行う際に前記姿勢の差を補正する処理を行うことを特徴とする画像取得システムを提供する。   According to a first aspect of the present invention, there is provided a first unmanned aerial vehicle having a first camera, a second unmanned aerial vehicle having a second camera, a command device having a third camera, and the first camera. An image processing apparatus that performs a synthesis process for synthesizing a first image obtained by imaging an imaging target and a second image obtained by imaging the imaging target with the second camera; In the image acquisition system, the command device acquires the third image by imaging the first unmanned aircraft and the second unmanned aircraft that images the imaging target with the third camera. Then, the image processing device detects the attitudes of the first unmanned aircraft and the second unmanned aircraft based on the third image, and combines the first image and the second image. The difference in posture when processing Providing an image acquisition system which is characterized in that a positive processes.

本発明の第2態様は、第1のカメラを有する第1の無人航空機と、第2のカメラを有する第2の無人航空機と、第3のカメラと、画像処理装置と、を用いて画像を取得する画像取得方法であって、前記第1の無人航空機が前記第1のカメラにより撮像対象を撮像することにより、第1の画像を取得するステップと、前記第2の無人航空機が前記第2のカメラにより前記撮像対象を撮像することにより、第2の画像を取得するステップと、前記第3のカメラが、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を撮像することにより、第3の画像を取得するステップと、前記画像処理装置が、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の合成処理を行う際に前記姿勢の差を補正する処理を行うステップと、を有することを特徴とする画像取得方法を提供する。   According to a second aspect of the present invention, an image is obtained using a first unmanned aerial vehicle having a first camera, a second unmanned aerial vehicle having a second camera, a third camera, and an image processing device. An image acquisition method for acquiring, wherein the first unmanned aircraft acquires a first image by imaging an imaging target with the first camera, and the second unmanned aircraft is configured to acquire the second image. Capturing a second image by imaging the imaging target with the camera, and the third camera imaging the first unmanned aircraft and the second unmanned aircraft that capture the imaging target. A step of acquiring a third image, and the image processing device detects the attitudes of the first unmanned aircraft and the second unmanned aircraft based on the third image, and 1 image and the second To provide an image acquisition method characterized by comprising the steps of: performing processing for correcting the difference in the position when performing composition processing of the image.

本発明の第3態様は、第1の無人航空機が第1のカメラにより撮像対象を撮像することにより得られた第1の画像のデータを取得するステップと、第2の無人航空機が第2のカメラにより前記撮像対象を撮像することにより得られた第2の画像のデータを取得するステップと、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を第3のカメラにより撮像することにより得られた第3の画像のデータを取得するステップと、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の合成処理を行う際に前記姿勢の差を補正する処理を行うステップと、を有することを特徴とする画像処理方法を提供する。   According to a third aspect of the present invention, the first unmanned aerial vehicle acquires the first image data obtained by imaging the imaging target with the first camera; A step of acquiring data of a second image obtained by imaging the imaging object by a camera; and the first unmanned aircraft and the second unmanned aircraft imaging the imaging object by a third camera. Acquiring the data of the third image obtained by imaging, detecting the attitudes of the first unmanned aircraft and the second unmanned aircraft based on the third image, and And a step of correcting the difference in posture when performing the synthesis process of the second image and the second image.

本発明の第4態様は、上記画像処理方法の各ステップをプロセッサに実行させることを特徴とするプログラムを提供する。   According to a fourth aspect of the present invention, there is provided a program characterized by causing a processor to execute each step of the image processing method.

本発明によれば、複数の無人航空機にて取得した画像の合成を精度よく行う方法及びそれを用いた装置を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the method and apparatus using the same which synthesize | combine the image acquired with several unmanned aircraft accurately can be provided.

第一の実施形態に係るUAV画像取得システムの全体図Overall view of UAV image acquisition system according to the first embodiment 第一の実施形態に係るUAV画像取得システムのブロック図Block diagram of a UAV image acquisition system according to the first embodiment 第一の実施形態に係る画像取得工程のシーケンスチャートSequence chart of image acquisition process according to first embodiment 第二の実施形態に係るUAV画像取得システムの全体図Overall view of UAV image acquisition system according to second embodiment 第二の実施形態に係る画像取得工程のシーケンスチャートSequence chart of image acquisition process according to second embodiment

以下、図面を参照しながら本発明の実施の形態を説明する。各実施形態では、複数の無人航空機(UAV)によりそれぞれ撮像対象を撮像し、各UAVで得られた画像から合成画像を生成するUAV画像取得システムを例示する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Each embodiment exemplifies a UAV image acquisition system in which a plurality of unmanned aerial vehicles (UAVs) each captures an imaging target and generates a composite image from images obtained by each UAV.

[第一の実施形態]
<全体構成>
図1は本発明の第一の実施形態に係るUAV画像取得システムの概略装置構成を説明する模式図である。詳細な画像取得、処理シーケンスについては後述する。
[First embodiment]
<Overall configuration>
FIG. 1 is a schematic diagram illustrating a schematic device configuration of a UAV image acquisition system according to the first embodiment of the present invention. Detailed image acquisition and processing sequences will be described later.

UAV画像取得システムは、赤外線カメラ搭載UAV101(以降、UAV101)と可視光カメラ搭載UAV102(以降、UAV102)、指令装置103、画像処理装置104、コンピュータ105、表示装置106によって構成される。画像処理装置104は専用処理ボードとしてコンピュータ105に組み込まれている。例として、コンピュータ105はPC(personal computer)、表示装置106は液晶ディスプレイを用いる。また、画像処理装置104は、画像処理専用のプロセッサ(FPGA、ASICなど)、メモリ、及び各種のI/Oを有する画像処理ボードにより構成され、後述する画像処理装置104の機能は当該プロセッサが必要なプログラムを実行することで実現される。   The UAV image acquisition system includes an infrared camera mounted UAV 101 (hereinafter referred to as UAV 101), a visible light camera mounted UAV 102 (hereinafter referred to as UAV 102), a command device 103, an image processing device 104, a computer 105, and a display device 106. The image processing apparatus 104 is incorporated in the computer 105 as a dedicated processing board. As an example, the computer 105 uses a personal computer (PC), and the display device 106 uses a liquid crystal display. The image processing apparatus 104 includes an image processing dedicated processor (FPGA, ASIC, etc.), a memory, and an image processing board having various I / Os. The function of the image processing apparatus 104 described later is required for the processor. This is realized by executing a simple program.

本実施形態では図1に示すシステム構成をとっているが、本発明の構成はこれに限られない。例えば、指令装置103に画像処理装置104を組み込んでもよいし、コンピュータ105と表示装置106を一体としたノートPC、スマートフォン、タブレット端末などを用いてもよい。又は、指令装置103、画像処理装置104、コンピュータ105、表示装置106のすべての機能を一つの装置で構成してもよい。あるいは、一部の機能をネットワーク上のサーバ(クラウドサーバなど)で実行してもよい。   In this embodiment, the system configuration shown in FIG. 1 is adopted, but the configuration of the present invention is not limited to this. For example, the image processing device 104 may be incorporated in the command device 103, or a notebook PC, a smartphone, a tablet terminal, or the like in which the computer 105 and the display device 106 are integrated may be used. Alternatively, all functions of the command device 103, the image processing device 104, the computer 105, and the display device 106 may be configured by one device. Alternatively, some functions may be executed by a server (such as a cloud server) on the network.

UAV101は赤外領域の画像データを取得し、UAV102は可視光領域の画像データを取得する。画像データの取得タイミング(シャッターを切るタイミング)は後述するトリガ信号により制御される。UAVによって取得した画像データを「原画像データ」と呼称する。また、UAV101によって取得した原画像データを「赤外線原画像データ」、UAV102によって取得した原画像データを「可視光原画像データ」と呼称する。赤外線原画像データと可視光原画像データは後述する画像処理装置104にて合成処理が施され、画像として表示装置106に表示される。   The UAV 101 acquires image data in the infrared region, and the UAV 102 acquires image data in the visible light region. Image data acquisition timing (timing to release the shutter) is controlled by a trigger signal described later. Image data acquired by the UAV is referred to as “original image data”. The original image data acquired by the UAV 101 is referred to as “infrared original image data”, and the original image data acquired by the UAV 102 is referred to as “visible light original image data”. The infrared original image data and the visible light original image data are subjected to synthesis processing by an image processing device 104 described later, and are displayed on the display device 106 as an image.

なお、UAV101とUAV102は搭載するカメラが異なる点を除いて、機体は同一のものを使用することができる。ただしUAVの同定のために、それぞれ異なる塗装、マーキングを施すことが好ましい(搭載カメラの形状が大きく異なる場合はその限りでない)。使用するUAVは一般に使用されているものと同様に、GPSによる自動航行、又は無線遠隔操縦が可能となっている。さらに、後述するトリガ信号を受信して撮像を行う機能、取得した画像を無線にて画像処理装置へ送信する機能を有している。   It should be noted that the UAV 101 and UAV 102 can use the same aircraft except that the mounted cameras are different. However, in order to identify the UAV, it is preferable to apply different coatings and markings (unless the shape of the mounted camera is greatly different). The UAV to be used is capable of automatic navigation by GPS or wireless remote control in the same manner as commonly used. Further, it has a function of receiving a trigger signal, which will be described later, and capturing an image, and a function of transmitting the acquired image to the image processing apparatus wirelessly.

<指令装置>
図2を参照して、指令装置103の構成を説明する。図2は指令装置と画像処理装置の概略構成を示す模式図である。
<Command device>
The configuration of the command device 103 will be described with reference to FIG. FIG. 2 is a schematic diagram showing a schematic configuration of the command device and the image processing device.

指令装置103は、UAV101、UAV102に対し、撮像開始のトリガ信号を発信する。また指令装置103は、UAV101、UAV102の姿勢を算出するための画像データ(姿勢画像データ)の取得、UAV101、UAV102で取得した原画像データの受信と画像処理装置104への転送を行う。
指令装置103は、指令制御系201、撮像ユニット202、測距ユニット203、雲台ユニット204、データ送受信ユニット205を有する。
The command device 103 transmits a trigger signal for starting imaging to the UAV 101 and the UAV 102. The command device 103 acquires image data (posture image data) for calculating the postures of the UAV 101 and the UAV 102, receives original image data acquired by the UAV 101 and the UAV 102, and transfers them to the image processing device 104.
The command device 103 includes a command control system 201, an imaging unit 202, a distance measuring unit 203, a pan head unit 204, and a data transmission / reception unit 205.

指令制御系201は、後述する撮像ユニット202、測距ユニット203、雲台ユニット204、データ送受信ユニット205への命令、及び画像処理制御系206とのデータのやり取りを行う。   The command control system 201 exchanges commands with the imaging unit 202, the distance measurement unit 203, the pan head unit 204, and the data transmission / reception unit 205, which will be described later, and data with the image processing control system 206.

撮像ユニット202は、撮像モジュールと撮像処理制御系とを有する。撮像モジュールは、光学系(レンズ、絞り等)、その光学系の焦点合わせを行うためのレンズ駆動機構、及び撮像センサーを有する。撮像処理制御系は、撮像モジュールの各部を制御する回路である。撮像処理制御系は、指令制御系201の命令に基づいて撮像モジュールを制御してUAV101、102を撮像し、UAV101、102が写った画像データ(姿勢画像データ)を指令制御系201を通して画像処理制御系206へと送る。姿勢画像データは、2機のUAV101、102それぞれの姿勢(位置及び向き)を検出する目的で利用される画像データである。したがって、機体の同定と姿勢(位置及び向き)の検出が可能な程度に2機のUAV101、102が明りょうに写っている画像データであれば、姿勢画像データとして用いることができる。   The imaging unit 202 includes an imaging module and an imaging processing control system. The imaging module has an optical system (lens, diaphragm, etc.), a lens driving mechanism for focusing the optical system, and an imaging sensor. The imaging processing control system is a circuit that controls each part of the imaging module. The imaging processing control system controls the imaging module based on a command from the command control system 201 to capture the UAVs 101 and 102, and controls image processing of the image data (posture image data) in which the UAVs 101 and 102 are captured through the command control system 201. Send to system 206. The posture image data is image data used for the purpose of detecting the posture (position and orientation) of each of the two UAVs 101 and 102. Therefore, any image data in which the two UAVs 101 and 102 are clearly shown to the extent that the identification of the aircraft and the detection of the posture (position and orientation) are possible can be used as the posture image data.

測距ユニット203は、対象との距離を測定する測距センサーと、測距センサーを制御する測距処理制御系とを有する。測距センサーの方式は問わないが、本実施形態では、レーザー光のTOF(Time of Flight)により距離を測定するレーザー測距センサーを用いる。測距処理制御系は、指令制御系201の命令に基づいて測距センサーを駆動して指令装置103と各UAVとの間の距離を測定し、取得した距離データを指令制御系201を通して画像処理制御系206へと送る。   The distance measuring unit 203 includes a distance measuring sensor that measures the distance to the object, and a distance measurement processing control system that controls the distance measuring sensor. The method of the distance measuring sensor is not limited, but in the present embodiment, a laser distance measuring sensor that measures the distance by TOF (Time of Flight) of laser light is used. The distance measurement processing control system drives a distance measurement sensor based on a command from the command control system 201 to measure the distance between the command device 103 and each UAV, and performs image processing on the acquired distance data through the command control system 201. This is sent to the control system 206.

雲台ユニット204は、撮像ユニット202及び測距ユニット203が設置された雲台の駆動機構と、その駆動制御系を有する。駆動制御系は、指令制御系201の命令に基づいて駆動機構を駆動して雲台の方位角及び仰角を制御し、撮像ユニット202及び測距ユニット203を適切な方向へ向ける。   The pan head unit 204 includes a pan head driving mechanism in which the imaging unit 202 and the distance measuring unit 203 are installed, and a driving control system thereof. The drive control system drives the drive mechanism based on a command from the command control system 201 to control the azimuth angle and elevation angle of the camera platform, and directs the imaging unit 202 and the distance measurement unit 203 in appropriate directions.

データ送受信ユニット205は、指令制御系201の命令に基づいてUAV101及びUAV102とのデータの送受信を行う。UAVの撮像対象の位置データ、後述する撮像開始トリガ信号等、UAV101及び102が撮像するために必要な情報の送信も、データ送受信ユニット205より行われる。また、各UAV101、102より受信した原画像データは指令制御系201を通して画像処理制御系206へと送られる。   The data transmission / reception unit 205 transmits / receives data to / from the UAV 101 and the UAV 102 based on a command from the command control system 201. The data transmission / reception unit 205 also transmits information necessary for the UAVs 101 and 102 to capture, such as the position data of the UAV imaging target and the imaging start trigger signal described later. Also, the original image data received from each UAV 101 and 102 is sent to the image processing control system 206 through the command control system 201.

<画像処理装置>
画像処理装置104は、指令装置103で取得したUAVの姿勢画像データと距離データから、原画像データを適切に合成するための補正パラメータを算出する。さらに、画像処理装置104は、補正パラメータを用いて原画像データの合成処理を行い、合成処理を行った画像データを表示装置106に表示するための表示データを生成する。また、画像処理装置104は、各UAVの撮像対象の位置データ等、指令装置103を通してUAVに送信する情報を、コンピュータ105を通してユーザーより取得する。
<Image processing device>
The image processing device 104 calculates correction parameters for appropriately combining the original image data from the UAV posture image data and distance data acquired by the command device 103. Further, the image processing apparatus 104 performs a composition process of the original image data using the correction parameter, and generates display data for displaying the image data subjected to the composition process on the display apparatus 106. Further, the image processing device 104 acquires information to be transmitted to the UAV through the command device 103 such as the position data of the imaging target of each UAV from the user through the computer 105.

図2に示すように、画像処理装置104は、画像処理制御系206、UAV検出部207、姿勢算出部208、補正パラメータ算出部209、合成処理部211、現像処理部212、表示データ生成部213、ユーザー情報取得部215を有する。なお、UAV検出部207から補正パラメータ算出部209までをまとめて補正パラメータ算出ユニット210、合成処理部211から表示データ生成部213までをまとめて合成画像生成ユニット214とする。   As shown in FIG. 2, the image processing apparatus 104 includes an image processing control system 206, a UAV detection unit 207, an attitude calculation unit 208, a correction parameter calculation unit 209, a composition processing unit 211, a development processing unit 212, and a display data generation unit 213. And a user information acquisition unit 215. The UAV detection unit 207 to the correction parameter calculation unit 209 are collectively referred to as a correction parameter calculation unit 210, and the combination processing unit 211 to the display data generation unit 213 are collectively referred to as a composite image generation unit 214.

画像処理制御系206は、補正パラメータ算出ユニット210、合成画像生成ユニット214、及びユーザー情報取得部215の制御、並びに、指令装置103(指令制御系201)とのデータのやり取りを行う。   The image processing control system 206 controls the correction parameter calculation unit 210, the composite image generation unit 214, and the user information acquisition unit 215, and exchanges data with the command device 103 (command control system 201).

補正パラメータ算出ユニット210は、指令装置103で取得した姿勢画像データ及び距離データを用いて、各UAV101、102の姿勢検出を行い、後述する合成処理に用いる補正パラメータの算出を行う。補正パラメータ算出ユニット210は、UAV検出部207、姿勢算出部208、及び補正パラメータ算出部209を有する。UAV検出部207は、姿勢画像データ中のUAVの特徴(塗装色、マーカ、カメラ形状)を検出し、UAVの同定を行う。本実施形態においては、UAV検出部207は、姿勢画像データ中のUAVがUAV101であるかUAV102であるかを、その特徴から判断する。姿勢算出部208は、UAV検出部207で同定したUAV101、102それぞれの姿勢を検出し、姿勢情報を出力する。姿勢は、検出対象(UAV)の特徴点を用いる公知な方法(例:Bag−of−Features表現を用いる方法)によって算出可能である。補正パラメータ算出部209は、姿勢情報及び距離データより、UAVに搭載されたカメラの撮像対象に対する角度、距離を推定し、合成画像を生成するための補正パラメータを算出する。   The correction parameter calculation unit 210 detects the postures of the UAVs 101 and 102 using the posture image data and the distance data acquired by the commanding device 103, and calculates correction parameters used for a synthesis process to be described later. The correction parameter calculation unit 210 includes a UAV detection unit 207, an attitude calculation unit 208, and a correction parameter calculation unit 209. The UAV detection unit 207 detects UAV features (paint color, marker, camera shape) in the posture image data, and identifies the UAV. In the present embodiment, the UAV detection unit 207 determines whether the UAV in the posture image data is the UAV 101 or the UAV 102 based on the feature. The posture calculation unit 208 detects the postures of the UAVs 101 and 102 identified by the UAV detection unit 207 and outputs posture information. The posture can be calculated by a known method using a feature point of a detection target (UAV) (eg, a method using Bag-of-Features expression). The correction parameter calculation unit 209 estimates the angle and distance of the camera mounted on the UAV from the posture information and distance data, and calculates correction parameters for generating a composite image.

合成画像生成ユニット214は、各UAV101、102が取得した原画像データと指令装置103が取得した姿勢画像データ及び距離データを用いて、表示装置106に表示する画像データを生成する。合成画像生成ユニット214は、合成処理部211、現像処理部212、及び表示データ生成部213を有する。合成処理部211は、補正パラメータ算出部209で算出した補正パラメータに基づいて、UAV101及び102で取得した原画像データに補正処理を行った後、画像合成処理を施し合成画像データを生成する。補正処理は、2つの原画像データの位置、向き、大きさ等を合わせるための処理であり、例えば、アフィン変換等の変形処理や回転処理、トリミング処理などが含まれる。現像処理部212は、合成画像データの各画素値をXYZ色度座標値に変換する。この変換された画像データを、XYZ画像データと称する。また、必要に応じてノイズ除去等のデジタルフィルター処理、JPEG(Joint Photographic Experts
Group)等の圧縮処理を行う。表示データ生成部213は現像処理部212で生成されたXYZ画像データを、ルックアップテーブルを用いて、表示装置106で表示可能なRGB表色系の画像データに変換する。
The composite image generation unit 214 generates image data to be displayed on the display device 106 using the original image data acquired by each of the UAVs 101 and 102 and the posture image data and distance data acquired by the command device 103. The composite image generation unit 214 includes a composite processing unit 211, a development processing unit 212, and a display data generation unit 213. Based on the correction parameter calculated by the correction parameter calculation unit 209, the composition processing unit 211 performs correction processing on the original image data acquired by the UAVs 101 and 102, and then performs image composition processing to generate composite image data. The correction process is a process for adjusting the position, orientation, size, and the like of the two original image data, and includes, for example, a deformation process such as affine transformation, a rotation process, and a trimming process. The development processing unit 212 converts each pixel value of the composite image data into XYZ chromaticity coordinate values. This converted image data is referred to as XYZ image data. In addition, digital filter processing such as noise removal, JPEG (Joint Photographic Experts if necessary)
(Group) or the like. The display data generation unit 213 converts the XYZ image data generated by the development processing unit 212 into RGB color system image data that can be displayed on the display device 106 using a lookup table.

ユーザー情報取得部215は、コンピュータ105内の記憶装置からユーザー情報を取得する。ユーザー情報は、例えば、UAVの機体設定情報(撮像対象、撮像対象への飛行ルート・スケジュール、帰還場所等)、UAVに搭載したカメラの情報(画角、焦点距離等)等を含む。機体設定情報及びカメラ情報は事前にUI等を介してユーザーによって入力され、コンピュータ105内の記憶装置に保持されている。ユーザー情報取得部215により取得された機体設定情報は、画像処理制御系206、指令制御系201、データ送受信ユニット205を通じて各UAV101、102へと送られる。なお、これ以後特に言及の無い限り、指令装置103とUAV101、102との間の通信はデータ送受信ユニット205を介して行うものとする。   The user information acquisition unit 215 acquires user information from the storage device in the computer 105. The user information includes, for example, UAV body setting information (imaging target, flight route / schedule to imaging target, return location, etc.), information on a camera mounted on the UAV (view angle, focal length, etc.), and the like. The machine setting information and camera information are input in advance by the user via a UI or the like, and held in a storage device in the computer 105. The machine setting information acquired by the user information acquisition unit 215 is sent to the UAVs 101 and 102 through the image processing control system 206, the command control system 201, and the data transmission / reception unit 205. Unless otherwise specified, communication between the command device 103 and the UAVs 101 and 102 is performed via the data transmission / reception unit 205.

<UAVの制御及び撮像処理>
本実施形態のUAV101及びUAV102、指令装置103、画像処置装置104での合成画像データ取得についての詳細な工程を図3のシーケンスチャートを用いて説明する。
<UAV control and imaging processing>
Detailed steps for obtaining composite image data in the UAV 101 and UAV 102, the command device 103, and the image processing device 104 according to this embodiment will be described with reference to the sequence chart of FIG.

ステップS301では、ユーザー情報取得部215が上述したユーザー情報(機体設定
情報、カメラ情報等)を取得する。取得したユーザー情報は画像処理制御系206を通して指令装置103へ送られる。
In step S301, the user information acquisition unit 215 acquires the above-described user information (machine setting information, camera information, etc.). The acquired user information is sent to the command device 103 through the image processing control system 206.

ステップS302では、ステップS301で取得した機体設定情報等を基に、指令装置103が(データ送受信ユニット205を介して)UAV101、UAV102の初期化を行う。具体的には、撮像対象、撮像位置(撮像対象を撮像するときのUAVの位置)、飛行ルート、飛行スケジュール、期間場所等の情報が各UAV101、102に送信し設定される。   In step S302, the command device 103 initializes the UAV 101 and UAV 102 (via the data transmission / reception unit 205) based on the machine setting information acquired in step S301. Specifically, information such as an imaging target, an imaging position (a UAV position when imaging the imaging target), a flight route, a flight schedule, a period place, and the like are transmitted to each UAV 101 and 102 and set.

ステップS303では、ステップS302での設定に基づき、UAV101及びUAV102を撮像位置へと移動させる。撮像位置までの移動はGPS等を利用した自動航行にて行うことが好ましい。移動後、搭載したカメラの画角に撮像対象が収まるよう、各UAV101、102が自機の位置と向きを微調整する。画角に撮像対象を収めたら、各UAV101、102は移動完了の通知を指令装置103へ送る。   In step S303, the UAV 101 and UAV 102 are moved to the imaging position based on the setting in step S302. The movement to the imaging position is preferably performed by automatic navigation using GPS or the like. After the movement, each UAV 101, 102 finely adjusts the position and orientation of the own device so that the imaging target is within the angle of view of the mounted camera. When the subject to be imaged falls within the angle of view, each UAV 101, 102 sends a notification of movement completion to the command device 103.

ステップS304では、指令装置103が後段のUAVの撮像(姿勢画像データ取得)と測距(距離データ取得)の準備を行う。具体的には、撮像位置(空中)にいるUAV101及び102が2機とも撮像ユニット202の画角に収まるように、指令制御系201が雲台ユニット204を制御し、指令装置103(撮像ユニット202及び測距ユニット203)の向きを変更する。   In step S304, the command device 103 prepares for UAV imaging (posture image data acquisition) and distance measurement (distance data acquisition) in the subsequent stage. Specifically, the command control system 201 controls the pan head unit 204 so that the two UAVs 101 and 102 at the imaging position (in the air) are within the angle of view of the imaging unit 202, and the command device 103 (imaging unit 202 And the direction of the distance measuring unit 203) is changed.

UAVが画角に収まるかどうかの判断は、いかなる方法で行ってもよい。例えば、ステップS302で各UAV101、102に設定した撮像位置と指令装置103の設置位置と撮像ユニット202の画角とから理論的に(幾何学的に)計算してもよい。あるいは、各UAV101、102の存在位置を各UAVのGPS情報から計算し、各UAV101、102の存在位置と指令装置103の設置位置と撮像ユニット202の画角とから幾何学的に計算してもよい。あるいは、撮像ユニット202で取得される画像に対し物体認識を行い、2機のUAV101及び102が画像中に含まれているか否かを判断してもよい。   The determination of whether or not the UAV is within the angle of view may be performed by any method. For example, the calculation may be performed theoretically (geometrically) from the imaging position set in each of the UAVs 101 and 102 in step S302, the installation position of the command device 103, and the angle of view of the imaging unit 202. Alternatively, the existence position of each UAV 101, 102 is calculated from the GPS information of each UAV, and geometrically calculated from the existence position of each UAV 101, 102, the installation position of the command device 103, and the angle of view of the imaging unit 202 Good. Alternatively, object recognition may be performed on the image acquired by the imaging unit 202 to determine whether or not the two UAVs 101 and 102 are included in the image.

UAV撮像準備(ステップS304)と、UAV101及び102の移動(ステップS303)が完了したら、次のステップS305へと進む。ステップS305では、指令装置103が、撮像を命令するトリガ信号を各UAV101、102に発信する。このトリガ信号に基づいて、各UAV101、102によるステップS306の処理と、指令装置103によるステップS307の処理とが、同期して(ほぼ同時に)実行される。   When the UAV imaging preparation (step S304) and the movement of the UAVs 101 and 102 (step S303) are completed, the process proceeds to the next step S305. In step S <b> 305, the command device 103 transmits a trigger signal for instructing imaging to each of the UAVs 101 and 102. Based on this trigger signal, the process of step S306 by each of the UAVs 101 and 102 and the process of step S307 by the command device 103 are executed in synchronization (substantially simultaneously).

ステップS306では、UAV101とUAV102がそれぞれ撮像対象の撮像(原画像データの取得)を行う。撮像はトリガ信号を受信したと同時にカメラのシャッターを切ることによって行われる。取得した原画像データのヘッダ等に画像取得時刻(タイムスタンプ)を記録する。本実施形態のシーケンスでは撮像を1回としているが、複数回行う場合はUAVごとに一意な通し番号(ユニークシリアルナンバー)を原画像データのヘッダ等に記録する。画像取得時刻や通し番号を記録するのは、異なるUAVで同時に取得された原画像データのペアリングを行うためである。撮像後、各UAV101、102は、取得した原画像データを指令装置103へ送信する。これにより、一つの撮像対象について、赤外線原画像データと可視光原画像データが取得される。   In step S306, each of the UAV 101 and the UAV 102 performs imaging of an imaging target (acquisition of original image data). Imaging is performed by releasing the shutter of the camera simultaneously with receiving the trigger signal. The image acquisition time (time stamp) is recorded in the header of the acquired original image data. In the sequence of the present embodiment, imaging is performed once. However, when the imaging is performed a plurality of times, a unique serial number (unique serial number) is recorded for each UAV in the header of the original image data. The reason why the image acquisition time and serial number are recorded is to perform pairing of original image data acquired simultaneously with different UAVs. After imaging, each UAV 101, 102 transmits the acquired original image data to the command device 103. Thereby, infrared original image data and visible light original image data are acquired about one imaging object.

ステップS307では、ステップS305でのトリガ信号発信と同時に、指令装置103がUAVの撮像(姿勢画像データの取得)と測距(距離データの取得)を行う。姿勢画像データの取得は撮像ユニット202、距離データの取得は測距ユニット203によって行われる。これにより、UAV101が撮像対象を撮像した時(ステップS306)の、
UAV101の位置(空中での3次元位置)と、UAV101の撮像対象に対する姿勢(向き)とが記録される。同様に、UAV102が撮像対象を撮像した時(ステップS306)の、UAV102の位置(空中での3次元位置)と、UAV102の撮像対象に対する姿勢(向き)とが記録される。原画像データと、姿勢画像データ及び距離データの対応をとるために、姿勢画像データ及び距離データにもタイムスタンプやユニークシリアルナンバーを記録するとよい。
In step S307, simultaneously with the trigger signal transmission in step S305, the command device 103 performs UAV imaging (acquisition of posture image data) and distance measurement (acquisition of distance data). The posture image data is acquired by the imaging unit 202, and the distance data is acquired by the distance measuring unit 203. Thereby, when UAV101 imaged the imaging target (step S306),
The position of the UAV 101 (three-dimensional position in the air) and the posture (orientation) of the UAV 101 with respect to the imaging target are recorded. Similarly, when the UAV 102 images the imaging target (step S306), the position of the UAV 102 (three-dimensional position in the air) and the posture (orientation) of the UAV 102 with respect to the imaging target are recorded. In order to make correspondence between the original image data, the posture image data, and the distance data, a time stamp or a unique serial number may be recorded in the posture image data and the distance data.

ステップS308では、UAV101、102を所定の場所へ帰還させる。帰還のタイミングは、指令装置103の指示に基づいても良いし、各UAV101、102に送信した機体設定情報に基づいて各UAV101、102に判断させても良い。移動は、ステップS303同様、GPS等を利用した自動航行にて行うことが好ましい。   In step S308, the UAVs 101 and 102 are returned to a predetermined location. The timing of the return may be based on an instruction from the command device 103, or may be determined by each UAV 101, 102 based on the aircraft setting information transmitted to each UAV 101, 102. The movement is preferably performed by automatic navigation using GPS or the like as in step S303.

ステップS309では、指令制御系201が、各UAV101、102から取得した原画像データと、姿勢画像データ、距離データを、画像処理装置104へ転送する。   In step S 309, the command control system 201 transfers the original image data, attitude image data, and distance data acquired from each UAV 101, 102 to the image processing apparatus 104.

ステップS310では、補正パラメータ算出ユニット210が、各UAV101、102から取得した原画像データの画像合成に用いる補正パラメータの算出を行う。具体的には、UAV検出部207が姿勢画像データからUAV101及びUAV102をそれぞれ同定し、姿勢算出部208がUAV101及びUAV102それぞれの特徴点を検出し姿勢を推定する。そして、補正パラメータ算出部209が、UAV101の姿勢情報及び距離データに基づいて、UAV101に搭載されたカメラの撮像対象に対する視線ベクトル(撮像対象に対するカメラの位置及び距離、カメラの光軸の向きなど)を推定する。また、補正パラメータ算出部209は、UAV102の姿勢情報及び距離データに基づいて、UAV102に搭載されたカメラの撮像対象に対する視線ベクトルを推定する。UAV101とUAV102の間の視線ベクトルの差、もしくはそれに相当する情報が、補正パラメータである。補正パラメータは、複数のUAV(カメラ)の姿勢の差(カメラ座標系の差)を補正するための情報、あるいは、異なる姿勢のUAV(カメラ)で得られた複数の画像の間の位置・向き・大きさ等を合わせる補正を行うための情報といえる。   In step S <b> 310, the correction parameter calculation unit 210 calculates correction parameters used for image composition of the original image data acquired from each of the UAVs 101 and 102. Specifically, the UAV detection unit 207 identifies UAV 101 and UAV 102 from the posture image data, and the posture calculation unit 208 detects the feature points of the UAV 101 and UAV 102 to estimate the posture. Then, the correction parameter calculation unit 209 determines the line-of-sight vector for the imaging target of the camera mounted on the UAV 101 based on the posture information and distance data of the UAV 101 (the camera position and distance relative to the imaging target, the direction of the optical axis of the camera, etc.). Is estimated. Further, the correction parameter calculation unit 209 estimates a line-of-sight vector with respect to an imaging target of the camera mounted on the UAV 102 based on the posture information and distance data of the UAV 102. The difference in the line-of-sight vector between the UAV 101 and the UAV 102 or information corresponding thereto is the correction parameter. The correction parameter is information for correcting a difference in attitude (camera coordinate system difference) between a plurality of UAVs (cameras), or a position / orientation between a plurality of images obtained by UAVs (cameras) having different attitudes. -It can be said that the information is used to correct the size.

ステップS311では、UAV101で取得した原画像データとUAV102で取得した原画像データの合成処理を行い、合成した画像データの表示データを生成し、表示装置106へ出力する。具体的には、合成処理部211が、原画像データのタイムスタンプを確認し、UAV101及び102で同時(信号、回路の遅延等を考慮した上で実質的に同時)に取得した原画像データを選択する。撮像対象の撮像を複数回行った場合は、ユニークシリアルナンバーも合わせて参照する。その後、合成処理部211は、補正パラメータに基づいて2つの原画像データの視線ベクトルを一致させるように、一方又は両方の原画像データに変形、トリミング等の画像補正を施す。そして、合成処理部211は、補正後の2つの原画像データを重ね合せることで合成画像を生成する。重ね合せは、例えばアルファブレンド等公知な方法で行うとよい。合成処理後は、現像処理部212、表示データ生成部213にて表示装置106で表示可能な画像形態に合成画像を変換し、出力する。   In step S <b> 311, the original image data acquired by the UAV 101 and the original image data acquired by the UAV 102 are combined to generate display data of the combined image data and output it to the display device 106. Specifically, the composition processing unit 211 confirms the time stamp of the original image data, and obtains the original image data acquired by the UAVs 101 and 102 at the same time (substantially simultaneously in consideration of signal, circuit delay, etc.). select. When imaging of the imaging target is performed a plurality of times, the unique serial number is also referred to. After that, the composition processing unit 211 performs image correction such as deformation or trimming on one or both of the original image data so that the line-of-sight vectors of the two original image data are matched based on the correction parameter. Then, the composition processing unit 211 generates a composite image by superimposing the two corrected original image data. The superposition may be performed by a known method such as alpha blend. After the composition processing, the composite image is converted into an image form that can be displayed on the display device 106 by the development processing unit 212 and the display data generation unit 213 and output.

<第一の実施形態の利点>
以上のように、本実施形態では、複数のUAVに異なるカメラを搭載し、トリガ信号によって同時に画像の取得を行う。さらに、撮像時のUAVの姿勢及び距離を外部より観察することで、マーカ等を用いずに、異なるカメラで取得した画像の合成画像を効率的かつ高精度に取得することが可能となる。
<Advantages of the first embodiment>
As described above, in the present embodiment, different cameras are mounted on a plurality of UAVs, and images are simultaneously acquired by a trigger signal. Furthermore, by observing the posture and distance of the UAV at the time of imaging from the outside, it is possible to efficiently and accurately acquire a composite image of images acquired by different cameras without using a marker or the like.

[第二の実施形態]
<全体構成>
図4は本発明の第二の実施形態に係るUAV画像取得システムの概略構成を説明する模
式図である。本実施形態と第一の実施形態の最大の違いは、第一の実施形態における指令装置103の機能をUAVに搭載し画像取得を実行する点である。加えて、第一の実施形態では静止画像の撮像により原画像データを取得したのに対し、本実施形態では、UAVにより動画を撮像し、動画像データからフレームを抽出することにより原画像データの取得を行う点で異なる。
[Second Embodiment]
<Overall configuration>
FIG. 4 is a schematic diagram illustrating a schematic configuration of a UAV image acquisition system according to the second embodiment of the present invention. The biggest difference between the present embodiment and the first embodiment is that the function of the command device 103 in the first embodiment is installed in the UAV and image acquisition is executed. In addition, in the first embodiment, the original image data is acquired by capturing a still image, whereas in the present embodiment, the moving image is captured by UAV, and the frame is extracted from the moving image data to capture the original image data. It differs in that it is acquired.

本実施形態におけるUAV画像取得システムは、赤外線カメラ搭載UAV401(以降、UAV401)と可視光カメラ搭載UAV402(以降、UAV402)、指令UAV403の少なくとも3機のUAVを有する。またUAV画像取得システムは、画像処理装置404、コンピュータ405、表示装置406、データ送受信ユニット407を有する。   The UAV image acquisition system according to the present embodiment has at least three UAVs: an infrared camera mounted UAV 401 (hereinafter referred to as UAV 401), a visible light camera mounted UAV 402 (hereinafter referred to as UAV 402), and a command UAV 403. The UAV image acquisition system includes an image processing device 404, a computer 405, a display device 406, and a data transmission / reception unit 407.

UAV401はUAV101と、UAV402はUAV102と同様の機能、構成のため説明は割愛する。画像処理装置404は画像処理装置104、コンピュータ405はコンピュータ105、表示装置406は表示装置106と同様の構成であるので説明を割愛する。   The UAV 401 has the same function and configuration as the UAV 101, and the UAV 402 has the same function and configuration as the UAV 102, so that the description thereof is omitted. Since the image processing apparatus 404 has the same configuration as the image processing apparatus 104, the computer 405 has the same configuration as the computer 105, and the display apparatus 406 has the same configuration as the display apparatus 106, description thereof will be omitted.

指令UAV403は、第一の実施形態における指令装置103と同様の機能を持つUAVであり、UAV401、UAV402の姿勢画像データを取得するためのカメラと、距離データを取得する測距装置を搭載している。さらに、指令UAV403は、画像処理装置404とデータ通信を行うための、データ送受信ユニット205に相当する機能を有している(不図示)。   The command UAV 403 is a UAV having the same function as the command device 103 in the first embodiment, and is equipped with a camera for acquiring posture image data of the UAV 401 and UAV 402 and a distance measuring device for acquiring distance data. Yes. Further, the command UAV 403 has a function corresponding to the data transmission / reception unit 205 for performing data communication with the image processing apparatus 404 (not shown).

データ送受信ユニット407は画像処理装置404に接続されており、UAV401、UAV402及びUAV403とのデータ送受信を行う。データ送受信ユニット407は、データ送受信ユニット205とほぼ同様であり、UAVが撮像を行うために必要な情報(撮像対象の位置データ等)の送信や、UAVより受信した原画像データを画像処理装置404へと送る機能を有する。   The data transmission / reception unit 407 is connected to the image processing apparatus 404 and performs data transmission / reception with the UAV 401, UAV 402, and UAV 403. The data transmission / reception unit 407 is substantially the same as the data transmission / reception unit 205, and transmits information necessary for the UAV to perform imaging (position data to be imaged, etc.) and original image data received from the UAV as an image processing device 404. The function to send to.

<UAVの制御及び撮像処理>
本実施形態のUAV401及びUAV402、指令UAV403、画像処置装置404での合成画像データ取得についての詳細な工程を図5のシーケンスチャートを用いて説明する。
<UAV control and imaging processing>
Detailed steps for obtaining composite image data in the UAV 401 and UAV 402, the command UAV 403, and the image processing apparatus 404 according to this embodiment will be described with reference to the sequence chart of FIG.

ステップS501の処理は、第一の実施形態のステップS301と同様であるので説明を省略する。ただし、本実施形態では、機体設定情報とカメラ情報に加えて、UAV401及びUAV402の三次元CADデータ(computer−aided designデータ)をユーザー又はコンピュータ405内の記憶装置より取得する。   Since the process of step S501 is the same as that of step S301 of the first embodiment, a description thereof will be omitted. However, in the present embodiment, three-dimensional CAD data (computer-aided design data) of UAV 401 and UAV 402 is acquired from a user or a storage device in computer 405 in addition to the machine setting information and camera information.

ステップS502では、ステップS501で取得した機体設定情報等を基に、画像処理装置404がデータ送受信ユニット407を介してUAV401、UAV402及び指令UAV403の初期化を行う。具体的には、撮像対象、撮像位置(撮像対象や姿勢画像を撮像するときのUAVの位置)、飛行ルート、飛行スケジュール、期間場所等の情報が各UAV401、402、403に送信し設定される。   In step S502, the image processing apparatus 404 initializes the UAV 401, the UAV 402, and the command UAV 403 via the data transmission / reception unit 407 based on the machine setting information acquired in step S501. Specifically, information such as an imaging target, an imaging position (a UAV position when capturing an imaging target or a posture image), a flight route, a flight schedule, a period place, and the like is transmitted to each UAV 401, 402, 403 and set. .

ステップS503では、ステップS502での設定に基づき、UAV401、UAV402及び指令UAV403を撮像位置へと移動させる。撮像位置までの移動はGPS等を利用した自動航行にて行うことが好ましい。移動後、UAV401とUAV402は搭載したカメラの画角に撮像対象が収まるよう、自機の位置と向きを微調整する。   In step S503, the UAV 401, UAV 402, and command UAV 403 are moved to the imaging position based on the setting in step S502. The movement to the imaging position is preferably performed by automatic navigation using GPS or the like. After the movement, the UAV 401 and the UAV 402 finely adjust their position and orientation so that the imaging target is within the angle of view of the mounted camera.

ステップS504では、指令UAV403が、後段の姿勢画像データの取得と距離データ取得の準備を行う。具体的には、撮像位置(空中)にいるUAV401及び402が2機とも指令UAV403に搭載したカメラの画角に収まるように、指令UAV403の位置と向きを微調整する。UAVが画角に収まるかどうかの判断は、第一の実施形態で述べた方法など、いかなる方法で行ってもよい。   In step S <b> 504, the command UAV 403 prepares for acquisition of subsequent-stage posture image data and distance data acquisition. Specifically, the position and orientation of the command UAV 403 are finely adjusted so that both UAVs 401 and 402 at the imaging position (in the air) fall within the angle of view of the camera mounted on the command UAV 403. The determination of whether or not the UAV is within the angle of view may be performed by any method such as the method described in the first embodiment.

ステップS505では、UAV401、402がそれぞれ撮像対象の撮像の準備を行う。まず、UAV401とUAV402は撮像位置でホバリングしながら、搭載したカメラの画角に撮像対象が収まるよう、位置を微調整する。その後、UAV401とUAV402はそれぞれ、撮像準備完了の通知を指令UAV403へ送信し、後段のトリガ信号を受信するまで、動画データの取得を行う。   In step S505, the UAVs 401 and 402 each prepare for imaging of an imaging target. First, the UAV 401 and the UAV 402 finely adjust the positions so that the imaging target is within the angle of view of the mounted camera while hovering at the imaging position. Thereafter, the UAV 401 and the UAV 402 each transmit a notification of completion of imaging preparation to the command UAV 403 and acquire moving image data until a subsequent trigger signal is received.

ステップS506では、指令UAV403が、UAV401、402に撮像を命令するトリガ信号を発信する。このトリガ信号に基づいて、各UAV401、402によるステップS507の処理と、指令UAV403によるステップS508の処理とが、同期して(ほぼ同時に)実行される。   In step S506, the command UAV 403 transmits a trigger signal for instructing the UAVs 401 and 402 to perform imaging. Based on this trigger signal, the process of step S507 by each UAV 401, 402 and the process of step S508 by the command UAV 403 are executed synchronously (substantially simultaneously).

ステップS507では、UAV401とUAV402がそれぞれ原画像データの取得を行う。原画像データの取得は、ステップS505以降取り込み続けている動画データから、トリガ信号を受信した時点のフレーム画像を抽出することで行う。   In step S507, the UAV 401 and the UAV 402 each acquire original image data. The acquisition of the original image data is performed by extracting the frame image at the time when the trigger signal is received from the moving image data that has been continuously captured since step S505.

ステップS508では、ステップS506でのトリガ信号発信と同時に、指令UAV403がUAV401及びUAV402の撮像(姿勢画像データの取得)と測距(距離データの取得)を行う。これにより、UAV401が撮像対象を撮像した時(ステップS507)の、UAV401の位置(空中での3次元位置)と、UAV401の撮像対象に対する姿勢(向き)とが記録される。同様に、UAV402が撮像対象を撮像した時(ステップS507)の、UAV402の位置(空中での3次元位置)と、UAV402の撮像対象に対する姿勢(向き)とが記録される。原画像データと、姿勢画像データ及び距離データの対応をとるために、姿勢画像データ及び距離データにもタイムスタンプやユニークシリアルナンバーを記録するとよい。   In step S508, simultaneously with the trigger signal transmission in step S506, the command UAV 403 performs imaging (acquisition of posture image data) and ranging (acquisition of distance data) of UAV 401 and UAV 402. As a result, the UAV 401 position (three-dimensional position in the air) and the posture (orientation) of the UAV 401 with respect to the imaging target when the UAV 401 images the imaging target (step S507) are recorded. Similarly, the UAV 402 position (a three-dimensional position in the air) and the posture (orientation) of the UAV 402 with respect to the imaging target when the UAV 402 images the imaging target (step S507) are recorded. In order to make correspondence between the original image data, the posture image data, and the distance data, a time stamp or a unique serial number may be recorded in the posture image data and the distance data.

ステップS509では、各UAVがステップS502で設定した機体設定情報を確認し、撮像スケジュール(すべての撮像対象の撮像)が完了している場合、所定の場所へ帰還する。帰還後、UAV401、UAV402は原画像データを、指令UAV403は姿勢画像データと距離データを画像処理装置404へ送信する。   In step S509, each UAV confirms the aircraft setting information set in step S502, and when the imaging schedule (imaging of all imaging targets) is completed, the UAV returns to a predetermined location. After the feedback, UAV 401 and UAV 402 transmit original image data, and command UAV 403 transmits attitude image data and distance data to image processing device 404.

ステップS510では、第一の実施形態におけるステップS310と同様に、画像処理装置404が、原画像データの画像合成に用いる補正パラメータの算出を行う。本実施形態では、画像処理装置404は、ステップS501で取得した三次元CADデータ(三次元形状情報)に基づいて、各UAV401、402の同定及び姿勢情報の算出を行う。例えば、三次元CADデータからUAVの様々な姿勢の形状を求め、それらと姿勢画像データに写るUAVの形状とを比較することで、UAVの同定及び姿勢の検出を行うことができる。   In step S510, as in step S310 in the first embodiment, the image processing apparatus 404 calculates correction parameters used for image composition of original image data. In the present embodiment, the image processing apparatus 404 performs identification of each UAV 401 and 402 and calculation of posture information based on the three-dimensional CAD data (three-dimensional shape information) acquired in step S501. For example, UAV identification and posture detection can be performed by obtaining various UAV posture shapes from 3D CAD data and comparing them with the UAV shapes reflected in the posture image data.

ステップS511の処理は、第一の実施形態のステップS311と同様であるので説明を省略する。   Since the process of step S511 is the same as that of step S311 of 1st embodiment, description is abbreviate | omitted.

<第二の実施形態の利点>
以上のように本実施形態では、UAVによる撮像を制御する機能をもUAVに搭載することで、限定された条件下(例えば、人の立ち入りが困難な場所)でも効率よくかつ高精
度な合成画像の取得が可能となる。
<Advantages of Second Embodiment>
As described above, in the present embodiment, the UAV also has a function for controlling imaging by the UAV, so that the composite image can be efficiently and highly accurately even under limited conditions (for example, a place where people cannot enter). Can be acquired.

[その他の実施形態]
第一及び第二の実施形態では、画像処理装置104、404を専用ボードとしてコンピュータ105、405に組み込む構成としたが、同様の機能をコンピュータ105、405上で実行するソフトウェアで実現してもよい。
第一及び第二の実施形態では、UAVが自動航行により移動したが、使用者が遠隔操縦によってUAVを移動させても良い。
[Other Embodiments]
In the first and second embodiments, the image processing apparatuses 104 and 404 are incorporated into the computers 105 and 405 as dedicated boards. However, similar functions may be realized by software executed on the computers 105 and 405. .
In the first and second embodiments, the UAV is moved by automatic navigation, but the user may move the UAV by remote control.

第一及び第二の実施形態では、距離データの取得にレーザー光線を用いた測距を行っているが、このほかに超音波を利用する方法、測距儀を利用する方法等、公知の測距方法によって距離データを取得しても良い。また、姿勢画像データ内に写っている構造物等とUAVの大きさから相対的な距離を画像処理によって算出し、これを基に距離データを算出しても良い。この場合は、撮像カメラで測距できるため、測距センサなどの専用装置は不要となる。   In the first and second embodiments, distance measurement is performed using a laser beam to acquire distance data. However, other known distance measurement methods such as a method using an ultrasonic wave and a method using a distance finder are also available. The distance data may be acquired by a method. In addition, a relative distance may be calculated by image processing based on the size of the UAV and the structure or the like shown in the posture image data, and the distance data may be calculated based on this. In this case, since the distance can be measured by the imaging camera, a dedicated device such as a distance measuring sensor is not necessary.

第一及び第二の実施形態では、原画像データ、姿勢画像データ及び距離データを無線にて画像処理装置へ送信したが、UAV内に搭載した記憶装置(例えばSDメモリーカード)に一旦記憶させ、帰還後にユーザーが取り出して読みだしても良い。
第一及び第二の実施形態では、撮像終了後すぐにUAVを帰還させているが、次の撮像対象位置に移動して上述した撮像シーケンスを行っても良い。
第二の実施形態において、指令UAV403の機能をすべてのUAV401〜403に搭載し、指令UAV403の機能を果たすUAVを状況に応じて変更できる構成としても良い。この場合、例えば撮像対象への到着が最後となった機体を指令UAVとすることで、撮像時間の短縮が図れる。
In the first and second embodiments, the original image data, the posture image data, and the distance data are wirelessly transmitted to the image processing apparatus. However, the original image data, the attitude image data, and the distance data are temporarily stored in a storage device (for example, an SD memory card) installed in the UAV. The user may take out and read after returning.
In the first and second embodiments, the UAV is returned immediately after the end of imaging. However, the above-described imaging sequence may be performed by moving to the next imaging target position.
In the second embodiment, the function of the command UAV 403 may be installed in all the UAVs 401 to 403 so that the UAV that performs the function of the command UAV 403 can be changed according to the situation. In this case, for example, the imaging time can be shortened by setting the aircraft that has arrived at the imaging target last as the command UAV.

第一及び第二の実施形態では、2機のUAVで赤外線画像と可視光画像を撮像し、それらを重ね合せる処理を説明したが、UAVの台数、取得する画像の種類、合成処理の内容は問わない。例えば、3機以上のUAVにより撮像対象の撮像(原画像データの取得)を行っても良い。また、複数のUAVが同種の画像を取得してもよいし、赤外線画像や可視光画像以外の種類の画像を取得してもよい。また、合成処理は、画像の重ね合せの他に、例えば、画像のつなぎ合わせ(スティッチング)、画像の差分などでもよい。異なるUAVで撮像された複数の画像を位置合わせするための補正が必要であれば、本発明を好ましく適用できる。
前記各実施形態における様々な技術を適宜組み合わせることで得られる構成も本発明の範疇に属する。
In the first and second embodiments, the process of capturing an infrared image and a visible light image with two UAVs and superimposing them is described. However, the number of UAVs, the type of image to be acquired, and the contents of the composition process are as follows. It doesn't matter. For example, imaging of an imaging target (acquisition of original image data) may be performed by three or more UAVs. A plurality of UAVs may acquire the same type of image, or may acquire a type of image other than an infrared image or a visible light image. Further, the composition process may be, for example, image joining (stitching), image difference, or the like in addition to image superposition. The present invention can be preferably applied if correction for aligning a plurality of images taken with different UAVs is necessary.
A configuration obtained by appropriately combining various techniques in the above embodiments also belongs to the category of the present invention.

101:赤外線カメラ搭載UAV
102:可視光カメラ搭載UAV
103:指令装置
104:画像処理装置
101: UAV with infrared camera
102: UAV with visible light camera
103: Command device 104: Image processing device

Claims (13)

第1のカメラを有する第1の無人航空機と、
第2のカメラを有する第2の無人航空機と、
第3のカメラを有する指令装置と、
前記第1のカメラで撮像対象を撮像することにより得られた第1の画像と前記第2のカメラで前記撮像対象を撮像することにより得られた第2の画像とを合成する合成処理を行う画像処理装置と、
を有する画像取得システムであって、
前記指令装置が、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を前記第3のカメラにより撮像することにより、第3の画像を取得し、
前記画像処理装置が、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の前記合成処理を行う際に前記姿勢の差を補正する処理を行う
ことを特徴とする画像取得システム。
A first unmanned aerial vehicle having a first camera;
A second unmanned aerial vehicle having a second camera;
A commanding device having a third camera;
A synthesis process for synthesizing the first image obtained by imaging the imaging target with the first camera and the second image obtained by imaging the imaging target with the second camera is performed. An image processing device;
An image acquisition system comprising:
The command device captures the first unmanned aerial vehicle and the second unmanned aerial vehicle that images the imaging target by the third camera, thereby obtaining a third image;
The image processing device detects postures of the first unmanned aircraft and the second unmanned aircraft based on the third image, and performs the composition processing of the first image and the second image. An image acquisition system that performs a process of correcting the difference in posture when performing.
前記第1の無人航空機が前記第1の画像を取得する処理と、前記第2の無人航空機が前記第2の画像を取得する処理と、前記指令装置が前記第3の画像を取得する処理とが、同時に実行される
ことを特徴とする請求項1に記載の画像取得システム。
A process in which the first unmanned aerial vehicle acquires the first image, a process in which the second unmanned aerial vehicle acquires the second image, and a process in which the command device acquires the third image; The image acquisition system according to claim 1, wherein the two are executed simultaneously.
前記第1の無人航空機が前記第1の画像を取得する処理と、前記第2の無人航空機が前記第2の画像を取得する処理と、前記指令装置が前記第3の画像を取得する処理とが、前記指令装置によって発せられるトリガ信号に基づき実行される
ことを特徴とする1又は2に記載の画像取得システム。
A process in which the first unmanned aerial vehicle acquires the first image, a process in which the second unmanned aerial vehicle acquires the second image, and a process in which the command device acquires the third image; The image acquisition system according to claim 1, wherein the image acquisition system is executed based on a trigger signal generated by the command device.
前記第1の画像の取得は、前記第1の無人航空機が前記トリガ信号に基づき前記第1のカメラのシャッターを切ることにより行われ、
前記第2の画像の取得は、前記第2の無人航空機が前記トリガ信号に基づき前記第2のカメラのシャッターを切ることにより行われる
ことを特徴とする請求項3に記載の画像取得システム。
The acquisition of the first image is performed when the first unmanned aircraft releases the shutter of the first camera based on the trigger signal,
The image acquisition system according to claim 3, wherein the acquisition of the second image is performed when the second unmanned aerial vehicle releases the shutter of the second camera based on the trigger signal.
前記第1の画像の取得は、前記第1のカメラから取り込まれる動画データから前記トリガ信号に基づく時刻のフレーム画像を抽出することにより行われ、
前記第2の画像の取得は、前記第2のカメラから取り込まれる動画データから前記トリガ信号に基づく時刻のフレーム画像を抽出することにより行われる
ことを特徴とする請求項3に記載の画像取得システム。
The acquisition of the first image is performed by extracting a frame image at a time based on the trigger signal from moving image data captured from the first camera,
The image acquisition system according to claim 3, wherein the acquisition of the second image is performed by extracting a frame image at a time based on the trigger signal from moving image data captured from the second camera. .
前記姿勢の差を補正する処理は、前記第1の画像と前記第2の画像の位置及び向きを合わせる処理を含む
ことを特徴とする請求項1〜5のうちいずれか1項に記載の画像取得システム。
The image according to any one of claims 1 to 5, wherein the process of correcting the difference in posture includes a process of aligning a position and an orientation of the first image and the second image. Acquisition system.
前記指令装置は、無人航空機である
ことを特徴とする請求項1〜6のうちいずれか1項に記載の画像取得システム。
The image acquisition system according to claim 1, wherein the command device is an unmanned aerial vehicle.
前記第1の画像及び前記第2の画像に、画像取得時刻又は一意な通し番号を記録する
ことを特徴とする請求項1〜7のうちいずれか1項に記載の画像取得システム。
The image acquisition system according to any one of claims 1 to 7, wherein an image acquisition time or a unique serial number is recorded in the first image and the second image.
前記画像処理装置は、前記第3の画像から前記第1の無人航空機及び前記第2の無人航空機それぞれの特徴点を検出することにより、前記第1の無人航空機及び前記第2の無人
航空機それぞれの姿勢を推定する
ことを特徴とする請求項1〜8のうちいずれか1項に記載の画像取得システム。
The image processing device detects feature points of the first unmanned aircraft and the second unmanned aircraft from the third image, respectively, and thereby detects each of the first unmanned aircraft and the second unmanned aircraft. The image acquisition system according to claim 1, wherein the posture is estimated.
前記画像処理装置は、前記第3の画像と、前記第1の無人航空機及び前記第2の無人航空機それぞれの三次元形状情報とに基づいて、前記第1の無人航空機及び前記第2の無人航空機それぞれの姿勢を推定する
ことを特徴とする請求項1〜8のうちいずれか1項に記載の画像取得システム。
The image processing device includes the first unmanned aircraft and the second unmanned aircraft based on the third image and three-dimensional shape information of the first unmanned aircraft and the second unmanned aircraft. Each posture is estimated, The image acquisition system of any one of Claims 1-8 characterized by the above-mentioned.
第1のカメラを有する第1の無人航空機と、
第2のカメラを有する第2の無人航空機と、
第3のカメラと、
画像処理装置と、
を用いて画像を取得する画像取得方法であって、
前記第1の無人航空機が前記第1のカメラにより撮像対象を撮像することにより、第1の画像を取得するステップと、
前記第2の無人航空機が前記第2のカメラにより前記撮像対象を撮像することにより、第2の画像を取得するステップと、
前記第3のカメラが、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を撮像することにより、第3の画像を取得するステップと、
前記画像処理装置が、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の合成処理を行う際に前記姿勢の差を補正する処理を行うステップと、
を有することを特徴とする画像取得方法。
A first unmanned aerial vehicle having a first camera;
A second unmanned aerial vehicle having a second camera;
A third camera,
An image processing device;
An image acquisition method for acquiring an image using
The first unmanned aerial vehicle acquiring a first image by imaging an imaging target with the first camera;
The second unmanned aerial vehicle acquiring the second image by imaging the imaging object with the second camera;
The third camera acquiring a third image by imaging the first unmanned aerial vehicle and the second unmanned aerial vehicle that images the imaging target; and
The image processing device detects the attitudes of the first unmanned aircraft and the second unmanned aircraft based on the third image, and performs a composition process of the first image and the second image. Performing a process of correcting the difference in posture,
An image acquisition method comprising:
第1の無人航空機が第1のカメラにより撮像対象を撮像することにより得られた第1の画像のデータを取得するステップと、
第2の無人航空機が第2のカメラにより前記撮像対象を撮像することにより得られた第2の画像のデータを取得するステップと、
前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を第3のカメラにより撮像することにより得られた第3の画像のデータを取得するステップと、
前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の合成処理を行う際に前記姿勢の差を補正する処理を行うステップと、
を有することを特徴とする画像処理方法。
Obtaining data of a first image obtained by a first unmanned aerial vehicle imaging an imaging target with a first camera;
Obtaining data of a second image obtained by a second unmanned aerial vehicle imaging the imaging target with a second camera;
Obtaining data of a third image obtained by imaging the first unmanned aerial vehicle and the second unmanned aerial vehicle that images the imaging target with a third camera;
The attitude difference between the first unmanned aircraft and the second unmanned aircraft is detected based on the third image, and the first image and the second image are combined. Performing a process of correcting
An image processing method comprising:
請求項12に記載の画像処理方法の各ステップをプロセッサに実行させることを特徴とするプログラム。
A program causing a processor to execute each step of the image processing method according to claim 12.
JP2016093098A 2016-05-06 2016-05-06 Image acquisition system, image acquisition method, and image processing method Pending JP2017201757A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016093098A JP2017201757A (en) 2016-05-06 2016-05-06 Image acquisition system, image acquisition method, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016093098A JP2017201757A (en) 2016-05-06 2016-05-06 Image acquisition system, image acquisition method, and image processing method

Publications (1)

Publication Number Publication Date
JP2017201757A true JP2017201757A (en) 2017-11-09

Family

ID=60264879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016093098A Pending JP2017201757A (en) 2016-05-06 2016-05-06 Image acquisition system, image acquisition method, and image processing method

Country Status (1)

Country Link
JP (1) JP2017201757A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019514236A (en) * 2016-02-03 2019-05-30 ソニー株式会社 System and method for capturing still and / or moving scenes using multiple camera networks
JP2019192111A (en) * 2018-04-27 2019-10-31 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Information processor, information presentation instruction method, program, and recording medium
JP2019200198A (en) * 2018-05-15 2019-11-21 東邦瓦斯株式会社 Checker
CN110720055A (en) * 2018-10-31 2020-01-21 深圳市大疆创新科技有限公司 Positioning method, positioning equipment, aircraft and computer-readable storage medium
JP2020165727A (en) * 2019-03-28 2020-10-08 東邦瓦斯株式会社 Inspection device
KR20210066042A (en) * 2019-11-27 2021-06-07 건국대학교 산학협력단 Drone based aerial photography measurement device
JP2022030264A (en) * 2020-08-06 2022-02-18 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Holding member, imaging apparatus, and imaging system

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019514236A (en) * 2016-02-03 2019-05-30 ソニー株式会社 System and method for capturing still and / or moving scenes using multiple camera networks
JP2019192111A (en) * 2018-04-27 2019-10-31 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Information processor, information presentation instruction method, program, and recording medium
JP7112978B2 (en) 2018-05-15 2022-08-04 東邦ガスネットワーク株式会社 inspection equipment
JP2019200198A (en) * 2018-05-15 2019-11-21 東邦瓦斯株式会社 Checker
JP7250198B2 (en) 2018-05-15 2023-03-31 東邦ガスネットワーク株式会社 inspection equipment
JP2022113698A (en) * 2018-05-15 2022-08-04 東邦ガスネットワーク株式会社 Inspection device
CN110720055A (en) * 2018-10-31 2020-01-21 深圳市大疆创新科技有限公司 Positioning method, positioning equipment, aircraft and computer-readable storage medium
JP2020165727A (en) * 2019-03-28 2020-10-08 東邦瓦斯株式会社 Inspection device
JP7051743B2 (en) 2019-03-28 2022-04-11 東邦瓦斯株式会社 Inspection equipment
KR20210066042A (en) * 2019-11-27 2021-06-07 건국대학교 산학협력단 Drone based aerial photography measurement device
KR102387642B1 (en) * 2019-11-27 2022-04-19 건국대학교 산학협력단 Drone based aerial photography measurement device
JP2022030264A (en) * 2020-08-06 2022-02-18 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Holding member, imaging apparatus, and imaging system
JP7074298B2 (en) 2020-08-06 2022-05-24 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Holding member, image pickup device, and image pickup system

Similar Documents

Publication Publication Date Title
JP2017201757A (en) Image acquisition system, image acquisition method, and image processing method
JP5618840B2 (en) Aircraft flight control system
JP5775632B2 (en) Aircraft flight control system
JP5947634B2 (en) Aerial photography imaging method and aerial photography imaging system
CN105335733B (en) Unmanned aerial vehicle autonomous landing visual positioning method and system
US10852723B2 (en) Unmanned aerial vehicle swarm photography
US8581960B2 (en) Imaging device, imaging method, and imaging system
EP3358480B1 (en) Drawing creation device and drawing creation method
JP5748561B2 (en) Aerial photography imaging method and aerial photography imaging apparatus
WO2019100219A1 (en) Output image generation method, device and unmanned aerial vehicle
JP2016177640A (en) Video monitoring system
TW201904643A (en) Control device, flight vehicle and recording medium
JP7436657B2 (en) Flight photography system and method
JP6583840B1 (en) Inspection system
WO2019051832A1 (en) Movable object control method, device and system
WO2019216257A1 (en) Inspection system
JP2023100642A (en) inspection system
CN112955711A (en) Position information determining method, apparatus and storage medium
US20210229810A1 (en) Information processing device, flight control method, and flight control system
WO2020019175A1 (en) Image processing method and apparatus, and photographing device and unmanned aerial vehicle
JP6681101B2 (en) Inspection system
CN112529965A (en) Calibration method and device for laser radar and monocular camera
JP2019219874A (en) Autonomous moving and imaging control system and autonomous moving body
JP2022040377A (en) Control method and control device
JP7437930B2 (en) Mobile objects and imaging systems

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116