JP2017201757A - Image acquisition system, image acquisition method, and image processing method - Google Patents
Image acquisition system, image acquisition method, and image processing method Download PDFInfo
- Publication number
- JP2017201757A JP2017201757A JP2016093098A JP2016093098A JP2017201757A JP 2017201757 A JP2017201757 A JP 2017201757A JP 2016093098 A JP2016093098 A JP 2016093098A JP 2016093098 A JP2016093098 A JP 2016093098A JP 2017201757 A JP2017201757 A JP 2017201757A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- uav
- imaging
- aerial vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は無人航空機(UAV(Unmanned aerial vehicle))を用いた画像取得方法に関する。 The present invention relates to an image acquisition method using an unmanned aerial vehicle (UAV (Unmanned aerial vehicle)).
ビル壁面、橋脚等の建造物の維持管理のために、赤外線カメラを用いた検査手法が広く用いられている。この検査手法は、コンクリート内部の空洞や表面の傷(異常部位)等と正常部位との温度差を赤外線カメラにより可視化することにより、従来の打音検査等に比べて広範囲を迅速に検査可能であることが特徴である。 An inspection method using an infrared camera is widely used for maintenance of buildings such as building walls and piers. This inspection method makes it possible to inspect a wide area more quickly than conventional hammering sound inspections by visualizing the temperature difference between a normal part and cavities inside the concrete or scratches on the surface (abnormal part). It is a feature.
他方、UAVはセンサーやバッテリーの技術進歩に伴って、近年著しい発展を遂げており、様々な分野と融合した製品、システムが開発されている。上述した建造物の維持管理分野も例外ではない。 On the other hand, UAV has made remarkable progress in recent years with the technological advancement of sensors and batteries, and products and systems that are integrated with various fields have been developed. The building maintenance field mentioned above is no exception.
特許文献1では、赤外線画像を取得可能なカメラをUAVに搭載し、UAVを構造物の検査に用いるシステムが提案されている。上述した赤外線カメラを用いた検査においては、赤外線画像と可視光画像を比較し、異常部位の判別を行う。この判別は、赤外線画像と可視光画像を重ねあわせる(合成する)ことで容易となる。この際、2種の画像を同時に取得することによって、より精度の高い合成画像を短時間で生成することが可能となる。上述した同時取得には、1台のUAVに2種のカメラを搭載することが望ましいが、UAVの搭載量や駆動電源の制約により、現状では実現が難しい。容易に実現が可能な構成として2つのUAVにそれぞれ異なるカメラを搭載し、同時に撮像を行うことで、上述の2種の画像の同時取得が可能となる。しかしながら、この構成の場合2つのカメラの位置関係と向きが固定されず、気流等の外部環境によって常に変動する状態となる。このため、画像の合成精度を向上させる工夫が必要となる。 Patent Document 1 proposes a system in which a camera capable of acquiring an infrared image is mounted on a UAV and the UAV is used for inspection of a structure. In the inspection using the above-described infrared camera, the infrared image and the visible light image are compared to determine the abnormal part. This discrimination is facilitated by superimposing (combining) the infrared image and the visible light image. At this time, by acquiring two types of images at the same time, it is possible to generate a synthesized image with higher accuracy in a short time. Although it is desirable to mount two types of cameras on one UAV for the above-mentioned simultaneous acquisition, it is difficult to realize at present due to restrictions on the amount of UAV mounted and the drive power supply. As a configuration that can be easily realized, two different cameras are mounted on two UAVs, and simultaneous imaging is performed, whereby the above-described two types of images can be simultaneously acquired. However, in this configuration, the positional relationship and orientation of the two cameras are not fixed, and the camera always changes depending on the external environment such as airflow. For this reason, a device for improving the image synthesis accuracy is required.
特許文献2では、複数のカメラで構造物の画像を取得し、画像中の特徴点あるいは基準となるマーカを基に画像の位置合わせを行っている。このような特徴点を用いた画像の位置合わせは一般的に行われており、カメラが固定されている状況においては精度よく位置合わせが可能となる。しかし、この手法では上述したカメラの位置変動がある場合、精度の低下、又は画像処理時間の長時間化が問題となる。さらにマーカを用いるならば、撮像対象へのマーカの設置作業を必要とするため、作業時間、コストの面で不利となる。 In Patent Document 2, images of a structure are acquired by a plurality of cameras, and image alignment is performed based on feature points in the images or reference markers. Image alignment using such feature points is generally performed, and in a situation where the camera is fixed, alignment can be performed with high accuracy. However, in this method, when there is a change in the position of the camera described above, there is a problem in that the accuracy is lowered or the image processing time is increased. Further, if a marker is used, it is necessary to install the marker on the imaging target, which is disadvantageous in terms of work time and cost.
その他の方法として、画像を取得した際の互いのカメラの位置関係と向きを基に画像を補正する方法が挙げられる。カメラの位置関係と向きを得る方法としてはUAVに搭載したセンサー類を用いることが考えられるが、センサーの応答速度及び精度が問題となる。一般的なUAVにおいて屋外では特に位置はGPS(Global Positioning System)、高度は気圧センサーを用いることが多い。しかし、GPSの精度はおよそ1mオーダー、気圧センサーも0.1mオーダーと画像の補正に用いるには精度が不足する。 As another method, there is a method of correcting an image based on the positional relationship and orientation of each other's cameras when the image is acquired. As a method for obtaining the positional relationship and orientation of the camera, it is conceivable to use sensors mounted on the UAV, but the response speed and accuracy of the sensor are problematic. In general UAVs, GPS (Global Positioning System) is often used outdoors, and barometric pressure sensors are often used for altitude. However, the accuracy of GPS is on the order of 1 m, and the pressure sensor is also on the order of 0.1 m, which is insufficient for use in image correction.
本発明は、上記の課題に対し、複数の無人航空機にて取得した画像の合成を精度よく行う方法及びそれを用いた装置を提供することを目的とする。 An object of the present invention is to provide a method for accurately synthesizing images acquired by a plurality of unmanned aerial vehicles and an apparatus using the method.
本発明の第1態様は、第1のカメラを有する第1の無人航空機と、第2のカメラを有する第2の無人航空機と、第3のカメラを有する指令装置と、前記第1のカメラで撮像対象を撮像することにより得られた第1の画像と前記第2のカメラで前記撮像対象を撮像することにより得られた第2の画像とを合成する合成処理を行う画像処理装置と、を有する画像取得システムであって、前記指令装置が、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を前記第3のカメラにより撮像することにより、第3の画像を取得し、前記画像処理装置が、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の前記合成処理を行う際に前記姿勢の差を補正する処理を行うことを特徴とする画像取得システムを提供する。 According to a first aspect of the present invention, there is provided a first unmanned aerial vehicle having a first camera, a second unmanned aerial vehicle having a second camera, a command device having a third camera, and the first camera. An image processing apparatus that performs a synthesis process for synthesizing a first image obtained by imaging an imaging target and a second image obtained by imaging the imaging target with the second camera; In the image acquisition system, the command device acquires the third image by imaging the first unmanned aircraft and the second unmanned aircraft that images the imaging target with the third camera. Then, the image processing device detects the attitudes of the first unmanned aircraft and the second unmanned aircraft based on the third image, and combines the first image and the second image. The difference in posture when processing Providing an image acquisition system which is characterized in that a positive processes.
本発明の第2態様は、第1のカメラを有する第1の無人航空機と、第2のカメラを有する第2の無人航空機と、第3のカメラと、画像処理装置と、を用いて画像を取得する画像取得方法であって、前記第1の無人航空機が前記第1のカメラにより撮像対象を撮像することにより、第1の画像を取得するステップと、前記第2の無人航空機が前記第2のカメラにより前記撮像対象を撮像することにより、第2の画像を取得するステップと、前記第3のカメラが、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を撮像することにより、第3の画像を取得するステップと、前記画像処理装置が、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の合成処理を行う際に前記姿勢の差を補正する処理を行うステップと、を有することを特徴とする画像取得方法を提供する。 According to a second aspect of the present invention, an image is obtained using a first unmanned aerial vehicle having a first camera, a second unmanned aerial vehicle having a second camera, a third camera, and an image processing device. An image acquisition method for acquiring, wherein the first unmanned aircraft acquires a first image by imaging an imaging target with the first camera, and the second unmanned aircraft is configured to acquire the second image. Capturing a second image by imaging the imaging target with the camera, and the third camera imaging the first unmanned aircraft and the second unmanned aircraft that capture the imaging target. A step of acquiring a third image, and the image processing device detects the attitudes of the first unmanned aircraft and the second unmanned aircraft based on the third image, and 1 image and the second To provide an image acquisition method characterized by comprising the steps of: performing processing for correcting the difference in the position when performing composition processing of the image.
本発明の第3態様は、第1の無人航空機が第1のカメラにより撮像対象を撮像することにより得られた第1の画像のデータを取得するステップと、第2の無人航空機が第2のカメラにより前記撮像対象を撮像することにより得られた第2の画像のデータを取得するステップと、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を第3のカメラにより撮像することにより得られた第3の画像のデータを取得するステップと、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の合成処理を行う際に前記姿勢の差を補正する処理を行うステップと、を有することを特徴とする画像処理方法を提供する。 According to a third aspect of the present invention, the first unmanned aerial vehicle acquires the first image data obtained by imaging the imaging target with the first camera; A step of acquiring data of a second image obtained by imaging the imaging object by a camera; and the first unmanned aircraft and the second unmanned aircraft imaging the imaging object by a third camera. Acquiring the data of the third image obtained by imaging, detecting the attitudes of the first unmanned aircraft and the second unmanned aircraft based on the third image, and And a step of correcting the difference in posture when performing the synthesis process of the second image and the second image.
本発明の第4態様は、上記画像処理方法の各ステップをプロセッサに実行させることを特徴とするプログラムを提供する。 According to a fourth aspect of the present invention, there is provided a program characterized by causing a processor to execute each step of the image processing method.
本発明によれば、複数の無人航空機にて取得した画像の合成を精度よく行う方法及びそれを用いた装置を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the method and apparatus using the same which synthesize | combine the image acquired with several unmanned aircraft accurately can be provided.
以下、図面を参照しながら本発明の実施の形態を説明する。各実施形態では、複数の無人航空機(UAV)によりそれぞれ撮像対象を撮像し、各UAVで得られた画像から合成画像を生成するUAV画像取得システムを例示する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Each embodiment exemplifies a UAV image acquisition system in which a plurality of unmanned aerial vehicles (UAVs) each captures an imaging target and generates a composite image from images obtained by each UAV.
[第一の実施形態]
<全体構成>
図1は本発明の第一の実施形態に係るUAV画像取得システムの概略装置構成を説明する模式図である。詳細な画像取得、処理シーケンスについては後述する。
[First embodiment]
<Overall configuration>
FIG. 1 is a schematic diagram illustrating a schematic device configuration of a UAV image acquisition system according to the first embodiment of the present invention. Detailed image acquisition and processing sequences will be described later.
UAV画像取得システムは、赤外線カメラ搭載UAV101(以降、UAV101)と可視光カメラ搭載UAV102(以降、UAV102)、指令装置103、画像処理装置104、コンピュータ105、表示装置106によって構成される。画像処理装置104は専用処理ボードとしてコンピュータ105に組み込まれている。例として、コンピュータ105はPC(personal computer)、表示装置106は液晶ディスプレイを用いる。また、画像処理装置104は、画像処理専用のプロセッサ(FPGA、ASICなど)、メモリ、及び各種のI/Oを有する画像処理ボードにより構成され、後述する画像処理装置104の機能は当該プロセッサが必要なプログラムを実行することで実現される。
The UAV image acquisition system includes an infrared camera mounted UAV 101 (hereinafter referred to as UAV 101), a visible light camera mounted UAV 102 (hereinafter referred to as UAV 102), a
本実施形態では図1に示すシステム構成をとっているが、本発明の構成はこれに限られない。例えば、指令装置103に画像処理装置104を組み込んでもよいし、コンピュータ105と表示装置106を一体としたノートPC、スマートフォン、タブレット端末などを用いてもよい。又は、指令装置103、画像処理装置104、コンピュータ105、表示装置106のすべての機能を一つの装置で構成してもよい。あるいは、一部の機能をネットワーク上のサーバ(クラウドサーバなど)で実行してもよい。
In this embodiment, the system configuration shown in FIG. 1 is adopted, but the configuration of the present invention is not limited to this. For example, the
UAV101は赤外領域の画像データを取得し、UAV102は可視光領域の画像データを取得する。画像データの取得タイミング(シャッターを切るタイミング)は後述するトリガ信号により制御される。UAVによって取得した画像データを「原画像データ」と呼称する。また、UAV101によって取得した原画像データを「赤外線原画像データ」、UAV102によって取得した原画像データを「可視光原画像データ」と呼称する。赤外線原画像データと可視光原画像データは後述する画像処理装置104にて合成処理が施され、画像として表示装置106に表示される。
The UAV 101 acquires image data in the infrared region, and the UAV 102 acquires image data in the visible light region. Image data acquisition timing (timing to release the shutter) is controlled by a trigger signal described later. Image data acquired by the UAV is referred to as “original image data”. The original image data acquired by the UAV 101 is referred to as “infrared original image data”, and the original image data acquired by the UAV 102 is referred to as “visible light original image data”. The infrared original image data and the visible light original image data are subjected to synthesis processing by an
なお、UAV101とUAV102は搭載するカメラが異なる点を除いて、機体は同一のものを使用することができる。ただしUAVの同定のために、それぞれ異なる塗装、マーキングを施すことが好ましい(搭載カメラの形状が大きく異なる場合はその限りでない)。使用するUAVは一般に使用されているものと同様に、GPSによる自動航行、又は無線遠隔操縦が可能となっている。さらに、後述するトリガ信号を受信して撮像を行う機能、取得した画像を無線にて画像処理装置へ送信する機能を有している。 It should be noted that the UAV 101 and UAV 102 can use the same aircraft except that the mounted cameras are different. However, in order to identify the UAV, it is preferable to apply different coatings and markings (unless the shape of the mounted camera is greatly different). The UAV to be used is capable of automatic navigation by GPS or wireless remote control in the same manner as commonly used. Further, it has a function of receiving a trigger signal, which will be described later, and capturing an image, and a function of transmitting the acquired image to the image processing apparatus wirelessly.
<指令装置>
図2を参照して、指令装置103の構成を説明する。図2は指令装置と画像処理装置の概略構成を示す模式図である。
<Command device>
The configuration of the
指令装置103は、UAV101、UAV102に対し、撮像開始のトリガ信号を発信する。また指令装置103は、UAV101、UAV102の姿勢を算出するための画像データ(姿勢画像データ)の取得、UAV101、UAV102で取得した原画像データの受信と画像処理装置104への転送を行う。
指令装置103は、指令制御系201、撮像ユニット202、測距ユニット203、雲台ユニット204、データ送受信ユニット205を有する。
The
The
指令制御系201は、後述する撮像ユニット202、測距ユニット203、雲台ユニット204、データ送受信ユニット205への命令、及び画像処理制御系206とのデータのやり取りを行う。
The
撮像ユニット202は、撮像モジュールと撮像処理制御系とを有する。撮像モジュールは、光学系(レンズ、絞り等)、その光学系の焦点合わせを行うためのレンズ駆動機構、及び撮像センサーを有する。撮像処理制御系は、撮像モジュールの各部を制御する回路である。撮像処理制御系は、指令制御系201の命令に基づいて撮像モジュールを制御してUAV101、102を撮像し、UAV101、102が写った画像データ(姿勢画像データ)を指令制御系201を通して画像処理制御系206へと送る。姿勢画像データは、2機のUAV101、102それぞれの姿勢(位置及び向き)を検出する目的で利用される画像データである。したがって、機体の同定と姿勢(位置及び向き)の検出が可能な程度に2機のUAV101、102が明りょうに写っている画像データであれば、姿勢画像データとして用いることができる。
The
測距ユニット203は、対象との距離を測定する測距センサーと、測距センサーを制御する測距処理制御系とを有する。測距センサーの方式は問わないが、本実施形態では、レーザー光のTOF(Time of Flight)により距離を測定するレーザー測距センサーを用いる。測距処理制御系は、指令制御系201の命令に基づいて測距センサーを駆動して指令装置103と各UAVとの間の距離を測定し、取得した距離データを指令制御系201を通して画像処理制御系206へと送る。
The
雲台ユニット204は、撮像ユニット202及び測距ユニット203が設置された雲台の駆動機構と、その駆動制御系を有する。駆動制御系は、指令制御系201の命令に基づいて駆動機構を駆動して雲台の方位角及び仰角を制御し、撮像ユニット202及び測距ユニット203を適切な方向へ向ける。
The
データ送受信ユニット205は、指令制御系201の命令に基づいてUAV101及びUAV102とのデータの送受信を行う。UAVの撮像対象の位置データ、後述する撮像開始トリガ信号等、UAV101及び102が撮像するために必要な情報の送信も、データ送受信ユニット205より行われる。また、各UAV101、102より受信した原画像データは指令制御系201を通して画像処理制御系206へと送られる。
The data transmission /
<画像処理装置>
画像処理装置104は、指令装置103で取得したUAVの姿勢画像データと距離データから、原画像データを適切に合成するための補正パラメータを算出する。さらに、画像処理装置104は、補正パラメータを用いて原画像データの合成処理を行い、合成処理を行った画像データを表示装置106に表示するための表示データを生成する。また、画像処理装置104は、各UAVの撮像対象の位置データ等、指令装置103を通してUAVに送信する情報を、コンピュータ105を通してユーザーより取得する。
<Image processing device>
The
図2に示すように、画像処理装置104は、画像処理制御系206、UAV検出部207、姿勢算出部208、補正パラメータ算出部209、合成処理部211、現像処理部212、表示データ生成部213、ユーザー情報取得部215を有する。なお、UAV検出部207から補正パラメータ算出部209までをまとめて補正パラメータ算出ユニット210、合成処理部211から表示データ生成部213までをまとめて合成画像生成ユニット214とする。
As shown in FIG. 2, the
画像処理制御系206は、補正パラメータ算出ユニット210、合成画像生成ユニット214、及びユーザー情報取得部215の制御、並びに、指令装置103(指令制御系201)とのデータのやり取りを行う。
The image
補正パラメータ算出ユニット210は、指令装置103で取得した姿勢画像データ及び距離データを用いて、各UAV101、102の姿勢検出を行い、後述する合成処理に用いる補正パラメータの算出を行う。補正パラメータ算出ユニット210は、UAV検出部207、姿勢算出部208、及び補正パラメータ算出部209を有する。UAV検出部207は、姿勢画像データ中のUAVの特徴(塗装色、マーカ、カメラ形状)を検出し、UAVの同定を行う。本実施形態においては、UAV検出部207は、姿勢画像データ中のUAVがUAV101であるかUAV102であるかを、その特徴から判断する。姿勢算出部208は、UAV検出部207で同定したUAV101、102それぞれの姿勢を検出し、姿勢情報を出力する。姿勢は、検出対象(UAV)の特徴点を用いる公知な方法(例:Bag−of−Features表現を用いる方法)によって算出可能である。補正パラメータ算出部209は、姿勢情報及び距離データより、UAVに搭載されたカメラの撮像対象に対する角度、距離を推定し、合成画像を生成するための補正パラメータを算出する。
The correction
合成画像生成ユニット214は、各UAV101、102が取得した原画像データと指令装置103が取得した姿勢画像データ及び距離データを用いて、表示装置106に表示する画像データを生成する。合成画像生成ユニット214は、合成処理部211、現像処理部212、及び表示データ生成部213を有する。合成処理部211は、補正パラメータ算出部209で算出した補正パラメータに基づいて、UAV101及び102で取得した原画像データに補正処理を行った後、画像合成処理を施し合成画像データを生成する。補正処理は、2つの原画像データの位置、向き、大きさ等を合わせるための処理であり、例えば、アフィン変換等の変形処理や回転処理、トリミング処理などが含まれる。現像処理部212は、合成画像データの各画素値をXYZ色度座標値に変換する。この変換された画像データを、XYZ画像データと称する。また、必要に応じてノイズ除去等のデジタルフィルター処理、JPEG(Joint Photographic Experts
Group)等の圧縮処理を行う。表示データ生成部213は現像処理部212で生成されたXYZ画像データを、ルックアップテーブルを用いて、表示装置106で表示可能なRGB表色系の画像データに変換する。
The composite
(Group) or the like. The display
ユーザー情報取得部215は、コンピュータ105内の記憶装置からユーザー情報を取得する。ユーザー情報は、例えば、UAVの機体設定情報(撮像対象、撮像対象への飛行ルート・スケジュール、帰還場所等)、UAVに搭載したカメラの情報(画角、焦点距離等)等を含む。機体設定情報及びカメラ情報は事前にUI等を介してユーザーによって入力され、コンピュータ105内の記憶装置に保持されている。ユーザー情報取得部215により取得された機体設定情報は、画像処理制御系206、指令制御系201、データ送受信ユニット205を通じて各UAV101、102へと送られる。なお、これ以後特に言及の無い限り、指令装置103とUAV101、102との間の通信はデータ送受信ユニット205を介して行うものとする。
The user
<UAVの制御及び撮像処理>
本実施形態のUAV101及びUAV102、指令装置103、画像処置装置104での合成画像データ取得についての詳細な工程を図3のシーケンスチャートを用いて説明する。
<UAV control and imaging processing>
Detailed steps for obtaining composite image data in the
ステップS301では、ユーザー情報取得部215が上述したユーザー情報(機体設定
情報、カメラ情報等)を取得する。取得したユーザー情報は画像処理制御系206を通して指令装置103へ送られる。
In step S301, the user
ステップS302では、ステップS301で取得した機体設定情報等を基に、指令装置103が(データ送受信ユニット205を介して)UAV101、UAV102の初期化を行う。具体的には、撮像対象、撮像位置(撮像対象を撮像するときのUAVの位置)、飛行ルート、飛行スケジュール、期間場所等の情報が各UAV101、102に送信し設定される。
In step S302, the
ステップS303では、ステップS302での設定に基づき、UAV101及びUAV102を撮像位置へと移動させる。撮像位置までの移動はGPS等を利用した自動航行にて行うことが好ましい。移動後、搭載したカメラの画角に撮像対象が収まるよう、各UAV101、102が自機の位置と向きを微調整する。画角に撮像対象を収めたら、各UAV101、102は移動完了の通知を指令装置103へ送る。
In step S303, the
ステップS304では、指令装置103が後段のUAVの撮像(姿勢画像データ取得)と測距(距離データ取得)の準備を行う。具体的には、撮像位置(空中)にいるUAV101及び102が2機とも撮像ユニット202の画角に収まるように、指令制御系201が雲台ユニット204を制御し、指令装置103(撮像ユニット202及び測距ユニット203)の向きを変更する。
In step S304, the
UAVが画角に収まるかどうかの判断は、いかなる方法で行ってもよい。例えば、ステップS302で各UAV101、102に設定した撮像位置と指令装置103の設置位置と撮像ユニット202の画角とから理論的に(幾何学的に)計算してもよい。あるいは、各UAV101、102の存在位置を各UAVのGPS情報から計算し、各UAV101、102の存在位置と指令装置103の設置位置と撮像ユニット202の画角とから幾何学的に計算してもよい。あるいは、撮像ユニット202で取得される画像に対し物体認識を行い、2機のUAV101及び102が画像中に含まれているか否かを判断してもよい。
The determination of whether or not the UAV is within the angle of view may be performed by any method. For example, the calculation may be performed theoretically (geometrically) from the imaging position set in each of the
UAV撮像準備(ステップS304)と、UAV101及び102の移動(ステップS303)が完了したら、次のステップS305へと進む。ステップS305では、指令装置103が、撮像を命令するトリガ信号を各UAV101、102に発信する。このトリガ信号に基づいて、各UAV101、102によるステップS306の処理と、指令装置103によるステップS307の処理とが、同期して(ほぼ同時に)実行される。
When the UAV imaging preparation (step S304) and the movement of the
ステップS306では、UAV101とUAV102がそれぞれ撮像対象の撮像(原画像データの取得)を行う。撮像はトリガ信号を受信したと同時にカメラのシャッターを切ることによって行われる。取得した原画像データのヘッダ等に画像取得時刻(タイムスタンプ)を記録する。本実施形態のシーケンスでは撮像を1回としているが、複数回行う場合はUAVごとに一意な通し番号(ユニークシリアルナンバー)を原画像データのヘッダ等に記録する。画像取得時刻や通し番号を記録するのは、異なるUAVで同時に取得された原画像データのペアリングを行うためである。撮像後、各UAV101、102は、取得した原画像データを指令装置103へ送信する。これにより、一つの撮像対象について、赤外線原画像データと可視光原画像データが取得される。
In step S306, each of the
ステップS307では、ステップS305でのトリガ信号発信と同時に、指令装置103がUAVの撮像(姿勢画像データの取得)と測距(距離データの取得)を行う。姿勢画像データの取得は撮像ユニット202、距離データの取得は測距ユニット203によって行われる。これにより、UAV101が撮像対象を撮像した時(ステップS306)の、
UAV101の位置(空中での3次元位置)と、UAV101の撮像対象に対する姿勢(向き)とが記録される。同様に、UAV102が撮像対象を撮像した時(ステップS306)の、UAV102の位置(空中での3次元位置)と、UAV102の撮像対象に対する姿勢(向き)とが記録される。原画像データと、姿勢画像データ及び距離データの対応をとるために、姿勢画像データ及び距離データにもタイムスタンプやユニークシリアルナンバーを記録するとよい。
In step S307, simultaneously with the trigger signal transmission in step S305, the
The position of the UAV 101 (three-dimensional position in the air) and the posture (orientation) of the
ステップS308では、UAV101、102を所定の場所へ帰還させる。帰還のタイミングは、指令装置103の指示に基づいても良いし、各UAV101、102に送信した機体設定情報に基づいて各UAV101、102に判断させても良い。移動は、ステップS303同様、GPS等を利用した自動航行にて行うことが好ましい。
In step S308, the
ステップS309では、指令制御系201が、各UAV101、102から取得した原画像データと、姿勢画像データ、距離データを、画像処理装置104へ転送する。
In
ステップS310では、補正パラメータ算出ユニット210が、各UAV101、102から取得した原画像データの画像合成に用いる補正パラメータの算出を行う。具体的には、UAV検出部207が姿勢画像データからUAV101及びUAV102をそれぞれ同定し、姿勢算出部208がUAV101及びUAV102それぞれの特徴点を検出し姿勢を推定する。そして、補正パラメータ算出部209が、UAV101の姿勢情報及び距離データに基づいて、UAV101に搭載されたカメラの撮像対象に対する視線ベクトル(撮像対象に対するカメラの位置及び距離、カメラの光軸の向きなど)を推定する。また、補正パラメータ算出部209は、UAV102の姿勢情報及び距離データに基づいて、UAV102に搭載されたカメラの撮像対象に対する視線ベクトルを推定する。UAV101とUAV102の間の視線ベクトルの差、もしくはそれに相当する情報が、補正パラメータである。補正パラメータは、複数のUAV(カメラ)の姿勢の差(カメラ座標系の差)を補正するための情報、あるいは、異なる姿勢のUAV(カメラ)で得られた複数の画像の間の位置・向き・大きさ等を合わせる補正を行うための情報といえる。
In step S <b> 310, the correction
ステップS311では、UAV101で取得した原画像データとUAV102で取得した原画像データの合成処理を行い、合成した画像データの表示データを生成し、表示装置106へ出力する。具体的には、合成処理部211が、原画像データのタイムスタンプを確認し、UAV101及び102で同時(信号、回路の遅延等を考慮した上で実質的に同時)に取得した原画像データを選択する。撮像対象の撮像を複数回行った場合は、ユニークシリアルナンバーも合わせて参照する。その後、合成処理部211は、補正パラメータに基づいて2つの原画像データの視線ベクトルを一致させるように、一方又は両方の原画像データに変形、トリミング等の画像補正を施す。そして、合成処理部211は、補正後の2つの原画像データを重ね合せることで合成画像を生成する。重ね合せは、例えばアルファブレンド等公知な方法で行うとよい。合成処理後は、現像処理部212、表示データ生成部213にて表示装置106で表示可能な画像形態に合成画像を変換し、出力する。
In step S <b> 311, the original image data acquired by the
<第一の実施形態の利点>
以上のように、本実施形態では、複数のUAVに異なるカメラを搭載し、トリガ信号によって同時に画像の取得を行う。さらに、撮像時のUAVの姿勢及び距離を外部より観察することで、マーカ等を用いずに、異なるカメラで取得した画像の合成画像を効率的かつ高精度に取得することが可能となる。
<Advantages of the first embodiment>
As described above, in the present embodiment, different cameras are mounted on a plurality of UAVs, and images are simultaneously acquired by a trigger signal. Furthermore, by observing the posture and distance of the UAV at the time of imaging from the outside, it is possible to efficiently and accurately acquire a composite image of images acquired by different cameras without using a marker or the like.
[第二の実施形態]
<全体構成>
図4は本発明の第二の実施形態に係るUAV画像取得システムの概略構成を説明する模
式図である。本実施形態と第一の実施形態の最大の違いは、第一の実施形態における指令装置103の機能をUAVに搭載し画像取得を実行する点である。加えて、第一の実施形態では静止画像の撮像により原画像データを取得したのに対し、本実施形態では、UAVにより動画を撮像し、動画像データからフレームを抽出することにより原画像データの取得を行う点で異なる。
[Second Embodiment]
<Overall configuration>
FIG. 4 is a schematic diagram illustrating a schematic configuration of a UAV image acquisition system according to the second embodiment of the present invention. The biggest difference between the present embodiment and the first embodiment is that the function of the
本実施形態におけるUAV画像取得システムは、赤外線カメラ搭載UAV401(以降、UAV401)と可視光カメラ搭載UAV402(以降、UAV402)、指令UAV403の少なくとも3機のUAVを有する。またUAV画像取得システムは、画像処理装置404、コンピュータ405、表示装置406、データ送受信ユニット407を有する。
The UAV image acquisition system according to the present embodiment has at least three UAVs: an infrared camera mounted UAV 401 (hereinafter referred to as UAV 401), a visible light camera mounted UAV 402 (hereinafter referred to as UAV 402), and a
UAV401はUAV101と、UAV402はUAV102と同様の機能、構成のため説明は割愛する。画像処理装置404は画像処理装置104、コンピュータ405はコンピュータ105、表示装置406は表示装置106と同様の構成であるので説明を割愛する。
The
指令UAV403は、第一の実施形態における指令装置103と同様の機能を持つUAVであり、UAV401、UAV402の姿勢画像データを取得するためのカメラと、距離データを取得する測距装置を搭載している。さらに、指令UAV403は、画像処理装置404とデータ通信を行うための、データ送受信ユニット205に相当する機能を有している(不図示)。
The
データ送受信ユニット407は画像処理装置404に接続されており、UAV401、UAV402及びUAV403とのデータ送受信を行う。データ送受信ユニット407は、データ送受信ユニット205とほぼ同様であり、UAVが撮像を行うために必要な情報(撮像対象の位置データ等)の送信や、UAVより受信した原画像データを画像処理装置404へと送る機能を有する。
The data transmission /
<UAVの制御及び撮像処理>
本実施形態のUAV401及びUAV402、指令UAV403、画像処置装置404での合成画像データ取得についての詳細な工程を図5のシーケンスチャートを用いて説明する。
<UAV control and imaging processing>
Detailed steps for obtaining composite image data in the
ステップS501の処理は、第一の実施形態のステップS301と同様であるので説明を省略する。ただし、本実施形態では、機体設定情報とカメラ情報に加えて、UAV401及びUAV402の三次元CADデータ(computer−aided designデータ)をユーザー又はコンピュータ405内の記憶装置より取得する。
Since the process of step S501 is the same as that of step S301 of the first embodiment, a description thereof will be omitted. However, in the present embodiment, three-dimensional CAD data (computer-aided design data) of
ステップS502では、ステップS501で取得した機体設定情報等を基に、画像処理装置404がデータ送受信ユニット407を介してUAV401、UAV402及び指令UAV403の初期化を行う。具体的には、撮像対象、撮像位置(撮像対象や姿勢画像を撮像するときのUAVの位置)、飛行ルート、飛行スケジュール、期間場所等の情報が各UAV401、402、403に送信し設定される。
In step S502, the
ステップS503では、ステップS502での設定に基づき、UAV401、UAV402及び指令UAV403を撮像位置へと移動させる。撮像位置までの移動はGPS等を利用した自動航行にて行うことが好ましい。移動後、UAV401とUAV402は搭載したカメラの画角に撮像対象が収まるよう、自機の位置と向きを微調整する。
In step S503, the
ステップS504では、指令UAV403が、後段の姿勢画像データの取得と距離データ取得の準備を行う。具体的には、撮像位置(空中)にいるUAV401及び402が2機とも指令UAV403に搭載したカメラの画角に収まるように、指令UAV403の位置と向きを微調整する。UAVが画角に収まるかどうかの判断は、第一の実施形態で述べた方法など、いかなる方法で行ってもよい。
In step S <b> 504, the
ステップS505では、UAV401、402がそれぞれ撮像対象の撮像の準備を行う。まず、UAV401とUAV402は撮像位置でホバリングしながら、搭載したカメラの画角に撮像対象が収まるよう、位置を微調整する。その後、UAV401とUAV402はそれぞれ、撮像準備完了の通知を指令UAV403へ送信し、後段のトリガ信号を受信するまで、動画データの取得を行う。
In step S505, the
ステップS506では、指令UAV403が、UAV401、402に撮像を命令するトリガ信号を発信する。このトリガ信号に基づいて、各UAV401、402によるステップS507の処理と、指令UAV403によるステップS508の処理とが、同期して(ほぼ同時に)実行される。
In step S506, the
ステップS507では、UAV401とUAV402がそれぞれ原画像データの取得を行う。原画像データの取得は、ステップS505以降取り込み続けている動画データから、トリガ信号を受信した時点のフレーム画像を抽出することで行う。
In step S507, the
ステップS508では、ステップS506でのトリガ信号発信と同時に、指令UAV403がUAV401及びUAV402の撮像(姿勢画像データの取得)と測距(距離データの取得)を行う。これにより、UAV401が撮像対象を撮像した時(ステップS507)の、UAV401の位置(空中での3次元位置)と、UAV401の撮像対象に対する姿勢(向き)とが記録される。同様に、UAV402が撮像対象を撮像した時(ステップS507)の、UAV402の位置(空中での3次元位置)と、UAV402の撮像対象に対する姿勢(向き)とが記録される。原画像データと、姿勢画像データ及び距離データの対応をとるために、姿勢画像データ及び距離データにもタイムスタンプやユニークシリアルナンバーを記録するとよい。
In step S508, simultaneously with the trigger signal transmission in step S506, the
ステップS509では、各UAVがステップS502で設定した機体設定情報を確認し、撮像スケジュール(すべての撮像対象の撮像)が完了している場合、所定の場所へ帰還する。帰還後、UAV401、UAV402は原画像データを、指令UAV403は姿勢画像データと距離データを画像処理装置404へ送信する。
In step S509, each UAV confirms the aircraft setting information set in step S502, and when the imaging schedule (imaging of all imaging targets) is completed, the UAV returns to a predetermined location. After the feedback,
ステップS510では、第一の実施形態におけるステップS310と同様に、画像処理装置404が、原画像データの画像合成に用いる補正パラメータの算出を行う。本実施形態では、画像処理装置404は、ステップS501で取得した三次元CADデータ(三次元形状情報)に基づいて、各UAV401、402の同定及び姿勢情報の算出を行う。例えば、三次元CADデータからUAVの様々な姿勢の形状を求め、それらと姿勢画像データに写るUAVの形状とを比較することで、UAVの同定及び姿勢の検出を行うことができる。
In step S510, as in step S310 in the first embodiment, the
ステップS511の処理は、第一の実施形態のステップS311と同様であるので説明を省略する。 Since the process of step S511 is the same as that of step S311 of 1st embodiment, description is abbreviate | omitted.
<第二の実施形態の利点>
以上のように本実施形態では、UAVによる撮像を制御する機能をもUAVに搭載することで、限定された条件下(例えば、人の立ち入りが困難な場所)でも効率よくかつ高精
度な合成画像の取得が可能となる。
<Advantages of Second Embodiment>
As described above, in the present embodiment, the UAV also has a function for controlling imaging by the UAV, so that the composite image can be efficiently and highly accurately even under limited conditions (for example, a place where people cannot enter). Can be acquired.
[その他の実施形態]
第一及び第二の実施形態では、画像処理装置104、404を専用ボードとしてコンピュータ105、405に組み込む構成としたが、同様の機能をコンピュータ105、405上で実行するソフトウェアで実現してもよい。
第一及び第二の実施形態では、UAVが自動航行により移動したが、使用者が遠隔操縦によってUAVを移動させても良い。
[Other Embodiments]
In the first and second embodiments, the
In the first and second embodiments, the UAV is moved by automatic navigation, but the user may move the UAV by remote control.
第一及び第二の実施形態では、距離データの取得にレーザー光線を用いた測距を行っているが、このほかに超音波を利用する方法、測距儀を利用する方法等、公知の測距方法によって距離データを取得しても良い。また、姿勢画像データ内に写っている構造物等とUAVの大きさから相対的な距離を画像処理によって算出し、これを基に距離データを算出しても良い。この場合は、撮像カメラで測距できるため、測距センサなどの専用装置は不要となる。 In the first and second embodiments, distance measurement is performed using a laser beam to acquire distance data. However, other known distance measurement methods such as a method using an ultrasonic wave and a method using a distance finder are also available. The distance data may be acquired by a method. In addition, a relative distance may be calculated by image processing based on the size of the UAV and the structure or the like shown in the posture image data, and the distance data may be calculated based on this. In this case, since the distance can be measured by the imaging camera, a dedicated device such as a distance measuring sensor is not necessary.
第一及び第二の実施形態では、原画像データ、姿勢画像データ及び距離データを無線にて画像処理装置へ送信したが、UAV内に搭載した記憶装置(例えばSDメモリーカード)に一旦記憶させ、帰還後にユーザーが取り出して読みだしても良い。
第一及び第二の実施形態では、撮像終了後すぐにUAVを帰還させているが、次の撮像対象位置に移動して上述した撮像シーケンスを行っても良い。
第二の実施形態において、指令UAV403の機能をすべてのUAV401〜403に搭載し、指令UAV403の機能を果たすUAVを状況に応じて変更できる構成としても良い。この場合、例えば撮像対象への到着が最後となった機体を指令UAVとすることで、撮像時間の短縮が図れる。
In the first and second embodiments, the original image data, the posture image data, and the distance data are wirelessly transmitted to the image processing apparatus. However, the original image data, the attitude image data, and the distance data are temporarily stored in a storage device (for example, an SD memory card) installed in the UAV. The user may take out and read after returning.
In the first and second embodiments, the UAV is returned immediately after the end of imaging. However, the above-described imaging sequence may be performed by moving to the next imaging target position.
In the second embodiment, the function of the
第一及び第二の実施形態では、2機のUAVで赤外線画像と可視光画像を撮像し、それらを重ね合せる処理を説明したが、UAVの台数、取得する画像の種類、合成処理の内容は問わない。例えば、3機以上のUAVにより撮像対象の撮像(原画像データの取得)を行っても良い。また、複数のUAVが同種の画像を取得してもよいし、赤外線画像や可視光画像以外の種類の画像を取得してもよい。また、合成処理は、画像の重ね合せの他に、例えば、画像のつなぎ合わせ(スティッチング)、画像の差分などでもよい。異なるUAVで撮像された複数の画像を位置合わせするための補正が必要であれば、本発明を好ましく適用できる。
前記各実施形態における様々な技術を適宜組み合わせることで得られる構成も本発明の範疇に属する。
In the first and second embodiments, the process of capturing an infrared image and a visible light image with two UAVs and superimposing them is described. However, the number of UAVs, the type of image to be acquired, and the contents of the composition process are as follows. It doesn't matter. For example, imaging of an imaging target (acquisition of original image data) may be performed by three or more UAVs. A plurality of UAVs may acquire the same type of image, or may acquire a type of image other than an infrared image or a visible light image. Further, the composition process may be, for example, image joining (stitching), image difference, or the like in addition to image superposition. The present invention can be preferably applied if correction for aligning a plurality of images taken with different UAVs is necessary.
A configuration obtained by appropriately combining various techniques in the above embodiments also belongs to the category of the present invention.
101:赤外線カメラ搭載UAV
102:可視光カメラ搭載UAV
103:指令装置
104:画像処理装置
101: UAV with infrared camera
102: UAV with visible light camera
103: Command device 104: Image processing device
Claims (13)
第2のカメラを有する第2の無人航空機と、
第3のカメラを有する指令装置と、
前記第1のカメラで撮像対象を撮像することにより得られた第1の画像と前記第2のカメラで前記撮像対象を撮像することにより得られた第2の画像とを合成する合成処理を行う画像処理装置と、
を有する画像取得システムであって、
前記指令装置が、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を前記第3のカメラにより撮像することにより、第3の画像を取得し、
前記画像処理装置が、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の前記合成処理を行う際に前記姿勢の差を補正する処理を行う
ことを特徴とする画像取得システム。 A first unmanned aerial vehicle having a first camera;
A second unmanned aerial vehicle having a second camera;
A commanding device having a third camera;
A synthesis process for synthesizing the first image obtained by imaging the imaging target with the first camera and the second image obtained by imaging the imaging target with the second camera is performed. An image processing device;
An image acquisition system comprising:
The command device captures the first unmanned aerial vehicle and the second unmanned aerial vehicle that images the imaging target by the third camera, thereby obtaining a third image;
The image processing device detects postures of the first unmanned aircraft and the second unmanned aircraft based on the third image, and performs the composition processing of the first image and the second image. An image acquisition system that performs a process of correcting the difference in posture when performing.
ことを特徴とする請求項1に記載の画像取得システム。 A process in which the first unmanned aerial vehicle acquires the first image, a process in which the second unmanned aerial vehicle acquires the second image, and a process in which the command device acquires the third image; The image acquisition system according to claim 1, wherein the two are executed simultaneously.
ことを特徴とする1又は2に記載の画像取得システム。 A process in which the first unmanned aerial vehicle acquires the first image, a process in which the second unmanned aerial vehicle acquires the second image, and a process in which the command device acquires the third image; The image acquisition system according to claim 1, wherein the image acquisition system is executed based on a trigger signal generated by the command device.
前記第2の画像の取得は、前記第2の無人航空機が前記トリガ信号に基づき前記第2のカメラのシャッターを切ることにより行われる
ことを特徴とする請求項3に記載の画像取得システム。 The acquisition of the first image is performed when the first unmanned aircraft releases the shutter of the first camera based on the trigger signal,
The image acquisition system according to claim 3, wherein the acquisition of the second image is performed when the second unmanned aerial vehicle releases the shutter of the second camera based on the trigger signal.
前記第2の画像の取得は、前記第2のカメラから取り込まれる動画データから前記トリガ信号に基づく時刻のフレーム画像を抽出することにより行われる
ことを特徴とする請求項3に記載の画像取得システム。 The acquisition of the first image is performed by extracting a frame image at a time based on the trigger signal from moving image data captured from the first camera,
The image acquisition system according to claim 3, wherein the acquisition of the second image is performed by extracting a frame image at a time based on the trigger signal from moving image data captured from the second camera. .
ことを特徴とする請求項1〜5のうちいずれか1項に記載の画像取得システム。 The image according to any one of claims 1 to 5, wherein the process of correcting the difference in posture includes a process of aligning a position and an orientation of the first image and the second image. Acquisition system.
ことを特徴とする請求項1〜6のうちいずれか1項に記載の画像取得システム。 The image acquisition system according to claim 1, wherein the command device is an unmanned aerial vehicle.
ことを特徴とする請求項1〜7のうちいずれか1項に記載の画像取得システム。 The image acquisition system according to any one of claims 1 to 7, wherein an image acquisition time or a unique serial number is recorded in the first image and the second image.
航空機それぞれの姿勢を推定する
ことを特徴とする請求項1〜8のうちいずれか1項に記載の画像取得システム。 The image processing device detects feature points of the first unmanned aircraft and the second unmanned aircraft from the third image, respectively, and thereby detects each of the first unmanned aircraft and the second unmanned aircraft. The image acquisition system according to claim 1, wherein the posture is estimated.
ことを特徴とする請求項1〜8のうちいずれか1項に記載の画像取得システム。 The image processing device includes the first unmanned aircraft and the second unmanned aircraft based on the third image and three-dimensional shape information of the first unmanned aircraft and the second unmanned aircraft. Each posture is estimated, The image acquisition system of any one of Claims 1-8 characterized by the above-mentioned.
第2のカメラを有する第2の無人航空機と、
第3のカメラと、
画像処理装置と、
を用いて画像を取得する画像取得方法であって、
前記第1の無人航空機が前記第1のカメラにより撮像対象を撮像することにより、第1の画像を取得するステップと、
前記第2の無人航空機が前記第2のカメラにより前記撮像対象を撮像することにより、第2の画像を取得するステップと、
前記第3のカメラが、前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を撮像することにより、第3の画像を取得するステップと、
前記画像処理装置が、前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の合成処理を行う際に前記姿勢の差を補正する処理を行うステップと、
を有することを特徴とする画像取得方法。 A first unmanned aerial vehicle having a first camera;
A second unmanned aerial vehicle having a second camera;
A third camera,
An image processing device;
An image acquisition method for acquiring an image using
The first unmanned aerial vehicle acquiring a first image by imaging an imaging target with the first camera;
The second unmanned aerial vehicle acquiring the second image by imaging the imaging object with the second camera;
The third camera acquiring a third image by imaging the first unmanned aerial vehicle and the second unmanned aerial vehicle that images the imaging target; and
The image processing device detects the attitudes of the first unmanned aircraft and the second unmanned aircraft based on the third image, and performs a composition process of the first image and the second image. Performing a process of correcting the difference in posture,
An image acquisition method comprising:
第2の無人航空機が第2のカメラにより前記撮像対象を撮像することにより得られた第2の画像のデータを取得するステップと、
前記撮像対象を撮像する前記第1の無人航空機及び前記第2の無人航空機を第3のカメラにより撮像することにより得られた第3の画像のデータを取得するステップと、
前記第3の画像に基づいて前記第1の無人航空機と前記第2の無人航空機それぞれの姿勢を検出し、前記第1の画像と前記第2の画像の合成処理を行う際に前記姿勢の差を補正する処理を行うステップと、
を有することを特徴とする画像処理方法。 Obtaining data of a first image obtained by a first unmanned aerial vehicle imaging an imaging target with a first camera;
Obtaining data of a second image obtained by a second unmanned aerial vehicle imaging the imaging target with a second camera;
Obtaining data of a third image obtained by imaging the first unmanned aerial vehicle and the second unmanned aerial vehicle that images the imaging target with a third camera;
The attitude difference between the first unmanned aircraft and the second unmanned aircraft is detected based on the third image, and the first image and the second image are combined. Performing a process of correcting
An image processing method comprising:
A program causing a processor to execute each step of the image processing method according to claim 12.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016093098A JP2017201757A (en) | 2016-05-06 | 2016-05-06 | Image acquisition system, image acquisition method, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016093098A JP2017201757A (en) | 2016-05-06 | 2016-05-06 | Image acquisition system, image acquisition method, and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017201757A true JP2017201757A (en) | 2017-11-09 |
Family
ID=60264879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016093098A Pending JP2017201757A (en) | 2016-05-06 | 2016-05-06 | Image acquisition system, image acquisition method, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017201757A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019514236A (en) * | 2016-02-03 | 2019-05-30 | ソニー株式会社 | System and method for capturing still and / or moving scenes using multiple camera networks |
JP2019192111A (en) * | 2018-04-27 | 2019-10-31 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Information processor, information presentation instruction method, program, and recording medium |
JP2019200198A (en) * | 2018-05-15 | 2019-11-21 | 東邦瓦斯株式会社 | Checker |
CN110720055A (en) * | 2018-10-31 | 2020-01-21 | 深圳市大疆创新科技有限公司 | Positioning method, positioning equipment, aircraft and computer-readable storage medium |
JP2020165727A (en) * | 2019-03-28 | 2020-10-08 | 東邦瓦斯株式会社 | Inspection device |
KR20210066042A (en) * | 2019-11-27 | 2021-06-07 | 건국대학교 산학협력단 | Drone based aerial photography measurement device |
JP2022030264A (en) * | 2020-08-06 | 2022-02-18 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | Holding member, imaging apparatus, and imaging system |
-
2016
- 2016-05-06 JP JP2016093098A patent/JP2017201757A/en active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019514236A (en) * | 2016-02-03 | 2019-05-30 | ソニー株式会社 | System and method for capturing still and / or moving scenes using multiple camera networks |
JP2019192111A (en) * | 2018-04-27 | 2019-10-31 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Information processor, information presentation instruction method, program, and recording medium |
JP7112978B2 (en) | 2018-05-15 | 2022-08-04 | 東邦ガスネットワーク株式会社 | inspection equipment |
JP2019200198A (en) * | 2018-05-15 | 2019-11-21 | 東邦瓦斯株式会社 | Checker |
JP7250198B2 (en) | 2018-05-15 | 2023-03-31 | 東邦ガスネットワーク株式会社 | inspection equipment |
JP2022113698A (en) * | 2018-05-15 | 2022-08-04 | 東邦ガスネットワーク株式会社 | Inspection device |
CN110720055A (en) * | 2018-10-31 | 2020-01-21 | 深圳市大疆创新科技有限公司 | Positioning method, positioning equipment, aircraft and computer-readable storage medium |
JP2020165727A (en) * | 2019-03-28 | 2020-10-08 | 東邦瓦斯株式会社 | Inspection device |
JP7051743B2 (en) | 2019-03-28 | 2022-04-11 | 東邦瓦斯株式会社 | Inspection equipment |
KR20210066042A (en) * | 2019-11-27 | 2021-06-07 | 건국대학교 산학협력단 | Drone based aerial photography measurement device |
KR102387642B1 (en) * | 2019-11-27 | 2022-04-19 | 건국대학교 산학협력단 | Drone based aerial photography measurement device |
JP2022030264A (en) * | 2020-08-06 | 2022-02-18 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | Holding member, imaging apparatus, and imaging system |
JP7074298B2 (en) | 2020-08-06 | 2022-05-24 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | Holding member, image pickup device, and image pickup system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017201757A (en) | Image acquisition system, image acquisition method, and image processing method | |
JP5618840B2 (en) | Aircraft flight control system | |
JP5775632B2 (en) | Aircraft flight control system | |
JP5947634B2 (en) | Aerial photography imaging method and aerial photography imaging system | |
CN105335733B (en) | Unmanned aerial vehicle autonomous landing visual positioning method and system | |
US10852723B2 (en) | Unmanned aerial vehicle swarm photography | |
US8581960B2 (en) | Imaging device, imaging method, and imaging system | |
EP3358480B1 (en) | Drawing creation device and drawing creation method | |
JP5748561B2 (en) | Aerial photography imaging method and aerial photography imaging apparatus | |
WO2019100219A1 (en) | Output image generation method, device and unmanned aerial vehicle | |
JP2016177640A (en) | Video monitoring system | |
TW201904643A (en) | Control device, flight vehicle and recording medium | |
JP7436657B2 (en) | Flight photography system and method | |
JP6583840B1 (en) | Inspection system | |
WO2019051832A1 (en) | Movable object control method, device and system | |
WO2019216257A1 (en) | Inspection system | |
JP2023100642A (en) | inspection system | |
CN112955711A (en) | Position information determining method, apparatus and storage medium | |
US20210229810A1 (en) | Information processing device, flight control method, and flight control system | |
WO2020019175A1 (en) | Image processing method and apparatus, and photographing device and unmanned aerial vehicle | |
JP6681101B2 (en) | Inspection system | |
CN112529965A (en) | Calibration method and device for laser radar and monocular camera | |
JP2019219874A (en) | Autonomous moving and imaging control system and autonomous moving body | |
JP2022040377A (en) | Control method and control device | |
JP7437930B2 (en) | Mobile objects and imaging systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20181116 |