JP2012209843A - Wide-area photographing control system - Google Patents

Wide-area photographing control system Download PDF

Info

Publication number
JP2012209843A
JP2012209843A JP2011075202A JP2011075202A JP2012209843A JP 2012209843 A JP2012209843 A JP 2012209843A JP 2011075202 A JP2011075202 A JP 2011075202A JP 2011075202 A JP2011075202 A JP 2011075202A JP 2012209843 A JP2012209843 A JP 2012209843A
Authority
JP
Japan
Prior art keywords
unit
shooting
image
image data
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011075202A
Other languages
Japanese (ja)
Inventor
Keisuke Yamanaka
敬介 山中
Hiroshi Ariza
寛 有座
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011075202A priority Critical patent/JP2012209843A/en
Publication of JP2012209843A publication Critical patent/JP2012209843A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a wide-area photographing control system which can precisely and speedily photograph a specified place where a disaster is considered to occur when an image in a wide-area disaster is to be collected by an aircraft and the like for a plurality of times.SOLUTION: The wide-area photographing control system includes: a camera 1 which is installed on a flying object and photographs the ground from the sky; an image processing section 21 which is installed on the flying object and associates a plurality of pieces of image data photographed by the camera 1 with position information; an event flag application section 24 applying an event flag to one or more image data selected from the plurality of pieces of image data photographed by the camera 1; a re-photographing plan section 26 generating a re-photographing plan for performing re-photographing based on the position information which the image processing section 21 associates with one or more image data to which the event flag is applied by the event flag application section 24; and a photographing control section 27 which is installed on the flying object and controls the camera 1 based on the re-photographing plan generated by the re-photographing plan section 26.

Description

本発明の実施形態は、広域災害の検出を目的とした航空機等による上空からの撮影の制御を行う広域撮影制御システムに関する。   Embodiments described herein relate generally to a wide area imaging control system that controls imaging from the sky by an aircraft or the like for the purpose of detecting a wide area disaster.

従来から、広域における災害発生箇所を検出するために、航空機等にカメラを搭載し、高所から撮影した地上の画像を目視することにより災害場所を特定するといった方法が採用されている。航空機等から撮影した画像を地上に持ち帰って現像し、目視により災害場所の特定を行うとすると、特に広範囲をカバーする必要がある場合において長時間を要してしまい、迅速な災害箇所の特定が困難になるという問題点がある。   Conventionally, in order to detect a disaster occurrence location in a wide area, a method has been adopted in which a camera is mounted on an aircraft or the like, and a disaster location is identified by visually observing a ground image taken from a high place. If an image taken from an aircraft, etc. is brought back to the ground for development and the disaster location is identified by visual inspection, it will take a long time, especially when it is necessary to cover a wide area, and it will be possible to quickly identify the disaster location. There is a problem that it becomes difficult.

そこで、近年においては、ディジタル化された画像をモニターに写して確認することにより、現像に要する時間を短縮する手法が採られている。この場合においては、電子データによる画像を航空機から無線で地上に送信することにより、さらに時間の短縮を図ることができる。   Therefore, in recent years, a method has been adopted in which the time required for development is shortened by copying and confirming a digitized image on a monitor. In this case, the time can be further shortened by transmitting an image based on electronic data from the aircraft to the ground wirelessly.

また、赤外線センサを用いた場合には、非接触温度測定を行うことができるため、赤外線画像中の各部における温度を数値化して高温部を容易に検出することができ、航空機による収集画像から即座に火災を検出する方法として有効である。このような温度測定を利用する検出方法は、必ずしも火災検出のみならず、例えば地すべり等が発生した結果、森林の中の一部の地域における木々が不自然に失われることで発生する温度差を検出することも可能である。   In addition, when an infrared sensor is used, non-contact temperature measurement can be performed, so the temperature at each part in the infrared image can be digitized to easily detect the high temperature part, and immediately from the image collected by the aircraft. It is an effective method for detecting fires. The detection method using such temperature measurement is not necessarily limited to fire detection.For example, as a result of landslides, the temperature difference that occurs due to unnatural loss of trees in some areas of the forest. It is also possible to detect.

さらに、災害等の発生確率が高いと予想される地域の画像を通常のカメラで予め撮影しておき、災害発生後に撮影した光学画像を災害前の画像と比較することにより災害発生箇所の検出を行う方法も知られている。災害発生前後の画像を比較することにより、火災のみならず地すべり等も視覚的に容易且つ適切に認識することができ、有効な方法であると言える。ただし、通常のカメラによる光学画像は、煙の出ていない火災や夜間における災害検出が困難であるという問題点を有するため、状況に応じて上述した赤外線センサによる温度測定を併用する方法を採用する場合もある。   In addition, images of areas that are expected to have a high probability of occurrence of disasters are captured in advance using a normal camera, and the location of disasters can be detected by comparing optical images taken after the disaster with images before the disaster. The method of doing is also known. By comparing the images before and after the disaster, it is possible to visually and easily recognize not only a fire but also a landslide, which can be said to be an effective method. However, optical images from ordinary cameras have the problem that it is difficult to detect fires and smoke at night, and the temperature measurement using the infrared sensor described above is adopted depending on the situation. In some cases.

特開2010−61398号公報JP 2010-61398 A 特開平10−285583号公報Japanese Patent Laid-Open No. 10-285583 特開2003−115091号公報JP 2003-115091 A

広域災害においては、災害発生場所は複数に渡り、それを素早く見つけることは非常に重要である。しかしながら、広域災害では必然的に広範囲での画像収集を行うことになるため、画像処理に時間がかかり、上述した手段を用いても検出までに時間がかかってしまう。その結果、災害発生場所における詳細な被害の状況や被害の拡大程度等を確認するために再撮影が必要な場合においても、災害発生場所の正確且つ迅速な位置情報の把握が困難であり、航空機等による再撮影に長時間を要するという問題がある。   In a wide-area disaster, there are several places where disasters occur, and it is very important to find them quickly. However, since a wide area disaster inevitably involves collecting images over a wide area, it takes time for image processing, and even if the above-described means are used, it takes time until detection. As a result, even when re-shooting is necessary to confirm the detailed damage situation and extent of damage at the disaster location, it is difficult to accurately and quickly grasp the location information of the disaster location. There is a problem that it takes a long time for re-photographing.

また、航空機からの無線通信で画像を伝送するようなシステムの場合、伝送路の容量が不十分で収集した画像全てをリアルタイムに伝送することができないため、伝送機能を有していたとしても処理が航空機の帰投後となってしまい、結局時間がかかるという問題点がある。   In addition, in the case of a system that transmits images by wireless communication from an aircraft, the transmission path capacity is insufficient and all collected images cannot be transmitted in real time. However, there is a problem that it takes time after the return of the aircraft.

特に、高画質化を目的とした技術の発達により、近年におけるディジタル画像は画素数が飛躍的に増大しており、広範囲の画像を収集する必要があることも考え合わせると、データ容量は膨大なものとなるため、無線通信による伝送や画像処理に長時間を要してしまい、迅速な災害検出に支障をきたす結果となる。仮に、膨大なデータ量を処理することができる高機能な専用装置を用意したとしても、装置が大掛かりになるとともに高コスト化するという問題点がある。   In particular, due to the development of technology aimed at improving image quality, the number of pixels in digital images has increased dramatically in recent years, and considering that it is necessary to collect a wide range of images, the data capacity is enormous. Therefore, a long time is required for transmission and image processing by wireless communication, resulting in an obstacle to quick disaster detection. Even if a high-function dedicated device capable of processing an enormous amount of data is prepared, there is a problem that the device becomes large and the cost is increased.

本発明は上述した従来技術の問題点を解決するもので、航空機等により広域災害における画像収集を行う際に、災害が発生したと考えられる特定の場所を正確且つ迅速に複数回撮影することができる広域撮影制御システムを提供することを課題とする。   The present invention solves the above-mentioned problems of the prior art, and when performing image collection in a wide-area disaster using an aircraft or the like, it is possible to accurately and quickly photograph a specific place where a disaster is thought to have occurred multiple times. It is an object of the present invention to provide a wide-area shooting control system that can be used.

実施形態の広域撮影制御システムは、上記課題を解決するために、飛しょう体に搭載され、上空から地上を撮影する撮影部と、前記飛しょう体に搭載され、前記撮影部により撮影された複数の画像データの各々に対して位置情報を関連付ける画像処理部と、前記撮影部により撮影された複数の画像データから選択した1以上の画像データに対してイベントフラグを付与するイベントフラグ付与部と、前記イベントフラグ付与部によりイベントフラグが付与された1以上の画像データに対して前記画像処理部が関連付けた位置情報に基づいて、再撮影を行うための再撮影計画を生成する再撮影計画部と、前記飛しょう体に搭載され、前記再撮影計画部により生成された再撮影計画に基づいて前記撮影部を制御する撮影制御部とを備えることを特徴とする。   In order to solve the above-described problem, the wide-area shooting control system of the embodiment is mounted on a flying object, and an imaging unit that images the ground from the sky, and a plurality of imaging units mounted on the flying object and captured by the imaging unit. An image processing unit that associates position information with each of the image data, an event flag adding unit that adds an event flag to one or more image data selected from a plurality of image data captured by the imaging unit, A re-shooting plan unit for generating a re-shooting plan for performing re-shooting based on position information associated with the one or more pieces of image data to which the event flag is added by the event flag adding unit; An imaging control unit mounted on the flying body and controlling the imaging unit based on the re-imaging plan generated by the re-imaging plan unit. To.

実施例1の形態の広域撮影制御システムの構成を示すブロック図である。It is a block diagram which shows the structure of the wide area | region imaging control system of the form of Example 1. FIG. 実施例1の形態の広域撮影制御システムの別の構成例を示すブロック図である。It is a block diagram which shows another structural example of the wide area | region imaging control system of the form of Example 1. FIG. 実施例2の形態の広域撮影制御システムの構成を示すブロック図である。It is a block diagram which shows the structure of the wide area | region imaging control system of the form of Example 2. FIG.

以下、広域撮影制御システムの実施の形態について図面を参照して詳細に説明する。   Hereinafter, an embodiment of the wide area photographing control system will be described in detail with reference to the drawings.

以下、実施例について図面を参照しながら説明する。図1は、本発明の実施例1の広域撮影制御システムの構成を示すブロック図である。本実施例の広域撮影制御システムは、図1に示すように、カメラ1、収集センサ制御部2a、及び表示部3により構成される。また、収集センサ制御部2aは、画像処理部21、画像蓄積部22、画像表示部23、イベントフラグ付与部24、自機情報収集部25、再撮影計画部26、及び撮影制御部27により構成される。   Hereinafter, embodiments will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a wide area photographing control system according to the first embodiment of the present invention. As shown in FIG. 1, the wide-area shooting control system of this embodiment includes a camera 1, a collection sensor control unit 2 a, and a display unit 3. The collection sensor control unit 2 a includes an image processing unit 21, an image storage unit 22, an image display unit 23, an event flag assignment unit 24, an own device information collection unit 25, a re-shooting plan unit 26, and a shooting control unit 27. Is done.

これらのカメラ1と収集センサ制御部2aと表示部3とは、飛しょう体(本実施例においては航空機)に搭載されている。   The camera 1, the collection sensor control unit 2a, and the display unit 3 are mounted on a flying body (an aircraft in this embodiment).

カメラ1は、本発明の撮影部の一例であり、飛しょう体に搭載され、上空から地上を撮像する。このカメラ1により撮像された画像は、普通の光学画像でもよいし、赤外線画像でもよい。なお赤外線画像の場合には、カメラ1は、赤外線センサを利用して、上空から地上の赤外線画像を撮影するので、非接触温度測定を行い、撮影した地上の温度分布を画像表示するための画像データを取得することができる。   The camera 1 is an example of a photographing unit of the present invention, and is mounted on a flying body and images the ground from the sky. The image captured by the camera 1 may be a normal optical image or an infrared image. In the case of an infrared image, the camera 1 uses an infrared sensor to capture an infrared image of the ground from the sky. Therefore, an image for performing non-contact temperature measurement and displaying the captured temperature distribution of the image as an image. Data can be acquired.

収集センサ制御部2aは、飛しょう体に搭載され、カメラ1により撮影された画像を収集し、必要な処理を行う。以下、収集センサ制御部2a内の各構成について具体的に説明する。   The collection sensor control unit 2a is mounted on the flying object, collects images taken by the camera 1, and performs necessary processing. Hereinafter, each component in the collection sensor control part 2a is demonstrated concretely.

画像処理部21は、飛しょう体に搭載され、カメラ1により撮影された画像を収集し、収集した複数の画像データの各々について処理を行う。具体的には、画像処理部21は、カメラ1が撮影を行った際の位置情報(緯度・経度等)を記憶しており、複数の画像データの各々に対して位置情報を関連付ける。この位置情報は、例えばGPS(Global Positioning System)により得ることができる。画像処理部21は、自らGPSを備えていてもよいし、GPSを有する自機情報収集部25から位置情報を得てもよい。   The image processing unit 21 is mounted on the flying object, collects images taken by the camera 1, and performs processing on each of the collected plurality of image data. Specifically, the image processing unit 21 stores position information (latitude, longitude, etc.) when the camera 1 has taken an image, and associates the position information with each of the plurality of image data. This position information can be obtained by, for example, GPS (Global Positioning System). The image processing unit 21 may be equipped with GPS by itself, or may obtain position information from the own device information collecting unit 25 having GPS.

画像蓄積部22は、カメラ1により撮像された画像データを蓄積する。具体的には、画像蓄積部22は、画像処理部21に接続されており、画像処理部21により収集された画像を位置情報とともに蓄積する。また、画像蓄積部22は、必要に応じて指令信号により、後述する画像表示部23に特定の画像を表示させてもよい。   The image storage unit 22 stores image data captured by the camera 1. Specifically, the image storage unit 22 is connected to the image processing unit 21 and stores the images collected by the image processing unit 21 together with position information. Further, the image storage unit 22 may display a specific image on the image display unit 23 described later by a command signal as necessary.

画像表示部23は、画像蓄積部22に蓄積された画像を必要に応じて表示する。例えば、画像表示部23は、ユーザが外部入力により指定した画像データを画像蓄積部22から取得して表示してもよい。   The image display unit 23 displays the image stored in the image storage unit 22 as necessary. For example, the image display unit 23 may acquire and display image data designated by the user through an external input from the image storage unit 22.

イベントフラグ付与部24は、飛しょう体に搭載され、カメラ1により撮影された複数の画像データから選択した1以上の画像データに対してイベントフラグを付与する。ここで、イベントフラグは、災害検出を行う上での重要度を示すフラグである。画像データ選択の方法は色々と考えられるが、ここでは、イベントフラグ付与部24は、ユーザが外部入力により指定した画像データを選択するものとする。   The event flag assigning unit 24 is provided on the flying object and assigns an event flag to one or more image data selected from a plurality of image data photographed by the camera 1. Here, the event flag is a flag indicating the importance in performing disaster detection. There are various image data selection methods. Here, the event flag assigning unit 24 selects image data designated by the user through external input.

具体的には、ユーザは、画像表示部23に表示された画像を確認し、火災や地すべり等の災害が発生したと思われる画像を選択し、図示されないキーボード等の入力装置を介して該当する画像を指定する。イベントフラグ付与部24は、ユーザにより指定された画像の画像データにイベントフラグを付与し、画像蓄積部22に記憶させる。   Specifically, the user confirms the image displayed on the image display unit 23, selects an image that seems to have caused a disaster such as a fire or a landslide, and corresponds through an input device such as a keyboard (not shown). Specify an image. The event flag assigning unit 24 assigns an event flag to the image data of the image designated by the user, and causes the image storage unit 22 to store the event flag.

自機情報収集部25は、飛しょう体の情報を自機情報として収集する。具体的には、自機情報収集部25は、現在の飛しょう体の位置、高度、向き、及び速度のうち少なくとも1つを自機情報として収集する。本実施例においては、自機情報収集部25は、上述した全ての情報を収集するものとする。例えば、自機情報収集部25は、GPSを有しており、現在の飛しょう体の位置(緯度・経度)を自機情報として収集する。   The own aircraft information collection unit 25 collects flying object information as own aircraft information. Specifically, the own aircraft information collection unit 25 collects at least one of the current position, altitude, direction, and speed of the flying object as own aircraft information. In the present embodiment, the own device information collecting unit 25 collects all the information described above. For example, the own aircraft information collection unit 25 has a GPS and collects the current position (latitude / longitude) of the flying object as own aircraft information.

再撮影計画部26は、飛しょう体に搭載され、イベントフラグ付与部24によりイベントフラグが付与された1以上の画像データに対して画像処理部21が関連付けた位置情報に基づいて、再撮影を行うための再撮影計画を生成する。具体的には、再撮影計画部26は、撮影航路情報(以下、航路という)、撮影エリア、撮影方向、撮影のタイミング(自機の位置と撮影可能エリアの関係から生成される)のうち少なくとも1つを再撮影計画の一部として生成する。例えば、再撮影計画部26が再撮影計画の一部として生成する航路は、イベントフラグが付与された災害が発生したと思われる箇所を結ぶような航路であり、再撮影を効率よく行うための航路計画となっている。なお、本実施例においては、再撮影計画部26は、上述した全ての情報を再撮影計画の一部として生成するものとする。   The re-imaging plan unit 26 performs re-photographing based on the positional information associated with the image processing unit 21 with respect to one or more image data to which the event flag is added by the event flag adding unit 24. Generate a reshoot plan to do. Specifically, the re-shooting plan unit 26 includes at least one of shooting route information (hereinafter referred to as a route), a shooting area, a shooting direction, and a shooting timing (generated from the relationship between the position of the own device and the shooting possible area). One is generated as part of the reshoot plan. For example, the route that the re-shooting plan unit 26 generates as a part of the re-shooting plan is a route that connects places where a disaster to which an event flag has been assigned is thought to have occurred, and is used for efficiently performing re-shooting. It is a route plan. In the present embodiment, the re-shooting plan unit 26 generates all the information described above as a part of the re-shooting plan.

撮影制御部27は、飛しょう体に搭載され、再撮影計画部26により生成された再撮影計画に基づいてカメラ1を制御する。例えば、撮影制御部27は、再撮影計画に含まれる撮影方向に基づいて、カメラ1の向きや角度を調整する。さらに、撮影制御部27は、再撮影計画に含まれる撮影のタイミングに基づいて、カメラ1に撮影させる。   The imaging control unit 27 is mounted on the flying object and controls the camera 1 based on the re-imaging plan generated by the re-imaging plan unit 26. For example, the imaging control unit 27 adjusts the direction and angle of the camera 1 based on the imaging direction included in the re-imaging plan. Furthermore, the imaging control unit 27 causes the camera 1 to perform imaging based on the imaging timing included in the re-imaging plan.

また、撮影制御部27は、さらに自機情報収集部25により収集された自機情報に基づいてカメラ1を制御する。例えば、撮影制御部27は、自機情報に含まれる現在の飛しょう体の位置、高度、向き、及び速度に基づいて、相対的にカメラ1を向けるべき方向や撮影タイミングを知ることができ、より正確にカメラ1を制御することができる。   Further, the photographing control unit 27 further controls the camera 1 based on the own device information collected by the own device information collecting unit 25. For example, the imaging control unit 27 can know the direction and imaging timing in which the camera 1 should be relatively directed based on the current flying object position, altitude, direction, and speed included in the own aircraft information. The camera 1 can be controlled more accurately.

表示部3は、必要に応じて撮影制御部27による制御状況を表示する。例えば、表示部3は、再撮影計画が含む航路や自機の位置、再撮影を行うポイント等を表示することができる。ただし、表示部3は、必須の構成ではなく、特に撮影制御部27による制御の状況を表示する必要が無い場合には、必ずしも設置されていなくてもよい。また、表示部3を設置する代わりに、画像表示部23が表示部3の役割を担ってもよい。   The display unit 3 displays the control status by the imaging control unit 27 as necessary. For example, the display unit 3 can display a route included in the re-shooting plan, the position of the own aircraft, a point for performing re-shooting, and the like. However, the display unit 3 is not an essential component, and may not be necessarily installed when it is not particularly necessary to display the status of control by the imaging control unit 27. Further, instead of installing the display unit 3, the image display unit 23 may play the role of the display unit 3.

次に、上述のように構成された本実施の形態の作用を説明する。最初に、飛しょう体に搭載されたカメラ1は、上空から地上の画像を撮影する。この際に、画像処理部21は、カメラ1により撮影された画像を収集し、収集した複数の画像データの各々に対して位置情報を関連付けた後に、画像蓄積部22に出力する。画像蓄積部22は、画像処理部21により収集・処理された画像を蓄積する。   Next, the operation of the present embodiment configured as described above will be described. First, the camera 1 mounted on the flying object takes an image of the ground from above. At this time, the image processing unit 21 collects images taken by the camera 1, associates position information with each of the collected plurality of image data, and then outputs them to the image storage unit 22. The image storage unit 22 stores the images collected and processed by the image processing unit 21.

次に、ユーザは、キーボード等を操作することにより画像蓄積部22に蓄積された画像を画像表示部23に表示させる。ユーザは、画像表示部23に表示された画像を確認し、キーボード等を操作することにより災害が発生していると思われる画像を指定する。イベントフラグ付与部24は、ユーザにより指定された1以上の画像データに対してイベントフラグを付与し、画像蓄積部22に記憶させる。   Next, the user causes the image display unit 23 to display the image stored in the image storage unit 22 by operating a keyboard or the like. The user confirms the image displayed on the image display unit 23 and designates an image that seems to have caused a disaster by operating a keyboard or the like. The event flag assigning unit 24 assigns an event flag to one or more pieces of image data designated by the user and causes the image accumulating unit 22 to store the event flag.

一方、自機情報収集部25は、現在の飛しょう体の位置、高度、向き、及び速度の情報を自機情報として収集し、撮影制御部27に出力する。また、再撮影計画部26は、画像蓄積部22に蓄積された画像データを取得し、イベントフラグ付与部24によりイベントフラグが付与された1以上の画像データに対して画像処理部21が関連付けた位置情報に基づいて、再撮影を行うための再撮影計画を生成する。具体的には、再撮影計画部26は、航路、撮影エリア、撮影方向、及び撮影のタイミング等について再撮影計画として生成する。   On the other hand, the own aircraft information collecting unit 25 collects information on the current position, altitude, direction, and speed of the flying object as own aircraft information and outputs the collected information to the imaging control unit 27. The re-shooting plan unit 26 acquires the image data stored in the image storage unit 22, and the image processing unit 21 associates the one or more image data to which the event flag is added by the event flag adding unit 24. Based on the position information, a re-shooting plan for performing re-shooting is generated. Specifically, the re-shooting plan unit 26 generates a re-shooting plan for the route, the shooting area, the shooting direction, the shooting timing, and the like.

撮影制御部27は、自機情報収集部25により収集された自機情報と再撮影計画部26により生成された再撮影計画とに基づいてカメラ1を制御する。具体的には、撮影制御部27は、自機情報収集部25により収集された自機情報に基づいて現在の飛しょう体の位置、高度、向き、及び速度の情報を取得し、再撮影計画部26により生成された再撮影計画に基づいて、カメラ1を適切な方向・角度に調節するとともに適切なタイミングでカメラ1による撮影を行う。   The imaging control unit 27 controls the camera 1 based on the own device information collected by the own device information collecting unit 25 and the reshooting plan generated by the reshooting plan unit 26. Specifically, the imaging control unit 27 acquires information on the current position, altitude, direction, and speed of the flying object based on the own aircraft information collected by the own aircraft information collecting unit 25, and re-shooting plan Based on the re-shooting plan generated by the unit 26, the camera 1 is adjusted to an appropriate direction and angle, and shooting by the camera 1 is performed at an appropriate timing.

また、撮影制御部27は、再撮影計画に含まれる航路情報や飛しょう体の速度情報を表示部3に表示させてもよい。飛しょう体(航空機)のパイロットは、表示部3に表示された航路にしたがって操縦を行い、飛しょう体の速度情報にしたがって飛しょう体の速度を調節する。   Further, the imaging control unit 27 may cause the display unit 3 to display the route information included in the re-imaging plan and the speed information of the flying object. The pilot of the flying object (aircraft) operates according to the route displayed on the display unit 3, and adjusts the speed of the flying object according to the speed information of the flying object.

上述のとおり、実施例1の形態に係る広域撮影制御システムによれば、航空機等により広域災害における画像収集を行う際に、災害が発生したと考えられる特定の場所を正確且つ迅速に複数回撮影することができる。   As described above, according to the wide-area shooting control system according to the form of the first embodiment, when collecting images in a wide-area disaster using an aircraft or the like, a specific place where the disaster is thought to have occurred is captured multiple times accurately and quickly. can do.

すなわち、本実施例の広域撮影制御システムは、カメラ1により撮影された複数の画像データから選択した1以上の画像データに対してイベントフラグを付与するイベントフラグ付与部24を備えているので、重要と思われる画像を抽出し、災害発生場所の正確且つ迅速な位置情報を把握することができる。   That is, the wide area shooting control system of the present embodiment includes an event flag adding unit 24 that adds an event flag to one or more image data selected from a plurality of image data shot by the camera 1. The image which seems to be can be extracted, and the accurate and quick position information of the disaster occurrence place can be grasped.

さらに、本実施例の広域撮影制御システムは、イベントフラグが付与された1以上の画像データに対して関連付けられた位置情報を把握することにより、地上側に情報を送ることなく、外部からの再撮影計画を受領せずに飛行中に航空機側で自動的に再撮影計画を生成することができる。その際に、再撮影計画部26は、航路、撮影方向、撮影のタイミング、及び飛しょう体の速度のうち少なくとも1つを再撮影計画の一部として生成するので、災害が発生したと思われる場所を効率よく複数回撮影することができる。   Furthermore, the wide area imaging control system of the present embodiment recognizes position information associated with one or more image data to which an event flag has been assigned, so that it can be re-transmitted from outside without sending information to the ground side. The re-shooting plan can be automatically generated on the aircraft side during the flight without receiving the shooting plan. At that time, the re-shooting plan unit 26 generates at least one of the navigation route, the shooting direction, the timing of shooting, and the speed of the flying object as a part of the re-shooting plan, so it seems that a disaster has occurred. A place can be efficiently shot multiple times.

このように、本実施例の広域撮影制御システムは、火災や地すべり、土石流等の災害が発生した場合に、生成した再撮影計画に基づいて災害発生箇所を効率よく複数回撮影することで、被害状況の時間的変化を迅速に把握することができる。   In this way, the wide-area shooting control system of the present embodiment efficiently captures the disaster occurrence location multiple times based on the generated re-shooting plan when a disaster such as a fire, landslide, or debris flow occurs. It is possible to quickly grasp changes in the situation over time.

図2は、本実施例の広域撮影制御システムの別の構成例を示すブロック図である。図1に示す広域撮影制御システムの構成と異なる点は、イベントフラグ付与部24の代わりに比較抽出部29を備えている点である。   FIG. 2 is a block diagram illustrating another configuration example of the wide area imaging control system of the present embodiment. A difference from the configuration of the wide area imaging control system shown in FIG. 1 is that a comparison / extraction unit 29 is provided instead of the event flag assignment unit 24.

この比較抽出部29は、本発明のイベントフラグ付与部の一例であり、飛しょう体に搭載され、カメラ1により撮影された複数の画像データから選択した1以上の画像データに対してイベントフラグを付与する。ただし、イベントフラグ付与部24と異なる点として、比較抽出部29は、カメラ1により撮影された複数の画像データに基づいて1以上の画像データを選択し、選択した1以上の画像データに対してイベントフラグを付与する。   The comparison and extraction unit 29 is an example of an event flag adding unit according to the present invention. The comparison and extraction unit 29 is mounted on a flying object, and sets an event flag for one or more image data selected from a plurality of image data captured by the camera 1. Give. However, as a difference from the event flag assigning unit 24, the comparison and extraction unit 29 selects one or more image data based on a plurality of image data photographed by the camera 1, and selects one or more selected image data. Assign event flag.

すなわち、イベントフラグ付与部24が人の判断を介してイベントフラグを付与していたのに対し、比較抽出部29は、人の手を介することなく、自らの判断で自動的にイベントフラグを付与する。   That is, while the event flag assigning unit 24 assigns an event flag through human judgment, the comparison / extraction unit 29 automatically assigns an event flag based on own judgment without human intervention. To do.

具体的な画像選択の方法として、例えば画像蓄積部22に予め災害発生前における各地域の画像を蓄積しておき、比較抽出部29は、予め作成された災害発生前における地上の画像と、災害発生後における地上の画像とを比較し(例えば光学画像においては、建造物の有無を災害発生前と比較し)、それらの差異に基づいて災害発生箇所を検出し、該当する画像にイベントフラグを付与する。画像データ量が膨大となる場合には、例えばデータ量の少ないサムネイル画像を利用することも可能である。   As a specific image selection method, for example, an image of each area before the occurrence of the disaster is stored in the image storage unit 22 in advance, and the comparison and extraction unit 29 creates the ground image before the occurrence of the disaster, Compare with the image of the ground after the occurrence (for example, in the optical image, compare the presence or absence of the building with that before the disaster), detect the location of the disaster based on the difference between them, and set the event flag on the corresponding image Give. When the amount of image data becomes enormous, for example, it is possible to use a thumbnail image with a small amount of data.

また、画像蓄積部22に予め画像が蓄積されていない場合には、例えば航空機で所定の地域の画像を時間をおいて複数回撮影し、比較抽出部29は、災害発生場所における被害の拡大により生ずる差異に基づいて災害発生箇所を検出してもよい。   In addition, when no image is stored in advance in the image storage unit 22, for example, an image of a predetermined area is taken a plurality of times with time by an aircraft, and the comparison and extraction unit 29 is caused by expansion of damage at the disaster occurrence location. You may detect a disaster occurrence location based on the difference which arises.

あるいは、カメラ1が例えば赤外線画像を撮影することができる場合には、比較抽出部29は、画像データに基づいて、所定の温度条件を満たす箇所を災害発生箇所として検出してもよい。火災が発生している場合には非常に高温となるため、比較抽出部29は、温度条件をしきい値として火災発生箇所の検出が可能である。   Or when the camera 1 can image | photograph an infrared image, for example, the comparison extraction part 29 may detect the location which satisfy | fills predetermined | prescribed temperature conditions as a disaster occurrence location based on image data. Since the temperature is very high when a fire is occurring, the comparative extraction unit 29 can detect the location of the fire using the temperature condition as a threshold value.

このように、イベントフラグ付与部24の代わりに比較抽出部29を備えている場合においても、上述した効果を得ることができるとともに、人の手を介さずに画像選択を行うので、迅速なイベントフラグの付与及び再撮影計画の生成が可能となる。   As described above, even when the comparison / extraction unit 29 is provided instead of the event flag assigning unit 24, the above-described effects can be obtained, and image selection can be performed without human intervention. It is possible to assign a flag and generate a re-shooting plan.

図3は、実施例2の広域撮影制御システムの構成を示すブロック図である。実施例1の広域撮影制御システムと異なる点は、地上画像処理部4、写真データベース5、画像表示部6を新たに備えるとともに、収集センサ制御部2b内に画像送信部28を備えている点である。   FIG. 3 is a block diagram illustrating a configuration of the wide area shooting control system according to the second embodiment. The difference from the wide-area imaging control system of the first embodiment is that a ground image processing unit 4, a photo database 5, and an image display unit 6 are newly provided, and an image transmission unit 28 is provided in the collection sensor control unit 2b. is there.

地上画像処理部4は、比較抽出部41、画像受信部42、及び撮影計画部43により構成される。ここで、カメラ1と収集センサ制御部2bと表示部3とは、飛しょう体(本実施例においては航空機)に搭載されている。一方、地上画像処理部4と写真データベース5と画像表示部6とは、地上に設置されている。また、航空機と地上との間で無線通信により必要な画像の伝送等が行われる。すなわち、画像送信部28と画像受信部42との間の情報の授受、及び撮影計画部43と撮影制御部27との間の情報の授受は、全て無線通信により行われる。   The ground image processing unit 4 includes a comparison extraction unit 41, an image reception unit 42, and a shooting plan unit 43. Here, the camera 1, the collection sensor control unit 2b, and the display unit 3 are mounted on a flying object (an aircraft in the present embodiment). On the other hand, the ground image processing unit 4, the photograph database 5, and the image display unit 6 are installed on the ground. In addition, necessary images are transmitted between the aircraft and the ground by wireless communication. That is, the exchange of information between the image transmission unit 28 and the image reception unit 42 and the exchange of information between the imaging plan unit 43 and the imaging control unit 27 are all performed by wireless communication.

写真データベース5は、様々な地域の災害発生前の写真(画像データ)を蓄積したデータベースである。この写真データベース5は、可能であれば日本全国全ての地域の写真を網羅していることが望ましいが、災害が発生しやすいと考えられる地域に絞って写真を蓄積していてもよい。   The photograph database 5 is a database in which photographs (image data) before disasters in various regions are accumulated. Although it is desirable that the photograph database 5 covers photographs of all areas in Japan if possible, photographs may be accumulated only in areas where disasters are likely to occur.

画像送信部28は、本発明の送信部の一例であり、飛しょう体に搭載され、カメラ1により撮影された複数の画像データを無線通信により地上側に送信する。具体的には、画像送信部28は、地上に設置された地上画像処理部4内の画像受信部42に対して、画像蓄積部22により蓄積された複数の画像を無線通信によりリアルタイムに送信する。画像データ量が膨大となる場合には、例えばデータ量の少ないサムネイル画像を利用して無線通信を行うことも可能である。   The image transmission unit 28 is an example of the transmission unit of the present invention, and is mounted on the flying body and transmits a plurality of image data captured by the camera 1 to the ground side by wireless communication. Specifically, the image transmission unit 28 transmits, in real time, a plurality of images accumulated by the image accumulation unit 22 to the image reception unit 42 in the ground image processing unit 4 installed on the ground by wireless communication. . When the amount of image data is enormous, wireless communication can be performed using, for example, a thumbnail image with a small amount of data.

画像受信部42は、本発明の受信部の一例であり、地上側に設置され、画像送信部28により送信された複数の画像データを受信し、受信した画像データを比較抽出部41に出力する。また、画像受信部42は、受信した画像データを画像表示部6に出力し、画像表示部6に画像を表示させてもよい。   The image receiving unit 42 is an example of the receiving unit of the present invention, is installed on the ground side, receives a plurality of image data transmitted by the image transmitting unit 28, and outputs the received image data to the comparison and extraction unit 41. . Further, the image receiving unit 42 may output the received image data to the image display unit 6 and cause the image display unit 6 to display an image.

比較抽出部41は、本発明のイベントフラグ付与部の一例であり、地上側に設置され、カメラ1により撮影された複数の画像データから選択した1以上の画像データに対してイベントフラグを付与する。具体的には、比較抽出部41は、カメラ1により撮影された複数の画像データに基づいて1以上の画像データを選択し、選択した1以上の画像データに対してイベントフラグを付与する。   The comparison extraction unit 41 is an example of the event flag assigning unit of the present invention, and is provided on the ground side and assigns an event flag to one or more image data selected from a plurality of image data photographed by the camera 1. . Specifically, the comparison and extraction unit 41 selects one or more image data based on a plurality of image data photographed by the camera 1, and assigns an event flag to the selected one or more image data.

詳述すると、写真データベース5に予め災害発生前における各地域の画像を蓄積しておき、比較抽出部41は、予め作成された災害発生前における地上の画像と、災害発生後における地上の画像とを比較し、それらの差異に基づいて災害発生箇所を検出し、該当する画像にイベントフラグを付与する。また、比較抽出部41は、イベントフラグを付与した画像を画像表示部6に表示させる。   More specifically, the image of each region before the occurrence of the disaster is stored in the photo database 5 in advance, and the comparison and extraction unit 41 creates the ground image before the occurrence of the disaster, the image of the ground after the occurrence of the disaster, Are detected, a disaster occurrence location is detected based on the difference, and an event flag is assigned to the corresponding image. In addition, the comparison and extraction unit 41 causes the image display unit 6 to display an image to which the event flag has been added.

なお、画像の比較による差異の検出方法は、様々な方法が考えられ、例えば色のスペクトルを比較する方法や、道路や川、山の稜線等の形を比較する方法等が考えられる。この検出方法自体は、従来技術として存在する画像比較の方法を利用してもよい。   Note that there are various methods for detecting a difference by comparing images, for example, a method of comparing color spectra, a method of comparing shapes of roads, rivers, mountain ridges, and the like. As the detection method itself, an image comparison method existing as a conventional technique may be used.

撮影計画部43は、本発明の再撮影計画部の一例であり、地上側に設置され、比較抽出部41によりイベントフラグが付与された1以上の画像データに対して画像処理部21が関連付けた位置情報に基づいて、再撮影を行うための再撮影計画を生成する。   The imaging plan unit 43 is an example of a re-imaging plan unit according to the present invention, and is set on the ground side, and the image processing unit 21 associates one or more image data to which an event flag is assigned by the comparison extraction unit 41. Based on the position information, a re-shooting plan for performing re-shooting is generated.

ただし、本実施例において撮影計画部43は、位置情報を比較抽出部41から直接受け取るわけではなく、間接的に位置情報を利用する。すなわち、比較抽出部41がイベントフラグを付与した画像を位置情報とともに画像表示部6に表示させ、ユーザは、画像表示部6に表示された画像及び位置情報を確認し、キーボード等の外部入力装置を用いて撮影計画部43に必要な情報を入力する。   However, in this embodiment, the imaging plan unit 43 does not directly receive the position information from the comparison and extraction unit 41, but indirectly uses the position information. That is, the comparison and extraction unit 41 displays the image with the event flag on the image display unit 6 together with the position information, and the user confirms the image displayed on the image display unit 6 and the position information, and an external input device such as a keyboard. Is used to input necessary information to the shooting plan unit 43.

当然のことながら、比較抽出部41は、イベントフラグを付与した画像に関連付けられている位置情報を直接撮影計画部43に出力してもよい。この場合には、人の手を介す必要が無いぶん、迅速に処理を行うことができる。   As a matter of course, the comparison / extraction unit 41 may directly output the position information associated with the image to which the event flag is assigned to the imaging plan unit 43. In this case, there is no need for human intervention, so that processing can be performed quickly.

撮影計画部43は、航路、撮影方向、撮影のタイミング、及び飛しょう体の速度のうち少なくとも1つを再撮影計画の一部として生成する。なお、本実施例においては、撮影計画部43は、上述した全ての情報を再撮影計画の一部として生成するものとする。   The imaging plan unit 43 generates at least one of the navigation route, the imaging direction, the imaging timing, and the flying body speed as a part of the re-imaging plan. In the present embodiment, the shooting plan unit 43 generates all the information described above as a part of the re-shooting plan.

撮影制御部27は、飛しょう体に搭載され、撮影計画部43により生成された再撮影計画に基づいてカメラ1を制御する。ただし、本実施例において撮影制御部27は、再撮影計画部26と撮影計画部43との両方から再撮影計画を受け取ることになるため、再撮影計画部26による再撮影計画を優先して実行するものとする。状況に応じて、撮影制御部27は、いずれの再撮影計画を実行するか選択できるものとしてもよい。   The imaging control unit 27 is mounted on the flying body and controls the camera 1 based on the re-imaging plan generated by the imaging plan unit 43. However, in the present embodiment, the imaging control unit 27 receives the re-imaging plan from both the re-imaging plan unit 26 and the imaging plan unit 43, and therefore executes the re-imaging plan by the re-imaging plan unit 26 with priority. It shall be. Depending on the situation, the imaging control unit 27 may select which re-imaging plan to execute.

その他の構成は実施例1と同様であり、重複した説明を省略する。   Other configurations are the same as those of the first embodiment, and redundant description is omitted.

次に、上述のように構成された本実施の形態の作用を説明する。航空機側における処理自体は、実施例1と同様である。したがって、撮影制御部27は、上述したように、収集センサ制御部2b内で生成された再撮影計画と、地上画像処理部4内で生成した再撮影計画との両方を受け取ることができ、いずれの再撮影計画を実行するか選択できる。   Next, the operation of the present embodiment configured as described above will be described. The processing itself on the aircraft side is the same as that in the first embodiment. Therefore, as described above, the imaging control unit 27 can receive both the re-imaging plan generated in the collection sensor control unit 2b and the re-imaging plan generated in the ground image processing unit 4, You can choose whether to execute the re-shooting plan.

収集センサ制御部2b内での処理は、無線通信を介さない分、迅速であると考えられるので、スピードを優先する場合には、撮影制御部27は、収集センサ制御部2b内で生成された再撮影計画を優先して実行する。   Since the processing in the collection sensor control unit 2b is considered to be quick because it does not involve wireless communication, when priority is given to speed, the imaging control unit 27 is generated in the collection sensor control unit 2b. Prioritize re-shooting plans.

しかしながら、地上画像処理部4は、比較抽出部41が過去の画像と比較することによりイベントフラグを付与するので、より的確に災害検出を行うことができると考えられる。したがって、正確性を優先する場合には、撮影制御部27は、地上画像処理部4内で生成された再撮影計画を優先して実行してもよい。   However, it is considered that the ground image processing unit 4 can detect the disaster more accurately because the comparison and extraction unit 41 gives an event flag by comparing with the past image. Therefore, when priority is given to accuracy, the imaging control unit 27 may execute the re-imaging plan generated in the ground image processing unit 4 with priority.

上述のとおり、実施例2の形態に係る広域撮影制御システムによれば、実施例1と同様の効果を得ることができるのみならず、航空機側で生成した再撮影計画と地上側で生成した再撮影計画とのいずれを実行するか選択することができ、状況に応じて柔軟に対応することができる。   As described above, according to the wide-area shooting control system according to the form of the second embodiment, not only can the same effect as the first embodiment be obtained, but also the re-shooting plan generated on the aircraft side and the re-shooting generated on the ground side. Which one of the shooting plans is to be executed can be selected, and it is possible to flexibly cope with the situation.

いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 カメラ
2a,2b 収集センサ制御部
3 表示部
4 地上画像処理部
5 写真データベース
6 画像表示部
21 画像処理部
22 画像蓄積部
23 画像表示部
24 イベントフラグ付与部
25 自機情報収集部
26 再撮影計画部
27 撮影制御部
28 画像送信部
29 比較抽出部
41 比較抽出部
42 画像受信部
43 撮影計画部
DESCRIPTION OF SYMBOLS 1 Camera 2a, 2b Collecting sensor control part 3 Display part 4 Ground image processing part 5 Photo database 6 Image display part 21 Image processing part 22 Image storage part 23 Image display part 24 Event flag provision part 25 Self-machine information collection part 26 Re-photographing Planning unit 27 Imaging control unit 28 Image transmission unit 29 Comparison extraction unit 41 Comparison extraction unit 42 Image reception unit 43 Imaging planning unit

Claims (7)

飛しょう体に搭載され、上空から地上を撮影する撮影部と、
前記飛しょう体に搭載され、前記撮影部により撮影された複数の画像データの各々に対して位置情報を関連付ける画像処理部と、
前記撮影部により撮影された複数の画像データから選択した1以上の画像データに対してイベントフラグを付与するイベントフラグ付与部と、
前記イベントフラグ付与部によりイベントフラグが付与された1以上の画像データに対して前記画像処理部が関連付けた位置情報に基づいて、再撮影を行うための再撮影計画を生成する再撮影計画部と、
前記飛しょう体に搭載され、前記再撮影計画部により生成された再撮影計画に基づいて前記撮影部を制御する撮影制御部と、
を備えることを特徴とする広域撮影制御システム。
A shooting unit that is mounted on a flying body and shoots the ground from above,
An image processing unit mounted on the flying body and associating position information with each of a plurality of image data captured by the imaging unit;
An event flag assigning unit that assigns an event flag to one or more image data selected from a plurality of image data photographed by the photographing unit;
A re-shooting plan unit for generating a re-shooting plan for performing re-shooting based on position information associated with the one or more pieces of image data to which the event flag is added by the event flag adding unit; ,
An imaging control unit that is mounted on the flying object and controls the imaging unit based on the re-imaging plan generated by the re-imaging plan unit;
A wide-area shooting control system comprising:
前記再撮影計画部は、航路、撮影エリア、撮影方向、及び撮影のタイミングのうち少なくとも1つを再撮影計画の一部として生成することを特徴とする請求項1記載の広域撮影制御システム。   The wide-area shooting control system according to claim 1, wherein the re-shooting plan unit generates at least one of a navigation route, a shooting area, a shooting direction, and a shooting timing as a part of the re-shooting plan. 前記飛しょう体の情報を自機情報として収集する自機情報収集部を備え、
前記撮影制御部は、さらに前記自機情報収集部により収集された自機情報に基づいて前記撮影部を制御することを特徴とする請求項1又は請求項2記載の広域撮影制御システム。
A self-machine information collection unit that collects the flying object information as self-machine information,
The wide-area shooting control system according to claim 1, wherein the shooting control unit further controls the shooting unit based on own device information collected by the own device information collecting unit.
前記自機情報収集部は、現在の前記飛しょう体の位置、高度、向き、及び速度のうち少なくとも1つを自機情報として収集することを特徴とする請求項3記載の広域撮影制御システム。   4. The wide area photographing control system according to claim 3, wherein the own device information collecting unit collects at least one of the current position, altitude, direction, and speed of the flying object as own device information. 前記イベントフラグ付与部は、前記撮影部により撮影された複数の画像データに基づいて1以上の画像データを選択し、選択した1以上の画像データに対してイベントフラグを付与することを特徴とする請求項1乃至請求項4のいずれか1項記載の広域撮影制御システム。   The event flag assigning unit selects one or more image data based on a plurality of image data photographed by the photographing unit, and assigns an event flag to the selected one or more image data. The wide area imaging | photography control system of any one of Claim 1 thru | or 4. 前記イベントフラグ付与部と前記再撮影計画部とは、前記飛しょう体に搭載されていることを特徴とする請求項1乃至請求項5のいずれか1項記載の広域撮影制御システム。   6. The wide area imaging control system according to claim 1, wherein the event flag assigning unit and the re-imaging planning unit are mounted on the flying object. 前記飛しょう体に搭載され、前記撮影部により撮影された複数の画像データを無線通信により地上側に送信する送信部と、
地上側に設置され、前記送信部により送信された複数の画像データを受信する受信部とを備え、
前記イベントフラグ付与部と前記再撮影計画部とは、地上側に設置されていることを特徴とする請求項1乃至請求項5のいずれか1項記載の広域撮影制御システム。
A transmitter that is mounted on the flying body and that transmits a plurality of image data captured by the imaging unit to the ground side by wireless communication;
A receiving unit installed on the ground side and receiving a plurality of image data transmitted by the transmitting unit;
The wide-area shooting control system according to claim 1, wherein the event flag assignment unit and the re-shooting plan unit are installed on the ground side.
JP2011075202A 2011-03-30 2011-03-30 Wide-area photographing control system Withdrawn JP2012209843A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011075202A JP2012209843A (en) 2011-03-30 2011-03-30 Wide-area photographing control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011075202A JP2012209843A (en) 2011-03-30 2011-03-30 Wide-area photographing control system

Publications (1)

Publication Number Publication Date
JP2012209843A true JP2012209843A (en) 2012-10-25

Family

ID=47189225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011075202A Withdrawn JP2012209843A (en) 2011-03-30 2011-03-30 Wide-area photographing control system

Country Status (1)

Country Link
JP (1) JP2012209843A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019039913A (en) * 2018-08-02 2019-03-14 株式会社Zmp Monitoring system
JP2019532380A (en) * 2016-08-24 2019-11-07 グーグル エルエルシー Change detection based image acquisition tasking system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019532380A (en) * 2016-08-24 2019-11-07 グーグル エルエルシー Change detection based image acquisition tasking system
JP2019039913A (en) * 2018-08-02 2019-03-14 株式会社Zmp Monitoring system

Similar Documents

Publication Publication Date Title
US20230236611A1 (en) Unmanned Aerial Vehicle Sensor Activation and Correlation System
KR102203135B1 (en) Method and system for detecting disaster damage information based on artificial intelligence using drone
JP2024050706A (en) Information processing method, information processing device and computer program
WO2016132587A1 (en) Information processing device, road structure management system, and road structure management method
EP3309762A1 (en) Fire disaster monitoring method and apparatus
WO2019119282A1 (en) Method and device for associating image and location information, and movable platform
KR20170101516A (en) Apparatus and method for fire monitoring using unmanned aerial vehicle
KR101861045B1 (en) Drones for manhole and river facility inspection
KR101943342B1 (en) Management system and method for solar panel using drone
JP2015058758A (en) Structure inspection system
JP2006027331A (en) Method for collecting aerial image information by utilizing unmanned flying object
MX2013000158A (en) Real-time moving platform management system.
KR20200048615A (en) Realtime inspecting drone for solar photovoltaic power station basen on machine learning
JP6397617B2 (en) Method and apparatus for removing shadows from aerial or satellite photographs
JP2008118643A (en) Apparatus and method of managing image file
JPWO2017057362A1 (en) Drawing creating apparatus and drawing creating method
JP2011095112A (en) Three-dimensional position measuring apparatus, mapping system of flying object, and computer program
JP6482855B2 (en) Monitoring system
WO2023150888A1 (en) System and method for firefighting and locating hotspots of a wildfire
JP7303658B2 (en) Method for processing infrared photographic images, apparatus for processing infrared photographic images, and program for processing infrared photographic images
CN113867406A (en) Unmanned aerial vehicle-based line inspection method and system, intelligent equipment and storage medium
JP6482856B2 (en) Monitoring system
JP6496158B2 (en) Change detection system using aerial moving body acquisition information, change detection method using aerial moving body acquisition information, and program thereof
JP2012209843A (en) Wide-area photographing control system
WO2020179439A1 (en) Displacement detection method, photography instruction method, displacement detection device, and photography instruction device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603