JP6934913B2 - Surveillance systems, image management devices, flying objects, and programs - Google Patents
Surveillance systems, image management devices, flying objects, and programs Download PDFInfo
- Publication number
- JP6934913B2 JP6934913B2 JP2019101844A JP2019101844A JP6934913B2 JP 6934913 B2 JP6934913 B2 JP 6934913B2 JP 2019101844 A JP2019101844 A JP 2019101844A JP 2019101844 A JP2019101844 A JP 2019101844A JP 6934913 B2 JP6934913 B2 JP 6934913B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- captured
- request
- flying objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 claims description 148
- 230000005540 biological transmission Effects 0.000 claims description 69
- 238000012544 monitoring process Methods 0.000 claims description 30
- 230000004044 response Effects 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 18
- 230000002093 peripheral effect Effects 0.000 claims description 14
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical group C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 28
- 238000004891 communication Methods 0.000 description 27
- 238000012545 processing Methods 0.000 description 16
- 238000000034 method Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000004321 preservation Methods 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Description
本発明は、監視システム、画像管理装置、飛翔体、及びプログラムに関する。 The present invention relates to surveillance systems, image management devices, flying objects, and programs.
カメラ及びフライトレコーダを搭載した無人航空機が知られていた。(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2017−217942号公報
Unmanned aerial vehicles equipped with cameras and flight recorders were known. (See, for example, Patent Document 1).
[Prior art literature]
[Patent Document]
[Patent Document 1] Japanese Unexamined Patent Publication No. 2017-217942
無人航空機によって電波環境に依らずにドローン等の装置を適切に遠隔制御可能にする技術を提供することが望ましい。 It is desirable to provide technology that enables appropriate remote control of devices such as drones by unmanned aerial vehicles regardless of the radio wave environment.
本発明の第1の態様によれば、全方位を撮像する撮像部及び撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体と、複数の飛翔体によって送信された撮像画像を取得して管理する画像管理装置とを備える監視システムが提供される。画像管理装置は、撮像対象を特定する撮像対象特定部を有してよい。画像管理装置は、複数の飛翔体のうちの1又は複数の飛翔体に対して、撮像対象の撮像画像を要求する画像要求を送信する要求送信部を有してよい。画像管理装置は、画像要求に応じて1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部を有してよい。 According to the first aspect of the present invention, a plurality of flying objects having an imaging unit that images in all directions and an image transmitting unit that wirelessly transmits an image captured by the imaging unit to the outside, and a plurality of flying objects transmit the images. A monitoring system including an image management device that acquires and manages captured images is provided. The image management device may have an image pickup target identification unit that specifies an image pickup target. The image management device may have a request transmission unit that transmits an image request for requesting an image to be imaged to one or a plurality of flying objects among the plurality of flying objects. The image management device may have an image acquisition unit that acquires an image captured by at least one or a plurality of projectiles in response to an image request.
上記要求送信部は、上記撮像対象に関する撮像対象関連情報と時刻情報とを含む上記画像要求を上記複数の飛翔体に送信してよく、上記画像取得部は、上記複数の飛翔体のうち、上記時刻情報によって示される時刻に上記撮像対象を撮像した撮像画像を格納していた飛翔体から、上記撮像画像を取得してよい。上記要求送信部は、上記撮像対象に関する撮像対象関連情報と時刻情報とを含む上記画像要求を上記複数の飛翔体に送信してよく、上記画像取得部は、上記複数の飛翔体のうち、上記時刻情報によって示される時刻に上記撮像対象を撮像可能な飛翔体が上記画像要求に応じて撮像した上記撮像対象の撮像画像を取得してよい。上記画像管理装置は、上記撮像対象の位置に基づいて、上記複数の飛翔体から、上記画像要求を送信する対象の1又は複数の飛翔体を選択する飛翔体選択部を有してよく、上記要求送信部は、上記飛翔体選択部によって選択された1又は複数の飛翔体に対して上記画像要求を送信してよい。上記複数の飛翔体のそれぞれは、複数の無線基地局のいずれかに在圏して、在圏している無線基地局を介して上記画像管理装置と通信してよく、上記飛翔体選択部は、上記撮像対象の位置に基づいて上記複数の無線基地局から選択した無線基地局に在圏している飛翔体を選択してよい。 The request transmission unit may transmit the image request including the image pickup target-related information and the time information regarding the image pickup target to the plurality of flying objects, and the image acquisition unit may transmit the image acquisition unit among the plurality of flying objects. The captured image may be acquired from a flying object that stores the captured image obtained by capturing the captured image at the time indicated by the time information. The request transmission unit may transmit the image request including the image pickup target-related information and the time information regarding the image pickup target to the plurality of flying objects, and the image acquisition unit may transmit the image acquisition unit among the plurality of flying objects. A flying object capable of imaging the imaging target at the time indicated by the time information may acquire the captured image of the imaging target captured in response to the image request. The image management device may have a flying object selection unit that selects one or a plurality of flying objects to which the image request is transmitted from the plurality of flying objects based on the position of the imaging target. The request transmitting unit may transmit the image request to one or more flying objects selected by the flying object selection unit. Each of the plurality of projectiles may be located in one of the plurality of radio base stations and communicate with the image management device via the radio base stations in the service area, and the projectile selection unit may be used. , A flying object existing in a radio base station selected from the plurality of radio base stations may be selected based on the position of the imaging target.
上記画像管理装置は、上記撮像対象の位置情報と上記複数の飛翔体のそれぞれの位置情報とに基づいて、上記複数の飛翔体から上記撮像対象を監視させる1又は複数の飛翔体を選択する飛翔体選択部を有してよく、上記要求送信部は、上記飛翔体選択部によって選択された1又は複数の飛翔体に対して上記画像要求を送信してよく、上記画像取得部は、上記画像要求に応じて上記1又は複数の飛翔体が上記撮像対象を監視しながら撮像した上記撮像対象の撮像画像を取得してよい。上記画像管理装置は、上記撮像対象の周辺状況を取得する周辺状況取得部を有してよく、上記飛翔体選択部は、上記撮像対象の周辺状況にさらに基づいて、上記撮像対象を監視させる上記1又は複数の飛翔体を選択してよい。上記飛翔体選択部は、上記複数の飛翔体のそれぞれが実行しているタスクのタスクレベルにさらに基づいて、上記撮像対象を監視させる1又は複数の飛翔体を選択してよい。 The image management device selects one or a plurality of flying objects to monitor the imaging target from the plurality of flying objects based on the position information of the imaging target and the position information of each of the plurality of flying objects. It may have a body selection unit, the request transmission unit may transmit the image request to one or more flying objects selected by the projectile selection unit, and the image acquisition unit may transmit the image request. Depending on the request, the captured image of the imaging target may be acquired while the one or more flying objects monitor the imaging target. The image management device may have a peripheral situation acquisition unit for acquiring the peripheral situation of the image pickup target, and the flying object selection unit monitors the image pickup target based on the peripheral situation of the image pickup target. One or more projectiles may be selected. The projectile selection unit may select one or a plurality of projectiles to monitor the imaging target based on the task level of the task executed by each of the plurality of projectiles.
上記撮像対象特定部は、上記複数の飛翔体のうちの問題が発生した飛翔体を、上記撮像対象として特定してよい。上記撮像対象特定部は、上記複数の飛翔体のうちの衝突事故が発生した飛翔体を、上記撮像対象として特定してよい。上記画像管理装置は、上記複数の飛翔体のいずれかに問題が発生することを予測する問題予測部を有してよく、上記撮像対象特定部は、上記問題予測部によって問題が発生すると予測された飛翔体を上記撮像対象として特定してよい。上記画像取得部は、上記複数の飛翔体のそれぞれによって断続的に送信される撮像画像を取得してよく、上記問題予測部は、上記画像取得部が断続的に取得する撮像画像にさらに基づいて、上記複数の飛翔体のいずれかに衝突事故が発生することを予測してよい。上記画像管理装置は、上記複数の飛翔体が飛行するエリアの気象に関連する気象関連情報を取得する気象関連情報取得部を有してよく、上記問題予測部は、上記気象関連情報にさらに基づいて、上記複数の飛翔体のいずれかに衝突事故が発生することを予測してよい。 The imaging target specifying unit may specify the flying object in which the problem occurs among the plurality of flying objects as the imaging target. The imaging target specifying unit may specify the flying object in which the collision accident has occurred among the plurality of flying objects as the imaging target. The image management device may have a problem prediction unit that predicts that a problem will occur in any of the plurality of flying objects, and the image pickup target identification unit is predicted to cause a problem by the problem prediction unit. The flying object may be specified as the imaging target. The image acquisition unit may acquire captured images intermittently transmitted by each of the plurality of flying objects, and the problem prediction unit is further based on the captured images intermittently acquired by the image acquisition unit. , It may be predicted that a collision accident will occur in any of the above-mentioned plurality of flying objects. The image management device may have a weather-related information acquisition unit that acquires weather-related information related to the weather in the area where the plurality of flying objects fly, and the problem prediction unit is further based on the weather-related information. Therefore, it may be predicted that a collision accident will occur in any of the above-mentioned plurality of flying objects.
上記飛翔体は、上記飛翔体を識別可能な飛翔体識別情報を格納する識別情報格納部と、上記飛翔体の位置情報を取得する位置情報取得部と、上記撮像部によって撮像された撮像画像を格納する画像格納部と、上記飛翔体に対して衝撃が加わったことを検知する衝撃検知部とを有してよく、上記画像送信部は、上記衝撃検知部によって衝撃が検知された場合に、上記衝撃が加わった時刻を含む予め定められた時間範囲内に上記撮像部が撮像した撮像画像に、上記撮像画像を撮像したときの上記飛翔体の位置情報と、上記飛翔体識別情報とを対応付けて外部に無線送信してよい。上記撮像部は、上記飛翔体に搭載された複数のカメラによって撮像された画像を合成することによって上記撮像画像を生成してよい。上記画像送信部は、上記撮像画像に、上記飛翔体が在圏している無線基地局を識別する基地局識別情報を対応付けて外部に無線送信してよい。 The flying object includes an identification information storage unit that stores the flying object identification information that can identify the flying object, a position information acquisition unit that acquires the position information of the flying object, and an image captured by the imaging unit. It may have an image storage unit for storing and an impact detection unit for detecting that an impact has been applied to the flying object, and the image transmission unit may have an impact detection unit when an impact is detected by the impact detection unit. The image captured by the imaging unit within a predetermined time range including the time when the impact is applied corresponds to the position information of the projectile when the captured image is imaged and the projectile identification information. It may be attached and transmitted wirelessly to the outside. The imaging unit may generate the captured image by synthesizing the images captured by a plurality of cameras mounted on the flying object. The image transmission unit may wirelessly transmit the captured image to the outside by associating the base station identification information for identifying the radio base station in which the projectile is located.
本発明の第2の態様によれば、画像管理装置が提供される。画像管理装置は、撮像対象を特定する撮像対象特定部を備えてよい。画像管理装置は、全方位を撮像する撮像部及び撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体のうちの1又は複数の飛翔体に対して、撮像対象の撮像画像を要求する画像要求を送信する要求送信部を備えてよい。画像管理装置は、画像要求に応じて1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部を備えてよい。 According to the second aspect of the present invention, an image management device is provided. The image management device may include an image pickup target identification unit that specifies an image pickup target. The image management device takes an image of one or a plurality of flying objects having an imaging unit that images in all directions and an image transmitting unit that wirelessly transmits the captured image captured by the imaging unit to the outside. A request transmission unit for transmitting an image request for requesting a captured image of an object may be provided. The image management device may include an image acquisition unit that acquires an image captured by at least one or a plurality of projectiles in response to an image request.
本発明の第3の態様によれば、コンピュータを、上記画像管理装置として機能させるためのプログラムが提供される。 According to the third aspect of the present invention, a program for making a computer function as the image management device is provided.
本発明の第4の態様によれば、飛翔体が提供される。飛翔体は、飛翔体を識別可能な飛翔体識別情報を格納する識別情報格納部を備えてよい。飛翔体は、飛翔体の位置情報を取得する位置情報取得部を備えてよい。飛翔体は、全方位を撮像する撮像部を備えてよい。飛翔体は、撮像部によって撮像された撮像画像を格納する画像格納部を備えてよい。飛翔体は、飛翔体に対して衝撃が加わったことを検知する衝撃検知部を備えてよい。飛翔体は、衝撃検知部によって衝撃が検知された場合に、衝撃が加わった時刻を含む予め定められた時間範囲内に撮像部が撮像した撮像画像に、撮像画像を撮像したときの飛翔体の位置情報と、飛翔体識別情報とを対応付けて外部に無線送信する画像送信部を備えてよい。 According to a fourth aspect of the present invention, a flying object is provided. The flying object may include an identification information storage unit that stores the flying object identification information that can identify the flying object. The flying object may include a position information acquisition unit that acquires the position information of the flying object. The projectile may include an imaging unit that captures images in all directions. The projectile may include an image storage unit that stores an image captured by the image pickup unit. The projectile may include an impact detection unit that detects that an impact has been applied to the projectile. When an impact is detected by the impact detection unit, the projectile is the image of the projectile when the image is captured by the image pickup unit within a predetermined time range including the time when the impact is applied. An image transmission unit that wirelessly transmits the position information and the flying object identification information to the outside may be provided.
本発明の第5の態様によれば、コンピュータを、上記飛翔体として機能させるためのプログラムが提供される。 According to a fifth aspect of the present invention, a program for causing a computer to function as the flying object is provided.
なお、上記の発明の概要は、本発明の必要な特徴のすべてを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The outline of the above invention does not list all the necessary features of the present invention. Sub-combinations of these feature groups can also be inventions.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせのすべてが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the inventions that fall within the scope of the claims. Also, not all combinations of features described in the embodiments are essential to the means of solving the invention.
図1は、監視システム10の一例を概略的に示す。本実施形態に係る監視システム10は、全方位を撮像可能な複数の無人航空機100と、複数の無人航空機100によって撮像された撮像画像を取得して管理する飛翔体管理システム200とを備える。無人航空機100は、飛翔体の一例である。無人航空機100は、いわゆるドローンであってよい。
FIG. 1 schematically shows an example of the
無人航空機100は、全方位を撮像可能な撮像部を備える。図1に示す例では、無人航空機100は、カメラ112及びカメラ114を有する。カメラ112及びカメラ114は撮像部の一例であってよい。
The unmanned
カメラ112は、無人航空機100の上面側に設置される。カメラ114は、無人航空機100の下面側に設置される。カメラ112及びカメラ114のそれぞれは、全方位を撮像可能なカメラである。カメラ112及びカメラ114は、全方位カメラ、全天球カメラ、及び360度カメラ等と呼ばれる場合がある。
The
無人航空機100は、カメラ112によって撮像された画像とカメラ114によって撮像された画像とを合成した撮像画像を出力可能である。無人航空機100がカメラ112のみを有する場合、無人航空機100の機体の下方が死角になる。また、無人航空機100がカメラ114のみを有する場合、無人航空機100の機体の上方が死角になる。それに対して、カメラ112によって撮像された画像とカメラ114によって撮像された画像とを合成することによって、より死角の少ない撮像画像を出力することができる。
The unmanned
なお、無人航空機100は、カメラ112及びカメラ114の一方のみを備えてもよい。また、無人航空機100は、3つ以上の全方位カメラを備えてもよい。また、無人航空機100は、いわゆる超広角カメラを複数備えて、複数の超広角カメラによって撮像された画像を合成することによって、全方位の撮像画像を取得してもよい。複数の超広角カメラは、例えば、無人航空機100の機体の各場所に埋め込まれる。
The unmanned
ここでは、飛翔体が無人航空機100である場合の実施形態を主に説明するが、これに限らない。飛翔体の他の例として、無人航空機100と同様に全方位を撮像可能な空飛ぶ車が挙げられる。
Here, the embodiment when the flying object is the unmanned
従来、自動車に搭載されたドライブレコーダが知られている。ドライブレコーダは、主に衝突事故時の証拠保全用機器として普及している。ドライブレコーダによる証拠保全は映像によるものが一般的であり、その効果の高さはよく知られているところである。しかし、空飛ぶ車やドローンについては、従来の航空機と同様に位置測位機能やフライトログによる証拠保全が一般的である。しかし、空飛ぶ車やドローンは、従来の航空機よりもはるかに低空かつ、第三者又は物件に害が及びかねない空域を移動するため、自動車に準じた映像による証拠保全が重要と考えられる。ただし、空飛ぶ車及びドローンは、3次元空間上を移動するため、自動車と違い映像記録も360度必要となる。 Conventionally, a drive recorder mounted on an automobile is known. Drive recorders are widely used mainly as evidence preservation equipment in the event of a collision. Evidence preservation by a drive recorder is generally done by video, and its effectiveness is well known. However, for flying cars and drones, evidence preservation by positioning functions and flight logs is common, as with conventional aircraft. However, since flying cars and drones move in airspace that is much lower than conventional aircraft and may harm third parties or properties, it is considered important to preserve evidence by images similar to automobiles. However, since flying cars and drones move in three-dimensional space, unlike automobiles, video recording is also required at 360 degrees.
本実施形態に係る無人航空機100は、全方位を撮像可能な撮像部を備え、当該撮像部によって撮像された撮像画像を格納する。特に、無人航空機100は、カメラ112によって撮像された画像とカメラ114によって撮像された画像とを合成した撮像画像を出力可能である。これにより、無人航空機100を中心とした死角の少ない全方位の撮像画像を記録することができ、無人航空機100の証拠保全能力を高めることができる。
The unmanned
飛翔体管理システム200は、無人航空機100の飛行管制を行う飛行管制部300と、無人航空機100によって出力された撮像画像を取得して管理する画像管理部400とを備える。飛翔体管理システム200は、画像管理装置の一例であってよい。
The flying
飛翔体管理システム200は、複数の装置によって構成されるシステムであってもよい。例えば、飛行管制部300と画像管理部400とは、それぞれ独立した装置であってよい。この場合、画像管理部400は、画像管理装置の一例であってよい。
The
飛翔体管理システム200と無人航空機100とは、無線基地局30及びネットワーク20を介して通信する。無人航空機100は、無線基地局30に在圏して、無線基地局30を介して飛翔体管理システム200と通信する。無人航空機100が無線基地局30に在圏するとは、無人航空機100が無線基地局30と無線通信接続を確立することであってよい。
The
無線基地局30は、任意の移動体通信システムに準拠していてよい。例えば、無線基地局30は、3G(3rd Generation)通信システム、LTE(Long Term Evolution)通信システム、4G(4th Generation)通信システム、及び5G(5th Generation)通信システム以降の移動体通信システムに準拠する。ネットワーク20は、移動体通信システムにおけるコアネットワークを含む。ネットワーク20は、インターネットを含んでもよい。
The
飛行管制部300は、複数の無人航空機100のそれぞれから断続的に位置情報を受信して、複数の無人航空機100のそれぞれの位置を管理してよい。位置情報は、緯度、経度、及び高度を含んでよい。
The
無人航空機100は、飛行管制部300に対して無人航空機100の位置情報を断続的に送信してよい。位置情報を断続的に送信するとは、位置情報を定期的に送信することであってよい。また、位置情報を断続的に送信するとは、予め定められたスケジュールに従って位置情報を送信することであってもよい。また、位置情報を断続的に送信するとは、予め定められた条件が満たされる毎に位置情報を送信することであってもよい。無人航空機100は、例えば、無人航空機100の位置が予め定められた距離以上変化したことに応じて位置情報を送信する。
The unmanned
飛行管制部300は、複数の無人航空機100のそれぞれに対して位置情報の要求を送信し、要求に応じて複数の無人航空機100のそれぞれが送信した位置情報を受信してもよい。
The
画像管理部400は、撮像対象を特定し、飛行している複数の無人航空機100のうちの1又は複数の無人航空機100に対して撮像対象の撮像画像を要求する画像要求を送信し、画像要求に応じて1又は複数の無人航空機100の少なくともいずれかが送信した撮像画像を取得する。
The
画像管理部400は、例えば、複数の無人航空機100のうちの問題が発生した無人航空機100を撮像対象として特定する。例えば、画像管理部400は、衝突事故を起こした無人航空機100を撮像対象として特定する。
The
次に、画像管理部400は、例えば、特定した撮像対象に関連する撮像対象関連情報と時刻情報とを含む画像要求を複数の無人航空機100に対してブロードキャストする。撮像対象関連情報は、例えば、撮像対象の位置情報を含む。また、撮像対象関連情報は、撮像対象を特定可能な情報を含む。例えば、撮像対象が無人航空機100である場合、撮像対象関連情報は、無人航空機100を識別する無人航空機識別情報を含む。時刻情報は、例えば、衝突事故が発生した時刻を示す。
Next, the
そして、画像管理部400は、例えば、複数の無人航空機100のうち、時刻情報によって示される時刻に撮像対象を撮像して格納していた無人航空機100から撮像画像を受信する。これにより、衝突事故の客観的な撮像画像を取得することができる。このように、無人航空機100の衝突事故を第三者的視点で知得可能にすることで、その後の損害賠償などの証跡に利用することができる。
Then, the
近年、無人航空機の普及が進んでおり、将来的に、例えば、1km2に100台のような多数の無人航空機が飛行することが想定されている。そのような無人航空機のうちの少なくともいずれか又はすべての無人航空機に、無人航空機100と同様の機能を搭載させることによって、あらゆる場所の画像を取得することが可能になり得る。
In recent years, unmanned aerial vehicles have become widespread, and it is expected that a large number of unmanned aerial vehicles , for example, 100 units per 1 km 2, will fly in the future. By equipping at least one or all of such unmanned aerial vehicles with the same functions as the unmanned
図2は、画像管理部400の機能構成の一例を概略的に示す。画像管理部400は、飛翔体情報取得部402、飛翔体情報格納部404、撮像対象特定部410、要求送信部422、画像取得部424、画像格納部426、飛翔体選択部428、周辺状況取得部430、画像送信部432、及び表示制御部434を備える。なお、画像管理部400がこれらのすべての構成を備えることは必須とは限らない。
FIG. 2 schematically shows an example of the functional configuration of the
飛翔体情報取得部402は、無人航空機100に関する飛翔体情報を取得する。飛翔体情報取得部402は、飛行管制部300から、複数の無人航空機100のそれぞれの飛翔体情報を取得してよい。飛翔体情報取得部402は、飛行管制部300によって断続的に送信される飛翔体情報を受信してよい。
The projectile
また、飛翔体情報取得部402は、複数の無人航空機100のそれぞれから、飛翔体情報を受信してもよい。飛翔体情報取得部402は、複数の無人航空機100のそれぞれによって断続的に送信される飛翔体情報を受信してよい。
Further, the projectile
飛翔体情報格納部404は、飛翔体情報取得部402が取得した飛翔体情報を格納する。飛翔体情報格納部404は、飛翔体情報取得部402が断続的に取得した飛翔体情報を格納してよい。
The flying object
飛翔体情報は、無人航空機100の位置情報を含んでよい。飛翔体情報は、無人航空機100の飛行速度を含んでもよい。飛翔体情報は、無人航空機100の飛行方向を含んでもよい。
The projectile information may include the position information of the unmanned
飛翔体情報は、無人航空機100の状態を示す状態情報を含んでもよい。飛翔体情報は、例えば、無人航空機100が有する各構成の状態を示す構成状態情報を含む。飛翔体情報は、例えば、無人航空機100が正常に動作しているか否かを示す動作状態情報を含む。飛翔体情報は、例えば、無人航空機100が、飛行管制部300の制御に従って飛行しているか否かを示す制御状態情報を含む。
The projectile information may include state information indicating the state of the unmanned
撮像対象特定部410は、撮像対象を特定する。撮像対象特定部410は、例えば、複数の無人航空機100のうちの少なくともいずれかを撮像対象として特定する。撮像対象特定部410は、例えば、複数の無人航空機100のうちの問題が発生した無人航空機100を撮像対象として特定する。
The image pickup
例えば、撮像対象特定部410は、衝突事故が発生した無人航空機100を撮像対象として特定する。具体例として、撮像対象特定部410は、無人航空機100同士の衝突事故が発生した場合、衝突した複数の無人航空機100を撮像対象として特定する。また、撮像対象特定部410は、鳥と衝突した無人航空機100を撮像対象として特定してよい。また、撮像対象特定部410は、建物等と衝突した無人航空機100を撮像対象として特定してよい。
For example, the image pickup
また、例えば、撮像対象特定部410は、故障が発生した無人航空機100を撮像対象として特定する。撮像対象特定部410は、例えば、飛行機能に故障が発生した無人航空機100を撮像対象として特定する。
Further, for example, the image pickup
撮像対象特定部410は、複数の無人航空機100以外の無人航空機を撮像対象として特定してもよい。撮像対象特定部410は、例えば、不審な無人航空機を撮像対象として特定する。
The image pickup
撮像対象特定部410は、その他任意の対象を撮像対象として特定してもよい。撮像対象特定部410は、例えば、災害が発生したエリアを撮像対象として特定する。また、撮像対象特定部410は、例えば、火災現場から発生した煙を撮像対象として特定する。
The image pickup
撮像対象特定部410は、指定受付部411、報告情報受信部412、問題予測部413、及び気象関連情報取得部414を有する。撮像対象特定部410がこれらのすべての構成を有することは必須とは限らない。
The image pickup
指定受付部411は、撮像対象の指定を受け付ける。撮像対象特定部410は、指定受付部411が受け付けた指定に従って、撮像対象を特定してよい。
The designated
指定受付部411は、操作部を介して、撮像対象の入力を受け付けてよい。指定受付部411は、例えば、飛翔体管理システム200が有する操作部を介して撮像対象の入力を受け付ける。画像管理部400が独立した装置である場合、指定受付部411は、画像管理部400が有する操作部を介して撮像対象の入力を受け付けてもよい。また、指定受付部411は、通信部を介して、他の装置からの撮像対象の送信を受け付けてもよい。指定受付部411は、例えば、飛翔体管理システム200が有する通信部を介して他の装置からの撮像対象の送信を受け付ける。画像管理部400が独立した装置である場合、指定受付部411は、画像管理部400が有する通信部を介して他の装置からの撮像対象の送信を受け付けてもよい。
The designated
指定受付部411は、例えば、飛翔体管理システム200の管理者等による撮像対象の指定を受け付ける。管理者等は、例えば、無人航空機100に問題が発生したことを知得した場合に、問題が発生した無人航空機100を撮像対象として指定し得る。
The designated
指定受付部411は、さらに時刻情報の指定を受け付けてよい。飛翔体管理システム200の管理者等は、例えば、無人航空機100に問題が発生したことを知得した場合に、問題が発生した時刻を示す時刻情報を指定し得る。
The designated
報告情報受信部412は、無人航空機100によって送信された、無人航空機100に問題が発生したことを報告する報告情報を取得する。撮像対象特定部410は、報告情報受信部412が受信した報告情報に従って、撮像対象を特定してよい。
The report
報告情報は、無人航空機100の無人航空機識別情報を含んでよい。報告情報は、無人航空機100に問題が発生したときの無人航空機100の位置情報を含んでよい。報告情報は、無人航空機100に問題が発生した時刻を示す時刻情報を含んでよい。
The reporting information may include unmanned aerial vehicle identification information for the unmanned
報告情報受信部412は、無人航空機100から報告情報を受信してよい。また、報告情報受信部412は、無人航空機100によって飛行管制部300に対して送信された報告情報を、飛行管制部300から受信してもよい。
The report
無人航空機100は、例えば、衝突事故が発生した場合に、報告情報を飛行管制部300又は画像管理部400に送信する。例えば、無人航空機100は、無人航空機100に対する衝撃を検知する衝撃センサを有し、衝撃センサによって衝撃が検知されたことに応じて、報告情報を飛行管制部300又は画像管理部400に送信する。
The unmanned
また、無人航空機100は、例えば、故障が発生した場合に、報告情報を飛行管制部300又は画像管理部400に送信する。例えば、無人航空機100は、故障を検知したことに応じて、報告情報を飛行管制部300又は画像管理部400に送信する。
Further, the unmanned
問題予測部413は、複数の無人航空機100のいずれかに問題が発生することを予測する。撮像対象特定部410は、問題予測部413によって問題が発生すると予測された無人航空機100を撮像対象として特定してよい。問題予測部413は、飛翔体情報格納部404に格納されている飛翔体情報に基づいて、複数の無人航空機100のいずれかに問題が発生することを予測してよい。
The
問題予測部413は、例えば、複数の無人航空機100のいずれかに衝突事故が発生することを予測する。問題予測部413は、例えば、複数の無人航空機100のそれぞれの位置、飛行速度、及び飛行方向に基づいて、複数の無人航空機100のいずれかに衝突事故が発生することを予測する。問題予測部413は、画像取得部424が取得する、複数の無人航空機100のそれぞれによって断続的に送信される撮像画像にさらに基づいて、複数の無人航空機100のいずれかに衝突事故が発生することを予測してよい。
The
問題予測部413は、複数の無人航空機100のそれぞれの位置、飛行速度、飛行方向、及び動作状態情報に基づいて、複数の無人航空機100のいずれかに衝突事故が発生することを予測してもよい。具体例として、問題予測部413は、動作状態情報が正常に動作していないことを示す無人航空機100が、他の無人航空機100に向かって予め定められた飛行速度よりも速い飛行速度で近づいている場合に、これらの無人航空機100に衝突事故が発生すると予測する。
Even if the
問題予測部413は、複数の無人航空機100のそれぞれの位置、飛行速度、飛行方向、及び制御状態情報に基づいて、複数の無人航空機100のいずれかに衝突事故が発生することを予測してもよい。具体例として、問題予測部413は、制御状態情報が飛行管制部300の制御に従って飛行していないことを示す無人航空機100が、他の無人航空機100に向かって予め定められた飛行速度よりも速い飛行速度で近づいている場合に、これらの無人航空機100に衝突事故が発生すると予測する。
Even if the
問題予測部413は、例えば、複数の無人航空機100のいずれかに故障が発生することを予測する。問題予測部413は、複数の無人航空機100のそれぞれの装置状態情報に基づいて、複数の無人航空機100のいずれかに故障が発生することを予測してよい。
The
気象関連情報取得部414は、複数の無人航空機100が飛行するエリアの気象に関連する気象関連情報を取得する。気象関連情報取得部414は、例えば、上空の各エリアの気象関連情報を提供するサーバから、ネットワーク20を介して、複数の無人航空機100が飛行するエリアの気象関連情報を受信する。問題予測部413は、気象関連情報にさらに基づいて、複数の無人航空機100のいずれかに問題が発生することを予測してもよい。例えば、問題予測部413は、気象関連情報が暴風を示す場合であって、2機の無人航空機100の間の距離が予め定められた距離よりも短い場合に、当該2機の無人航空機100に衝突事故が発生することを予測する。
The weather-related information acquisition unit 414 acquires weather-related information related to the weather in the area where the plurality of unmanned
要求送信部422は、複数の無人航空機100のうちの1又は複数の無人航空機100に対して、撮像対象特定部410によって特定された撮像対象の撮像画像を要求する画像要求を送信する。画像取得部424は、画像要求に応じて1又は複数の無人航空機100の少なくともいずれかが送信した撮像画像を取得する。画像取得部424は、取得した撮像画像を画像格納部426に格納する。
The
要求送信部422は、例えば、複数の無人航空機100に対して、撮像対象関連情報と、過去の時刻を示す時刻情報とを含む画像要求をブロードキャストする。例えば、撮像対象関連情報は、問題が発生した無人航空機100に関連する情報を含み、時刻情報は、無人航空機100に問題が発生した時刻を示す。
The
画像取得部424は、複数の無人航空機100のうち、時刻情報によって示される時刻に、撮像対象関連情報によって特定される撮像対象を撮像して格納していた無人航空機100から、当該時刻に撮像した撮像対象の撮像画像を取得してよい。これにより、問題が発生したときの無人航空機100の様子を示す撮像画像を取得することができる。
The
また、画像取得部424は、例えば、複数の無人航空機100のうち、時刻情報によって示される時刻以降に撮像対象を撮像して格納していた無人航空機100から撮像画像を受信する。これにより、問題が発生したとき以降の無人航空機100の様子を示す撮像画像を取得することができる。
Further, the
また、要求送信部422は、例えば、複数の無人航空機100に対して、撮像対象関連情報と、未来の時刻を示す時刻情報とを含む画像要求をブロードキャストする。例えば、撮像対象関連情報は、問題予測部413によって問題が発生すると予測された無人航空機100に関連する情報を含み、時刻情報は、問題が発生すると予測された時刻を示す。
Further, the
画像取得部424は、複数の無人航空機100のうち、時刻情報によって示される時刻に、撮像対象関連情報によって特定される撮像対象を撮像可能な無人航空機100が画像要求に応じて撮像した撮像対象の撮像画像を取得してよい。これにより、例えば、無人航空機100に問題が発生することが予測された場合に、問題が発生すると予測された時刻の無人航空機100の様子を示す撮像画像を取得することができる。
The
また、画像取得部424は、例えば、複数の無人航空機100のうち、時刻情報によって示される時刻以降に撮像対象を撮像可能な無人航空機100が画像要求に応じて撮像下撮像対象の撮像画像を取得してよい。これにより、例えば、無人航空機100に問題が発生することが予測された場合に、問題が発生すると予測された時刻以降の無人航空機100の様子を示す撮像画像を取得することができる。
Further, in the
飛翔体選択部428は、複数の無人航空機100から、画像要求を送信する対象の1又は複数の無人航空機100を選択する。要求送信部422は、飛翔体選択部428によって選択された1又は複数の無人航空機100に対して画像要求を送信するようにしてもよい。
The
飛翔体選択部428は、例えば、撮像対象の位置に基づいて、複数の無人航空機100から、画像要求を送信する対象の1又は複数の無人航空機100を選択する。例えば、飛翔体選択部428は、撮像対象の位置を撮像可能な範囲を特定し、複数の無人航空機100のうち、特定した範囲内に位置する1又は複数の無人航空機100を選択する。
The
また、例えば、飛翔体選択部428は、撮像対象の位置に基づいて、複数の無線基地局30から無線基地局30を選択し、選択した無線基地局30に在圏している1又は複数の無人航空機100を、画像要求の送信対象として選択する。画像取得部424は、例えば、カバーエリアが、撮像対象の位置情報によって示される位置を含む無線基地局30を選択し得る。これにより、画像要求を送信する対象の無人航空機100の数を適切に低減することができる。これにより、撮像対象の位置からは遠く離れており撮像対象を撮像できない無人航空機100に対して画像要求を送信することによって、当該無人航空機100に対して不必要な処理負荷が発生してしまうことを防止できる。
Further, for example, the flying
飛翔体選択部428は、複数の無人航空機100から、撮像対象を監視させる1又は複数の無人航空機100を選択してもよい。飛翔体選択部428は、例えば、撮像対象の位置情報と、複数の無人航空機100のそれぞれの位置情報とに基づいて、撮像対象を監視させる1又は複数の無人航空機100を選択し得る。
The
要求送信部422は、飛翔体選択部428によって選択された1又は複数の無人航空機100に対して、撮像対象を監視しながら撮像した撮像画像を要求する画像要求を送信してよい。画像取得部424は、当該画像要求に応じて1又は複数の無人航空機100が撮像対象を監視しながら撮像した撮像対象の撮像画像を取得してよい。
The
周辺状況取得部430は、撮像対象の周辺状況を取得する。周辺状況取得部430は、例えば、3次元情報を含む地図情報を予め格納しておき、撮像対象の位置情報と、地図情報とから、撮像対象の周辺状況を取得する。撮像対象の周辺状況は、例えば、撮像対象の周辺に位置する建物等の状況を示す。
The peripheral
飛翔体選択部428は、周辺状況取得部430が取得した周辺状況にさらに基づいて、撮像対象を監視させる1又は複数の無人航空機100を選択してよい。飛翔体選択部428は、例えば、撮像対象との間に建物等が存在することによって、撮像対象が死角となってしまう無人航空機100を除外して、撮像対象を監視させる1又は複数の無人航空機100を選択する。
The
飛翔体選択部428は、複数の無人航空機100のそれぞれが実行しているタスクのタスクレベルにさらに基づいて、撮像対象を監視させる1又は複数の無人航空機100を選択してもよい。飛翔体選択部428は、例えば、複数の無人航空機100のうち、タスクを実行していない又は実行しているタスクのタスクレベルが予め定められたレベルよりも低い無人航空機100から、撮像対象を監視させる1又は複数の無人航空機100を選択する。飛翔体選択部428は、例えば、複数のタスクと、それぞれのタスクのタスクレベルとが登録されたタスクレベル情報を予め格納しておき、当該タスクレベル情報を参照することによって、レベルの高低を判定し得る。
The
画像送信部432は、画像格納部426に格納されている撮像画像を送信する。画像送信部432は、例えば、警察及び保険会社等の外部からの、位置情報、無人航空機識別情報、及び時刻情報等をキーとした要求に基づいて、画像格納部426に格納されている撮像画像を送信する。
The
表示制御部434は、画像格納部426に格納されている撮像画像を、画像管理部400が備えるディスプレイ等に表示させるよう制御する。表示制御部434は、例えば、位置情報、無人航空機識別情報、及び時刻情報等をキーとした要求に基づいて、画像格納部426に格納されている撮像画像を表示させる。
The
図3は、画像管理部400による処理の流れの一例を概略的に示す。ここでは、撮像対象を特定してから、撮像画像を送信するまでの処理の流れの一例について説明する。
FIG. 3 schematically shows an example of the processing flow by the
ステップ(ステップをSと省略して記載する場合がある。)102では、撮像対象特定部410が撮像対象と時刻情報とを特定する。撮像対象特定部410は、例えば、警察及び保険会社等の外部から指定された、無人航空機100の衝突事故が発生した位置を示す位置情報又は当該無人航空機100の無人航空機識別情報と、事故が発生した時刻とに従って、撮像対象と時刻情報とを特定する。
In step 102 (the step may be abbreviated as S) 102, the imaging
S104では、要求送信部422が、S102において特定された撮像対象の撮像対象関連情報と、時刻情報とを含む画像要求を複数の無人航空機100に対してブロードキャストする。S106では、画像取得部424が、複数の無人航空機100のうちのいずれかが画像要求に応じて送信した撮像画像を受信して、画像格納部426に格納する。
In S104, the
S108では、画像要求をブロードキャストしてから、予め設定された設定時間が経過したか否かを、画像送信部432が判定する。当該設定時間は任意に設定可能であってよく、変更可能であってよい。経過していないと判定した場合、S106に戻り、経過したと判定した場合、S110に進む。S110では、画像送信部432が、S106において画像格納部426に格納された撮像画像を、警察及び保険会社等の外部に対して送信する。
In S108, the
図4は、画像管理部400による処理の流れの一例を概略的に示す。ここでは、図3と異なる点を主に説明する。
FIG. 4 schematically shows an example of the processing flow by the
S202では、撮像対象特定部410が撮像対象と時刻情報とを特定する。S204では、飛翔体選択部428が、複数の無人航空機100から、画像要求を送信する対象の1又は複数の無人航空機100を選択する。
In S202, the imaging
S206では、要求送信部422が、S204において選択された1又は複数の無人航空機100に対して画像要求を送信する。S208では、画像取得部424が、画像要求を送信した1又は複数の無人航空機100のいずれかが画像要求に応じて送信した撮像画像を受信して、画像格納部426に格納する。
In S206, the
S210では、画像要求を送信してから、予め設定された設定時間が経過したか否かを、画像送信部432が判定する。経過していないと判定した場合、S208に戻り、経過したと判定した場合、S212に進む。S212では、画像送信部432が、S208において画像格納部426に格納された撮像画像を、警察及び保険会社等の外部に対して送信する。
In S210, the
図5は、無人航空機100の構成の一例を概略的に示す。無人航空機100は、本体部102、プロペラ104、脚部106、カメラ112、及びカメラ114を備える。
FIG. 5 schematically shows an example of the configuration of the unmanned
本体部102は、センサ群120、通信装置130、及び制御装置140を有する。センサ群120は、GNSSユニット121、加速度センサ122、ジャイロセンサ123、及び衝突センサ124を含む。
The
GNSSユニット121は、無人航空機100の位置を特定して、位置情報を出力する。加速度センサ122は、加速度を検出する。ジャイロセンサ123は、角速度を検出する。衝突センサ124は、無人航空機100への衝撃を検出する。
The
通信装置130は、無線基地局30を介した通信を実行する。通信装置130は、無線基地局30に在圏して、無線基地局30を介して飛翔体管理システム200と通信する。
The
制御装置140は、各種制御を実行する。制御装置140は、センサ群120から出力される情報を用いて、無人航空機100の飛行制御を実行する。また、制御装置140は、通信装置130が飛翔体管理システム200から画像要求を受信した場合に、状況に応じて、カメラ112及びカメラ114によって撮像された撮像画像を、飛翔体管理システム200に対して通信装置130に送信させる。
The
図6は、制御装置140の機能構成の一例を概略的に示す。制御装置140は、識別情報格納部142、飛行情報格納部144、センサ情報取得部146、画像取得部148、撮像画像生成部150、撮像画像格納部152、飛行制御部154、画像要求取得部156、画像送信部158、衝撃検知部160、及び報告情報送信部162を備える。なお、制御装置140がこれらのすべての構成を備えることは必須とは限らない。
FIG. 6 schematically shows an example of the functional configuration of the
識別情報格納部142は、無人航空機100の無人航空機識別情報を格納する。識別情報格納部142は、例えば、無人航空機100の製造時に無人航空機識別情報を格納する。また、識別情報格納部142は、通信装置130が飛翔体管理システム200から受信した無人航空機識別情報を格納する。
The identification
飛行情報格納部144は、無人航空機100の飛行に関する飛行情報を格納する。飛行情報は、無人航空機100の飛行予定ルートを含む。飛行情報は、無人航空機100が実行するタスクに関するタスク関連情報を含んでよい。無人航空機100が実行するタスクの例としては、荷物の搬送タスクや、監視対象を監視する監視タスク等が挙げられる。飛行情報格納部144は、通信装置130が飛行管制部300から受信した飛行情報を格納してよい。
The flight
飛行情報格納部144は、他の無人航空機100に関する情報を格納してよい。飛行情報格納部144は、例えば、他の無人航空機100の位置情報を格納する。また、飛行情報格納部144は、他の無人航空機100の飛行速度及び飛行方向を格納してもよい。飛行情報格納部144は、通信装置130が飛行管制部300から受信した他の無人航空機100の情報を格納してよい。
The flight
センサ情報取得部146は、センサ群120によって出力されたセンサ情報を取得する。センサ情報取得部146は、GNSSユニット121によって出力された位置情報を取得してよい。センサ情報取得部146は、加速度センサ122によって出力された加速度を取得してよい。センサ情報取得部146は、ジャイロセンサ123によって出力された角速度を取得してよい。センサ情報取得部146は、衝突センサ124によって出力された、無人航空機100に衝撃が加わったことを示す情報を取得してよい。
The sensor
画像取得部148は、カメラ112及びカメラ114によって撮像された画像を取得する。画像取得部148は、カメラ112及びカメラ114によって撮像された画像と、飛行情報格納部144に格納されている他の無人航空機100の情報とから、画像内の無人航空機100を識別して、画像内の無人航空機100に、当該無人航空機100の無人航空機識別情報を対応付けてよい。
The
撮像画像生成部150は、カメラ112によって撮像された画像と、カメラ114によって撮像された画像とを合成する。撮像画像生成部150は、合成した撮像画像を撮像画像格納部152に格納する。撮像画像格納部152は、撮像画像内の無人航空機100に対して、無人航空機識別情報を対応付けてよい。
The captured
飛行制御部154は、無人航空機100の飛行を制御する。飛行制御部154は、センサ情報取得部146によって取得されるセンサ情報と、画像取得部148によって取得される画像とを用いて、飛行情報格納部144に格納されている飛行情報が示す飛行予定ルートを飛行するように無人航空機100の飛行を制御してよい。
The
画像要求取得部156は、画像要求を取得する。画像要求取得部156は、通信装置130が画像管理部400から受信した画像要求を取得する。
The image
画像送信部158は、画像要求取得部156が取得した画像要求に基づいて、撮像画像格納部152に格納されている撮像画像を飛翔体管理システム200に送信する。画像送信部158は、例えば、画像要求に含まれる時刻情報が示す時刻に、画像要求に含まれる撮像対象関連情報によって特定される撮像対象を撮像した撮像画像が撮像画像格納部152に格納されている場合に、当該撮像画像を画像管理部400に送信する。
The
また、画像送信部158は、例えば、画像要求に含まれる時刻情報が示す時刻に、画像要求に含まれる撮像対象関連情報によって特定される撮像対象を撮像可能である場合に、当該時刻に当該撮像対象を撮像した撮像画像を画像管理部400に送信する。画像送信部158は、例えば、無人航空機100の飛行予定ルートを参照して、時刻情報が示す時刻に、撮像対象を撮像可能な位置に無人航空機100が位置するか否かを判定し、位置すると判定した場合、撮像可能であると判定する。
Further, for example, when the
画像要求取得部156が、撮像対象を監視して撮像対象の撮像画像を送信することを要求する画像要求を受信した場合、飛行制御部154は、無人航空機100が撮像対象を監視可能な位置にいない場合には、監視可能な位置まで移動させ、撮像対象を撮像可能な範囲を飛行するよう無人航空機100の飛行を制御する。そして、画像送信部158は、撮像画像格納部152に格納される撮像対象を含む撮像画像を飛行管制部300に送信する。
When the image
画像要求取得部156が、撮像対象を監視して撮像対象の撮像画像を送信することを要求する画像要求を受信した場合、飛行制御部154は、撮像対象を監視可能であるか否かを判定して、監視可能と判定した場合に、撮像対象の監視を開始してもよい。飛行制御部154は、例えば、無人航空機100がタスクを実行していない場合、無人航空機100が実行している実行タスクのタスクレベルが、撮像対象を撮像する撮像タスクのタスクレベルよりも低い場合に、監視可能と判定する。
When the image
衝撃検知部160は、無人航空機100に衝撃が加わったことを検知する。衝撃検知部160は、センサ情報取得部146から、衝突センサ124によって出力された無人航空機100に衝撃が加わったことを示す情報を受信した場合に、無人航空機100に衝撃が加わったことを検知する。
The
報告情報送信部162は、衝撃検知部160によって無人航空機100に衝撃が加わったことが検知された場合に、無人航空機100の無人航空機識別情報を含む報告情報を飛翔体管理システム200に送信する。
When the
画像送信部158は、衝撃検知部160によって無人航空機100に衝撃が加わったことが検知された場合に、衝撃が加わった時刻を含む予め定められた時間範囲内にカメラ112及びカメラ114によって撮像され、撮像画像生成部150によって生成された撮像画像を撮像画像格納部152から読み出し、撮像したときの位置情報と、無人航空機識別情報とを対応付けて外部に無線送信してよい。画像送信部158は、これらを飛行管制部300に対して送信してよい。画像送信部158は、撮像画像に、無人航空機100が在圏している無線基地局30の基地局識別情報を対応付けて送信してもよい。
When the
図7は、制御装置140による処理の流れの一例を概略的に示す。図7は、衝撃検知部160によって無人航空機100に衝撃が加わったことが検知された場合に、制御装置140が実行する処理を示す。
FIG. 7 schematically shows an example of the processing flow by the
S302では、衝撃検知部160が衝撃を検知してから予め設定された設定時間が経過したか否かを判定する。当該設定時間は任意に設定可能であってよく、変更可能であってよい。経過したと判定した場合、S304に進む。
In S302, it is determined whether or not a preset set time has elapsed since the
S304では、画像送信部158が、衝撃前後の予め設定された時間範囲内の撮像画像を撮像画像格納部152から取得する。当該時間範囲は任意に設定可能であってよく、変更可能であってよい。
In S304, the
S306では、画像送信部158が、S304において取得した撮像画像に、無人航空機100の無人航空機識別情報を対応付けて、画像管理部400に対して送信する。画像送信部158はS306以降、断続的に撮像画像を画像管理部400に対して送信してもよい。
In S306, the
図8は、飛翔体管理システム200、画像管理部400、又は制御装置140として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
FIG. 8 schematically shows an example of a hardware configuration of a
本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボードのようなレガシの入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
The
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
The
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
The
プログラムは、ICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
The program is provided by a computer-readable storage medium such as an IC card. The program is read from a computer-readable storage medium, installed in a
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
For example, when communication is executed between the
また、CPU1212は、記憶装置1224、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
Further, the
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
Various types of information such as various types of programs, data, tables, and databases may be stored in recording media and processed. The
上で説明したプログラム又はソフトウエアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
The program or software module described above may be stored on a
本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowchart and block diagram of this embodiment may represent a stage of the process in which the operation is performed or a "part" of the device responsible for performing the operation. Specific stages and "parts" are supplied with dedicated circuits, programmable circuits supplied with computer-readable instructions stored on computer-readable storage media, and / or computer-readable instructions stored on computer-readable storage media. It may be implemented by the processor. Dedicated circuits may include digital and / or analog hardware circuits, and may include integrated circuits (ICs) and / or discrete circuits. Programmable circuits include logical products, logical sums, exclusive logical sums, negative logical products, negative logical sums, and other logical operations, such as, for example, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), and the like. , Flip-flops, registers, and reconfigurable hardware circuits, including memory elements.
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD−ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 The computer-readable storage medium may include any tangible device capable of storing instructions executed by the appropriate device, so that the computer-readable storage medium having the instructions stored therein is in a flow chart or block diagram. It will be equipped with a product that contains instructions that can be executed to create means for performing the specified operation. Examples of the computer-readable storage medium may include an electronic storage medium, a magnetic storage medium, an optical storage medium, an electromagnetic storage medium, a semiconductor storage medium, and the like. More specific examples of computer-readable storage media include floppy (registered trademark) disks, diskettes, hard disks, random access memory (RAM), read-only memory (ROM), and erasable programmable read-only memory (EPROM or flash memory). , Electrically Erasable Programmable Read Only Memory (EEPROM), Static Random Access Memory (SRAM), Compact Disc Read Only Memory (CD-ROM), Digital Versatile Disc (DVD), Blu-ray® Disc, Memory Stick , Integrated circuit cards and the like may be included.
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 Computer-readable instructions are assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state-setting data, or object-oriented programming such as Smalltalk, JAVA®, C ++, etc. Contains either source code or object code written in any combination of one or more programming languages, including languages and traditional procedural programming languages such as the "C" programming language or similar programming languages. good.
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer-readable instructions are used to generate means for a general-purpose computer, a special-purpose computer, or the processor of another programmable data processing device, or a programmable circuit, to perform an operation specified in a flowchart or block diagram. General purpose computers, special purpose computers, or other programmable data processing locally or via a wide area network (WAN) such as the local area network (LAN), the Internet, etc., to execute the computer-readable instructions. It may be provided in the processor of the device or in a programmable circuit. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers and the like.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. It is clear from the description of the claims that such modified or improved forms may also be included in the technical scope of the present invention.
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operation, procedure, step, and step in the device, system, program, and method shown in the claims, specification, and drawings is particularly "before" and "prior to". It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Even if the scope of claims, the specification, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it means that it is essential to carry out in this order. It's not a thing.
10 監視システム、20 ネットワーク、30 無線基地局、100 無人航空機、102 本体部、104 プロペラ、106 脚部、112 カメラ、114 カメラ、120 センサ群、121 GNSSユニット、122 加速度センサ、123 ジャイロセンサ、124 衝突センサ、130 通信装置、140 制御装置、142 識別情報格納部、144 飛行情報格納部、146 センサ情報取得部、148 画像取得部、150 撮像画像生成部、152 撮像画像格納部、154 飛行制御部、156 画像要求取得部、158 画像送信部、160 衝撃検知部、162 報告情報送信部、200 飛翔体管理システム、300 飛行管制部、400 画像管理部、402 飛翔体情報取得部、404 飛翔体情報格納部、410 撮像対象特定部、411 指定受付部、412 報告情報受信部、413 問題予測部、414 気象関連情報取得部、422 要求送信部、424 画像取得部、426 画像格納部、428 飛翔体選択部、430 周辺状況取得部、432 画像送信部、434 表示制御部、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1230 ROM、1240 入出力チップ 10 surveillance system, 20 networks, 30 radio base stations, 100 unmanned aircraft, 102 body, 104 propellers, 106 legs, 112 cameras, 114 cameras, 120 sensor groups, 121 GNSS units, 122 acceleration sensors, 123 gyro sensors, 124 Collision sensor, 130 communication device, 140 control device, 142 identification information storage unit, 144 flight information storage unit, 146 sensor information acquisition unit, 148 image acquisition unit, 150 image capture image generation unit, 152 image capture image storage unit, 154 flight control unit , 156 image request acquisition unit, 158 image transmission unit, 160 impact detection unit, 162 report information transmission unit, 200 flying object management system, 300 flight control unit, 400 image management unit, 402 flying object information acquisition unit, 404 flying object information Storage unit, 410 Imaging target identification unit, 411 Designated reception unit, 412 Report information reception unit, 413 Problem prediction unit, 414 Meteorological information acquisition unit, 422 Request transmission unit, 424 Image acquisition unit, 426 Image storage unit, 428 Flying object Selection unit, 430 peripheral status acquisition unit, 432 image transmission unit, 434 display control unit, 1200 computer, 1210 host controller, 1212 CPU, 1214 RAM, 1216 graphic controller, 1218 display device, 1220 input / output controller, 1222 communication interface, 1224 Storage device, 1230 ROM, 1240 input / output chip
Claims (23)
前記複数の飛翔体によって送信された撮像画像を取得して管理する画像管理装置と
を備え、
前記画像管理装置は、
撮像対象を特定する撮像対象特定部と、
前記複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、
前記画像要求に応じて前記1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部と
を有し、
前記要求送信部は、前記撮像対象に関する撮像対象関連情報と時刻情報とを含む前記画像要求を前記複数の飛翔体に送信し、
前記画像取得部は、前記複数の飛翔体のうち、前記時刻情報によって示される時刻に前記撮像対象を撮像した撮像画像を格納していた飛翔体から、前記撮像画像を取得する、
監視システム。 A plurality of flying objects having an image pickup unit that images in all directions and an image transmission unit that wirelessly transmits the image captured by the image pickup unit to the outside.
It is equipped with an image management device that acquires and manages captured images transmitted by the plurality of flying objects.
The image management device is
An image pickup target identification part that specifies an image pickup target, and
A request transmission unit that transmits an image request for requesting an image to be imaged to one or more of the plurality of flying objects.
Wherein the one or more at least one of projectile have a an image acquiring unit that acquires a captured image transmitted in response to the image request,
The request transmission unit transmits the image request including the image pickup target-related information and the time information regarding the image pickup target to the plurality of flying objects.
The image acquisition unit acquires the captured image from the flying object that stores the captured image of the imaging target at the time indicated by the time information among the plurality of flying objects.
Monitoring system.
前記複数の飛翔体によって送信された撮像画像を取得して管理する画像管理装置と
を備え、
前記画像管理装置は、
撮像対象を特定する撮像対象特定部と、
前記複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、
前記画像要求に応じて前記1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部と
を有し、
前記要求送信部は、前記撮像対象に関する撮像対象関連情報と時刻情報とを含む前記画像要求を前記複数の飛翔体に送信し、
前記画像取得部は、前記複数の飛翔体のうち、前記時刻情報によって示される時刻に前記撮像対象を撮像可能な飛翔体が前記画像要求に応じて撮像した前記撮像対象の撮像画像を取得する、監視システム。 A plurality of flying objects having an image pickup unit that images in all directions and an image transmission unit that wirelessly transmits the image captured by the image pickup unit to the outside.
An image management device that acquires and manages captured images transmitted by the plurality of flying objects.
With
The image management device is
An image pickup target identification part that specifies an image pickup target, and
A request transmission unit that transmits an image request for requesting an image to be imaged to one or more of the plurality of flying objects.
An image acquisition unit that acquires an image captured by at least one of the one or a plurality of flying objects in response to the image request.
Have,
The request transmission unit transmits the image request including the image pickup target-related information and the time information regarding the image pickup target to the plurality of flying objects.
The image acquisition unit acquires an image of the imaging target captured by the flying object capable of imaging the imaging target at the time indicated by the time information among the plurality of flying objects in response to the image request . monitoring system.
前記撮像対象の位置に基づいて、前記複数の飛翔体から、前記画像要求を送信する対象の1又は複数の飛翔体を選択する飛翔体選択部
を有し、
前記要求送信部は、前記飛翔体選択部によって選択された1又は複数の飛翔体に対して前記画像要求を送信する、請求項1又は2に記載の監視システム。 The image management device is
It has a flying object selection unit that selects one or a plurality of flying objects to which the image request is transmitted from the plurality of flying objects based on the position of the imaging target.
The monitoring system according to claim 1 or 2 , wherein the request transmitting unit transmits the image request to one or a plurality of flying objects selected by the flying object selection unit.
前記飛翔体選択部は、前記撮像対象の位置に基づいて前記複数の無線基地局から選択した無線基地局に在圏している飛翔体を選択する、請求項3に記載の監視システム。 Each of the plurality of projectiles is located in one of the plurality of radio base stations and communicates with the image management device via the radio base stations in the service area.
The monitoring system according to claim 3 , wherein the flying object selection unit selects a flying object in the radio base station selected from the plurality of radio base stations based on the position of the imaging target.
前記複数の飛翔体によって送信された撮像画像を取得して管理する画像管理装置と
を備え、
前記画像管理装置は、
撮像対象を特定する撮像対象特定部と、
前記撮像対象の位置情報と前記複数の飛翔体のそれぞれの位置情報とに基づいて、前記複数の飛翔体から前記撮像対象を監視させる1又は複数の飛翔体を選択する飛翔体選択部と、
前記飛翔体選択部によって選択された1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、
前記画像要求に応じて前記1又は複数の飛翔体が前記撮像対象を監視しながら撮像して送信した前記撮像対象の撮像画像を取得する画像取得部と
を備える監視システム。 A plurality of flying objects having an image pickup unit that images in all directions and an image transmission unit that wirelessly transmits the image captured by the image pickup unit to the outside.
An image management device that acquires and manages captured images transmitted by the plurality of flying objects.
With
The image management device is
An image pickup target identification part that specifies an image pickup target, and
A flying object selection unit that selects one or a plurality of flying objects for monitoring the imaging target from the plurality of flying objects based on the position information of the imaging target and the respective position information of the plurality of flying objects .
A request transmitting unit that transmits an image request requesting an image to be imaged to one or a plurality of flying objects selected by the flying object selection unit, and a request transmitting unit .
An image acquisition unit that acquires an image captured by the imaged object, which is captured and transmitted by the one or more projectiles while monitoring the imaged object in response to the image request.
Monitoring system that includes a.
前記撮像対象の周辺状況を取得する周辺状況取得部
を有し、
前記飛翔体選択部は、前記撮像対象の周辺状況にさらに基づいて、前記撮像対象を監視させる前記1又は複数の飛翔体を選択する、請求項5に記載の監視システム。 The image management device is
It has a peripheral condition acquisition unit that acquires the peripheral condition of the imaging target.
The monitoring system according to claim 5 , wherein the flying object selection unit selects the one or a plurality of flying objects to monitor the imaging target based on the surrounding conditions of the imaging target.
前記複数の飛翔体によって送信された撮像画像を取得して管理する画像管理装置と
を備え、
前記画像管理装置は、
撮像対象を特定する撮像対象特定部と、
前記複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、
前記画像要求に応じて前記1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部と
を有し、
前記撮像対象特定部は、前記複数の飛翔体のうちの問題が発生した飛翔体を、前記撮像対象として特定する、監視システム。 A plurality of flying objects having an image pickup unit that images in all directions and an image transmission unit that wirelessly transmits the image captured by the image pickup unit to the outside.
An image management device that acquires and manages captured images transmitted by the plurality of flying objects.
With
The image management device is
An image pickup target identification part that specifies an image pickup target, and
A request transmission unit that transmits an image request for requesting an image to be imaged to one or more of the plurality of flying objects.
An image acquisition unit that acquires an image captured by at least one of the one or a plurality of flying objects in response to the image request.
Have,
The imaging target specifying unit, a projectile problems of the plurality of projectile occurs, is identified as the imaging target, monitoring system.
前記複数の飛翔体によって送信された撮像画像を取得して管理する画像管理装置と
を備え、
前記画像管理装置は、
前記複数の飛翔体のいずれかに問題が発生することを予測する問題予測部と、
前記問題予測部によって問題が発生すると予測された飛翔体を撮像対象として特定する撮像対象特定部と、
前記複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、
前記画像要求に応じて前記1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部と
を有する、
監視システム。 A plurality of flying objects having an image pickup unit that images in all directions and an image transmission unit that wirelessly transmits the image captured by the image pickup unit to the outside.
An image management device that acquires and manages captured images transmitted by the plurality of flying objects.
With
The image management device is
A problem prediction unit that predicts that a problem will occur in any of the plurality of projectiles ,
An imaging target specifying unit that identifies a flying object predicted to cause a problem by the problem predicting unit as an imaging target,
A request transmission unit that transmits an image request for requesting an image to be imaged to one or more of the plurality of flying objects.
An image acquisition unit that acquires an image captured by at least one of the one or a plurality of flying objects in response to the image request.
Have ,
Monitoring system.
前記問題予測部は、前記画像取得部が断続的に取得する撮像画像にさらに基づいて、前記複数の飛翔体のいずれかに衝突事故が発生することを予測する、請求項10に記載の監視システム。 The image acquisition unit acquires captured images intermittently transmitted by each of the plurality of flying objects.
The monitoring system according to claim 10 , wherein the problem prediction unit predicts that a collision accident will occur in any of the plurality of flying objects based on the captured images intermittently acquired by the image acquisition unit. ..
前記複数の飛翔体が飛行するエリアの気象に関連する気象関連情報を取得する気象関連情報取得部
を有し、
前記問題予測部は、前記気象関連情報にさらに基づいて、前記複数の飛翔体のいずれかに衝突事故が発生することを予測する、請求項10又は11に記載の監視システム。 The image management device is
It has a weather-related information acquisition unit that acquires weather-related information related to the weather in the area where the plurality of flying objects fly.
The monitoring system according to claim 10 or 11 , wherein the problem prediction unit predicts that a collision accident will occur in any of the plurality of flying objects based on the weather-related information.
前記複数の飛翔体によって送信された撮像画像を取得して管理する画像管理装置と
を備え、
前記画像管理装置は、
撮像対象を特定する撮像対象特定部と、
前記複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、
前記画像要求に応じて前記1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部と
を有し、
前記飛翔体は、
前記飛翔体を識別可能な飛翔体識別情報を格納する識別情報格納部と、
前記飛翔体の位置情報を取得する位置情報取得部と、
前記撮像部によって撮像された撮像画像を格納する画像格納部と、
前記飛翔体に対して衝撃が加わったことを検知する衝撃検知部と
を有し、
前記画像送信部は、前記衝撃検知部によって衝撃が検知された場合に、前記衝撃が加わった時刻を含む予め定められた時間範囲内に前記撮像部が撮像した撮像画像に、前記撮像画像を撮像したときの前記飛翔体の位置情報と、前記飛翔体識別情報とを対応付けて外部に無線送信する、監視システム。 A plurality of flying objects having an image pickup unit that images in all directions and an image transmission unit that wirelessly transmits the image captured by the image pickup unit to the outside.
An image management device that acquires and manages captured images transmitted by the plurality of flying objects.
With
The image management device is
An image pickup target identification part that specifies an image pickup target, and
A request transmission unit that transmits an image request for requesting an image to be imaged to one or more of the plurality of flying objects.
An image acquisition unit that acquires an image captured by at least one of the one or a plurality of flying objects in response to the image request.
Have,
The projectile is
An identification information storage unit that stores the flying object identification information capable of identifying the flying object, and an identification information storage unit.
A position information acquisition unit that acquires the position information of the flying object, and
An image storage unit that stores an image captured by the image pickup unit, and an image storage unit.
It has an impact detection unit that detects that an impact has been applied to the projectile.
When an impact is detected by the impact detection unit, the image transmission unit captures the captured image on the captured image captured by the imaging unit within a predetermined time range including the time when the impact is applied. wherein the position information of the projectile, and wirelessly transmitted to the outside in association with the flying object identification information, monitoring system when the.
全方位を撮像する撮像部及び前記撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、
前記画像要求に応じて1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部と
を備え、
前記要求送信部は、前記撮像対象に関する撮像対象関連情報と時刻情報とを含む前記画像要求を前記複数の飛翔体に送信し、
前記画像取得部は、前記複数の飛翔体のうち、前記時刻情報によって示される時刻に前記撮像対象を撮像した撮像画像を格納していた飛翔体から、前記撮像画像を取得する、
画像管理装置。 An image pickup target identification part that specifies an image pickup target, and
Imaging of the imaging target for one or more of a plurality of flying objects having an imaging unit that images in all directions and an image transmitting unit that wirelessly transmits the image captured by the imaging unit to the outside. A request transmitter that sends an image request to request an image,
It is provided with an image acquisition unit that acquires an image captured by at least one or a plurality of projectiles in response to the image request .
The request transmission unit transmits the image request including the image pickup target-related information and the time information regarding the image pickup target to the plurality of flying objects.
The image acquisition unit acquires the captured image from the flying object that stores the captured image of the imaging target at the time indicated by the time information among the plurality of flying objects.
Image management device.
全方位を撮像する撮像部及び前記撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、Imaging of the imaging target for one or more of a plurality of flying objects having an imaging unit that images in all directions and an image transmitting unit that wirelessly transmits the image captured by the imaging unit to the outside. A request transmitter that sends an image request to request an image,
前記画像要求に応じて1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部とAn image acquisition unit that acquires an image captured by at least one or a plurality of projectiles in response to the image request.
を備え、With
前記要求送信部は、前記撮像対象に関する撮像対象関連情報と時刻情報とを含む前記画像要求を前記複数の飛翔体に送信し、The request transmission unit transmits the image request including the image pickup target-related information and the time information regarding the image pickup target to the plurality of flying objects.
前記画像取得部は、前記複数の飛翔体のうち、前記時刻情報によって示される時刻に前記撮像対象を撮像可能な飛翔体が前記画像要求に応じて撮像した前記撮像対象の撮像画像を取得する、The image acquisition unit acquires an image of the imaging target captured by the flying object capable of imaging the imaging target at the time indicated by the time information among the plurality of flying objects in response to the image request.
画像管理装置。Image management device.
前記撮像対象の位置情報と、全方位を撮像する撮像部及び前記撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体のそれぞれの位置情報とに基づいて、前記複数の飛翔体から前記撮像対象を監視させる1又は複数の飛翔体を選択する飛翔体選択部と、Based on the position information of the imaging target and the position information of each of a plurality of flying objects having an imaging unit that images in all directions and an image transmitting unit that wirelessly transmits the image captured by the imaging unit to the outside. A projectile selection unit that selects one or a plurality of projectiles for monitoring the imaging target from the plurality of projectiles, and a projectile selection unit.
前記飛翔体選択部によって選択された1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、A request transmitting unit that transmits an image request requesting an image to be imaged to one or a plurality of flying objects selected by the flying object selection unit, and a request transmitting unit.
前記画像要求に応じて前記1又は複数の飛翔体が前記撮像対象を監視しながら撮像して送信した前記撮像対象の撮像画像を取得する画像取得部とAn image acquisition unit that acquires an image captured by the imaged object, which is captured and transmitted by the one or more projectiles while monitoring the imaged object in response to the image request.
を備える画像管理装置。An image management device including.
全方位を撮像する撮像部及び前記撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、Imaging of the imaging target for one or more of a plurality of flying objects having an imaging unit that images in all directions and an image transmitting unit that wirelessly transmits the image captured by the imaging unit to the outside. A request transmitter that sends an image request to request an image,
前記画像要求に応じて1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部とAn image acquisition unit that acquires an image captured by at least one or a plurality of projectiles in response to the image request.
を備え、With
前記撮像対象特定部は、前記複数の飛翔体のうちの問題が発生した飛翔体を、前記撮像対象として特定する、画像管理装置。The imaging target specifying unit is an image management device that identifies a flying object in which a problem has occurred among the plurality of flying objects as the imaging target.
前記問題予測部によって問題が発生すると予測された飛翔体を撮像対象として特定する撮像対象特定部と、An imaging target specifying unit that identifies a flying object predicted to cause a problem by the problem predicting unit as an imaging target,
前記複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、A request transmission unit that transmits an image request for requesting an image to be imaged to one or more of the plurality of flying objects.
前記画像要求に応じて1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部とAn image acquisition unit that acquires an image captured by at least one or a plurality of projectiles in response to the image request.
を備える画像管理装置。An image management device including.
前記飛翔体を識別可能な飛翔体識別情報を格納する識別情報格納部と、
前記飛翔体の位置情報を取得する位置情報取得部と、
全方位を撮像する撮像部と、
前記撮像部によって撮像された撮像画像を格納する画像格納部と、
前記飛翔体に対して衝撃が加わったことを検知する衝撃検知部と、
前記衝撃検知部によって衝撃が検知された場合に、前記衝撃が加わった時刻を含む予め定められた時間範囲内に前記撮像部が撮像した撮像画像に、前記撮像画像を撮像したときの前記飛翔体の位置情報と、前記飛翔体識別情報とを対応付けて外部に無線送信する画像送信部と
を備える飛翔体。 It ’s a flying object,
An identification information storage unit that stores the flying object identification information capable of identifying the flying object, and an identification information storage unit.
A position information acquisition unit that acquires the position information of the flying object, and
An imaging unit that captures all directions and
An image storage unit that stores an image captured by the image pickup unit, and an image storage unit.
An impact detection unit that detects that an impact has been applied to the projectile,
When an impact is detected by the impact detection unit, the flying object when the captured image is captured on the captured image captured by the imaging unit within a predetermined time range including the time when the impact is applied. A flying object including an image transmitting unit that wirelessly transmits the position information of the above to the outside in association with the flying object identification information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019101844A JP6934913B2 (en) | 2019-05-30 | 2019-05-30 | Surveillance systems, image management devices, flying objects, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019101844A JP6934913B2 (en) | 2019-05-30 | 2019-05-30 | Surveillance systems, image management devices, flying objects, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020198477A JP2020198477A (en) | 2020-12-10 |
JP6934913B2 true JP6934913B2 (en) | 2021-09-15 |
Family
ID=73648191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019101844A Active JP6934913B2 (en) | 2019-05-30 | 2019-05-30 | Surveillance systems, image management devices, flying objects, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6934913B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023008102A1 (en) * | 2021-07-29 | 2023-02-02 | 富士フイルム株式会社 | Imaging control device, imaging system, imaging control method, and imaging control program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6430016B2 (en) * | 2015-07-29 | 2018-11-28 | 株式会社日立製作所 | Mobile object identification system and identification method |
WO2018034033A1 (en) * | 2016-08-16 | 2018-02-22 | 本郷飛行機株式会社 | Communication control device |
JP2018070010A (en) * | 2016-10-31 | 2018-05-10 | キヤノンマーケティングジャパン株式会社 | Unmanned aircraft controlling system, controlling method and program thereof |
JP2018110304A (en) * | 2016-12-28 | 2018-07-12 | パナソニックIpマネジメント株式会社 | Monitoring system, monitoring method, and program |
JP7067897B2 (en) * | 2017-10-30 | 2022-05-16 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | Information processing equipment, flight control instruction method, program, and recording medium |
JP6521045B1 (en) * | 2017-12-26 | 2019-05-29 | 東京電力ホールディングス株式会社 | Unmanned air vehicle crash notification system, ground station, notification method, and program |
-
2019
- 2019-05-30 JP JP2019101844A patent/JP6934913B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020198477A (en) | 2020-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111656424B (en) | Automatic flying unmanned aerial vehicle system based on big data and automatic flying method thereof | |
US10657660B2 (en) | Search assist system, search assist apparatus, and search assist method | |
US10424204B1 (en) | Collision warnings provided by stationary vehicles | |
EP2780862B1 (en) | Mobile and one-touch tasking and visualization of sensor data | |
CN109284801B (en) | Traffic indicator lamp state identification method and device, electronic equipment and storage medium | |
JP7075967B2 (en) | Management server, communication equipment, administrator terminal, communication method | |
US11636715B2 (en) | Using dynamic triggers in dangerous situations to view sensor data for autonomous vehicle passengers | |
US20210375078A1 (en) | Automated vehicle body damage detection | |
JP6934913B2 (en) | Surveillance systems, image management devices, flying objects, and programs | |
JP2021190951A (en) | System, unmanned aircraft, management device, program and management method | |
US20200074761A1 (en) | On-vehicle device, data collection system, and data collection apparatus | |
JP7187504B2 (en) | Control device, program, system, and control method | |
JP6928023B2 (en) | Management equipment, systems, programs and management methods | |
US11222213B2 (en) | Vehicle behavior detection system | |
US11982736B2 (en) | Perception sensors based fusion system for vehicle control and method thereof | |
WO2019107047A1 (en) | Information processing device | |
JP2021135942A (en) | Control device, program, and system | |
JP2022167343A (en) | Earth surface condition grasping method, earth surface condition grasping device, and earth surface condition grasping program | |
JP7339243B2 (en) | Transmitting device and program | |
CN117951648B (en) | Airborne multisource information fusion method and system | |
JP6903535B2 (en) | Information processing device | |
JP7319244B2 (en) | Control device, program, system and method | |
WO2024185034A1 (en) | Radio wave transmission source search system, radio wave transmission source search method, and control device | |
US20240096099A1 (en) | Intrusion determination device, intrusion detection system, intrusion determination method, and program storage medium | |
US20240104199A1 (en) | Systems and methods for robust scan and upload cyber security patch to edge node |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210810 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210824 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6934913 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |