JP2024021143A - 3D data generation system and 3D data generation method - Google Patents

3D data generation system and 3D data generation method Download PDF

Info

Publication number
JP2024021143A
JP2024021143A JP2022123770A JP2022123770A JP2024021143A JP 2024021143 A JP2024021143 A JP 2024021143A JP 2022123770 A JP2022123770 A JP 2022123770A JP 2022123770 A JP2022123770 A JP 2022123770A JP 2024021143 A JP2024021143 A JP 2024021143A
Authority
JP
Japan
Prior art keywords
data
video data
time
short
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022123770A
Other languages
Japanese (ja)
Inventor
祐司 小川
慶祐 池田
拓哉 ▲高▼見澤
高津 徹
智行 竹之下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liberaware Co Ltd
Original Assignee
Liberaware Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liberaware Co Ltd filed Critical Liberaware Co Ltd
Priority to JP2022123770A priority Critical patent/JP2024021143A/en
Publication of JP2024021143A publication Critical patent/JP2024021143A/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】画像データに基づく3次元モデルデータの生成にかかる時間を短縮することが可能な、3次元データ生成システム、及び3次元データ生成方法を提供する。【解決手段】撮影装置で対象領域を撮影して撮影時刻情報を含む動画データを生成可能な移動体と、移動体の位置を検出して検出時刻情報を含む位置データを生成可能な位置データ生成システムと、動画データ及び位置データを受信する情報処理装置と、を備え、情報処理装置は、受信した動画データを所定の時間長さに分割して複数の短時間動画データを生成する分割処理と、短時間動画データ及び該短時間動画データの撮影時刻に対応する移動体の位置データに基づいて、短時間動画データに対応する対象領域の少なくとも一部の3次元点群データを生成する生成処理と、生成した前記少なくとも一部の3次元点群データを表示装置に送信する処理とを、実行することを特徴とする。【選択図】図1The present invention provides a three-dimensional data generation system and a three-dimensional data generation method that can reduce the time required to generate three-dimensional model data based on image data. [Solution] A moving object capable of photographing a target area with a photographing device and generating video data including shooting time information, and a position data generator capable of detecting the position of the moving object and generating position data including detection time information. a system, and an information processing device that receives video data and position data, and the information processing device performs a dividing process that divides the received video data into predetermined time lengths to generate a plurality of short-time video data. , a generation process of generating three-dimensional point cloud data of at least a part of the target area corresponding to the short-time video data, based on the short-time video data and the position data of the moving object corresponding to the shooting time of the short-time video data; and transmitting at least some of the generated three-dimensional point group data to a display device. [Selection diagram] Figure 1

Description

本開示は、3次元データ生成システム、及び3次元データ生成方法に関する。 The present disclosure relates to a three-dimensional data generation system and a three-dimensional data generation method.

近年、ドローン等の無人飛行体により撮影した画像を用いて、3次元モデルデータを生成する方法が知られている。また、特許文献1には、複数の画像データに基づいて、SfM(Structure from Motion)処理等により3次元モデルデータを生成する方法が開示されている。 In recent years, a method of generating three-dimensional model data using images taken by an unmanned flying vehicle such as a drone has been known. Further, Patent Document 1 discloses a method of generating three-dimensional model data by SfM (Structure from Motion) processing or the like based on a plurality of image data.

特開2021-177134号公報JP 2021-177134 Publication

ところで、カメラで撮影した複数の画像データに基づく3次元モデルデータの生成処理には時間がかかるため、撮影してから3次元モデルデータを生成し、確認するまでにタイムラグが大きいという問題がある。 By the way, since it takes time to generate three-dimensional model data based on a plurality of image data taken with a camera, there is a problem that there is a large time lag from the time the images are taken to the time when the three-dimensional model data is generated and checked.

そこで、本開示は上記問題点に鑑みてなされたものであり、その目的は、画像データに基づく3次元モデルデータの生成にかかる時間を短縮することが可能な、3次元データ生成システム、及び3次元データ生成方法を提供することである。 Therefore, the present disclosure has been made in view of the above problems, and its purpose is to provide a three-dimensional data generation system and three-dimensional data generation system that can reduce the time required to generate three-dimensional model data based on image data. The object of the present invention is to provide a dimensional data generation method.

本開示によれば、
撮影装置で対象領域を撮影して撮影時刻情報を含む動画データを生成可能な移動体と、
前記移動体の位置を検出して検出時刻情報を含む位置データを生成可能な位置データ生成システムと、
前記移動体からの前記動画データ、及び前記位置データ生成システムからの前記位置データを受信する情報処理装置と、を備え、
前記情報処理装置は、
受信した前記動画データを所定の時間長さに分割して複数の短時間動画データを生成する分割処理と、
前記短時間動画データ及び該短時間動画データの撮影時刻に対応する移動体の前記位置データに基づいて、前記短時間動画データに対応する前記対象領域の少なくとも一部の3次元点群データを生成する生成処理と、
生成した前記少なくとも一部の3次元点群データを表示装置に送信する処理とを、実行する、3次元データ生成システムが提供される。
According to this disclosure:
a moving object capable of photographing a target area with a photographing device and generating video data including photographing time information;
a position data generation system capable of detecting the position of the mobile object and generating position data including detection time information;
an information processing device that receives the video data from the mobile object and the position data from the position data generation system,
The information processing device includes:
a dividing process of dividing the received video data into predetermined time lengths to generate a plurality of short-time video data;
Generating three-dimensional point cloud data of at least a portion of the target area corresponding to the short-time video data based on the short-time video data and the position data of the moving object corresponding to the shooting time of the short-time video data. generation processing,
A three-dimensional data generation system is provided that executes a process of transmitting at least a portion of the generated three-dimensional point group data to a display device.

また、本開示によれば、撮影装置で対象領域を撮影して撮影時刻情報を含む動画データを生成可能な移動体と、
前記移動体の位置を検出して検出時刻情報を含む位置データを生成可能な位置データ生成システムと、
前記移動体からの前記動画データ、及び前記位置データ生成システムからの前記位置データを受信する情報処理装置と、を用いて3次元点群データを生成する方法であって、
前記情報処理装置は、
受信した前記動画データを所定の時間長さに分割して複数の短時間動画データを生成する分割処理と、
前記短時間動画データ及び該短時間動画データの撮影時刻に対応する移動体の前記位置データに基づいて、前記短時間動画データに対応する前記対象領域の少なくとも一部の3次元点群データを生成する生成処理と、
生成した前記少なくとも一部の3次元点群データを表示装置に送信する処理とを、実行する、3次元データ生成方法が提供される。
Further, according to the present disclosure, a mobile object capable of photographing a target area with a photographing device and generating video data including photographing time information;
a position data generation system capable of detecting the position of the mobile object and generating position data including detection time information;
A method of generating three-dimensional point group data using an information processing device that receives the video data from the moving object and the position data from the position data generation system, the method comprising:
The information processing device includes:
a dividing process of dividing the received video data into predetermined time lengths to generate a plurality of short-time video data;
Generating three-dimensional point cloud data of at least a portion of the target area corresponding to the short-time video data based on the short-time video data and the position data of the moving object corresponding to the shooting time of the short-time video data. generation processing,
A three-dimensional data generation method is provided, which executes a process of transmitting at least part of the generated three-dimensional point group data to a display device.

本開示によれば、画像データに基づく3次元モデルデータの生成にかかる時間を短縮することが可能な、3次元データ生成システム、及び3次元データ生成方法を提供することができる。 According to the present disclosure, it is possible to provide a three-dimensional data generation system and a three-dimensional data generation method that can reduce the time required to generate three-dimensional model data based on image data.

本開示の一実施形態に係る3次元データ生成システムの一例を示す概要図である。1 is a schematic diagram showing an example of a three-dimensional data generation system according to an embodiment of the present disclosure. 同実施形態に係る無人飛行体のハードウェア構成例を示す図である。It is a diagram showing an example of the hardware configuration of an unmanned flying vehicle according to the same embodiment. 同実施形態に係る情報処理装置の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of an information processing apparatus according to the embodiment. 同実施形態に係る3次元データ生成方法の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the three-dimensional data generation method based on the same embodiment.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. Note that, in this specification and the drawings, components having substantially the same functional configurations are designated by the same reference numerals and redundant explanation will be omitted.

<概要>
図1は、本開示の一実施形態に係るシステムの一例を示す概要図である。本システム100は、対象領域を撮影するための撮影装置を搭載した無人飛行体(ドローン)1と、情報処理装置20と、モーションキャプチャ装置30(位置データ生成システム)と、表示装置40を含む。無人飛行体1は、少なくとも情報処理装置20と通信可能である。無人飛行体1は、モーションキャプチャ装置30、及び表示装置40とも通信可能であってもよいし、通信できない構成であってもよい。モーションキャプチャ装置30は、少なくとも情報処理装置20と通信可能であり、無人飛行体1及び表示装置40とは通信可能であってもよいし、通信できない構成であってもよい。なお、本実施形態の診断方法において、画像を取得するために用いる撮影装置は、無人飛行体に搭載されたカメラに限定されず、他の移動体に搭載された撮影装置でもよいし、カメラ単体でもよく、任意の画像取得装置を用いることができる。移動体の位置を検出して検出時刻情報を含む位置データを生成可能な位置データ生成システムは、モーションキャプチャ装置30に限られず、他の位置推定システムを用いてもよい。例えば、V-SLAM(Visual Simultaneous Localization and Mapping)による移動体のカメラで撮影した画像に基づいて位置推定するシステム、ビーコンから発する信号を移動体で受信して、その強度から位置推定するシステム、または、移動体に設けたリフレクタにレーザーを照射し、反射光を受けつけることで位置推定するレーザートラッカーを用いたシステム、等を利用することができる。また、このような位置推定システムは、その一部または全体が無人飛行体1に設けられていてもよいし、無人飛行体1の外部に設けられていてもよい。
<Summary>
FIG. 1 is a schematic diagram illustrating an example of a system according to an embodiment of the present disclosure. This system 100 includes an unmanned flying vehicle (drone) 1 equipped with a photographing device for photographing a target area, an information processing device 20, a motion capture device 30 (position data generation system), and a display device 40. The unmanned aerial vehicle 1 is capable of communicating with at least the information processing device 20 . The unmanned aerial vehicle 1 may be configured to be able to communicate with the motion capture device 30 and the display device 40, or may be configured to be unable to communicate with the motion capture device 30 and the display device 40. The motion capture device 30 can communicate with at least the information processing device 20, and may or may not be able to communicate with the unmanned aerial vehicle 1 and the display device 40. Note that in the diagnostic method of this embodiment, the imaging device used to acquire images is not limited to a camera mounted on an unmanned flying vehicle, but may also be an imaging device mounted on another moving object, or a single camera. Any image acquisition device may be used. The position data generation system capable of detecting the position of a moving object and generating position data including detection time information is not limited to the motion capture device 30, and other position estimation systems may be used. For example, a system that uses V-SLAM (Visual Simultaneous Localization and Mapping) to estimate the position based on images taken by a camera on a moving object, a system that receives a signal emitted from a beacon and estimates the position based on the intensity of the signal emitted by the moving object, or , a system using a laser tracker that estimates the position by irradiating a laser onto a reflector provided on a moving body and receiving the reflected light, etc. can be used. Furthermore, such a position estimation system may be partially or entirely provided in the unmanned flying vehicle 1, or may be provided outside the unmanned flying vehicle 1.

<無人飛行体>
無人飛行体1は、撮影装置で対象領域を撮影して撮影時刻情報を含む動画データを生成する。無人飛行体1は、点検や作業進捗管理などを目的とした撮影対象領域の上空を飛行する。撮影対象は特に限定されず、人工的な建物、工場、設備等でもよいし、自然界に存在する洞窟等の構造物の内部空間や地下空間であってもよい。本システムは、屋外空間、屋内空間の何れにも使用可能である。
<Unmanned aerial vehicle>
The unmanned aerial vehicle 1 photographs a target area with a photographing device and generates video data including photographing time information. The unmanned flying object 1 flies over an area to be photographed for the purpose of inspection, work progress management, and the like. The subject to be photographed is not particularly limited, and may be an artificial building, factory, equipment, etc., or an internal space or underground space of a structure such as a cave that exists in the natural world. This system can be used in both outdoor and indoor spaces.

本実施形態に係る無人飛行体(ドローン)1は、いわゆる複数の回転翼3により揚力や推力を得る回転翼機であり、飛行しながら、撮影対象領域をカメラで撮影することによりの画像データを取得する。無人飛行体1は、予め設定されたプログラムに基づいて自律的に飛行するものであってもよいし、撮影対象空間の内部または外部からユーザーが操縦することにより飛行を制御されるものであってもよいし、それらの組み合わせによって飛行制御されるものであってもよい。 The unmanned flying object (drone) 1 according to the present embodiment is a rotary-wing aircraft that obtains lift and thrust using a plurality of rotary wings 3, and captures image data by photographing an area to be photographed with a camera while flying. get. The unmanned flying object 1 may fly autonomously based on a preset program, or may be controlled in flight by a user operating from inside or outside the space to be photographed. Alternatively, the flight may be controlled by a combination of these.

図2は、本実施形態に係る無人飛行体1のハードウェア構成例を示す図である。図2に示すように、本実施形態に係る無人飛行体1は、本体部2と、回転翼3と、モータ4と、カメラ5(撮影装置)、センサ6とを備える。また、無人飛行体1は、本体部2において、フライトコントローラ11、バッテリ14、ESC(Electric Speed Controller)15および送受信部16を備える。なお、図2に示す無人飛行体1の構成は一例であり、図2に示す本体部2とは異なる構成を有する回転翼機であっても、本発明の範疇に含まれうる。 FIG. 2 is a diagram showing an example of the hardware configuration of the unmanned flying vehicle 1 according to the present embodiment. As shown in FIG. 2, the unmanned flying vehicle 1 according to the present embodiment includes a main body 2, a rotor 3, a motor 4, a camera 5 (photographing device), and a sensor 6. The unmanned flying vehicle 1 also includes a flight controller 11 , a battery 14 , an ESC (Electric Speed Controller) 15 , and a transmitting/receiving section 16 in the main body section 2 . Note that the configuration of the unmanned flying object 1 shown in FIG. 2 is an example, and even a rotary wing aircraft having a configuration different from that of the main body 2 shown in FIG. 2 may be included in the scope of the present invention.

本体部2は、無人飛行体1を構成するフレーム等により形成される。本体部2を構成する素材は特に限定されず、例えば、炭素繊維樹脂、ガラス繊維樹脂、マグネシウム、マグネシウム合金、アルミニウム、アルミニウム合金、鉄鋼、チタンその他の材料であり得る。回転翼3はモータ4に取り付けられる。回転翼3は、モータ4の回転により自身が回転することで、無人飛行体1に揚力(推力)を発生させる。回転翼3とモータ4とは、推力発生部の一例である。なお、回転翼3は、本実施形態においては、前後左右の4箇所に設けられているが、本発明はかかる例に限定されない。無人飛行体1の構造、形状、装備およびサイズ等に応じて、回転翼3の設けられる数は適宜変更されうる。 The main body portion 2 is formed by a frame and the like that constitute the unmanned aerial vehicle 1 . The material constituting the main body portion 2 is not particularly limited, and may be, for example, carbon fiber resin, glass fiber resin, magnesium, magnesium alloy, aluminum, aluminum alloy, steel, titanium, or other materials. The rotor 3 is attached to a motor 4. The rotor blade 3 generates lift (thrust) to the unmanned flying vehicle 1 by rotating itself due to the rotation of the motor 4 . The rotary blade 3 and the motor 4 are an example of a thrust generating section. In this embodiment, the rotary blades 3 are provided at four locations: front, rear, left, and right, but the present invention is not limited to this example. The number of rotary wings 3 provided may be changed as appropriate depending on the structure, shape, equipment, size, etc. of the unmanned flying vehicle 1.

フライトコントローラ11は、例えば、中央演算処理装置(CPU)や、FPGA(Field-Programmable Gate Array)のようなプログラマブルプロセッサなど、1つ以上のプロセッサ13を有することができる。フライトコントローラ11は、メモリ12を有しており、当該メモリ12にアクセス可能である。メモリ12は、1つ以上のステップを行うためにフライトコントローラ11が実行可能であるロジック、コード、および/またはプログラム命令を記憶している。フライトコントローラ11は、制御装置の一例である。制御装置は、撮影装置で対象領域を撮影することにより、撮影時刻情報を含む動画データを生成する。動画データは、所定時間にわたる連続的な撮影により、多数の画像データ(静止画データ)を連続的に繋げたデータとすることができる。制御装置は、カメラ5で撮影した動画データ等の画像データに関する画像処理を実行し得る。画像処理は、例えば、低画質化、短時間化などによるデータ容量の軽減処理であるが、これに限られず、他の情報の付加等であってもよい。また、このような制御装置は、操縦用端末17に設けられていてもよいし、無人飛行体1及び情報処理装置20と通信する中継装置(管制装置)に設けられていてもよい。例えば、中継装置を設ける場合、ドローンで撮影した画像データを中継装置で受信し、上記低画質化等の画像処理を行うことでデータ量を軽減してから、情報処理装置20に送信するようにしてもよい。 The flight controller 11 can have one or more processors 13, such as a central processing unit (CPU) or a programmable processor such as a field-programmable gate array (FPGA). The flight controller 11 has a memory 12 and can access the memory 12. Memory 12 stores logic, code, and/or program instructions executable by flight controller 11 to perform one or more steps. Flight controller 11 is an example of a control device. The control device generates video data including photographing time information by photographing the target area with the photographing device. Video data can be data in which a large number of image data (still image data) are continuously connected by continuous shooting over a predetermined period of time. The control device can perform image processing on image data such as video data captured by the camera 5. Image processing is, for example, processing to reduce data volume by lowering image quality, reducing processing time, etc., but is not limited to this, and may also include adding other information. Moreover, such a control device may be provided in the control terminal 17 or may be provided in a relay device (control device) that communicates with the unmanned aerial vehicle 1 and the information processing device 20. For example, when a relay device is provided, the relay device receives image data taken by a drone, reduces the amount of data by performing image processing such as image quality reduction, and then transmits it to the information processing device 20. You can.

メモリ12は、たとえば、SDカードやランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。カメラ5及びセンサ6から取得したデータは、メモリ12に直接に伝達されかつ記憶されてもよい。たとえば、カメラ5で撮影した画像データ(静止画データ・動画データ)が内蔵メモリ又は外部メモリに記録される。また、カメラ5で撮影した画像データは、操縦用端末17、情報処理装置20、表示装置40等に送受信部16を介して送信される。 Memory 12 may include, for example, a separable medium or external storage such as an SD card or random access memory (RAM). Data acquired from camera 5 and sensor 6 may be directly communicated to and stored in memory 12. For example, image data (still image data/video data) captured by the camera 5 is recorded in the built-in memory or external memory. Further, image data captured by the camera 5 is transmitted to the control terminal 17, the information processing device 20, the display device 40, etc. via the transmitting/receiving section 16.

フライトコントローラ11は、無人飛行体1の状態を制御するように構成された制御モジュールを含んでいる。たとえば、制御モジュールは、6自由度(並進運動x、y及びz、並びに回転運動θx、θy及びθz)を有する無人飛行体1の空間的配置、速度、および/または加速度を調整するために、ESC15を経由して無人飛行体1の推進機構であるモータ4を制御する。モータ4により回転翼3が回転することで無人飛行体1の揚力を生じさせる。フライトコントローラ11は、モータ4の回転数(回転数は、所定時間あたりの回転数をも意味する)を制御して、回転翼3による推力を調整し得る。 Flight controller 11 includes a control module configured to control the state of unmanned air vehicle 1 . For example, the control module may be configured to adjust the spatial position, velocity, and/or acceleration of the unmanned air vehicle 1 with six degrees of freedom (translational movements x, y, and z, and rotational movements θx, θy, and θz). The motor 4, which is the propulsion mechanism of the unmanned flying vehicle 1, is controlled via the ESC 15. Rotating the rotary blade 3 by the motor 4 generates lift of the unmanned flying vehicle 1. The flight controller 11 can control the number of rotations of the motor 4 (the number of rotations also means the number of rotations per predetermined time) to adjust the thrust by the rotary blade 3.

フライトコントローラ11は、1つ以上の外部のデバイス(たとえば、操縦用端末17、情報処理装置20、モーションキャプチャ装置30)からのデータを送信および/または受け取るように構成された送受信部16と通信可能である。送受信部16は、有線通信または無線通信などの任意の適当な通信手段を使用することができる。送受信部16は、フライトコントローラ11等の制御装置をインターネット網等のネットワークに接続するものであって、例えば、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信、LTE、Bluetooth(登録商標)やBLE(Blu etooth Low Energy)などの任意の通信方式のうちの1つ以上を利用することができる。 The flight controller 11 is capable of communicating with a transceiver 16 configured to transmit and/or receive data from one or more external devices (e.g., a pilot terminal 17, an information processing device 20, a motion capture device 30). It is. The transmitting/receiving unit 16 can use any suitable communication means such as wired communication or wireless communication. The transmitter/receiver 16 connects the control device such as the flight controller 11 to a network such as the Internet, and includes, for example, a local area network (LAN), wide area network (WAN), infrared, wireless, WiFi, point-to-point network, etc. One or more of arbitrary communication methods such as point-to-point (P2P) network, telecommunications network, cloud communication, LTE, Bluetooth (registered trademark), and BLE (Bluetooth Low Energy) can be used.

送受信部16は、カメラ5で撮影したデータ、センサ6で取得したデータ、フライトコントローラ11が生成した処理データ、所定の制御データ、端末または遠隔の制御器からのユーザコマンドなどのうちの1つ以上を送信および/または受け取ることができる。カメラ5及びセンサ6等により得られた情報は、送受信部16を介して、サーバ(情報処理装置20)、操縦用端末17、表示装置40等に出力されてもよい。送受信部16は、モーションキャプチャ装置30からの情報を受信し得る。 The transmitter/receiver 16 transmits one or more of data captured by the camera 5, data acquired by the sensor 6, processed data generated by the flight controller 11, predetermined control data, user commands from a terminal or remote controller, etc. can be sent and/or received. The information obtained by the camera 5, the sensor 6, etc. may be output to the server (information processing device 20), the control terminal 17, the display device 40, etc. via the transmitter/receiver 16. The transmitter/receiver 16 can receive information from the motion capture device 30.

操縦用端末17は、無人飛行体1の飛行の操縦を制御するための装置である。なお、無人飛行体1の飛行は、地上等にいるオペレータの操縦により制御されてもよいし、飛行経路情報やセンシングによる自律的な飛行プログラム(例えば、GCS(Ground Control Station))に基づく自動操縦、または一部を手動操縦により制御されてもよい。操縦用端末17は、例えば、送受信機(プロポ)、スマートフォン、タブレット等の端末等であってもよい。操縦用端末17は、フライトコントローラ11に対して、飛行制御指示情報を送出することができる。 The control terminal 17 is a device for controlling the flight of the unmanned flying object 1 . Note that the flight of the unmanned flying object 1 may be controlled by an operator on the ground or by automatic piloting based on an autonomous flight program (for example, GCS (Ground Control Station)) based on flight path information and sensing. , or may be partially controlled by manual operation. The control terminal 17 may be, for example, a transmitter/receiver (propo), a smartphone, a tablet, or other terminal. The pilot terminal 17 can send flight control instruction information to the flight controller 11.

本実施の形態に係るセンサ6は、例えば、慣性センサ、加速度センサ、ジャイロセンサ、GPSセンサ、風センサ、温度センサ、湿度センサ、気圧センサ、高度センサ、LiDAR(Laser Imaging Detection and Ranging)等の近接センサ、またはカメラ以外のビジョン/イメージセンサ等を含み得る。また、センサ6は、フライトコントローラ11に搭載されるものであってもよいし、フライトコントローラ11の外部に設けられるものであってもよい。また、カメラは、画像データを取得することができれば任意のカメラであってよい。例えば、カメラ5は、一般的なカメラの他に、赤外線カメラ、ステレオカメラ等であってもよく、任意のセンサと一体に設けられていてもよい。 The sensor 6 according to the present embodiment is, for example, an inertial sensor, an acceleration sensor, a gyro sensor, a GPS sensor, a wind sensor, a temperature sensor, a humidity sensor, a barometric pressure sensor, an altitude sensor, a LiDAR (Laser Imaging Detection and Ranging), etc. or a vision/image sensor other than a camera. Further, the sensor 6 may be mounted on the flight controller 11 or may be provided outside the flight controller 11. Further, the camera may be any camera as long as it can acquire image data. For example, the camera 5 may be an infrared camera, a stereo camera, etc. in addition to a general camera, and may be provided integrally with any sensor.

<情報処理装置>
図1に示すように、情報処理装置20は、無人飛行体1、操縦用端末17、モーションキャプチャ装置30、及び表示装置40とそれぞれ通信を行い、各種情報を送受信することができる。情報処理装置20は、無人飛行体1が撮影した画像データを取得して、撮影対象物の3次元データを生成するためのサーバ装置(例えば、クラウドサーバ)である。情報処理装置20は、生成した3次元データを表示装置40に出力して表示させることができる。表示装置40は、情報処理装置20に有線接続もしくは無線接続されたモニター、タッチパネル等で構成されてもよいし、インターネット等のネットワークを介して情報処理装置20に接続される汎用コンピューター、スマートフォン、タブレットPC等の携帯端末であってもよい。
<Information processing device>
As shown in FIG. 1, the information processing device 20 can communicate with the unmanned flying vehicle 1, the control terminal 17, the motion capture device 30, and the display device 40, and can send and receive various information. The information processing device 20 is a server device (for example, a cloud server) that acquires image data photographed by the unmanned aerial vehicle 1 and generates three-dimensional data of the object to be photographed. The information processing device 20 can output the generated three-dimensional data to the display device 40 for display. The display device 40 may be configured with a monitor, touch panel, etc. connected to the information processing device 20 by wire or wirelessly, or may be a general-purpose computer, smartphone, or tablet connected to the information processing device 20 via a network such as the Internet. It may also be a mobile terminal such as a PC.

図3は、本実施形態に係る情報処理装置20の構成例を示すブロック図である。図示のように、情報処理装置20は、制御部21を備える。情報処理装置20は、例えばワークステーションやパーソナルコンピュータのような汎用コンピューターや、スマートフォンやタブレットPC等の携帯端末であってもよい。 FIG. 3 is a block diagram showing a configuration example of the information processing device 20 according to the present embodiment. As illustrated, the information processing device 20 includes a control section 21. The information processing device 20 may be, for example, a general-purpose computer such as a workstation or a personal computer, or a mobile terminal such as a smartphone or a tablet PC.

プロセッサ21aは、制御部21の動作を制御し、各要素間におけるデータの送受信の制御や、プログラムの実行に必要な処理等を行う演算装置である。このプロセッサ21aは、本実施の形態では例えばCPU(Central Processing Unit)であり、後述するストレージ21cに格納されてメモリ21bに展開されたプログラムを実行して各処理を行う。 The processor 21a is an arithmetic device that controls the operation of the control unit 21, controls the transmission and reception of data between each element, and performs processing necessary for executing a program. In this embodiment, the processor 21a is, for example, a CPU (Central Processing Unit), and performs various processes by executing a program stored in a storage 21c and developed in a memory 21b, which will be described later.

メモリ21bは、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶装置、及びフラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶装置を備える。このメモリ21bは、プロセッサ21aの作業領域として使用される一方、制御部21の起動時に実行されるブートローダ、及び各種の設定情報等が格納される。 The memory 21b includes a main storage device made up of a volatile storage device such as a DRAM (Dynamic Random Access Memory), and an auxiliary storage device made up of a nonvolatile storage device such as a flash memory or an HDD (Hard Disc Drive). . This memory 21b is used as a work area for the processor 21a, and also stores a boot loader executed when the control unit 21 is started, various setting information, and the like.

ストレージ21cは、プログラムや各種の処理に用いられる情報等が格納されている。例えば、ストレージ21cには、無人飛行体の飛行状況や点検状況等を表示するためのプログラムが格納されていてもよい。また、ストレージ21cには、対象領域を撮影した画像データに関する情報、生成した3次元データに関する情報、無人飛行体及びモーションキャプチャ装置等からそれぞれ取得した飛行体の位置、姿勢に関する情報、対象領域の変形量に関する情報、経時変化の推移パターンに関する情報、等が格納されてもよい。 The storage 21c stores programs and information used in various processes. For example, the storage 21c may store a program for displaying the flight status, inspection status, etc. of the unmanned flying vehicle. The storage 21c also contains information regarding image data taken of the target area, information regarding the generated three-dimensional data, information regarding the position and attitude of the flying object acquired from the unmanned aerial vehicle, motion capture device, etc., and deformation of the target area. Information regarding the amount, information regarding the transition pattern of change over time, etc. may be stored.

送受信部22は、制御部21をインターネット網等のネットワークに接続するものであって、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信、LTE、Bluetooth(登録商標)やBLE(Bluetooth Low Energy)といった通信インターフェースを具備するものであってもよい。また、送受信部22は、有線による通信をするための通信インターフェースを具備するものであってもよい。 The transmitting/receiving unit 22 connects the control unit 21 to a network such as the Internet, and includes a local area network (LAN), wide area network (WAN), infrared, wireless, WiFi, point-to-point (P2P) network, It may also include a communication interface such as a telecommunications network, cloud communication, LTE, Bluetooth (registered trademark), or BLE (Bluetooth Low Energy). Further, the transmitter/receiver 22 may include a communication interface for wired communication.

入出力部23は、入出力機器が接続されるインターフェースであって、本実施形態では、例えば表示装置が接続されてもよい。 The input/output unit 23 is an interface to which an input/output device is connected, and in this embodiment, for example, a display device may be connected.

バス24は、接続したプロセッサ21a、メモリ21b、ストレージ21c、送受信部22及び入出力部23の間において、例えばアドレス信号、データ信号及び各種の制御信号を伝達する。 The bus 24 transmits, for example, address signals, data signals, and various control signals between the connected processor 21a, memory 21b, storage 21c, transmitting/receiving section 22, and input/output section 23.

本実施形態に係る情報処理装置20の制御部21は、画像取得部と、位置情報取得部と、3次元データ生成部と、データ配信部として機能する。 The control unit 21 of the information processing device 20 according to this embodiment functions as an image acquisition unit, a position information acquisition unit, a three-dimensional data generation unit, and a data distribution unit.

画像取得部は、撮影対象領域の画像データを取得する処理を実行する。例えば、点検対象設備を含む所定範囲の領域を撮影した画像データ(動画データ、静止画データ)を取得する画像取得処理を実行する。具体的に、無人飛行体1のカメラ5で撮影された画像データが、送受信部16(及び必要に応じて操縦用端末17)を介して情報処理装置20に送信されることで、画像取得部は画像データを取得する。画像取得部は、画像データをストレージ21cに記憶するようにしてもよい。画像データには、当該画像データが撮影された時刻の情報や、当該撮影時点でのカメラの位置、姿勢(撮影方向)に関する情報を含んでいてもよい。 The image acquisition unit executes a process of acquiring image data of a region to be photographed. For example, an image acquisition process is executed to acquire image data (video data, still image data) of a predetermined range of areas including the equipment to be inspected. Specifically, the image data captured by the camera 5 of the unmanned aerial vehicle 1 is transmitted to the information processing device 20 via the transmitting/receiving section 16 (and the control terminal 17 as necessary), so that the image acquiring section acquires image data. The image acquisition unit may store the image data in the storage 21c. The image data may include information regarding the time when the image data was photographed, and information regarding the position and orientation (photographing direction) of the camera at the time of the photographing.

位置情報取得部は、モーションキャプチャ装置30(位置データ生成システム)が生成した無人飛行体の位置データを取得する。位置データは、モーションキャプチャ装置が検出した無人飛行体の位置(3次元座標)と、その位置を検出した時刻の情報(検出時刻情報)を含む。 The position information acquisition unit acquires position data of the unmanned aerial vehicle generated by the motion capture device 30 (position data generation system). The position data includes the position (three-dimensional coordinates) of the unmanned flying object detected by the motion capture device and information on the time when the position was detected (detection time information).

3次元データ生成部は、受信した動画データを所定の時間長さに分割して複数の短時間動画データを生成する分割処理と、短時間動画データ及び該短時間動画データの撮影時刻に対応する移動体の位置データに基づいて、短時間動画データに対応する対象領域の少なくとも一部の3次元点群データを生成する生成処理と、を実行する。データ配信部は、生成した少なくとも一部の3次元点群データを表示装置に送信する処理を、実行する。このような分割処理、3次元点群データの生成処理、表示装置への送信処理は、繰り返し実行される。これにより、実質的にリアルタイムに近い形で、無人飛行体1で撮影した画像データに基づく3次元点群デ―タを表示装置に表示させることができる。3次元モデルデータを生成する際には、画像データに含まれる座標が既知の標識等に基づく座標情報を関連付けてもよい。3次元モデルデータは、例えば3次元の点群データであるが、これに限られない。3次元モデルデータは、対象領域に含まれる対象物の3次元点群データとすることができる。3次元データ生成処理は、例えば、SfM処理、MVS(Multi-view Stereo)処理を含むものであってもよいし、他の処理方法により3次元データをするものであってもよい。3次元データ生成部は、複数の画像データを用いたSfM処理に基づいて、対象領域の3次元モデルデータを生成することができる。SfM処理は、複数の特徴点であらわされる共通の対象物を複数のカメラ位置から撮影した複数の画像データを用いて、対象物の3次元形状を仮想データ上で生成する処理であり、その際に、モーションキャプチャ装置から取得したそれぞれの画像データの撮影時刻における無人飛行体の位置データを参照する。位置データは、カメラの位置(撮影位置(3次元座標))及びカメラの向き(撮影方向)の情報を含む。3次元データ生成部は、生成した3次元データに関する全て又は一部の情報をストレージ21cに記憶するようにしてもよい。このようにモーションキャプチャ装置で取得した無人飛行体の位置データを利用することにより、生成される3次元データにおいては、適切な位置(座標)に適切な向きで撮影対象物が配置されることとなる。 The three-dimensional data generation unit performs a division process of dividing the received video data into predetermined time lengths to generate a plurality of short-time video data, and corresponds to the short-time video data and the shooting time of the short-time video data. A generation process of generating three-dimensional point cloud data of at least a portion of the target area corresponding to the short-time video data is executed based on the position data of the moving object. The data distribution unit executes a process of transmitting at least part of the generated three-dimensional point cloud data to a display device. Such division processing, three-dimensional point cloud data generation processing, and transmission processing to a display device are repeatedly executed. Thereby, the three-dimensional point group data based on the image data photographed by the unmanned flying vehicle 1 can be displayed on the display device in a substantially real-time manner. When generating three-dimensional model data, coordinate information included in the image data may be associated with coordinate information based on a known marker or the like. The three-dimensional model data is, for example, three-dimensional point group data, but is not limited to this. The three-dimensional model data can be three-dimensional point group data of the object included in the target area. The three-dimensional data generation process may include, for example, SfM processing and MVS (Multi-view Stereo) processing, or may generate three-dimensional data using other processing methods. The three-dimensional data generation unit can generate three-dimensional model data of the target area based on SfM processing using a plurality of image data. SfM processing is a process that generates a three-dimensional shape of an object on virtual data using multiple image data of a common object represented by multiple feature points taken from multiple camera positions. Then, the position data of the unmanned aerial vehicle at the time when each image data acquired from the motion capture device was captured is referred to. The position data includes information on the position of the camera (photographing position (three-dimensional coordinates)) and the orientation of the camera (photographing direction). The three-dimensional data generation unit may store all or part of the information regarding the generated three-dimensional data in the storage 21c. In this way, by using the position data of the unmanned aerial vehicle acquired by the motion capture device, the object to be photographed can be placed at the appropriate position (coordinates) and in the appropriate orientation in the generated 3D data. Become.

<モーションキャプチャ装置>
モーションキャプチャ装置30は、無人飛行体の飛行空間の周囲に配置される複数のモーションキャプチャカメラ31を備える。複数のモーションキャプチャカメラ31は、互いに有線又は無線で接続され協調して動作することができる。モーションキャプチャ装置30は、例えば無人飛行体1の外面に配置される1以上の再帰反射性マーカの位置および移動をモーションキャプチャカメラ31で監視することにより、無人飛行体1の位置を検出して検出時刻情報を含む位置データを生成することができる。位置データは、モーションキャプチャ装置30の座標系(現実空間座標系に対する相対的な位置及び向きが既知)上での3次元の座標情報と、当該座標情報に対応する時刻情報とを含む。位置データは、無人飛行体の向き(方位)の情報を含んでいてもよい。向きの情報は、無人飛行体上の複数の再帰反射性マーカの位置関係(例えば特定の2つの再帰反射性マーカの3次元座標を結んだベクトルの向き)に基づいて無人飛行体の向きを算出することができる。モーションキャプチャ装置30は、モーションキャプチャカメラ31に内蔵もしくは外部に接続される制御部と送受信部を有し、検出時刻情報を含む位置データの生成処理と、当該位置データの送信処理とを繰り返し実行することができる。制御部及び送受信部の構成は、上記情報処理装置20の制御部21及び送受信部22の構成と実質的に共通であるため、説明を省略する。モーションキャプチャ装置30は、無人飛行体の位置データの生成と送信を繰り返し行うことにより、実質的にリアルタイムで情報処理装置20等に対して無人飛行体の位置データを送信することができる。また、モーションキャプチャ装置30は、無人飛行体に対して位置データを送信することも可能である。無人飛行体、自己位置を推定する際に、モーションキャプチャ装置30からの位置データを参照することで、(当該位置データを参照せずに無人飛行体のセンサ情報やGNSS信号のみに基づいて自己位置推定する場合に比べて)自己位置推定の精度を高めることができる。
<Motion capture device>
The motion capture device 30 includes a plurality of motion capture cameras 31 arranged around the flight space of the unmanned aerial vehicle. The plurality of motion capture cameras 31 can be connected to each other by wire or wirelessly and operate in cooperation. The motion capture device 30 detects and detects the position of the unmanned aerial vehicle 1 by, for example, monitoring the position and movement of one or more retroreflective markers placed on the outer surface of the unmanned aerial vehicle 1 with a motion capture camera 31. Location data including time information can be generated. The position data includes three-dimensional coordinate information on the coordinate system of the motion capture device 30 (relative position and orientation to the real space coordinate system are known) and time information corresponding to the coordinate information. The position data may include information on the orientation (azimuth) of the unmanned aerial vehicle. The orientation information calculates the orientation of the unmanned aerial vehicle based on the positional relationship of multiple retroreflective markers on the unmanned aerial vehicle (for example, the direction of a vector connecting the three-dimensional coordinates of two specific retroreflective markers). can do. The motion capture device 30 has a control unit and a transmitting/receiving unit that are built into the motion capture camera 31 or connected to the outside, and repeatedly performs a process of generating position data including detection time information and a process of transmitting the position data. be able to. The configurations of the control unit and the transmitting/receiving unit are substantially the same as those of the control unit 21 and the transmitting/receiving unit 22 of the information processing device 20, so the description thereof will be omitted. By repeatedly generating and transmitting the position data of the unmanned air vehicle, the motion capture device 30 can transmit the position data of the unmanned air vehicle to the information processing device 20 and the like in substantially real time. The motion capture device 30 can also transmit position data to an unmanned flying vehicle. When estimating the unmanned aerial vehicle's self-position, by referring to the position data from the motion capture device 30 (without referring to the position data, self-positioning based only on the unmanned aerial vehicle's sensor information and GNSS signals). The accuracy of self-position estimation can be improved (compared to the case where self-position is estimated).

図4は、無人飛行体1からの動画データとモーションキャプチャ装置30からの位置データとに基づいて、情報処理装置20で3次元点群データを生成し、表示装置40に表示させる際のフローを示す。 FIG. 4 shows the flow when the information processing device 20 generates three-dimensional point cloud data and displays it on the display device 40 based on the video data from the unmanned aerial vehicle 1 and the position data from the motion capture device 30. show.

無人飛行体1は、操縦用端末17を用いた手動操縦により飛行し、または、自律飛行プログラムに従って予め設定された経路を自律飛行し、飛行状態で上方から対象領域を撮影することにより、撮影時刻情報を含む動画データを生成し、情報処理装置に送信する(S101)。同時に、モーションキャプチャ装置30は飛行中の無人飛行体1の位置を検出(測定)し、検出時刻情報を含む位置データを生成し、情報処理装置20に送信する(S102)。無人飛行体1による動画データの生成、送信処理と、モーションキャプチャ装置30による位置データの生成、送信処理は、無人飛行体1が撮影している間、連続的に繰り返し実行される。なお、無人飛行体1での撮影を開始する前に、予めモーションキャプチャカメラ31は撮影対象領域の周囲に設置される。 The unmanned aerial vehicle 1 flies by manual control using the control terminal 17, or autonomously flies along a preset route according to an autonomous flight program, and photographs the target area from above while in flight. Video data including information is generated and transmitted to the information processing device (S101). At the same time, the motion capture device 30 detects (measures) the position of the unmanned flying object 1 in flight, generates position data including detection time information, and transmits it to the information processing device 20 (S102). The generation and transmission processing of video data by the unmanned aerial vehicle 1 and the generation and transmission processing of position data by the motion capture device 30 are continuously and repeatedly executed while the unmanned aerial vehicle 1 is photographing. Note that before the unmanned aerial vehicle 1 starts photographing, the motion capture camera 31 is installed in advance around the region to be photographed.

情報処理装置20は、受信した動画データを所定の時間長さに分割して複数の短時間動画データを生成する分割処理を実行する(S103)。例えば、受信した動画データが10秒間の長さの撮影データである場合、1秒間の短時間動画データを10個生成したり、5秒間の短時間動画データを2個生成したりすることができる。基本的には、等分割により同一長さの短時間動画データを生成するが、それぞれ異なる時間長さの短時間動画データを生成するようにしてもよい。各短時間動画データには、撮影時刻情報が含まれる。 The information processing device 20 executes a division process of dividing the received video data into predetermined time lengths to generate a plurality of short-time video data (S103). For example, if the received video data is shooting data with a length of 10 seconds, it is possible to generate 10 pieces of short-time video data of 1 second, or 2 pieces of short-time video data of 5 seconds. . Basically, short-time video data of the same length is generated by equal division, but short-time video data of different time lengths may be generated. Each short-time video data includes shooting time information.

次いで、情報処理装置20は、生成した短時間動画データ、及び短時間動画データの撮影時刻に対応する無人飛行体1(移動体)の位置データに基づいて、短時間動画データに対応する対象領域の少なくとも一部の3次元点群データを生成する生成処理を実行する(S104)。例えば、生成された短時間動画データごとに、短時間動画データに含まれる複数の画像データを用いたSfM処理により、撮影対象物の3次元点群データを生成する。また、その際に、それぞれの短時間動画データの撮影時刻と一致する検出時刻の無人飛行体の位置データを用いて、無人飛行体の位置(つまりカメラの位置、向き)を推定し、当該無人飛行体の位置情報に基づいて、3次元モデルデータの仮想モデル空間上での対象物の位置を決定(補正)する。なお、仮想モデル空間上での対象物の位置を決定する際には、現実空間に対応する仮想モデル空間の座標系に対して、モーションキャプチャ装置30の座標系の原点及び各軸線の方向を位置合わせする。 Next, the information processing device 20 determines the target area corresponding to the short-time video data based on the generated short-time video data and the position data of the unmanned aerial vehicle 1 (mobile object) corresponding to the shooting time of the short-time video data. (S104). For example, for each generated short-time video data, three-dimensional point cloud data of the object to be photographed is generated by SfM processing using a plurality of image data included in the short-time video data. In addition, at that time, the position data of the unmanned aerial vehicle at the detection time that coincides with the shooting time of each short video data is used to estimate the position of the unmanned aerial vehicle (that is, the position and orientation of the camera), and Based on the position information of the flying object, the position of the object in the virtual model space of the three-dimensional model data is determined (corrected). Note that when determining the position of the object on the virtual model space, the origin of the coordinate system of the motion capture device 30 and the direction of each axis are positioned relative to the coordinate system of the virtual model space corresponding to the real space. Match.

情報処理装置20が生成した3次元データは、例えばインターネット等のネットワークを介して表示装置40に送信され、表示装置40の画面に表示される(S105)。ユーザーは、ネットワークにつながる位置であれば、どこからでも表示装置40を介して対象領域、対象物の3次元形状を確認することができる。このような動画データの分割(短時間化)処理、3次元点群データの生成処理、表示装置への送信処理は、連続的に繰返し実行される。 The three-dimensional data generated by the information processing device 20 is transmitted to the display device 40 via a network such as the Internet, and is displayed on the screen of the display device 40 (S105). The user can check the target area and the three-dimensional shape of the target object via the display device 40 from any location connected to the network. Such video data division (time reduction) processing, three-dimensional point cloud data generation processing, and transmission processing to a display device are continuously and repeatedly executed.

以上の通り、本実施形態の3次元データ生成システムにあっては、撮影装置で対象領域を撮影して撮影時刻情報を含む動画データを生成可能な移動体と、移動体の位置を検出して検出時刻情報を含む位置データを生成可能なモーションキャプチャ装置と、移動体からの動画データ、及びモーションキャプチャ装置からの位置データを受信する情報処理装置と、を備え、情報処理装置は、受信した動画データを所定の時間長さに分割して複数の短時間動画データを生成する分割処理と、短時間動画データ及び短時間動画データの撮影時刻に対応する移動体の位置データに基づいて、短時間動画データに対応する対象領域の少なくとも一部の3次元点群データを生成する生成処理と、生成した少なくとも一部の3次元点群データを表示装置に送信する処理とを、実行する。このように、動画データを複数の短時間動画データに分割して3次元データを生成する処理を繰り返すことで、動画データを分割せずに3次元点群データを生成する場合に比べて、短時間で3次元データを生成し、表示装置に表示させることが可能となる。したがって、ユーザーは、無人飛行体1で撮影される対象物の3次元形状を、実質的にリアルタイムで確認することができる。 As described above, the three-dimensional data generation system of this embodiment detects a moving object capable of photographing a target area with a photographing device and generating video data including photographing time information, and detecting the position of the mobile object. The information processing device includes a motion capture device that can generate position data including detection time information, and an information processing device that receives video data from a moving object and position data from the motion capture device. A dividing process that divides data into predetermined time lengths to generate multiple short-time video data, and a short-time video data based on the short-time video data and the position data of the moving object corresponding to the shooting time of the short-time video data. A generation process of generating three-dimensional point cloud data of at least a portion of a target area corresponding to video data, and a process of transmitting at least a portion of the generated three-dimensional point cloud data to a display device are executed. In this way, by repeating the process of dividing video data into multiple pieces of short-time video data and generating 3D data, it is possible to generate 3D point cloud data in a shorter time than when creating 3D point cloud data without dividing video data. It becomes possible to generate three-dimensional data in time and display it on a display device. Therefore, the user can confirm the three-dimensional shape of the object photographed by the unmanned flying vehicle 1 substantially in real time.

また、本実施形態の3次元データ生成システムにあっては、無人飛行体1(移動体)から送られる動画データを受信し、動画データをサーバに送信する中継装置をさらに備えるようにしてもよい。この場合、情報処理装置20よりも無人飛行体1からの距離が小さい中継装置に動画データを送信するようにすることができるので、無人飛行体1から情報処理装置20に対して直接動画データを送信する場合に比べて、無人飛行体1の処理負荷が軽減し、また通信能力を低く抑えることができる。 Further, the three-dimensional data generation system of this embodiment may further include a relay device that receives video data sent from the unmanned flying object 1 (mobile object) and transmits the video data to the server. . In this case, since the video data can be transmitted to a relay device that is closer to the unmanned aerial vehicle 1 than the information processing device 20, the video data can be directly transmitted from the unmanned aerial vehicle 1 to the information processing device 20. Compared to the case of transmission, the processing load on the unmanned aerial vehicle 1 can be reduced, and the communication capacity can be kept low.

また、本実施形態の3次元データ生成システムにあっては、移動体が、撮影装置で撮影した動画データを低画質化してからサーバ装置に送信するようにしてもよい。このように、動画データを低画質化することで送信するデータ容量を低減することができるので、通信に係る負荷を軽減し、通信時間を短縮することができる。 Furthermore, in the three-dimensional data generation system of this embodiment, the moving object may lower the image quality of the video data shot by the imaging device before transmitting it to the server device. In this way, by lowering the image quality of the video data, the amount of data to be transmitted can be reduced, so the load associated with communication can be reduced and the communication time can be shortened.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although preferred embodiments of the present disclosure have been described above in detail with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is clear that a person with ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. It is understood that these also naturally fall within the technical scope of the present disclosure.

なお、上記実施形態においては、自律飛行制御を無人飛行体1のフライトコントローラ11により実行するものとして説明したが、本技術はかかる例に限定されない。すなわち、かかる自律飛行制御方法は、無人飛行体においてエッジで処理される例に限られず、他の自律飛行制御装置により遠隔で上述した補正処理がなされ、その処理結果を無人飛行体に送信し、かかる結果をもとに駆動部を制御するようなものであってもよい。つまり、かかる自律飛行制御方法を実行するハードウェアの主体は特に限定されず、上述した機能部は複数のハードウェアにより実行されるものであってもよい。 In addition, in the said embodiment, although the autonomous flight control was demonstrated as being performed by the flight controller 11 of the unmanned flying object 1, this technique is not limited to such an example. That is, such an autonomous flight control method is not limited to an example in which processing is performed at the edge of an unmanned flying vehicle, but also involves performing the above-described correction processing remotely by another autonomous flight control device, transmitting the processing result to the unmanned flying vehicle, The drive unit may be controlled based on such results. In other words, the hardware that executes this autonomous flight control method is not particularly limited, and the above-described functional units may be executed by a plurality of pieces of hardware.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Further, the effects described in this specification are merely explanatory or illustrative, and are not limiting. In other words, the technology according to the present disclosure can have other effects that are obvious to those skilled in the art from the description of this specification, in addition to or in place of the above effects.

なお、以下のような構成も本開示の技術的範囲に属する。
(項目1)
撮影装置で対象領域を撮影して撮影時刻情報を含む動画データを生成可能な飛行体と、
飛行体の位置を検出して検出時刻情報を含む位置データを生成可能な位置データ生成システムと、
前記飛行体からの前記動画データ、及び前記位置データ生成システムからの前記位置データを受信する情報処理装置と、を備え、
前記情報処理装置は、
受信した前記動画データを所定の時間長さに分割して複数の短時間動画データを生成する分割処理と、
前記短時間動画データ及び該短時間動画データの撮影時刻に対応する飛行体の前記位置データに基づいて、前記短時間動画データに対応する前記対象領域の少なくとも一部の3次元点群データを生成する生成処理と、
生成した前記少なくとも一部の3次元点群データを表示装置に送信する処理とを、実行する、3次元データ生成システム。
(項目2)
前記飛行体から送られる前記動画データを受信し、該動画データを前記サーバに送信する中継装置をさらに備える、項目1に記載の3次元データ生成システム。
(項目3)
前記飛行体は、前記動画データを低画質化してから前記サーバ装置に送信する、請求項1または2に記載の3次元データ生成システム。
(項目4)
前記位置データ生成システムは、モーションキャプチャ装置である、請求項1乃至3の何れかに記載の3次元データ生成システム。
(項目5)
撮影装置で対象領域を撮影して撮影時刻情報を含む動画データを生成可能な飛行体と、
飛行体の位置を検出して検出時刻情報を含む位置データを生成可能な位置データ生成システムと、
前記飛行体からの前記動画データ、及び前記位置データ生成システムからの前記位置データを受信する情報処理装置と、を用いて3次元点群データを生成する方法であって、
前記情報処理装置は、
受信した前記動画データを所定の時間長さに分割して複数の短時間動画データを生成する分割処理と、
前記短時間動画データ及び該短時間動画データの撮影時刻に対応する飛行体の前記位置データに基づいて、前記短時間動画データに対応する前記対象領域の少なくとも一部の3次元点群データを生成する生成処理と、
生成した前記少なくとも一部の3次元点群データを表示装置に送信する処理とを、実行する、3次元データ生成方法。
Note that the following configurations also belong to the technical scope of the present disclosure.
(Item 1)
A flying object capable of photographing a target area with a photographing device and generating video data including photographing time information;
a position data generation system capable of detecting the position of an aircraft and generating position data including detection time information;
an information processing device that receives the video data from the flying object and the position data from the position data generation system,
The information processing device includes:
a dividing process of dividing the received video data into predetermined time lengths to generate a plurality of short-time video data;
Generating three-dimensional point cloud data of at least a portion of the target area corresponding to the short-time video data based on the short-time video data and the position data of the flying object corresponding to the shooting time of the short-time video data. generation processing,
A three-dimensional data generation system that executes a process of transmitting at least part of the generated three-dimensional point group data to a display device.
(Item 2)
The three-dimensional data generation system according to item 1, further comprising a relay device that receives the video data sent from the flying object and transmits the video data to the server.
(Item 3)
The three-dimensional data generation system according to claim 1 or 2, wherein the flying object lowers the image quality of the video data before transmitting it to the server device.
(Item 4)
The three-dimensional data generation system according to any one of claims 1 to 3, wherein the position data generation system is a motion capture device.
(Item 5)
A flying object capable of photographing a target area with a photographing device and generating video data including photographing time information;
a position data generation system capable of detecting the position of an aircraft and generating position data including detection time information;
A method of generating three-dimensional point group data using an information processing device that receives the video data from the flying object and the position data from the position data generation system, the method comprising:
The information processing device includes:
a dividing process of dividing the received video data into predetermined time lengths to generate a plurality of short-time video data;
Generating three-dimensional point cloud data of at least a portion of the target area corresponding to the short-time video data based on the short-time video data and the position data of the flying object corresponding to the shooting time of the short-time video data. generation processing,
A three-dimensional data generation method, comprising: transmitting at least part of the generated three-dimensional point group data to a display device.

1 無人飛行体(移動体)
20 情報処理装置
30 モーションキャプチャ装置(位置データ生成システム)
100 3次元データ生成システム
1 Unmanned aerial vehicle (mobile object)
20 Information processing device 30 Motion capture device (position data generation system)
100 3D data generation system

Claims (5)

撮影装置で対象領域を撮影して撮影時刻情報を含む動画データを生成可能な飛行体と、
前記飛行体の位置を検出して検出時刻情報を含む位置データを生成可能な位置データ生成システムと、
前記飛行体からの前記動画データ、及び前記位置データ生成システムからの前記位置データを受信する情報処理装置と、を備え、
前記情報処理装置は、
受信した前記動画データを所定の時間長さに分割して複数の短時間動画データを生成する分割処理と、
前記短時間動画データ及び該短時間動画データの撮影時刻に対応する飛行体の前記位置データに基づいて、前記短時間動画データに対応する前記対象領域の少なくとも一部の3次元点群データを生成する生成処理と、
生成した前記少なくとも一部の3次元点群データを表示装置に送信する処理とを、実行する、3次元データ生成システム。
A flying object capable of photographing a target area with a photographing device and generating video data including photographing time information;
a position data generation system capable of detecting the position of the flying object and generating position data including detection time information;
an information processing device that receives the video data from the flying object and the position data from the position data generation system,
The information processing device includes:
a dividing process of dividing the received video data into predetermined time lengths to generate a plurality of short-time video data;
Generating three-dimensional point cloud data of at least a portion of the target area corresponding to the short-time video data based on the short-time video data and the position data of the flying object corresponding to the shooting time of the short-time video data. generation processing,
A three-dimensional data generation system that executes a process of transmitting at least part of the generated three-dimensional point group data to a display device.
前記飛行体から送られる前記動画データを受信し、該動画データを前記サーバに送信する中継装置をさらに備える、請求項1に記載の3次元データ生成システム。 The three-dimensional data generation system according to claim 1, further comprising a relay device that receives the video data sent from the flying object and transmits the video data to the server. 前記飛行体は、前記動画データを低画質化してから前記サーバ装置に送信する、請求項1または2に記載の3次元データ生成システム。 The three-dimensional data generation system according to claim 1 or 2, wherein the flying object lowers the image quality of the video data before transmitting it to the server device. 前記位置データ生成システムは、モーションキャプチャ装置である、請求項1または2に記載の3次元データ生成システム。 The three-dimensional data generation system according to claim 1 or 2, wherein the position data generation system is a motion capture device. 撮影装置で対象領域を撮影して撮影時刻情報を含む動画データを生成可能な飛行体と、
飛行体の位置を検出して検出時刻情報を含む位置データを生成可能な位置データ生成システムと、
前記飛行体からの前記動画データ、及び前記位置データ生成システムからの前記位置データを受信する情報処理装置と、を用いて3次元点群データを生成する方法であって、
前記情報処理装置は、
受信した前記動画データを所定の時間長さに分割して複数の短時間動画データを生成する分割処理と、
前記短時間動画データ及び該短時間動画データの撮影時刻に対応する飛行体の前記位置データに基づいて、前記短時間動画データに対応する前記対象領域の少なくとも一部の3次元点群データを生成する生成処理と、
生成した前記少なくとも一部の3次元点群データを表示装置に送信する処理とを、実行する、3次元データ生成方法。
A flying object capable of photographing a target area with a photographing device and generating video data including photographing time information;
a position data generation system capable of detecting the position of an aircraft and generating position data including detection time information;
A method of generating three-dimensional point group data using an information processing device that receives the video data from the flying object and the position data from the position data generation system, the method comprising:
The information processing device includes:
a dividing process of dividing the received video data into predetermined time lengths to generate a plurality of short-time video data;
Generating three-dimensional point cloud data of at least a portion of the target area corresponding to the short-time video data based on the short-time video data and the position data of the flying object corresponding to the shooting time of the short-time video data. generation processing,
A three-dimensional data generation method, comprising: transmitting at least part of the generated three-dimensional point group data to a display device.
JP2022123770A 2022-08-03 2022-08-03 3D data generation system and 3D data generation method Pending JP2024021143A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022123770A JP2024021143A (en) 2022-08-03 2022-08-03 3D data generation system and 3D data generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022123770A JP2024021143A (en) 2022-08-03 2022-08-03 3D data generation system and 3D data generation method

Publications (1)

Publication Number Publication Date
JP2024021143A true JP2024021143A (en) 2024-02-16

Family

ID=89854862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022123770A Pending JP2024021143A (en) 2022-08-03 2022-08-03 3D data generation system and 3D data generation method

Country Status (1)

Country Link
JP (1) JP2024021143A (en)

Similar Documents

Publication Publication Date Title
US11797009B2 (en) Unmanned aerial image capture platform
US10802509B2 (en) Selective processing of sensor data
US20200026720A1 (en) Construction and update of elevation maps
US10852723B2 (en) Unmanned aerial vehicle swarm photography
CN108351649B (en) Method and apparatus for controlling a movable object
EP3971674B1 (en) Systems and methods for uav flight control
US20190220039A1 (en) Methods and system for vision-based landing
CN109219785B (en) Multi-sensor calibration method and system
CN109388150B (en) Multi-sensor environment mapping
US11513514B2 (en) Location processing device, flight vehicle, location processing system, flight system, location processing method, flight control method, program and recording medium
US20210034052A1 (en) Information processing device, instruction method for prompting information, program, and recording medium
JP2021162572A (en) Position calculation method and information processing system
CN111665870A (en) Trajectory tracking method and unmanned aerial vehicle
US20210229810A1 (en) Information processing device, flight control method, and flight control system
WO2020062255A1 (en) Photographing control method and unmanned aerial vehicle
JP2024021143A (en) 3D data generation system and 3D data generation method
JP6684012B1 (en) Information processing apparatus and information processing method
WO2021130980A1 (en) Aircraft flight path display method and information processing device
JP2021100234A (en) Aircraft imaging method and information processing device
JP2024008901A (en) Three-dimensional data generation system, three-dimensional data generation method, and marker measure
WO2022113482A1 (en) Information processing device, method, and program
JP2023083072A (en) Method, system and program
JPWO2021124579A1 (en) Aircraft imaging method and information processing equipment