JP2021028188A - Drone imaging device and method - Google Patents

Drone imaging device and method Download PDF

Info

Publication number
JP2021028188A
JP2021028188A JP2019147203A JP2019147203A JP2021028188A JP 2021028188 A JP2021028188 A JP 2021028188A JP 2019147203 A JP2019147203 A JP 2019147203A JP 2019147203 A JP2019147203 A JP 2019147203A JP 2021028188 A JP2021028188 A JP 2021028188A
Authority
JP
Japan
Prior art keywords
drone
unit
posture
angular velocity
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019147203A
Other languages
Japanese (ja)
Inventor
祐輔 中西
Yusuke Nakanishi
祐輔 中西
菊地 英幸
Hideyuki Kikuchi
英幸 菊地
及川 浩一
Koichi Oikawa
浩一 及川
日高 洋士
Yoji Hidaka
洋士 日高
長谷川 英司
Eiji Hasegawa
英司 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019147203A priority Critical patent/JP2021028188A/en
Publication of JP2021028188A publication Critical patent/JP2021028188A/en
Pending legal-status Critical Current

Links

Landscapes

  • Gyroscopes (AREA)
  • Studio Devices (AREA)

Abstract

To take high-quality images efficiently in filming using a drone.SOLUTION: In making a film of a wall surface using a camera fixed on a drone supported by a support member including two wheels and an axle, a distance between the camera and the wall surface 80 is calculated by resetting a yaw angular velocity included in gyro data to a reference value when both wheels contact the wall surface; a yaw angle θY is calculated based on the yaw angular velocity in which the amount of deviation of the reference value is corrected when one wheel contacts the wall surface; a distance DY to the wall surface 80 in relation to the yaw angle θY is calculated by a formula DY=R+LtanθY using the radius of wheel R, the length L of the axle, and the calculated yaw angle θY; and the distance D to the wall surface 80 is calculated by synthesizing the distance DY and a distance DP to the wall surface 80 relevant to a pitch angle θP.SELECTED DRAWING: Figure 11

Description

開示の技術は、ドローン撮影装置、及びドローン撮影方法に関する。 The disclosed technique relates to a drone photographing device and a drone photographing method.

近年、橋梁等の構造物の壁面に生じたひび割れ等の点検に、壁面を撮影した画像を利用することが行われている。この画像の撮影に、カメラを搭載したドローンを利用することで、作業の効率化及びコスト削減が期待される。例えば、橋梁等の壁面をドローンに固定したカメラで連続撮影し、それらの画像を1つのパノラマ画像に合成する。 In recent years, images of the wall surface have been used to inspect cracks and the like that have occurred on the wall surface of structures such as bridges. By using a drone equipped with a camera to capture this image, work efficiency and cost reduction are expected. For example, the wall surface of a bridge or the like is continuously photographed by a camera fixed to a drone, and these images are combined into one panoramic image.

カメラで撮影した画像を、ひび割れの点検等の健全度診断用のパノラマ画像に使用する場合、約0.1mmのひび割れも確認可能となるように、ピントの合った画像を撮影する必要がある。また、落下する可能性のあるドローンに搭載されるカメラは、軽量かつ安価なものであることが多く、このような安価なカメラのオートフォーカス任せのフォーカス調整により画像が撮影される。この場合、例えば、コンクリート壁面のようなグレー一色に近い撮影面を近接撮影することで、ピントが合っていないボケ画像となる可能性がある。 When the image taken by the camera is used as a panoramic image for soundness diagnosis such as inspection of cracks, it is necessary to take an image in focus so that a crack of about 0.1 mm can be confirmed. In addition, the cameras mounted on the drones that may fall are often lightweight and inexpensive, and images are taken by the focus adjustment left to the autofocus of such inexpensive cameras. In this case, for example, by taking a close-up shot of a shooting surface that is close to a single gray color, such as a concrete wall surface, a blurred image that is out of focus may be obtained.

ボケ画像では、ひび割れ等の点検を行うことができないため、従来は、撮影した全ての画像、又は一部の画像を人が目視することにより、ボケ画像か否かを判別し、ボケ画像の場合には画像の撮り直しを行っている。 Since it is not possible to inspect cracks and the like in a blurred image, conventionally, a person visually inspects all or some of the captured images to determine whether or not the image is a blurred image, and in the case of a blurred image. The image is being retaken.

また、ドローンに関する技術として、移動体を安全に移動させるための情報を得ることができる測距装置が提案されている。この測距装置は、移動体に搭載される測距装置であって、移動体にジンバルを介して取り付けられる。そして、この測距装置は、対象物までの距離情報を測定する測距系と、移動体の移動に伴う測距系と移動体の相対的な姿勢変化に関する情報である姿勢変化情報を検出する検出系とを備えている。また、この測距装置は、姿勢変化情報を用いて距離情報を補正する制御演算部を備えている。 In addition, as a technique related to drones, a distance measuring device that can obtain information for safely moving a moving object has been proposed. This distance measuring device is a distance measuring device mounted on a moving body, and is attached to the moving body via a gimbal. Then, this distance measuring device detects a distance measuring system that measures the distance information to the object, and posture change information that is information on the relative posture change between the distance measuring system and the moving body due to the movement of the moving body. It is equipped with a detection system. Further, this distance measuring device includes a control calculation unit that corrects the distance information by using the attitude change information.

また、飛行体の移動速度を低速度でも高精度に計測する計測装置が提案されている。この計測装置の計算機は、ドローンが空中で移動しているときに、IMU(inertial measurement unit)の加速度センサより得られた計測値を積分してドローンの移動速度を算出する。また、計算機は、ドローンが空中で移動しているときに、IMUの加速度センサの計測誤差の推定値が閾値を超えた場合、ドローンを空中で静止させる。さらに、計算機は、回転数センサより得られた計測値に基づいてIMUの加速度センサの計測誤差を補正した後、ドローンの移動を再開させる。 Further, a measuring device for measuring the moving speed of an air vehicle with high accuracy even at a low speed has been proposed. The computer of this measuring device integrates the measured values obtained from the acceleration sensor of the IMU (inertial measurement unit) when the drone is moving in the air to calculate the moving speed of the drone. In addition, the computer makes the drone rest in the air when the estimated value of the measurement error of the acceleration sensor of the IMU exceeds the threshold value while the drone is moving in the air. Further, the computer corrects the measurement error of the acceleration sensor of the IMU based on the measured value obtained from the rotation speed sensor, and then restarts the movement of the drone.

特開2017−227516号公報JP-A-2017-227516 特開2018−179579号公報JP-A-2018-179579

上述したように、ドローンを利用した撮影において、落下の可能性のあるドローンに搭載することを考慮すると、ドローンに高機能な高価なカメラを搭載することは難しい。 As described above, in shooting using a drone, it is difficult to mount a high-performance and expensive camera on the drone, considering that it is mounted on a drone that may fall.

また、従来技術のように、対象物までの距離を測距することで、安価なカメラでピントを合わせることも考えられる。しかし、この場合、ドローン内蔵のセンサ以外に特別な測距系を必要とし、その重量により飛行時間が制限されたり、ドローンが高価になったりという問題がある。 It is also conceivable to focus with an inexpensive camera by measuring the distance to the object as in the conventional technique. However, in this case, a special ranging system is required in addition to the sensor built in the drone, and there are problems that the flight time is limited by the weight and the drone becomes expensive.

さらに、目視確認によりボケ画像が見つかり、ドローンを利用した撮影のやり直しを行う場合には、点検等の作業効率を低下させるという問題がある。 Further, when a blurred image is found by visual confirmation and re-shooting using a drone is performed, there is a problem that work efficiency such as inspection is lowered.

一つの側面として、開示の技術は、ドローンを利用した撮影において、画質の良い画像を効率的に撮影することを目的とする。 As one aspect, the disclosed technology aims to efficiently capture a high-quality image in shooting using a drone.

一つの態様として、開示の技術は、ドローンに固定され、画像を撮影する撮影部と、撮影面に対する前記ドローンの姿勢が予め定めた基準姿勢を維持するように支持する支持部とを含む。また、開示の技術は、前記ドローンの姿勢が前記基準姿勢から変化したか否かを判別する判別部を含む。また、開示の技術は、前記判別部により前記ドローンが前記基準姿勢であると判別されている場合、前記ドローンに内蔵されたジャイロセンサで取得される角速度を基準値に補正する補正部とを含む。さらに、開示の技術は、前記補正部により前記基準値に補正された角速度に基づく値を用いて、前記撮影部から前記撮影面までの距離を算出する算出部と、前記算出部により算出された前記距離に基づいて、前記撮影部のフォーカスを調整する調整部とを含む。 In one embodiment, the disclosed technique includes a photographing unit that is fixed to the drone and captures an image, and a support unit that supports the drone's posture with respect to the photographing surface so as to maintain a predetermined reference posture. Further, the disclosed technique includes a discriminating unit for determining whether or not the posture of the drone has changed from the reference posture. Further, the disclosed technique includes a correction unit that corrects the angular velocity acquired by the gyro sensor built in the drone to a reference value when the drone is determined to be in the reference posture by the determination unit. .. Further, the disclosed technique is calculated by a calculation unit that calculates the distance from the imaging unit to the imaging surface using a value based on the angular velocity corrected to the reference value by the correction unit, and the calculation unit. It includes an adjusting unit that adjusts the focus of the photographing unit based on the distance.

一つの側面として、ドローンを利用した撮影において、画質の良い画像を効率的に撮影することができる、という効果を有する。 As one aspect, there is an effect that an image with good image quality can be efficiently taken in shooting using a drone.

本実施形態に係るドローン撮影装置の使用場面を説明するための図である。It is a figure for demonstrating the use scene of the drone photographing apparatus which concerns on this embodiment. 本実施形態に係るドローン撮影装置の外観斜視図である。It is external perspective view of the drone photographing apparatus which concerns on this embodiment. ドローンの基準姿勢を説明するための図である。It is a figure for demonstrating the reference posture of a drone. ドローンの基準姿勢を説明するための図である。It is a figure for demonstrating the reference posture of a drone. ドローンの基準姿勢を説明するための図である。It is a figure for demonstrating the reference posture of a drone. ドローンの基準姿勢を説明するための図である。It is a figure for demonstrating the reference posture of a drone. ドローンの基準姿勢からの変化を説明するための図である。It is a figure for demonstrating the change from the reference posture of a drone. 本実施形態に係るドローン撮影装置の機能的構成に関する部分を示すブロック図である。It is a block diagram which shows the part about the functional structure of the drone photographing apparatus which concerns on this embodiment. ヨー角速度の変動の一例を示す図である。It is a figure which shows an example of the fluctuation of the yaw angular velocity. ヨー角速度の基準値のずれ量の補正を説明するための図である。It is a figure for demonstrating the correction of the deviation amount of the reference value of a yaw angular velocity. 壁面までの距離の算出を説明するための図である。It is a figure for demonstrating the calculation of the distance to a wall surface. 壁面までの距離の算出を説明するための図である。It is a figure for demonstrating the calculation of the distance to a wall surface. 壁面までの距離の算出を説明するための図である。It is a figure for demonstrating the calculation of the distance to a wall surface. ドローン撮影装置に含まれるドローンの制御部として機能するコンピュータの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the computer which functions as the control part of the drone included in the drone photographing apparatus. ドローン撮影処理の一例を示すフローチャートである。It is a flowchart which shows an example of a drone shooting process. ドローン撮影装置の他の構成例を示す概略図である。It is the schematic which shows the other configuration example of the drone photographing apparatus. ドローン撮影装置の他の構成例を示す概略図である。It is the schematic which shows the other configuration example of the drone photographing apparatus.

以下、図面を参照して、開示の技術に係る実施形態の一例を説明する。本実施形態では、橋梁等のコンクリートの壁面を、ドローンを利用して撮影するドローン撮影装置について説明する。 Hereinafter, an example of the embodiment according to the disclosed technology will be described with reference to the drawings. In the present embodiment, a drone photographing device for photographing a concrete wall surface such as a bridge by using a drone will be described.

図1に示すように、本実施形態に係るドローン撮影装置10は、橋梁等の点検対象の構造物が存在する現場で使用される。ドローン撮影装置10により撮影された画像、例えば、コンクリートの壁面のひび割れを点検するためのひび割れ画像は、例えば、事務所に設置されたストレージに記憶される。また、事務所のストレージには、点検対象の構造物の3Dモデル、その他の点検記録やセンサデータ等も記憶される。ストレージに記憶された各種情報は、事務所に設置された情報処理装置、又は現場で利用されるタブレット端末等で動作する各種アプリケーションで利用される。事務所で利用されるアプリケーションとしては、例えば、ひび割れ画像のオルソ化、ひび割れ画像に基づく橋梁の異常監視、センサデータの分析、アセットマネジメント等のアプリケーションが挙げられる。また、現場で利用されるアプリケーションとしては、タブレット端末を利用した点検、ひび割れ損傷箇所の自動検出等のアプリケーションが挙げられる。 As shown in FIG. 1, the drone photographing apparatus 10 according to the present embodiment is used at a site where a structure to be inspected such as a bridge exists. An image taken by the drone photographing apparatus 10, for example, a crack image for inspecting a crack on a concrete wall surface is stored in, for example, a storage installed in an office. In addition, the 3D model of the structure to be inspected, other inspection records, sensor data, etc. are also stored in the storage of the office. The various information stored in the storage is used by various applications that operate on an information processing device installed in the office or a tablet terminal used in the field. Applications used in the office include, for example, ortholation of crack images, bridge abnormality monitoring based on crack images, sensor data analysis, asset management, and the like. In addition, applications used in the field include applications such as inspection using a tablet terminal and automatic detection of cracked damaged parts.

図2に、本実施形態に係るドローン撮影装置10の外観斜視図を示す。図2に示すように、ドローン撮影装置10は、ドローン20と、支持部32と、圧力センサ34A、34Bと、カメラ40とを含む。 FIG. 2 shows an external perspective view of the drone photographing apparatus 10 according to the present embodiment. As shown in FIG. 2, the drone photographing apparatus 10 includes a drone 20, a support portion 32, pressure sensors 34A and 34B, and a camera 40.

ドローン20は、遠隔操縦又は自律制御により飛行する無人の飛行物体である。本実施形態では、ドローン20は、後述する支持部32の車輪32A、32Bが壁面80に接触する方向に負荷をかけつつ、壁面80に沿って所定方向(例えば、上方向又は下方向)に移動するように制御される。ドローン20の飛行に関する機構(プロペラ、通信部、これらの制御機構等)については、一般的な構成を採用することができるため、本実施形態では詳細な説明を省略する。 The drone 20 is an unmanned flying object that flies by remote control or autonomous control. In the present embodiment, the drone 20 moves in a predetermined direction (for example, upward or downward) along the wall surface 80 while applying a load in the direction in which the wheels 32A and 32B of the support portion 32 described later come into contact with the wall surface 80. It is controlled to do. Since a general configuration can be adopted for the flight mechanism of the drone 20 (propeller, communication unit, control mechanism thereof, etc.), detailed description thereof will be omitted in the present embodiment.

支持部32は、壁面に対するドローン20の姿勢が予め定めた基準姿勢を維持するようにドローン20を支持する。具体的には、支持部32は、車輪32A、32Bと、車軸32Cとを含み、車軸32Cの両端に車輪32A、32Bが取り付けられ、車軸32Cの長さ方向の中央部分にドローン20が固定される。上述のように、車輪32A、32Bが壁面80に接触する方向に負荷をかけつつ、壁面80に沿って所定方向に移動するようにドローン20が制御されている場合に、支持部32は、基準姿勢を維持するようにドローン20を支持する。 The support portion 32 supports the drone 20 so that the posture of the drone 20 with respect to the wall surface maintains a predetermined reference posture. Specifically, the support portion 32 includes the wheels 32A and 32B and the axle 32C, the wheels 32A and 32B are attached to both ends of the axle 32C, and the drone 20 is fixed to the central portion of the axle 32C in the length direction. Wheel. As described above, when the drone 20 is controlled to move in a predetermined direction along the wall surface 80 while applying a load in the direction in which the wheels 32A and 32B come into contact with the wall surface 80, the support portion 32 is a reference. Support the drone 20 to maintain its posture.

図3〜図6を参照して、ドローン20の基準姿勢について説明する。図3は、壁面80とドローン20及び車輪32A、32Bとを側面から見た概略図、図4は、上面から見た概略図である。図3及び図4に示すように、車輪32A、32Bの半径をR、車軸32Cの中心から車輪32A、32Bまでの長さ(以下、単に「車軸32Cの長さ」という)をL、カメラ40のレンズの中心から車軸32Cの中心線までの長さをHとする。これらの値は、ドローン20と壁面80との位置関係を特定する情報であり、後述する片輪時の壁面80までの距離の算出に用いられる。 The reference posture of the drone 20 will be described with reference to FIGS. 3 to 6. FIG. 3 is a schematic view of the wall surface 80, the drone 20, and the wheels 32A and 32B as viewed from the side surface, and FIG. 4 is a schematic view as viewed from the upper surface. As shown in FIGS. 3 and 4, the radius of the wheels 32A and 32B is R, the length from the center of the axle 32C to the wheels 32A and 32B (hereinafter, simply referred to as “the length of the axle 32C”) is L, and the camera 40. Let H be the length from the center of the lens to the center line of the axle 32C. These values are information for specifying the positional relationship between the drone 20 and the wall surface 80, and are used for calculating the distance to the wall surface 80 at the time of one wheel, which will be described later.

図3及び図4に示すように、両輪が壁面80に接している状態におけるドローン20の姿勢を基準姿勢とする。本実施形態では、壁面80の法線方向をx軸、壁面80と平行な水平方向をy軸、鉛直方向をz軸とし、x軸周りの回転角をロール角、y軸周りの回転角をピッチ角、z軸周りの回転角をヨー角とする。したがって、両輪が壁面80に接している状態は、ドローン20のヨー角が0°の場合である。 As shown in FIGS. 3 and 4, the posture of the drone 20 in a state where both wheels are in contact with the wall surface 80 is used as a reference posture. In the present embodiment, the normal direction of the wall surface 80 is the x-axis, the horizontal direction parallel to the wall surface 80 is the y-axis, the vertical direction is the z-axis, the rotation angle around the x-axis is the roll angle, and the rotation angle around the y-axis is. Let the pitch angle and the rotation angle around the z-axis be the yaw angle. Therefore, the state in which both wheels are in contact with the wall surface 80 is when the yaw angle of the drone 20 is 0 °.

本実施形態では、両輪が壁面に接していれば、図5に示すように、ドローン20のピッチ角θが0°より大きい場合、及び図6に示すように、ドローン20のロール角θが0°より大きい場合でも、ドローン20は基準姿勢であるものとする。図7に示すように、片輪(図7の例では、車輪32B)が壁面80と非接触となった場合、ドローン20のヨー角θが0°より大きくなり、ドローン20が基準姿勢から変化したことを表す。 In the present embodiment, if both wheels are in contact with the wall surface, the pitch angle θ P of the drone 20 is larger than 0 ° as shown in FIG. 5, and the roll angle θ R of the drone 20 is as shown in FIG. Even if is greater than 0 °, the drone 20 shall be in the reference position. As shown in FIG. 7, when one wheel (wheel 32B in the example of FIG. 7) is not in contact with the wall surface 80, the yaw angle θ Y of the drone 20 becomes larger than 0 °, and the drone 20 is in the reference posture. Indicates that it has changed.

圧力センサ34A、34Bは、車輪32A、32Bが取り付けられた車軸32C部分に設置され、車輪32A、32Bの各々と壁面80との間に生じる圧力を検出し、検出したセンサ値を出力する。 The pressure sensors 34A and 34B are installed on the axle 32C portion to which the wheels 32A and 32B are attached, detect the pressure generated between each of the wheels 32A and 32B and the wall surface 80, and output the detected sensor value.

カメラ40は、ドローン20に固定され、設定された焦点距離に基づいてフォーカスを調整して画像を撮影する。ドローン20の姿勢が、ロール角θ、ピッチ角θ、及びヨー角θ共に0°の状態における、カメラ40の受像面から壁面80までの光軸上の距離(以下、単に「壁面80までの距離」という)が固定の焦点距離として設定される。ドローン20の姿勢に変化が生じると、壁面80までの距離が算出され(詳細は後述)、算出された距離が焦点距離として設定され、フォーカスが調整される。 The camera 40 is fixed to the drone 20 and adjusts the focus based on the set focal length to take an image. The distance on the optical axis from the image receiving surface of the camera 40 to the wall surface 80 when the posture of the drone 20 is 0 ° for all of the roll angle θ R , the pitch angle θ P , and the yaw angle θ Y (hereinafter, simply “wall surface 80”). Distance to) is set as a fixed focal length. When the posture of the drone 20 changes, the distance to the wall surface 80 is calculated (details will be described later), the calculated distance is set as the focal length, and the focus is adjusted.

なお、以下では、説明を簡単にするため、カメラ40の受像面が、ドローン20の中心にあり、かつドローン20の姿勢が、ロール角θ、ピッチ角θ、及びヨー角θ共に0°の状態で壁面80と平行になるように位置するものとして説明する。 In the following, for the sake of simplicity, the image receiving surface of the camera 40 is at the center of the drone 20, and the posture of the drone 20 is 0 for the roll angle θ R , the pitch angle θ P , and the yaw angle θ Y. It will be described as being positioned so as to be parallel to the wall surface 80 in the state of °.

カメラ40で撮影された画像を示す画像データは、カメラ40に挿入されるSDカード等の記憶媒体に記憶してもよいし、ドローン20へ出力して、ドローン20が有する記憶領域に記憶してもよい。また、通信回線を介して、外部の記憶装置へ送信して記憶するようにしてもよい。 The image data showing the image taken by the camera 40 may be stored in a storage medium such as an SD card inserted in the camera 40, or may be output to the drone 20 and stored in the storage area of the drone 20. May be good. Further, it may be transmitted to an external storage device via a communication line and stored.

次に、図8を参照して、本実施形態に係るドローン撮影装置10の機能的構成に関する部分について説明する。 Next, with reference to FIG. 8, a part related to the functional configuration of the drone photographing apparatus 10 according to the present embodiment will be described.

図8に示すように、ドローン20は、ジャイロセンサ部22と制御部24とを含む。 As shown in FIG. 8, the drone 20 includes a gyro sensor unit 22 and a control unit 24.

ジャイロセンサ部22部は、例えば、3軸ジャイロセンサ、加速度センサ、及び磁気センサを含む。3軸ジャイロセンサは、x軸、y軸、及びz軸の各軸周りの角速度(ロール角速度、ピッチ角速度、及びヨー角速度)を検出する。また、3軸ジャイロセンサで検出されたロール角速度及びピッチ角速度は、主に加速度センサで検出された値を用いて補正され、ヨー角速度は、主に磁気センサで検出された値を用いて補正される。ジャイロセンサ部22は、補正された各角速度の値をジャイロデータとして出力する。 The 22 gyro sensor unit includes, for example, a 3-axis gyro sensor, an acceleration sensor, and a magnetic sensor. The 3-axis gyro sensor detects angular velocities (roll angular velocity, pitch angular velocity, and yaw angular velocity) around each of the x-axis, y-axis, and z-axis. The roll angular velocity and pitch angular velocity detected by the 3-axis gyro sensor are corrected mainly by using the values detected by the acceleration sensor, and the yaw angular velocity is corrected mainly by using the values detected by the magnetic sensor. To. The gyro sensor unit 22 outputs the corrected angular velocity values as gyro data.

制御部24は、機能的には、図8に示すように、判別部25と、補正部26と、ジャイロデータDB(Database)27と、算出部28とを含む。 Functionally, as shown in FIG. 8, the control unit 24 includes a discrimination unit 25, a correction unit 26, a gyro data DB (Database) 27, and a calculation unit 28.

判別部25は、圧力センサ34A、34Bから出力されたセンサ値を取得し、取得したセンサ値に基づいて、ドローン20の姿勢が基準姿勢から変化したか否かを判別する。具体的には、判別部25は、車輪32A、32Bが壁面80と所定の条件で接触しているか否かを判別する。 The determination unit 25 acquires the sensor values output from the pressure sensors 34A and 34B, and determines whether or not the posture of the drone 20 has changed from the reference posture based on the acquired sensor values. Specifically, the discriminating unit 25 determines whether or not the wheels 32A and 32B are in contact with the wall surface 80 under predetermined conditions.

より具体的には、判別部25は、圧力センサ34A、34Bから取得したセンサ値と、予め定めた閾値とを比較して、車輪32A、32Bの各々が壁面80と接触しているか否かを判別する。両輪が壁面80と接触している場合には、ドローン20のヨー角θが0°であること、すなわちドローン20が基準姿勢であることを表す。一方、車輪32A、32Bのいずれか一方が壁面80と非接触になっている片輪時には、ドローン20のヨー角θが0°より大きくなっていること、すなわちドローン20が基準姿勢から変化したことを表す。 More specifically, the discriminating unit 25 compares the sensor values acquired from the pressure sensors 34A and 34B with a predetermined threshold value, and determines whether or not each of the wheels 32A and 32B is in contact with the wall surface 80. Determine. When both wheels are in contact with the wall surface 80, it means that the yaw angle θ Y of the drone 20 is 0 °, that is, the drone 20 is in the reference posture. On the other hand, when one of the wheels 32A and 32B is not in contact with the wall surface 80, the yaw angle θ Y of the drone 20 is larger than 0 °, that is, the drone 20 has changed from the reference posture. Represents that.

本実施形態では、ドローン20は、車輪32A、32Bが壁面80に接触する方向に負荷をかけつつ移動するように制御されるため、基本的には、両輪が壁面80と接触している状態、すなわち基準姿勢を維持することができる。しかし、突風等の外乱により、壁面80との接触が片輪になる場合もあり、本実施形態では、このような場合にも、画像の撮り直しを行うことなくピントの合った画像を撮影可能にするものである。 In the present embodiment, the drone 20 is controlled so that the wheels 32A and 32B move while applying a load in the direction in which the wheels 32A and 32B are in contact with the wall surface 80. Therefore, basically, both wheels are in contact with the wall surface 80. That is, the reference posture can be maintained. However, due to a disturbance such as a gust, the contact with the wall surface 80 may become one wheel, and in this embodiment, even in such a case, it is possible to take an in-focus image without retaking the image. Is what you want.

判別部25は、ドローン20の姿勢が基準姿勢から変化したか否かの判別結果を、補正部26及び算出部28に通知する。 The determination unit 25 notifies the correction unit 26 and the calculation unit 28 of the determination result of whether or not the posture of the drone 20 has changed from the reference posture.

なお、両輪とも壁面80と非接触の場合には、後述する壁面80までの距離が算出不能となる。そこで、判別部25は、画像の撮影をやり直すために、ドローン20の位置を非接触となった位置に戻す指示を出力する。指示の出力は、ドローン20を遠隔操縦するためのコントローラへのメッセージの表示、コントローラ又はドローン20自体に設けたLED(Light Emitting Diode)ランプの点滅等により行うことができる。この指示に従って、ユーザがドローン20を操縦し、非接触となった位置まで戻す。また、ドローン20にGPS(Global Positioning System)を設け、判別部25は、GPSで測位されるドローン20の位置情報と、車輪32A、32Bと壁面80との接触の判別結果とを対応付けて記憶しておいてもよい。この場合、判別部25は、両輪非接触が判別された際に、両輪非接触となった位置にドローン20を戻すような制御情報を出力して、ドローン20を自律制御するようにしてもよい。 If both wheels are not in contact with the wall surface 80, the distance to the wall surface 80, which will be described later, cannot be calculated. Therefore, the discriminating unit 25 outputs an instruction to return the position of the drone 20 to the non-contact position in order to retake the image. The instruction can be output by displaying a message to the controller for remote control of the drone 20, blinking an LED (Light Emitting Diode) lamp provided on the controller or the drone 20 itself, and the like. According to this instruction, the user steers the drone 20 and returns it to the non-contact position. Further, a GPS (Global Positioning System) is provided on the drone 20, and the determination unit 25 stores the position information of the drone 20 determined by GPS and the determination result of the contact between the wheels 32A and 32B and the wall surface 80 in association with each other. You may leave it. In this case, the discrimination unit 25 may output control information for returning the drone 20 to the position where the two wheels are non-contact when the non-contact between the two wheels is determined, and autonomously control the drone 20. ..

補正部26は、判別部25から通知された判別結果が、ドローン20の姿勢が基準姿勢であることを示すものである場合、ジャイロセンサ部22から出力されたジャイロデータを取得する。そして、補正部26は、取得したジャイロデータに含まれるヨー角速度を、ジャイロデータDB27に記憶すると共に、ジャイロセンサ部22から取得したヨー角速度を基準値(例えば、0)に補正して、算出部28へ受け渡す。すなわち、補正部26は、ドローン20が基準姿勢を維持している間は、ジャイロセンサ部22で検出されるヨー角速度の履歴を保持しつつ、常時リセットする。 When the discrimination result notified from the discrimination unit 25 indicates that the posture of the drone 20 is the reference posture, the correction unit 26 acquires the gyro data output from the gyro sensor unit 22. Then, the correction unit 26 stores the yaw angular velocity included in the acquired gyro data in the gyro data DB 27, corrects the yaw angular velocity acquired from the gyro sensor unit 22 to a reference value (for example, 0), and calculates the calculation unit. Hand over to 28. That is, the correction unit 26 constantly resets while maintaining the history of the yaw angular velocity detected by the gyro sensor unit 22 while the drone 20 maintains the reference posture.

ヨー角速度を常時リセットする理由について説明する。構造物(壁面80)に近接した領域では、構造物内の鉄筋の影響で地磁気が乱れている。そのため、ドローン20が構造物(壁面80)に接近している際に、ジャイロセンサ部22で検出されたヨー角速度を磁気センサで検出された値を用いて補正することで、かえって誤差が増える場合がある。したがって、壁面80に両輪が接触している場合には、主に磁気センサで検出された値を用いて補正されるヨー角速度の値をリセットするものである。なお、地磁気の乱れが加速度センサで検出される値に与える影響は少ないため、主に加速度センサで検出される値で補正されるロール角速度及びピッチ角速度のリセットは行わない。 The reason for constantly resetting the yaw angular velocity will be described. In the region close to the structure (wall surface 80), the geomagnetism is disturbed due to the influence of the reinforcing bars in the structure. Therefore, when the drone 20 is approaching the structure (wall surface 80), the yaw angular velocity detected by the gyro sensor unit 22 is corrected by using the value detected by the magnetic sensor, so that the error increases. There is. Therefore, when both wheels are in contact with the wall surface 80, the value of the yaw angular velocity corrected mainly by using the value detected by the magnetic sensor is reset. Since the disturbance of the geomagnetism has little influence on the value detected by the acceleration sensor, the roll angular velocity and the pitch angular velocity, which are mainly corrected by the value detected by the acceleration sensor, are not reset.

算出部28は、補正部26により基準値に補正されたヨー角速度に基づく値を用いて、壁面80までの距離を算出する。具体的には、算出部28は、基準値に補正されたヨー角速度に基づく値として、ドローン20が基準姿勢の場合、基準値を用い、ドローン20の姿勢が基準姿勢から変化している場合、基準値に基づいて補正された値を用いる。 The calculation unit 28 calculates the distance to the wall surface 80 using a value based on the yaw angular velocity corrected to the reference value by the correction unit 26. Specifically, the calculation unit 28 uses the reference value when the drone 20 is in the reference posture as a value based on the yaw angular velocity corrected to the reference value, and when the posture of the drone 20 is changed from the reference posture, Use the value corrected based on the reference value.

基準値に基づいて補正された値の一例を説明する。例えば、ジャイロデータDB27に記憶されたヨー角速度の履歴に基づいて、ドローン20の姿勢が基準姿勢から変化している間における、基準値(原点、例えば「0」)のずれ量を予測する。そして、算出部28は、ジャイロセンサ部22から取得されるヨー角速度に対して、予測した基準値のずれ量を補正した値を、基準値に基づいて補正された値として用いる。 An example of the value corrected based on the reference value will be described. For example, based on the yaw angular velocity history stored in the gyro data DB 27, the amount of deviation of the reference value (origin, for example, “0”) is predicted while the posture of the drone 20 is changing from the reference posture. Then, the calculation unit 28 uses a value obtained by correcting the deviation amount of the predicted reference value with respect to the yaw angular velocity acquired from the gyro sensor unit 22 as a corrected value based on the reference value.

ジャイロセンサ部22から出力されるヨー角速度の基準値は、補正しなければ温度や気圧の変化により変動する。そのため、両輪が接触している間は、上述のように、ヨー角速度を基準値にリセットし続けることで、ヨー角θを0°に保つことができる。しかし、片輪になり、ヨー角を測定する際には原点のずれが生じていることを考慮して、原点のずれ量を補正する必要がある。以下に、原点のずれ量の補正の一例を示す。 The reference value of the yaw angular velocity output from the gyro sensor unit 22 will fluctuate due to changes in temperature and atmospheric pressure unless corrected. Therefore, while the two wheels are in contact with each other, the yaw angular velocity θ Y can be kept at 0 ° by continuously resetting the yaw angular velocity to the reference value as described above. However, it is necessary to correct the amount of deviation of the origin in consideration of the deviation of the origin when measuring the yaw angle due to one wheel. An example of correction of the amount of deviation of the origin is shown below.

図9に、両輪接触時から片輪になり、また両輪接触する(片輪終了)までのヨー角速度ωの変動(t−ω座標系)の一例を示す。両輪接触中から片輪になるまでの間、実際には車輪32A、32Bは壁面80に接触しているため、ヨー角速度ωの変位は0であるにもかかわらず、ジャイロセンサ部22から取得したヨー角速度ωは上昇傾向にある。そのため、原点補正せずに片輪開始時から、検出されたヨー角速度ωに基づいてヨー角θを算出すると、実際よりも大きい角度が求まることになる。 FIG. 9 shows an example of the variation (t-ω coordinate system) of the yaw angular velocity ω from the time when both wheels are in contact to one wheel and the time when both wheels are in contact (end of one wheel). Since the wheels 32A and 32B are actually in contact with the wall surface 80 during the period from the contact between the two wheels to the one wheel, the yaw angular velocity ω was acquired from the gyro sensor unit 22 even though the displacement was 0. The yaw angular velocity ω tends to increase. Therefore, if the yaw angle θ Y is calculated based on the detected yaw angular velocity ω from the start of one wheel without correcting the origin, an angle larger than the actual angle can be obtained.

そこで、算出部28は、ジャイロデータDB27に記憶されている、両輪接触時のヨー角速度ωの履歴、すなわち各時刻に検出されたリセット前のヨー角速度ωの時間変化から、ヨー角速度ωの原点の変位を示す回帰直線を求める。具体的には、算出部28は、片輪になった瞬間の時刻をtとして、ある一定期間の過去の時刻をtとし、時刻tからtまでのヨー角速度ωを用いて、最小二乗法により、下記(1)式に示す回帰直線の傾きaを求める。 Therefore, the calculation unit 28 determines the origin of the yaw angular velocity ω from the history of the yaw angular velocity ω at the time of contact between the two wheels, that is, the time change of the yaw angular velocity ω before the reset detected at each time, which is stored in the gyro data DB 27. Find the regression line that indicates the displacement. Specifically, the calculation unit 28 uses the yaw angular velocity ω from the time t 1 to t n , where the time at the moment of becoming one wheel is t n, the past time of a certain period is t 1, and the yaw angular velocity ω is used. The slope a of the regression line shown in Eq. (1) below is obtained by the least squares method.

(1)式において、nは2変数(t,ω)の個数、t及びωは個々の数値、t(数式内では「t」の上にオーバーライン)及びω(数式内では「ω」の上にオーバーライン)は各々の平均値である。 (1) In the formula, n 2 variables (t, omega) number of, t i and omega i are individual values, t - (in a formula overlined above the "t") and omega - in (formula Overline over "ω") is the average value of each.

算出部28は、求めた回帰直線上の片輪開始時の点を原点とする座標系における、片輪開始時以降の各時刻における回帰直線の値を、原点のずれ量として予測し、原点のずれ量を補正したヨー角速度からヨー角θを算出する。例えば、算出部28は、ジャイロセンサ部22から取得したヨー角速度ωと、求めた回帰直線との差分を一定時間毎に積分して、一定時間毎のヨー角θを算出する。 The calculation unit 28 predicts the value of the regression line at each time after the start of one wheel in the coordinate system whose origin is the point at the start of one wheel on the obtained regression line as the amount of deviation of the origin, and determines the value of the origin. The yaw angle θ Y is calculated from the yaw angle velocity corrected for the deviation amount. For example, the calculation unit 28 integrates the difference between the yaw angular velocity ω acquired from the gyro sensor unit 22 and the obtained regression line at regular time intervals to calculate the yaw angular velocity θ Y at regular time intervals.

図9における、片輪開始時tから片輪終了時tまでの部分(図9の点線枠内)を拡大した図10を参照して、より具体的に説明する。図10では、上述した、回帰直線上の片輪開始時tの点を原点とする座標系(t’−ω’座標系)を示している。算出部28は、下記(2)式に示すように、片輪開始時tから片輪終了時t’(t’=t)までの一定時間τ毎のヨー角θを、角速度ωの関数と回帰直線との差の積分した値として算出する。 A more specific description will be given with reference to FIG. 10, which is an enlarged portion (within the dotted line frame of FIG. 9) from t n at the start of one wheel to t m at the end of one wheel in FIG. FIG. 10 shows the coordinate system (t'−ω' coordinate system) having the point t n at the start of one wheel on the regression line as the origin. Calculating unit 28, as shown in the following equation (2), the yaw angle theta Y every predetermined time τ from one wheel at the start t n to one wheel end t 's (t' s = t m), It is calculated as the integrated value of the difference between the function of the angular velocity ω and the regression line.

上記のように、時間変化するヨー角速度ωの原点のずれを補正してヨー角θを算出することで、正確なヨー角θを算出することができ、算出したヨー角θを用いて、精度良く壁面80までの距離を算出することができる。 As described above, by calculating a correction to the yaw angle theta Y deviation of the origin of the yaw angular velocity ω time varying, it is possible to calculate an accurate yaw angle theta Y, using the calculated yaw angle theta Y Therefore, the distance to the wall surface 80 can be calculated accurately.

算出部28は、片輪接触時には、図11に示すように、車輪32A、32Bの半径Rと、車軸32Cの長さLと、算出したヨー角θとを用いて、ヨー角θに関する壁面80までの距離Dを、D=R+Ltanθと算出する。また、算出部28は、ジャイロセンサ部22から取得したジャイロデータに含まれるピッチ角速度からピッチ角θを算出する。また、図12及び図13に示すように、ピッチ角θの値はZ軸の正方向上を0°とし、壁面80方向への回転を正方向(図12及び図13の左回り)、壁面80から離れる方向への回転を負方向(図12及び図13の右回り)とする。そして、算出部28は、車輪32A、32Bの半径Rと、カメラ40のレンズの中心から車軸32Cの中心線までの長さHと、算出したピッチ角θとを用いて、ピッチ角θに関する壁面80までの距離Dを、D=R/cosθ−Htanθと算出する。そして、算出部28は、DとDとを合成して、壁面80までの距離Dを算出する。 Calculating unit 28, when one wheel contact, as shown in FIG. 11, the wheels 32A, and the radius R of 32B, and the length L of the axle 32C, calculated using the yaw angle theta Y, about the yaw angle theta Y the distance D Y from the wall 80, and calculates a D Y = R + Ltanθ Y. Further, the calculation unit 28 calculates the pitch angle θ P from the pitch angular velocity included in the gyro data acquired from the gyro sensor unit 22. Further, as shown in FIGS. 12 and 13, the value of the pitch angle θ P is 0 ° on the positive direction of the Z axis, the rotation in the wall surface 80 direction is in the positive direction (counterclockwise in FIGS. 12 and 13), and the wall surface. The rotation in the direction away from 80 is defined as the negative direction (clockwise in FIGS. 12 and 13). Then, the calculation unit 28 uses the radius R of the wheels 32A and 32B, the length H from the center of the lens of the camera 40 to the center line of the axle 32C, and the calculated pitch angle θ P, and the pitch angle θ P. the distance D P to the wall surface 80 about to calculate the D P = R / cosθ P -Htanθ P. The calculation unit 28 synthesizes the D Y and D P, and calculates the distance D from the wall 80.

また、算出部28は、両輪接触時には、補正部26から受け渡された、基準値に補正されたヨー角速度を用いて、上記と同様に距離Dを算出する。すなわち、ヨー角θ=0°となるため、D=Rとなる。 Further, the calculation unit 28 calculates the distance D in the same manner as described above by using the yaw angular velocity corrected to the reference value delivered from the correction unit 26 at the time of contact between the two wheels. That is, since the yaw angle θ Y = 0 °, DY = R.

なお、本実施形態では、ロール角θの変化は、壁面80までの距離の変化に影響を与えないため、距離Dの算出には用いない。なお、ロール角θを用いて、鉛直方向と画像の縦方向とを一致させるような画像の回転補正を行うなどの処理を加えてもよい。 In this embodiment, the change in the roll angle θ R does not affect the change in the distance to the wall surface 80, and therefore is not used in the calculation of the distance D. Incidentally, by using the roll angle theta R, it may be added to processing such as performing the rotation correction of an image, such as to match the longitudinal direction of the vertical direction and the image.

算出部28は、算出した壁面80までの距離Dを出力する。なお、本実施形態では、ドローン20の中心に、壁面80に対して平行にカメラ40の受像面があることとして、上記の距離Dを算出する場合について説明した。実際には、ドローン20の中心とカメラ40の受像面との位置関係に基づいて、受像面から壁面80までの実際の距離を算出すればよい。 The calculation unit 28 outputs the calculated distance D to the wall surface 80. In the present embodiment, the case where the above distance D is calculated assuming that the image receiving surface of the camera 40 is parallel to the wall surface 80 at the center of the drone 20 has been described. Actually, the actual distance from the image receiving surface to the wall surface 80 may be calculated based on the positional relationship between the center of the drone 20 and the image receiving surface of the camera 40.

図8に示すように、カメラ40は、撮影機構42と、調整部44とを含む。撮影機構42は、CCD(Charged-coupled devices)やCMOS(Complementary metal-oxide-semiconductor)等の受像面、レンズ、及びこれらの位置を調整するための機構等を含む。 As shown in FIG. 8, the camera 40 includes a photographing mechanism 42 and an adjusting unit 44. The photographing mechanism 42 includes an image receiving surface such as a CCD (Charged-coupled devices) or CMOS (Complementary metal-oxide-semiconductor), a lens, and a mechanism for adjusting the positions thereof.

調整部44は、ドローン20の算出部28から出力された距離Dに基づいて、カメラ40のフォーカスを調整する。 The adjustment unit 44 adjusts the focus of the camera 40 based on the distance D output from the calculation unit 28 of the drone 20.

なお、上記(2)式で、一定時間τのヨー角θを求めることを説明したが、このτの値は、全ての画像のピントを合わせることを考慮して、以下のように設定することが望ましい。 It has been explained that the yaw angle θ Y of τ for a certain period of time is obtained by the above equation (2), but the value of this τ is set as follows in consideration of focusing all the images. Is desirable.

1/V>τ+α+β+γ
すなわち、τ<1/V−(α+β+γ)
1 / V> τ + α + β + γ
That is, τ <1 / V- (α + β + γ)

V(f/s)は、カメラ40のフレームレート、αは、原点のずれ量を示す回帰直線の算出時間、βは、ヨー角θを用いた距離Dの算出時間、及びγは、距離Dを用いたフォーカスの調整時間である。 V (f / s) is the frame rate of the camera 40, α is the calculation time of the regression line indicating the amount of deviation of the origin, β is the calculation time of the distance D using the yaw angle θ Y, and γ is the distance. This is the focus adjustment time using D.

ドローン撮影装置10に含まれるドローン20の制御部24は、例えば図14に示すコンピュータ50で実現することができる。コンピュータ50は、CPU(Central Processing Unit)51と、一時記憶領域としてのメモリ52と、不揮発性の記憶部53とを備える。また、コンピュータ50は、入力部、表示部等の入出力装置54と、記憶媒体59に対するデータの読み込み及び書き込みを制御するR/W(Read/Write)部55とを備える。また、コンピュータ50は、インターネット等のネットワークに接続される通信I/F(Interface)56を備える。CPU51、メモリ52、記憶部53、入出力装置54、R/W部55、及び通信I/F56は、バス57を介して互いに接続される。 The control unit 24 of the drone 20 included in the drone photographing device 10 can be realized by, for example, the computer 50 shown in FIG. The computer 50 includes a CPU (Central Processing Unit) 51, a memory 52 as a temporary storage area, and a non-volatile storage unit 53. Further, the computer 50 includes an input / output device 54 such as an input unit and a display unit, and an R / W (Read / Write) unit 55 that controls reading and writing of data to the storage medium 59. Further, the computer 50 includes a communication I / F (Interface) 56 connected to a network such as the Internet. The CPU 51, the memory 52, the storage unit 53, the input / output device 54, the R / W unit 55, and the communication I / F 56 are connected to each other via the bus 57.

記憶部53は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を、ドローン撮影装置10に含まれるドローン20の制御部24として機能させるためのドローン撮影プログラム60が記憶される。ドローン撮影プログラム60は、判別プロセス65と、補正プロセス66と、算出プロセス68とを有する。また、記憶部53は、ジャイロデータDB27を構成する情報が記憶される情報記憶領域67を有する。 The storage unit 53 can be realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like. The storage unit 53 as a storage medium stores a drone photographing program 60 for causing the computer 50 to function as a control unit 24 of the drone 20 included in the drone photographing device 10. The drone photographing program 60 has a discrimination process 65, a correction process 66, and a calculation process 68. In addition, the storage unit 53 has an information storage area 67 in which information constituting the gyro data DB 27 is stored.

CPU51は、ドローン撮影プログラム60を記憶部53から読み出してメモリ52に展開し、ドローン撮影プログラム60が有するプロセスを順次実行する。CPU51は、判別プロセス65を実行することで、図8に示す判別部25として動作する。また、CPU51は、補正プロセス66を実行することで、図8に示す補正部26として動作する。また、CPU51は、算出プロセス68を実行することで、図8に示す算出部28として動作する。また、CPU51は、情報記憶領域67から情報を読み出して、ジャイロデータDB27をメモリ52に展開する。これにより、ドローン撮影プログラム60を実行したコンピュータ50が、ドローン撮影装置10に含まれるドローン20の制御部24として機能することになる。なお、プログラムを実行するCPU51はハードウェアである。 The CPU 51 reads the drone photographing program 60 from the storage unit 53, expands it into the memory 52, and sequentially executes the processes included in the drone photographing program 60. By executing the discrimination process 65, the CPU 51 operates as the discrimination unit 25 shown in FIG. Further, the CPU 51 operates as the correction unit 26 shown in FIG. 8 by executing the correction process 66. Further, the CPU 51 operates as the calculation unit 28 shown in FIG. 8 by executing the calculation process 68. Further, the CPU 51 reads information from the information storage area 67 and expands the gyro data DB 27 into the memory 52. As a result, the computer 50 that executes the drone photographing program 60 functions as the control unit 24 of the drone 20 included in the drone photographing device 10. The CPU 51 that executes the program is hardware.

なお、ドローン撮影プログラム60により実現される機能は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。 The function realized by the drone photographing program 60 can also be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC (Application Specific Integrated Circuit) or the like.

次に、本実施形態に係るドローン撮影装置10の作用について説明する。ドローン20が操縦されて、撮影開始位置まで移動され、車輪32A、32Bが壁面80に接触し、ドローン20の姿勢がロール角θ、ピッチ角θ、及びヨー角θ共に0°の状態となったところで、カメラ40により所定のフレームレートで画像の撮影を開始する。そして、ドローン20が、壁面80に沿って所定方向(例えば、上方向又は下方向)に移動するように制御された状態で、ドローン20の制御部24により、図15に示すドローン撮影処理が実行される。なお、ドローン撮影処理は、開示の技術のドローン撮影方法の一例である。 Next, the operation of the drone photographing apparatus 10 according to the present embodiment will be described. The drone 20 is steered and moved to the shooting start position, the wheels 32A and 32B are in contact with the wall surface 80, and the posture of the drone 20 is 0 ° in all of the roll angle θ R , the pitch angle θ P , and the yaw angle θ Y. At that point, the camera 40 starts taking an image at a predetermined frame rate. Then, in a state where the drone 20 is controlled to move in a predetermined direction (for example, upward or downward) along the wall surface 80, the control unit 24 of the drone 20 executes the drone photographing process shown in FIG. Will be done. The drone photography process is an example of the drone photography method of the disclosed technology.

ステップS12で、判別部25が、圧力センサ34A、34Bから出力されたセンサ値を取得する。 In step S12, the discrimination unit 25 acquires the sensor values output from the pressure sensors 34A and 34B.

次に、ステップS14で、判別部25が、圧力センサ34A、34Bから取得したセンサ値と、予め定めた閾値とを比較して、車輪32A、32Bの各々が壁面80と接触しているか否かを判別する。両輪が接触している場合には、処理はステップS16へ移行し、片輪のみが接触している場合には、処理はステップS22へ移行し、両輪非接触の場合には、処理はステップS30へ移行する。 Next, in step S14, the discriminating unit 25 compares the sensor values acquired from the pressure sensors 34A and 34B with the predetermined threshold values, and whether or not each of the wheels 32A and 32B is in contact with the wall surface 80. To determine. If both wheels are in contact, the process proceeds to step S16, if only one wheel is in contact, the process proceeds to step S22, and if both wheels are not in contact, the process proceeds to step S30. Move to.

ステップS16では、補正部26が、ジャイロセンサ部22から出力されたジャイロデータを取得し、取得したジャイロデータに含まれるヨー角速度ωを、ジャイロデータDB27に記憶する。 In step S16, the correction unit 26 acquires the gyro data output from the gyro sensor unit 22, and stores the yaw angular velocity ω included in the acquired gyro data in the gyro data DB 27.

次に、ステップS18で、補正部26が、ジャイロセンサ部22から取得したヨー角速度ωを基準値(ここでは0とする)に補正して、算出部28へ受け渡す。 Next, in step S18, the correction unit 26 corrects the yaw angular velocity ω acquired from the gyro sensor unit 22 to a reference value (here, 0) and hands it over to the calculation unit 28.

次に、ステップS20で、算出部28が、補正部26から受け渡されたヨー角速度が基準値の0であることに基づいて、車輪32A、32Bの半径Rを用いて、ヨー角θに関する壁面80までの距離Dを、D=Rと算出する。また、算出部28は、ジャイロセンサ部22から取得したジャイロデータに含まれるピッチ角速度からピッチ角θを算出し、RとLと算出したピッチ角θとを用いて、ピッチ角θに関する壁面80までの距離Dを、D=R/cosθと算出する。そして、算出部28は、DとDとを合成して、壁面80までの距離Dを算出する。 Next, in step S20, the calculation unit 28 relates to the yaw angle θ Y by using the radii R of the wheels 32A and 32B based on the yaw angular velocity passed from the correction unit 26 being 0, which is the reference value. the distance D Y from the wall 80, and calculates a D Y = R. Further, calculation section 28 calculates the pitch angle theta P from the pitch angular velocity contained in the gyro data acquired from the gyro sensor unit 22, by using the pitch angle theta P and the calculated R and L, with respect to the pitch angle theta P The distance D P to the wall surface 80 is calculated as D P = R / cos θ P. The calculation unit 28 synthesizes the D Y and D P, and calculates the distance D from the wall 80.

ステップS22では、算出部28が、ジャイロデータDB27に記憶されている、両輪接触時のヨー角速度ωの履歴、すなわち各時刻に検出されたリセット前のヨー角速度ωの時間変化から、ヨー角速度ωの原点の変位を示す回帰直線を求める。そして、算出部28が、求めた回帰直線上の片輪開始時の点を原点とする座標系における、片輪開始時以降の各時刻における回帰直線の値を、原点のずれ量として予測し、原点のずれ量を補正したヨー角速度からヨー角θを算出する。 In step S22, the calculation unit 28 determines the yaw angular velocity ω from the history of the yaw angular velocity ω at the time of contact between the two wheels, that is, the time change of the yaw angular velocity ω before the reset detected at each time, which is stored in the gyro data DB 27. Find a regression line that indicates the displacement of the origin. Then, the calculation unit 28 predicts the value of the regression line at each time after the start of one wheel in the coordinate system whose origin is the point at the start of one wheel on the obtained regression line as the amount of deviation of the origin. The yaw angle θ Y is calculated from the yaw angle velocity corrected by the amount of deviation of the origin.

なお、片輪状態が継続している場合、片輪開始時に上記の回帰直線を求める処理を行い、以降の片輪中の各時刻において本ステップの処理を実行する際は、その都度、回帰直線を求める必要はなく、片輪開始時に求めた回帰直線を用いてヨー角θを算出すればよい。 If the one-wheel state continues, the above-mentioned regression line is obtained at the start of one wheel, and the regression line is executed each time the process of this step is executed at each time in the subsequent one-wheel. It is not necessary to calculate the yaw angle θ Y by using the regression line obtained at the start of one wheel.

次に、ステップS24で、車輪32A、32Bの半径Rと、車軸32Cの長さLと、上記ステップS26で算出したヨー角θとを用いて、ヨー角θに関する壁面80までの距離Dを、D=R+Ltanθと算出する。また、算出部28は、上記ステップS20と同様に、ピッチ角θに関する壁面80までの距離Dを、D=R/cosθ−Htanθと算出し、DとDとを合成して、壁面80までの距離Dを算出する。 Next, in step S24, using the radii R of the wheels 32A and 32B, the length L of the axle 32C, and the yaw angle θ Y calculated in step S26, the distance D to the wall surface 80 with respect to the yaw angle θ Y. the Y, is calculated as D Y = R + Ltanθ Y. Further, calculation unit 28, similarly to the step S20, the distance D P to the wall surface 80 with respect to the pitch angle theta P, calculated as D P = R / cosθ P -Htanθ P, combines the D Y and D P Then, the distance D to the wall surface 80 is calculated.

次に、ステップS26で、算出部28が、上記ステップS20又はS24で算出した壁面80までの距離Dを出力する。これにより、カメラ40の調整部44が、算出部28から出力された距離Dに基づいて、カメラ40のフォーカスを調整し、撮影機構42によりピントの合った画像が撮影される。 Next, in step S26, the calculation unit 28 outputs the distance D to the wall surface 80 calculated in step S20 or S24. As a result, the adjustment unit 44 of the camera 40 adjusts the focus of the camera 40 based on the distance D output from the calculation unit 28, and the imaging mechanism 42 captures an in-focus image.

次に、ステップS28で、判別部25が、撮影が完了したか否かを判定する。この判定は、ドローン20が所定の撮影終了位置に到達したか否か、コントローラから撮影終了の指示を受信したか否か等により判定することができる。撮影が完了していない場合には、処理はステップS12に戻り、撮影が完了した場合には、ドローン撮影処理は終了する。 Next, in step S28, the determination unit 25 determines whether or not the photographing is completed. This determination can be made based on whether or not the drone 20 has reached a predetermined shooting end position, whether or not a shooting end instruction has been received from the controller, and the like. If the shooting is not completed, the process returns to step S12, and if the shooting is completed, the drone shooting process ends.

また、ステップS30では、判別部25が、ドローン20の位置を非接触となった位置に戻す指示を出力し、処理はステップS12に戻る。 Further, in step S30, the discriminating unit 25 outputs an instruction to return the position of the drone 20 to the non-contact position, and the process returns to step S12.

以上説明したように、本実施形態に係るドローン撮影装置によれば、ドローン撮影装置が、車軸に設置した圧力センサのセンサ値に基づいて、車輪が壁面に接触しているか否かを判別し、両輪接触の場合には、ジャイロデータのヨー角速度を基準値に補正する。そして、基準値に補正されたヨー角速度に基づく値を用いて、カメラの受像面から壁面までの光軸上の距離を算出し、算出した距離に基づいてカメラのフォーカスを調整する。これにより、突風等の外乱により、壁面との接触が片輪になった場合でも、カメラと壁面との正確な距離を即座に算出して、フォーカスを迅速かつ精密に調整できる。したがって、フォーカスの合った画質の良い画像を撮影することができると共に、ボケ画像の発生による撮り直しを抑制でき、一度の飛行で効率良く撮影することができる。 As described above, according to the drone imaging device according to the present embodiment, the drone imaging device determines whether or not the wheels are in contact with the wall surface based on the sensor value of the pressure sensor installed on the axle. In the case of two-wheel contact, the yaw angle velocity of the gyro data is corrected to the reference value. Then, the distance on the optical axis from the image receiving surface of the camera to the wall surface is calculated using the value based on the yaw angular velocity corrected to the reference value, and the focus of the camera is adjusted based on the calculated distance. As a result, even if the contact with the wall surface becomes one wheel due to a disturbance such as a gust, the accurate distance between the camera and the wall surface can be calculated immediately, and the focus can be adjusted quickly and precisely. Therefore, it is possible to shoot an image with good image quality in focus, and it is possible to suppress re-shooting due to the occurrence of a blurred image, and it is possible to shoot efficiently in one flight.

また、ドローン内蔵のジャイロセンサから取得されるジャイロデータを用いてカメラと壁面との距離を算出するため、ドローンに特別な測距系を搭載する必要がない。 Further, since the distance between the camera and the wall surface is calculated using the gyro data acquired from the gyro sensor built in the drone, it is not necessary to equip the drone with a special ranging system.

また、ドローンが基準姿勢を維持している状態、すなわち、両輪が接触している状態では、ヨー角速度を基準値に補正することで、構造物に接近することで不安定となるジャイロデータの誤差を抑制することができる。 In addition, when the drone maintains the reference posture, that is, when both wheels are in contact, the yaw angular velocity is corrected to the reference value, and the error of the gyro data becomes unstable when approaching the structure. Can be suppressed.

また、ドローンが基準姿勢を維持している状態、すなわち、両輪が接触している状態で取得されたヨー角速度に基づいて、基準値のずれ量を予測してヨー角速度を補正する。これにより、温度や気圧の変化により変動する基準値のずれ量によるジャイロデータの誤差を抑制することができる。 Further, the yaw angular velocity is corrected by predicting the deviation amount of the reference value based on the yaw angular velocity acquired when the drone maintains the reference posture, that is, when both wheels are in contact with each other. As a result, it is possible to suppress an error in the gyro data due to the amount of deviation of the reference value that fluctuates due to changes in temperature and atmospheric pressure.

なお、上記実施形態では、ドローン撮影装置が2つの車輪を備える場合について説明したが、これに限定されず、3つ以上の車輪を備えた構成としてもよい。図16及び図17に、車輪232A、232B、232D、及び232Eの4輪を含む構成を概略的に示す。この場合、4輪全てが壁面80に接触している場合に、上記実施形態の両輪接触時と同様に処理すればよい。また、少なくとも1つの車輪が接触し、かつ他の少なくとも1つの車輪が非接触の場合に、上記実施形態の片輪接触時と同様に処理すればよい。なお、図16及び図17の例では、ドローン20は、壁面80側へ負荷をかけるようにドローン20を飛行させるためのプロペラと、上下方向へ飛行させるためのプロペラとを備えている。また、車輪に代えて、例えば板状の、壁面80に沿うガイドを用いてもよい。 In the above embodiment, the case where the drone photographing apparatus includes two wheels has been described, but the present invention is not limited to this, and a configuration including three or more wheels may be used. 16 and 17 schematically show a configuration including four wheels 232A, 232B, 232D, and 232E. In this case, when all four wheels are in contact with the wall surface 80, the same processing as in the case of contacting both wheels in the above embodiment may be performed. Further, when at least one wheel is in contact and the other at least one wheel is not in contact, the same processing as in the case of one-wheel contact in the above embodiment may be performed. In the examples of FIGS. 16 and 17, the drone 20 includes a propeller for flying the drone 20 so as to apply a load to the wall surface 80 side, and a propeller for flying the drone 20 in the vertical direction. Further, instead of the wheels, for example, a plate-shaped guide along the wall surface 80 may be used.

また、上記実施形態では、両輪接触時のリセット前のヨー角速度の履歴に基づいて回帰直線を求め、基準値のずれ量を補正する場合について説明したが、この例に限定されない。例えば、片輪開始時のジャイロデータのヨー角速度の値を、それ以降の片輪中の各時刻のずれ量としてもよい。この場合、回帰直線を求める処理を省略して、簡易に基準値のずれ量を予測することができる。 Further, in the above embodiment, the case where the regression line is obtained based on the history of the yaw angular velocity before the reset at the time of contact between the two wheels and the deviation amount of the reference value is corrected has been described, but the present invention is not limited to this example. For example, the value of the yaw angular velocity of the gyro data at the start of one wheel may be used as the amount of deviation of each time in the subsequent one wheel. In this case, the deviation amount of the reference value can be easily predicted by omitting the process of obtaining the regression line.

また、上記実施形態では、ドローン撮影プログラムが記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD−ROM、DVD−ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。 Further, in the above embodiment, the mode in which the drone photographing program is stored (installed) in the storage unit in advance has been described, but the present invention is not limited to this. The program according to the disclosed technology can also be provided in a form stored in a storage medium such as a CD-ROM, a DVD-ROM, or a USB memory.

以上の実施形態に関し、更に以下の付記を開示する。 The following additional notes will be further disclosed with respect to the above embodiments.

(付記1)
ドローンに固定され、画像を撮影する撮影部と、
撮影面に対する前記ドローンの姿勢が予め定めた基準姿勢を維持するように支持する支持部と、
前記ドローンの姿勢が前記基準姿勢から変化したか否かを判別する判別部と、
前記判別部により前記ドローンが前記基準姿勢であると判別されている場合、前記ドローンに内蔵されたジャイロセンサで取得される角速度を基準値に補正する補正部と、
前記補正部により前記基準値に補正された角速度に基づく値を用いて、前記撮影部から前記撮影面までの距離を算出する算出部と、
前記算出部により算出された前記距離に基づいて、前記撮影部のフォーカスを調整する調整部と、
を含むドローン撮影装置。
(Appendix 1)
A shooting unit that is fixed to the drone and shoots images,
A support part that supports the drone's posture with respect to the shooting surface so as to maintain a predetermined reference posture, and
A discriminating unit that determines whether or not the posture of the drone has changed from the reference posture, and
When the discriminating unit determines that the drone is in the reference posture, a correction unit that corrects the angular velocity acquired by the gyro sensor built in the drone to a reference value.
A calculation unit that calculates the distance from the imaging unit to the imaging surface using a value based on the angular velocity corrected to the reference value by the correction unit.
An adjustment unit that adjusts the focus of the photographing unit based on the distance calculated by the calculation unit, and
Drone photography equipment including.

(付記2)
前記算出部は、前記基準値に補正された角速度に基づく値として、前記ドローンが前記基準姿勢の場合、前記基準値を用い、前記ドローンの姿勢が前記基準姿勢から変化している場合、前記基準値に基づいて補正された値を用いる付記1に記載のドローン撮影装置。
(Appendix 2)
The calculation unit uses the reference value when the drone is in the reference posture as a value based on the angular velocity corrected to the reference value, and when the posture of the drone is changed from the reference posture, the reference is used. The drone photographing apparatus according to Appendix 1, which uses a value corrected based on the value.

(付記3)
前記補正部は、さらに、前記ドローンが前記基準姿勢であると判別されている間の前記ジャイロセンサで取得される角速度の履歴を保持し、
前記算出部は、前記基準値に基づいて補正された値として、前記ジャイロセンサで取得される角速度に対して、前記角速度の履歴に基づいて予測される前記基準値のずれ量を補正した値を用いる
付記2に記載のドローン撮影装置。
(Appendix 3)
The correction unit further holds a history of angular velocities acquired by the gyro sensor while the drone is determined to be in the reference posture.
As a value corrected based on the reference value, the calculation unit corrects the deviation amount of the reference value predicted based on the history of the angular velocity with respect to the angular velocity acquired by the gyro sensor. The drone photographing apparatus according to Appendix 2 to be used.

(付記4)
前記算出部は、前記角速度の履歴が示す角速度の時間変化から回帰直線を求め、前記ドローンが前記基準姿勢から変化した時刻における前記回帰直線上の点を原点とする座標系における、前記ドローンが前記基準姿勢から変化した後の各時刻における前記回帰直線の値を、前記基準値のずれ量として予測する付記3に記載のドローン撮影装置。
(Appendix 4)
The calculation unit obtains a regression line from the time change of the angular velocity indicated by the history of the angular velocity, and the drone is said to be in a coordinate system whose origin is a point on the regression line at the time when the drone changes from the reference posture. The drone photographing apparatus according to Appendix 3, which predicts the value of the regression line at each time after changing from the reference posture as the deviation amount of the reference value.

(付記5)
前記算出部は、前記ジャイロセンサで取得された角速度と、前記回帰直線との差分を一定時間毎に積分して、前記一定時間毎の前記基準姿勢に対する前記ドローンの角度を算出し、算出した角度を用いて前記距離を算出する付記4に記載のドローン撮影装置。
(Appendix 5)
The calculation unit integrates the difference between the angular velocity acquired by the gyro sensor and the regression line at regular time intervals, calculates the angle of the drone with respect to the reference posture at regular time intervals, and calculates the angle. The drone photographing apparatus according to Appendix 4, wherein the distance is calculated using the above.

(付記6)
前記支持部は、前記撮影面と接触する接触部を含み、前記接触部が前記撮影面と所定の条件で接触している場合に、前記ドローンが前記基準姿勢を維持し、
前記判別部は、前記接触部が前記撮影面と前記所定の条件で接触しているか否かに基づいて、前記ドローンの姿勢が前記基準姿勢から変化したか否かを判別する
付記1〜付記5のいずれか1項に記載のドローン撮影装置。
(Appendix 6)
The support portion includes a contact portion that comes into contact with the imaging surface, and when the contact portion is in contact with the imaging surface under predetermined conditions, the drone maintains the reference posture.
The discriminating unit determines whether or not the posture of the drone has changed from the reference posture based on whether or not the contacting portion is in contact with the photographing surface under the predetermined conditions. The drone photographing apparatus according to any one of the above items.

(付記7)
前記支持部は、複数の接触部を含み、前記複数の接触部の各々の一部がそれぞれ前記撮影面に接触している場合に、前記ドローンが前記基準姿勢を維持し、
前記判別部は、前記複数の接触部のうち、少なくとも1つの接触部が前記撮影面と接触し、かつ他の少なくとも1つの接触部が前記撮影面と接触していない場合に、前記ドローンの姿勢が前記基準姿勢から変化したことを判別する
付記6に記載のドローン撮影装置。
(Appendix 7)
The support portion includes a plurality of contact portions, and when a part of each of the plurality of contact portions is in contact with the photographing surface, the drone maintains the reference posture.
The discriminant unit is in the posture of the drone when at least one contact portion of the plurality of contact portions is in contact with the photographing surface and the other at least one contact portion is not in contact with the photographing surface. The drone photographing apparatus according to Appendix 6 for determining that is changed from the reference posture.

(付記8)
前記支持部は、前記ドローンが前記基準姿勢を維持したまま、前記撮影面に沿って移動可能にするための複数の車輪を含み、
前記判別部は、前記複数の車輪の各々と前記撮影面との間の圧力を検出する圧力センサのセンサ値に基づいて、前記複数の車輪の各々と前記撮影面とが接触しているか否かを判別する
付記7に記載のドローン撮影装置。
(Appendix 8)
The support includes a plurality of wheels for allowing the drone to move along the imaging surface while maintaining the reference posture.
Whether or not each of the plurality of wheels and the photographing surface are in contact with each other based on the sensor value of the pressure sensor that detects the pressure between each of the plurality of wheels and the photographing surface. The drone photographing apparatus according to Appendix 7.

(付記9)
前記角速度は、鉛直軸周りのヨー角速度である付記1〜付記8のいずれか1項に記載のドローン撮影装置。
(Appendix 9)
The drone photographing apparatus according to any one of Supplementary note 1 to Supplementary note 8, wherein the angular velocity is a yaw angular velocity around a vertical axis.

(付記10)
ドローンに固定された撮影部が、画像を撮影し、
支持部が、撮影面に対する前記ドローンの姿勢が予め定めた基準姿勢を維持するように支持し、
判別部が、前記ドローンの姿勢が前記基準姿勢から変化したか否かを判別し、
補正部が、前記判別部により前記ドローンが前記基準姿勢であると判別されている場合、前記ドローンに内蔵されたジャイロセンサで取得される角速度を基準値に補正し、
算出部が、前記補正部により前記基準値に補正された角速度に基づく値を用いて、前記撮影部から前記撮影面までの距離を算出し、
調整部が、前記算出部により算出された前記距離に基づいて、前記撮影部のフォーカスを調整する
ドローン撮影方法。
(Appendix 10)
The shooting unit fixed to the drone shoots the image,
The support unit supports the drone so that the posture of the drone with respect to the shooting surface maintains a predetermined reference posture.
The discriminating unit determines whether or not the posture of the drone has changed from the reference posture.
When the correction unit determines that the drone is in the reference posture by the discrimination unit, the correction unit corrects the angular velocity acquired by the gyro sensor built in the drone to the reference value.
The calculation unit calculates the distance from the imaging unit to the imaging surface using a value based on the angular velocity corrected to the reference value by the correction unit.
A drone photographing method in which the adjusting unit adjusts the focus of the photographing unit based on the distance calculated by the calculating unit.

(付記11)
前記算出部は、前記基準値に補正された角速度に基づく値として、前記ドローンが前記基準姿勢の場合、前記基準値を用い、前記ドローンの姿勢が前記基準姿勢から変化している場合、前記基準値に基づいて補正された値を用いる付記10に記載のドローン撮影方法。
(Appendix 11)
The calculation unit uses the reference value when the drone is in the reference posture as a value based on the angular velocity corrected to the reference value, and when the posture of the drone is changed from the reference posture, the reference is used. The drone photographing method according to Appendix 10, which uses a value corrected based on the value.

(付記12)
前記補正部は、さらに、前記ドローンが前記基準姿勢であると判別されている間の前記ジャイロセンサで取得される角速度の履歴を保持し、
前記算出部は、前記基準値に基づいて補正された値として、前記ジャイロセンサで取得される角速度に対して、前記角速度の履歴に基づいて予測される前記基準値のずれ量を補正した値を用いる
付記11に記載のドローン撮影方法。
(Appendix 12)
The correction unit further holds a history of angular velocities acquired by the gyro sensor while the drone is determined to be in the reference posture.
As a value corrected based on the reference value, the calculation unit corrects the deviation amount of the reference value predicted based on the history of the angular velocity with respect to the angular velocity acquired by the gyro sensor. The drone photographing method according to Appendix 11 to be used.

(付記13)
前記算出部は、前記角速度の履歴が示す角速度の時間変化から回帰直線を求め、前記ドローンが前記基準姿勢から変化した時刻における前記回帰直線上の点を原点とする座標系における、前記ドローンが前記基準姿勢から変化した後の各時刻における前記回帰直線の値を、前記基準値のずれ量として予測する付記12に記載のドローン撮影方法。
(Appendix 13)
The calculation unit obtains a regression line from the time change of the angular velocity indicated by the history of the angular velocity, and the drone is said to be in a coordinate system whose origin is a point on the regression line at the time when the drone changes from the reference posture. The drone photographing method according to Appendix 12, wherein the value of the regression line at each time after the change from the reference posture is predicted as the deviation amount of the reference value.

(付記14)
前記算出部は、前記ジャイロセンサで取得された角速度と、前記回帰直線との差分を一定時間毎に積分して、前記一定時間毎の前記基準姿勢に対する前記ドローンの角度を算出し、算出した角度を用いて前記距離を算出する付記13に記載のドローン撮影方法。
(Appendix 14)
The calculation unit integrates the difference between the angular velocity acquired by the gyro sensor and the regression line at regular time intervals, calculates the angle of the drone with respect to the reference posture at regular time intervals, and calculates the angle. The drone photographing method according to Appendix 13, wherein the distance is calculated using the above.

(付記15)
前記支持部は、前記撮影面と接触する接触部を含み、前記接触部が前記撮影面と所定の条件で接触している場合に、前記ドローンが前記基準姿勢を維持し、
前記判別部は、前記接触部が前記撮影面と前記所定の条件で接触しているか否かに基づいて、前記ドローンの姿勢が前記基準姿勢から変化したか否かを判別する
付記10〜付記14のいずれか1項に記載のドローン撮影方法。
(Appendix 15)
The support portion includes a contact portion that comes into contact with the imaging surface, and when the contact portion is in contact with the imaging surface under predetermined conditions, the drone maintains the reference posture.
The discriminating unit determines whether or not the posture of the drone has changed from the reference posture based on whether or not the contacting portion is in contact with the photographing surface under the predetermined conditions. The drone shooting method according to any one of the above.

(付記16)
前記支持部は、複数の接触部を含み、前記複数の接触部の各々の一部がそれぞれ前記撮影面に接触している場合に、前記ドローンが前記基準姿勢を維持し、
前記判別部は、前記複数の接触部のうち、少なくとも1つの接触部が前記撮影面と接触し、かつ他の少なくとも1つの接触部が前記撮影面と接触していない場合に、前記ドローンの姿勢が前記基準姿勢から変化したことを判別する
付記15に記載のドローン撮影方法。
(Appendix 16)
The support portion includes a plurality of contact portions, and when a part of each of the plurality of contact portions is in contact with the photographing surface, the drone maintains the reference posture.
The discriminant unit is in the posture of the drone when at least one contact portion of the plurality of contact portions is in contact with the photographing surface and the other at least one contact portion is not in contact with the photographing surface. The drone photographing method according to Appendix 15, which determines that the subject has changed from the reference posture.

(付記17)
前記支持部は、前記ドローンが前記基準姿勢を維持したまま、前記撮影面に沿って移動可能にするための複数の車輪を含み、
前記判別部は、前記複数の車輪の各々と前記撮影面との間の圧力を検出する圧力センサのセンサ値に基づいて、前記複数の車輪の各々と前記撮影面とが接触しているか否かを判別する
付記16に記載のドローン撮影方法。
(Appendix 17)
The support includes a plurality of wheels for allowing the drone to move along the imaging surface while maintaining the reference posture.
Whether or not each of the plurality of wheels and the photographing surface are in contact with each other based on the sensor value of the pressure sensor that detects the pressure between each of the plurality of wheels and the photographing surface. The drone photographing method according to Appendix 16.

(付記18)
前記角速度は、鉛直軸周りのヨー角速度である付記10〜付記17のいずれか1項に記載のドローン撮影方法。
(Appendix 18)
The drone photographing method according to any one of Supplementary note 10 to Supplementary note 17, wherein the angular velocity is a yaw angular velocity around a vertical axis.

(付記19)
画像を撮影する撮影部が固定され、かつ撮影面に対する姿勢が予め定めた基準姿勢を維持するように支持部により支持されたドローンの姿勢が前記基準姿勢から変化したか否かを判別し、
前記ドローンが前記基準姿勢であると判別されている場合、前記ドローンに内蔵されたジャイロセンサで取得される角速度を基準値に補正し、
前記基準値に補正された角速度に基づく値を用いて、前記撮影部から前記撮影面までの距離を算出し、
算出された前記距離を、前記距離に基づいて前記撮影部のフォーカスを調整する調整部へ出力する
ことを含む処理をコンピュータに実行させるためのドローン撮影プログラム。
(Appendix 19)
It is determined whether or not the posture of the drone supported by the support portion has changed from the reference posture so that the shooting portion for capturing the image is fixed and the posture with respect to the shooting surface maintains the predetermined reference posture.
When it is determined that the drone is in the reference posture, the angular velocity acquired by the gyro sensor built in the drone is corrected to the reference value.
Using a value based on the angular velocity corrected to the reference value, the distance from the imaging unit to the imaging surface is calculated.
A drone photographing program for causing a computer to execute a process including outputting the calculated distance to an adjusting unit that adjusts the focus of the photographing unit based on the distance.

(付記20)
画像を撮影する撮影部が固定され、かつ撮影面に対する姿勢が予め定めた基準姿勢を維持するように支持部により支持されたドローンの姿勢が前記基準姿勢から変化したか否かを判別し、
前記ドローンが前記基準姿勢であると判別されている場合、前記ドローンに内蔵されたジャイロセンサで取得される角速度を基準値に補正し、
前記基準値に補正された角速度に基づく値を用いて、前記撮影部から前記撮影面までの距離を算出し、
算出された前記距離を、前記距離に基づいて前記撮影部のフォーカスを調整する調整部へ出力する
ことを含む処理をコンピュータに実行させるためのドローン撮影プログラムを記憶した記憶媒体。
(Appendix 20)
It is determined whether or not the posture of the drone supported by the support portion has changed from the reference posture so that the shooting portion for capturing the image is fixed and the posture with respect to the shooting surface maintains the predetermined reference posture.
When it is determined that the drone is in the reference posture, the angular velocity acquired by the gyro sensor built in the drone is corrected to the reference value.
Using a value based on the angular velocity corrected to the reference value, the distance from the imaging unit to the imaging surface is calculated.
A storage medium that stores a drone photographing program for causing a computer to execute a process including outputting the calculated distance to an adjusting unit that adjusts the focus of the photographing unit based on the distance.

10 ドローン撮影装置
20 ドローン
22 ジャイロセンサ部
24 制御部
25 判別部
26 補正部
27 ジャイロデータDB
28 算出部
32 支持部
32A、32B 車輪
32C 車軸
34A、34B 圧力センサ
40 カメラ
42 撮影機構
44 調整部
50 コンピュータ
51 CPU
52 メモリ
53 記憶部
59 記憶媒体
60 ドローン撮影プログラム
80 壁面
10 Drone shooting device 20 Drone 22 Gyro sensor unit 24 Control unit 25 Discrimination unit 26 Correction unit 27 Gyro data DB
28 Calculation unit 32 Support unit 32A, 32B Wheel 32C Axle 34A, 34B Pressure sensor 40 Camera 42 Imaging mechanism 44 Adjustment unit 50 Computer 51 CPU
52 Memory 53 Storage unit 59 Storage medium 60 Drone shooting program 80 Wall surface

Claims (10)

ドローンに固定され、画像を撮影する撮影部と、
撮影面に対する前記ドローンの姿勢が予め定めた基準姿勢を維持するように支持する支持部と、
前記ドローンの姿勢が前記基準姿勢から変化したか否かを判別する判別部と、
前記判別部により前記ドローンが前記基準姿勢であると判別されている場合、前記ドローンに内蔵されたジャイロセンサで取得される角速度を基準値に補正する補正部と、
前記補正部により前記基準値に補正された角速度に基づく値を用いて、前記撮影部から前記撮影面までの距離を算出する算出部と、
前記算出部により算出された前記距離に基づいて、前記撮影部のフォーカスを調整する調整部と、
を含むドローン撮影装置。
A shooting unit that is fixed to the drone and shoots images,
A support part that supports the drone's posture with respect to the shooting surface so as to maintain a predetermined reference posture, and
A discriminating unit that determines whether or not the posture of the drone has changed from the reference posture, and
When the discriminating unit determines that the drone is in the reference posture, a correction unit that corrects the angular velocity acquired by the gyro sensor built in the drone to a reference value.
A calculation unit that calculates the distance from the imaging unit to the imaging surface using a value based on the angular velocity corrected to the reference value by the correction unit.
An adjustment unit that adjusts the focus of the photographing unit based on the distance calculated by the calculation unit, and
Drone photography equipment including.
前記算出部は、前記基準値に補正された角速度に基づく値として、前記ドローンが前記基準姿勢の場合、前記基準値を用い、前記ドローンの姿勢が前記基準姿勢から変化している場合、前記基準値に基づいて補正された値を用いる請求項1に記載のドローン撮影装置。 The calculation unit uses the reference value when the drone is in the reference posture as a value based on the angular velocity corrected to the reference value, and when the posture of the drone is changed from the reference posture, the reference is used. The drone photographing apparatus according to claim 1, wherein a value corrected based on the value is used. 前記補正部は、さらに、前記ドローンが前記基準姿勢であると判別されている間の前記ジャイロセンサで取得される角速度の履歴を保持し、
前記算出部は、前記基準値に基づいて補正された値として、前記ジャイロセンサで取得される角速度に対して、前記角速度の履歴に基づいて予測される前記基準値のずれ量を補正した値を用いる
請求項2に記載のドローン撮影装置。
The correction unit further holds a history of angular velocities acquired by the gyro sensor while the drone is determined to be in the reference posture.
As a value corrected based on the reference value, the calculation unit corrects the deviation amount of the reference value predicted based on the history of the angular velocity with respect to the angular velocity acquired by the gyro sensor. The drone photographing apparatus according to claim 2 to be used.
前記算出部は、前記角速度の履歴が示す角速度の時間変化から回帰直線を求め、前記ドローンが前記基準姿勢から変化した時刻における前記回帰直線上の点を原点とする座標系における、前記ドローンが前記基準姿勢から変化した後の各時刻における前記回帰直線の値を、前記基準値のずれ量として予測する請求項3に記載のドローン撮影装置。 The calculation unit obtains a regression line from the time change of the angular velocity indicated by the history of the angular velocity, and the drone is said to be in a coordinate system whose origin is a point on the regression line at the time when the drone changes from the reference posture. The drone photographing apparatus according to claim 3, wherein the value of the regression line at each time after changing from the reference posture is predicted as the amount of deviation of the reference value. 前記算出部は、前記ジャイロセンサで取得された角速度と、前記回帰直線との差分を一定時間毎に積分して、前記一定時間毎の前記基準姿勢に対する前記ドローンの角度を算出し、算出した角度を用いて前記距離を算出する請求項4に記載のドローン撮影装置。 The calculation unit integrates the difference between the angular velocity acquired by the gyro sensor and the regression line at regular time intervals, calculates the angle of the drone with respect to the reference posture at regular time intervals, and calculates the angle. The drone photographing apparatus according to claim 4, wherein the distance is calculated using the above. 前記支持部は、前記撮影面と接触する接触部を含み、前記接触部が前記撮影面と所定の条件で接触している場合に、前記ドローンが前記基準姿勢を維持し、
前記判別部は、前記接触部が前記撮影面と前記所定の条件で接触しているか否かに基づいて、前記ドローンの姿勢が前記基準姿勢から変化したか否かを判別する
請求項1〜請求項5のいずれか1項に記載のドローン撮影装置。
The support portion includes a contact portion that comes into contact with the imaging surface, and when the contact portion is in contact with the imaging surface under predetermined conditions, the drone maintains the reference posture.
Claims 1 to claim that the discriminating unit determines whether or not the posture of the drone has changed from the reference posture based on whether or not the contacting portion is in contact with the photographing surface under the predetermined conditions. Item 5. The drone photographing apparatus according to any one of Item 5.
前記支持部は、複数の接触部を含み、前記複数の接触部の各々の一部がそれぞれ前記撮影面に接触している場合に、前記ドローンが前記基準姿勢を維持し、
前記判別部は、前記複数の接触部のうち、少なくとも1つの接触部が前記撮影面と接触し、かつ他の少なくとも1つの接触部が前記撮影面と接触していない場合に、前記ドローンの姿勢が前記基準姿勢から変化したことを判別する
請求項6に記載のドローン撮影装置。
The support portion includes a plurality of contact portions, and when a part of each of the plurality of contact portions is in contact with the photographing surface, the drone maintains the reference posture.
The discriminant unit is in the posture of the drone when at least one contact portion of the plurality of contact portions is in contact with the photographing surface and the other at least one contact portion is not in contact with the photographing surface. The drone photographing apparatus according to claim 6, wherein it is determined that is changed from the reference posture.
前記支持部は、前記ドローンが前記基準姿勢を維持したまま、前記撮影面に沿って移動可能にするための複数の車輪を含み、
前記判別部は、前記複数の車輪の各々と前記撮影面との間の圧力を検出する圧力センサのセンサ値に基づいて、前記複数の車輪の各々と前記撮影面とが接触しているか否かを判別する
請求項7に記載のドローン撮影装置。
The support includes a plurality of wheels for allowing the drone to move along the imaging surface while maintaining the reference posture.
The discriminating unit determines whether or not each of the plurality of wheels and the photographing surface are in contact with each other based on the sensor value of the pressure sensor that detects the pressure between each of the plurality of wheels and the photographing surface. The drone photographing apparatus according to claim 7.
前記角速度は、鉛直軸周りのヨー角速度である請求項1〜請求項8のいずれか1項に記載のドローン撮影装置。 The drone photographing apparatus according to any one of claims 1 to 8, wherein the angular velocity is a yaw angular velocity around a vertical axis. ドローンに固定された撮影部が、画像を撮影し、
支持部が、撮影面に対する前記ドローンの姿勢が予め定めた基準姿勢を維持するように支持し、
判別部が、前記ドローンの姿勢が前記基準姿勢から変化したか否かを判別し、
補正部が、前記判別部により前記ドローンが前記基準姿勢であると判別されている場合、前記ドローンに内蔵されたジャイロセンサで取得される角速度を基準値に補正し、
算出部が、前記補正部により前記基準値に補正された角速度に基づく値を用いて、前記撮影部から前記撮影面までの距離を算出し、
調整部が、前記算出部により算出された前記距離に基づいて、前記撮影部のフォーカスを調整する
ドローン撮影方法。
The shooting unit fixed to the drone shoots the image,
The support unit supports the drone so that the posture of the drone with respect to the shooting surface maintains a predetermined reference posture.
The discriminating unit determines whether or not the posture of the drone has changed from the reference posture.
When the correction unit determines that the drone is in the reference posture by the discrimination unit, the correction unit corrects the angular velocity acquired by the gyro sensor built in the drone to the reference value.
The calculation unit calculates the distance from the imaging unit to the imaging surface using a value based on the angular velocity corrected to the reference value by the correction unit.
A drone photographing method in which the adjusting unit adjusts the focus of the photographing unit based on the distance calculated by the calculating unit.
JP2019147203A 2019-08-09 2019-08-09 Drone imaging device and method Pending JP2021028188A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019147203A JP2021028188A (en) 2019-08-09 2019-08-09 Drone imaging device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019147203A JP2021028188A (en) 2019-08-09 2019-08-09 Drone imaging device and method

Publications (1)

Publication Number Publication Date
JP2021028188A true JP2021028188A (en) 2021-02-25

Family

ID=74667031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019147203A Pending JP2021028188A (en) 2019-08-09 2019-08-09 Drone imaging device and method

Country Status (1)

Country Link
JP (1) JP2021028188A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113055598A (en) * 2021-03-25 2021-06-29 浙江商汤科技开发有限公司 Orientation data compensation method and device, electronic equipment and readable storage medium
CN116430788A (en) * 2023-06-14 2023-07-14 山东坤羽网络科技有限公司 Remote unmanned aerial vehicle control system based on wireless communication

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113055598A (en) * 2021-03-25 2021-06-29 浙江商汤科技开发有限公司 Orientation data compensation method and device, electronic equipment and readable storage medium
CN116430788A (en) * 2023-06-14 2023-07-14 山东坤羽网络科技有限公司 Remote unmanned aerial vehicle control system based on wireless communication
CN116430788B (en) * 2023-06-14 2023-08-22 山东坤羽网络科技有限公司 Remote unmanned aerial vehicle control system based on wireless communication

Similar Documents

Publication Publication Date Title
JP5391074B2 (en) Camera, camera system and camera body
WO2017120771A1 (en) Depth information acquisition method and apparatus, and image collection device
CN111953892B (en) Unmanned aerial vehicle and inspection method
JP4608015B2 (en) camera
JP4899217B2 (en) Eye movement control device using the principle of vestibulo-oculomotor reflex
US20220086362A1 (en) Focusing method and apparatus, aerial camera and unmanned aerial vehicle
WO2018191964A1 (en) Camera mount control method, and camera mount
US11490005B2 (en) Overhead line image capturing system and overhead line image capturing method
WO2020172800A1 (en) Patrol control method for movable platform, and movable platform
CN111247389B (en) Data processing method and device for shooting equipment and image processing equipment
JP2021028188A (en) Drone imaging device and method
JP2014068336A (en) Imaging apparatus and image processing device
KR20190143202A (en) Photographing apparatus and method for 3d modeling
JP2012128356A (en) Shake correction device and optical apparatus
JP7008736B2 (en) Image capture method and image capture device
JP2016220024A (en) Panning display control apparatus and imaging apparatus
JP2012163824A (en) Shake correction apparatus and optical device
JP2019219874A (en) Autonomous moving and imaging control system and autonomous moving body
JP4517813B2 (en) Panning camera and video editing program
JP2002090116A (en) Three-dimensional image detector
JP6737307B2 (en) Image stabilization device and photographing device
JP2015138010A (en) Position detection system and method for photographing camera
JP4957851B2 (en) Camera shake detection device, camera shake detection method, and camera shake detection program
JP2012220886A (en) Shake correcting device and optical apparatus
US20240205532A1 (en) Image capturing apparatus, control method thereof, and storage medium