JP6347299B2 - Flight apparatus, method, and program - Google Patents
Flight apparatus, method, and program Download PDFInfo
- Publication number
- JP6347299B2 JP6347299B2 JP2017032100A JP2017032100A JP6347299B2 JP 6347299 B2 JP6347299 B2 JP 6347299B2 JP 2017032100 A JP2017032100 A JP 2017032100A JP 2017032100 A JP2017032100 A JP 2017032100A JP 6347299 B2 JP6347299 B2 JP 6347299B2
- Authority
- JP
- Japan
- Prior art keywords
- shooting
- holder
- flying device
- time
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 61
- 238000003384 imaging method Methods 0.000 claims description 62
- 230000008569 process Effects 0.000 claims description 45
- 230000001133 acceleration Effects 0.000 claims description 23
- 238000000926 separation method Methods 0.000 claims description 7
- 230000005484 gravity Effects 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Landscapes
- Studio Devices (AREA)
Description
本発明は、保持者の手等から離れて無人で飛行を行い、空中撮影を行う飛行装置に関する。 The present invention relates to a flying device that performs unmanned flight away from a holder's hand or the like and performs aerial shooting.
モータで駆動されるロータブレードによる駆動推進装置を例えば4基搭載した、いわゆる「ドローン」と総称される小型無人飛行装置にデジタルカメラを取り付け、この飛行装置及びデジタルカメラをタイマ撮影や無線などによってリモート操作をすることで、手の届かない、より高い位置からの撮影を行える飛行装置が普及し始めている(例えば、特許文献1〜4参照)。 A digital camera is attached to a small unmanned aerial vehicle commonly called “drone” equipped with, for example, four drive propulsion devices using rotor blades driven by a motor, and the flight device and the digital camera are remotely controlled by timer photography or radio. By operating, flight devices that can be photographed from a higher position that is out of reach have begun to spread (see, for example, Patent Documents 1 to 4).
しかし、従来の小型無人飛行装置においては、リモートコントロールで制御するか、予めスマートフォン等で撮影位置や飛行軌跡を設定する必要があり、撮影の操作が難しいという課題があった。 However, in the conventional small unmanned aerial vehicle, it is necessary to control by remote control or to set the shooting position and the flight trajectory with a smartphone or the like in advance, and there is a problem that the shooting operation is difficult.
そこで、本発明は、保持者が簡単に意図したように撮影形態を決定できるようにすることを目的とする。 Therefore, an object of the present invention is to make it possible to determine a photographing form as the holder simply intended.
態様の一例は、
撮像部を備えた飛行装置であって、
保持者から離れた時点の状態を取得する取得手段と、
前記取得手段により取得された状態に基いて、前記離れた時点以降の前記撮像部の撮影形態を決定する決定手段と、
前記決定手段により決定した撮影形態で前記撮像部を制御する撮像制御手段と、
前記保持者から離れた時点の前記飛行装置の角速度、加速度、又は速度を検出するセンサ部と、を備え、
前記決定手段は、前記取得手段で取得された前記保持者から離れた時点の前記センサ部の出力値に基づく値を所定の閾値と比較することにより、該比較の結果に基づいて、前記撮像部の撮影形態を決定する、
ことを特徴とする飛行装置である。
An example of an aspect is
A flying device including an imaging unit ,
Acquisition means for acquiring the state at the time of leaving the holder;
A determination unit that determines a shooting mode of the imaging unit after the separated time point based on the state acquired by the acquisition unit;
Imaging control means for controlling the imaging unit in the imaging mode determined by the determining means;
A sensor unit that detects the angular velocity, acceleration, or velocity of the flying device at a time when it is separated from the holder,
The determination unit compares the value based on the output value of the sensor unit obtained at the time of separation from the holder acquired by the acquisition unit with a predetermined threshold, and based on the comparison result, the imaging unit Determine the shooting mode,
This is a flying device characterized by the above.
本発明によれば、保持者が簡単に意図したように撮影形態を決定することが可能となる。 According to the present invention, it is possible to determine the shooting mode as the holder simply intended.
以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。本実施形態は、飛行装置が保持者から離れた時点の状態、例えば投擲者により飛行装置の投擲が行われた時点の状態に基づいて、その時点以降の撮像部の撮影形態を決定し、その決定した撮影形態で撮像部を制御するものである。より具体的には例えば、投擲が行われた時点以降、飛行装置の駆動推進部を駆動推進させて飛行を行わせるとともに、飛行装置における撮像部の撮影形態をコントロールできるようにするものである。更に具体的には、投げられたことを認識し、投げた時の状態をセンサデータから算出して取得し、それぞれのパラメータを閾値と比較することにより、ユーザがどのような投げ方をしたかを推定し、それに応じた撮影形態へ移行し、それぞれの撮影形態に応じた撮影を行うようにするものである。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. In this embodiment, based on the state at the time when the flying device is separated from the holder, for example, the state at the time when the flying device is thrown by the thrower, the imaging mode of the imaging unit after that time is determined, The imaging unit is controlled with the determined imaging mode. More specifically, for example, after the throwing is performed, the driving propulsion unit of the flying device is driven and propelled to fly, and the photographing form of the imaging unit in the flying device can be controlled. More specifically, how the user did throwing by recognizing that it was thrown, calculating and obtaining the state when thrown from sensor data, and comparing each parameter with a threshold. Is shifted to a shooting mode corresponding to the estimated shooting mode, and shooting is performed according to each shooting mode.
図1は、本実施形態による飛行装置100の外観例を示す図である。 FIG. 1 is a diagram showing an example of the appearance of the flying device 100 according to the present embodiment.
メインフレーム101に4つの円形のモータフレーム102(支持部)が取り付けられている。モータフレーム102は、モータ104を支持できるようになっていて、モータ104のモータ軸にはロータブレード103が固定されている。4組のモータ104とロータブレード103は、駆動推進部を構成している。 Four circular motor frames 102 (support portions) are attached to the main frame 101. The motor frame 102 can support the motor 104, and the rotor blade 103 is fixed to the motor shaft of the motor 104. The four sets of motors 104 and rotor blades 103 constitute a drive propulsion unit.
メインフレーム101の内部の回路ボックス105には、モータ104を駆動するためのモータドライバや、コントローラ、センサ類等が収められている。メインフレーム101の下部には、撮像部であるカメラ106が取り付けられている。 A circuit box 105 inside the main frame 101 houses a motor driver for driving the motor 104, a controller, sensors, and the like. A camera 106 as an imaging unit is attached to the lower part of the main frame 101.
図2は、図1に示される構造を有する実施形態による飛行装置100のシステム構成例を示す図である。コントローラ201には、カメラ106(図1参照)を含むカメラシステム202、例えば加速度センサ、ジャイロ、GPS(全地球測位システム)センサなどから構成されるフライトセンサ203、タッチセンサ204(接触検知センサ部)、それぞれ#1から#4の各モータ104(図1参照)を駆動する#1から#4のモータドライバ205、バッテリ207の電圧をモニタしながら各モータドライバ205に電力を供給するパワーセンサ206が接続される。ここでタッチセンサ204は接触を検知できれば押しボタン等でもよい。なお、特には図示しないが、バッテリ207の電力は、201〜206の各制御ユニットにも供給される。コントローラ201は、フライトセンサ203から、飛行装置100の機体の姿勢に関する情報をリアルタイムで取得する。また、コントローラ201は、パワーセンサ206を介して、バッテリ207の電圧をモニタしながら、#1から#4の各モータドライバ205に、それぞれパルス幅変調に基づくデューティ比による電力指示信号を送信する。これにより、#1から#4のモータドライバ205はそれぞれ、#1から#4のモータ104の回転速度を制御する。また、コントローラ201は、カメラシステム202を制御して、カメラ106(図1)による撮影動作を制御する。本実施形態において、コントローラ201は、保持者から離れた時点の状態、すなわち保持者により投擲が行われた時点の状態を取得する取得手段、取得手段により取得された状態に基いて、飛行装置100が保持者から離れた(保持者により投擲が行われた)時点以降の、撮像部であるカメラシステム202及びカメラ106の撮影形態を決定する決定手段、そして、決定手段により決定した撮影形態でカメラシステム202を介してカメラ106を制御する撮像制御手段として機能する。 FIG. 2 is a diagram showing a system configuration example of the flying device 100 according to the embodiment having the structure shown in FIG. The controller 201 includes a camera system 202 including a camera 106 (see FIG. 1), for example, a flight sensor 203 including an acceleration sensor, a gyroscope, a GPS (global positioning system) sensor, and a touch sensor 204 (contact detection sensor unit). A motor sensor 205 for driving # 1 to # 4 motors 205 (see FIG. 1) and a power sensor 206 for supplying power to each motor driver 205 while monitoring the voltage of the battery 207 are provided. Connected. Here, the touch sensor 204 may be a push button or the like as long as it can detect contact. Although not particularly illustrated, the power of the battery 207 is also supplied to the control units 201 to 206. The controller 201 acquires information regarding the attitude of the aircraft of the flying device 100 from the flight sensor 203 in real time. Further, the controller 201 transmits a power instruction signal with a duty ratio based on pulse width modulation to each of the motor drivers 205 # 1 to # 4 while monitoring the voltage of the battery 207 via the power sensor 206. As a result, the motor drivers 205 # 1 to # 4 control the rotational speeds of the motors 104 # 1 to # 4, respectively. Further, the controller 201 controls the camera system 202 to control the photographing operation by the camera 106 (FIG. 1). In the present embodiment, the controller 201 acquires the flight device 100 based on the state acquired when the user is away from the holder, that is, the acquisition unit that acquires the state when the anchor is thrown, and the state acquired by the acquisition unit. Deciding means for deciding the photographing form of the camera system 202 and the camera 106 as the imaging unit after the time when the camera is separated from the holder (throwing was performed by the holder), and the camera in the photographing form decided by the deciding means It functions as an imaging control unit that controls the camera 106 via the system 202.
図2のコントローラ201、カメラシステム202、フライトセンサ203、モータドライバ205、パワーセンサ206、及びバッテリ207は、図1のメインフレーム101内の回路ボックス107に格納される。また、図1には明示していないが、タッチセンサ204は、図1のメインフレーム101及び/又はモータフレーム102に貼付され、投擲者の指等がメインフレーム101又はモータフレーム102にタッチしているときとタッチしていないときの電気的な物理量の差を検出する。 The controller 201, the camera system 202, the flight sensor 203, the motor driver 205, the power sensor 206, and the battery 207 in FIG. 2 are stored in the circuit box 107 in the main frame 101 in FIG. Although not clearly shown in FIG. 1, the touch sensor 204 is attached to the main frame 101 and / or the motor frame 102 of FIG. 1, and a finger of a thrower touches the main frame 101 or the motor frame 102. Detects the difference in electrical physical quantity between when touched and when not touched.
以上の構成を有する飛行装置100の動作につき、以下に説明する。まず、本実施例での撮影形態のうちの撮影モード、及びそれに対応する投擲方法の例につき、以下に列挙する。撮影モードとは、旋回撮影、自転撮影、セルフタイマー撮影、自動追尾撮影、通常撮影をいう。なお、撮影モードとして、撮影禁止を含んでもよい。 The operation of the flying device 100 having the above configuration will be described below. First, an example of shooting modes and shooting methods corresponding to the shooting modes in the shooting modes of the present embodiment will be listed below. The shooting mode refers to turning shooting, rotation shooting, self-timer shooting, automatic tracking shooting, and normal shooting. The shooting mode may include shooting prohibition.
●旋回撮影モードの決定例:
このモードは、投擲したユーザの周辺を旋回しながら撮影するモードである。投擲方法は、図3に示されるように、x軸、y軸、z軸からなる3次元空間を、x軸、y軸を地面に対して平行な平面内の軸、z軸を地面に対して空の方向に垂直な軸としたときに、図3の301として示されるように、x軸周り又はy軸周り又はxy両軸回りの回転をさせながら投擲する。
● Example of turning mode setting:
This mode is a mode for shooting while turning around the thrown user. As shown in FIG. 3, the throwing method is a three-dimensional space consisting of an x-axis, a y-axis, and a z-axis, an x-axis, a y-axis in a plane parallel to the ground, and a z-axis with respect to the ground. When the axis is perpendicular to the direction of the sky, as shown by 301 in FIG. 3, throwing is performed while rotating around the x axis, the y axis, or both the xy axes.
●自転撮影モードの決定例:
このモードは、飛行装置100自身がz軸回りに自転しながら撮影するモードである。投擲方法は、図3の302として示されるように、z軸周りの回転をさせながら投擲する。
● Example of determining the rotation mode:
This mode is a mode in which the flying device 100 itself takes a picture while rotating around the z axis. The throwing method is thrown while rotating around the z-axis as indicated by 302 in FIG.
●セルフタイマー撮影モードの決定例:
飛行開始後セルフタイマーで撮影するモードである。投擲方法は、投げずに手を離す、又は上にそっと投げ上げる。閾値を超える回転はさせない。このモードは基本的に投擲者を撮影するもので、顔検出並びに自動焦点調節等を行う。またこのモードでは、重力により落下を始めるので、これに対抗するようにホバリングして定位置を保持する。
● Example of determining the self-timer shooting mode:
In this mode, a self-timer is used after the flight starts. The throwing method is to release your hand without throwing it, or throw it up gently. Do not rotate beyond the threshold. This mode basically captures the thrower, and performs face detection and automatic focus adjustment. Moreover, in this mode, since it begins to fall due to gravity, it is hovered so as to counteract this to hold a fixed position.
●自動追尾撮影モードの決定例:
投擲したユーザを自動で追尾し撮影するモードである。投擲方法は、端末を上下逆さまにして手を離す、又は図3の304として示されるように、z軸に平行に上に強めに投げ上げる。閾値を超える回転はさせない。
● Example of automatic tracking shooting mode determination:
This is a mode for automatically tracking and shooting the thrown user. In the throwing method, the terminal is turned upside down and released, or as shown as 304 in FIG. Do not rotate beyond the threshold.
●通常撮影モードの決定例:
投擲された位置にて静止しながら撮影するモードである。投擲方法は、上記各撮影モード以外の投擲を行う。例えば特には図示しないが、回転させずに水平方向へ投げる。なお、投げる速度に応じて連写間隔を変えるようにしてもよい。
● Example of normal shooting mode determination:
In this mode, the subject is photographed while standing still at the thrown position. As a throwing method, throwing is performed in modes other than the above-described shooting modes. For example, although not particularly shown, it is thrown in the horizontal direction without rotating. The continuous shooting interval may be changed according to the throwing speed.
シャッタ速度、絞り、撮影間隔、静止画又は動画の撮影タイミング等の各種撮影条件の決定は、モードごとに適宜設定してもよいし、フルオートでも良い。また、撮影条件を撮影モードの1つとして設定し、投擲され保持者から離れた時点の状態に応じて決定するようにしても良い。 Determination of various shooting conditions such as shutter speed, aperture, shooting interval, shooting timing of still images or moving images may be appropriately set for each mode, or may be fully automatic. Also, the shooting condition may be set as one of the shooting modes and determined according to the state at the time of being thrown away from the holder.
図4は、投擲方法によって上述の5種類の撮影モードの何れかを指示できるようにするための、本実施形態による飛行装置100の撮影モード制御処理例を示すフローチャートである。この処理は、図2のコントローラ201において、それが内蔵するCPU(中央演算処理装置)が、同じく内蔵する特には図示しないメモリに記憶された制御プログラムを実行する処理として実現することができる。 FIG. 4 is a flowchart showing a shooting mode control process example of the flying device 100 according to the present embodiment so that any one of the above-described five shooting modes can be instructed by the throwing method. This process can be realized as a process in which the CPU (central processing unit) built in the controller 201 in FIG. 2 executes a control program stored in a memory (not shown) that is also built in.
コントローラ201はまず、タッチセンサ204の電圧変化を監視すること等により、飛行装置100がユーザの手から離れた(投げられた)か否かを監視する(ステップS401の判定がNOの繰返し)。 First, the controller 201 monitors whether or not the flying device 100 is separated (throwed) from the user's hand by monitoring a voltage change of the touch sensor 204 (determination of NO in step S401).
ステップS401の判定がYESになると、コントローラ201は、フライトセンサ203の各出力に基づいて、投げた時の状態を取得、算出する(ステップS402)。具体的には、コントローラ201はまず、フライトセンサ203を構成するジャイロセンサの各座標軸方向の各出力値として、xyz軸絶対座標系における投擲時のx軸周り、y軸周り、及びz軸周りの各角速度ωx 、ωy 、及びωz [rad/s:ラジアン/秒]を取得する。そして、コントローラ201は、下記数1式及び数2式と等価な演算処理に基づき、x軸周り、y軸周り、又はxy両軸周り、即ち図3の301の方向の角速度ωini_horと、z軸周り、即ち図3の302の方向の角度速度ωini_vertを、それぞれ算出する。 If the determination in step S401 is YES, the controller 201 obtains and calculates the state when it is thrown based on each output of the flight sensor 203 (step S402). Specifically, the controller 201 first outputs the output values in the coordinate axis directions of the gyro sensor constituting the flight sensor 203 around the x axis, around the y axis, and around the z axis at the time of throwing in the xyz axis absolute coordinate system. Each angular velocity ωx, ωy, and ωz [rad / s: radians / second] is acquired. Then, the controller 201 performs an angular velocity ωini_hor around the x axis, around the y axis, or around both xy axes, that is, in the direction of 301 in FIG. The angular velocity ωini_vert around, that is, in the direction 302 in FIG. 3 is calculated.
次に、コントローラ201は、投擲が行われた時点のxyz軸絶対座標系におけるx軸、y軸、z軸)方向の各速度Vx、Vy、Vz[m/s:メートル/秒]を算出する。ここで、コントローラ201は、投擲が行われた時点において図2のフライトセンサ203を構成する加速度センサが出力する各座標軸方向の加速度値に基づき、上記各速度Vx、Vy、Vzを算出する。今、加速度センサが出力する上記xyz軸絶対座標系におけるx軸、y軸、z軸方向の加速度をそれぞれ、ax、ay、az[m/s2 ]とすれば、コントローラ201は、これらの加速度値の何れかが所定の閾値を超えた投擲動作開始時の時点ts から、図2のタッチセンサ204の出力に基づいて投擲者の身体から飛行装置100が離れたことを検知したリリース時点tr まで、上記各加速度ax、ay、azに対してそれぞれ、下記数3式、数4式、及び数5式と等価な積分演算処理を実行することにより、投擲が行われた時点の各座標軸方向の速度Vx、Vy、Vzを算出する。 Next, the controller 201 calculates each velocity Vx, Vy, Vz [m / s: meter / second] in the x-axis, y-axis, z-axis) direction in the xyz-axis absolute coordinate system at the time of throwing. . Here, the controller 201 calculates the speeds Vx, Vy, and Vz based on the acceleration values in the coordinate axis directions output from the acceleration sensor that constitutes the flight sensor 203 in FIG. 2 when the throwing is performed. Now, assuming that the accelerations in the x-axis, y-axis, and z-axis directions in the xyz-axis absolute coordinate system output by the acceleration sensor are ax, ay, and az [m / s 2 ], the controller 201 can detect these accelerations. From the time ts at the start of the throwing operation when any of the values exceeds a predetermined threshold to the release time tr at which it is detected that the flying device 100 is separated from the thrower's body based on the output of the touch sensor 204 in FIG. , By executing an integration calculation process equivalent to the following equations (3), (4), and (5) for each of the accelerations ax, ay, and az, each coordinate axis direction at the time of throwing Velocity Vx, Vy, and Vz are calculated.
次に、コントローラ201は、以下の数6及び数7式と等価な演算処理に基づいて、x軸周り、y軸周り、即ち図3の303の水平方向の初速度Vini_hor と、z軸周り、即ち図3の304の垂直方向の初速度Vini_vertを、それぞれ算出する。 Next, the controller 201, based on the arithmetic processing equivalent to the following equations 6 and 7, the x-axis and y-axis, that is, the horizontal initial velocity Vini_hor of 303 in FIG. That is, the initial velocity Vini_vert in the vertical direction 304 in FIG. 3 is calculated.
以上のステップS402の処理の後、コントローラ201は、ステップS402で算出した図3の301の方向の角速度ωini_hor が、予め後述する図5のフローチャートの閾値設定処理により設定されている閾値ωTHini_hor よりも大きいか否かを判定する(ステップS403)。 After the process in step S402, the controller 201 determines that the angular velocity ωini_hor in the direction 301 in FIG. Whether or not (step S403).
ステップS403の判定がYESならば、コントローラ201は、撮影モードを前述した旋回撮影モードに設定し(ステップS404)、その後、ステップS412での撮影処理に移行する。 If the determination in step S403 is YES, the controller 201 sets the shooting mode to the above-described turning shooting mode (step S404), and then shifts to the shooting process in step S412.
ステップS403の判定がNOならば、コントローラ201は次に、ステップS402で算出した図3の302の方向の角速度ωini_vertが、予め後述する図5のフローチャートの閾値設定処理により設定されている閾値ωTHini_vertよりも大きいか否かを判定する(ステップS405)。 If the determination in step S403 is NO, the controller 201 next determines that the angular velocity ωini_vert in the direction 302 in FIG. 3 calculated in step S402 is based on the threshold value ωTHini_vert set in advance by the threshold setting process in the flowchart in FIG. Is also larger (step S405).
ステップS405の判定がYESならば、コントローラ201は、撮影モードを前述した自転撮影モードに設定し(ステップS406)、その後、ステップS412での撮影処理に移行する。 If the determination in step S405 is YES, the controller 201 sets the shooting mode to the above-described rotation shooting mode (step S406), and then shifts to the shooting process in step S412.
ステップS405の判定がNOならば、コントローラ201は次に、ステップS402で算出した図3の303の水平方向の初速度Vini_hor が、予め後述する図5のフローチャートの閾値設定処理により設定されている閾値VTHini_hor よりも大きいか否かを判定する(ステップS407)。 If the determination in step S405 is NO, the controller 201 next sets the threshold value in which the horizontal initial velocity Vini_hor in 303 in FIG. 3 calculated in step S402 is set in advance by the threshold setting process in the flowchart in FIG. It is determined whether it is larger than VTHini_hor (step S407).
ステップS407の判定がYESならば、コントローラ201は、撮影モードを前述した通常撮影モードに設定し(ステップS408)、その後、ステップS412での撮影処理に移行する。通常撮影モードでは、静止画又は連写、若しくは動画を撮影する。 If the determination in step S407 is YES, the controller 201 sets the shooting mode to the above-described normal shooting mode (step S408), and then proceeds to the shooting process in step S412. In the normal shooting mode, still images, continuous shooting, or moving images are shot.
ステップS407の判定がNOならば、コントローラ201は次に、ステップS402で算出した図3の304の垂直方向の初速度Vini_vertが0(又は0より少し大きな閾値)よりも大きいか否かを判定する(ステップS409)。 If the determination in step S407 is NO, the controller 201 next determines whether or not the initial velocity Vini_vert in the vertical direction 304 in FIG. 3 calculated in step S402 is greater than 0 (or a threshold value slightly larger than 0). (Step S409).
ステップS409の判定がYESならば、コントローラ201は、撮影モードを前述したセルフタイマー撮影モードに設定し(ステップS410)、その後、ステップS412での撮影処理に移行する。 If the determination in step S409 is YES, the controller 201 sets the shooting mode to the above-described self-timer shooting mode (step S410), and then proceeds to the shooting process in step S412.
ステップS409の判定がNOならば、コントローラ201は、撮影モードを前述した自動追尾撮影モードに設定し(ステップS411)、その後、ステップS412での撮影処理に移行する。 If the determination in step S409 is NO, the controller 201 sets the shooting mode to the automatic tracking shooting mode described above (step S411), and then proceeds to the shooting process in step S412.
ステップS412の撮影処理では、コントローラ201は、設定された各撮影モードでの飛行動作を行うように#1〜#4のモータドライバ204を制御し、その後、カメラシステム202を制御して撮影を行う。 In the shooting process of step S412, the controller 201 controls the motor drivers 204 of # 1 to # 4 so as to perform the flight operation in each set shooting mode, and then controls the camera system 202 to perform shooting. .
その後、特には図示しないが、コントローラ201は、一定時間又は一定回数、あるいはユーザからの指示により撮影が終了すると、投げ上げを行ったユーザ(所有者)の位置を探索する。この探索方法は、既存の技術を採用できる。所有者の位置が見つかると、コントローラ201は、GPSデータ等により所有者との距離が一定距離以下になったと判定するまで、#1から#4のモータドライバ205を制御することにより、所有者の方向への飛行を行う。そして、コントローラ201は、#1から#4のモータドライバ205を制御することにより、その場でのホバリング動作又は投擲者の手等への着陸動作を実行し、着陸動作時には#1から#4のモータを停止させて、制御動作を終了する。 Thereafter, although not particularly illustrated, the controller 201 searches for the position of the user (owner) who performed the throw-up when the photographing is completed for a certain period of time or a certain number of times or in response to an instruction from the user. This search method can employ existing techniques. When the position of the owner is found, the controller 201 controls the motor driver 205 # 1 to # 4 until the controller 201 determines that the distance from the owner is equal to or less than a certain distance based on GPS data or the like. Make a flight in the direction. Then, the controller 201 controls the motor driver 205 # 1 to # 4 to execute the hovering operation on the spot or the landing operation to the hand of the thrower, etc. The motor is stopped and the control operation is terminated.
図5は、本実施形態による撮影モード毎の閾値設定処理例を示すフローチャートである。コントローラ201はまず、ユーザによる所定のスイッチ操作等を受け付けることにより(ステップS501)、閾値設定モードに移行する(ステップS502)。 FIG. 5 is a flowchart illustrating an example of threshold setting processing for each shooting mode according to the present embodiment. First, the controller 201 shifts to a threshold setting mode (step S502) upon receiving a predetermined switch operation by the user (step S501).
次に、コントローラ201は、前述した撮影モードのうち閾値を未設定のモードを設定する(ステップS503)。 Next, the controller 201 sets a mode in which the threshold is not set among the above-described shooting modes (step S503).
次に、コントローラ201は、ユーザに、ステップS503で設定された撮影モードに対応する投擲方法で、投擲を行わせる(ステップS504)。 Next, the controller 201 causes the user to perform throwing using the throwing method corresponding to the shooting mode set in step S503 (step S504).
コントローラ201は、ステップS504での投擲の結果、前述した図4のステップS402の場合と同様の処理(数1式〜数7式と等価な演算処理)に基づき、図3の301の方向の角速度ωini_hor と、図3の302の方向の角度速度ωini_vertと、図3の303の水平方向の初速度Vini_hor と、図3の304の垂直方向の初速度Vini_vertをそれぞれ算出する。そして、コントローラ201は、これらの各値をそれぞれ所定量だけ変更した各値を、各閾値ωTHini_hor 、ωTHini_vert、VTHini_hor 、及びVTHini_vertとして自動設定する(ステップS505)。 As a result of the throwing in step S504, the controller 201 performs the angular velocity in the direction of 301 in FIG. 3 based on the same processing as in step S402 in FIG. 4 described above (calculation processing equivalent to equations 1 to 7). ωini_hor, the angular velocity ωini_vert in the direction 302 in FIG. 3, the horizontal initial velocity Vini_hor in 303 in FIG. 3, and the initial velocity Vini_vert in the vertical direction 304 in FIG. 3 are calculated. Then, the controller 201 automatically sets each value obtained by changing each of these values by a predetermined amount as each threshold value ωTHini_hor, ωTHini_vert, VTHini_hor, and VTHini_vert (step S505).
その後、コントローラ201は、全ての撮影モードについて上述のステップS503からS505の一連の処理を終えたか否かを判定する(ステップS506)。 Thereafter, the controller 201 determines whether or not the series of processing from step S503 to S505 described above has been completed for all shooting modes (step S506).
ステップS506の判定がNOならば、コントローラ201は、ステップS503の処理に戻って、次の未処理の撮影モードに対する処理に移行する。 If the determination in step S506 is no, the controller 201 returns to the process in step S503 and proceeds to the process for the next unprocessed shooting mode.
ステップS506の判定がYESならば、コントローラ201は、図5のフローチャートで示される撮影モード毎の閾値設定処理を終了する。 If the determination in step S506 is YES, the controller 201 ends the threshold setting process for each shooting mode shown in the flowchart of FIG.
以上説明した実施形態により、投擲者が投擲時に簡単に意図したように撮影形態を決定することが可能となる。 According to the embodiment described above, it is possible to determine the shooting mode as the thrower simply intended at the time of throwing.
次に、撮影形態のうちの撮影条件、及びそれに対応する投擲方法の例を示す実施形態について説明する。ここで、撮影条件とは、シャッタ速度、絞り、撮影間隔、静止画又は動画の撮影タイミング等である。前述した実施形態では、撮影条件はすべてオートで決まることを前提とし記載していたが、本実施形態では、保持者から飛行装置100が離れた時点の状態を図2のフライトセンサ203内の各種センサから取得して、その取得した状態に基づいて、飛行装置100が保持者の手から離れた時点以降、又は投擲者が飛行装置100を投擲した時点以降の撮影条件が決定される。 Next, an embodiment showing examples of shooting conditions and shooting methods corresponding to the shooting modes will be described. Here, the shooting conditions include shutter speed, aperture, shooting interval, still image or moving image shooting timing, and the like. In the above-described embodiment, it has been described on the assumption that the shooting conditions are all determined by auto. However, in this embodiment, the state at the time when the flying device 100 is separated from the holder is shown in various states in the flight sensor 203 in FIG. Based on the acquired state acquired from the sensor, shooting conditions after the time when the flying device 100 leaves the holder's hand or after the time when the thrower throws the flying device 100 are determined.
本実施形態において、前述した実施形態同様、図3に示されるように、x軸、y軸、z軸からなる3次元空間を、x軸、y軸を地面に対して平行な平面内の軸、z軸を地面に対して空の方向に垂直な軸としたときに、コントローラ201は、投擲が行われた時点のxyz軸絶対座標系におけるx軸、y軸、z軸方向の各速度Vx、Vy、Vz[m/s:メートル/秒]を算出する。ここで、コントローラ201は、図2のフライトセンサ203を構成する加速度センサが出力する各座標軸方向の加速度値ax、ay、azの何れかが所定の閾値を超えた投擲動作開始時の時点ts から、図2のタッチセンサ204の出力に基づいて投擲者の身体から飛行装置100が離れたことを検知したリリース時点tr まで、上記各加速度ax、ay、azに対してそれぞれ、前述した数3式、数4式、及び数5式と等価な積分演算処理を実行することにより、上記各速度Vx、Vy、Vzを算出する。本実施形態では、これらの各速度に基づいて、撮影条件が以下のようにして決定される。 In the present embodiment, as in the above-described embodiment, as shown in FIG. 3, a three-dimensional space composed of an x-axis, a y-axis, and a z-axis is converted into an axis in a plane parallel to the ground. , When the z-axis is an axis perpendicular to the sky direction with respect to the ground, the controller 201 determines each velocity Vx in the x-axis, y-axis, and z-axis directions in the xyz-axis absolute coordinate system at the time of throwing. , Vy, Vz [m / s: meter / second] is calculated. Here, the controller 201 starts from the time point ts at the start of the throwing operation when any one of the acceleration values ax, ay, and az in the coordinate axis directions output from the acceleration sensor constituting the flight sensor 203 in FIG. 2 exceeds a predetermined threshold. The above-described equations 3 are used for each of the accelerations ax, ay, and az until the release time tr when it is detected that the flying device 100 is separated from the body of the thrower based on the output of the touch sensor 204 of FIG. The above-described speeds Vx, Vy, and Vz are calculated by executing an integral calculation process equivalent to the equations (4) and (5). In the present embodiment, the imaging conditions are determined as follows based on these speeds.
●シャッタ速度に関する撮影条件の決定例:
例えば、投擲の後に、できるだけピントの合った画像を撮影したいときは、シャッタ速度を速くしたい。逆に、流れるような画像を撮影したいときは、シャッタ速度を遅くしたい。これを制御するための投擲方法としては、下記数8式に基づいて各方向の速度Vx,Vy,Vzの二乗和の平方根として算出される速度値Vが大きいほどシャッタ速度が速く設定される。すなわち、どの方向へ向けてでも、速く(強く)投擲するほどシャッタ速度が速くなる。このシャッタ速度の制御は、後述する絞りとn連動させられてもよい。
● Examples of determining shooting conditions related to shutter speed:
For example, if you want to capture an in-focus image as much as possible after throwing, you want to increase the shutter speed. Conversely, when you want to capture a flowing image, you want to slow down the shutter speed. As a throwing method for controlling this, the shutter speed is set faster as the speed value V calculated as the square root of the sum of squares of the speeds Vx, Vy, Vz in each direction based on the following equation (8). In other words, in any direction, the faster (stronger) the throwing, the faster the shutter speed. This control of the shutter speed may be linked with an aperture, which will be described later.
●絞りに関する撮影条件の決定例:
例えば、投擲の後に、できるだけシャープな画像を撮影したいときは、絞りを絞りたい。逆に、ソフトな画像を撮影したいときは、絞りを開きたい。これを制御するための投擲方法としては、上述のシャッタ速度の場合と同様に、数8式に基づいて各方向の速度Vx,Vy,Vzの二乗和の平方根として算出される速度値Vが大きいほど絞りが絞られる。すなわち、どの方向へ向けてでも、速く(強く)投擲するほど絞りが絞られる。この絞りの制御は、前述したシャッタ速度と連動させられてもよい。
● Example of determining shooting conditions for aperture:
For example, if you want to capture as sharp an image as possible after throwing, you want to stop the aperture. Conversely, when you want to shoot a soft image, you want to open the aperture. As a throwing method for controlling this, as in the case of the shutter speed described above, the speed value V calculated as the square root of the square sum of the speeds Vx, Vy, Vz in each direction based on Equation 8 is large. The aperture is reduced as much as possible. In other words, the aperture is narrowed the more quickly (strongly) it is thrown in any direction. This aperture control may be linked to the shutter speed described above.
●撮影間隔に関する撮影条件の決定例:
所定時間ごと、又は所定距離ごとに撮影したいときの撮影間隔を決定したい。これを制御するための投擲方法としては、図3の302として示されるように、前述した自転撮影モードと同じく、z軸周りの回転をさせながら投擲し、各方向の速度Vx,Vyの積が大きいほど撮影間隔が長く設定される。つまり、遅く投擲されるほど、多数の画像が撮影され、速く投擲されると、少ない画像が撮影されることになる。z軸方向の速度は考慮しない。もちろん速さと撮影間隔の関係は逆でもよい。
● Example of determining shooting conditions related to shooting interval:
I want to determine the shooting interval when I want to shoot every predetermined time or every predetermined distance. As a throwing method for controlling this, as shown by 302 in FIG. 3, throwing is performed while rotating around the z-axis as in the above-described rotation shooting mode, and the product of the velocities Vx and Vy in each direction is obtained. The larger the value is, the longer the shooting interval is set. In other words, the longer the image is thrown, the more images are taken, and the faster the image is thrown, the fewer images are taken. The speed in the z-axis direction is not considered. Of course, the relationship between the speed and the shooting interval may be reversed.
●撮影タイミングに関する撮影条件の決定例:
一番高くなった地点で撮影したい場合は、z軸方向、すなわち真上にゆっくり投げ上げる。
ユーザが画角に入ったときに撮影したい場合は、前述した旋回撮影モードと同じく、図3の301として示されるように、x軸周り又はy軸周り又はxy両軸回りの回転をさせながら投擲する。
所望の被写体が画角に入ったときに撮影したい場合は、その被写体に向けて放物線を描くように投擲する。その場合はx軸、y軸、z軸どの方向へ進むか不明であるが、コントローラ201は、飛行の軌跡が少なくとも放物線であることを検出すると、その放物線の軌跡方向にある画角内の主要被写体を判断し、その主要被写体に焦点を合わせて1枚又は複数枚の撮影を実行する。
● Examples of determining shooting conditions related to shooting timing:
If you want to shoot at the highest point, throw it slowly in the z-axis direction, that is, directly above.
When the user wants to take an image when the angle of view is entered, as in the above-described turning shooting mode, as shown by 301 in FIG. 3, throwing is performed while rotating around the x axis, the y axis, or both the xy axes. To do.
If you want to take a picture when the desired subject enters the angle of view, you can throw a parabola toward that subject. In that case, it is unclear which direction the x-axis, y-axis, and z-axis go, but if the controller 201 detects that the flight trajectory is at least a parabola, the controller 201 detects the main direction within the angle of view in the parabola trajectory direction. A subject is determined, and one or a plurality of images are taken while focusing on the main subject.
コントローラ201は、例えば以下の数式と等価な演算により、放物線の軌跡を計算することにより、その計算した放物線の軌跡方向にある画角内の主要被写体を判断する。 The controller 201 calculates a parabola trajectory, for example, by an operation equivalent to the following mathematical formula, thereby determining a main subject within the angle of view in the calculated parabola trajectory direction.
まず、初速度をV0 [m/s]、重力加速度をg[m/s2 ]とし、また、斜方投射の場合に、初速度の仰角をθ[ラジアン]、投擲開始時点からの時間をtとする。この場合、水平xy方向の速度Vxy及び変位xyは、下記数9式及び数10式により算出される。 First, the initial speed is V 0 [m / s], the gravitational acceleration is g [m / s 2 ], and in the case of oblique projection, the elevation angle of the initial speed is θ [radians], and the time from the start of throwing Is t. In this case, the velocity V xy and the displacement xy in the horizontal xy direction are calculated by the following equations (9) and (10).
また、垂直方向の速度及び変位は、下記数11式及び数12式により算出される。 Further, the velocity and displacement in the vertical direction are calculated by the following equations (11) and (12).
本実施形態では、コントローラ201は、初速度V0 による投擲の仰角θが所定範囲内にあることを判定することにより、放物線を描く投擲が行われたと判断し、上記数9式から数12式により放物線の軌跡を計算することにより、その計算した放物線の軌跡方向にある画角内の主要被写体を判断する。 In the present embodiment, the controller 201 determines that the throwing to draw a parabola has been performed by determining that the elevation angle θ of the throwing at the initial velocity V 0 is within a predetermined range, and the formula 9 to the formula 12 above. By calculating the trajectory of the parabola, the main subject within the angle of view in the calculated parabola trajectory direction is determined.
図6は、投擲方法によって上述の4種類の撮影条件の何れかを指示できるようにするための、本実施形態による飛行装置100の撮影条件制御処理例を示すフローチャートである。この処理は、図2のコントローラ201において、それが内蔵するCPUが、同じく内蔵する特には図示しないメモリに記憶された制御プログラムを実行する処理として実現することができる。 FIG. 6 is a flowchart showing a shooting condition control process example of the flying device 100 according to the present embodiment so that any one of the above-described four shooting conditions can be instructed by the throwing method. This process can be realized in the controller 201 of FIG. 2 as a process in which a CPU built in the controller 201 executes a control program stored in a built-in memory (not shown).
コントローラ201はまず、タッチセンサ204の電圧変化を監視すること等により、飛行装置100がユーザの手から離れた(投げられた)か否かを監視する(ステップS601の判定がNOの繰返し)。 First, the controller 201 monitors whether or not the flying device 100 is separated (throwed) from the user's hand by monitoring a voltage change of the touch sensor 204 (determination of NO in step S601).
ステップS601の判定がYESになると、コントローラ201は、フライトセンサ203の各出力に基づいて、投げた時の状態を取得、算出する(ステップS602)。具体的には、ステップS602において、コントローラ201は、フライトセンサ203を構成するジャイロセンサの各座標軸方向の各出力値として、xyz軸絶対座標系における投擲時のx軸周り、y軸周り、及びz軸周りの各角速度ωx 、ωy 、及びωz [rad/s:ラジアン/秒]を取得する。そして、コントローラ201は、前述した数1式及び数2式と等価な演算処理に基づき、x軸周り、y軸周り、又はxy両軸周り、即ち図3の301の方向の角速度ωini_horと、z軸周り、即ち図3の302の方向の角度速度ωini_vertを、それぞれ算出する。 If the determination in step S601 is YES, the controller 201 obtains and calculates the state when it is thrown based on each output of the flight sensor 203 (step S602). Specifically, in step S602, the controller 201 uses the gyro sensor constituting the flight sensor 203 as output values in the respective coordinate axis directions around the x axis, around the y axis, and z when throwing in the xyz axis absolute coordinate system. Obtain each angular velocity ωx, ωy, and ωz [rad / s: radians / second] about the axis. Then, the controller 201 performs the angular velocity ωini_hor around the x axis, the y axis, or both the xy axes, that is, in the direction of 301 in FIG. The angular velocity ωini_vert around the axis, that is, in the direction 302 in FIG. 3 is calculated.
続いて、ステップS602において、コントローラ201は、前述した数3式、数4式、及び数5式と等価な積分演算処理を実行することにより、投擲が行われた時点のxyz軸絶対座標系におけるx軸、y軸、z軸)方向の各速度Vx、Vy、Vz[m/s:メートル/秒]を算出する。 Subsequently, in step S602, the controller 201 executes an integral operation process equivalent to the above-described Expression 3, Expression 4, and Expression 5 to thereby perform an operation in the xyz-axis absolute coordinate system at the time of throwing. Each velocity Vx, Vy, Vz [m / s: meter / second] in the x-axis, y-axis, z-axis) direction is calculated.
更に、ステップS602において、コントローラ201は、前述した数7式と等価な演算処理に基づいて、z軸周り、即ち図3の304の垂直方向の初速度Vini_vertを算出する。 Further, in step S602, the controller 201 calculates an initial velocity Vini_vert around the z-axis, that is, in the vertical direction 304 in FIG. 3, based on the arithmetic processing equivalent to the above-described equation (7).
その後、コントローラ201は、前述した数8式と等価な演算処理を実行することにより、各速度の二乗和の平方根の速度を算出し、この速度の大きさに基づいて、シャッタ速度及び絞りの両方又は予め設定した片方を設定する(ステップS603)。 Thereafter, the controller 201 calculates the speed of the square root of the sum of squares of the respective speeds by executing a calculation process equivalent to the above-described Expression 8, and based on the magnitude of this speed, both the shutter speed and the aperture are calculated. Alternatively, one set in advance is set (step S603).
次に、ステップS602で算出した図3の302の方向の角速度ωini_vertが、予め前述する図5のフローチャートの閾値設定処理により設定されている閾値ωTHini_vertよりも大きいか否かを判定する(ステップS604)。 Next, it is determined whether or not the angular velocity ωini_vert in the direction 302 in FIG. 3 calculated in step S602 is larger than the threshold value ωTHini_vert set in advance by the threshold setting process in the flowchart in FIG. 5 described above (step S604). .
ステップS604の判定がYESならば、コントローラ201は、ステップS602で算出した速度VxとVyの積の値応じた長さの撮影間隔を設定する(ステップS605)。ステップS604の判定がYESならば、コントローラ201は、ステップS605の処理はスキップする。 If the determination in step S604 is YES, the controller 201 sets a shooting interval having a length corresponding to the product of the speeds Vx and Vy calculated in step S602 (step S605). If the determination in step S604 is yes, the controller 201 skips the process in step S605.
その後、コントローラ201は、ステップS602で算出した図3の301の方向の角速度ωini_hor が、予め前述した図5のフローチャートの閾値設定処理により設定されている閾値ωTHini_hor よりも大きいか否かを判定する(ステップS606)。 Thereafter, the controller 201 determines whether or not the angular velocity ωini_hor in the direction 301 in FIG. 3 calculated in step S602 is larger than the threshold ωTHini_hor set in advance by the threshold setting process in the flowchart in FIG. Step S606).
ステップS606の判定がYESならば、コントローラ201は、ユーザが画角に入ったときに撮影する撮影タイミングを設定する(ステップS607)。ユーザが画角に入ったか否かは、例えば、図2のカメラシステム202から得られる画像情報を用いた顔認識処理の認識結果に基づいて判定する。或いは、ユーザがビーコンの発信機能を持つリモコンを装着し、そのビーコンを捉えることにより、ユーザが画角に入ったか否かが判定されてもよい。その後、コントローラ201は、図6のフローチャートで示される撮影条件制御処理を終了する。 If the determination in step S606 is YES, the controller 201 sets a shooting timing for shooting when the user enters the angle of view (step S607). Whether or not the user has entered the angle of view is determined based on, for example, a recognition result of face recognition processing using image information obtained from the camera system 202 of FIG. Alternatively, it may be determined whether or not the user has entered the angle of view by wearing a remote control having a beacon transmission function and capturing the beacon. Thereafter, the controller 201 ends the photographing condition control process shown in the flowchart of FIG.
ステップS606の判定がNOならば、コントローラ201は、初速度V0 による投擲の仰角θが所定範囲内にあるか否かを判定することにより、飛行軌跡が放物線か否かを判定する(ステップS608)。 If the determination in step S606 is NO, the controller 201 determines whether or not the flight trajectory is a parabola by determining whether or not the elevation angle θ of the throwing at the initial speed V 0 is within a predetermined range (step S608). ).
ステップS608の判定がYESならば、コントローラ201は、所望被写体が画角に入ったときに撮影する撮影タイミングを設定する(ステップS609)。この場合、コントローラ201は、例えば、前述した数9式から数12式と等価な演算に基づいて放物線の軌跡を計算することにより、その計算した放物線の軌跡方向にある画角内の主要被写体を判断する。主要被写体の判断は、例えば、図2のカメラシステム202から得られる画像情報の上記画角内での画像認識処理により行う。その後、コントローラ201は、図6のフローチャートで示される撮影条件制御処理を終了する。 If the determination in step S608 is YES, the controller 201 sets a shooting timing for shooting when the desired subject enters the angle of view (step S609). In this case, for example, the controller 201 calculates the parabolic locus based on the calculation equivalent to the above-described Expression 9 to Expression 12, thereby selecting the main subject within the angle of view in the calculated parabolic locus direction. to decide. The main subject is determined by, for example, image recognition processing within the above-mentioned angle of view of image information obtained from the camera system 202 of FIG. Thereafter, the controller 201 ends the photographing condition control process shown in the flowchart of FIG.
ステップS608の判定がNOならば、コントローラ201は、ステップS602で算出した図3の304の垂直方向の初速度Vini_vertが0(又は0より少し大きな閾値)よりも大きいか否かを判定する(ステップS610)。 If the determination in step S608 is NO, the controller 201 determines whether or not the initial velocity Vini_vert in the vertical direction 304 in FIG. 3 calculated in step S602 is greater than 0 (or a threshold value slightly larger than 0) (step S602). S610).
ステップS610の判定がYESならば、コントローラ201は、最高地点で撮影する撮影タイミングを設定する。その後、コントローラ201は、図6のフローチャートで示される撮影条件制御処理を終了する。 If the determination in step S610 is YES, the controller 201 sets the shooting timing for shooting at the highest point. Thereafter, the controller 201 ends the photographing condition control process shown in the flowchart of FIG.
ステップS610の判定がNOならば、コントローラ201は、図6のフローチャートで示される撮影条件制御処理を終了する。 If the determination in step S610 is no, the controller 201 ends the shooting condition control process shown in the flowchart of FIG.
コントローラ201は、図6のフローチャートで示される撮影条件制御処理を終了した後は、前述した図4のフローチャートで示される冊目委モード制御処理を実行し、更にその後に、図4のステップS412で撮影処理に移行することができる。 After completing the photographing condition control process shown in the flowchart of FIG. 6, the controller 201 executes the booklet mode control process shown in the flowchart of FIG. 4 described above, and then in step S412 of FIG. It is possible to shift to shooting processing.
撮影条件制御処理の他の実施形態について以下に説明する。他の実施形態では、ユーザは、予め放物線を描くように様々な初速度(強さ)で投擲を試技し、各初速度(強さ)とシャッタ速度、及びそのシャッタ速度に対応して適正露出になるように自動設定される絞りとの関係を初速度−シャッタ速度対応テーブルとして記憶しておく。その後、ユーザは、好みの初速度で放物線を描くように投擲を行うことにより、好みのシャッタ速度及びそれに対応して自動設定される絞りで撮影を行うことができる。 Another embodiment of the imaging condition control process will be described below. In another embodiment, the user tries throwing at various initial speeds (strengths) so as to draw a parabola in advance, and the appropriate exposure corresponding to each initial speed (strength) and shutter speed and the shutter speed. The relationship with the aperture that is automatically set so as to become is stored as an initial speed-shutter speed correspondence table. Thereafter, the user can perform shooting with a favorite shutter speed and an aperture automatically set corresponding thereto by performing throwing so as to draw a parabola at a desired initial speed.
図7は、飛行装置100の撮影条件制御処理の他の実施形態における初速度−シャッタ速度対応テーブルの作成処理を示すフローチャートである。この処理は、図6の場合と同様に、図2のコントローラ201において、それが内蔵するCPUが、同じく内蔵する特には図示しないメモリに記憶された制御プログラムを実行する処理として実現することができる。 FIG. 7 is a flowchart showing the creation process of the initial speed / shutter speed correspondence table in another embodiment of the shooting condition control process of the flying device 100. Similar to the case of FIG. 6, this process can be realized in the controller 201 of FIG. 2 as a process in which the CPU built in the controller 201 executes a control program stored in a memory (not shown) that is also built in the controller 201. .
まず、コントローラ201は、ユーザ操作を受け付け(ステップS701)、閾値設定モードに移行する(ステップS702)。 First, the controller 201 accepts a user operation (step S701), and shifts to a threshold setting mode (step S702).
次に、コントローラ201は、ユーザに、放物線を描くように投擲を行わせる(ステップS703)。 Next, the controller 201 causes the user to perform throwing so as to draw a parabola (step S703).
コントローラ201は、投擲時の初速度V0 を取得する(ステップS704)。 The controller 201 acquires the initial speed V 0 at the time of throwing (step S704).
コントローラ201は、現在の投擲による飛行装置100の飛行の間、EV(露出)値が同じになるように絞りを調整しながら、変更しうる全てのシャッタ速度で、カメラシステム202に撮影を行わせ、それをコントローラ201内のメモリに記録する(ステップS705)。図8は、コントローラ201内のROM(Read Only Memory)に予め記憶されている、EV値とシャッタ速度と絞りの関係テーブルの例を示す図である。例えば、EV値が13であれば、シャッタ速度が1/8秒から1/2000秒まで変化する間に、絞りは32から2.0まで変化する。コントローラ201は、ステップS705において、例えばEV値を13に自動設定した後、シャッタ速度を1/8秒から1/2000秒まで段階的に変化させながら、ROMに記憶されている上述の関係テーブルを参照することにより、そのシャッタ速度に対応する絞りを決定し、決定した各シャッタ速度と絞りの組合せで、カメラシステム202にそれぞれ撮影を実行させ、得られた画像データをコントローラ201内のRAM(Random Access Memory)に記録してゆく。 The controller 201 causes the camera system 202 to capture images at all shutter speeds that can be changed while adjusting the aperture so that the EV (exposure) value remains the same during the flight of the flying device 100 by the current throw. This is recorded in the memory in the controller 201 (step S705). FIG. 8 is a diagram illustrating an example of a relationship table of EV values, shutter speeds, and apertures stored in advance in a ROM (Read Only Memory) in the controller 201. For example, if the EV value is 13, the aperture changes from 32 to 2.0 while the shutter speed changes from 1/8 second to 1/2000 second. In step S705, the controller 201 automatically sets the EV value to 13, for example, and then changes the shutter speed in steps from 1/8 second to 1/2000 second, and then stores the above relation table stored in the ROM. By referencing, the aperture corresponding to the shutter speed is determined, and the camera system 202 executes shooting with each combination of the determined shutter speed and aperture, and the obtained image data is stored in the RAM (Random) in the controller 201. (Access Memory).
その後、コントローラ201は、規定回数の投擲を終えたか否かを判定する(ステップS706)。 Thereafter, the controller 201 determines whether or not the prescribed number of throws has been completed (step S706).
ステップS706の判定がNOならば、ユーザに、前回と異なる初速度(強さ)で放物線を描くように投擲を行わせる(ステップS707)。その後、コントローラ201は、ステップS704とS705の処理を再度実行させる。 If the determination in step S706 is NO, the user is caused to perform throwing so as to draw a parabola at an initial speed (strength) different from the previous time (step S707). Thereafter, the controller 201 causes the processes of steps S704 and S705 to be executed again.
以上の動作を繰り返した後、ステップS706の判定がYESになると、コントローラ201は、ユーザ選択状態へ移行させる(ステップS708)。 After the above operation is repeated, when the determination in step S706 is YES, the controller 201 shifts to the user selection state (step S708).
コントローラ201は、特には図示しないスマートフォン又はリモートコントローラのディスプレイに、ステップS705でコントローラ201内のRAMに記録した全写真を転送し、表示する(ステップS709)。 The controller 201 transfers and displays all the photos recorded in the RAM in the controller 201 in step S705 on a display of a smartphone or a remote controller (not shown) in particular (step S709).
コントローラ201は、投擲毎に、ユーザに好みの写真を選択させる(ステップS710)。 The controller 201 causes the user to select a favorite photograph for each throw (step S710).
コントローラ201は、各投擲の初速度V0 と、その投擲に対してユーザが選択した写真のシャッタ速度との関係を内部のRAMに保存し(ステップS711)、その保存した関係に基づいて、例えば図9に示されるような、初速度−シャッタ速度対応テーブルを作成してRAMに記憶する。その後、コントローラ201は、図7のフローチャートで示される閾値設定処理を終了する。 The controller 201 includes a initial velocity V 0 which each throwing, to save the relationship between shutter speed of the photographic selected by the user for the throwing inside the RAM (step S711), and based on the stored relationship, e.g. An initial speed-shutter speed correspondence table as shown in FIG. 9 is created and stored in the RAM. Thereafter, the controller 201 ends the threshold value setting process shown in the flowchart of FIG.
以上の閾値設定処理の終了後、ユーザは、好みの初速度で放物線を描くように投擲を行うことにより、好みのシャッタ速度及びそれに対応して自動設定される絞りで撮影を行うことができる。 After the above threshold value setting process is completed, the user can perform shooting with a favorite shutter speed and an aperture automatically set corresponding thereto by performing throwing so as to draw a parabola at a desired initial speed.
以上説明した実施形態では、角速度と速度によって撮影モードが決定されたが、加速度によっても撮影モードが決定されてもよい。 In the embodiment described above, the shooting mode is determined based on the angular velocity and the speed, but the shooting mode may be determined based on the acceleration.
以上説明した実施形態において、飛行装置100が撮影する静止画の枚数は任意である。また、飛行装置100が撮影を行うのは、静止画に限らず、動画でもよい。その場合の動画の撮影時間も任意である。 In the embodiment described above, the number of still images taken by the flying device 100 is arbitrary. Further, the flying device 100 captures an image not only as a still image but also as a moving image. In this case, the video shooting time is also arbitrary.
飛行装置100は、例えば投擲者が保持する端末と通信を行い、撮影の映像を送り、映像を見ながら撮影できてもよい。 The flying device 100 may communicate with a terminal held by, for example, a thrower, send a shooting video, and take a picture while watching the video.
飛行装置100による撮影のタイミングなどは、例えば投擲者が保持する端末等から無線操作できてもよい。 The timing of shooting by the flying device 100 may be wirelessly operated from a terminal held by the thrower, for example.
飛行装置100に持ち運び用のモータフレーム102の折り畳み機構を採用した場合には、投擲開始直後にモータフレーム102を飛行可能状態へ変形する処理が実行されてもよい。 When the folding mechanism of the portable motor frame 102 is employed in the flying device 100, a process of transforming the motor frame 102 into a flightable state immediately after the start of throwing may be executed.
上述の実施形態の説明では、駆動推進部がモータ104とロータブレード103を含む例について説明したが、空気圧やエンジン出力により推進される機構により駆動推進部が実現されてもよい。また、推進駆動部を備えず自然落下でも良い。状態によっては撮影しなくても良い。更に、投擲ではなく手を離すだけでもよい。 In the above description of the embodiment, an example in which the drive propulsion unit includes the motor 104 and the rotor blade 103 has been described. However, the drive propulsion unit may be realized by a mechanism propelled by air pressure or engine output. In addition, a natural fall may be used without providing a propulsion drive unit. Depending on the situation, it is not necessary to take a picture. Furthermore, you can just release your hands instead of throwing.
以上の実施形態に関して、更に以下の付記を開示する。
(付記1)
撮影部を備えた飛行装置であって、
保持者から離れた時点の状態を取得する取得手段と、
前記取得手段により取得された状態に基いて、前記離れた時点以降の前記撮像部の撮影形態を決定する決定手段と、
前記決定手段により決定した撮影形態で前記撮像部を制御する撮像制御手段と、
を備えることを特徴とする飛行装置。
(付記2)
前記決定手段は、前記保持者により投擲が行われた時点の状態に基いて、前記投擲が行われた時点以降の前記撮像部の撮影形態を決定する、
ことを特徴とする付記1に記載の飛行装置。
(付記3)
前記撮影形態は、撮影モード、又は、撮影条件を含む
ことを特徴とする付記1又は2に記載の飛行装置。
(付記4)
前記撮影モードは、旋回撮影、自転撮影、セルフタイマー撮影、自動追尾撮影、通常撮影、撮影禁止の何れか1つ以上である、
ことを特徴とする付記3に記載の飛行装置。
(付記5)
前記撮影条件は、シャッタ速度、絞り、撮影間隔、静止画又は動画の撮影タイミングの何れか1つ以上である、
ことを特徴とする付記3に記載の飛行装置。
(付記6)
前記保持者から離れた時点の前記飛行装置の角速度、加速度、又は速度を検出するセンサ部を更に備え、
前記決定手段は、前記取得手段で取得された前記保持者から離れた時点の前記センサ部の各出力値に基づく各値を所定の閾値と比較することにより、その比較結果に基づいて、前記撮像部の撮影形態を決定する、
ことを特徴とする付記1〜5の何れかに記載の飛行装置。
(付記7)
前記決定手段は、前記保持者から離れた時点の状態が、前記センサ部の出力により、重力方向の加速度のみが検出された場合に、セルフタイマー撮影の撮影モードを決定する、
ことを特徴とする付記6に記載の飛行装置。
(付記8)
前記センサは、前記保持者から離れた時点の所定の絶対座標系における各座標軸方向の角速度、加速度、又は速度を算出し、
前記決定手段は、前記保持者から離れた時点の前記センサの各出力値に基づいて、又は当該各出力値からの演算処理に基づいて、地面に対して水平な座標軸方向又は垂直な座標軸方向の前記角速度、加速度、又は速度を算出し、これらの算出値を所定の閾値と比較することにより、その比較結果に基づいて、前記撮像部の撮影形態を決定する、
ことを特徴とする付記6に記載の飛行装置。
(付記9)
前記投擲者に前記撮影形態毎の投擲を予め行わせ、当該投擲が行われた時点の前記センサ部の各出力値に基づく各値をそれぞれ所定量ずつ変更した値を、前記所定の閾値として自動設定する、
ことを特徴とする付記2乃至8の何れかに記載の飛行装置。
(付記10)
前記保持者から離れた時点以降、空中を飛行するための駆動推進部を備えることを特徴とする付記1乃至9の何れかに記載の飛行装置。
(付記11)
前記取得手段により取得された状態が、その場に置く状態であったとき、前記駆動推進部はその場でホバリングする、
ことを特徴とする付記10に記載の飛行装置。
(付記12)
撮影部を備えた飛行装置の撮像方法であって、
保持者から離れた時点の状態を取得するステップと、
前記取得された状態に基いて、前記離れた時点以降の前記撮像部の撮影形態を決定するステップと、
前記決定した撮影形態で前記撮像部を制御するステップと、
を含むことを特徴とする飛行装置の撮像方法。
(付記13)
撮影部を備えた飛行装置を制御するコンピュータに、
保持者から離れた時点の状態を取得するステップと、
前記取得された状態に基いて、前記離れた時点以降の前記撮像部の撮影形態を決定するステップと、
前記決定した撮影形態で前記撮像部を制御するステップと、
を実行させるためのプログラム。
Regarding the above embodiment, the following additional notes are disclosed.
(Appendix 1)
A flying device including a photographing unit,
Acquisition means for acquiring the state at the time of leaving the holder;
A determination unit that determines a shooting mode of the imaging unit after the separated time point based on the state acquired by the acquisition unit;
Imaging control means for controlling the imaging unit in the imaging mode determined by the determining means;
A flight apparatus comprising:
(Appendix 2)
The determining means determines a photographing form of the imaging unit after the time when the throwing is performed based on a state at the time when the throwing is performed by the holder.
The flying device according to Supplementary Note 1, wherein:
(Appendix 3)
The flying device according to appendix 1 or 2, wherein the shooting mode includes a shooting mode or shooting conditions.
(Appendix 4)
The shooting mode is any one or more of turning shooting, rotation shooting, self-timer shooting, automatic tracking shooting, normal shooting, and shooting prohibition.
The flying device according to Supplementary Note 3, wherein
(Appendix 5)
The shooting condition is one or more of shutter speed, aperture, shooting interval, still image or moving image shooting timing,
The flying device according to Supplementary Note 3, wherein
(Appendix 6)
A sensor unit for detecting an angular velocity, an acceleration, or a velocity of the flying device at the time of leaving the holder;
The determining unit compares each value based on each output value of the sensor unit acquired at the point of time away from the holder acquired by the acquiring unit with a predetermined threshold, and based on the comparison result, the imaging Determine the shooting mode
The flying device according to any one of appendices 1 to 5, characterized in that:
(Appendix 7)
The determination means determines the shooting mode of self-timer shooting when only the acceleration in the direction of gravity is detected by the output of the sensor unit at the time of leaving the holder.
The flying device according to appendix 6, wherein:
(Appendix 8)
The sensor calculates an angular velocity, acceleration, or velocity in each coordinate axis direction in a predetermined absolute coordinate system at a time when the sensor is separated from the holder,
The determination unit is configured to determine a coordinate axis direction horizontal to the ground or a coordinate axis direction perpendicular to the ground based on each output value of the sensor at a time away from the holder or based on a calculation process from each output value. By calculating the angular velocity, acceleration, or velocity, and comparing these calculated values with a predetermined threshold, based on the comparison result, to determine the shooting mode of the imaging unit,
The flying device according to appendix 6, wherein:
(Appendix 9)
A value obtained by causing the thrower to perform throwing for each shooting mode in advance and changing each value based on each output value of the sensor unit when the throwing is performed by a predetermined amount is automatically used as the predetermined threshold. Set,
The flying device according to any one of appendices 2 to 8, wherein
(Appendix 10)
10. The flying device according to any one of appendices 1 to 9, further comprising a drive propulsion unit for flying in the air after the time of separation from the holder.
(Appendix 11)
When the state acquired by the acquisition means is a state to be placed on the spot, the drive propulsion unit is hovered on the spot,
The flying device according to Supplementary Note 10, wherein:
(Appendix 12)
An imaging method for a flying device including an imaging unit,
Obtaining the state at the time of leaving the holder;
Determining the imaging mode of the imaging unit after the time of separation based on the acquired state;
Controlling the imaging unit in the determined imaging mode;
An imaging method for a flying device, comprising:
(Appendix 13)
To the computer that controls the flying device with the shooting unit,
Obtaining the state at the time of leaving the holder;
Determining the imaging mode of the imaging unit after the time of separation based on the acquired state;
Controlling the imaging unit in the determined imaging mode;
A program for running
100 飛行装置
101 メインフレーム
102 モータフレーム
103 ロータブレード
104 モータ
105 回路ボックス
106 カメラ
201 コントローラ
202 カメラシステム
203 フライトセンサ
204 タッチセンサ
205 モータドライバ
206 パワーセンサ
207 バッテリ
DESCRIPTION OF SYMBOLS 100 Flight apparatus 101 Main frame 102 Motor frame 103 Rotor blade 104 Motor 105 Circuit box 106 Camera 201 Controller 202 Camera system 203 Flight sensor 204 Touch sensor 205 Motor driver 206 Power sensor 207 Battery
Claims (12)
保持者から離れた時点の状態を取得する取得手段と、
前記取得手段により取得された状態に基いて、前記離れた時点以降の前記撮像部の撮影形態を決定する決定手段と、
前記決定手段により決定した撮影形態で前記撮像部を制御する撮像制御手段と、
前記保持者から離れた時点の前記飛行装置の角速度、加速度、又は速度を検出するセンサ部と、を備え、
前記決定手段は、前記取得手段で取得された前記保持者から離れた時点の前記センサ部の出力値に基づく値を所定の閾値と比較することにより、該比較の結果に基づいて、前記撮像部の撮影形態を決定する、
ことを特徴とする飛行装置。 A flying device including an imaging unit ,
Acquisition means for acquiring the state at the time of leaving the holder;
A determination unit that determines a shooting mode of the imaging unit after the separated time point based on the state acquired by the acquisition unit;
Imaging control means for controlling the imaging unit in the imaging mode determined by the determining means;
A sensor unit that detects the angular velocity, acceleration, or velocity of the flying device at a time when it is separated from the holder,
The determination unit compares the value based on the output value of the sensor unit obtained at the time of separation from the holder acquired by the acquisition unit with a predetermined threshold, and based on the comparison result, the imaging unit Determine the shooting mode,
A flying device characterized by that.
ことを特徴とする請求項1に記載の飛行装置。 Said determination means, upon leaving from the holder, the output of the previous SL sensor unit, when only acceleration in the direction of gravity is detected, determines a photographing mode of the self-timer on the imaging unit,
The flying device according to claim 1.
前記決定手段は、前記保持者から離れた時点の前記センサ部の出力値に基づいて、又は当該出力値からの演算処理に基づいて、地面に対して水平な座標軸方向又は垂直な座標軸方向の角速度、加速度、又は速度を算出し、該算出の値を所定の閾値と比較することにより、該比較の結果に基づいて、前記撮像部の撮影形態を決定する、
ことを特徴とする請求項1に記載の飛行装置。 The sensor unit calculates an angular velocity, acceleration, or velocity in each coordinate axis direction in a predetermined absolute coordinate system at a time point away from the holder,
The determining means is based on the output value of the sensor unit at the time of being away from the holder, or on the basis of the calculation process from the output value , the angular velocity in the coordinate axis direction horizontal to the ground or in the vertical coordinate axis direction , Calculating the acceleration or speed, and comparing the calculated value with a predetermined threshold value to determine the imaging mode of the imaging unit based on the comparison result;
The flying device according to claim 1.
ことを特徴とする請求項4に記載の飛行装置。 When the state acquired by the acquisition means is a state to be placed on the spot, the drive propulsion unit is hovered when it is separated from the holder ,
The flying device according to claim 4.
前記決定手段は、前記取得手段で取得された前記保持者により投擲が行われた時点の状態に基いて、前記投擲が行われた時点以降の前記撮像部の撮影形態を決定する、
ことを特徴とする請求項1に記載の飛行装置。 The acquisition means acquires the state at the time of throwing by the holder,
The determining unit determines a shooting mode of the imaging unit after the time when the throwing is performed based on a state when the throwing is performed by the holder acquired by the acquiring unit .
The flying device according to claim 1.
ことを特徴とする請求項6に記載の飛行装置。 Causing the holder to perform throwing for each of the photographing forms in advance, and automatically setting a value obtained by changing a value based on the output value of the sensor unit when the throwing is performed by a predetermined amount as the predetermined threshold;
The flying device according to claim 6.
ことを特徴とする請求項1乃至7の何れかに記載の飛行装置。 The photographing mode, photographing mode, or includes a photographing condition
The flying device according to any one of claims 1 to 7 , characterized in that:
ことを特徴とする請求項8に記載の飛行装置。 The shooting mode is any one or more of turning shooting, rotation shooting, self-timer shooting, automatic tracking shooting, normal shooting, and shooting prohibition.
The flying device according to claim 8.
ことを特徴とする請求項8に記載の飛行装置。 The shooting condition is one or more of shutter speed, aperture, shooting interval, still image or moving image shooting timing ,
Flight device according to claim 8, characterized in that.
保持者から離れた時点の状態を取得する取得ステップと、
前記取得ステップで取得された状態に基いて、前記離れた時点以降の前記撮像部の撮影形態を決定する決定ステップと、
前記決定ステップで決定した撮影形態で前記撮像部を制御する撮像制御ステップと、
前記保持者から離れた時点の前記飛行装置の角速度、加速度、又は速度を検出する検出ステップと、を含み、
前記決定ステップは、前記取得ステップで取得された前記保持者から離れた時点の前記検出ステップで検出された値に基づく値を所定の閾値と比較することにより、該比較の結果に基づいて、前記撮像部の撮影形態を決定する、
ことを特徴とする飛行装置の撮像方法。 An imaging method of the flying device including an imaging unit,
An acquisition step for acquiring the state at the time of leaving the holder;
A determination step of determining a shooting mode of the imaging unit after the time of the separation based on the state acquired in the acquisition step;
An imaging control step of controlling the imaging unit in the imaging mode determined in the determining step;
Detecting the angular velocity, acceleration, or velocity of the flying device at the time of leaving the holder,
The determining step compares the value based on the value detected in the detecting step at the time of being away from the holder acquired in the acquiring step with a predetermined threshold, and based on the result of the comparison , Determine the shooting mode of the imaging unit,
An imaging method for a flying device, characterized in that:
保持者から離れた時点の状態を取得する取得ステップと、
前記取得ステップで取得された状態に基いて、前記離れた時点以降の前記撮像部の撮影形態を決定する決定ステップと、
前記決定ステップで決定した撮影形態で前記撮像部を制御する撮像制御ステップと、
前記保持者から離れた時点の前記飛行装置の角速度、加速度、又は速度を検出する検出ステップと、を実行させ、
前記決定ステップは、前記取得ステップで取得された前記保持者から離れた時点の前記検出ステップで検出された値に基づく値を所定の閾値と比較することにより、該比較の結果に基づいて、前記撮像部の撮影形態を決定する、
ことを特徴とするプログラム。 In a computer that controls a flying device equipped with an imaging unit ,
An acquisition step for acquiring the state at the time of leaving the holder;
A determination step of determining a shooting mode of the imaging unit after the time of the separation based on the state acquired in the acquisition step;
An imaging control step of controlling the imaging unit in the imaging mode determined in the determining step;
Detecting the angular velocity, acceleration, or velocity of the flying device at the time of leaving the holder,
The determining step compares the value based on the value detected in the detecting step at the time of being away from the holder acquired in the acquiring step with a predetermined threshold, and based on the result of the comparison , Determine the shooting mode of the imaging unit,
A program characterized by that.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710342364.1A CN107547793B (en) | 2016-06-23 | 2017-05-15 | Flying device, method, and storage medium storing program |
US15/608,449 US10308359B2 (en) | 2016-06-23 | 2017-05-30 | Moving device, method of controlling moving device and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016124929 | 2016-06-23 | ||
JP2016124929 | 2016-06-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018002131A JP2018002131A (en) | 2018-01-11 |
JP6347299B2 true JP6347299B2 (en) | 2018-06-27 |
Family
ID=60947479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017032100A Expired - Fee Related JP6347299B2 (en) | 2016-06-23 | 2017-02-23 | Flight apparatus, method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6347299B2 (en) |
CN (1) | CN107547793B (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109218664B (en) * | 2018-08-03 | 2021-09-21 | 北京润科通用技术有限公司 | Video shooting method and system |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103426282A (en) * | 2013-07-31 | 2013-12-04 | 深圳市大疆创新科技有限公司 | Remote control method and terminal |
JP6366730B2 (en) * | 2013-12-13 | 2018-08-01 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Method for launching and landing a drone |
US20160101856A1 (en) * | 2014-06-23 | 2016-04-14 | Nixie Labs, Inc. | Wearable unmanned aerial vehicles, and associated systems and methods |
FR3025114A1 (en) * | 2014-08-26 | 2016-03-04 | Parrot | DYNAMIC START CONTROL METHOD LAUNCHING ROTARY SAIL DRONE |
CN105517666B (en) * | 2014-09-05 | 2019-08-27 | 深圳市大疆创新科技有限公司 | Offline mode selection based on scene |
CN204287973U (en) * | 2014-12-30 | 2015-04-22 | 览意科技(上海)有限公司 | flight camera |
CN105527972A (en) * | 2016-01-13 | 2016-04-27 | 深圳一电航空技术有限公司 | Unmanned aerial vehicle (UAV) flight control method and device |
CN105589466A (en) * | 2016-02-24 | 2016-05-18 | 谭圆圆 | Flight control device of unmanned aircraft and flight control method thereof |
-
2017
- 2017-02-23 JP JP2017032100A patent/JP6347299B2/en not_active Expired - Fee Related
- 2017-05-15 CN CN201710342364.1A patent/CN107547793B/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN107547793A (en) | 2018-01-05 |
JP2018002131A (en) | 2018-01-11 |
CN107547793B (en) | 2020-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11188101B2 (en) | Method for controlling aircraft, device, and aircraft | |
CN113038016B (en) | Unmanned aerial vehicle image acquisition method and unmanned aerial vehicle | |
WO2018209702A1 (en) | Method for controlling unmanned aerial vehicle, unmanned aerial vehicle and machine-readable storage medium | |
CN108062106A (en) | Unmanned vehicle and the method for using unmanned vehicle shooting object | |
JP2017065467A (en) | Drone and control method thereof | |
CN110651466A (en) | Shooting control method and device for movable platform | |
CN111356954B (en) | Control device, mobile body, control method, and program | |
JP2019110462A (en) | Control device, system, control method, and program | |
CN109076101B (en) | Holder control method, device and computer readable storage medium | |
JP6642502B2 (en) | Flight device, method, and program | |
CN111567032A (en) | Specifying device, moving object, specifying method, and program | |
US10308359B2 (en) | Moving device, method of controlling moving device and storage medium | |
JP6347299B2 (en) | Flight apparatus, method, and program | |
JP7501535B2 (en) | Information processing device, information processing method, and information processing program | |
CN111630838B (en) | Specifying device, imaging system, moving object, specifying method, and program | |
JP2020036163A (en) | Information processing apparatus, photographing control method, program, and recording medium | |
JP6103672B1 (en) | Control device, imaging device, moving object, control method, and program | |
CN111357273A (en) | Shooting parameter adjusting method, shooting equipment and movable platform | |
CN111357271B (en) | Control device, mobile body, and control method | |
CN111602385B (en) | Specifying device, moving body, specifying method, and computer-readable recording medium | |
CN114641746A (en) | Movable platform and control method and device thereof | |
CN112154477A (en) | Image processing method and device and movable platform | |
CN111226170A (en) | Control device, mobile body, control method, and program | |
WO2021249245A1 (en) | Device, camera device, camera system, and movable member | |
JP6326684B2 (en) | Control device, imaging device, moving object, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20171102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180501 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180514 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6347299 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |