JP2017224094A - Control device, movable body, control method, and program - Google Patents

Control device, movable body, control method, and program Download PDF

Info

Publication number
JP2017224094A
JP2017224094A JP2016118003A JP2016118003A JP2017224094A JP 2017224094 A JP2017224094 A JP 2017224094A JP 2016118003 A JP2016118003 A JP 2016118003A JP 2016118003 A JP2016118003 A JP 2016118003A JP 2017224094 A JP2017224094 A JP 2017224094A
Authority
JP
Japan
Prior art keywords
displacement
main body
unit
lens
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016118003A
Other languages
Japanese (ja)
Other versions
JP6026695B1 (en
Inventor
宗耀 瞿
Zongyao Qu
宗耀 瞿
三田 英明
Hideaki Mita
英明 三田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2016118003A priority Critical patent/JP6026695B1/en
Application granted granted Critical
Publication of JP6026695B1 publication Critical patent/JP6026695B1/en
Publication of JP2017224094A publication Critical patent/JP2017224094A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Structure And Mechanism Of Cameras (AREA)
  • Accessories Of Cameras (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Control Of Position Or Direction (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which quick control of the attitude of a body part may be required on the basis of a change in the attitude of the body part when a displacement part is displaced.SOLUTION: A control device comprises: a first acquisition part that acquires first information indicating the position of a displacement destination of a displacement part that is displaceably held by a body part; a prediction part that predicts the attitude of the body part at a moment when the displacement part is displaced to the position of the displacement destination on the basis of the first information; and a control part that controls the attitude of the body part on the basis of the attitude of the body part predicted by the prediction part.SELECTED DRAWING: Figure 6

Description

本発明は、制御装置、移動体、制御方法及びプログラムに関する。   The present invention relates to a control device, a moving body, a control method, and a program.

特許文献1には、カメラシステムが開示されている。カメラシステムは、外部ユニットと、本体ユニットとを備える。カメラの電源をONにすると、本体ユニットと外部ユニットとの間でユニット情報の交換が行われる。ユニット情報は、機種番号、ユニット種別、製造元種別、ファームウェアバージョン番号及び本体側ファームウェア有り無しの情報からなる。
特許文献1 特開2011−239301号公報
Patent Document 1 discloses a camera system. The camera system includes an external unit and a main unit. When the camera is turned on, unit information is exchanged between the main unit and the external unit. The unit information consists of model number, unit type, manufacturer type, firmware version number, and information on the presence or absence of firmware on the main body side.
Patent Document 1 JP 2011-239301 A

本体部に対して変位可能に保持される変位部が変位すると、本体部及び変位部の重心位置が変化する場合がある。これにより、本体部の姿勢が変化する場合がある。この本体部の姿勢の変化に基づいて本体部の姿勢を速やかに制御することが要求される場合がある。   If the displacement part hold | maintained so that a displacement with respect to a main-body part displaces, the gravity center position of a main-body part and a displacement part may change. Thereby, the attitude | position of a main-body part may change. In some cases, it is required to quickly control the posture of the main body based on the change in the posture of the main body.

一態様において、制御装置は、本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する第1取得部と、第1情報に基づいて、変位部が変位先の位置に変位した後の本体部の姿勢を予測する予測部と、予測部が予測した本体部の姿勢に基づいて、本体部の姿勢を制御する制御部とを備える。   In one aspect, the control device includes: a first acquisition unit that acquires first information indicating a position of a displacement destination of a displacement unit that is held displaceably with respect to the main body unit; and the displacement unit is based on the first information. A prediction unit that predicts the posture of the main body after being displaced to the position of the displacement destination, and a control unit that controls the posture of the main body based on the posture of the main body predicted by the prediction unit.

予測部は、変位部の質量及び第1情報に基づいて、変位部が変位先の位置に変位した後の本体部の姿勢を予測してよい。   The prediction unit may predict the posture of the main body after the displacement unit is displaced to the displacement destination position based on the mass of the displacement unit and the first information.

制御部は、予測部が予測した本体部の姿勢に基づいて、変位部が変位先の位置に変位することにより生じる本体部の姿勢の変化が抑制されるように、本体部の姿勢を制御してよい。   The control unit controls the posture of the main body unit based on the posture of the main body unit predicted by the prediction unit so that a change in the posture of the main body unit caused by the displacement unit being displaced to the position of the displacement destination is suppressed. It's okay.

予測部は、変位部が変位前の位置から変位先の位置まで変位するまでの期間内の複数のタイミングのそれぞれにおける変位部の位置を予測し、予測した複数の位置のそれぞれについて本体部の姿勢を予測し、制御部は、複数のタイミングのそれぞれにおいて、それぞれのタイミングにおける変位部の位置について予測部が予測した本体部の姿勢に基づいて、本体部の姿勢を制御してよい。   The prediction unit predicts the position of the displacement unit at each of a plurality of timings within a period until the displacement unit is displaced from the position before displacement to the position at the displacement destination, and the posture of the main body unit for each of the predicted plurality of positions. The control unit may control the posture of the main body at each of a plurality of timings based on the posture of the main body predicted by the prediction unit with respect to the position of the displacement portion at each timing.

制御部は、本体部の姿勢の目標値と、本体部の姿勢を取得するためのセンサによる本体部の姿勢の検出値と、予測部が予測した本体部の姿勢とに基づいて、本体部の姿勢を制御してよい。   Based on the target value of the posture of the main body, the detected value of the posture of the main body by the sensor for acquiring the posture of the main body, and the posture of the main body predicted by the prediction unit, the control unit You may control your attitude.

変位部は、可動レンズを含んでよい。   The displacement part may include a movable lens.

第1情報は、可動レンズを含むレンズ系の焦点距離に対応する可動レンズの変位先の位置を示す情報を含んでよい。   The first information may include information indicating the position of the displacement destination of the movable lens corresponding to the focal length of the lens system including the movable lens.

第1情報は、可動レンズを含むレンズ系のフォーカス位置に対応する可動レンズの変位先の位置を示す情報を含んでよい。   The first information may include information indicating the position of the displacement destination of the movable lens corresponding to the focus position of the lens system including the movable lens.

可動レンズの複数の位置に対応づけて、レンズ系を含むレンズ装置の重心位置を格納する格納部をさらに備え、予測部は、第1情報が示す可動レンズの変位先の位置に対応づけて格納部が格納している重心位置と、レンズ装置の質量とに基づいて、第1情報が示す可動レンズの変位先の位置に可動レンズが変位した後の本体部の姿勢を予測してよい。   A storage unit that stores the position of the center of gravity of the lens device including the lens system in association with a plurality of positions of the movable lens is further provided, and the prediction unit stores the position in association with the displacement destination position of the movable lens indicated by the first information. The posture of the main body after the movable lens is displaced to the position of the displacement destination of the movable lens indicated by the first information may be predicted based on the center-of-gravity position stored in the unit and the mass of the lens device.

可動レンズは、本体部に着脱可能な交換レンズが有するレンズ系に含まれ、制御装置は、本体部に装着されている交換レンズから、交換レンズの焦点距離及びフォーカス位置の少なくとも一方に対応する交換レンズの重心位置及び交換レンズの質量を示す第2情報を取得する第2取得部を備えてよい。   The movable lens is included in the lens system of the interchangeable lens that can be attached to and detached from the main body. You may provide the 2nd acquisition part which acquires the 2nd information which shows the gravity center position of a lens, and the mass of an interchangeable lens.

変位部は、撮像装置であってよい。   The displacement unit may be an imaging device.

撮像装置は、本体部に対して向きが可変に設けられ、変位部の変位は、撮像装置の向きの変化であってよい。   The imaging device may be provided with a variable orientation relative to the main body, and the displacement of the displacement unit may be a change in the orientation of the imaging device.

撮像装置は、本体部に着脱可能であり、制御装置は、本体部に装着されている撮像装置から、撮像装置の重心位置及び撮像装置の質量を示す第2情報を取得する第2取得部を備えてよい。   The imaging device can be attached to and detached from the main body, and the control device includes a second acquisition unit that acquires second information indicating the center of gravity of the imaging device and the mass of the imaging device from the imaging device attached to the main body. You may be prepared.

一態様において、移動体は、上記の制御装置と本体部とを備える。   In one mode, a mobile object is provided with the above-mentioned control device and a main part.

一態様において、制御方法は、本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する段階と、第1情報に基づいて、変位部が変位先の位置に変位した後の本体部の姿勢を予測する段階と、予測する段階で予測された本体部の姿勢に基づいて、本体部の姿勢を制御する段階とを備える。   In one aspect, the control method includes obtaining a first information indicating a position of a displacement destination of a displacement portion that is held displaceably with respect to the main body, and the displacement portion is a displacement destination based on the first information. A step of predicting a posture of the main body after being displaced to a position, and a step of controlling the posture of the main body based on the posture of the main body predicted in the step of predicting.

一態様において、プログラムは、上記制御方法をコンピュータに実行させる。   In one aspect, a program causes a computer to execute the control method.

上記の発明の概要は、本発明の特徴の全てを列挙したものではない。これらの特徴群のサブコンビネーションも発明となりうる。   The above summary of the present invention does not enumerate all of the features of the present invention. A sub-combination of these feature groups can also be an invention.

システムの構成の一例を示す図である。It is a figure which shows an example of a structure of a system. UAV100の機能ブロックの一例を示す。An example of the functional block of UAV100 is shown. レンズ装置160がテレ端の状態にある場合の一例を示す。An example when the lens apparatus 160 is in the tele end state is shown. メモリ163に格納されるレンズ情報の一例を示す。An example of lens information stored in the memory 163 is shown. 重心情報の一例を示す。An example of gravity center information is shown. UAV100におけるUAV100の姿勢制御に関するブロック線図の一例を示す。An example of the block diagram regarding the attitude | position control of UAV100 in UAV100 is shown. UAV100の姿勢を制御する制御フローの一例を示すフローチャートである。It is a flowchart which shows an example of the control flow which controls the attitude | position of UAV100. UAV制御部104が第1情報を受信してから第2情報をPID制御に出力するまでの制御フローの一例を示すフローチャートである。It is a flowchart which shows an example of the control flow after the UAV control part 104 receives 1st information until it outputs 2nd information to PID control. 撮像装置190の向きが変化した場合の一例を示す。An example when the direction of the imaging device 190 is changed is shown. メモリ146に格納される撮像部情報の一例を示す。An example of imaging unit information stored in the memory 146 is shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Not all combinations of features described in the embodiments are essential for the solution of the invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイルまたはレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。   The claims, the description, the drawings, and the abstract include matters subject to copyright protection. The copyright owner will not object to any number of copies of these documents as they appear in the JPO file or record. However, in other cases, all copyrights are reserved.

図1は、システムの構成の一例を示す図である。システムは、無人航空機(UAV)100を備える。UAV100は、UAV本体101、ジンバル110、及び撮像装置190を備える。UAV本体101は、回転翼108a及び回転翼108bを含む複数の回転翼を有する。UAV本体101が有する複数の回転翼を、回転翼108と総称する場合がある。撮像装置190は、撮像部140及びレンズ装置160を備える。UAV100は、対象物を備えて移動する移動体の一例である。移動体とは、UAVの他、空中を移動する他の航空機、地上を移動する車両、水上を移動する船舶等を含む概念である。   FIG. 1 is a diagram illustrating an example of a system configuration. The system comprises an unmanned aerial vehicle (UAV) 100. The UAV 100 includes a UAV main body 101, a gimbal 110, and an imaging device 190. The UAV main body 101 has a plurality of rotor blades including a rotor blade 108a and a rotor blade 108b. A plurality of rotor blades included in the UAV main body 101 may be collectively referred to as rotor blades 108. The imaging device 190 includes an imaging unit 140 and a lens device 160. The UAV 100 is an example of a moving body that moves with an object. The moving body is a concept including, in addition to UAV, other aircraft that moves in the air, vehicles that move on the ground, ships that move on the water, and the like.

UAV100は、回転翼108の回転を制御することで飛行する。UAV100は、例えば、4つの回転翼108を用いて飛行する。回転翼108の数は、4つには限定されない。UAV100は、回転翼108を有さない固定翼機でもよい。   The UAV 100 flies by controlling the rotation of the rotor blade 108. The UAV 100 flies using, for example, four rotary wings 108. The number of rotor blades 108 is not limited to four. The UAV 100 may be a fixed wing aircraft that does not have the rotor blades 108.

ジンバル110は、ジンバル110に対する撮像装置190の姿勢を変更可能に撮像部140及びレンズ装置160を支持する。ジンバル110は、少なくとも1つの軸を中心に撮像装置190を回転可能に支持してよい。例えば、ジンバル110は、撮像装置190を、ピッチ軸、ロール軸、及びヨー軸のそれぞれを中心に回転可能に支持する。ジンバル110は、撮像部140を保持してもよし、レンズ装置160を保持してもよい。   The gimbal 110 supports the imaging unit 140 and the lens device 160 so that the posture of the imaging device 190 with respect to the gimbal 110 can be changed. The gimbal 110 may support the imaging device 190 rotatably about at least one axis. For example, the gimbal 110 supports the imaging device 190 so as to be rotatable about the pitch axis, the roll axis, and the yaw axis. The gimbal 110 may hold the imaging unit 140 or the lens device 160.

撮像部140は、レンズ装置160を介して結像された光学像の画像データを生成して記録する。レンズ装置160は、いわゆる交換レンズである。レンズ装置160は、撮像部140に対して着脱可能である。   The imaging unit 140 generates and records image data of an optical image formed through the lens device 160. The lens device 160 is a so-called interchangeable lens. The lens device 160 can be attached to and detached from the imaging unit 140.

図2は、UAV100の機能ブロックの一例を示す。UAV100は、UAV本体101、ジンバル110及び撮像装置190を備える。UAV本体101は、通信インタフェース102、UAV制御部104、センサ120、メモリ106、ドライバ107、検出部105、モータ109及び回転翼108を有する。   FIG. 2 shows an example of functional blocks of the UAV 100. The UAV 100 includes a UAV main body 101, a gimbal 110, and an imaging device 190. The UAV main body 101 includes a communication interface 102, a UAV control unit 104, a sensor 120, a memory 106, a driver 107, a detection unit 105, a motor 109, and a rotating blade 108.

ドライバ107及びモータ109は、UAV100を移動させる駆動部として機能する。ドライバ107は、モータ109を駆動する。モータ109は、回転翼108を駆動する。モータ109は、複数の回転翼108のそれぞれに1つ設けられる。ドライバ107は、モータ109のそれぞれの駆動軸の回転速度を制御する。回転速度は、例えば単位時間あたりの回転数である。回転翼108は、対応するモータ109の駆動軸の回転によって回転される。UAV100は、回転翼108が回転することで飛行する。   The driver 107 and the motor 109 function as a drive unit that moves the UAV 100. The driver 107 drives the motor 109. The motor 109 drives the rotary blade 108. One motor 109 is provided for each of the plurality of rotor blades 108. The driver 107 controls the rotational speed of each drive shaft of the motor 109. The rotation speed is, for example, the number of rotations per unit time. The rotary blades 108 are rotated by the rotation of the drive shaft of the corresponding motor 109. The UAV 100 flies by rotating the rotary wing 108.

通信インタフェース102は、外部の送信機と通信する。通信インタフェース102は、遠隔の送信機から各種の命令を受信する。UAV制御部104は、送信機から受信した命令に従って、UAV100の飛行を制御する。UAV制御部104は、ジンバル110、撮像部140、及びレンズ装置160を制御する。   The communication interface 102 communicates with an external transmitter. The communication interface 102 receives various commands from a remote transmitter. The UAV control unit 104 controls the flight of the UAV 100 according to the command received from the transmitter. The UAV control unit 104 controls the gimbal 110, the imaging unit 140, and the lens device 160.

UAV制御部104は、CPU又はMPUなどのマイクロプロセッサ、MCUなどのマイクロコントローラなどにより構成されてよい。メモリ106は、UAV制御部104がジンバル110、撮像部140、及びレンズ装置160を制御するのに必要なプログラムなどを格納する。メモリ106は、コンピュータが可読な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。メモリ106は、UAV100の筐体に設けられてよい。メモリ106は、UAV100の筐体から取り外し可能に設けられてよい。UAV制御部104は、UAV100を制御装置として機能させてよい。この場合、UAV100の姿勢を調整するためのプログラムがメモリ106から読み出されて実行される。UAV制御部104は、UAV100を制御装置として機能させてよい。   The UAV control unit 104 may be configured by a microprocessor such as a CPU or MPU, a microcontroller such as an MCU, or the like. The memory 106 stores programs necessary for the UAV control unit 104 to control the gimbal 110, the imaging unit 140, and the lens device 160. The memory 106 may be a computer-readable recording medium and may include at least one of flash memory such as SRAM, DRAM, EPROM, EEPROM, and USB memory. The memory 106 may be provided in the housing of the UAV 100. The memory 106 may be provided so as to be removable from the housing of the UAV 100. The UAV control unit 104 may cause the UAV 100 to function as a control device. In this case, a program for adjusting the attitude of the UAV 100 is read from the memory 106 and executed. The UAV control unit 104 may cause the UAV 100 to function as a control device.

検出部105は、UAV100の状況、又はUAV100の周囲の状況を検出する。検出部105は、例えば、UAV100の緯度、経度、及び高度を含む位置、及びUAV100の機首の向きに対応する方位を検出する。検出部105は、UAV100の周囲を撮像するセンシング用の撮像装置を含んでよい。   The detection unit 105 detects the situation of the UAV 100 or the situation around the UAV 100. The detecting unit 105 detects, for example, a position that includes the latitude, longitude, and altitude of the UAV 100 and a direction corresponding to the nose direction of the UAV 100. The detection unit 105 may include an imaging device for sensing that images the surroundings of the UAV 100.

UAV制御部104は、確認部188を含む。確認部188は、UAV100の飛行前のイニシャライズを実行する。確認部188は、ドライバ107、モータ109、回転翼108、及び検出部105の動作確認を実行する。確認部188は、UAV100の飛行前に、ドライバ107、モータ109、回転翼108、及び検出部105の動作確認を実行してよい。確認部188は、UAV100の状況を検出する各種センサの動作確認を実行してよい。イニシャライズが実行される期間は、UAV100に電源が投入されてからUAV100が移動し始めるまでの間の期間の一例である。   The UAV control unit 104 includes a confirmation unit 188. The confirmation unit 188 executes initialization before the flight of the UAV 100. The confirmation unit 188 performs operation confirmation of the driver 107, the motor 109, the rotary blade 108, and the detection unit 105. The confirmation unit 188 may perform operation confirmation of the driver 107, the motor 109, the rotor 108, and the detection unit 105 before the flight of the UAV 100. The confirmation unit 188 may perform operation confirmation of various sensors that detect the state of the UAV 100. The period in which the initialization is executed is an example of a period from when the power is turned on to the UAV 100 until the UAV 100 starts moving.

センサ120は、UAV本体101の姿勢を取得するためのセンサである。センサ120は、ジンバル110の姿勢を検出してよい。センサ120は、ジャイロセンサであってよい。センサ120による姿勢の検出値は、UAV制御部104に出力される。UAV制御部104は、センサ120による姿勢の検出値に基づいて、UAV本体101及びジンバル110を制御する。   The sensor 120 is a sensor for acquiring the attitude of the UAV main body 101. The sensor 120 may detect the attitude of the gimbal 110. The sensor 120 may be a gyro sensor. The detected value of the posture by the sensor 120 is output to the UAV control unit 104. The UAV control unit 104 controls the UAV main body 101 and the gimbal 110 based on the detected attitude value by the sensor 120.

ジンバル110は、少なくとも1つの軸を中心に撮像装置190を回転可能に支持する。ジンバル110は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像装置190を回転可能に支持してよい。UAV制御部104は、ジンバル110に対する動作命令を出力する。動作命令は、ヨー角の目標値、ピッチ角の目標値、ロール角の目標値を含む。ヨー角は、ヨー軸まわりの撮像装置190の回転角度である。ピッチ角は、ピッチ軸まわりの撮像装置190の回転角度である。ロール角は、ロール軸まわりの撮像装置190の回転角度である。ジンバル110は、UAV制御部104から取得した動作命令に従って、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置190を回転させる。ジンバル110は、ヨー角、ピッチ角及びロール角をそれぞれの目標値に制御する。これにより、撮像装置190の向きが制御される。   The gimbal 110 supports the imaging device 190 rotatably about at least one axis. The gimbal 110 may support the imaging device 190 rotatably about the yaw axis, the pitch axis, and the roll axis. The UAV control unit 104 outputs an operation command for the gimbal 110. The operation command includes a yaw angle target value, a pitch angle target value, and a roll angle target value. The yaw angle is a rotation angle of the imaging device 190 around the yaw axis. The pitch angle is a rotation angle of the imaging device 190 around the pitch axis. The roll angle is a rotation angle of the imaging device 190 around the roll axis. The gimbal 110 rotates the imaging device 190 around at least one of the yaw axis, the pitch axis, and the roll axis in accordance with the operation command acquired from the UAV control unit 104. The gimbal 110 controls the yaw angle, pitch angle, and roll angle to their respective target values. Thereby, the orientation of the imaging device 190 is controlled.

撮像部140は、撮像制御部142、撮像素子144及びメモリ146を有する。撮像制御部142は、CPU又はMPUなどのマイクロプロセッサ、MCUなどのマイクロコントローラなどにより構成されてよい。撮像制御部142は、UAV制御部104からの撮像部140及びレンズ装置160の動作命令に応じて、撮像部140及びレンズ装置160を制御する。メモリ146は、コンピュータが可読な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。メモリ146は、撮像部140の筐体の内部に設けられてよい。撮像部140の筐体から取り外し可能に設けられてよい。   The imaging unit 140 includes an imaging control unit 142, an imaging element 144, and a memory 146. The imaging control unit 142 may be configured by a microprocessor such as a CPU or MPU, a microcontroller such as an MCU, or the like. The imaging control unit 142 controls the imaging unit 140 and the lens device 160 in accordance with operation commands for the imaging unit 140 and the lens device 160 from the UAV control unit 104. The memory 146 may be a computer-readable recording medium, and may include at least one of flash memory such as SRAM, DRAM, EPROM, EEPROM, and USB memory. The memory 146 may be provided inside the housing of the imaging unit 140. It may be provided so as to be removable from the housing of the imaging unit 140.

撮像素子144は、撮像部140の筐体の内部に保持され、レンズ装置160を介して結像された光学像の画像データを生成して、撮像制御部142に出力する。撮像制御部142は、撮像素子144から出力された画像データをメモリ146に格納する。撮像制御部142は、画像データを、UAV制御部104を介してメモリ106に出力して格納してもよい。   The imaging element 144 is held inside the housing of the imaging unit 140, generates image data of an optical image formed through the lens device 160, and outputs the image data to the imaging control unit 142. The imaging control unit 142 stores the image data output from the imaging element 144 in the memory 146. The imaging control unit 142 may output and store the image data in the memory 106 via the UAV control unit 104.

レンズ装置160は、レンズ制御部162、メモリ163、レンズ164、レンズ166、及びレンズ168を有する。レンズ164、レンズ166、及びレンズ168は、レンズ系を形成する。レンズ164、レンズ166、及びレンズ168は、レンズ装置160の鏡筒の内部に配置される。レンズ164、レンズ166、及びレンズ168の一部又は全部は、光軸に沿って変位可能に保持されてよい。光軸に沿って変位可能なレンズは、可動レンズの一例である。レンズ制御部162は、撮像制御部142からの命令に従って、レンズ164、レンズ166、及びレンズ168の少なくとも一つを光軸に沿って移動させる。レンズ装置160が有するレンズにより結像された像は、撮像部140により撮像される。   The lens device 160 includes a lens control unit 162, a memory 163, a lens 164, a lens 166, and a lens 168. The lens 164, the lens 166, and the lens 168 form a lens system. The lens 164, the lens 166, and the lens 168 are disposed inside the lens barrel of the lens device 160. Part or all of the lens 164, the lens 166, and the lens 168 may be held to be displaceable along the optical axis. A lens that can be displaced along the optical axis is an example of a movable lens. The lens control unit 162 moves at least one of the lens 164, the lens 166, and the lens 168 along the optical axis in accordance with a command from the imaging control unit 142. An image formed by the lens included in the lens device 160 is captured by the imaging unit 140.

本実施形態では、UAV100が、UAV制御部104、撮像制御部142、及びレンズ制御部162を備える例について説明する。しかし、UAV制御部104、撮像制御部142、及びレンズ制御部162のうちの2つ又は3つで実行される処理をいずれか1つの制御部が実行してよい。UAV制御部104、撮像制御部142、及びレンズ制御部162で実行される処理を1つの制御部で実行してもよい。   In the present embodiment, an example in which the UAV 100 includes the UAV control unit 104, the imaging control unit 142, and the lens control unit 162 will be described. However, any one control unit may execute processing executed by two or three of the UAV control unit 104, the imaging control unit 142, and the lens control unit 162. The processing executed by the UAV control unit 104, the imaging control unit 142, and the lens control unit 162 may be executed by one control unit.

UAV制御部104において、第1取得部170は、UAV本体101に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する。レンズ装置160が有する可動レンズは、変位部の一例である。撮像装置190は、変位部の一例である。UAV本体101は、本体部の一例である。   In the UAV control unit 104, the first acquisition unit 170 acquires first information indicating the position of the displacement part of the displacement unit that is held displaceably with respect to the UAV main body 101. The movable lens included in the lens device 160 is an example of a displacement unit. The imaging device 190 is an example of a displacement unit. The UAV main body 101 is an example of a main body.

予測部130は、第1情報に基づいて、変位部が変位先の位置に変位した後のUAV本体101の姿勢を予測する。制御部180は、予測部130が予測したUAV本体101の姿勢に基づいて、UAV本体101の姿勢を制御する。   The prediction unit 130 predicts the posture of the UAV main body 101 after the displacement unit is displaced to the displacement destination position based on the first information. The control unit 180 controls the posture of the UAV main body 101 based on the posture of the UAV main body 101 predicted by the prediction unit 130.

予測部130は、第1情報及び変位部の質量に基づいて、変位部が変位先の位置に変位した後のUAV本体101の姿勢を予測する。制御部180は、予測部130が予測したUAV本体101の姿勢に基づいて、変位部が変位先の位置に変位することにより生じるUAV本体101の姿勢の変化が抑制されるように、UAV本体101の姿勢を制御する。   The prediction unit 130 predicts the posture of the UAV main body 101 after the displacement unit is displaced to the displacement destination position based on the first information and the mass of the displacement unit. Based on the posture of the UAV main body 101 predicted by the prediction unit 130, the control unit 180 suppresses the change in the posture of the UAV main body 101 caused by the displacement unit being displaced to the displacement destination position. To control the attitude.

予測部130は、変位部が変位前の位置から変位先の位置まで変位するまでの期間内の複数のタイミングのそれぞれにおける変位部の位置を予測する。予測部130は、予測した複数の位置のそれぞれについてUAV本体101の姿勢を予測する。制御部180は、複数のタイミングのそれぞれにおいて、それぞれのタイミングにおける変位部の位置について予測部130が予測したUAV本体101の姿勢に基づいて、UAV本体101の姿勢を制御する。   The prediction unit 130 predicts the position of the displacement unit at each of a plurality of timings within a period until the displacement unit is displaced from the position before displacement to the position before displacement. The prediction unit 130 predicts the posture of the UAV main body 101 for each of the predicted plurality of positions. The control unit 180 controls the posture of the UAV main body 101 based on the posture of the UAV main body 101 predicted by the prediction unit 130 for the position of the displacement portion at each timing at each of a plurality of timings.

制御部180は、UAV本体101の姿勢の目標値と、センサによるUAV本体101の姿勢の検出値と、予測部130が予測したUAV本体101の姿勢とに基づいて、UAV本体101の姿勢を制御する。制御部180は、予測部130が予測したUAV本体101の姿勢に基づくフィードフォワード制御を行う。   The control unit 180 controls the posture of the UAV main body 101 based on the target value of the posture of the UAV main body 101, the detected value of the posture of the UAV main body 101 by the sensor, and the posture of the UAV main body 101 predicted by the prediction unit 130. To do. The control unit 180 performs feedforward control based on the attitude of the UAV main body 101 predicted by the prediction unit 130.

変位部が可動レンズを含む場合、第1情報は、可動レンズを含むレンズ系の焦点距離に対応する可動レンズの変位先の位置を示す情報を含んでよい。第1情報は、焦点距離の変更先を示す情報であってよい。第1情報は、可動レンズを含むレンズ系のフォーカス位置に対応する可動レンズの変位先の位置を示す情報を含んでよい。第1情報は、フォーカス位置の変更先を示す情報であってよい。   When the displacement unit includes a movable lens, the first information may include information indicating the position of the displacement destination of the movable lens corresponding to the focal length of the lens system including the movable lens. The first information may be information indicating a change destination of the focal length. The first information may include information indicating the position of the displacement destination of the movable lens corresponding to the focus position of the lens system including the movable lens. The first information may be information indicating a change destination of the focus position.

メモリ106は、可動レンズの複数の位置に対応づけて、レンズ系を含むレンズ装置の重心位置を格納する。予測部130は、第1情報が示す可動レンズの変位先の位置に対応づけてメモリ106が格納している重心位置と、レンズ装置の質量とに基づいて、第1情報が示す可動レンズの変位先の位置に可動レンズが変位した後のUAV本体101の姿勢を予測する。   The memory 106 stores the gravity center position of the lens device including the lens system in association with the plurality of positions of the movable lens. The prediction unit 130 determines the displacement of the movable lens indicated by the first information based on the position of the center of gravity stored in the memory 106 in association with the position of the displacement destination of the movable lens indicated by the first information and the mass of the lens device. The posture of the UAV main body 101 after the movable lens is displaced to the previous position is predicted.

可動レンズが、UAV本体101に着脱可能な交換レンズが有するレンズ系に含まれる場合、第2取得部172は、UAV本体101に装着されている交換レンズから、交換レンズの焦点距離及びフォーカス位置の少なくとも一方に対応する交換レンズの重心位置及び交換レンズの質量を示す第2情報を取得してよい。第2取得部172は、UAV100の飛行前のイニシャライズを実行している期間に、第2情報を取得してよい。   When the movable lens is included in the lens system of the interchangeable lens that can be attached to and detached from the UAV main body 101, the second acquisition unit 172 determines the focal length and the focus position of the interchangeable lens from the interchangeable lens attached to the UAV main body 101. You may acquire the 2nd information which shows the gravity center position of the interchangeable lens corresponding to at least one, and the mass of an interchangeable lens. The second acquisition unit 172 may acquire the second information during a period in which initialization before the flight of the UAV 100 is being executed.

撮像装置190がUAV本体101に対して向きが可変に設けられる場合、撮像装置190は変位部の一例である。変位部の変位は、撮像装置の向きの変化に対応する。   When the imaging device 190 is variably provided with respect to the UAV main body 101, the imaging device 190 is an example of a displacement unit. The displacement of the displacement portion corresponds to a change in the orientation of the imaging device.

撮像装置190は、UAV本体101に着脱可能であってよい。この場合、第2取得部172は、UAV本体101に装着されている撮像装置190から、撮像装置190の重心位置及び撮像装置の質量を示す第2情報を取得してよい。第2取得部172は、UAV100の飛行前のイニシャライズを実行している期間に、第2情報を取得してよい。   The imaging device 190 may be detachable from the UAV main body 101. In this case, the second acquisition unit 172 may acquire second information indicating the position of the center of gravity of the imaging device 190 and the mass of the imaging device from the imaging device 190 mounted on the UAV main body 101. The second acquisition unit 172 may acquire the second information during a period in which initialization before the flight of the UAV 100 is being executed.

図3は、レンズ装置160がテレ端の状態にある場合の一例を示す。図3が示すレンズ装置160の状態は、図1が示すレンズ装置160の状態とは異なる。例えば、図1はレンズ装置160がワイド端の状態を示す。この点を除いて、図3が示すUAV100の状態は、図1が示す状態と同じである。   FIG. 3 shows an example when the lens device 160 is in the telephoto end state. The state of the lens device 160 shown in FIG. 3 is different from the state of the lens device 160 shown in FIG. For example, FIG. 1 shows a state in which the lens device 160 is at the wide end. Except for this point, the state of the UAV 100 shown in FIG. 3 is the same as the state shown in FIG.

レンズ装置160の焦点距離は、レンズ装置160が有する可動レンズを変位させることで調整される。レンズ装置160のフォーカス位置は、レンズ装置160が有する可動レンズを変位させることで調整される。可動レンズが変位することで、レンズ装置160の重心位置が変化する。レンズ装置160の重心位置は、可動レンズの変位の他に、可動レンズを保持する可動鏡筒やレンズ枠の変位によって変化する。レンズ装置160の重心位置が変化することによって、UAV100の重心位置が変化する。   The focal length of the lens device 160 is adjusted by displacing the movable lens included in the lens device 160. The focus position of the lens device 160 is adjusted by displacing the movable lens included in the lens device 160. When the movable lens is displaced, the position of the center of gravity of the lens device 160 changes. The position of the center of gravity of the lens device 160 changes depending on the displacement of the movable lens barrel and the lens frame that hold the movable lens, in addition to the displacement of the movable lens. When the center of gravity of the lens device 160 changes, the center of gravity of the UAV 100 changes.

G1は、UAV100が図1の状態にある場合のUAV100の重心位置を示す。G2は、UAV100が図3の状態にある場合のUAV100の重心位置を示す。UAV100が図1に示される状態から、レンズ装置160をテレ端の状態に変化させた場合、レンズ装置160の重心位置の変化によって、UAV100の重心位置はG1の位置からG2の位置に変化する。そのため、レンズ装置160をテレ端の状態にした場合においても、UAV100の姿勢が変化しないようにするためには、例えば回転翼108aの回転速度を低下させ、回転翼108bの回転速度を上昇させる必要がある。   G1 indicates the position of the center of gravity of the UAV 100 when the UAV 100 is in the state shown in FIG. G2 indicates the position of the center of gravity of the UAV 100 when the UAV 100 is in the state of FIG. When the lens apparatus 160 is changed from the state shown in FIG. 1 to the tele end state, the center of gravity position of the UAV 100 changes from the position of G1 to the position of G2 due to the change of the center of gravity position of the lens apparatus 160. Therefore, even when the lens device 160 is in the tele end state, in order to prevent the posture of the UAV 100 from changing, for example, it is necessary to decrease the rotational speed of the rotary blade 108a and increase the rotational speed of the rotary blade 108b. There is.

制御部180は、センサ120によるUAV100の姿勢の検出値を用いるフィードバック制御により、UAV100の姿勢を制御する。例えば、制御部180は、PID制御により、UAV100の姿勢を制御する。これにより、例えばUAV100の姿勢の変化が生じると、UAV100の姿勢の変化をキャンセルするように回転翼108の回転速度を増減させる。   The control unit 180 controls the attitude of the UAV 100 by feedback control using the detected value of the attitude of the UAV 100 by the sensor 120. For example, the control unit 180 controls the attitude of the UAV 100 by PID control. Thereby, for example, when a change in the posture of the UAV 100 occurs, the rotational speed of the rotary blade 108 is increased or decreased so as to cancel the change in the posture of the UAV 100.

制御部180は、フィードバック制御に加えて、レンズ装置160の可動レンズの変位に基づくフィードフォワード制御により、UAV100の姿勢を制御する。具体的には、予測部130は、可動レンズの変位により生じるレンズ装置160の重心位置の変化量と、レンズ装置160の質量とを用いて、UAV100の姿勢の変化を予測する。制御部180は、予測されたUAV100の姿勢の変化に応じたフィードフォワード補償値を、レンズ装置160の可動レンズの変位に同期して、PID制御の入力に加算する。これにより、レンズ装置160の重心位置の変化分を事前に計算して回転翼108の回転速度を速やかに制御することができる。そのため、フィードフォワード制御を用いずにフィードバック制御のみを用いる場合に比べて、レンズ装置160の重心位置の変化に起因して生じるUAV100の揺れを抑制することができる。   The control unit 180 controls the attitude of the UAV 100 by feedforward control based on the displacement of the movable lens of the lens device 160 in addition to the feedback control. Specifically, the prediction unit 130 predicts a change in the posture of the UAV 100 using the amount of change in the center of gravity of the lens device 160 caused by the displacement of the movable lens and the mass of the lens device 160. The control unit 180 adds the feedforward compensation value corresponding to the predicted change in the posture of the UAV 100 to the input of the PID control in synchronization with the displacement of the movable lens of the lens device 160. As a result, the amount of change in the center of gravity of the lens device 160 can be calculated in advance, and the rotational speed of the rotary blade 108 can be quickly controlled. Therefore, as compared with the case where only the feedback control is used without using the feedforward control, the swing of the UAV 100 caused by the change in the center of gravity position of the lens device 160 can be suppressed.

図4は、メモリ163に格納されるレンズ情報の一例を示す。レンズ情報は、レンズ種別ID、質量情報、及び重心情報を含む。レンズ種別IDは、例えばレンズの型番である。質量情報は、レンズ装置160の質量を示す情報である。重心情報は、レンズ装置160の重心位置を示す情報である。   FIG. 4 shows an example of lens information stored in the memory 163. The lens information includes a lens type ID, mass information, and centroid information. The lens type ID is, for example, a model number of the lens. The mass information is information indicating the mass of the lens device 160. The barycentric information is information indicating the barycentric position of the lens device 160.

図5は、重心情報の一例を示す。重心情報は、レンズ位置及びレンズ位置に対応する重心位置を含む。レンズ装置160が1つの可動レンズを有する場合、レンズ位置は、当該1つの可動レンズの位置を示す。重心位置は、対応するレンズ位置に可動レンズがある場合のレンズ装置160の重心位置を示す。レンズ装置160が2以上の可動レンズを有する場合、レンズ位置は、当該2以上の可動レンズのそれぞれの位置を示す。重心位置は、対応するレンズ位置が示す各可動レンズの位置にそれぞれの可動レンズがある場合のレンズ装置160の重心位置を示す。このように、重心情報は、複数のレンズ位置にそれぞれレンズ装置160の重心位置を対応づける。   FIG. 5 shows an example of centroid information. The centroid information includes a lens position and a centroid position corresponding to the lens position. When the lens device 160 has one movable lens, the lens position indicates the position of the one movable lens. The barycentric position indicates the barycentric position of the lens device 160 when there is a movable lens at the corresponding lens position. When the lens device 160 has two or more movable lenses, the lens position indicates the position of each of the two or more movable lenses. The barycentric position indicates the barycentric position of the lens device 160 when each movable lens is located at the position of each movable lens indicated by the corresponding lens position. As described above, the center-of-gravity information associates the center-of-gravity position of the lens device 160 with each of a plurality of lens positions.

重心位置は、予め定められた基準位置を原点とした場合のレンズ装置160の重心位置の座標であってよい。基準位置は、例えば、撮像部140の撮像素子144の位置であってよい。基準位置は、レンズ装置160の光軸上に設けられてよい。重心位置は、光軸に沿って測定される、撮像素子144からの距離であってよい。レンズ装置160が交換レンズである場合、基準位置は、レンズ装置160をマウントする撮像部140のマウント面内に設けられてよい。   The barycentric position may be coordinates of the barycentric position of the lens device 160 when a predetermined reference position is the origin. The reference position may be, for example, the position of the imaging element 144 of the imaging unit 140. The reference position may be provided on the optical axis of the lens device 160. The barycentric position may be a distance from the image sensor 144 measured along the optical axis. When the lens device 160 is an interchangeable lens, the reference position may be provided within the mount surface of the imaging unit 140 that mounts the lens device 160.

UAV制御部104において、第2取得部172は、メモリ163に格納されているレンズ情報を、レンズ制御部162及び撮像制御部142を通じて取得する。例えば、第2取得部172は、取得したレンズ情報をメモリ106に格納する。メモリ106に格納されたレンズ情報は、予測部130及び制御部180の処理に用いられる。   In the UAV control unit 104, the second acquisition unit 172 acquires the lens information stored in the memory 163 through the lens control unit 162 and the imaging control unit 142. For example, the second acquisition unit 172 stores the acquired lens information in the memory 106. The lens information stored in the memory 106 is used for processing by the prediction unit 130 and the control unit 180.

図6は、UAV100におけるUAV100の姿勢制御に関するブロック線図の一例を示す。ブロック線図は、加え合わせ点200、伝達要素210、伝達要素220、伝達要素230、加え合わせ点202、伝達要素240、作用素250、伝達要素260、伝達要素270、伝達要素280、及び加え合わせ点204を含む。   FIG. 6 shows an example of a block diagram regarding the attitude control of the UAV 100 in the UAV 100. The block diagram shows the add-on point 200, transfer element 210, transfer element 220, transfer element 230, add-on point 202, transfer element 240, operator 250, transfer element 260, transfer element 270, transfer element 280, and add-on point. 204.

図6のブロック線図において、制御対象は、伝達要素230で表されるUAV100である。制御量は、UAV100の姿勢角の角速度又はUAV100の姿勢角である。UAV100の姿勢角の角速度は、伝達要素240で表されるセンサ120により検出される。センサ120による検出値の状態変数は、積分要素である作用素250によって姿勢角の状態変数に変換される。   In the block diagram of FIG. 6, the control target is the UAV 100 represented by the transfer element 230. The control amount is the angular velocity of the posture angle of the UAV 100 or the posture angle of the UAV 100. The angular velocity of the posture angle of the UAV 100 is detected by the sensor 120 represented by the transfer element 240. The state variable of the detection value by the sensor 120 is converted into the state variable of the posture angle by the operator 250 that is an integral element.

Rは、UAV100の姿勢角の目標値の状態変数を表す。加え合わせ点200は、目標値の状態変数の加算を行う。加え合わせ点200は、作用素250の出力の状態変数の減算を行う。伝達要素210は、制御部180のPID制御を表す。具体的には、伝達要素210は、制御部180が誤差信号に基づいて、ドライバ107に対する駆動信号を生成する動作を表す。伝達要素220は、ドライバ107が駆動信号に基づいてモータ109の駆動電流を生成する動作を表す伝達要素である。伝達要素230は、モータ109が駆動電流により駆動されて回転翼108が回転して、UAV100の姿勢角の角速度が変化する現象を表す。加え合わせ点202は、UAV100の姿勢角の角速度の状態変数に、回転翼108以外の作用で生じる姿勢角の角速度の状態変数を加算する。伝達要素210、伝達要素220、伝達要素230、加え合わせ点202、伝達要素240、作用素250、加え合わせ点200により、フィードバック制御系を形成する。   R represents a state variable of the target value of the posture angle of the UAV 100. In addition point 200, the state variable of the target value is added. In addition point 200, the state variable of the output of operator 250 is subtracted. The transfer element 210 represents PID control of the control unit 180. Specifically, the transfer element 210 represents an operation in which the control unit 180 generates a drive signal for the driver 107 based on the error signal. The transfer element 220 is a transfer element that represents an operation in which the driver 107 generates a drive current of the motor 109 based on the drive signal. The transmission element 230 represents a phenomenon in which the angular velocity of the posture angle of the UAV 100 changes as the motor 109 is driven by the drive current and the rotary blade 108 rotates. The addition point 202 adds the state variable of the angular velocity of the posture angle generated by the action other than the rotary blade 108 to the state variable of the angular velocity of the posture angle of the UAV 100. The transmission element 210, the transmission element 220, the transmission element 230, the addition point 202, the transmission element 240, the operator 250, and the addition point 200 form a feedback control system.

伝達要素260は、レンズ制御部162が可動レンズを変位させる第1情報を出力する動作を表す。第1情報に応じて可動レンズが変位すると、レンズ装置160の重心位置が変化する。レンズ装置160の重心位置の変化により、UAV100の姿勢角の角速度が変化する。伝達要素270は、第1情報の出力により、レンズ装置160の重心位置が変化して、UAV100の姿勢角の角速度が変化する現象を表す。加え合わせ点204は、姿勢角の角速度の変化量の状態変数の加算を行う。加え合わせ点204は、外乱による姿勢角の角速度の変化量を表す状態変数の加算を行う。外乱としては、風等によるUAV100の姿勢角の変化を例示できる。加え合わせ点204が出力する状態変数は、加え合わせ点202において、伝達要素230が出力するUAV100の姿勢角の角速度の状態変数に加算される。   The transmission element 260 represents an operation in which the lens control unit 162 outputs first information for displacing the movable lens. When the movable lens is displaced according to the first information, the position of the center of gravity of the lens device 160 changes. The angular velocity of the posture angle of the UAV 100 changes due to the change in the position of the center of gravity of the lens device 160. The transfer element 270 represents a phenomenon in which the position of the center of gravity of the lens device 160 changes due to the output of the first information, and the angular velocity of the posture angle of the UAV 100 changes. In addition point 204, the state variable of the change amount of the angular velocity of the posture angle is added. The addition point 204 performs addition of a state variable indicating the amount of change in the angular velocity of the posture angle due to disturbance. Examples of the disturbance include a change in the posture angle of the UAV 100 due to wind or the like. The state variable output from the addition point 204 is added to the state variable of the angular velocity of the posture angle of the UAV 100 output from the transfer element 230 at the addition point 202.

伝達要素280は、予測部130が第1情報に基づいてUAV100の姿勢角の変化量の予測値を生成する動作を表す。加え合わせ点200は、予測部130が生成した予測値を示す状態変数の加算を行う。このように、伝達要素280により生成される予測値の状態変数は、フィードフォワード補償値として制御ループの入力に加算される。   The transfer element 280 represents an operation in which the prediction unit 130 generates a predicted value of the change amount of the posture angle of the UAV 100 based on the first information. In addition point 200, the state variable which shows the predicted value which prediction part 130 generated is added. Thus, the state variable of the predicted value generated by the transfer element 280 is added to the input of the control loop as a feedforward compensation value.

図7は、UAV100の姿勢を制御する制御フローの一例を示すフローチャートである。S310において、レンズ制御部162は、可動レンズに対し第1情報を出力する。第1情報は、レンズ装置160の可動レンズを変位させることを示す情報である。   FIG. 7 is a flowchart illustrating an example of a control flow for controlling the attitude of the UAV 100. In S310, the lens control unit 162 outputs the first information to the movable lens. The first information is information indicating that the movable lens of the lens device 160 is displaced.

例えば、レンズ制御部162は、レンズ装置160の焦点距離を変更する命令を撮像制御部142から取得すると、レンズ装置160が有する1以上の可動レンズの変位先の位置である将来位置と、変位タイミングとを決定する。可動レンズの将来位置は、焦点距離により定まる。変位タイミングは、可動レンズが変位を開始する時刻であってよい。例えば、レンズ制御部162は、30ms後に可動レンズの変位を開始することを決定する。変位タイミングは、可動レンズが変位を終了する時刻であってよい。第1情報は、可動レンズの将来位置と、変位タイミングとを示す情報を含む。第1情報は、撮像制御部142を通じてUAV制御部104にも出力される。   For example, when the lens control unit 162 obtains a command to change the focal length of the lens device 160 from the imaging control unit 142, a future position that is a displacement destination position of one or more movable lenses included in the lens device 160, and a displacement timing. And decide. The future position of the movable lens is determined by the focal length. The displacement timing may be a time when the movable lens starts to be displaced. For example, the lens control unit 162 determines to start displacement of the movable lens after 30 ms. The displacement timing may be a time when the movable lens ends the displacement. The first information includes information indicating the future position of the movable lens and the displacement timing. The first information is also output to the UAV control unit 104 through the imaging control unit 142.

S320において、第1情報に基づいて、可動レンズが変位する。S330において、制御部180は、可動レンズが変位するタイミングで第2情報をPID制御に出力する。第2情報は、フィードフォワード補償値を示す情報である。S330における処理の一例は、図8に関連して説明する。   In S320, the movable lens is displaced based on the first information. In S330, the control unit 180 outputs the second information to the PID control at the timing when the movable lens is displaced. The second information is information indicating the feedforward compensation value. An example of the process in S330 will be described with reference to FIG.

S340において、センサ120がジンバル110の角速度を検出することにより、UAV100の姿勢角の角速度を検出する。S350において、ドライバ107が、回転翼108の回転速度を制御する。例えば、制御部180のPID制御には、UAV100の姿勢角の目標値とフィードフォワード補償値との加算値と、センサ120によるUAV100の姿勢角の検出値との誤差信号が入力される。制御部180のPID制御において、誤差信号に基づいてドライバ107の駆動信号が生成される。ドライバ107が駆動信号に従ってモータ109を駆動することにより、回転翼108の回転速度が制御される。   In S340, the sensor 120 detects the angular velocity of the gimbal 110, thereby detecting the angular velocity of the posture angle of the UAV 100. In S350, the driver 107 controls the rotation speed of the rotary blade 108. For example, an error signal between the added value of the target value of the UAV 100 posture angle and the feedforward compensation value and the detected value of the posture angle of the UAV 100 by the sensor 120 is input to the PID control of the control unit 180. In the PID control of the control unit 180, a drive signal for the driver 107 is generated based on the error signal. When the driver 107 drives the motor 109 according to the drive signal, the rotational speed of the rotor blade 108 is controlled.

図8は、UAV制御部104が第1情報の受信から第2情報をPID制御に出力するまでの制御フローの一例を示すフローチャートである。S400において、第1取得部170は、第1情報を受信する。S410において、第1取得部170は、レンズ装置160の可動レンズの現在位置、将来位置、変位速度、変位開始時刻及びUAV100の姿勢角を取得する。第1取得部170は、可動レンズの現在位置及び変位速度をレンズ制御部162から取得する。   FIG. 8 is a flowchart illustrating an example of a control flow from when the UAV control unit 104 receives the first information until it outputs the second information to the PID control. In S400, the first acquisition unit 170 receives the first information. In S410, the first acquisition unit 170 acquires the current position, future position, displacement speed, displacement start time, and attitude angle of the UAV 100 of the movable lens of the lens device 160. The first acquisition unit 170 acquires the current position and displacement speed of the movable lens from the lens control unit 162.

S410において、予測部130は、可動レンズの停止時刻を算出する。停止時刻は、可動レンズの変位が終了する時刻である。予測部130は、レンズ装置160の可動レンズの現在位置、将来位置及び変位速度に基づいて、可動レンズの停止時刻を算出する。   In S410, the prediction unit 130 calculates the stop time of the movable lens. The stop time is the time when the displacement of the movable lens ends. The prediction unit 130 calculates the stop time of the movable lens based on the current position, future position, and displacement speed of the movable lens of the lens device 160.

S430において、予測部130は、現在時刻が可動レンズの停止時刻に一致する又は現在時刻が可動レンズの停止時刻を過ぎたかを判断する。現在時刻が可動レンズの停止時刻に一致する又は現在時刻が可動レンズの停止時刻を過ぎた場合は、制御フローを終了する。現在時刻が可動レンズの停止時刻より前である場合は、S440に処理を進める。   In S430, the prediction unit 130 determines whether the current time matches the stop time of the movable lens or whether the current time has passed the stop time of the movable lens. If the current time coincides with the stop time of the movable lens or if the current time has passed the stop time of the movable lens, the control flow ends. If the current time is before the stop time of the movable lens, the process proceeds to S440.

S440において、予測部130は、主制御ループのフレーム時間を取得する。主制御ループは、例えば、図6に示すフィードバックループである。フレーム時間は、フィードバックループにおける制御周期である。   In S440, the prediction unit 130 acquires the frame time of the main control loop. The main control loop is, for example, a feedback loop shown in FIG. The frame time is a control period in the feedback loop.

S450において、予測部130は、可動レンズの変位開始時刻と停止時刻との間の各フレームにおいて、UAV100の姿勢角の変化量の予測値を生成する。例えば、変位開始時刻から変位終了時刻までの期間が10msであり、フレーム時間が1msである場合、予測部130は、10フレームの各フレームにおいて、UAV100の姿勢角の変化量の予測値を生成する。各フレームにおけるUAV100の姿勢角の変化量の予測値は、各フレームにおけるフィードフォワード補償値の一例である。   In S450, the prediction unit 130 generates a predicted value of the change amount of the posture angle of the UAV 100 in each frame between the displacement start time and the stop time of the movable lens. For example, when the period from the displacement start time to the displacement end time is 10 ms and the frame time is 1 ms, the prediction unit 130 generates a predicted value of the change amount of the posture angle of the UAV 100 in each frame of 10 frames. . The predicted value of the change amount of the posture angle of the UAV 100 in each frame is an example of a feedforward compensation value in each frame.

予測部130は、各フレームにおける姿勢角の変化量を、レンズ装置160の現在の重心位置からの重心位置の変化量及びレンズ装置160の質量に基づいて、予測する。予測部130は、レンズ装置160の質量を図4に示すレンズ情報から特定する。予測部130は、レンズ装置160の重心位置の変化量を、図5に示す重心情報を用いて特定する。例えば、予測部130は、現在の可動レンズの位置に基づいて、レンズ装置160の現在の重心位置を特定する。予測部130は、各フレームにおける可動レンズの位置に基づいて、各フレームにおけるレンズ装置160の重心位置を特定する。予測部130は、各フレームにおけるレンズ装置160の重心位置と、レンズ装置160の現在の重心位置とに基づいて、各フレームにおける重心位置の変化量を特定する。   The prediction unit 130 predicts the change amount of the posture angle in each frame based on the change amount of the center of gravity position from the current center position of the lens device 160 and the mass of the lens device 160. The prediction unit 130 identifies the mass of the lens device 160 from the lens information shown in FIG. The prediction unit 130 identifies the amount of change in the center of gravity position of the lens device 160 using the center of gravity information shown in FIG. For example, the prediction unit 130 specifies the current center-of-gravity position of the lens device 160 based on the current position of the movable lens. The prediction unit 130 specifies the position of the center of gravity of the lens device 160 in each frame based on the position of the movable lens in each frame. The prediction unit 130 identifies the amount of change in the center of gravity position in each frame based on the position of the center of gravity of the lens device 160 in each frame and the current center of gravity position of the lens device 160.

S460において、制御部180は、現在時刻が可動レンズの変位開始時刻より前であるか否かを判断する。現在時刻が可動レンズの変位開始時刻より前である場合、現在時刻が可動レンズの変位開始時刻に一致する又は現在時刻が可動レンズの変位開始時刻を超えるまで、S460の判断を繰り返す。現在時刻が可動レンズの変位開始時刻に一致する又は現在時刻が可動レンズの変位開始時刻を超えた場合、S470に処理を進める。   In S460, control unit 180 determines whether or not the current time is before the start time of displacement of the movable lens. If the current time is earlier than the displacement start time of the movable lens, the determination in S460 is repeated until the current time matches the displacement start time of the movable lens or the current time exceeds the displacement start time of the movable lens. If the current time matches the displacement start time of the movable lens or if the current time exceeds the displacement start time of the movable lens, the process proceeds to S470.

S470において、制御部180は、予測部130がS450で予測した各フレームにおける姿勢角の変化量の予測値の出力を開始する。例えば、制御部180は、予測部130が予測した各フレームにおける姿勢角の変化量の予測値を、対応するフレームにおいてPID制御へ出力する。姿勢角の変化量の予測値の出力を開始するフレームは、変位開始時刻に対応するフレームでなくてよい。姿勢角の変化量の予測値の出力を開始するフレームは、変位開始時刻に対応するフレームより後のフレームであってよい。フィードバックループにおけるフレームとの対応関係が保たれていれば、変位開始時刻に対応するフレームより後のフレームから、姿勢角の変化量の予測値の出力を開始してよい。制御部180は、変位停止時刻に対応するフレームにおいて姿勢角の変化量の予測値を出力すると、制御フローを終了する。   In S470, the control unit 180 starts outputting the predicted value of the change amount of the posture angle in each frame predicted by the prediction unit 130 in S450. For example, the control unit 180 outputs the predicted value of the change amount of the posture angle in each frame predicted by the prediction unit 130 to the PID control in the corresponding frame. The frame that starts outputting the predicted value of the change amount of the posture angle may not be a frame corresponding to the displacement start time. The frame from which the output of the predicted value of the change amount of the posture angle may be a frame after the frame corresponding to the displacement start time. If the correspondence relationship with the frame in the feedback loop is maintained, the output of the predicted value of the change amount of the posture angle may be started from the frame after the frame corresponding to the displacement start time. When the control unit 180 outputs the predicted value of the change amount of the posture angle in the frame corresponding to the displacement stop time, the control unit 180 ends the control flow.

図9は、撮像装置190の向きが変化した状態の一例を示す。図9が示す撮像装置190の状態は、図1が示す撮像装置190の状態とは異なる。例えば、図9は、撮像装置190のピッチ角が変化した状態にある。この点を除いて、図9が示すUAV100の状態は、図1が示す状態と同じである。   FIG. 9 shows an example of a state in which the orientation of the imaging device 190 has changed. The state of the imaging device 190 illustrated in FIG. 9 is different from the state of the imaging device 190 illustrated in FIG. For example, FIG. 9 shows a state in which the pitch angle of the imaging device 190 has changed. Except for this point, the state of the UAV 100 shown in FIG. 9 is the same as the state shown in FIG.

G3は、UAV100が図9の状態にある場合のUAV100の重心位置を示す。UAV100が図1に示される状態から、撮像装置190のピッチ角を図9の状態に変化させた場合、UAV100の重心位置はG1の位置からG3の位置に変化する。そのため、UAV100の姿勢が変化しないようにするためには、例えば回転翼108aの回転速度を上昇させ、回転翼108bの回転速度を低下させる必要がある。   G3 indicates the position of the center of gravity of the UAV 100 when the UAV 100 is in the state shown in FIG. When the pitch angle of the imaging device 190 is changed from the state shown in FIG. 1 to the state shown in FIG. 9, the center of gravity of the UAV 100 changes from the position G1 to the position G3. Therefore, in order to prevent the posture of the UAV 100 from changing, for example, it is necessary to increase the rotational speed of the rotary blade 108a and decrease the rotational speed of the rotary blade 108b.

制御部180は、レンズ装置160の重心位置が変化した場合と同様に、撮像装置190の向きの変化に基づくフィードフォワード制御により、UAV100の姿勢を制御する。具体的には、予測部130は、撮像部140の向きの変化により生じる撮像部140及びレンズ装置160の重心位置の変化量と、撮像部140の質量と、レンズ装置160の質量とを用いて、UAV100の姿勢の変化を予測する。このように、予測部130は、撮像装置190の向きの変化により生じる撮像装置190の重心位置の変化量と、撮像装置190の質量とを用いて、UAV100の姿勢の変化量を予測する。UAV100の姿勢の変化量の予測値は、フィードフォワード補償値として生成される。   The control unit 180 controls the posture of the UAV 100 by feedforward control based on a change in the orientation of the imaging device 190, similarly to the case where the position of the center of gravity of the lens device 160 changes. Specifically, the prediction unit 130 uses the amount of change in the center of gravity of the imaging unit 140 and the lens device 160 caused by the change in the orientation of the imaging unit 140, the mass of the imaging unit 140, and the mass of the lens device 160. , Predict changes in the posture of the UAV 100. As described above, the prediction unit 130 predicts the amount of change in the posture of the UAV 100 using the amount of change in the center of gravity of the image pickup device 190 caused by the change in the orientation of the image pickup device 190 and the mass of the image pickup device 190. The predicted value of the change amount of the posture of the UAV 100 is generated as a feedforward compensation value.

制御部180は、生成したフィードフォワード補償値を、撮像装置190の向きの変化に同期して、PID制御の入力に加算する。これにより、撮像装置190の重心位置の変化分を事前に計算して回転翼108の回転速度を速やかに制御することができる。そのため、フィードフォワード制御を用いずにフィードバック制御のみを用いる場合に比べて、UAV100の揺れを抑制することができる。   The control unit 180 adds the generated feedforward compensation value to the input of PID control in synchronization with the change in the orientation of the imaging device 190. As a result, the amount of change in the center of gravity of the imaging device 190 can be calculated in advance, and the rotational speed of the rotary blade 108 can be quickly controlled. Therefore, it is possible to suppress the swing of the UAV 100 as compared with the case where only the feedback control is used without using the feedforward control.

図9に関連して、ピッチ角の変化により生じる撮像装置190の重心位置の変化を説明した。ピッチ角の変化だけでなく、ヨー角の変化によっても撮像装置190の重心位置が変化する。したがって、撮像装置190の重心位置は、ピッチ角及びヨー角の組み合わせによって変化する。本実施形態では、ロール角の変化によっては変化しないとする。撮像装置190の重心位置がロール軸上にある場合は、ロール角の変化によっては撮像装置190の重心位置は変化しない。   With reference to FIG. 9, the change in the gravity center position of the imaging device 190 caused by the change in the pitch angle has been described. The position of the center of gravity of the imaging device 190 changes not only due to the change in pitch angle but also due to the change in yaw angle. Therefore, the position of the center of gravity of the imaging device 190 changes depending on the combination of the pitch angle and the yaw angle. In the present embodiment, it is assumed that there is no change depending on the change of the roll angle. When the gravity center position of the imaging device 190 is on the roll axis, the gravity center position of the imaging device 190 does not change depending on the change of the roll angle.

図10は、メモリ146に格納される撮像部情報の一例を示す。撮像部情報は、撮像部種別ID、質量情報、及び重心位置情報を含む。撮像部種別IDは、例えば撮像部140の型番である。質量情報は、撮像部140の質量を示す情報である。重心位置情報は、撮像部140の重心位置を示す情報である。   FIG. 10 shows an example of imaging unit information stored in the memory 146. The imaging unit information includes an imaging unit type ID, mass information, and barycentric position information. The imaging unit type ID is, for example, the model number of the imaging unit 140. The mass information is information indicating the mass of the imaging unit 140. The barycentric position information is information indicating the barycentric position of the imaging unit 140.

重心位置は、予め定められた基準位置を原点として表される座標であってよい。基準位置は、例えば、ジンバル110が撮像部140を把持する把持位置であってよい。基準位置は、ピッチ軸上に設けられてよい。   The barycentric position may be coordinates expressed with a predetermined reference position as an origin. The reference position may be a grip position where the gimbal 110 grips the imaging unit 140, for example. The reference position may be provided on the pitch axis.

UAV制御部104において、第2取得部172は、メモリ146に格納される撮像部情報を、撮像制御部142を通じて取得する。例えば、第2取得部172は、取得した撮像部情報をメモリ106に格納する。メモリ106に格納された撮像部情報は、予測部130及び制御部180の処理に用いられる。   In the UAV control unit 104, the second acquisition unit 172 acquires the imaging unit information stored in the memory 146 through the imaging control unit 142. For example, the second acquisition unit 172 stores the acquired imaging unit information in the memory 106. The imaging unit information stored in the memory 106 is used for processing by the prediction unit 130 and the control unit 180.

予測部130及び制御部180は、図4及び図5に示すレンズ情報及び図10に示す撮像部情報に基づいて、レンズ装置160の可動レンズの位置、ピッチ角、及びヨー角の組み合わせにおける撮像装置190の重心位置を算出できる。予測部130及び制御部180は、図4に示すレンズ情報及び図10に示す撮像部情報に基づいて、撮像装置190の質量を算出できる。予測部130及び制御部180は、レンズ装置160の可動レンズの位置及び撮像装置190の向きの少なくとも一方を変化させる場合における、重心位置の変化を算出できる。これにより、予測部130及び制御部180は、レンズ装置160の可動レンズの位置及び撮像装置190の向きの少なくとも一方を変化させる場合において予測される重心位置の変化を算出できる。予測部130及び制御部180は、算出した撮像装置190の重心位置の変化及び撮像装置190の質量に基づいて、UAV100の姿勢角の変化又は姿勢角の角速度の変化を予測できる。   Based on the lens information shown in FIGS. 4 and 5 and the imaging unit information shown in FIG. 10, the prediction unit 130 and the control unit 180 are imaging devices that combine the position, pitch angle, and yaw angle of the movable lens of the lens device 160. The center of gravity position of 190 can be calculated. The prediction unit 130 and the control unit 180 can calculate the mass of the imaging device 190 based on the lens information illustrated in FIG. 4 and the imaging unit information illustrated in FIG. The prediction unit 130 and the control unit 180 can calculate a change in the center of gravity position when at least one of the position of the movable lens of the lens device 160 and the orientation of the imaging device 190 is changed. Thereby, the prediction unit 130 and the control unit 180 can calculate a change in the center of gravity predicted when at least one of the position of the movable lens of the lens device 160 and the orientation of the imaging device 190 is changed. The prediction unit 130 and the control unit 180 can predict a change in posture angle of the UAV 100 or a change in angular velocity of the posture angle based on the calculated change in the center of gravity of the imaging device 190 and the mass of the imaging device 190.

撮像装置190の向きの変化に対応する制御系は、図6に示す制御系に、撮像装置190の向きの変化に関する状態変数及び伝達要素を加えることで実現できる。   The control system corresponding to the change in the orientation of the imaging device 190 can be realized by adding a state variable and a transfer element related to the change in the orientation of the imaging device 190 to the control system shown in FIG.

撮像装置190の向きの変化に対応する制御フローは、図7及び図8に示す制御フローにおけるレンズの変位に関する制御に加えて、撮像装置190の向きの変化に関する制御を加えることで実現できる。例えば、図7に示す制御フローにおいては、第1情報として、可動レンズの変位及び撮像装置190の変向を示す情報を適用すればよい。図8に示す制御フローにおいては、可動レンズの位置及び変位速度に加えて、撮像装置190の向き及び変向速度に関する制御を適用すればよい。   The control flow corresponding to the change in the orientation of the imaging device 190 can be realized by adding control related to the change in the orientation of the imaging device 190 in addition to the control relating to the displacement of the lens in the control flow shown in FIGS. For example, in the control flow shown in FIG. 7, information indicating the displacement of the movable lens and the direction of the imaging device 190 may be applied as the first information. In the control flow shown in FIG. 8, in addition to the position and displacement speed of the movable lens, control relating to the direction and direction of the imaging apparatus 190 may be applied.

上記の実施形態において、レンズ装置160は、交換レンズである。しかし、レンズ装置160は、撮像部140と一体的に設けられてよい。この形態において、レンズ装置160及び撮像部140を含む撮像装置190は、ジンバル110に着脱可能であってよい。   In the above embodiment, the lens device 160 is an interchangeable lens. However, the lens device 160 may be provided integrally with the imaging unit 140. In this embodiment, the imaging device 190 including the lens device 160 and the imaging unit 140 may be detachable from the gimbal 110.

レンズ装置160が撮像部140と一体的に設けられる形態において、レンズ装置160及び撮像部140を含む撮像装置190は、ジンバル110に着脱可能でなくてよい。撮像装置190は、ジンバル110に固定されていてよい。   In the form in which the lens device 160 is provided integrally with the imaging unit 140, the imaging device 190 including the lens device 160 and the imaging unit 140 may not be detachable from the gimbal 110. The imaging device 190 may be fixed to the gimbal 110.

上記の実施形態における可動レンズ及び撮像装置190は、変位部の一例である。レンズ装置160が可動レンズを有しない場合、又は、可動レンズの変位によるUAV100の重心位置の変化量が予め定められた値より小さい場合、撮像装置190のみが変位部である形態を採用できる。撮像装置190の向きが固定である場合、又は、撮像装置190の向きの変化によるUAV100の重心位置の変化量が予め定められた値より小さい場合、レンズ装置160のみが変位部である形態を採用できる。   The movable lens and imaging device 190 in the above embodiment is an example of a displacement unit. When the lens device 160 does not have a movable lens, or when the amount of change in the center of gravity position of the UAV 100 due to the displacement of the movable lens is smaller than a predetermined value, a mode in which only the imaging device 190 is a displacement portion can be adopted. When the orientation of the imaging device 190 is fixed, or when the amount of change in the center of gravity position of the UAV 100 due to the change in orientation of the imaging device 190 is smaller than a predetermined value, only the lens device 160 is a displacement part. it can.

変位部は、可動レンズ及び撮像装置190以外の部材であってよい。例えば、変位部は、可動アーム等の部材であってよい。変位部は、UAV100に取り付けられた部材に限られない。変位部は、UAV100が把持した部材を含んでよい。UAV100が能動的に変位させることができる部材であれば、どのような部材も変位部とみなすことができる。   The displacement part may be a member other than the movable lens and the imaging device 190. For example, the displacement part may be a member such as a movable arm. A displacement part is not restricted to the member attached to UAV100. The displacement part may include a member gripped by the UAV 100. Any member can be considered as the displacement portion as long as the UAV 100 can be actively displaced.

上記の実施形態に示される複数の段階の少なくとも1つの段階は、ハードウェア、又は関連するハードウェアに命令するプログラムによって実装されてよい。プログラムは、コンピュータが可読な記録媒体に格納されてよい。記録媒体は、ROM、磁気ディスク、及び光ディスクの少なくとも1つを含んでよい。   At least one of the steps shown in the above embodiments may be implemented by hardware or a program instructing related hardware. The program may be stored in a computer-readable recording medium. The recording medium may include at least one of a ROM, a magnetic disk, and an optical disk.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. It is apparent from the description of the scope of claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。「垂直」との記載は、「交わる」状態であってもよい。   The execution order of each process such as operation, procedure, step, and stage in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. ”And the like, and can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the specification, and the drawings, even if it is described using “first”, “next”, etc. for the sake of convenience, it means that it is essential to carry out in this order. It is not a thing. The description of “vertical” may be “intersecting”.

100 UAV
101 UAV本体
102 通信インタフェース
104 UAV制御部
105 検出部
106 メモリ
107 ドライバ
108 回転翼
109 モータ
110 ジンバル
120 センサ
130 予測部
140 撮像部
142 撮像制御部
144 撮像素子
146 メモリ
160 レンズ装置
162 レンズ制御部
163 メモリ
164、166、168 レンズ
190 撮像装置
170 第1取得部
172 第2取得部
180 制御部
188 確認部
200、202、204 加え合わせ点
210、220、230、240、260、270、280 伝達要素
250 作用素
100 UAV
101 UAV main body 102 communication interface 104 UAV control unit 105 detection unit 106 memory 107 driver 108 rotor blade 109 motor 110 gimbal 120 sensor 130 prediction unit 140 imaging unit 142 imaging control unit 144 imaging element 146 memory 160 lens device 162 lens control unit 163 memory 164, 166, 168 Lens 190 Imaging device 170 First acquisition unit 172 Second acquisition unit 180 Control unit 188 Confirmation unit 200, 202, 204 Addition points 210, 220, 230, 240, 260, 270, 280
250 operator

100 UAV
101 UAV本体
102 通信インタフェース
104 UAV制御部
105 検出部
106 メモリ
107 ドライバ
108 回転翼
109 モータ
110 ジンバル
120 センサ
130 予測部
140 撮像部
142 撮像制御部
144 撮像素子
146 メモリ
160 レンズ装置
162 レンズ制御部
163 メモリ
164、166、168 レンズ
170 第1取得部
172 第2取得部
180 制御部
188 確認部
190 撮像装置
200、202、204 加え合わせ点
210、220、230、240、260、270、280 伝達要素
250 作用素
100 UAV
101 UAV main body 102 communication interface 104 UAV control unit 105 detection unit 106 memory 107 driver 108 rotor blade 109 motor 110 gimbal 120 sensor 130 prediction unit 140 imaging unit 142 imaging control unit 144 imaging element 146 memory 160 lens device 162 lens control unit 163 memory 164, 166, 168 Lens 170 First acquisition unit 172 Second acquisition unit 180 Control unit 188 Confirmation unit
190 Imaging device 200, 202, 204 Addition point 210, 220, 230, 240, 260, 270, 280
250 operator

Claims (16)

本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する第1取得部と、
前記第1情報に基づいて、前記変位部が前記変位先の位置に変位した後の前記本体部の姿勢を予測する予測部と、
前記予測部が予測した前記本体部の姿勢に基づいて、前記本体部の姿勢を制御する制御部と
を備える制御装置。
A first acquisition unit for acquiring first information indicating a position of a displacement destination of the displacement unit held so as to be displaceable with respect to the main body unit;
A predicting unit that predicts the posture of the main body after the displacement unit is displaced to the position of the displacement destination based on the first information;
And a control unit that controls the posture of the main body based on the posture of the main body predicted by the prediction unit.
前記予測部は、前記変位部の質量及び前記第1情報に基づいて、前記変位部が前記変位先の位置に変位した後の前記本体部の姿勢を予測する
請求項1に記載の制御装置。
The control device according to claim 1, wherein the prediction unit predicts a posture of the main body after the displacement unit is displaced to the position of the displacement destination based on the mass of the displacement unit and the first information.
前記制御部は、前記予測部が予測した前記本体部の姿勢に基づいて、前記変位部が前記変位先の位置に変位することにより生じる前記本体部の姿勢の変化が抑制されるように、前記本体部の姿勢を制御する
請求項2に記載の制御装置。
Based on the posture of the main body predicted by the prediction unit, the control unit suppresses a change in the posture of the main body caused by the displacement of the displacement portion being displaced to the position of the displacement destination. The control apparatus of Claim 2 which controls the attitude | position of a main-body part.
前記予測部は、前記変位部が変位前の位置から前記変位先の位置まで変位するまでの期間内の複数のタイミングのそれぞれにおける前記変位部の位置を予測し、予測した複数の前記位置のそれぞれについて前記本体部の姿勢を予測し、
前記制御部は、前記複数のタイミングのそれぞれにおいて、それぞれのタイミングにおける前記変位部の位置について前記予測部が予測した前記本体部の姿勢に基づいて、前記本体部の姿勢を制御する
請求項1から3のいずれか一項に記載の制御装置。
The prediction unit predicts the position of the displacement unit at each of a plurality of timings within a period until the displacement unit is displaced from the position before displacement to the position of the displacement destination, and each of the plurality of predicted positions Predict the posture of the main body with respect to
The control unit controls the attitude of the main body at each of the plurality of timings based on the attitude of the main body predicted by the prediction unit with respect to the position of the displacement at each timing. 4. The control device according to any one of 3.
前記制御部は、前記本体部の姿勢の目標値と、前記本体部の姿勢を取得するためのセンサによる前記本体部の姿勢の検出値と、前記予測部が予測した前記本体部の姿勢とに基づいて、前記本体部の姿勢を制御する
請求項1から4のいずれか一項に記載の制御装置。
The control unit includes a target value of the posture of the main body, a detected value of the posture of the main body by a sensor for acquiring the posture of the main body, and the posture of the main body predicted by the prediction unit. The control device according to claim 1, wherein the control device controls the posture of the main body based on the control device.
前記変位部は、可動レンズを含む
請求項1から5のいずれか一項に記載の制御装置。
The control device according to claim 1, wherein the displacement unit includes a movable lens.
前記第1情報は、前記可動レンズを含むレンズ系の焦点距離に対応する前記可動レンズの変位先の位置を示す情報を含む
請求項6に記載の制御装置。
The control device according to claim 6, wherein the first information includes information indicating a displacement destination position of the movable lens corresponding to a focal length of a lens system including the movable lens.
前記第1情報は、前記可動レンズを含むレンズ系のフォーカス位置に対応する前記可動レンズの変位先の位置を示す情報を含む
請求項6又は7に記載の制御装置。
The control device according to claim 6 or 7, wherein the first information includes information indicating a displacement destination position of the movable lens corresponding to a focus position of a lens system including the movable lens.
前記可動レンズの複数の位置に対応づけて、前記レンズ系を含むレンズ装置の重心位置を格納する格納部
をさらに備え、
前記予測部は、前記第1情報が示す前記可動レンズの変位先の位置に対応づけて前記格納部が格納している前記重心位置と、前記レンズ装置の質量とに基づいて、前記第1情報が示す前記可動レンズの変位先の位置に前記可動レンズが変位した後の前記本体部の姿勢を予測する
請求項7又は8に記載の制御装置。
A storage unit that stores the position of the center of gravity of the lens device including the lens system in association with a plurality of positions of the movable lens;
The prediction unit is configured to associate the first information based on the position of the center of gravity stored in the storage unit in association with the position of the displacement destination of the movable lens indicated by the first information and the mass of the lens device. The control device according to claim 7, wherein the posture of the main body after the movable lens is displaced to a position of the displacement destination of the movable lens indicated by is predicted.
前記可動レンズは、前記本体部に着脱可能な交換レンズが有するレンズ系に含まれ、
前記制御装置は、
前記本体部に装着されている前記交換レンズから、前記交換レンズの焦点距離及びフォーカス位置の少なくとも一方に対応する前記交換レンズの重心位置及び前記交換レンズの質量を示す第2情報を取得する第2取得部
を備える請求項6から9のいずれか一項に記載の制御装置。
The movable lens is included in a lens system of an interchangeable lens that can be attached to and detached from the main body.
The controller is
Second information is acquired from the interchangeable lens mounted on the main body to obtain second information indicating the position of the center of gravity of the interchangeable lens and the mass of the interchangeable lens corresponding to at least one of the focal length and the focus position of the interchangeable lens. The control device according to claim 6, further comprising an acquisition unit.
前記変位部は、撮像装置である
請求項1から10のいずれか一項に記載の制御装置。
The control device according to claim 1, wherein the displacement unit is an imaging device.
前記撮像装置は、前記本体部に対して向きが可変に設けられ、
前記変位部の変位は、前記撮像装置の向きの変化である
請求項11に記載の制御装置。
The imaging device is provided with a variable orientation with respect to the main body,
The control device according to claim 11, wherein the displacement of the displacement unit is a change in a direction of the imaging device.
前記撮像装置は、前記本体部に着脱可能であり、
前記制御装置は、
前記本体部に装着されている前記撮像装置から、前記撮像装置の重心位置及び前記撮像装置の質量を示す第2情報を取得する第2取得部
を備える請求項11又は12に記載の制御装置。
The imaging device is detachable from the main body,
The controller is
The control device according to claim 11 or 12, further comprising: a second acquisition unit that acquires second information indicating a gravity center position of the imaging device and a mass of the imaging device from the imaging device mounted on the main body.
請求項1から13のいずれか一項に記載の制御装置と
前記本体部と
を備える移動体。
A moving body comprising the control device according to claim 1 and the main body.
本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する段階と、
前記第1情報に基づいて、前記変位部が前記変位先の位置に変位した後の前記本体部の姿勢を予測する段階と、
前記予測する段階で予測された前記本体部の姿勢に基づいて、前記本体部の姿勢を制御する段階と
を備える制御方法。
Obtaining first information indicating a position of a displacement destination of a displacement portion held so as to be displaceable with respect to the main body portion;
Predicting the posture of the main body after the displacement portion is displaced to the position of the displacement destination based on the first information;
A control method comprising: controlling the posture of the main body based on the posture of the main body predicted in the predicting step.
請求項15に記載の制御方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the control method according to claim 15.
JP2016118003A 2016-06-14 2016-06-14 Control device, moving body, control method, and program Active JP6026695B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016118003A JP6026695B1 (en) 2016-06-14 2016-06-14 Control device, moving body, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016118003A JP6026695B1 (en) 2016-06-14 2016-06-14 Control device, moving body, control method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016201100A Division JP6501080B2 (en) 2016-10-12 2016-10-12 Unmanned aerial vehicle, unmanned aerial vehicle control method and program

Publications (2)

Publication Number Publication Date
JP6026695B1 JP6026695B1 (en) 2016-11-16
JP2017224094A true JP2017224094A (en) 2017-12-21

Family

ID=57326596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016118003A Active JP6026695B1 (en) 2016-06-14 2016-06-14 Control device, moving body, control method, and program

Country Status (1)

Country Link
JP (1) JP6026695B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106843245B (en) * 2016-12-01 2022-02-01 北京京东乾石科技有限公司 Unmanned aerial vehicle attitude control method and device and unmanned aerial vehicle
JP6589902B2 (en) * 2017-01-31 2019-10-16 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing apparatus control method, and program
JP6503607B2 (en) * 2017-04-07 2019-04-24 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Imaging control apparatus, imaging apparatus, imaging system, moving object, imaging control method, and program
WO2022160175A1 (en) * 2021-01-28 2022-08-04 深圳市大疆创新科技有限公司 Control method and unmanned aerial vehicle

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05158540A (en) * 1991-12-06 1993-06-25 Fujitsu Ltd Arm control system for spacecraft, and attitude control system for spacecraft with arm
JP5198035B2 (en) * 2007-10-26 2013-05-15 トヨタ自動車株式会社 Legged robot and control method thereof
JP5569140B2 (en) * 2010-05-12 2014-08-13 株式会社リコー Camera system, camera body unit, external unit, and camera system control method

Also Published As

Publication number Publication date
JP6026695B1 (en) 2016-11-16

Similar Documents

Publication Publication Date Title
CN108549399B (en) Aircraft yaw angle correction method and device and aircraft
JP6026695B1 (en) Control device, moving body, control method, and program
US11169516B2 (en) Adaptive rate gain controller
WO2017206072A1 (en) Pan-tilt control method and apparatus, and pan-tilt
CN108521814B (en) Control method and controller of cloud deck and cloud deck
WO2019210467A1 (en) Pan-tilt control method and apparatus, pan-tilt system, unmanned aerial vehicle and computer-readable storage medium
WO2020019331A1 (en) Method for height measurement and compensation by barometer, and unmanned aerial vehicle
WO2019126932A1 (en) Cradle head control method and control device
CN105045293A (en) Cradle head control method, external carrier control method and cradle head
JP2017072986A (en) Autonomous flying device, control method and program of autonomous flying device
WO2020042159A1 (en) Rotation control method and apparatus for gimbal, control device, and mobile platform
JP6501080B2 (en) Unmanned aerial vehicle, unmanned aerial vehicle control method and program
CN109725652B (en) Method for resolving and controlling course of unmanned aerial vehicle holder
JP6318455B1 (en) Control device, imaging device, moving object, control method, and program
JP6910785B2 (en) Mobile imager and its control method, as well as imager and its control method, unmanned aerial vehicle, program, storage medium
JP6146520B1 (en) Optical apparatus, moving body, holding position adjusting method, and program
JP6888215B2 (en) Control devices, imaging devices, imaging systems, moving objects, control methods, and programs
JP6496953B2 (en) Control device, imaging device, moving object, control method, and program
JP2020020878A (en) Moving vehicle, focus control method, program, and recording medium
JP6103672B1 (en) Control device, imaging device, moving object, control method, and program
US11265456B2 (en) Control device, photographing device, mobile object, control method, and program for image acquisition
JP2019082539A (en) Control device, lens device, flying body, control method, and program
WO2018109847A1 (en) Control device, imaging device, mobile body, control method, and program
JP2019003035A (en) Controller, imaging apparatus, imaging system, flight object, control method, and program
JP6865720B2 (en) Mobile objects, imaging control methods, programs, and recording media

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161012

R150 Certificate of patent or registration of utility model

Ref document number: 6026695

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250