JP6501080B2 - Unmanned aerial vehicle, unmanned aerial vehicle control method and program - Google Patents

Unmanned aerial vehicle, unmanned aerial vehicle control method and program Download PDF

Info

Publication number
JP6501080B2
JP6501080B2 JP2016201100A JP2016201100A JP6501080B2 JP 6501080 B2 JP6501080 B2 JP 6501080B2 JP 2016201100 A JP2016201100 A JP 2016201100A JP 2016201100 A JP2016201100 A JP 2016201100A JP 6501080 B2 JP6501080 B2 JP 6501080B2
Authority
JP
Japan
Prior art keywords
main body
displacement
attitude
unmanned aerial
aerial vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016201100A
Other languages
Japanese (ja)
Other versions
JP2017224265A (en
Inventor
宗耀 瞿
宗耀 瞿
三田 英明
英明 三田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2016201100A priority Critical patent/JP6501080B2/en
Publication of JP2017224265A publication Critical patent/JP2017224265A/en
Application granted granted Critical
Publication of JP6501080B2 publication Critical patent/JP6501080B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、制御装置、移動体、制御方法及びプログラムに関する。   The present invention relates to a control device, a mobile unit, a control method, and a program.

特許文献1には、カメラシステムが開示されている。カメラシステムは、外部ユニットと、本体ユニットとを備える。カメラの電源をONにすると、本体ユニットと外部ユニットとの間でユニット情報の交換が行われる。ユニット情報は、機種番号、ユニット種別、製造元種別、ファームウェアバージョン番号及び本体側ファームウェア有り無しの情報からなる。
特許文献1 特開2011−239301号公報
Patent Document 1 discloses a camera system. The camera system comprises an external unit and a main unit. When the camera is turned on, exchange of unit information is performed between the main unit and the external unit. The unit information includes information of model number, unit type, manufacturer type, firmware version number, and presence / absence of main body firmware.
Patent Document 1: Japanese Patent Application Publication No. 2011-239301

本体部に対して変位可能に保持される変位部が変位すると、本体部及び変位部の重心位置が変化する場合がある。これにより、本体部の姿勢が変化する場合がある。この本体部の姿勢の変化に基づいて本体部の姿勢を速やかに制御することが要求される場合がある。   When the displacement portion held displaceably with respect to the main body portion is displaced, the barycentric positions of the main body portion and the displacement portion may change. As a result, the attitude of the main body may change. It may be required to quickly control the attitude of the main body based on the change in attitude of the main body.

一態様において、制御装置は、本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する第1取得部と、第1情報に基づいて、変位部が変位先の位置に変位した後の本体部の姿勢を予測する予測部と、予測部が予測した本体部の姿勢に基づいて、本体部の姿勢を制御する制御部とを備える。   In one aspect, the control device includes: a first acquisition unit acquiring first information indicating a position of a displacement destination of the displacement unit held displaceably with respect to the main body; and the displacement unit based on the first information A prediction unit that predicts the posture of the main body portion after being displaced to the position of the displacement destination, and a control unit that controls the posture of the main body portion based on the posture of the main body portion predicted by the prediction unit.

予測部は、変位部の質量及び第1情報に基づいて、変位部が変位先の位置に変位した後の本体部の姿勢を予測してよい。   The prediction unit may predict the posture of the main body after the displacement unit is displaced to the position of the displacement destination based on the mass of the displacement unit and the first information.

制御部は、予測部が予測した本体部の姿勢に基づいて、変位部が変位先の位置に変位することにより生じる本体部の姿勢の変化が抑制されるように、本体部の姿勢を制御してよい。   The control unit controls the posture of the main body so that the change in the posture of the main body caused by the displacement of the displacement portion to the position of the displacement is suppressed based on the posture of the main body predicted by the prediction unit. You may

予測部は、変位部が変位前の位置から変位先の位置まで変位するまでの期間内の複数のタイミングのそれぞれにおける変位部の位置を予測し、予測した複数の位置のそれぞれについて本体部の姿勢を予測し、制御部は、複数のタイミングのそれぞれにおいて、それぞれのタイミングにおける変位部の位置について予測部が予測した本体部の姿勢に基づいて、本体部の姿勢を制御してよい。   The prediction unit predicts the position of the displacement portion at each of a plurality of timings in a period from the position before displacement to the position of the displacement destination, and the posture of the main portion for each of the plurality of predicted positions. The controller may control the attitude of the main body at each of the plurality of timings based on the attitude of the main body predicted by the predictor with respect to the position of the displacement portion at each of the plurality of timings.

制御部は、本体部の姿勢の目標値と、本体部の姿勢を取得するためのセンサによる本体部の姿勢の検出値と、予測部が予測した本体部の姿勢とに基づいて、本体部の姿勢を制御してよい。   The control unit is based on the target value of the attitude of the main body, the detection value of the attitude of the main body by the sensor for acquiring the attitude of the main body, and the attitude of the main body predicted by the prediction unit. You may control the attitude.

変位部は、可動レンズを含んでよい。   The displacement portion may include a movable lens.

第1情報は、可動レンズを含むレンズ系の焦点距離に対応する可動レンズの変位先の位置を示す情報を含んでよい。   The first information may include information indicating the position of the displacement destination of the movable lens corresponding to the focal length of the lens system including the movable lens.

第1情報は、可動レンズを含むレンズ系のフォーカス位置に対応する可動レンズの変位先の位置を示す情報を含んでよい。   The first information may include information indicating the position of the displacement destination of the movable lens corresponding to the focus position of the lens system including the movable lens.

可動レンズの複数の位置に対応づけて、レンズ系を含むレンズ装置の重心位置を格納する格納部をさらに備え、予測部は、第1情報が示す可動レンズの変位先の位置に対応づけて格納部が格納している重心位置と、レンズ装置の質量とに基づいて、第1情報が示す可動レンズの変位先の位置に可動レンズが変位した後の本体部の姿勢を予測してよい。   The storage unit is further provided for storing the position of the center of gravity of the lens apparatus including the lens system in association with a plurality of positions of the movable lens, and the prediction unit stores the position of the movable lens indicated by the first information. The posture of the main body after the movable lens is displaced to the position of the displacement destination of the movable lens indicated by the first information may be predicted based on the position of the center of gravity stored in the unit and the mass of the lens device.

可動レンズは、本体部に着脱可能な交換レンズが有するレンズ系に含まれ、制御装置は、本体部に装着されている交換レンズから、交換レンズの焦点距離及びフォーカス位置の少なくとも一方に対応する交換レンズの重心位置及び交換レンズの質量を示す第2情報を取得する第2取得部を備えてよい。   The movable lens is included in a lens system included in the interchangeable lens that is detachable from the main body, and the control device is configured to replace at least one of the focal length and the focus position of the interchangeable lens from the interchangeable lens mounted on the main body A second acquisition unit may be provided to acquire second information indicating the position of the center of gravity of the lens and the mass of the interchangeable lens.

変位部は、撮像装置であってよい。   The displacement unit may be an imaging device.

撮像装置は、本体部に対して向きが可変に設けられ、変位部の変位は、撮像装置の向きの変化であってよい。   The imaging device may be variably oriented with respect to the main body, and the displacement of the displacement portion may be a change in the orientation of the imaging device.

撮像装置は、本体部に着脱可能であり、制御装置は、本体部に装着されている撮像装置から、撮像装置の重心位置及び撮像装置の質量を示す第2情報を取得する第2取得部を備えてよい。   The imaging device is attachable to and detachable from the main body portion, and the control device acquires, from the imaging device mounted on the main body portion, a second acquisition unit that acquires second information indicating the gravity center position of the imaging device and the mass of the imaging device. May be equipped.

一態様において、移動体は、上記の制御装置と本体部とを備える。   In one aspect, the movable body includes the control device and the main body described above.

一態様において、制御方法は、本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する段階と、第1情報に基づいて、変位部が変位先の位置に変位した後の本体部の姿勢を予測する段階と、予測する段階で予測された本体部の姿勢に基づいて、本体部の姿勢を制御する段階とを備える。   In one aspect, the control method includes: acquiring first information indicating a position of a displacement destination of the displacement portion held displaceably with respect to the main body; and the displacement portion being a displacement destination based on the first information. The method further comprises the steps of predicting the posture of the main body after being displaced to the position, and controlling the posture of the main body based on the posture of the main body predicted in the predicting step.

一態様において、プログラムは、上記制御方法をコンピュータに実行させる。   In one aspect, a program causes a computer to execute the control method.

上記の発明の概要は、本発明の特徴の全てを列挙したものではない。これらの特徴群のサブコンビネーションも発明となりうる。   The above summary of the invention does not enumerate all of the features of the present invention. A subcombination of these feature groups can also be an invention.

システムの構成の一例を示す図である。It is a figure showing an example of the composition of a system. UAV100の機能ブロックの一例を示す。An example of a functional block of UAV100 is shown. レンズ装置160がテレ端の状態にある場合の一例を示す。An example in case the lens apparatus 160 exists in the state of a tele end is shown. メモリ163に格納されるレンズ情報の一例を示す。An example of lens information stored in the memory 163 is shown. 重心情報の一例を示す。An example of gravity center information is shown. UAV100におけるUAV100の姿勢制御に関するブロック線図の一例を示す。An example of a block diagram regarding attitude control of UAV100 in UAV100 is shown. UAV100の姿勢を制御する制御フローの一例を示すフローチャートである。It is a flowchart which shows an example of the control flow which controls the attitude | position of UAV100. UAV制御部104が第1情報を受信してから第2情報をPID制御に出力するまでの制御フローの一例を示すフローチャートである。It is a flowchart which shows an example of the control flow after the UAV control part 104 receives 1st information until it outputs 2nd information to PID control. 撮像装置190の向きが変化した場合の一例を示す。An example when direction of imaging device 190 changes is shown. メモリ146に格納される撮像部情報の一例を示す。7 shows an example of imaging unit information stored in a memory 146.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through the embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Not all combinations of features described in the embodiments are essential to the solution of the invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイルまたはレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。   The claims, the description, the drawings, and the abstract contain matters that are subject to copyright protection. The copyright holder will not object to any copy of these documents as they appear in the Patent Office file or record. However, in all other cases, all copyrights are reserved.

図1は、システムの構成の一例を示す図である。システムは、無人航空機(UAV)100を備える。UAV100は、UAV本体101、ジンバル110、及び撮像装置190を備える。UAV本体101は、回転翼108a及び回転翼108bを含む複数の回転翼を有する。UAV本体101が有する複数の回転翼を、回転翼108と総称する場合がある。撮像装置190は、撮像部140及びレンズ装置160を備える。UAV100は、対象物を備えて移動する移動体の一例である。移動体とは、UAVの他、空中を移動する他の航空機、地上を移動する車両、水上を移動する船舶等を含む概念である。   FIG. 1 is a diagram showing an example of a system configuration. The system comprises an unmanned aerial vehicle (UAV) 100. The UAV 100 includes a UAV body 101, a gimbal 110, and an imaging device 190. UAV body 101 has a plurality of rotors including rotors 108a and rotors 108b. In some cases, a plurality of rotary wings included in the UAV main body 101 may be collectively referred to as rotary wings 108. The imaging device 190 includes an imaging unit 140 and a lens device 160. The UAV 100 is an example of a moving object that moves with an object. The moving body is a concept including UAVs, other aircraft moving in the air, vehicles moving on the ground, ships moving on the water, and the like.

UAV100は、回転翼108の回転を制御することで飛行する。UAV100は、例えば、4つの回転翼108を用いて飛行する。回転翼108の数は、4つには限定されない。UAV100は、回転翼108を有さない固定翼機でもよい。   The UAV 100 flies by controlling the rotation of the rotary wings 108. The UAV 100 flies using, for example, four rotors 108. The number of rotors 108 is not limited to four. UAV 100 may be a fixed wing aircraft that does not have rotors 108.

ジンバル110は、ジンバル110に対する撮像装置190の姿勢を変更可能に撮像部140及びレンズ装置160を支持する。ジンバル110は、少なくとも1つの軸を中心に撮像装置190を回転可能に支持してよい。例えば、ジンバル110は、撮像装置190を、ピッチ軸、ロール軸、及びヨー軸のそれぞれを中心に回転可能に支持する。ジンバル110は、撮像部140を保持してもよし、レンズ装置160を保持してもよい。   The gimbal 110 supports the imaging unit 140 and the lens device 160 so that the attitude of the imaging device 190 with respect to the gimbal 110 can be changed. The gimbal 110 may rotatably support the imaging device 190 about at least one axis. For example, the gimbal 110 rotatably supports the imaging device 190 about each of the pitch axis, the roll axis, and the yaw axis. The gimbal 110 may hold the imaging unit 140 or may hold the lens device 160.

撮像部140は、レンズ装置160を介して結像された光学像の画像データを生成して記録する。レンズ装置160は、いわゆる交換レンズである。レンズ装置160は、撮像部140に対して着脱可能である。   The imaging unit 140 generates and records image data of an optical image formed through the lens device 160. The lens device 160 is a so-called interchangeable lens. The lens device 160 is attachable to and detachable from the imaging unit 140.

図2は、UAV100の機能ブロックの一例を示す。UAV100は、UAV本体101、ジンバル110及び撮像装置190を備える。UAV本体101は、通信インタフェース102、UAV制御部104、センサ120、メモリ106、ドライバ107、検出部105、モータ109及び回転翼108を有する。   FIG. 2 shows an example of a functional block of the UAV 100. The UAV 100 includes a UAV main body 101, a gimbal 110, and an imaging device 190. The UAV main body 101 includes a communication interface 102, a UAV control unit 104, a sensor 120, a memory 106, a driver 107, a detection unit 105, a motor 109, and a rotary wing 108.

ドライバ107及びモータ109は、UAV100を移動させる駆動部として機能する。ドライバ107は、モータ109を駆動する。モータ109は、回転翼108を駆動する。モータ109は、複数の回転翼108のそれぞれに1つ設けられる。ドライバ107は、モータ109のそれぞれの駆動軸の回転速度を制御する。回転速度は、例えば単位時間あたりの回転数である。回転翼108は、対応するモータ109の駆動軸の回転によって回転される。UAV100は、回転翼108が回転することで飛行する。   The driver 107 and the motor 109 function as a drive unit for moving the UAV 100. The driver 107 drives the motor 109. The motor 109 drives the rotary wings 108. One motor 109 is provided for each of the plurality of rotary wings 108. The driver 107 controls the rotational speed of each drive shaft of the motor 109. The rotation speed is, for example, the number of rotations per unit time. The rotary wings 108 are rotated by rotation of the corresponding drive shaft of the motor 109. The UAV 100 flies as the rotor 108 rotates.

通信インタフェース102は、外部の送信機と通信する。通信インタフェース102は、遠隔の送信機から各種の命令を受信する。UAV制御部104は、送信機から受信した命令に従って、UAV100の飛行を制御する。UAV制御部104は、ジンバル110、撮像部140、及びレンズ装置160を制御する。   The communication interface 102 communicates with an external transmitter. Communication interface 102 receives various commands from a remote transmitter. The UAV control unit 104 controls the flight of the UAV 100 according to the command received from the transmitter. The UAV control unit 104 controls the gimbal 110, the imaging unit 140, and the lens device 160.

UAV制御部104は、CPU又はMPUなどのマイクロプロセッサ、MCUなどのマイクロコントローラなどにより構成されてよい。メモリ106は、UAV制御部104がジンバル110、撮像部140、及びレンズ装置160を制御するのに必要なプログラムなどを格納する。メモリ106は、コンピュータが可読な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。メモリ106は、UAV100の筐体に設けられてよい。メモリ106は、UAV100の筐体から取り外し可能に設けられてよい。UAV制御部104は、UAV100を制御装置として機能させてよい。この場合、UAV100の姿勢を調整するためのプログラムがメモリ106から読み出されて実行される。UAV制御部104は、UAV100を制御装置として機能させてよい。   The UAV control unit 104 may be configured by a microprocessor such as a CPU or an MPU, or a microcontroller such as an MCU. The memory 106 stores programs necessary for the UAV control unit 104 to control the gimbal 110, the imaging unit 140, and the lens device 160. The memory 106 may be a computer-readable recording medium, and may include at least one of SRAM, DRAM, EPROM, EEPROM, and flash memory such as USB memory. The memory 106 may be provided in the housing of the UAV 100. The memory 106 may be provided to be removable from the housing of the UAV 100. The UAV control unit 104 may cause the UAV 100 to function as a control device. In this case, a program for adjusting the attitude of the UAV 100 is read from the memory 106 and executed. The UAV control unit 104 may cause the UAV 100 to function as a control device.

検出部105は、UAV100の状況、又はUAV100の周囲の状況を検出する。検出部105は、例えば、UAV100の緯度、経度、及び高度を含む位置、及びUAV100の機首の向きに対応する方位を検出する。検出部105は、UAV100の周囲を撮像するセンシング用の撮像装置を含んでよい。   The detection unit 105 detects the situation of the UAV 100 or the situation around the UAV 100. The detection unit 105 detects, for example, a position including the latitude, longitude, and altitude of the UAV 100, and an azimuth corresponding to the heading of the UAV 100. The detection unit 105 may include an imaging device for sensing that captures the periphery of the UAV 100.

UAV制御部104は、確認部188を含む。確認部188は、UAV100の飛行前のイニシャライズを実行する。確認部188は、ドライバ107、モータ109、回転翼108、及び検出部105の動作確認を実行する。確認部188は、UAV100の飛行前に、ドライバ107、モータ109、回転翼108、及び検出部105の動作確認を実行してよい。確認部188は、UAV100の状況を検出する各種センサの動作確認を実行してよい。イニシャライズが実行される期間の一例は、UAV100に電源が投入されてからUAV100が移動し始めるまでの間の期間である。
UAV control unit 104 includes a confirmation unit 188. The confirmation unit 188 performs pre-flight initialization of the UAV 100. The confirmation unit 188 performs operation confirmation of the driver 107, the motor 109, the rotary wing 108, and the detection unit 105. The confirmation unit 188 may perform operation confirmation of the driver 107, the motor 109, the rotary wings 108, and the detection unit 105 before the flight of the UAV 100. The confirmation unit 188 may execute operation confirmation of various sensors that detect the state of the UAV 100. An example of a period in which the initialization is performed is a period from when the UAV 100 is powered on to when the UAV 100 starts moving.

センサ120は、UAV本体101の姿勢を取得するためのセンサである。センサ120は、ジンバル110の姿勢を検出してよい。センサ120は、ジャイロセンサであってよい。センサ120による姿勢の検出値は、UAV制御部104に出力される。UAV制御部104は、センサ120による姿勢の検出値に基づいて、UAV本体101及びジンバル110を制御する。   The sensor 120 is a sensor for acquiring the attitude of the UAV main body 101. The sensor 120 may detect the attitude of the gimbal 110. The sensor 120 may be a gyro sensor. The detected value of the posture by the sensor 120 is output to the UAV control unit 104. The UAV control unit 104 controls the UAV main body 101 and the gimbal 110 based on the detected value of the attitude by the sensor 120.

ジンバル110は、少なくとも1つの軸を中心に撮像装置190を回転可能に支持する。ジンバル110は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像装置190を回転可能に支持してよい。UAV制御部104は、ジンバル110に対する動作命令を出力する。動作命令は、ヨー角の目標値、ピッチ角の目標値、ロール角の目標値を含む。ヨー角は、ヨー軸まわりの撮像装置190の回転角度である。ピッチ角は、ピッチ軸まわりの撮像装置190の回転角度である。ロール角は、ロール軸まわりの撮像装置190の回転角度である。ジンバル110は、UAV制御部104から取得した動作命令に従って、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置190を回転させる。ジンバル110は、ヨー角、ピッチ角及びロール角をそれぞれの目標値に制御する。これにより、撮像装置190の向きが制御される。   The gimbal 110 rotatably supports the imaging device 190 about at least one axis. The gimbal 110 may rotatably support the imaging device 190 about the yaw axis, the pitch axis, and the roll axis. The UAV control unit 104 outputs an operation command to the gimbal 110. The motion command includes a target value of yaw angle, a target value of pitch angle, and a target value of roll angle. The yaw angle is a rotation angle of the imaging device 190 around the yaw axis. The pitch angle is a rotation angle of the imaging device 190 around the pitch axis. The roll angle is a rotation angle of the imaging device 190 around the roll axis. The gimbal 110 rotates the imaging device 190 about at least one of the yaw axis, the pitch axis, and the roll axis in accordance with the operation command acquired from the UAV control unit 104. The gimbal 110 controls the yaw angle, the pitch angle and the roll angle to their respective target values. Thereby, the orientation of the imaging device 190 is controlled.

撮像部140は、撮像制御部142、撮像素子144及びメモリ146を有する。撮像制御部142は、CPU又はMPUなどのマイクロプロセッサ、MCUなどのマイクロコントローラなどにより構成されてよい。撮像制御部142は、UAV制御部104からの撮像部140及びレンズ装置160の動作命令に応じて、撮像部140及びレンズ装置160を制御する。メモリ146は、コンピュータが可読な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。メモリ146は、撮像部140の筐体の内部に設けられてよい。撮像部140の筐体から取り外し可能に設けられてよい。   The imaging unit 140 includes an imaging control unit 142, an imaging element 144, and a memory 146. The imaging control unit 142 may be configured by a microprocessor such as a CPU or an MPU or a microcontroller such as an MCU. The imaging control unit 142 controls the imaging unit 140 and the lens device 160 in accordance with the operation command of the imaging unit 140 and the lens device 160 from the UAV control unit 104. The memory 146 may be a computer readable recording medium, and may include at least one of a SRAM, a DRAM, an EPROM, an EEPROM, and a flash memory such as a USB memory. The memory 146 may be provided inside the housing of the imaging unit 140. It may be provided to be removable from the housing of the imaging unit 140.

撮像素子144は、撮像部140の筐体の内部に保持され、レンズ装置160を介して結像された光学像の画像データを生成して、撮像制御部142に出力する。撮像制御部142は、撮像素子144から出力された画像データをメモリ146に格納する。撮像制御部142は、画像データを、UAV制御部104を介してメモリ106に出力して格納してもよい。   The imaging element 144 is held inside the casing of the imaging unit 140, generates image data of an optical image formed through the lens device 160, and outputs the image data to the imaging control unit 142. The imaging control unit 142 stores the image data output from the imaging element 144 in the memory 146. The imaging control unit 142 may output image data to the memory 106 via the UAV control unit 104 and store the image data.

レンズ装置160は、レンズ制御部162、メモリ163、レンズ164、レンズ166、及びレンズ168を有する。レンズ164、レンズ166、及びレンズ168は、レンズ系を形成する。レンズ164、レンズ166、及びレンズ168は、レンズ装置160の鏡筒の内部に配置される。レンズ164、レンズ166、及びレンズ168の一部又は全部は、光軸に沿って変位可能に保持されてよい。光軸に沿って変位可能なレンズは、可動レンズの一例である。レンズ制御部162は、撮像制御部142からの命令に従って、レンズ164、レンズ166、及びレンズ168の少なくとも一つを光軸に沿って移動させる。レンズ装置160が有するレンズにより結像された像は、撮像部140により撮像される。   The lens device 160 includes a lens control unit 162, a memory 163, a lens 164, a lens 166, and a lens 168. The lens 164, the lens 166, and the lens 168 form a lens system. The lens 164, the lens 166, and the lens 168 are disposed inside the barrel of the lens device 160. Some or all of the lens 164, the lens 166, and the lens 168 may be held displaceably along the optical axis. The lens displaceable along the optical axis is an example of a movable lens. The lens control unit 162 moves at least one of the lens 164, the lens 166, and the lens 168 along the optical axis in accordance with an instruction from the imaging control unit 142. The image formed by the lens of the lens device 160 is captured by the imaging unit 140.

本実施形態では、UAV100が、UAV制御部104、撮像制御部142、及びレンズ制御部162を備える例について説明する。しかし、UAV制御部104、撮像制御部142、及びレンズ制御部162のうちの2つ又は3つで実行される処理を1つの制御部で実行してもよい。
In the present embodiment, an example in which the UAV 100 includes the UAV control unit 104, the imaging control unit 142, and the lens control unit 162 will be described. However, UAV control unit 104, the processing to be executed two or three may be performed in one control unit in the imaging control unit 142 and the lens controller 162,.

UAV制御部104において、第1取得部170は、UAV本体101に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する。レンズ装置160が有する可動レンズは、変位部の一例である。撮像装置190は、変位部の一例である。UAV本体101は、本体部の一例である。   In the UAV control unit 104, the first acquisition unit 170 acquires first information indicating the position of the displacement destination of the displacement portion held displaceably with respect to the UAV main body 101. The movable lens included in the lens device 160 is an example of a displacement unit. The imaging device 190 is an example of a displacement unit. The UAV main body 101 is an example of a main body.

予測部130は、第1情報に基づいて、変位部が変位先の位置に変位した後のUAV本体101の姿勢を予測する。制御部180は、予測部130が予測したUAV本体101の姿勢に基づいて、UAV本体101の姿勢を制御する。   The prediction unit 130 predicts the attitude of the UAV main body 101 after the displacement unit is displaced to the position of the displacement destination based on the first information. The control unit 180 controls the attitude of the UAV main body 101 based on the attitude of the UAV main body 101 predicted by the prediction section 130.

予測部130は、第1情報及び変位部の質量に基づいて、変位部が変位先の位置に変位した後のUAV本体101の姿勢を予測する。制御部180は、予測部130が予測したUAV本体101の姿勢に基づいて、変位部が変位先の位置に変位することにより生じるUAV本体101の姿勢の変化が抑制されるように、UAV本体101の姿勢を制御する。   The prediction unit 130 predicts the attitude of the UAV main body 101 after the displacement portion is displaced to the position of the displacement destination based on the first information and the mass of the displacement portion. The control unit 180 controls the UAV main body 101 so that the change in the attitude of the UAV main body 101 caused by the displacement of the displacement portion to the position of the displacement destination is suppressed based on the attitude of the UAV main body 101 predicted by the prediction unit 130. Control the attitude of

予測部130は、変位部が変位前の位置から変位先の位置まで変位するまでの期間内の複数のタイミングのそれぞれにおける変位部の位置を予測する。予測部130は、予測した複数の位置のそれぞれについてUAV本体101の姿勢を予測する。制御部180は、複数のタイミングのそれぞれにおいて、それぞれのタイミングにおける変位部の位置について予測部130が予測したUAV本体101の姿勢に基づいて、UAV本体101の姿勢を制御する。   The prediction unit 130 predicts the position of the displacement portion at each of a plurality of timings in a period from the position before displacement to the displacement destination position. The prediction unit 130 predicts the attitude of the UAV main body 101 for each of the plurality of predicted positions. The control unit 180 controls the posture of the UAV main body 101 based on the posture of the UAV main body 101 predicted by the prediction unit 130 with respect to the position of the displacement portion at each of the plurality of timings.

制御部180は、UAV本体101の姿勢の目標値と、センサによるUAV本体101の姿勢の検出値と、予測部130が予測したUAV本体101の姿勢とに基づいて、UAV本体101の姿勢を制御する。制御部180は、予測部130が予測したUAV本体101の姿勢に基づくフィードフォワード制御を行う。   The control unit 180 controls the attitude of the UAV body 101 based on the target value of the attitude of the UAV body 101, the detected value of the attitude of the UAV body 101 by the sensor, and the attitude of the UAV body 101 predicted by the prediction unit 130. Do. The control unit 180 performs feedforward control based on the attitude of the UAV main body 101 predicted by the prediction unit 130.

変位部が可動レンズを含む場合、第1情報は、可動レンズを含むレンズ系の焦点距離に対応する可動レンズの変位先の位置を示す情報を含んでよい。第1情報は、焦点距離の変更先を示す情報であってよい。第1情報は、可動レンズを含むレンズ系のフォーカス位置に対応する可動レンズの変位先の位置を示す情報を含んでよい。第1情報は、フォーカス位置の変更先を示す情報であってよい。   When the displacement portion includes a movable lens, the first information may include information indicating a position of a displacement destination of the movable lens corresponding to a focal length of a lens system including the movable lens. The first information may be information indicating a change destination of the focal length. The first information may include information indicating the position of the displacement destination of the movable lens corresponding to the focus position of the lens system including the movable lens. The first information may be information indicating a change destination of the focus position.

メモリ106は、可動レンズの複数の位置に対応づけて、レンズ系を含むレンズ装置の重心位置を格納する。予測部130は、第1情報が示す可動レンズの変位先の位置に対応づけてメモリ106が格納している重心位置と、レンズ装置の質量とに基づいて、第1情報が示す可動レンズの変位先の位置に可動レンズが変位した後のUAV本体101の姿勢を予測する。   The memory 106 stores the barycentric position of the lens apparatus including the lens system in association with a plurality of positions of the movable lens. The prediction unit 130 associates the position of the displacement destination of the movable lens indicated by the first information with the position of the center of gravity stored in the memory 106 and the mass of the lens apparatus to indicate the displacement of the movable lens indicated by the first information. The posture of the UAV main body 101 after the movable lens is displaced to the previous position is predicted.

可動レンズが、UAV本体101に着脱可能な交換レンズが有するレンズ系に含まれる場合、第2取得部172は、UAV本体101に装着されている交換レンズから、交換レンズの焦点距離及びフォーカス位置の少なくとも一方に対応する交換レンズの重心位置及び交換レンズの質量を示す第2情報を取得してよい。第2取得部172は、UAV100の飛行前のイニシャライズを実行している期間に、第2情報を取得してよい。   When the movable lens is included in the lens system included in the interchangeable lens that can be attached to and detached from the UAV main body 101, the second acquiring unit 172 can set the focal distance and focus position of the interchangeable lens from the interchangeable lens attached to the UAV main body 101. Second information indicating the position of the center of gravity of the interchangeable lens corresponding to at least one and the mass of the interchangeable lens may be acquired. The second acquiring unit 172 may acquire the second information in a period in which the pre-flight initialization of the UAV 100 is performed.

撮像装置190がUAV本体101に対して向きが可変に設けられる場合、撮像装置190は変位部の一例である。変位部の変位は、撮像装置の向きの変化に対応する。   When the imaging device 190 is provided to be variable in direction with respect to the UAV main body 101, the imaging device 190 is an example of a displacement unit. The displacement of the displacement portion corresponds to the change in the orientation of the imaging device.

撮像装置190は、UAV本体101に着脱可能であってよい。この場合、第2取得部172は、UAV本体101に装着されている撮像装置190から、撮像装置190の重心位置及び撮像装置の質量を示す第2情報を取得してよい。第2取得部172は、UAV100の飛行前のイニシャライズを実行している期間に、第2情報を取得してよい。   The imaging device 190 may be removable from the UAV body 101. In this case, the second acquisition unit 172 may acquire, from the imaging device 190 mounted on the UAV main body 101, second information indicating the gravity center position of the imaging device 190 and the mass of the imaging device. The second acquiring unit 172 may acquire the second information in a period in which the pre-flight initialization of the UAV 100 is performed.

図3は、レンズ装置160がテレ端の状態にある場合の一例を示す。図3が示すレンズ装置160の状態は、図1が示すレンズ装置160の状態とは異なる。例えば、図1はレンズ装置160がワイド端の状態を示す。この点を除いて、図3が示すUAV100の状態は、図1が示す状態と同じである。   FIG. 3 shows an example where the lens apparatus 160 is in the tele end state. The state of the lens device 160 shown in FIG. 3 is different from the state of the lens device 160 shown in FIG. For example, FIG. 1 shows the lens apparatus 160 in the wide end state. Except for this point, the state of UAV 100 shown in FIG. 3 is the same as the state shown in FIG.

レンズ装置160の焦点距離は、レンズ装置160が有する可動レンズを変位させることで調整される。レンズ装置160のフォーカス位置は、レンズ装置160が有する可動レンズを変位させることで調整される。可動レンズが変位することで、レンズ装置160の重心位置が変化する。レンズ装置160の重心位置は、可動レンズの変位の他に、可動レンズを保持する可動鏡筒やレンズ枠の変位によって変化する。レンズ装置160の重心位置が変化することによって、UAV100の重心位置が変化する。   The focal length of the lens device 160 is adjusted by displacing the movable lens of the lens device 160. The focus position of the lens device 160 is adjusted by displacing the movable lens of the lens device 160. The displacement of the movable lens changes the position of the center of gravity of the lens device 160. The position of the center of gravity of the lens device 160 changes due to the displacement of the movable lens barrel that holds the movable lens and the lens frame, in addition to the displacement of the movable lens. By changing the position of the center of gravity of the lens device 160, the position of the center of gravity of the UAV 100 changes.

G1は、UAV100が図1の状態にある場合のUAV100の重心位置を示す。G2は、UAV100が図3の状態にある場合のUAV100の重心位置を示す。UAV100が図1に示される状態から、レンズ装置160をテレ端の状態に変化させた場合、レンズ装置160の重心位置の変化によって、UAV100の重心位置はG1の位置からG2の位置に変化する。そのため、レンズ装置160をテレ端の状態にした場合においても、UAV100の姿勢が変化しないようにするためには、例えば回転翼108aの回転速度を低下させ、回転翼108bの回転速度を上昇させる必要がある。   G1 indicates the position of the center of gravity of the UAV 100 when the UAV 100 is in the state of FIG. G2 indicates the position of the center of gravity of the UAV 100 when the UAV 100 is in the state of FIG. When the UAV 100 is changed from the state shown in FIG. 1 to the state of the tele end, the change of the position of the center of gravity of the lens device 160 changes the position of the center of gravity of the UAV 100 from the position of G1 to the position of G2. Therefore, even when the lens unit 160 is in the tele end state, for example, the rotational speed of the rotary wing 108a needs to be reduced and the rotary speed of the rotary wing 108b needs to be increased in order to prevent the attitude of the UAV 100 from changing. There is.

制御部180は、センサ120によるUAV100の姿勢の検出値を用いるフィードバック制御により、UAV100の姿勢を制御する。例えば、制御部180は、PID制御により、UAV100の姿勢を制御する。これにより、例えばUAV100の姿勢の変化が生じると、UAV100の姿勢の変化をキャンセルするように回転翼108の回転速度を増減させる。   The control unit 180 controls the attitude of the UAV 100 by feedback control using the detection value of the attitude of the UAV 100 by the sensor 120. For example, the control unit 180 controls the attitude of the UAV 100 by PID control. Thus, for example, when a change in the attitude of the UAV 100 occurs, the rotational speed of the rotary wing 108 is increased or decreased so as to cancel the change in the attitude of the UAV 100.

制御部180は、フィードバック制御に加えて、レンズ装置160の可動レンズの変位に基づくフィードフォワード制御により、UAV100の姿勢を制御する。具体的には、予測部130は、可動レンズの変位により生じるレンズ装置160の重心位置の変化量と、レンズ装置160の質量とを用いて、UAV100の姿勢の変化を予測する。制御部180は、予測されたUAV100の姿勢の変化に応じたフィードフォワード補償値を、レンズ装置160の可動レンズの変位に同期して、PID制御の入力に加算する。これにより、レンズ装置160の重心位置の変化分を事前に計算して回転翼108の回転速度を速やかに制御することができる。そのため、フィードフォワード制御を用いずにフィードバック制御のみを用いる場合に比べて、レンズ装置160の重心位置の変化に起因して生じるUAV100の揺れを抑制することができる。   The control unit 180 controls the attitude of the UAV 100 by feedforward control based on the displacement of the movable lens of the lens device 160, in addition to feedback control. Specifically, the prediction unit 130 predicts the change in the attitude of the UAV 100 using the amount of change in the position of the center of gravity of the lens device 160 caused by the displacement of the movable lens and the mass of the lens device 160. The control unit 180 adds the feedforward compensation value corresponding to the predicted change in the attitude of the UAV 100 to the input of PID control in synchronization with the displacement of the movable lens of the lens device 160. Thus, it is possible to calculate in advance the change in the position of the center of gravity of the lens device 160 and to control the rotational speed of the rotary blade 108 promptly. Therefore, compared with the case where only feedback control is used without using feedforward control, it is possible to suppress the vibration of UAV 100 that is caused due to the change in the position of the center of gravity of lens device 160.

図4は、メモリ163に格納されるレンズ情報の一例を示す。レンズ情報は、レンズ種別ID、質量情報、及び重心情報を含む。レンズ種別IDは、例えばレンズの型番である。質量情報は、レンズ装置160の質量を示す情報である。重心情報は、レンズ装置160の重心位置を示す情報である。   FIG. 4 shows an example of lens information stored in the memory 163. Lens information includes lens type ID, mass information, and gravity center information. The lens type ID is, for example, a model number of the lens. The mass information is information indicating the mass of the lens device 160. The gravity center information is information indicating the gravity center position of the lens device 160.

図5は、重心情報の一例を示す。重心情報は、レンズ位置及びレンズ位置に対応する重心位置を含む。レンズ装置160が1つの可動レンズを有する場合、レンズ位置は、当該1つの可動レンズの位置を示す。重心位置は、対応するレンズ位置に可動レンズがある場合のレンズ装置160の重心位置を示す。レンズ装置160が2以上の可動レンズを有する場合、レンズ位置は、当該2以上の可動レンズのそれぞれの位置を示す。重心位置は、対応するレンズ位置が示す各可動レンズの位置にそれぞれの可動レンズがある場合のレンズ装置160の重心位置を示す。このように、重心情報は、複数のレンズ位置にそれぞれレンズ装置160の重心位置を対応づける。   FIG. 5 shows an example of the barycentric information. The gravity center information includes the lens position and the gravity center position corresponding to the lens position. When the lens device 160 has one movable lens, the lens position indicates the position of the one movable lens. The barycentric position indicates the barycentric position of the lens device 160 when the movable lens is at the corresponding lens position. When the lens device 160 has two or more movable lenses, the lens position indicates the position of each of the two or more movable lenses. The position of the center of gravity indicates the position of the center of gravity of the lens device 160 when the movable lens is at the position of each movable lens indicated by the corresponding lens position. Thus, the barycentric information associates the barycentric position of the lens device 160 with the plurality of lens positions.

重心位置は、予め定められた基準位置を原点とした場合のレンズ装置160の重心位置の座標であってよい。基準位置は、例えば、撮像部140の撮像素子144の位置であってよい。基準位置は、レンズ装置160の光軸上に設けられてよい。重心位置は、光軸に沿って測定される、撮像素子144からの距離であってよい。レンズ装置160が交換レンズである場合、基準位置は、レンズ装置160をマウントする撮像部140のマウント面内に設けられてよい。   The position of the center of gravity may be coordinates of the position of the center of gravity of the lens device 160 when the predetermined reference position is the origin. The reference position may be, for example, the position of the imaging element 144 of the imaging unit 140. The reference position may be provided on the optical axis of the lens device 160. The position of the center of gravity may be the distance from the imaging device 144 measured along the optical axis. When the lens device 160 is an interchangeable lens, the reference position may be provided in the mounting surface of the imaging unit 140 for mounting the lens device 160.

UAV制御部104において、第2取得部172は、メモリ163に格納されているレンズ情報を、レンズ制御部162及び撮像制御部142を通じて取得する。例えば、第2取得部172は、取得したレンズ情報をメモリ106に格納する。メモリ106に格納されたレンズ情報は、予測部130及び制御部180の処理に用いられる。   In the UAV control unit 104, the second acquisition unit 172 acquires lens information stored in the memory 163 through the lens control unit 162 and the imaging control unit 142. For example, the second acquisition unit 172 stores the acquired lens information in the memory 106. The lens information stored in the memory 106 is used for processing of the prediction unit 130 and the control unit 180.

図6は、UAV100におけるUAV100の姿勢制御に関するブロック線図の一例を示す。ブロック線図は、加え合わせ点200、伝達要素210、伝達要素220、伝達要素230、加え合わせ点202、伝達要素240、作用素250、伝達要素260、伝達要素270、伝達要素280、及び加え合わせ点204を含む。   FIG. 6 shows an example of a block diagram related to attitude control of the UAV 100 in the UAV 100. The block diagram is shown as summing point 200, transfer element 210, transfer element 220, transfer element 230, add point 202, transfer element 240, operator 250, transfer element 260, transfer element 270, transfer element 280, and add point Including 204.

図6のブロック線図において、制御対象は、伝達要素230で表されるUAV100である。制御量は、UAV100の姿勢角の角速度又はUAV100の姿勢角である。UAV100の姿勢角の角速度は、伝達要素240で表されるセンサ120により検出される。センサ120による検出値の状態変数は、積分要素である作用素250によって姿勢角の状態変数に変換される。   In the block diagram of FIG. 6, the control target is the UAV 100 represented by the transfer element 230. The control amount is the angular velocity of the attitude angle of the UAV 100 or the attitude angle of the UAV 100. The angular velocity of the attitude angle of the UAV 100 is detected by the sensor 120 represented by the transfer element 240. The state variable of the value detected by the sensor 120 is converted to the state variable of the attitude angle by the operator 250 which is an integral element.

Rは、UAV100の姿勢角の目標値の状態変数を表す。加え合わせ点200は、目標値の状態変数の加算を行う。加え合わせ点200は、作用素250の出力の状態変数の減算を行う。伝達要素210は、制御部180のPID制御を表す。具体的には、伝達要素210は、制御部180が誤差信号に基づいて、ドライバ107に対する駆動信号を生成する動作を表す。伝達要素220は、ドライバ107が駆動信号に基づいてモータ109の駆動電流を生成する動作を表す伝達要素である。伝達要素230は、モータ109が駆動電流により駆動されて回転翼108が回転して、UAV100の姿勢角の角速度が変化する現象を表す。加え合わせ点202は、UAV100の姿勢角の角速度の状態変数に、回転翼108以外の作用で生じる姿勢角の角速度の状態変数を加算する。伝達要素210、伝達要素220、伝達要素230、加え合わせ点202、伝達要素240、作用素250、加え合わせ点200により、フィードバック制御系を形成する。   R represents a state variable of the target value of the attitude angle of the UAV 100. The summing point 200 adds the state variables of the target value. The summing point 200 subtracts state variables of the output of the operator 250. The transfer element 210 represents PID control of the control unit 180. Specifically, the transfer element 210 represents an operation in which the control unit 180 generates a drive signal for the driver 107 based on the error signal. The transfer element 220 is a transfer element that represents an operation in which the driver 107 generates a drive current of the motor 109 based on the drive signal. The transfer element 230 represents a phenomenon in which the angular velocity of the attitude angle of the UAV 100 changes as the motor 109 is driven by the drive current to rotate the rotary blade 108. The joint point 202 adds the state variable of the angular velocity of the attitude angle generated by the action other than the rotary blade 108 to the state variable of the angular velocity of the attitude angle of the UAV 100. The transfer element 210, the transfer element 220, the transfer element 230, the adding point 202, the transfer element 240, the operator 250, and the adding point 200 form a feedback control system.

伝達要素260は、レンズ制御部162が可動レンズを変位させる第1情報を出力する動作を表す。第1情報に応じて可動レンズが変位すると、レンズ装置160の重心位置が変化する。レンズ装置160の重心位置の変化により、UAV100の姿勢角の角速度が変化する。伝達要素270は、第1情報の出力により、レンズ装置160の重心位置が変化して、UAV100の姿勢角の角速度が変化する現象を表す。加え合わせ点204は、姿勢角の角速度の変化量の状態変数の加算を行う。加え合わせ点204は、外乱による姿勢角の角速度の変化量を表す状態変数の加算を行う。外乱としては、風等によるUAV100の姿勢角の変化を例示できる。加え合わせ点204が出力する状態変数は、加え合わせ点202において、伝達要素230が出力するUAV100の姿勢角の角速度の状態変数に加算される。   The transfer element 260 represents an operation in which the lens control unit 162 outputs first information for displacing the movable lens. When the movable lens is displaced according to the first information, the position of the center of gravity of the lens device 160 changes. The change in the position of the center of gravity of the lens device 160 changes the angular velocity of the attitude angle of the UAV 100. The transfer element 270 represents a phenomenon in which the angular position of the lens device 160 changes due to the output of the first information, and the angular velocity of the attitude angle of the UAV 100 changes. The addition point 204 performs addition of state variables of the amount of change in angular velocity of the attitude angle. The joint point 204 performs addition of state variables representing the amount of change in angular velocity of the attitude angle due to disturbance. As the disturbance, a change in the attitude angle of the UAV 100 due to wind or the like can be exemplified. The state variable output by the summing point 204 is added at the summing point 202 to the state variable of the angular velocity of the attitude angle of the UAV 100 output by the transfer element 230.

伝達要素280は、予測部130が第1情報に基づいてUAV100の姿勢角の変化量の予測値を生成する動作を表す。加え合わせ点200は、予測部130が生成した予測値を示す状態変数の加算を行う。このように、伝達要素280により生成される予測値の状態変数は、フィードフォワード補償値として制御ループの入力に加算される。   The transfer element 280 represents an operation in which the prediction unit 130 generates a predicted value of the change amount of the attitude angle of the UAV 100 based on the first information. The addition point 200 performs addition of a state variable indicating the predicted value generated by the prediction unit 130. Thus, the state variable of the predicted value generated by transfer element 280 is added to the input of the control loop as a feedforward compensation value.

図7は、UAV100の姿勢を制御する制御フローの一例を示すフローチャートである。S310において、レンズ制御部162は、可動レンズに対し第1情報を出力する。第1情報は、レンズ装置160の可動レンズを変位させることを示す情報である。   FIG. 7 is a flowchart showing an example of a control flow for controlling the attitude of the UAV 100. In S310, the lens control unit 162 outputs the first information to the movable lens. The first information is information indicating that the movable lens of the lens device 160 is displaced.

例えば、レンズ制御部162は、レンズ装置160の焦点距離を変更する命令を撮像制御部142から取得すると、レンズ装置160が有する1以上の可動レンズの変位先の位置である将来位置と、変位タイミングとを決定する。可動レンズの将来位置は、焦点距離により定まる。変位タイミングは、可動レンズが変位を開始する時刻であってよい。例えば、レンズ制御部162は、30ms後に可動レンズの変位を開始することを決定する。変位タイミングは、可動レンズが変位を終了する時刻であってよい。第1情報は、可動レンズの将来位置と、変位タイミングとを示す情報を含む。第1情報は、撮像制御部142を通じてUAV制御部104にも出力される。   For example, when the lens control unit 162 obtains from the imaging control unit 142 a command to change the focal length of the lens device 160, the future position which is the position of the displacement destination of one or more movable lenses of the lens device 160 and the displacement timing And decide. The future position of the movable lens is determined by the focal length. The displacement timing may be the time at which the movable lens starts displacement. For example, the lens control unit 162 determines to start displacement of the movable lens after 30 ms. The displacement timing may be the time when the movable lens ends displacement. The first information includes information indicating the future position of the movable lens and the displacement timing. The first information is also output to the UAV control unit 104 through the imaging control unit 142.

S320において、第1情報に基づいて、可動レンズが変位する。S330において、制御部180は、可動レンズが変位するタイミングで第2情報をPID制御に出力する。第2情報は、フィードフォワード補償値を示す情報である。S330における処理の一例は、図8に関連して説明する。   In S320, the movable lens is displaced based on the first information. In S330, the control unit 180 outputs the second information to the PID control at the timing when the movable lens is displaced. The second information is information indicating a feedforward compensation value. An example of the process in S330 will be described with reference to FIG.

S340において、センサ120がジンバル110の角速度を検出することにより、UAV100の姿勢角の角速度を検出する。S350において、ドライバ107が、回転翼108の回転速度を制御する。例えば、制御部180のPID制御には、UAV100の姿勢角の目標値とフィードフォワード補償値との加算値と、センサ120によるUAV100の姿勢角の検出値との誤差信号が入力される。制御部180のPID制御において、誤差信号に基づいてドライバ107の駆動信号が生成される。ドライバ107が駆動信号に従ってモータ109を駆動することにより、回転翼108の回転速度が制御される。   In S340, the sensor 120 detects the angular velocity of the gimbal 110 to detect the angular velocity of the attitude angle of the UAV 100. In S350, the driver 107 controls the rotational speed of the rotary wing 108. For example, an error signal of the addition value of the target value of the attitude angle of the UAV 100 and the feedforward compensation value and the detection value of the attitude angle of the UAV 100 by the sensor 120 is input to the PID control of the control unit 180. In PID control of the control unit 180, a drive signal of the driver 107 is generated based on the error signal. The rotational speed of the rotary wing 108 is controlled by the driver 107 driving the motor 109 in accordance with the drive signal.

図8は、UAV制御部104が第1情報の受信から第2情報をPID制御に出力するまでの制御フローの一例を示すフローチャートである。S400において、第1取得部170は、第1情報を受信する。S410において、第1取得部170は、レンズ装置160の可動レンズの現在位置、将来位置、変位速度、変位開始時刻及びUAV100の姿勢角を取得する。第1取得部170は、可動レンズの現在位置及び変位速度をレンズ制御部162から取得する。   FIG. 8 is a flowchart showing an example of a control flow from the reception of the first information to the output of the second information to the PID control by the UAV control unit 104. In S400, the first acquisition unit 170 receives the first information. In S410, the first acquisition unit 170 acquires the current position, the future position, the displacement speed, the displacement start time, and the attitude angle of the UAV 100 of the movable lens of the lens device 160. The first acquisition unit 170 acquires the current position and displacement speed of the movable lens from the lens control unit 162.

S40において、予測部130は、可動レンズの停止時刻を算出する。停止時刻は、可動レンズの変位が終了する時刻である。予測部130は、レンズ装置160の可動レンズの現在位置、将来位置及び変位速度に基づいて、可動レンズの停止時刻を算出する。
In S4 2 0, the prediction unit 130 calculates the stop time of the movable lens. The stop time is the time at which the displacement of the movable lens ends. The prediction unit 130 calculates the stop time of the movable lens based on the current position, the future position, and the displacement velocity of the movable lens of the lens device 160.

S430において、予測部130は、現在時刻が可動レンズの停止時刻に一致する又は現在時刻が可動レンズの停止時刻を過ぎたかを判断する。現在時刻が可動レンズの停止時刻に一致する又は現在時刻が可動レンズの停止時刻を過ぎた場合は、制御フローを終了する。現在時刻が可動レンズの停止時刻より前である場合は、S440に処理を進める。   In S430, the prediction unit 130 determines whether the current time coincides with the stop time of the movable lens or whether the current time has passed the stop time of the movable lens. If the current time coincides with the stop time of the movable lens or the current time passes the stop time of the movable lens, the control flow is ended. If the current time is before the stop time of the movable lens, the process proceeds to S440.

S440において、予測部130は、主制御ループのフレーム時間を取得する。主制御ループは、例えば、図6に示すフィードバックループである。フレーム時間は、フィードバックループにおける制御周期である。   In S440, the prediction unit 130 acquires the frame time of the main control loop. The main control loop is, for example, a feedback loop shown in FIG. The frame time is the control period in the feedback loop.

S450において、予測部130は、可動レンズの変位開始時刻と停止時刻との間の各フレームにおいて、UAV100の姿勢角の変化量の予測値を生成する。例えば、変位開始時刻から変位終了時刻までの期間が10msであり、フレーム時間が1msである場合、予測部130は、10フレームの各フレームにおいて、UAV100の姿勢角の変化量の予測値を生成する。各フレームにおけるUAV100の姿勢角の変化量の予測値は、各フレームにおけるフィードフォワード補償値の一例である。   In S450, the prediction unit 130 generates a predicted value of the amount of change of the attitude angle of the UAV 100 in each frame between the displacement start time and the stop time of the movable lens. For example, when the period from the displacement start time to the displacement end time is 10 ms and the frame time is 1 ms, the prediction unit 130 generates a predicted value of the amount of change of the attitude angle of the UAV 100 in each of 10 frames. . The predicted value of the amount of change in attitude angle of the UAV 100 in each frame is an example of a feedforward compensation value in each frame.

予測部130は、各フレームにおける姿勢角の変化量を、レンズ装置160の現在の重心位置からの重心位置の変化量及びレンズ装置160の質量に基づいて、予測する。予測部130は、レンズ装置160の質量を図4に示すレンズ情報から特定する。予測部130は、レンズ装置160の重心位置の変化量を、図5に示す重心情報を用いて特定する。例えば、予測部130は、現在の可動レンズの位置に基づいて、レンズ装置160の現在の重心位置を特定する。予測部130は、各フレームにおける可動レンズの位置に基づいて、各フレームにおけるレンズ装置160の重心位置を特定する。予測部130は、各フレームにおけるレンズ装置160の重心位置と、レンズ装置160の現在の重心位置とに基づいて、各フレームにおける重心位置の変化量を特定する。   The prediction unit 130 predicts the amount of change in the posture angle in each frame based on the amount of change in the position of the center of gravity from the current position of the center of gravity of the lens device 160 and the mass of the lens device 160. The prediction unit 130 specifies the mass of the lens device 160 from the lens information shown in FIG. The prediction unit 130 specifies the amount of change of the center-of-gravity position of the lens device 160 using the center-of-gravity information shown in FIG. For example, the prediction unit 130 identifies the current center-of-gravity position of the lens device 160 based on the current position of the movable lens. The prediction unit 130 identifies the gravity center position of the lens device 160 in each frame based on the position of the movable lens in each frame. The prediction unit 130 identifies the amount of change in the position of the center of gravity in each frame based on the position of the center of gravity of the lens device 160 in each frame and the current position of the center of gravity of the lens device 160.

S460において、制御部180は、現在時刻が可動レンズの変位開始時刻より前であるか否かを判断する。現在時刻が可動レンズの変位開始時刻より前である場合、現在時刻が可動レンズの変位開始時刻に一致する又は現在時刻が可動レンズの変位開始時刻を超えるまで、S460の判断を繰り返す。現在時刻が可動レンズの変位開始時刻に一致する又は現在時刻が可動レンズの変位開始時刻を超えた場合、S470に処理を進める。   In S460, the control unit 180 determines whether the current time is before the displacement start time of the movable lens. If the current time is earlier than the displacement start time of the movable lens, the determination of S460 is repeated until the current time coincides with the displacement start time of the movable lens or the current time exceeds the displacement start time of the movable lens. If the current time coincides with the displacement start time of the movable lens or the current time exceeds the displacement start time of the movable lens, the process proceeds to S470.

S470において、制御部180は、予測部130がS450で予測した各フレームにおける姿勢角の変化量の予測値の出力を開始する。例えば、制御部180は、予測部130が予測した各フレームにおける姿勢角の変化量の予測値を、対応するフレームにおいてPID制御へ出力する。姿勢角の変化量の予測値の出力を開始するフレームは、変位開始時刻に対応するフレームでなくてよい。姿勢角の変化量の予測値の出力を開始するフレームは、変位開始時刻に対応するフレームより後のフレームであってよい。フィードバックループにおけるフレームとの対応関係が保たれていれば、変位開始時刻に対応するフレームより後のフレームから、姿勢角の変化量の予測値の出力を開始してよい。制御部180は、変位停止時刻に対応するフレームにおいて姿勢角の変化量の予測値を出力すると、制御フローを終了する。   In S470, the control unit 180 starts output of the predicted value of the amount of change in attitude angle in each frame predicted by the prediction unit 130 in S450. For example, the control unit 180 outputs the predicted value of the amount of change in attitude angle in each frame predicted by the prediction unit 130 to PID control in the corresponding frame. The frame that starts to output the predicted value of the amount of change of the attitude angle may not be the frame corresponding to the displacement start time. The frame that starts to output the predicted value of the change amount of the attitude angle may be a frame after the frame corresponding to the displacement start time. If the correspondence with the frame in the feedback loop is maintained, the output of the predicted value of the amount of change in attitude angle may be started from the frame after the frame corresponding to the displacement start time. When the control unit 180 outputs the predicted value of the change amount of the attitude angle in the frame corresponding to the displacement stop time, the control flow ends.

図9は、撮像装置190の向きが変化した状態の一例を示す。図9が示す撮像装置190の状態は、図1が示す撮像装置190の状態とは異なる。例えば、図9は、撮像装置190のピッチ角が変化した状態にある。この点を除いて、図9が示すUAV100の状態は、図1が示す状態と同じである。   FIG. 9 shows an example of a state in which the orientation of the imaging device 190 has changed. The state of the imaging device 190 shown in FIG. 9 is different from the state of the imaging device 190 shown in FIG. For example, in FIG. 9, the pitch angle of the imaging device 190 is changed. Except for this point, the state of the UAV 100 shown in FIG. 9 is the same as the state shown in FIG.

G3は、UAV100が図9の状態にある場合のUAV100の重心位置を示す。UAV100が図1に示される状態から、撮像装置190のピッチ角を図9の状態に変化させた場合、UAV100の重心位置はG1の位置からG3の位置に変化する。そのため、UAV100の姿勢が変化しないようにするためには、例えば回転翼108aの回転速度を上昇させ、回転翼108bの回転速度を低下させる必要がある。   G3 indicates the position of the center of gravity of the UAV 100 when the UAV 100 is in the state of FIG. When the pitch angle of the imaging device 190 is changed to the state of FIG. 9 from the state in which the UAV 100 is shown in FIG. 1, the barycentric position of the UAV 100 changes from the position of G1 to the position of G3. Therefore, in order to prevent the attitude of the UAV 100 from changing, for example, it is necessary to increase the rotational speed of the rotary wing 108a and to lower the rotational speed of the rotary wing 108b.

制御部180は、レンズ装置160の重心位置が変化した場合と同様に、撮像装置190の向きの変化に基づくフィードフォワード制御により、UAV100の姿勢を制御する。具体的には、予測部130は、撮像部140の向きの変化により生じる撮像部140及びレンズ装置160の重心位置の変化量と、撮像部140の質量と、レンズ装置160の質量とを用いて、UAV100の姿勢の変化を予測する。このように、予測部130は、撮像装置190の向きの変化により生じる撮像装置190の重心位置の変化量と、撮像装置190の質量とを用いて、UAV100の姿勢の変化量を予測する。UAV100の姿勢の変化量の予測値は、フィードフォワード補償値として生成される。   The control unit 180 controls the attitude of the UAV 100 by feedforward control based on the change in the direction of the imaging device 190, as in the case where the position of the center of gravity of the lens device 160 changes. Specifically, prediction unit 130 uses the amount of change in the position of the center of gravity of imaging unit 140 and lens unit 160 caused by the change in the orientation of imaging unit 140, the mass of imaging unit 140, and the mass of lens unit 160. , Predict changes in attitude of UAV 100. As described above, the prediction unit 130 predicts the amount of change in the attitude of the UAV 100 using the amount of change in the position of the center of gravity of the imaging device 190 caused by the change in the direction of the imaging device 190 and the mass of the imaging device 190. The predicted value of the amount of change in attitude of the UAV 100 is generated as a feedforward compensation value.

制御部180は、生成したフィードフォワード補償値を、撮像装置190の向きの変化に同期して、PID制御の入力に加算する。これにより、撮像装置190の重心位置の変化分を事前に計算して回転翼108の回転速度を速やかに制御することができる。そのため、フィードフォワード制御を用いずにフィードバック制御のみを用いる場合に比べて、UAV100の揺れを抑制することができる。   The control unit 180 adds the generated feedforward compensation value to the input of PID control in synchronization with the change in the orientation of the imaging device 190. As a result, it is possible to calculate in advance the change in the position of the center of gravity of the imaging device 190 and to control the rotational speed of the rotary blade 108 promptly. Therefore, the fluctuation of the UAV 100 can be suppressed as compared with the case where only the feedback control is used without using the feedforward control.

図9に関連して、ピッチ角の変化により生じる撮像装置190の重心位置の変化を説明した。ピッチ角の変化だけでなく、ヨー角の変化によっても撮像装置190の重心位置が変化する。したがって、撮像装置190の重心位置は、ピッチ角及びヨー角の組み合わせによって変化する。本実施形態では、ロール角の変化によっては変化しないとする。撮像装置190の重心位置がロール軸上にある場合は、ロール角の変化によっては撮像装置190の重心位置は変化しない。   The change in the position of the center of gravity of the imaging device 190 caused by the change in pitch angle has been described with reference to FIG. The center-of-gravity position of the imaging device 190 changes due to not only the change of the pitch angle but also the change of the yaw angle. Therefore, the barycentric position of the imaging device 190 changes with the combination of the pitch angle and the yaw angle. In this embodiment, it is assumed that there is no change due to the change of the roll angle. When the gravity center position of the imaging device 190 is on the roll axis, the gravity center position of the imaging device 190 does not change due to the change of the roll angle.

図10は、メモリ146に格納される撮像部情報の一例を示す。撮像部情報は、撮像部種別ID、質量情報、及び重心位置情報を含む。撮像部種別IDは、例えば撮像部140の型番である。質量情報は、撮像部140の質量を示す情報である。重心位置情報は、撮像部140の重心位置を示す情報である。   FIG. 10 shows an example of imaging unit information stored in the memory 146. The imaging unit information includes imaging unit type ID, mass information, and gravity center position information. The imaging unit type ID is, for example, a model number of the imaging unit 140. The mass information is information indicating the mass of the imaging unit 140. The gravity center position information is information indicating the gravity center position of the imaging unit 140.

重心位置は、予め定められた基準位置を原点として表される座標であってよい。基準位置は、例えば、ジンバル110が撮像部140を把持する把持位置であってよい。基準位置は、ピッチ軸上に設けられてよい。   The barycentric position may be coordinates that are represented with a predetermined reference position as an origin. The reference position may be, for example, a gripping position at which the gimbal 110 grips the imaging unit 140. The reference position may be provided on the pitch axis.

UAV制御部104において、第2取得部172は、メモリ146に格納される撮像部情報を、撮像制御部142を通じて取得する。例えば、第2取得部172は、取得した撮像部情報をメモリ106に格納する。メモリ106に格納された撮像部情報は、予測部130及び制御部180の処理に用いられる。   In the UAV control unit 104, the second acquisition unit 172 acquires imaging unit information stored in the memory 146 through the imaging control unit 142. For example, the second acquisition unit 172 stores the acquired imaging unit information in the memory 106. The imaging unit information stored in the memory 106 is used for processing of the prediction unit 130 and the control unit 180.

予測部130及び制御部180は、図4及び図5に示すレンズ情報及び図10に示す撮像部情報に基づいて、レンズ装置160の可動レンズの位置、ピッチ角、及びヨー角の組み合わせにおける撮像装置190の重心位置を算出できる。予測部130及び制御部180は、図4に示すレンズ情報及び図10に示す撮像部情報に基づいて、撮像装置190の質量を算出できる。予測部130及び制御部180は、レンズ装置160の可動レンズの位置及び撮像装置190の向きの少なくとも一方を変化させる場合における、重心位置の変化を算出できる。これにより、予測部130及び制御部180は、レンズ装置160の可動レンズの位置及び撮像装置190の向きの少なくとも一方を変化させる場合において予測される重心位置の変化を算出できる。予測部130及び制御部180は、算出した撮像装置190の重心位置の変化及び撮像装置190の質量に基づいて、UAV100の姿勢角の変化又は姿勢角の角速度の変化を予測できる。   The prediction unit 130 and the control unit 180 are based on the lens information shown in FIG. 4 and FIG. 5 and the imaging unit information shown in FIG. 10, an imaging device in combination of the position, pitch angle and yaw angle of the movable lens of the lens device 160 The center of gravity position of 190 can be calculated. The prediction unit 130 and the control unit 180 can calculate the mass of the imaging device 190 based on the lens information shown in FIG. 4 and the imaging unit information shown in FIG. The prediction unit 130 and the control unit 180 can calculate a change in the position of the center of gravity when changing at least one of the position of the movable lens of the lens device 160 and the orientation of the imaging device 190. Thereby, the prediction unit 130 and the control unit 180 can calculate the change in the barycentric position predicted when changing at least one of the position of the movable lens of the lens device 160 and the orientation of the imaging device 190. The prediction unit 130 and the control unit 180 can predict the change in the attitude angle of the UAV 100 or the change in the angular velocity of the attitude angle based on the calculated change in the position of the center of gravity of the imaging device 190 and the mass of the imaging device 190.

撮像装置190の向きの変化に対応する制御系は、図6に示す制御系に、撮像装置190の向きの変化に関する状態変数及び伝達要素を加えることで実現できる。   A control system corresponding to the change in the orientation of the imaging device 190 can be realized by adding a state variable and a transfer element related to the change in the orientation of the imaging device 190 to the control system shown in FIG.

撮像装置190の向きの変化に対応する制御フローは、図7及び図8に示す制御フローにおけるレンズの変位に関する制御に加えて、撮像装置190の向きの変化に関する制御を加えることで実現できる。例えば、図7に示す制御フローにおいては、第1情報として、可動レンズの変位及び撮像装置190の変向を示す情報を適用すればよい。図8に示す制御フローにおいては、可動レンズの位置及び変位速度に加えて、撮像装置190の向き及び変向速度に関する制御を適用すればよい。   The control flow corresponding to the change in the orientation of the imaging device 190 can be realized by adding the control related to the change in the orientation of the imaging device 190 in addition to the control related to the displacement of the lens in the control flow shown in FIGS. For example, in the control flow shown in FIG. 7, information indicating the displacement of the movable lens and the deflection of the imaging device 190 may be applied as the first information. In the control flow shown in FIG. 8, in addition to the position and displacement speed of the movable lens, control on the orientation and the deflection speed of the imaging device 190 may be applied.

上記の実施形態において、レンズ装置160は、交換レンズである。しかし、レンズ装置160は、撮像部140と一体的に設けられてよい。この形態において、レンズ装置160及び撮像部140を含む撮像装置190は、ジンバル110に着脱可能であってよい。   In the above embodiment, the lens device 160 is an interchangeable lens. However, the lens device 160 may be provided integrally with the imaging unit 140. In this embodiment, the imaging device 190 including the lens device 160 and the imaging unit 140 may be detachable from the gimbal 110.

レンズ装置160が撮像部140と一体的に設けられる形態において、レンズ装置160及び撮像部140を含む撮像装置190は、ジンバル110に着脱可能でなくてよい。撮像装置190は、ジンバル110に固定されていてよい。   In the embodiment in which the lens device 160 is provided integrally with the imaging unit 140, the imaging device 190 including the lens device 160 and the imaging unit 140 may not be removable from the gimbal 110. The imaging device 190 may be fixed to the gimbal 110.

上記の実施形態における可動レンズ及び撮像装置190は、変位部の一例である。レンズ装置160が可動レンズを有しない場合、又は、可動レンズの変位によるUAV100の重心位置の変化量が予め定められた値より小さい場合、撮像装置190のみが変位部である形態を採用できる。撮像装置190の向きが固定である場合、又は、撮像装置190の向きの変化によるUAV100の重心位置の変化量が予め定められた値より小さい場合、レンズ装置160のみが変位部である形態を採用できる。   The movable lens and the imaging device 190 in the above embodiment are an example of a displacement unit. When the lens device 160 does not have a movable lens, or when the amount of change in the position of the center of gravity of the UAV 100 due to the displacement of the movable lens is smaller than a predetermined value, only the imaging device 190 can be employed as a displacement unit. If the orientation of the imaging device 190 is fixed, or if the amount of change in the position of the center of gravity of the UAV 100 due to a change in the orientation of the imaging device 190 is smaller than a predetermined value, it can.

変位部は、可動レンズ及び撮像装置190以外の部材であってよい。例えば、変位部は、可動アーム等の部材であってよい。変位部は、UAV100に取り付けられた部材に限られない。変位部は、UAV100が把持した部材を含んでよい。UAV100が能動的に変位させることができる部材であれば、どのような部材も変位部とみなすことができる。   The displacement portion may be a member other than the movable lens and the imaging device 190. For example, the displacement portion may be a member such as a movable arm. The displacement portion is not limited to the member attached to the UAV 100. The displacement portion may include a member gripped by the UAV 100. Any member that can be actively displaced by the UAV 100 can be regarded as a displacement portion.

上記の実施形態に示される複数の段階の少なくとも1つの段階は、ハードウェア、又は関連するハードウェアに命令するプログラムによって実装されてよい。プログラムは、コンピュータが可読な記録媒体に格納されてよい。記録媒体は、ROM、磁気ディスク、及び光ディスクの少なくとも1つを含んでよい。   At least one of the steps shown in the above embodiments may be implemented by hardware or a program instructing relevant hardware. The program may be stored in a computer readable recording medium. The recording medium may include at least one of a ROM, a magnetic disk, and an optical disk.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It is apparent to those skilled in the art that various changes or modifications can be added to the above embodiment. It is also apparent from the scope of the claims that the embodiments added with such alterations or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。「垂直」との記載は、「交わる」状態であってもよい。   The execution order of each process such as operations, procedures, steps, and steps in the apparatuses, systems, programs, and methods shown in the claims, the specification, and the drawings is particularly “before”, “preceding” Etc., and can be realized in any order as long as the output of the previous process is not used in the later process. With regard to the operation flow in the claims, the specification, and the drawings, even if it is described using “first,” “next,” etc. for convenience, it means that it is essential to carry out in this order. It is not a thing. The description of "vertical" may be in the "intersecting" state.

100 UAV
101 UAV本体
102 通信インタフェース
104 UAV制御部
105 検出部
106 メモリ
107 ドライバ
108 回転翼
109 モータ
110 ジンバル
120 センサ
130 予測部
140 撮像部
142 撮像制御部
144 撮像素子
146 メモリ
160 レンズ装置
162 レンズ制御部
163 メモリ
164、166、168 レンズ
170 第1取得部
172 第2取得部
180 制御部
188 確認部
190 撮像装置
200、202、204 加え合わせ点
210、220、230、240、260、270、280 伝達要素
250 作用素
100 UAV
DESCRIPTION OF SYMBOLS 101 UAV main body 102 Communication interface 104 UAV control part 105 Detection part 106 Memory 107 Driver 108 Rotary wing 109 Motor 110 Gimbal 120 Sensor 130 Prediction part 140 Imaging part 142 Imaging control part 144 Imaging element 146 Memory 160 Lens apparatus 162 Lens control part 163 Memory 164, 166, 168 Lens 170 First acquisition unit 172 Second acquisition unit 180 Control unit 188 Confirmation unit 190 Imaging device 200, 202, 204 Combined point 210, 220, 230, 240, 260, 270, 280 Transmission element
250 operators

Claims (20)

複数の回転翼と、
本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する第1取得部と、
前記変位部の質量及び前記第1情報に基づいて、前記変位部が前記変位先の位置に変位した後の前記本体部の姿勢を予測する予測部と、
前記予測部が予測した前記本体部の姿勢に基づいて前記複数の回転翼の回転速度を変化させることで、前記本体部の姿勢を制御する制御部と
を備える無人航空機。
With multiple rotors,
A first acquisition unit that acquires first information indicating a position of a displacement destination of the displacement unit held displaceably with respect to the main body;
A prediction unit that predicts the posture of the main body after the displacement unit is displaced to the position of the displacement destination based on the mass of the displacement unit and the first information;
A control unit that controls the attitude of the main body by changing the rotational speeds of the plurality of rotary wings based on the attitude of the main body predicted by the prediction unit.
前記制御部は、前記予測部が予測した前記本体部の姿勢に基づいて前記複数の回転翼の回転速度を変化させることで、前記変位部が前記変位先の位置に変位することにより生じる前記本体部の姿勢の変化が抑制されるように、前記本体部の姿勢を制御する
請求項に記載の無人航空機。
The control unit is configured to change the rotational speeds of the plurality of rotary blades based on the attitude of the main body section predicted by the prediction section, thereby causing the displacement section to be displaced to the position of the displacement destination. as the change component of orientation is suppressed, unmanned aircraft according to claim 1 for controlling a posture of the main body portion.
複数の回転翼と、
本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する第1取得部と、
前記第1情報に基づいて、前記変位部が変位前の位置から前記変位先の位置まで変位するまでの期間内の複数のタイミングのそれぞれにおける前記変位部の位置を予測し、予測した複数の前記位置のそれぞれについて前記本体部の姿勢を予測する予測部と
前記複数のタイミングのそれぞれにおいて、それぞれのタイミングにおける前記変位部の位置について前記予測部が予測した前記本体部の姿勢に基づいて前記複数の回転翼の回転速度を変化させることで、前記本体部の姿勢を制御する制御部と
を備える無人航空機。
With multiple rotors,
A first acquisition unit that acquires first information indicating a position of a displacement destination of the displacement unit held displaceably with respect to the main body;
Based on the first information, the position of the displacement portion at each of a plurality of timings within a period from the position before displacement to the position of the displacement destination is predicted, and a plurality of the predicted positions are predicted. A prediction unit that predicts the attitude of the main body for each of the positions;
At each of the plurality of timings, the rotational speed of the plurality of rotary blades is changed based on the posture of the main body portion predicted by the prediction unit with respect to the position of the displacement portion at each timing. Control unit to control the attitude
An unmanned aerial vehicle equipped with
複数の回転翼と、
本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する第1取得部と、
前記第1情報に基づいて、前記変位部が前記変位先の位置に変位した後の前記本体部の姿勢を予測する予測部と、
前記本体部の姿勢の目標値と、前記本体部の姿勢を取得するためのセンサによる前記本体部の姿勢の検出値と、前記予測部が予測した前記本体部の姿勢とに基づいて前記複数の回転翼の回転速度を変化させることで、前記本体部の姿勢を制御する制御部と
を備える無人航空機。
With multiple rotors,
A first acquisition unit that acquires first information indicating a position of a displacement destination of the displacement unit held displaceably with respect to the main body;
A prediction unit that predicts the posture of the main body after the displacement unit is displaced to the position of the displacement destination based on the first information;
The plurality of target values of the attitude of the main body, the detected values of the attitude of the main body by a sensor for acquiring the attitude of the main body, and the attitudes of the main body predicted by the prediction unit Controlling the attitude of the main body by changing the rotational speed of the rotary wing ;
An unmanned aerial vehicle equipped with
複数の回転翼と、
本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する第1取得部と、
前記第1情報に基づいて、前記変位部が前記変位先の位置に変位した後の前記本体部の姿勢を予測する予測部と、
前記予測部が予測した前記本体部の姿勢に基づいて前記複数の回転翼の回転速度を変化させることで、前記本体部の姿勢を制御する制御部と
を備え、
前記変位部は、可動レンズを含む
無人航空機。
With multiple rotors,
A first acquisition unit that acquires first information indicating a position of a displacement destination of the displacement unit held displaceably with respect to the main body;
A prediction unit that predicts the posture of the main body after the displacement unit is displaced to the position of the displacement destination based on the first information;
A control unit configured to control the attitude of the main body by changing the rotational speeds of the plurality of rotary wings based on the attitude of the main body predicted by the prediction unit;
Equipped with
The unmanned aerial vehicle wherein the displacement portion includes a movable lens.
前記第1情報は、前記可動レンズを含むレンズ系の焦点距離に対応する前記可動レンズの変位先の位置を示す情報を含む
請求項に記載の無人航空機。
The unmanned aerial vehicle according to claim 5 , wherein the first information includes information indicating a position of a displacement destination of the movable lens corresponding to a focal length of a lens system including the movable lens.
前記第1情報は、前記可動レンズを含むレンズ系のフォーカス位置に対応する前記可動レンズの変位先の位置を示す情報を含む
請求項又はに記載の無人航空機。
The unmanned aerial vehicle according to claim 5 or 6 , wherein the first information includes information indicating a position of a displacement destination of the movable lens corresponding to a focus position of a lens system including the movable lens.
前記可動レンズの複数の位置に対応づけて、前記レンズ系を含むレンズ装置の重心位置を格納する格納部
をさらに備え、
前記予測部は、前記第1情報が示す前記可動レンズの変位先の位置に対応づけて前記格納部が格納している前記重心位置と、前記レンズ装置の質量とに基づいて、前記第1情報が示す前記可動レンズの変位先の位置に前記可動レンズが変位した後の前記本体部の姿勢を予測する
請求項又はに記載の無人航空機。
The storage device is further provided with a storage unit for storing the position of the center of gravity of a lens apparatus including the lens system in association with a plurality of positions of the movable lens.
The prediction unit associates the first information with the position of the center of gravity stored in the storage unit in association with the position of the displacement destination of the movable lens indicated by the first information, and the mass of the lens device. The unmanned aerial vehicle according to claim 6 or 7 , wherein the attitude of the main body after the movable lens is displaced to the position of the displacement destination of the movable lens indicated by.
前記可動レンズは、前記本体部に着脱可能な交換レンズが有するレンズ系に含まれ、
前記無人航空機は、
前記本体部に装着されている前記交換レンズから、前記交換レンズの焦点距離及びフォーカス位置の少なくとも一方に対応する前記交換レンズの重心位置及び前記交換レンズの質量を示す第2情報を取得する第2取得部
を備える請求項からのいずれか一項に記載の無人航空機。
The movable lens is included in a lens system included in an interchangeable lens that is detachable from the main body portion,
The unmanned aerial vehicle is
The second information indicating the position of the center of gravity of the interchangeable lens and the mass of the interchangeable lens corresponding to at least one of the focal length and the focus position of the interchangeable lens is acquired from the interchangeable lens mounted on the main body The unmanned aerial vehicle according to any one of claims 5 to 8, comprising an acquisition unit.
複数の回転翼と、
本体部に対して変位可能に保持される撮像装置の変位先の位置を示す第1情報を取得する第1取得部と、
前記第1情報に基づいて、前記撮像装置が前記変位先の位置に変位した後の前記本体部の姿勢を予測する予測部と、
前記予測部が予測した前記本体部の姿勢に基づいて前記複数の回転翼の回転速度を変化させることで、前記本体部の姿勢を制御する制御部と
を備える無人航空機。
With multiple rotors,
A first acquisition unit configured to acquire first information indicating a position of a displacement destination of the imaging device held displaceably with respect to the main body;
A prediction unit that predicts the attitude of the main body after the imaging device is displaced to the position of the displacement destination based on the first information;
A control unit configured to control the attitude of the main body by changing the rotational speeds of the plurality of rotary wings based on the attitude of the main body predicted by the prediction unit;
An unmanned aerial vehicle equipped with
前記撮像装置は、前記本体部に対して向きが可変に設けられ、
前記撮像装置の変位は、前記撮像装置の向きの変化である
請求項10に記載の無人航空機。
The imaging device is provided with a variable orientation with respect to the main body portion.
The displacement of the imaging device, an unmanned aircraft according to claim 10 wherein the change in orientation of the imaging device.
前記撮像装置は、前記本体部に着脱可能であり、
前記無人航空機は、
前記本体部に装着されている前記撮像装置から、前記撮像装置の重心位置及び前記撮像装置の質量を示す第2情報を取得する第2取得部
を備える請求項10又は11に記載の無人航空機。
The imaging device is removable from the main body,
The unmanned aerial vehicle is
From the imaging device mounted on the body portion, unmanned aircraft according to claim 10 or 11 comprising a second acquisition unit for acquiring second information showing a mass center of gravity and the imaging device of the imaging apparatus.
複数の回転翼と、
本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を、前記変位部が前記変位先の位置に変位する前に取得する第1取得部と
前記変位部が前記変位先の位置に変位する前に、前記第1情報に基づいて、前記変位部が前記変位先の位置に変位した後の前記本体部の姿勢を予測する予測部と、
前記予測部が予測した前記本体部の姿勢に基づいて前記複数の回転翼の回転速度を変化させることで、前記本体部の姿勢を制御する制御部と
を備える無人航空機。
With multiple rotors,
A first acquisition unit that acquires first information indicating a position of a displacement destination of a displacement unit held displaceably with respect to a main body, before the displacement unit is displaced to the position of the displacement destination;
A prediction unit that predicts the attitude of the main body after the displacement unit is displaced to the position of the displacement destination based on the first information before the displacement unit is displaced to the position of the displacement destination ;
A control unit configured to control the attitude of the main body by changing the rotational speeds of the plurality of rotary wings based on the attitude of the main body predicted by the prediction unit;
An unmanned aerial vehicle equipped with
無人航空機の制御方法であって、
前記無人航空機の本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する段階と、
前記変位部の質量及び前記第1情報に基づいて、前記変位部が前記変位先の位置に変位した後の前記本体部の姿勢を予測する段階と、
前記予測する段階で予測された前記本体部の姿勢に基づいて前記無人航空機の複数の回転翼の回転速度を変化させることで、前記本体部の姿勢を制御する段階と
を備える無人航空機の制御方法。
A method of controlling an unmanned aerial vehicle,
Acquiring first information indicating a position of a displacement destination of the displacement unit held displaceably with respect to the main body of the unmanned aerial vehicle;
Predicting the attitude of the main body after the displacement portion is displaced to the position of the displacement destination based on the mass of the displacement portion and the first information;
Controlling the attitude of the main body by changing the rotational speeds of the plurality of rotary wings of the unmanned aerial vehicle based on the attitude of the main body predicted in the predicting step. .
無人航空機の制御方法であって、  A method of controlling an unmanned aerial vehicle,
前記無人航空機の本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する段階と、  Acquiring first information indicating a position of a displacement destination of the displacement unit held displaceably with respect to the main body of the unmanned aerial vehicle;
前記第1情報に基づいて、前記変位部が変位前の位置から前記変位先の位置まで変位するまでの期間内の複数のタイミングのそれぞれにおける前記変位部の位置を予測し、予測した複数の前記位置のそれぞれについて前記本体部の姿勢を予測する段階と、  Based on the first information, the position of the displacement portion at each of a plurality of timings within a period from the position before displacement to the position of the displacement destination is predicted, and a plurality of the predicted positions are predicted. Predicting the attitude of the body for each of the positions;
前記複数のタイミングのそれぞれにおいて、それぞれのタイミングにおける前記変位部の位置について前記予測する段階で予測された前記本体部の姿勢に基づいて前記無人航空機の複数の回転翼の回転速度を変化させることで、前記本体部の姿勢を制御する段階と  In each of the plurality of timings, the rotational speeds of the plurality of rotary wings of the unmanned aerial vehicle are changed based on the attitude of the main body portion predicted in the step of predicting the position of the displacement portion at each timing. Controlling the attitude of the main body,
を備える無人航空機の制御方法。A method of controlling an unmanned aerial vehicle comprising:
無人航空機の制御方法であって、  A method of controlling an unmanned aerial vehicle,
前記無人航空機の本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する段階と、  Acquiring first information indicating a position of a displacement destination of the displacement unit held displaceably with respect to the main body of the unmanned aerial vehicle;
前記第1情報に基づいて、前記変位部が前記変位先の位置に変位した後の前記本体部の姿勢を予測する段階と、  Predicting an attitude of the main body after the displacement portion is displaced to the position of the displacement destination based on the first information;
前記本体部の姿勢の目標値と、前記本体部の姿勢を取得するためのセンサによる前記本体部の姿勢の検出値と、前記予測する段階で予測された前記本体部の姿勢とに基づいて前記無人航空機の複数の回転翼の回転速度を変化させることで、前記本体部の姿勢を制御する段階と  The target value of the attitude of the main body, the detected value of the attitude of the main body by a sensor for acquiring the attitude of the main body, and the attitude of the main body predicted in the predicting step. Controlling the attitude of the main body by changing the rotational speeds of a plurality of rotary wings of the unmanned aerial vehicle, and
を備える無人航空機の制御方法。A method of controlling an unmanned aerial vehicle comprising:
無人航空機の制御方法であって、  A method of controlling an unmanned aerial vehicle,
前記無人航空機の本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を取得する段階と、  Acquiring first information indicating a position of a displacement destination of the displacement unit held displaceably with respect to the main body of the unmanned aerial vehicle;
前記第1情報に基づいて、前記変位部が前記変位先の位置に変位した後の前記本体部の姿勢を予測する段階と、  Predicting an attitude of the main body after the displacement portion is displaced to the position of the displacement destination based on the first information;
前記予測する段階で予測された前記本体部の姿勢に基づいて前記無人航空機の複数の回転翼の回転速度を変化させることで、前記本体部の姿勢を制御する段階と  Controlling the attitude of the main body by changing the rotational speeds of the plurality of rotary wings of the unmanned aerial vehicle based on the attitude of the main body predicted in the predicting step;
を備え、Equipped with
前記変位部は、可動レンズを含む  The displacement portion includes a movable lens
無人航空機の制御方法。Control method of unmanned aerial vehicles.
無人航空機の制御方法であって、  A method of controlling an unmanned aerial vehicle,
前記無人航空機の本体部に対して変位可能に保持される撮像装置の変位先の位置を示す第1情報を取得する段階と、  Acquiring first information indicating a position of a displacement destination of an imaging device held displaceably with respect to a main body of the unmanned aerial vehicle;
前記第1情報に基づいて、前記撮像装置が前記変位先の位置に変位した後の前記本体部の姿勢を予測する段階と、  Predicting an attitude of the main body after the imaging device is displaced to the position of the displacement destination based on the first information;
前記予測する段階で予測された前記本体部の姿勢に基づいて前記無人航空機の複数の回転翼の回転速度を変化させることで、前記本体部の姿勢を制御する段階と  Controlling the attitude of the main body by changing the rotational speeds of the plurality of rotary wings of the unmanned aerial vehicle based on the attitude of the main body predicted in the predicting step;
を備える無人航空機の制御方法。A method of controlling an unmanned aerial vehicle comprising:
無人航空機の制御方法であって、  A method of controlling an unmanned aerial vehicle,
前記無人航空機の本体部に対して変位可能に保持される変位部の変位先の位置を示す第1情報を、前記変位部が前記変位先の位置に変位する前に取得する段階と、  Acquiring first information indicating a position of a displacement destination of a displacement unit held displaceably with respect to a main body of the unmanned aerial vehicle before the displacement unit is displaced to the position of the displacement destination;
前記変位部が前記変位先の位置に変位する前に、前記第1情報に基づいて、前記変位部が前記変位先の位置に変位した後の前記本体部の姿勢を予測する段階と、  Predicting the attitude of the main body portion after the displacement portion is displaced to the position of the displacement destination based on the first information before the displacement portion is displaced to the position of the displacement destination;
前記予測する段階で予測された前記本体部の姿勢に基づいて前記無人航空機の複数の回転翼の回転速度を変化させることで、前記本体部の姿勢を制御する段階と  Controlling the attitude of the main body by changing the rotational speeds of the plurality of rotary wings of the unmanned aerial vehicle based on the attitude of the main body predicted in the predicting step;
を備える無人航空機の制御方法。A method of controlling an unmanned aerial vehicle comprising:
請求項14から19のいずれか一項に記載の無人航空機の制御方法をコンピュータに実行させるためのプログラム。 The program for making a computer perform the control method of the unmanned aerial vehicle according to any one of claims 14 to 19 .
JP2016201100A 2016-10-12 2016-10-12 Unmanned aerial vehicle, unmanned aerial vehicle control method and program Active JP6501080B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016201100A JP6501080B2 (en) 2016-10-12 2016-10-12 Unmanned aerial vehicle, unmanned aerial vehicle control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016201100A JP6501080B2 (en) 2016-10-12 2016-10-12 Unmanned aerial vehicle, unmanned aerial vehicle control method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016118003A Division JP6026695B1 (en) 2016-06-14 2016-06-14 Control device, moving body, control method, and program

Publications (2)

Publication Number Publication Date
JP2017224265A JP2017224265A (en) 2017-12-21
JP6501080B2 true JP6501080B2 (en) 2019-04-17

Family

ID=60688214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016201100A Active JP6501080B2 (en) 2016-10-12 2016-10-12 Unmanned aerial vehicle, unmanned aerial vehicle control method and program

Country Status (1)

Country Link
JP (1) JP6501080B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018023736A1 (en) * 2016-08-05 2018-02-08 SZ DJI Technology Co., Ltd. System and method for positioning a movable object
WO2021090352A1 (en) * 2019-11-05 2021-05-14 楽天株式会社 Control device and control method for controlling flight of aircraft
JP2021165077A (en) * 2020-04-06 2021-10-14 株式会社バンダイ Flying body

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05158540A (en) * 1991-12-06 1993-06-25 Fujitsu Ltd Arm control system for spacecraft, and attitude control system for spacecraft with arm
JP5198035B2 (en) * 2007-10-26 2013-05-15 トヨタ自動車株式会社 Legged robot and control method thereof
JP5569140B2 (en) * 2010-05-12 2014-08-13 株式会社リコー Camera system, camera body unit, external unit, and camera system control method
JP2016034684A (en) * 2014-08-04 2016-03-17 ユニタスファーイースト株式会社 robot
JP6470024B2 (en) * 2014-11-27 2019-02-13 みこらった株式会社 Levitating platform

Also Published As

Publication number Publication date
JP2017224265A (en) 2017-12-21

Similar Documents

Publication Publication Date Title
US11899447B2 (en) Adaptive rate gain controller
CN108549399B (en) Aircraft yaw angle correction method and device and aircraft
CN109000612B (en) Equipment angle estimation method and device, camera shooting assembly and aircraft
JP6026695B1 (en) Control device, moving body, control method, and program
US11156905B2 (en) Control method for gimbal, controller, and gimbal
CN107807680B (en) Pan-tilt drift compensation method
JP6501080B2 (en) Unmanned aerial vehicle, unmanned aerial vehicle control method and program
WO2014140354A1 (en) Method and system for correcting camera pointing angle in an actively stabilized system to compensate for translational movements
WO2020019331A1 (en) Method for height measurement and compensation by barometer, and unmanned aerial vehicle
CN105045293A (en) Cradle head control method, external carrier control method and cradle head
US20130321656A1 (en) Wireless network connected camera positioning system
CN109845240B (en) Control device, imaging system, mobile object, and control method
WO2020042159A1 (en) Rotation control method and apparatus for gimbal, control device, and mobile platform
WO2019210467A1 (en) Pan-tilt control method and apparatus, pan-tilt system, unmanned aerial vehicle and computer-readable storage medium
CN110377058B (en) Aircraft yaw angle correction method and device and aircraft
WO2020087349A1 (en) Unmanned aerial vehicle and gimbal control method therefor
JP2017212528A (en) Imaging system, imaging control method, imaging control system, mobile body, control method, and program
JP4775296B2 (en) Imaging space stabilization device and subject tracking device
KR101564298B1 (en) Device and Method for improving maneuverability of Lineofsight stabilizer having Dual Gimbal Structure
CN109725652B (en) Method for resolving and controlling course of unmanned aerial vehicle holder
JP6318455B1 (en) Control device, imaging device, moving object, control method, and program
JP6146520B1 (en) Optical apparatus, moving body, holding position adjusting method, and program
JP2019003035A (en) Controller, imaging apparatus, imaging system, flight object, control method, and program
JP2019078953A (en) Control device, imaging apparatus, flying body, control method and program
KR102427876B1 (en) Unmanned Aerial Manipulator and Controlling Method Thereof

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180807

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190122

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190305

R150 Certificate of patent or registration of utility model

Ref document number: 6501080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250