JP2019212961A - Mobile unit, light amount adjustment method, program, and recording medium - Google Patents

Mobile unit, light amount adjustment method, program, and recording medium Download PDF

Info

Publication number
JP2019212961A
JP2019212961A JP2018104888A JP2018104888A JP2019212961A JP 2019212961 A JP2019212961 A JP 2019212961A JP 2018104888 A JP2018104888 A JP 2018104888A JP 2018104888 A JP2018104888 A JP 2018104888A JP 2019212961 A JP2019212961 A JP 2019212961A
Authority
JP
Japan
Prior art keywords
distance
subject
light
imaging
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2018104888A
Other languages
Japanese (ja)
Inventor
杰旻 周
Jiemin Zhou
杰旻 周
青宇 盧
Qingyu Lu
青宇 盧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2018104888A priority Critical patent/JP2019212961A/en
Publication of JP2019212961A publication Critical patent/JP2019212961A/en
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Stroboscope Apparatuses (AREA)
  • Accessories Of Cameras (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To suppress deterioration in the image quality of an image captured by a mobile unit against the light.SOLUTION: The mobile unit, which illuminates a subject and captures an image of the subject, comprises an imaging unit for capturing an image of the subject, a light source for illuminating the object, and a processing unit. The processing unit acquires a first distance which is an effective distance of light emitted from the light source, acquires a second distance which is a distance between the subject imaged by the imaging unit and the mobile unit, and controls the movement of the mobile unit so as to change the second distance on the basis of the first distance and the second distance.SELECTED DRAWING: Figure 11

Description

本開示は、被写体を照明して画像を撮像する移動体、光量調整方法、プログラム、及び記録媒体に関する。   The present disclosure relates to a moving body that illuminates a subject and captures an image, a light amount adjustment method, a program, and a recording medium.

特許文献1には、フラッシュ(フラッシュライト)が搭載された無人飛行体が開示されている。この無人飛行体では、撮像部が観測対象設備を撮像する際、夜間に光量が不足していると、観測対象設備にフラッシュの光を照射する。   Patent Document 1 discloses an unmanned air vehicle equipped with a flash (flash light). In this unmanned air vehicle, when the imaging unit images the observation target facility, if the amount of light is insufficient at night, the observation target facility is irradiated with flash light.

特開2017−123016号公報JP 2017-123016 A

フラッシュの光が被写体に届く有効距離は、発光量、レンズの焦点距離、光の照射角等、様々な要素に依存する。このため、被写体を適切に照明することが難しい。例えば、移動体と被写体とが離れ過ぎていると、光量が不足する。一方、移動体と被写体とが近過ぎると、光量が過剰となる。したがって、例えば、移動体がフラッシュの光を被写体に照明して逆光撮像を行う場合、撮像画像に画質の劣化が生じ易い。つまり、移動体による逆光撮像の対策が不十分である。   The effective distance that the flash light reaches the subject depends on various factors such as the light emission amount, the focal length of the lens, and the light irradiation angle. For this reason, it is difficult to properly illuminate the subject. For example, if the moving body is too far away from the subject, the amount of light is insufficient. On the other hand, if the moving body and the subject are too close, the amount of light becomes excessive. Therefore, for example, when a moving body illuminates a subject with flash light to perform backlight imaging, image quality is likely to deteriorate in the captured image. That is, measures against backlight imaging by the moving body are insufficient.

一態様において、移動体は、被写体を照明して画像を撮像する移動体であって、被写体を撮像する撮像部と、被写体を照明する光源と、処理部と、を備え、処理部は、光源が発する光の有効距離である第1の距離を取得し、撮像部により撮像される被写体と移動体との距離である第2の距離を取得し、第1の距離と第2の距離とに基づいて、第2の距離を変更するよう移動体の移動を制御する。   In one aspect, the moving body is a moving body that illuminates the subject and captures an image, and includes an imaging unit that captures the subject, a light source that illuminates the subject, and a processing unit. The first distance that is the effective distance of the light emitted from the camera is acquired, the second distance that is the distance between the subject imaged by the imaging unit and the moving body is acquired, and the first distance and the second distance are acquired. Based on this, the movement of the moving body is controlled to change the second distance.

処理部は、第2の距離が第1の距離よりも長い場合、被写体に近づくよう移動体の移動を制御してよい。   When the second distance is longer than the first distance, the processing unit may control the movement of the moving body so as to approach the subject.

処理部は、第1の距離と第2の距離とに基づいて、光源が発する光量を調整してよい。   The processing unit may adjust the amount of light emitted from the light source based on the first distance and the second distance.

処理部は、第2の距離が第1の距離以下である場合、光源が発する光量を少なくしてよい。   The processing unit may reduce the amount of light emitted from the light source when the second distance is equal to or less than the first distance.

処理部は、被写体の明度と被写体の背景の明度とに基づいて、光源が被写体を照明するための光の強度を算出し、光源による光の強度に基づいて、第1の距離を算出してよい。   The processing unit calculates a light intensity for the light source to illuminate the subject based on the brightness of the subject and the background of the subject, and calculates a first distance based on the light intensity of the light source. Good.

処理部は、光源により所定の光量で被写体が照明された状態で、撮像部に被写体を撮像させて撮像画像を取得し、撮像画像における各画素の画素値を基に、撮像画像における画素値毎の画素の数を生成し、撮像画像における画素値毎の画素の数を基に、光源が発する光の強度を算出してよい。   The processing unit obtains a captured image by causing the imaging unit to capture the subject in a state where the subject is illuminated with a predetermined light amount by the light source, and for each pixel value in the captured image based on the pixel value of each pixel in the captured image. The intensity of light emitted from the light source may be calculated based on the number of pixels for each pixel value in the captured image.

一態様において、光量調整方法は、被写体を照明して画像を撮像する移動体における光量調整方法であって、被写体を照明する光源が発する光の有効距離である第1の距離を取得するステップと、被写体を撮像する撮像部により撮像される被写体と移動体との距離である第2の距離を取得するステップと、第1の距離と第2の距離とに基づいて、第2の距離を変更するよう移動体の移動を制御するステップと、を有する。   In one aspect, the light amount adjustment method is a light amount adjustment method in a moving body that illuminates a subject and captures an image, and acquiring a first distance that is an effective distance of light emitted from a light source that illuminates the subject; The second distance is changed based on the step of obtaining a second distance that is the distance between the subject imaged by the imaging unit that images the subject and the moving body, and the first distance and the second distance. Controlling the movement of the moving body.

移動体の移動を制御するステップは、第2の距離が第1の距離よりも長い場合、被写体に近づくよう移動体の移動を制御するステップを含んでよい。   The step of controlling the movement of the moving body may include the step of controlling the movement of the moving body so as to approach the subject when the second distance is longer than the first distance.

光量調整方法は、第1の距離と第2の距離とに基づいて、光源が発する光量を調整するステップ、を更に含んでよい。   The light amount adjustment method may further include a step of adjusting the light amount emitted from the light source based on the first distance and the second distance.

光量を調整するステップは、第2の距離が第1の距離以下である、光源が発する光量を小さくするステップを含んでよい。   The step of adjusting the amount of light may include a step of reducing the amount of light emitted by the light source, wherein the second distance is equal to or less than the first distance.

第1の距離を取得するステップは、被写体の明度と被写体の背景の明度とに基づいて、光源が被写体を照明するための光の強度を算出するステップと、光源による光の強度に基づいて、第1の距離を算出するステップと、を含んでよい。   The step of obtaining the first distance includes the step of calculating the light intensity for the light source to illuminate the subject based on the brightness of the subject and the brightness of the background of the subject, and based on the light intensity of the light source. Calculating a first distance.

光の強度を算出するステップは、光源により所定の光量で被写体が照明された状態で、撮像部に被写体を撮像させて撮像画像を取得するステップと、撮像画像における各画素の画素値を基に、撮像画像における画素値毎の画素の数を生成するステップと、撮像画像における画素値毎の画素の数を基に、光源が発する光の強度を算出するステップと、を含んでよい。   The step of calculating the light intensity includes the step of obtaining a captured image by causing the imaging unit to capture the subject in a state where the subject is illuminated with a predetermined light amount by the light source, and the pixel value of each pixel in the captured image. The step of generating the number of pixels for each pixel value in the captured image and the step of calculating the intensity of light emitted from the light source based on the number of pixels for each pixel value in the captured image may be included.

一態様において、プログラムは、被写体を照明して画像を撮像する移動体に、被写体を照明する光源が発する光の有効距離である第1の距離を取得するステップと、被写体を撮像する撮像部により撮像される被写体と移動体との距離である第2の距離を取得するステップと、第1の距離と第2の距離とに基づいて、第2の距離を変更するよう移動体の移動を制御するステップと、を実行させるためのプログラム、である。   In one aspect, the program acquires a first distance, which is an effective distance of light emitted from a light source that illuminates the subject, to a moving body that illuminates the subject and captures an image, and an imaging unit that captures the subject. The movement of the moving body is controlled so as to change the second distance based on the step of obtaining a second distance that is the distance between the subject to be imaged and the moving body, and the first distance and the second distance. And a step for executing the program.

一態様において、記録媒体は、被写体を照明して画像を撮像する移動体に、被写体を照明する光源が発する光の有効距離である第1の距離を取得するステップと、被写体を撮像する撮像部により撮像される被写体と移動体との距離である第2の距離を取得するステップと、第1の距離と第2の距離とに基づいて、第2の距離を変更するよう移動体の移動を制御するステップと、を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体である。   In one aspect, the recording medium acquires a first distance, which is an effective distance of light emitted from a light source that illuminates the subject, to a moving body that illuminates the subject and captures an image, and an imaging unit that captures the subject Based on the step of obtaining a second distance that is the distance between the subject to be imaged by the moving object and the moving object, the moving object is moved so as to change the second distance based on the first distance and the second distance. A computer-readable recording medium having recorded thereon a program for executing the controlling step.

なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   Note that the summary of the invention described above does not enumerate all the features of the present disclosure. In addition, a sub-combination of these feature groups can also be an invention.

実施形態における飛行体システムの第1構成例を示す模式図The schematic diagram which shows the 1st structural example of the aircraft system in embodiment. 実施形態における飛行体システムの第2構成例を示す模式図The schematic diagram which shows the 2nd structural example of the aircraft system in embodiment. 無人航空機の具体的な外観の一例を示す図The figure which shows an example of the concrete appearance of an unmanned aerial vehicle 無人航空機のハードウェア構成の一例を示すブロック図Block diagram showing an example of the hardware configuration of an unmanned aerial vehicle 端末のハードウェア構成の一例を示すブロック図Block diagram showing an example of the hardware configuration of the terminal 撮像部のハードウェア構成の一例を示す図The figure which shows an example of the hardware constitutions of an imaging part 逆光撮像の状況を示す図Diagram showing the situation of backlight imaging 逆光時、フラッシュ撮像を適正に行う動作の全体的な流れを示す図A diagram showing the overall flow of operations to properly perform flash imaging during backlighting ガイドナンバーの算出の詳細を説明する図Diagram explaining details of guide number calculation 逆光撮像時、主被写体である人物を無人航空機が撮像する状況を示す図The figure which shows the situation where an unmanned aerial vehicle images the person who is the main subject at the time of backlight imaging 飛行体システムの動作手順を示すシーケンス図Sequence diagram showing the operational procedure of the aircraft system

以下、発明の実施形態を通じて本開示を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。   Hereinafter, although this indication is explained through an embodiment of the invention, the following embodiment does not limit the invention concerning a claim. Not all combinations of features described in the embodiments are essential for the solution of the invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。   The claims, the description, the drawings, and the abstract include matters subject to copyright protection. The copyright owner will not object to any number of copies of these documents as they appear in the JPO file or record. However, in other cases, all copyrights are reserved.

(本開示の一形態を得るに至った経緯)
近年、無人航空機が小型化し、手のひらサイズの無人航空機も登場している。ユーザが無人航空機を使ってユーザ自身を撮像する(自撮りする)場合、多くのユーザは、眩しさを避けるために、太陽を背にして撮像する、いわゆる逆光撮像を行おうとする。
(Background to obtaining one form of the present disclosure)
In recent years, unmanned aerial vehicles have become smaller and palm-sized unmanned aerial vehicles have also appeared. When a user takes an image of the user himself (self-photographing) using an unmanned aerial vehicle, many users try to perform so-called backlight imaging in which the image is taken with the back of the sun in order to avoid glare.

自動露出(AE:Auto Exposure)で逆光撮像が行われる場合、背景が明るくなり過ぎるため、被写体である人物が黒くなる傾向がある。また、被写体である人物が適正な露光量に設定されると、背景が白飛びして真っ白になる傾向がある。このように、逆光撮像では、画質が良好な写真を撮ることが難しい。一般に、逆光撮像が行われる場合、フラッシュを使って主被写体である人物を照らし、背景の明るさに合わせることで、被写体全体の明るさが調節される。   When backlight imaging is performed with auto exposure (AE), the background is too bright, and the person who is the subject tends to be black. Further, when the person who is the subject is set to an appropriate exposure amount, the background tends to be white and white. As described above, it is difficult to take a picture with good image quality in backlight imaging. In general, when backlight imaging is performed, the brightness of the entire subject is adjusted by using a flash to illuminate the person who is the main subject and matching the brightness of the background.

しかし、フラッシュの光が有効に届く距離(有効距離)は、発光量、レンズの焦点距離、照射角等、様々な要素に依存し、限界もある。人がカメラを持って撮像する場合、フラッシュの光が主被写体である人物に届くように、近付いたり遠ざかったりして気軽に調節できるが、無人航空機では容易でない。このため、フラッシュが搭載された無人航空機では、フラッシュの光量不足や光量過剰が起こり易く、逆光撮像を良好に行うことが困難である。   However, the distance that the flash light can effectively reach (effective distance) depends on various factors such as the amount of emitted light, the focal length of the lens, the irradiation angle, and has a limit. When a person takes a picture with a camera, it can be adjusted easily by approaching or moving away so that the flash light reaches the person who is the main subject, but it is not easy with an unmanned aerial vehicle. For this reason, in an unmanned aerial vehicle equipped with a flash, it is easy to cause insufficient light quantity or excessive light quantity of the flash, and it is difficult to perform backlight imaging well.

(実施形態)
以下の実施形態では、移動体として、無人航空機(UAV:Unmanned Aerial Vehicle)を例示する。無人航空機は、空中を移動する航空機を含む。本明細書に添付する図面では、無人航空機を「UAV」と表記する。光量調整方法は、移動体又は飛行システムの動作が規定されたものである。また、記録媒体は、プログラム(例えば移動体に各種の処理を実行させるプログラム)が記録されたものである。
(Embodiment)
In the following embodiment, an unmanned aerial vehicle (UAV: Unmanned Aerial Vehicle) is illustrated as a moving body. Unmanned aerial vehicles include aircraft that travel in the air. In the drawings attached to this specification, the unmanned aerial vehicle is represented as “UAV”. In the light amount adjustment method, the operation of the moving body or the flight system is defined. The recording medium is a recording medium of a program (for example, a program that causes a mobile body to execute various processes).

図1は、実施形態における飛行体システム10の第1構成例を示す模式図である。飛行体システム10は、無人航空機100及び端末80を備える。無人航空機100及び端末80は、相互に有線通信又は無線通信(例えば無線LAN(Local Area Network))により通信可能である。図1では、端末80が携帯端末(例えばスマートフォン、タブレット端末)であることを例示している。   FIG. 1 is a schematic diagram illustrating a first configuration example of an aircraft system 10 in the embodiment. The aircraft system 10 includes an unmanned aerial vehicle 100 and a terminal 80. The unmanned aircraft 100 and the terminal 80 can communicate with each other by wired communication or wireless communication (for example, a wireless LAN (Local Area Network)). FIG. 1 illustrates that the terminal 80 is a mobile terminal (for example, a smartphone or a tablet terminal).

なお、飛行体システムは、無人航空機、送信機(プロポ)、及び携帯端末を備えた構成であってよい。送信機を備える場合、送信機の前面に配置された左右の制御棒を使って、ユーザは、無人航空機の飛行の制御を指示可能である。また、この場合、無人航空機、送信機、及び携帯端末は、相互に有線通信又は無線通信により通信可能である。   The flying object system may have a configuration including an unmanned aerial vehicle, a transmitter (propo), and a portable terminal. When the transmitter is provided, the user can instruct the control of the flight of the unmanned aircraft using the left and right control rods arranged on the front surface of the transmitter. In this case, the unmanned aircraft, the transmitter, and the portable terminal can communicate with each other by wired communication or wireless communication.

図2は、実施形態における飛行体システム10の第2構成例を示す模式図である。図2では、端末80がPCであることを例示している。図1及び図2のいずれであっても、端末80が有する機能は同じでよい。   FIG. 2 is a schematic diagram illustrating a second configuration example of the aircraft system 10 according to the embodiment. FIG. 2 illustrates that the terminal 80 is a PC. 1 and 2, the function of the terminal 80 may be the same.

図3は、無人航空機100の具体的な外観の一例を示す図である。図3には、無人航空機100が移動方向STV0に飛行する場合の斜視図が示される。無人航空機100は移動体の一例である。   FIG. 3 is a diagram illustrating an example of a specific appearance of the unmanned aerial vehicle 100. FIG. 3 shows a perspective view when unmanned aerial vehicle 100 flies in moving direction STV0. Unmanned aerial vehicle 100 is an example of a moving object.

図3に示すように、地面と平行であって移動方向STV0に沿う方向にロール軸(x軸参照)が設定される。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸(y軸参照)が設定され、更に、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(z軸参照)が設定される。   As shown in FIG. 3, a roll axis (see x-axis) is set in a direction parallel to the ground and along the movement direction STV0. In this case, a pitch axis (see the y-axis) is set in a direction parallel to the ground and perpendicular to the roll axis, and further, a yaw axis (z-axis) is perpendicular to the ground and perpendicular to the roll axis and the pitch axis. Reference) is set.

無人航空機100は、UAV本体102と、ジンバル200と、撮像部220と、複数の撮像部230とを含む構成である。   The unmanned aerial vehicle 100 includes a UAV main body 102, a gimbal 200, an imaging unit 220, and a plurality of imaging units 230.

UAV本体102は、複数の回転翼(プロペラ)を備える。UAV本体102は、複数の回転翼の回転を制御することにより無人航空機100を飛行させる。UAV本体102は、例えば4つの回転翼を用いて無人航空機100を飛行させる。回転翼の数は、4つに限定されない。また、無人航空機100は、回転翼を有さない固定翼機でもよい。   The UAV main body 102 includes a plurality of rotor blades (propellers). The UAV main body 102 causes the unmanned aircraft 100 to fly by controlling the rotation of a plurality of rotor blades. The UAV main body 102 causes the unmanned aircraft 100 to fly using, for example, four rotary wings. The number of rotor blades is not limited to four. Unmanned aerial vehicle 100 may also be a fixed wing aircraft that does not have rotating wings.

撮像部220は、所望の撮像範囲に含まれる被写体(例えば、空撮対象となる上空の様子、山や川等の景色、地上の建物)を撮像する撮像用のカメラでよい。   The imaging unit 220 may be an imaging camera that captures an image of a subject included in a desired imaging range (for example, an aerial image, a landscape such as a mountain or a river, a building on the ground).

複数の撮像部230は、無人航空機100の飛行を制御するために無人航空機100の周囲を撮像するセンシング用のカメラでよい。2つの撮像部230が、無人航空機100の機首である正面に設けられてよい。さらに、他の2つの撮像部230が、無人航空機100の底面に設けられてよい。正面側の2つの撮像部230はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像部230もペアとなり、ステレオカメラとして機能してよい。複数の撮像部230により撮像された画像に基づいて、無人航空機100の周囲の3次元空間データ(3次元形状データ)が生成されてよい。なお、無人航空機100が備える撮像部230の数は4つに限定されない。無人航空機100は、少なくとも1つの撮像部230を備えていればよい。無人航空機100は、無人航空機100の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像部230を備えてよい。撮像部230で設定できる画角は、撮像部220で設定できる画角より広くてよい。撮像部230は、単焦点レンズ又は魚眼レンズを有してよい。   The plurality of imaging units 230 may be sensing cameras that capture an image of the surroundings of the unmanned aircraft 100 in order to control the flight of the unmanned aircraft 100. Two imaging units 230 may be provided on the front surface that is the nose of the unmanned aircraft 100. Further, the other two imaging units 230 may be provided on the bottom surface of the unmanned aircraft 100. The two imaging units 230 on the front side may be paired and function as a so-called stereo camera. The two imaging units 230 on the bottom side may also be paired and function as a stereo camera. Based on images captured by the plurality of imaging units 230, three-dimensional space data (three-dimensional shape data) around the unmanned aircraft 100 may be generated. Note that the number of the imaging units 230 included in the unmanned aerial vehicle 100 is not limited to four. The unmanned aircraft 100 only needs to include at least one imaging unit 230. The unmanned aerial vehicle 100 may include at least one imaging unit 230 on each of the nose, tail, side surface, bottom surface, and ceiling surface of the unmanned aircraft 100. The angle of view that can be set by the imaging unit 230 may be wider than the angle of view that can be set by the imaging unit 220. The imaging unit 230 may include a single focus lens or a fisheye lens.

図4は、無人航空機100のハードウェア構成の一例を示すブロック図である。無人航空機100は、UAV制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、ジンバル200と、回転翼機構210と、撮像部220と、撮像部230と、GPS受信機240と、慣性計測装置(IMU:Inertial Measurement Unit)250と、磁気コンパス260と、気圧高度計270と、超音波センサ280と、レーザー測定器290と、を含む構成である。   FIG. 4 is a block diagram illustrating an example of a hardware configuration of the unmanned aerial vehicle 100. The unmanned aerial vehicle 100 includes a UAV control unit 110, a communication interface 150, a memory 160, a storage 170, a gimbal 200, a rotary wing mechanism 210, an imaging unit 220, an imaging unit 230, a GPS receiver 240, The configuration includes an inertial measurement unit (IMU) 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, and a laser measuring device 290.

UAV制御部110は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。UAV制御部110は、無人航空機100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。UAV制御部110は、処理部の一例である。   The UAV control unit 110 is configured using, for example, a central processing unit (CPU), a micro processing unit (MPU), or a digital signal processor (DSP). The UAV control unit 110 performs signal processing for overall control of operations of each unit of the unmanned aircraft 100, data input / output processing with respect to other units, data calculation processing, and data storage processing. The UAV control unit 110 is an example of a processing unit.

UAV制御部110は、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御する。UAV制御部110は、飛行を制御してよい。UAV制御部110は、画像を空撮してよい。   The UAV control unit 110 controls the flight of the unmanned aircraft 100 according to a program stored in the memory 160. The UAV control unit 110 may control the flight. The UAV control unit 110 may take an image in the air.

UAV制御部110は、無人航空機100の位置を示す位置情報を取得する。UAV制御部110は、GPS受信機240から、無人航空機100が存在する緯度、経度及び高度を示す位置情報を取得してよい。UAV制御部110は、GPS受信機240から無人航空機100が存在する緯度及び経度を示す緯度経度情報、並びに気圧高度計270から無人航空機100が存在する高度を示す高度情報をそれぞれ位置情報として取得してよい。UAV制御部110は、超音波センサ280による超音波の放射点と超音波の反射点との距離を高度情報として取得してよい。   The UAV control unit 110 acquires position information indicating the position of the unmanned aircraft 100. The UAV control unit 110 may acquire position information indicating the latitude, longitude, and altitude at which the unmanned aircraft 100 exists from the GPS receiver 240. The UAV control unit 110 acquires, from the GPS receiver 240, latitude / longitude information indicating the latitude and longitude where the unmanned aircraft 100 exists, and altitude information indicating the altitude where the unmanned aircraft 100 exists from the barometric altimeter 270, as position information. Good. The UAV control unit 110 may acquire the distance between the ultrasonic emission point and the ultrasonic reflection point by the ultrasonic sensor 280 as altitude information.

UAV制御部110は、磁気コンパス260から無人航空機100の向きを示す向き情報を取得してよい。向き情報は、例えば無人航空機100の機首の向きに対応する方位で示されてよい。   The UAV control unit 110 may acquire orientation information indicating the orientation of the unmanned aircraft 100 from the magnetic compass 260. The orientation information may be indicated by an orientation corresponding to the orientation of the nose of the unmanned aircraft 100, for example.

UAV制御部110は、撮像部220が撮像すべき撮像範囲を撮像する時に無人航空機100が存在すべき位置を示す位置情報を取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報をメモリ160から取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報を、通信インタフェース150を介して他の装置から取得してよい。UAV制御部110は、3次元地図データベースを参照して、無人航空機100が存在可能な位置を特定して、その位置を無人航空機100が存在すべき位置を示す位置情報として取得してよい。   The UAV control unit 110 may acquire position information indicating a position where the unmanned aircraft 100 should exist when the imaging unit 220 captures an imaging range to be imaged. The UAV control unit 110 may acquire position information indicating the position where the unmanned aircraft 100 should be present from the memory 160. The UAV control unit 110 may acquire position information indicating a position where the unmanned aircraft 100 should exist from another device via the communication interface 150. The UAV control unit 110 may refer to the three-dimensional map database, identify a position where the unmanned aircraft 100 can exist, and acquire the position as position information indicating a position where the unmanned aircraft 100 should exist.

UAV制御部110は、撮像部220及び撮像部230のそれぞれの撮像範囲を示す撮像範囲情報を取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の画角を示す画角情報を撮像部220及び撮像部230から取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の撮像方向を示す情報を取得してよい。UAV制御部110は、例えば撮像部220の撮像方向を示す情報として、ジンバル200から撮像部220の姿勢の状態を示す姿勢情報を取得してよい。撮像部220の姿勢情報は、ジンバル200のピッチ軸及びヨー軸の基準回転角度からの回転角度を示してよい。   The UAV control unit 110 may acquire imaging range information indicating the imaging ranges of the imaging unit 220 and the imaging unit 230. The UAV control unit 110 may acquire angle-of-view information indicating the angle of view of the imaging unit 220 and the imaging unit 230 from the imaging unit 220 and the imaging unit 230 as parameters for specifying the imaging range. The UAV control unit 110 may acquire information indicating the imaging direction of the imaging unit 220 and the imaging unit 230 as a parameter for specifying the imaging range. The UAV control unit 110 may acquire posture information indicating the posture state of the imaging unit 220 from the gimbal 200 as information indicating the imaging direction of the imaging unit 220, for example. The posture information of the imaging unit 220 may indicate a rotation angle from the reference rotation angle of the pitch axis and yaw axis of the gimbal 200.

UAV制御部110は、撮像範囲を特定するためのパラメータとして、無人航空機100が存在する位置を示す位置情報を取得してよい。UAV制御部110は、撮像部220及び撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて、撮像部220が撮像する地理的な範囲を示す撮像範囲を画定し、撮像範囲情報を生成することで、撮像範囲情報を取得してよい。   The UAV control unit 110 may acquire position information indicating a position where the unmanned aircraft 100 exists as a parameter for specifying the imaging range. The UAV control unit 110 defines an imaging range indicating a geographical range captured by the imaging unit 220 based on the angle of view and the imaging direction of the imaging unit 220 and the imaging unit 230, and the position where the unmanned aircraft 100 exists. Imaging range information may be acquired by generating imaging range information.

UAV制御部110は、メモリ160から撮像範囲情報を取得してよい。UAV制御部110は、通信インタフェース150を介して撮像範囲情報を取得してよい。   The UAV control unit 110 may acquire imaging range information from the memory 160. The UAV control unit 110 may acquire imaging range information via the communication interface 150.

UAV制御部110は、ジンバル200、回転翼機構210、撮像部220及び撮像部230を制御する。UAV制御部110は、撮像部220の撮像方向又は画角を変更することによって、撮像部220の撮像範囲を制御してよい。UAV制御部110は、ジンバル200の回転機構を制御することで、ジンバル200に支持されている撮像部220の撮像範囲を制御してよい。   The UAV control unit 110 controls the gimbal 200, the rotary blade mechanism 210, the imaging unit 220, and the imaging unit 230. The UAV control unit 110 may control the imaging range of the imaging unit 220 by changing the imaging direction or angle of view of the imaging unit 220. The UAV control unit 110 may control the imaging range of the imaging unit 220 supported by the gimbal 200 by controlling the rotation mechanism of the gimbal 200.

撮像範囲とは、撮像部220又は撮像部230により撮像される地理的な範囲をいう。撮像範囲は、緯度、経度、及び高度で定義される。撮像範囲は、緯度、経度、及び高度で定義される3次元空間データにおける範囲でよい。撮像範囲は、緯度及び経度で定義される2次元空間データにおける範囲でもよい。撮像範囲は、撮像部220又は撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて特定されてよい。撮像部220及び撮像部230の撮像方向は、撮像部220及び撮像部230の撮像レンズが設けられた正面が向く方位と俯角とから定義されてよい。撮像部220の撮像方向は、無人航空機100の機首の方位と、ジンバル200に対する撮像部220の姿勢の状態とから特定される方向でよい。撮像部230の撮像方向は、無人航空機100の機首の方位と、撮像部230が設けられた位置とから特定される方向でよい。   The imaging range refers to a geographical range captured by the imaging unit 220 or the imaging unit 230. The imaging range is defined by latitude, longitude, and altitude. The imaging range may be a range in three-dimensional spatial data defined by latitude, longitude, and altitude. The imaging range may be a range in two-dimensional spatial data defined by latitude and longitude. The imaging range may be specified based on the angle of view and imaging direction of the imaging unit 220 or the imaging unit 230, and the position where the unmanned aircraft 100 is present. The image capturing directions of the image capturing unit 220 and the image capturing unit 230 may be defined from an azimuth and a depression angle in which the front surface where the image capturing lenses of the image capturing unit 220 and the image capturing unit 230 are provided is directed. The imaging direction of the imaging unit 220 may be a direction specified from the heading direction of the unmanned aerial vehicle 100 and the posture state of the imaging unit 220 with respect to the gimbal 200. The imaging direction of the imaging unit 230 may be a direction specified from the heading of the unmanned aircraft 100 and the position where the imaging unit 230 is provided.

UAV制御部110は、複数の撮像部230により撮像された複数の画像を解析することで、無人航空機100の周囲の環境を特定してよい。UAV制御部110は、無人航空機100の周囲の環境に基づいて、例えば障害物を回避して飛行を制御してよい。   The UAV control unit 110 may specify the environment around the unmanned aerial vehicle 100 by analyzing a plurality of images captured by the plurality of imaging units 230. The UAV control unit 110 may control the flight based on the environment around the unmanned aircraft 100, for example, avoiding an obstacle.

UAV制御部110は、無人航空機100の周囲に存在するオブジェクトの立体形状(3次元形状)を示す立体情報(3次元情報)を取得してよい。オブジェクトは、例えば、建物、道路、車、木等の風景の一部でよい。立体情報は、例えば、3次元空間データである。UAV制御部110は、複数の撮像部230から得られたそれぞれの画像から、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を生成することで、立体情報を取得してよい。UAV制御部110は、メモリ160又はストレージ170に格納された3次元地図データベースを参照することにより、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を取得してよい。UAV制御部110は、ネットワーク上に存在するサーバが管理する3次元地図データベースを参照することで、無人航空機100の周囲に存在するオブジェクトの立体形状に関する立体情報を取得してよい。   The UAV control unit 110 may acquire three-dimensional information (three-dimensional information) indicating the three-dimensional shape (three-dimensional shape) of an object that exists around the unmanned aircraft 100. The object may be a part of a landscape such as a building, road, car, or tree. The three-dimensional information is, for example, three-dimensional space data. The UAV control unit 110 may acquire the three-dimensional information by generating the three-dimensional information indicating the three-dimensional shape of the object existing around the unmanned aircraft 100 from each image obtained from the plurality of imaging units 230. The UAV control unit 110 may acquire the three-dimensional information indicating the three-dimensional shape of the object existing around the unmanned aircraft 100 by referring to the three-dimensional map database stored in the memory 160 or the storage 170. The UAV control unit 110 may acquire the three-dimensional information related to the three-dimensional shape of the object existing around the unmanned aircraft 100 by referring to a three-dimensional map database managed by a server existing on the network.

UAV制御部110は、回転翼機構210を制御することで、無人航空機100の飛行を制御する。つまり、UAV制御部110は、回転翼機構210を制御することにより、無人航空機100の緯度、経度、及び高度を含む位置を制御する。UAV制御部110は、無人航空機100の飛行を制御することにより、撮像部220の撮像範囲を制御してよい。UAV制御部110は、撮像部220が備えるズームレンズを制御することで、撮像部220の画角を制御してよい。UAV制御部110は、撮像部220のデジタルズーム機能を利用して、デジタルズームにより、撮像部220の画角を制御してよい。   The UAV control unit 110 controls the flight of the unmanned aircraft 100 by controlling the rotary wing mechanism 210. That is, the UAV control unit 110 controls the position including the latitude, longitude, and altitude of the unmanned aircraft 100 by controlling the rotary wing mechanism 210. The UAV control unit 110 may control the imaging range of the imaging unit 220 by controlling the flight of the unmanned aircraft 100. The UAV control unit 110 may control the angle of view of the imaging unit 220 by controlling a zoom lens included in the imaging unit 220. The UAV control unit 110 may control the angle of view of the imaging unit 220 by digital zoom using the digital zoom function of the imaging unit 220.

撮像部220が無人航空機100に固定され、撮像部220を動かせない場合、UAV制御部110は、特定の日時に特定の位置に無人航空機100を移動させることにより、所望の環境下で所望の撮像範囲を撮像部220に撮像させてよい。あるいは撮像部220がズーム機能を有さず、撮像部220の画角を変更できない場合でも、UAV制御部110は、特定された日時に、特定の位置に無人航空機100を移動させることで、所望の環境下で所望の撮像範囲を撮像部220に撮像させてよい。   When the imaging unit 220 is fixed to the unmanned aircraft 100 and the imaging unit 220 cannot be moved, the UAV control unit 110 moves the unmanned aircraft 100 to a specific position at a specific date and time to perform desired imaging under a desired environment. The range may be captured by the imaging unit 220. Alternatively, even when the imaging unit 220 does not have a zoom function and the angle of view of the imaging unit 220 cannot be changed, the UAV control unit 110 moves the unmanned aircraft 100 to a specific position at the specified date and time to In this environment, the imaging unit 220 may capture a desired imaging range.

通信インタフェース150は、端末80と通信する。通信インタフェース150は、任意の無線通信方式により無線通信してよい。通信インタフェース150は、任意の有線通信方式により有線通信してよい。通信インタフェース150は、空撮画像や空撮画像に関する付加情報(メタデータ)を、端末80に送信してよい。   The communication interface 150 communicates with the terminal 80. The communication interface 150 may perform wireless communication using an arbitrary wireless communication method. The communication interface 150 may perform wired communication by an arbitrary wired communication method. The communication interface 150 may transmit the aerial image and additional information (metadata) regarding the aerial image to the terminal 80.

メモリ160は、UAV制御部110がジンバル200、回転翼機構210、撮像部220、撮像部230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280、及びレーザー測定器290を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSB(Universal Serial Bus)メモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、無人航空機100から取り外し可能であってよい。メモリ160は、作業用メモリとして動作してよい。   The memory 160 includes a gimbal 200, a rotating blade mechanism 210, an imaging unit 220, an imaging unit 230, a GPS receiver 240, an inertial measurement device 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, and a laser. A program and the like necessary for controlling the measuring device 290 are stored. The memory 160 may be a computer-readable recording medium, such as SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), and It may include at least one flash memory such as a USB (Universal Serial Bus) memory. Memory 160 may be removable from unmanned aerial vehicle 100. The memory 160 may operate as a working memory.

ストレージ170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SDカード、USBメモリ、その他のストレージの少なくとも1つを含んでよい。ストレージ170は、各種情報、各種データを保持してよい。ストレージ170は、無人航空機100から取り外し可能であってよい。ストレージ170は、空撮画像を記録してよい。   The storage 170 may include at least one of a hard disk drive (HDD), a solid state drive (SSD), an SD card, a USB memory, and other storage. The storage 170 may hold various information and various data. Storage 170 may be removable from unmanned aerial vehicle 100. The storage 170 may record aerial images.

ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像部220を回転可能に支持してよい。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像部220を回転させることで、撮像部220の撮像方向を変更してよい。   The gimbal 200 may support the imaging unit 220 rotatably about the yaw axis, pitch axis, and roll axis. The gimbal 200 may change the imaging direction of the imaging unit 220 by rotating the imaging unit 220 around at least one of the yaw axis, the pitch axis, and the roll axis.

回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータと、を有する。回転翼機構210は、UAV制御部110により回転を制御されることにより、無人航空機100を飛行させる。回転翼211の数は、例えば4つでもよいし、その他の数でもよい。また、無人航空機100は、回転翼を有さない固定翼機でもよい。   The rotary blade mechanism 210 includes a plurality of rotary blades and a plurality of drive motors that rotate the plurality of rotary blades. The rotary wing mechanism 210 causes the unmanned aircraft 100 to fly by being controlled by the UAV control unit 110. The number of rotor blades 211 may be four, for example, or any other number. Unmanned aerial vehicle 100 may also be a fixed wing aircraft that does not have rotating wings.

撮像部220は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像部220の撮像により得られた画像データ(例えば空撮画像)は、撮像部220が有するメモリ、又はストレージ170に格納されてよい。   The imaging unit 220 captures a subject in a desired imaging range and generates captured image data. Image data (for example, an aerial image) obtained by imaging by the imaging unit 220 may be stored in a memory included in the imaging unit 220 or the storage 170.

撮像部230は、無人航空機100の周囲を撮像して撮像画像のデータを生成する。撮像部230の画像データは、ストレージ170に格納されてよい。   The imaging unit 230 captures the surroundings of the unmanned aircraft 100 and generates captured image data. Image data of the imaging unit 230 may be stored in the storage 170.

GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人航空機100の位置)を算出する。GPS受信機240は、無人航空機100の位置情報をUAV制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりにUAV制御部110により行われてよい。この場合、UAV制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。   The GPS receiver 240 receives a plurality of signals indicating times and positions (coordinates) of each GPS satellite transmitted from a plurality of navigation satellites (that is, GPS satellites). The GPS receiver 240 calculates the position of the GPS receiver 240 (that is, the position of the unmanned aircraft 100) based on the plurality of received signals. The GPS receiver 240 outputs the position information of the unmanned aircraft 100 to the UAV control unit 110. The calculation of the position information of the GPS receiver 240 may be performed by the UAV control unit 110 instead of the GPS receiver 240. In this case, the UAV control unit 110 receives information indicating the time and the position of each GPS satellite included in a plurality of signals received by the GPS receiver 240.

慣性計測装置250は、無人航空機100の姿勢を検出し、検出結果をUAV制御部110に出力する。慣性計測装置250は、無人航空機100の姿勢として、無人航空機100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出してよい。   Inertial measurement device 250 detects the attitude of unmanned aerial vehicle 100 and outputs the detection result to UAV control unit 110. The inertial measurement device 250 detects, as the attitude of the unmanned aerial vehicle 100, acceleration in the three axial directions of the unmanned aircraft 100 in the front, rear, left, and right directions, and the angular velocity in the three axial directions of the pitch axis, the roll axis, and the yaw axis. It's okay.

磁気コンパス260は、無人航空機100の機首の方位を検出し、検出結果をUAV制御部110に出力する。   The magnetic compass 260 detects the heading of the unmanned aircraft 100 and outputs the detection result to the UAV control unit 110.

気圧高度計270は、無人航空機100が飛行する高度を検出し、検出結果をUAV制御部110に出力する。   Barometric altimeter 270 detects the altitude at which unmanned aircraft 100 flies, and outputs the detection result to UAV control unit 110.

超音波センサ280は、超音波を放射し、地面や物体により反射された超音波を検出し、検出結果をUAV制御部110に出力する。検出結果は、無人航空機100から地面までの距離つまり高度を示してよい。検出結果は、無人航空機100から物体(被写体)までの距離を示してよい。   The ultrasonic sensor 280 emits an ultrasonic wave, detects an ultrasonic wave reflected by the ground or an object, and outputs a detection result to the UAV control unit 110. The detection result may indicate a distance from the unmanned aircraft 100 to the ground, that is, an altitude. The detection result may indicate a distance from the unmanned aircraft 100 to an object (subject).

レーザー測定器290は、物体にレーザー光を照射し、物体で反射された反射光を受光し、反射光により無人航空機100と物体(被写体)との間の距離を測定する。レーザー光による距離の測定方式は、一例として、タイムオブフライト方式でよい。   Laser measuring device 290 irradiates the object with laser light, receives the reflected light reflected by the object, and measures the distance between unmanned aircraft 100 and the object (subject) using the reflected light. As an example, the distance measurement method using laser light may be a time-of-flight method.

図5は、端末80のハードウェア構成の一例を示すブロック図である。端末80は、端末制御部81、操作部83、通信部85、メモリ87、表示部88、及びストレージ89を備える。端末80は、無人航空機100の飛行制御の指示を希望するユーザに所持され得る。   FIG. 5 is a block diagram illustrating an example of a hardware configuration of the terminal 80. The terminal 80 includes a terminal control unit 81, an operation unit 83, a communication unit 85, a memory 87, a display unit 88, and a storage 89. The terminal 80 may be possessed by a user who desires an instruction for flight control of the unmanned aircraft 100.

端末制御部81は、例えばCPU、MPU又はDSPを用いて構成される。端末制御部81は、端末80の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。   The terminal control unit 81 is configured using, for example, a CPU, MPU, or DSP. The terminal control unit 81 performs signal processing for overall control of operations of each unit of the terminal 80, data input / output processing with other units, data calculation processing, and data storage processing.

端末制御部81は、通信部85を介して、無人航空機100からのデータや情報を取得してよい。端末制御部81は、操作部83を介して入力されたデータや情報を取得してもよい。端末制御部81は、メモリ87に保持されたデータや情報を取得してもよい。端末制御部81は、通信部85を介して、無人航空機100へ、データや情報を送信してもよい。端末制御部81は、データや情報を表示部88に送り、このデータや情報に基づく表示情報を表示部88に表示させてもよい。   The terminal control unit 81 may acquire data and information from the unmanned aircraft 100 via the communication unit 85. The terminal control unit 81 may acquire data and information input via the operation unit 83. The terminal control unit 81 may acquire data and information held in the memory 87. The terminal control unit 81 may transmit data and information to the unmanned aircraft 100 via the communication unit 85. The terminal control unit 81 may send data and information to the display unit 88 and cause the display unit 88 to display display information based on the data and information.

端末制御部81は、画像を合成して合成画像を生成するためのアプリケーションを実行してもよい。端末制御部81は、アプリケーションで用いられる各種のデータを生成してもよい。   The terminal control unit 81 may execute an application for synthesizing images and generating a synthesized image. The terminal control unit 81 may generate various data used in the application.

操作部83は、端末80のユーザにより入力されるデータや情報を受け付けて取得する。操作部83は、ボタン、キー、タッチスクリーン、マイクロホン、等の入力装置を含んでもよい。ここでは、主に、操作部83と表示部88とがタッチパネルにより構成されることを例示する。この場合、操作部83は、タッチ操作、タップ操作、ドラック操作等を受付可能である。操作部83により入力された情報は、無人航空機100へ送信されてもよい。   The operation unit 83 receives and acquires data and information input by the user of the terminal 80. The operation unit 83 may include input devices such as buttons, keys, a touch screen, and a microphone. Here, it is exemplified that the operation unit 83 and the display unit 88 are mainly configured by a touch panel. In this case, the operation unit 83 can accept a touch operation, a tap operation, a drag operation, and the like. Information input by the operation unit 83 may be transmitted to the unmanned aircraft 100.

通信部85は、各種の無線通信方式により、無人航空機100との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。通信部85は、任意の有線通信方式により有線通信してよい。   The communication unit 85 performs wireless communication with the unmanned aircraft 100 by various wireless communication methods. This wireless communication method of wireless communication may include, for example, communication via a wireless LAN, Bluetooth (registered trademark), or a public wireless line. The communication unit 85 may perform wired communication using an arbitrary wired communication method.

メモリ87は、例えば端末80の動作を規定するプログラムや設定値のデータが格納されたROMと、端末制御部81の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してもよい。メモリ87は、ROM及びRAM以外のメモリが含まれてよい。メモリ87は、端末80の内部に設けられてよい。メモリ87は、端末80から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。   The memory 87 includes, for example, a ROM that stores a program that defines the operation of the terminal 80 and data of setting values, and a RAM that temporarily stores various information and data used during processing by the terminal control unit 81. May be. The memory 87 may include memories other than ROM and RAM. The memory 87 may be provided inside the terminal 80. The memory 87 may be provided so as to be removable from the terminal 80. The program may include an application program.

表示部88は、例えばLCD(Liquid Crystal Display)を用いて構成され、端末制御部81から出力された各種の情報やデータを表示する。表示部88は、アプリケーションの実行に係る各種データや情報を表示してもよい。   The display unit 88 is configured using, for example, an LCD (Liquid Crystal Display), and displays various information and data output from the terminal control unit 81. The display unit 88 may display various data and information related to the execution of the application.

ストレージ89は、各種データ、情報を蓄積し、保持する。ストレージ89は、HDD、SSD、SDカード、USBメモリ、等でよい。ストレージ89は、端末80の内部に設けられてもよい。ストレージ89は、端末80から取り外し可能に設けられてもよい。ストレージ89は、無人航空機100から取得された空撮画像や付加情報を保持してよい。付加情報は、メモリ87に保持されてよい。   The storage 89 stores and holds various data and information. The storage 89 may be an HDD, SSD, SD card, USB memory, or the like. The storage 89 may be provided inside the terminal 80. The storage 89 may be provided so as to be removable from the terminal 80. The storage 89 may hold an aerial image acquired from the unmanned aircraft 100 and additional information. Additional information may be held in the memory 87.

なお、飛行体システム10が送信機(プロポ)を備える場合、端末80が実行する処理は、送信機が実行してもよい。送信機は、端末80と同様の構成部を有するので、詳細な説明については省略する。送信機は、制御部、操作部、通信部、表示部、メモリ、等を有する。飛行体システム10が送信機を有する場合、端末80が設けられなくてもよい。   When the flying vehicle system 10 includes a transmitter (propo), the processing executed by the terminal 80 may be executed by the transmitter. Since the transmitter has the same components as the terminal 80, a detailed description thereof will be omitted. The transmitter includes a control unit, an operation unit, a communication unit, a display unit, a memory, and the like. If the aircraft system 10 has a transmitter, the terminal 80 may not be provided.

図6は、無人航空機100が備える撮像部220のハードウェア構成を示す図である。撮像部220は、筐体220zを有する。撮像部220は、筐体220zの内部に、カメラプロセッサ11、シャッタ12、撮像素子13、画像処理部14、メモリ15、シャッタ駆動部19、素子駆動部20、ゲイン制御部21、及びフラッシュ18を有する。なお、撮像部220における各構成の少なくとも一部は、設けられなくてもよい。   FIG. 6 is a diagram illustrating a hardware configuration of the imaging unit 220 included in the unmanned aerial vehicle 100. The imaging unit 220 has a housing 220z. The imaging unit 220 includes a camera processor 11, a shutter 12, an imaging element 13, an image processing unit 14, a memory 15, a shutter driving unit 19, an element driving unit 20, a gain control unit 21, and a flash 18 inside the housing 220z. Have. Note that at least a part of each component in the imaging unit 220 may not be provided.

カメラプロセッサ11は、露光時間、絞り(アイリス)などの撮像条件を決定する。カメラプロセッサ11は、NDフィルタ32による減光分を加味して露光(AE:Automatic Exposure)制御を行ってよい。カメラプロセッサ11は、画像処理部14から出力された画像データから輝度(明度)レベル(例えば画素値)を算出してよい。カメラプロセッサ11は、算出した輝度(明度)レベルに基づいて撮像素子13に対するゲインの値を算出し、この算出結果をゲイン制御部21に送出してよい。カメラプロセッサ11は、算出した輝度(明度)レベルに基づいてシャッタ12を開閉するためのシャッタスピードの値を算出し、算出結果をシャッタ駆動部19に送出してよい。カメラプロセッサ11は、撮像素子13にタイミング信号を供給する素子駆動部20に、撮像の指示を送出してよい。   The camera processor 11 determines imaging conditions such as exposure time and aperture (iris). The camera processor 11 may perform exposure (AE: Automatic Exposure) control in consideration of the light attenuation by the ND filter 32. The camera processor 11 may calculate a luminance (brightness) level (for example, a pixel value) from the image data output from the image processing unit 14. The camera processor 11 may calculate a gain value for the image sensor 13 based on the calculated luminance (lightness) level, and send the calculation result to the gain control unit 21. The camera processor 11 may calculate a shutter speed value for opening and closing the shutter 12 based on the calculated luminance (lightness) level, and send the calculation result to the shutter drive unit 19. The camera processor 11 may send an imaging instruction to the element driving unit 20 that supplies a timing signal to the imaging element 13.

シャッタ12は、例えばフォーカルプレーンシャッタであり、シャッタ駆動部19により駆動される。シャッタ12の開放時に入射した光は、撮像素子13の撮像面上に結像する。撮像素子13は、撮像面上に結像した光学像を光電変換し、画像信号として出力する。撮像素子13には、CCD(Charge Coupled Device:電荷結合素子)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor:相補型MOS)イメージセンサが用いられてよい。   The shutter 12 is a focal plane shutter, for example, and is driven by a shutter drive unit 19. The incident light when the shutter 12 is opened forms an image on the imaging surface of the image sensor 13. The image sensor 13 photoelectrically converts an optical image formed on the imaging surface and outputs it as an image signal. As the imaging device 13, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor may be used.

ゲイン制御部21は、撮像素子13から入力された画像信号に対してノイズを低減し、撮像信号を増幅するゲイン(利得)を制御する。画像処理部14は、ゲイン制御部21によって増幅された撮像信号に対し、アナログデジタル変換を行って画像データを生成する。画像処理部14は、シェーディング補正、色補正、輪郭強調、ノイズ除去、ガンマ補正、ディベイヤ、圧縮等の各処理を行ってよい。   The gain control unit 21 reduces noise with respect to the image signal input from the image sensor 13 and controls a gain (gain) for amplifying the image signal. The image processing unit 14 performs analog-digital conversion on the imaging signal amplified by the gain control unit 21 to generate image data. The image processing unit 14 may perform various processes such as shading correction, color correction, contour enhancement, noise removal, gamma correction, debayering, and compression.

メモリ15は、各種データや画像データを記憶する記憶媒体である。メモリ15は、例えば、シャッタスピードS、F値、ISO感度、ND値を基に露光量を算出するための露光制御情報を保持してよい。ISO感度は、ゲインに対応する値である。ND値は減光フィルタによる減光度を表す。露光制御情報は、AEアルゴリズムを含んでよい。   The memory 15 is a storage medium that stores various data and image data. For example, the memory 15 may hold exposure control information for calculating an exposure amount based on the shutter speed S, F value, ISO sensitivity, and ND value. The ISO sensitivity is a value corresponding to the gain. The ND value represents the dimming degree by the neutral density filter. The exposure control information may include an AE algorithm.

シャッタ駆動部19は、カメラプロセッサ11から指示されたシャッタスピードでシャッタ12を開閉する。素子駆動部20は、タイミングジェネレータであり、カメラプロセッサ11からの撮像の指示に従い、撮像素子13にタイミング信号を供給し、撮像素子13の電荷の蓄積動作、読み出し動作、リセット動作等を行う。   The shutter drive unit 19 opens and closes the shutter 12 at the shutter speed instructed from the camera processor 11. The element driving unit 20 is a timing generator, supplies a timing signal to the image sensor 13 in accordance with an imaging instruction from the camera processor 11, and performs a charge accumulation operation, a read operation, a reset operation, and the like of the image sensor 13.

フラッシュ18は、カメラプロセッサ11の指示に従い、夜間撮像時や逆光時(逆光補正時)に閃光し、被写体を照明する。フラッシュ18には、例えばLED(light Emitting Diode)ライトが用いられる。なお、フラッシュ18は省かれてもよい。   The flash 18 illuminates the subject by flashing in accordance with instructions from the camera processor 11 during night imaging or backlighting (backlight correction). For example, an LED (light emitting diode) light is used for the flash 18. Note that the flash 18 may be omitted.

また、撮像部220は、筐体220zの内部に、NDフィルタ32、絞り33、レンズ群34、レンズ駆動部36、ND駆動部38、及び絞り駆動部40を有する。   The imaging unit 220 includes an ND filter 32, a diaphragm 33, a lens group 34, a lens driving unit 36, an ND driving unit 38, and a diaphragm driving unit 40 inside the housing 220z.

レンズ群34は、被写体からの光を集光して撮像素子13に結像する。レンズ群34は、フォーカスレンズ、ズームレンズ、像振れ補正用レンズ、等を含む。レンズ群34は、レンズ駆動部36によって駆動される。レンズ駆動部36は、モータ(図示せず)を有し、カメラプロセッサ11からの制御信号を入力すると、ズームレンズ及びフォーカスレンズを含むレンズ群34を光軸opの方向(光軸方向)に移動させてよい。レンズ駆動部36は、ズームレンズを移動させてズーム倍率を変更するズーミング動作を行う場合、筐体220zの一部でありレンズ群34を収容する鏡筒を前後方向に伸縮させてよい。   The lens group 34 collects light from the subject and forms an image on the image sensor 13. The lens group 34 includes a focus lens, a zoom lens, an image blur correction lens, and the like. The lens group 34 is driven by a lens driving unit 36. The lens driving unit 36 includes a motor (not shown), and moves a lens group 34 including a zoom lens and a focus lens in the direction of the optical axis op (optical axis direction) when a control signal from the camera processor 11 is input. You may let me. When performing a zooming operation for changing the zoom magnification by moving the zoom lens, the lens driving unit 36 may extend and contract a lens barrel that is a part of the housing 220z and accommodates the lens group 34 in the front-rear direction.

絞り33は、絞り駆動部40によって駆動される。絞り駆動部40は、モータ(図示せず)を有し、カメラプロセッサ11からの制御信号を入力すると、絞り33の開口を拡縮する。   The diaphragm 33 is driven by the diaphragm driver 40. The aperture drive unit 40 includes a motor (not shown), and when the control signal from the camera processor 11 is input, the aperture of the aperture 33 is enlarged or reduced.

NDフィルタ32は、光軸opの方向(光軸方向)において、例えば絞り33の近傍に配置され、入射する光の量を制限する減光を行う。ND駆動部38は、モータ(図示せず)を有し、カメラプロセッサ11からの制御信号を入力すると、NDフィルタ32を光軸op上に挿抜してよい。   The ND filter 32 is disposed, for example, in the vicinity of the diaphragm 33 in the direction of the optical axis op (optical axis direction), and performs dimming to limit the amount of incident light. The ND drive unit 38 includes a motor (not shown), and when the control signal from the camera processor 11 is input, the ND filter 32 may be inserted into and removed from the optical axis op.

次に、無人航空機100のUAV制御部110が有する光量調整に関する機能について説明する。UAV制御部110は、処理部の一例である。本実施形態では、撮像部220が逆光の環境下で被写体を撮像(逆光撮像とも称する)することを主に想定する。なお、逆光撮像でなくても、被写体に到達する光量の調整が必要な撮像に広く適用されてよい。   Next, a function related to the light amount adjustment that the UAV control unit 110 of the unmanned aircraft 100 has will be described. The UAV control unit 110 is an example of a processing unit. In the present embodiment, it is mainly assumed that the imaging unit 220 images a subject (also referred to as backlight imaging) under a backlight environment. In addition, even if it is not a backlight imaging, it may apply widely to the imaging which needs adjustment of the light quantity which reaches | attains a to-be-photographed object.

UAV制御部110は、無人航空機100の動作モード(例えば飛行モード、撮像モード)を設定する。撮像モードは、撮像部220で撮像される際の被写体を照らす光量を調整するための光量調整撮像モードを含む。無人航空機100の動作モード(例えばハイパースピード撮像モード)は、例えば時間帯や無人航空機100の所在位置に基づいて無人航空機100自身のUAV制御部110により指示されてもよいし、通信インタフェース150を介して、端末80により遠隔で指示されてもよい。   The UAV control unit 110 sets the operation mode (eg, flight mode, imaging mode) of the unmanned aircraft 100. The imaging mode includes a light amount adjustment imaging mode for adjusting the amount of light that illuminates the subject when the imaging unit 220 captures an image. The operation mode (for example, hyper speed imaging mode) of the unmanned aircraft 100 may be instructed by the UAV control unit 110 of the unmanned aircraft 100 based on, for example, the time zone or the location of the unmanned aircraft 100, or via the communication interface 150. The terminal 80 may be used to remotely instruct.

UAV制御部110は、無人航空機100から任意の物体(例えば主被写体となる人物hm)までの距離を測定する。この場合、UAV制御部110は、超音波センサ280やレーザー測定器290により物体までの距離を測定してよい。   The UAV control unit 110 measures the distance from the unmanned aircraft 100 to an arbitrary object (for example, a person hm serving as a main subject). In this case, the UAV control unit 110 may measure the distance to the object using the ultrasonic sensor 280 or the laser measuring device 290.

UAV制御部110は、例えば、自動露出で、つまり所定のAEアルゴリズムに従った露光量の調整(自動露光調整とも称する)を行ってよい。なお、AEアルゴリズムは、撮像対象における主被写体が何であるかを把握しない。AEアルゴリズムは、撮像対象における各被写体の明度差が大きいか否かを把握しない。AEアルゴリズムは、撮像対象における各被写体の全体的な明度(明るさ)を把握する。このように、AEアルゴリズムは、各被写体の明度差を把握していないため、逆光撮像が発生し得る。なお、撮像対象は、撮像された対象(撮像画像に映り込んだ被写体)でもよいし、撮像される前の対象でもよい。   The UAV control unit 110 may perform, for example, automatic exposure, that is, exposure amount adjustment (also referred to as automatic exposure adjustment) according to a predetermined AE algorithm. Note that the AE algorithm does not grasp what the main subject in the imaging target is. The AE algorithm does not grasp whether the brightness difference between the subjects in the imaging target is large. The AE algorithm grasps the overall brightness (brightness) of each subject in the imaging target. As described above, since the AE algorithm does not grasp the brightness difference of each subject, backlight imaging can occur. Note that the imaging target may be a captured target (a subject reflected in a captured image) or a target before being captured.

UAV制御部110は、AEアルゴリズムに従って撮像された撮像画像を基に、AE統計の情報を取得する。AE統計は、撮像画像における各画素の画素値の分布(明度分布)により示されてよく、ヒストグラムにより表現されてよい。UAV制御部110は、例えば、撮像画像における各画素の画素値の平均値が閾値th1以下である場合、撮像部220による撮像のために光量の補充が必要であり、フラッシュ18の発光や発光量の増加が必要であると判断してよい。例えば、ヒストグラムにおいて画素値v1となる撮像画像中の画素数と画素値v2となる撮像画像中の画素数がそれぞれピークとなり、画素値v1と画素値v2との距離が離れている場合(つまり明度差が大きい場合)、逆光撮像となる可能性が高いので、UAV制御部110は、フラッシュ18の発光や発光量の増加が必要であると判断してよい。   The UAV control unit 110 acquires AE statistics information based on a captured image captured according to the AE algorithm. The AE statistics may be indicated by a pixel value distribution (lightness distribution) of each pixel in the captured image, and may be expressed by a histogram. For example, when the average value of the pixel values of each pixel in the captured image is equal to or less than the threshold th1, the UAV control unit 110 needs to supplement the amount of light for imaging by the imaging unit 220, and the flash 18 emits light or the amount of light emitted. It may be determined that an increase in For example, in the histogram, the number of pixels in the captured image with the pixel value v1 and the number of pixels in the captured image with the pixel value v2 each peak, and the distance between the pixel value v1 and the pixel value v2 is large (that is, brightness) If there is a large difference), the UAV control unit 110 may determine that light emission from the flash 18 or an increase in the light emission amount is necessary because there is a high possibility of backlight imaging.

UAV制御部110は、撮像部220の撮像条件(撮像情報)を基に、フラッシュ18の光が有効な有効距離Dを算出してよい。例えば、UAV制御部110は、フラッシュ18の発光量に対応するガイドナンバー、ISOの値、絞り33の絞り値(F)を基に、有効距離Dを算出してよい。UAV制御部110は、フラッシュ18を仮に発光して撮像した撮像結果に基づいて、有効距離Dを算出して取得してよい。   The UAV control unit 110 may calculate the effective distance D in which the light of the flash 18 is effective based on the imaging conditions (imaging information) of the imaging unit 220. For example, the UAV control unit 110 may calculate the effective distance D based on the guide number corresponding to the light emission amount of the flash 18, the ISO value, and the aperture value (F) of the aperture 33. The UAV control unit 110 may calculate and acquire the effective distance D based on the imaging result obtained by temporarily emitting light from the flash 18.

UAV制御部110は、被写体(例えば主被写体)に到達する光量を調整してよい。この場合、UAV制御部110は、無人航空機100の移動を制御することで、被写体と無人航空機100との距離を調整し、被写体に到達する光量を調整してよい。UAV制御部110は、フラッシュ18の発光量を増減させることで、被写体に到達する光量を調整してよい。   The UAV control unit 110 may adjust the amount of light reaching the subject (for example, the main subject). In this case, the UAV control unit 110 may adjust the amount of light reaching the subject by adjusting the distance between the subject and the unmanned aircraft 100 by controlling the movement of the unmanned aircraft 100. The UAV control unit 110 may adjust the amount of light reaching the subject by increasing or decreasing the light emission amount of the flash 18.

UAV制御部110は、フラッシュ18を用いて撮像部220を介して撮像してよい。つまり、撮像部220は、フラッシュ18が発する光で被写体を照明した状態で、被写体を撮像してよい。フラッシュ18は、発光量を調整できても調整てきなくてもよい。つまり、フラッシュ18の発光量は、可変でも固定でもよい。   The UAV control unit 110 may perform imaging using the flash 18 via the imaging unit 220. That is, the imaging unit 220 may capture the subject in a state where the subject is illuminated with light emitted from the flash 18. The flash 18 may or may not adjust the light emission amount. That is, the light emission amount of the flash 18 may be variable or fixed.

図7は、逆光撮像の状況を示す図である。図7では、一例として、太陽SL及び山mtが背後にあり人物hmがその前に立っている被写体を、無人航空機100に搭載された撮像部220が撮像する場合を示す。この場合、太陽SLや山mtと人物hmとの明度差が大きくなりやすく、逆光撮像となり易い。   FIG. 7 is a diagram illustrating a situation of backlight imaging. In FIG. 7, as an example, a case where the imaging unit 220 mounted on the unmanned aircraft 100 captures an image of a subject with the sun SL and the mountain mt behind and a person hm standing in front of it is shown. In this case, the brightness difference between the sun SL or the mountain mt and the person hm is likely to increase, and backlight imaging is likely to occur.

図8は、逆光時、フラッシュ撮像を適正に行うための無人航空機100の動作の全体的な流れを示す図である。ここでは、被写体は、図7と同様でよい。なお、ここでは、UAV制御部110が動作の主体である場合には、UAV制御部110の指示によりカメラプロセッサ11が処理を行う場合も含まれてよい。   FIG. 8 is a diagram illustrating an overall flow of the operation of the unmanned aerial vehicle 100 for appropriately performing flash imaging during backlighting. Here, the subject may be the same as in FIG. Here, when the UAV control unit 110 is the main subject of operation, the case where the camera processor 11 performs processing in accordance with an instruction from the UAV control unit 110 may be included.

まず、UAV制御部110は、カメラプロセッサ11を介してフラッシュ18を発光させずに、自動露光調整して、被写体を撮像し、撮像画像GZ1を得る。この場合、撮像画像GZ1では、背景の明度と主被写体の明度との差が大きく、逆光現象が発生する。逆光現象は、例えば、主被写体である人物hmとその背景との明度差が閾値以上となること、人物hmの明度が閾値以下となること(人物hmが暗くなりすぎること)、を含んでよい。   First, the UAV control unit 110 performs automatic exposure adjustment without causing the flash 18 to emit light via the camera processor 11, images a subject, and obtains a captured image GZ <b> 1. In this case, in the captured image GZ1, the difference between the brightness of the background and the brightness of the main subject is large, and a backlight phenomenon occurs. The backlight phenomenon may include, for example, that the brightness difference between the person hm, which is the main subject, and the background thereof is greater than or equal to a threshold, and that the brightness of the person hm is less than or equal to the threshold (the person hm is too dark). .

逆光時には、例えば、UAV制御部110は、AEアルゴリズムに従って、撮像対象において背景の明度が高い場合、明るいシーンと判断し得る。この場合、UAV制御部110は、AEアルゴリズムに従って、露光量を下げるよう調整し得る。この場合、背景の前に位置する人物hmの明度は比較的低いので、露光量が下げられる結果、人物hmの明度が更に下がり易い。   At the time of backlighting, for example, the UAV control unit 110 can determine that the scene is bright when the brightness of the background of the imaging target is high according to the AE algorithm. In this case, the UAV control unit 110 can adjust the exposure amount in accordance with the AE algorithm. In this case, since the brightness of the person hm located in front of the background is relatively low, the brightness of the person hm is more likely to decrease as a result of the reduction in the exposure amount.

また、UAV制御部110は、この撮像で得られる撮像画像GZ1に関する撮像情報を、メモリ15又はメモリ160に保持させてよい。この撮像情報は、例えば、カメラパラメータ、撮像画像GZ1における画素値の情報、画素値の分布の情報、等を含んでよい。カメラパラメータは、シャッタスピードS、F値、ISO感度、ND値、ズーム倍率、等を含んでよい。   Further, the UAV control unit 110 may cause the memory 15 or the memory 160 to hold imaging information regarding the captured image GZ1 obtained by the imaging. The imaging information may include, for example, camera parameters, pixel value information in the captured image GZ1, pixel value distribution information, and the like. The camera parameters may include shutter speed S, F value, ISO sensitivity, ND value, zoom magnification, and the like.

続いて、UAV制御部110は、逆光現象が発生している場合、撮像画像G1に関する撮像情報を基に、逆光撮像における、フラッシュ18の発光量に対応するガイドナンバー(GN:Guide Number)を算出する。このガイドナンバーに基づくフラッシュ18の発光は、次回以降の撮像時に利用される。UAV制御部110は、AEアルゴリズムに従って、撮像情報を基にガイドナンバーを算出してよい。なお、UAV制御部110は、フラッシュ18の種類の情報や識別情報に応じてガイドナンバーが定まっている場合、通信インタフェース150を介して外部サーバからガイドナンバーの情報を取得してもよい。   Subsequently, when the backlight phenomenon occurs, the UAV control unit 110 calculates a guide number (GN: Guide Number) corresponding to the light emission amount of the flash 18 in the backlight imaging based on the imaging information regarding the captured image G1. To do. The light emission of the flash 18 based on the guide number is used for the next and subsequent imaging. The UAV control unit 110 may calculate the guide number based on the imaging information according to the AE algorithm. Note that the UAV control unit 110 may acquire the guide number information from the external server via the communication interface 150 when the guide number is determined according to the type information and identification information of the flash 18.

続いて、UAV制御部110は、算出されたガイドナンバーを基に、例えば式(1)に従い、有効距離Dを算出する。
D = GN × (ISO/100)1/2/FN …… (1)
ここで、D:撮像部220から主被写体である人物hmまでの有効距離、GN:撮像画像における明るさを合わせるために必要な光の強度(フラッシュの発光量)、FN:絞り33の口径の大きさを表す数値、ISO:撮像素子の感度(ゲイン)を表す数値、である。
Subsequently, the UAV control unit 110 calculates the effective distance D based on the calculated guide number, for example, according to the equation (1).
D = GN × (ISO / 100) 1/2 / FN (1)
Here, D: effective distance from the imaging unit 220 to the person hm as the main subject, GN: intensity of light (flash emission amount) necessary for matching the brightness in the captured image, FN: aperture of the aperture 33 A numerical value representing the magnitude, ISO: a numerical value representing the sensitivity (gain) of the image sensor.

続いて、UAV制御部110は、無人航空機100と人物hmとの間の距離D0が、有効距離D以下であるか否かを判別する。距離D0が有効距離Dより長い場合、フラッシュ18と人物hmとの距離D0を調整する。この場合、無人航空機100が、人物hmに向かって接近する又は遠ざかるように移動して調整してよいし、主被写体である人物hmが、無人航空機100に向かって接近する又は遠ざかるように移動して調整してよい。これにより、人物hmに到達する光量が調整される。   Subsequently, the UAV control unit 110 determines whether or not the distance D0 between the unmanned aircraft 100 and the person hm is equal to or less than the effective distance D. When the distance D0 is longer than the effective distance D, the distance D0 between the flash 18 and the person hm is adjusted. In this case, the unmanned aircraft 100 may be moved and adjusted so as to approach or move away from the person hm, or the person hm that is the main subject moves so as to approach or move away from the unmanned airplane 100. You can adjust it. As a result, the amount of light reaching the person hm is adjusted.

距離D0が有効距離D以下になると、UAV制御部110は、フラッシュ18を発光させて人物hmを照明し、被写体全体(撮像画像の画像全体)の明度の差を抑えた状態にする。UAV制御部110は、この状態で、撮像部220を介して、自動露光調整して、撮像を行い、撮像画像GZ2を得る。この撮像画像GZ2では、背景の明度と主被写体の明度の差が小さくなる。つまり、背景にある太陽SLや山mtの明度が低くなり、主被写体である人物hmの明度が高くなる。このように、無人航空機100は、逆光による現象を抑制できる。   When the distance D0 becomes equal to or less than the effective distance D, the UAV control unit 110 emits the flash 18 to illuminate the person hm so that the brightness difference of the entire subject (the entire image of the captured image) is suppressed. In this state, the UAV control unit 110 performs automatic exposure adjustment through the imaging unit 220, performs imaging, and obtains a captured image GZ2. In the captured image GZ2, the difference between the brightness of the background and the brightness of the main subject is small. That is, the brightness of the sun SL or the mountain mt in the background is lowered, and the brightness of the person hm as the main subject is increased. Thus, the unmanned aerial vehicle 100 can suppress a phenomenon caused by backlight.

図9は、図8に示したガイドナンバーの算出の詳細を説明する図である。ここでは、被写体は、図7と同様でよい。図8では、撮像のためのフラッシュ18が発する光として、仮に光量が設定された仮フラッシュ光と、光量が演算等により決定され設定された本フラッシュ光と、が考慮される。   FIG. 9 is a diagram for explaining the details of the calculation of the guide number shown in FIG. Here, the subject may be the same as in FIG. In FIG. 8, as the light emitted from the flash 18 for imaging, the temporary flash light in which the light amount is temporarily set and the main flash light in which the light amount is determined and set by calculation or the like are considered.

まず、UAV制御部110は、逆光状態において、フラッシュ18に仮フラッシュ光を発光させて被写体を照明し、撮像部220を介して被写体を撮像し、撮像画像GZ3を得る。仮フラッシュ光を用いることで、UAV制御部110は、被写体全体(例えば人物hm、太陽SL、山mt)の明度差が現れた撮像画像GZ3を取得する。なお、仮フラッシュ光は、フラッシュ18が発する任意の強度の光でよい。仮フラッシュ光の光量は、被写体全体の明度差に影響を与えないように、本フラッシュ光の光量に比べて少なく設定されてよい。   First, in the backlight state, the UAV control unit 110 causes the flash 18 to emit temporary flash light to illuminate the subject, captures the subject via the imaging unit 220, and obtains a captured image GZ3. By using the temporary flash light, the UAV control unit 110 acquires the captured image GZ3 in which the brightness difference of the entire subject (for example, the person hm, the sun SL, and the mountain mt) appears. The temporary flash light may be light having an arbitrary intensity emitted from the flash 18. The light quantity of the temporary flash light may be set smaller than the light quantity of the main flash light so as not to affect the brightness difference of the entire subject.

続いて、UAV制御部110は、撮像画像GZ3を画像解析し、撮像画像GZ3における全画素の画素値の平均値、及び全画素に亘る明度分布を表すヒストグラムgmを算出する。ヒストグラムgmでは、横軸は、明度(画素値)を値0〜255を表し、縦軸は、画素値が出現する画素の頻度(画素数)を表す。明度の値(画素値)が大きい程、画素は白色に近付く。   Subsequently, the UAV control unit 110 performs image analysis on the captured image GZ3, and calculates an average value of pixel values of all the pixels in the captured image GZ3 and a histogram gm representing a lightness distribution over all the pixels. In the histogram gm, the horizontal axis represents lightness (pixel value) from 0 to 255, and the vertical axis represents the frequency (number of pixels) of pixels in which the pixel value appears. The greater the value of brightness (pixel value), the closer the pixel is to white.

続いて、UAV制御部110は、公知のガイドナンバー導出アルゴリズムに従って、算出されたヒストグラムgmを基に、ガイドナンバーを算出する(b4)。   Subsequently, the UAV control unit 110 calculates a guide number based on the calculated histogram gm according to a known guide number derivation algorithm (b4).

このように、UAV制御部110は、人物hm(被写体の一例)の明度とその背景(例えば太陽SLや山mt)の明度とに基づいて、フラッシュ18が人物hmを照明するためのガイドナンバー(光の強度の一例)を算出してよい。UAV制御部110は、ガイドナンバーに基づいて、有効距離D(第1の距離の一例)を算出してよい。   As described above, the UAV control unit 110 uses the guide number (the flash 18 to illuminate the person hm) based on the brightness of the person hm (an example of the subject) and the brightness of the background (for example, the sun SL or the mountain mt). An example of light intensity) may be calculated. The UAV control unit 110 may calculate the effective distance D (an example of the first distance) based on the guide number.

これにより、無人航空機100は、人物hmとその背景にある太陽SL及び山mtの明度を加味してガイドナンバーを決定することができ、人物hmと背景との明度の差を小さくできる。したがって、人物hmの撮像時に逆光となり、人物hmとその背景との明度の差が大きくなり易い場合でも、無人航空機100は、フラッシュ18による光を用いて、逆光による画質劣化を抑制できる。   Thereby, the unmanned aircraft 100 can determine the guide number in consideration of the brightness of the person hm, the sun SL and the mountain mt in the background, and can reduce the difference in brightness between the person hm and the background. Therefore, the unmanned aerial vehicle 100 can suppress image quality deterioration due to backlight using the light from the flash 18 even when the brightness of the person hm and the background thereof tends to be large due to backlight when the person hm is captured.

また、UAV制御部110は、フラッシュ18により仮フラッシュ光(所定の光量の光の一例)で人物hmが照明された状態で、撮像部220に人物hmを撮像させて撮像画像GZ3を取得してよい。UAV制御部110は、撮像画像GZ3を基にヒストグラムgm(撮像画像GZ3における画素値の分布情報の一例)を取得し、ヒストグラムgmを基に、フラッシュ18のガイドナンバーを算出してよい。   In addition, the UAV control unit 110 causes the imaging unit 220 to image the person hm in a state where the person hm is illuminated with the temporary flash light (an example of light having a predetermined light amount) by the flash 18, and acquires the captured image GZ3. Good. The UAV control unit 110 may acquire a histogram gm (an example of distribution information of pixel values in the captured image GZ3) based on the captured image GZ3, and calculate the guide number of the flash 18 based on the histogram gm.

これにより、無人航空機100は、試験的に任意の光量の光で被写体を照明して画像を撮像し、得られた撮像画像GZ3の画素値の分布から、被写体の撮像のために本来必要なフラッシュ18による光の強度を導出できる。つまり、無人航空機100は、任意の露光量で被写体を1枚撮像するという簡単な動作で、フラッシュ18による光の強度を自動決定できる。   Thereby, the unmanned aerial vehicle 100 illuminates the subject with an arbitrary amount of light on a trial basis to capture an image, and from the distribution of pixel values of the obtained captured image GZ3, a flash that is originally necessary for capturing the subject. The light intensity by 18 can be derived. That is, the unmanned aerial vehicle 100 can automatically determine the intensity of light from the flash 18 with a simple operation of imaging one subject with an arbitrary exposure amount.

なお、ヒストグラム以外の情報を基に、ガイドナンバーが導出されてもよい。例えば、UAV制御部110は、P−TTL(Pre - Through The Lens)調光に基づいて、ガイドナンバーを算出してよい。この場合、UAV制御部110は、撮像画像GZ3を画像解析し、公知のP−TTLアルゴリズムに従って必要な発光量を算出し、算出された発行量に従い、ガイドナンバーを算出してよい。   The guide number may be derived based on information other than the histogram. For example, the UAV control unit 110 may calculate the guide number based on P-TTL (Pre-Through The Lens) dimming. In this case, the UAV control unit 110 may analyze the captured image GZ3, calculate a necessary light emission amount according to a known P-TTL algorithm, and calculate a guide number according to the calculated issuance amount.

図10は、逆光撮像時、主被写体である人物hmを無人航空機100の撮像部220が撮像する状況を示す図である。   FIG. 10 is a diagram illustrating a situation where the imaging unit 220 of the unmanned aerial vehicle 100 captures an image of the person hm that is the main subject during backlight imaging.

撮像部220の撮像条件の一例として、絞り値F4、シャッタスピード1/1000(秒)、ISO100、とする。この場合、フラッシュ18の有効距離Dは、式(1)に従い、1.25mである。   As an example of imaging conditions of the imaging unit 220, an aperture value F4, a shutter speed 1/1000 (second), and ISO 100 are set. In this case, the effective distance D of the flash 18 is 1.25 m according to the equation (1).

例えば、無人航空機100と人物hmとの間の距離D0が2.5mであり、有効距離Dより長い場合、UAV制御部110は、人物hmに接近し、距離D0が1.25m以内になるように、無人航空機100の移動を制御する。そして、撮像部220は、フラッシュ18の光で人物hmを照明し、自動露光調整された状態で、被写体を撮像する。これにより、無人航空機100は、画像に映り込む被写体全体で明度差が抑えられた、適正な露光量で撮像された画像を取得できる。   For example, when the distance D0 between the unmanned aircraft 100 and the person hm is 2.5 m and is longer than the effective distance D, the UAV control unit 110 approaches the person hm so that the distance D0 is within 1.25 m. In addition, the movement of the unmanned aircraft 100 is controlled. Then, the imaging unit 220 illuminates the person hm with the light of the flash 18 and images the subject in a state in which automatic exposure adjustment is performed. As a result, the unmanned aerial vehicle 100 can acquire an image captured with an appropriate exposure amount in which a brightness difference is suppressed in the entire subject reflected in the image.

また、距離D0が有効距離D以内(以下)である場合、UAV制御部110は、無人航空機100を移動するよう制御することなく、自動露光調整して撮像してよい。この場合、UAV制御部110は、フラッシュ18の発光量を、仮フラッシュ時と同量としてよい。UAV制御部110は、フラッシュ18の発光量を、仮フラッシュ時と本フラッシュ時とで異なるようにしてよく、例えば自動露光調整により調整してよい。例えば、主被写体である人物hmに対し無人航空機100が近い場合、UAV制御部110は、フラッシュ18の発光量を少なくしてよく、つまり、ガイドナンバーが小さくなるように設定してよい。この場合、UAV制御部110は、仮フラッシュ時よりも本フラッシュ時のフラッシュ18の発光量を少なくしてよい。   Further, when the distance D0 is within the effective distance D (below), the UAV control unit 110 may perform imaging by performing automatic exposure adjustment without controlling the unmanned aircraft 100 to move. In this case, the UAV control unit 110 may set the light emission amount of the flash 18 to be the same as that in the temporary flash. The UAV control unit 110 may change the light emission amount of the flash 18 between the temporary flash and the main flash, for example, by automatic exposure adjustment. For example, when the unmanned aircraft 100 is close to the person hm who is the main subject, the UAV control unit 110 may reduce the light emission amount of the flash 18, that is, set the guide number to be small. In this case, the UAV control unit 110 may reduce the light emission amount of the flash 18 at the time of the main flash rather than the temporary flash.

また、距離D0が有効距離D以内である場合、UAV制御部110は、フラッシュ18の発光量を少なくする代わりに、有効距離D内で、無人航空機100が人物hmから遠ざかるよう制御してもよい。無人航空機100が人物hmから遠ざかって撮像することで、人物hmに到達する光量が調整されるので、人物hmは、フラッシュ18の閃光による眩しさを和らげることができる。また、無人航空機100が目前にいることの圧迫感を和らげることもできる。   When the distance D0 is within the effective distance D, the UAV control unit 110 may control the unmanned aircraft 100 to move away from the person hm within the effective distance D instead of reducing the light emission amount of the flash 18. . Since the light amount reaching the person hm is adjusted by the unmanned aircraft 100 taking an image away from the person hm, the person hm can reduce the glare caused by the flash of the flash 18. Moreover, the feeling of pressure that the unmanned aerial vehicle 100 is at hand can be relieved.

また、距離D0が有効距離Dよりも長い場合、UAV制御部110は、フラッシュ18の発光量が多くなるように設定してよい。この場合、UAV制御部110は、仮フラッシュ時よりも本フラッシュ時のフラッシュ18の発光量を多くしてよい。   Further, when the distance D0 is longer than the effective distance D, the UAV control unit 110 may set so that the light emission amount of the flash 18 is increased. In this case, the UAV control unit 110 may increase the amount of light emitted by the flash 18 during the main flash rather than during the temporary flash.

また、距離D0が有効距離Dよりも長い場合、UAV制御部110は、フラッシュ18の発光量を多くする代わりに、無人航空機100が人物hmに接近してよい。無人航空機100が人物hmに接近して撮像することで、人物hmは、移動することなく、撮像の終了を待つだけで済む。   When the distance D0 is longer than the effective distance D, the UAV control unit 110 may allow the unmanned aircraft 100 to approach the person hm instead of increasing the light emission amount of the flash 18. When the unmanned aircraft 100 approaches the person hm and images, the person hm does not move and only has to wait for the end of imaging.

このように、UAV制御部110は、有効距離Dと距離D0とに基づいて、フラッシュ18が発する光量を調整してよい。   As described above, the UAV control unit 110 may adjust the amount of light emitted by the flash 18 based on the effective distance D and the distance D0.

これにより、無人航空機100は、フラッシュ18の発光量を、有効距離Dを加味して調整できる。この結果、フラッシュ18が閃光して人物hmに到達する光量が適量となり、無人航空機100は、人物hmを好適に照明して画像を撮像できる。よって、無人航空機100は、撮像部220が撮像する時の逆光による撮像画像の画質劣化を抑制できる。   Thereby, the unmanned aerial vehicle 100 can adjust the light emission amount of the flash 18 in consideration of the effective distance D. As a result, an appropriate amount of light reaches the person hm when the flash 18 flashes, and the unmanned aircraft 100 can appropriately illuminate the person hm and take an image. Therefore, the unmanned aerial vehicle 100 can suppress deterioration in image quality of a captured image due to backlight when the imaging unit 220 captures an image.

また、UAV制御部110は、距離D0が有効距離Dよりも長い場合、フラッシュ18が発する光量を増加させてよい。   Further, the UAV control unit 110 may increase the amount of light emitted by the flash 18 when the distance D0 is longer than the effective distance D.

これにより、無人航空機100は、距離D0が有効距離Dより長くても、フラッシュ18の発光量を増やすことで、フラッシュ18が閃光して人物hmに到達する光量が適量となり、無人航空機100は、人物hmを好適に照明して画像を撮像できる。   Thereby, even if the distance D0 is longer than the effective distance D, the unmanned aircraft 100 increases the light emission amount of the flash 18 so that the amount of light that the flash 18 flashes and reaches the person hm becomes an appropriate amount. The person hm can be suitably illuminated to capture an image.

図11は、飛行体システム10の動作手順の一例を示すシーケンス図である。なお、ここでは、無人航空機100のUAV制御部110が動作の主体である場合には、UAV制御部110の指示によりカメラプロセッサ11が処理を行う場合も含まれてよい。   FIG. 11 is a sequence diagram illustrating an example of an operation procedure of the flying object system 10. Here, when the UAV control unit 110 of the unmanned aerial vehicle 100 is the subject of the operation, the case where the camera processor 11 performs processing according to an instruction from the UAV control unit 110 may be included.

端末80では、端末制御部81は、操作部83を介して、ユーザから光量調整撮像モードとするための操作を受け付けると、光量調整撮像モードを設定する(T1)。端末制御部81は、通信部85を介して、光量調整撮像モードの設定を含む設定情報を無人航空機100に送信する(T2)。   In the terminal 80, when receiving an operation for setting the light amount adjustment imaging mode from the user via the operation unit 83, the terminal control unit 81 sets the light amount adjustment imaging mode (T1). The terminal control unit 81 transmits setting information including the setting of the light amount adjustment imaging mode to the unmanned aircraft 100 via the communication unit 85 (T2).

無人航空機100では、UAV制御部110は、通信インタフェース150を介して端末80から送信された設定情報を受信し、光量調整撮像モードに設定し、設定情報をメモリ160に記憶する。   In the unmanned aircraft 100, the UAV control unit 110 receives setting information transmitted from the terminal 80 via the communication interface 150, sets the light amount adjustment imaging mode, and stores the setting information in the memory 160.

UAV制御部110は、撮像部220による撮像を制御する。撮像部220のカメラプロセッサ11は、例えば、フラッシュ18を介して仮フラッシュ光を照明し、例えば式(2)に従ってフラッシュ18のガイドナンバーを算出し、ガイドナンバーを含む撮像情報をメモリ15に記憶する(T3)。UAV制御部110は、メモリ15から、撮像情報(例えば、仮フラッシュによる撮像時のガイドナンバー、絞り33の絞り値(FN)、ISO(感度))を取得する。   The UAV control unit 110 controls imaging by the imaging unit 220. For example, the camera processor 11 of the imaging unit 220 illuminates temporary flash light via the flash 18, calculates the guide number of the flash 18 according to, for example, the equation (2), and stores imaging information including the guide number in the memory 15. (T3). The UAV control unit 110 acquires imaging information (for example, a guide number at the time of imaging with a temporary flash, an aperture value (FN) of the aperture 33, ISO (sensitivity)) from the memory 15.

UAV制御部110は、例えば、フラッシュ18のガイドナンバー(GN)、絞り33の絞り値(FN)、及びゲイン制御部21に設定されたISO(感度)を基に、式(1)を用いて、有効距離Dを算出する(T4)。   For example, the UAV control unit 110 uses Equation (1) based on the guide number (GN) of the flash 18, the aperture value (FN) of the aperture 33, and the ISO (sensitivity) set in the gain control unit 21. The effective distance D is calculated (T4).

UAV制御部110は、無人航空機100から人物hmまでの距離D0を測定する。UAV制御部110は、回転翼機構210を駆動し、無人航空機100と人物hmとの距離D0が有効距離Dを超えている場合、無人航空機100を人物hmに接近させるよう、無人航空機100の飛行を制御する(T5)。   The UAV control unit 110 measures the distance D0 from the unmanned aircraft 100 to the person hm. The UAV control unit 110 drives the rotary wing mechanism 210. When the distance D0 between the unmanned aircraft 100 and the person hm exceeds the effective distance D, the UAV control unit 110 flies the unmanned aircraft 100 so that the unmanned aircraft 100 approaches the person hm. Is controlled (T5).

UAV制御部110は、距離D0が有効距離D以下になると、撮像部220による撮像を制御する。撮像部220のカメラプロセッサ11は、フラッシュ18を介して光を発し、この光で人物hmを照明し、人物hmを含む被写体を撮像し、撮像画像を取得する(T6)。UAV制御部110は、通信インタフェース150を介して、端末80に撮像画像を送信する(T7)。   The UAV control unit 110 controls imaging by the imaging unit 220 when the distance D0 is equal to or less than the effective distance D. The camera processor 11 of the imaging unit 220 emits light via the flash 18, illuminates the person hm with this light, images a subject including the person hm, and acquires a captured image (T6). The UAV control unit 110 transmits the captured image to the terminal 80 via the communication interface 150 (T7).

端末80では、端末制御部81は、通信部85を介して、撮像画像を受信すると、例えば、ストレージ89に記憶し、表示部88に撮像画像を表示する(T8)。   In the terminal 80, when receiving the captured image via the communication unit 85, the terminal control unit 81 stores the captured image in the storage 89 and displays the captured image on the display unit 88 (T8).

図11の処理によれば、無人航空機100は、撮像部220によるフラッシュ18を用いた撮像時に光量が不足しないように、フラッシュ18による被写体の照明具合を調整できる。例えば、無人航空機100は、被写体に接近することで、被写体を照明する光量の不足を抑制できる。よって、無人航空機100は、自撮り時等に多く発生し易い逆光状態で撮像される撮像画像の画質劣化を抑制できる。したがって、飛行体システム10は、無人航空機100がフラッシュ18の光の有効範囲を判断して、被写体と無人航空機100との間の距離(撮像距離)を調整できる。   According to the processing of FIG. 11, the unmanned aerial vehicle 100 can adjust the lighting condition of the subject by the flash 18 so that the amount of light does not become insufficient when the imaging unit 220 uses the flash 18 for imaging. For example, the unmanned aircraft 100 can suppress the shortage of the amount of light that illuminates the subject by approaching the subject. Therefore, the unmanned aerial vehicle 100 can suppress deterioration in image quality of a captured image that is captured in a backlight state that is likely to occur during self-shooting. Therefore, the aircraft system 10 can adjust the distance (imaging distance) between the subject and the unmanned aircraft 100 by the unmanned aircraft 100 determining the effective range of the light of the flash 18.

なお、ガイドナンバーや有効距離Dは、UAV制御部110により撮像部220のカメラプロセッサ11を介して算出されてもよいし、UAV制御部110自身によって算出されてよい。   The guide number and the effective distance D may be calculated by the UAV control unit 110 via the camera processor 11 of the imaging unit 220 or may be calculated by the UAV control unit 110 itself.

このように、UAV制御部110は、人物hmに向けて、フラッシュ18が発する光の有効距離D(第1の距離の一例)を取得する。UAV制御部110は、撮像部220により撮像される人物hmと無人航空機100との距離D0(第2の距離の一例)を取得する。UAV制御部110は、有効距離Dと距離D0とに基づいて、距離D0を変更するよう無人航空機100の移動を制御する。   Thus, the UAV control unit 110 acquires the effective distance D (an example of the first distance) of the light emitted from the flash 18 toward the person hm. The UAV control unit 110 acquires a distance D0 (an example of a second distance) between the person hm imaged by the imaging unit 220 and the unmanned aircraft 100. The UAV control unit 110 controls the movement of the unmanned aircraft 100 so as to change the distance D0 based on the effective distance D and the distance D0.

これにより、無人航空機100は、フラッシュ18と人物hmとの距離D0を、フラッシュ18の有効距離Dを加味して調節できる。この結果、フラッシュ18が閃光して人物hmに到達する光量が適量となり、無人航空機100は、被写体を好適に照明して画像を撮像できる。よって、無人航空機100は、撮像部220による撮像時の逆光による撮像画像の画質劣化を抑制できる。特に、近年、無人航空機100の小型化により、無人航空機100を用いて自分自身を撮像(自撮り)することが増えている。自撮りする場合、自分(例えば人物hm)の背後に光源(例えば太陽SL)が存在することが多く、逆光が発生し易いが、この場合でも、無人航空機100は、逆光による画質劣化を抑制できる。   Thereby, the unmanned aerial vehicle 100 can adjust the distance D0 between the flash 18 and the person hm in consideration of the effective distance D of the flash 18. As a result, an appropriate amount of light reaches the person hm when the flash 18 flashes, and the unmanned aircraft 100 can appropriately illuminate the subject and capture an image. Therefore, the unmanned aerial vehicle 100 can suppress deterioration in image quality of a captured image due to backlighting during imaging by the imaging unit 220. In particular, in recent years, due to the miniaturization of the unmanned aerial vehicle 100, the use of the unmanned aerial vehicle 100 to take an image of itself (self-taking) is increasing. When taking a self-portrait, a light source (for example, the sun SL) is often present behind the user (for example, a person hm), and backlighting is likely to occur. Even in this case, the unmanned aircraft 100 can suppress image quality deterioration due to backlighting. .

また、UAV制御部110は、距離D0が有効距離Dよりも長い場合、人物hmに近づくよう無人航空機100の移動を制御してよい。   Further, when the distance D0 is longer than the effective distance D, the UAV control unit 110 may control the movement of the unmanned aircraft 100 so as to approach the person hm.

これにより、無人航空機100は、距離D0を縮める(短くする)ことで、距離D0をフラッシュ光の有効距離D以内とすることができる。この結果、フラッシュ18が閃光して人物hmに到達する光量が適量となり、無人航空機100は、人物hmを好適に照明して画像を撮像できる。   Thereby, the unmanned aerial vehicle 100 can make the distance D0 within the effective distance D of the flash light by shortening (shortening) the distance D0. As a result, an appropriate amount of light reaches the person hm when the flash 18 flashes, and the unmanned aircraft 100 can appropriately illuminate the person hm and take an image.

以上、本開示を実施形態を用いて説明したが、本開示の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。   As mentioned above, although this indication was explained using an embodiment, the technical scope of this indication is not limited to the range as described in an embodiment mentioned above. It will be apparent to those skilled in the art that various modifications and improvements can be made to the embodiment described above. It is also apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present disclosure.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The execution order of each process such as operation, procedure, step, and stage in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. ”And the like, and can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. is not.

上記実施形態では、光源として、閃光を発するフラッシュ(ストロボ)を用いたが、撮像タイミングに合わせて瞬間的に光を照明するものに限らず、比較的長い時間に亘って光を照明可能なライトを用いてよい。   In the above embodiment, a flash (stroboscope) that emits flash is used as a light source. However, the light that can illuminate light for a relatively long time is not limited to the one that instantaneously illuminates light according to the imaging timing. May be used.

上記実施形態では、移動体として、無人航空機を示したが、本開示は、これに限らず、カメラを搭載した無人自動車、カメラを搭載した自転車、人が移動しながら把持するカメラ付きのジンバル装置等に適用することも可能である。   In the above-described embodiment, an unmanned aerial vehicle is shown as a moving body. However, the present disclosure is not limited to this, and an unmanned automobile equipped with a camera, a bicycle equipped with a camera, and a gimbal device with a camera that a person grips while moving. It is also possible to apply to the above.

10 飛行体システム
11 カメラプロセッサ
12 シャッタ
13 撮像素子
14 画像処理部
15 メモリ
18 フラッシュ
19 シャッタ駆動部
20 素子駆動部
21 ゲイン制御部
32 NDフィルタ
33 絞り
34 レンズ群
36 レンズ駆動部
38 ND駆動部
40 絞り駆動部
80 端末
81 端末制御部
83 操作部
85 通信部
87 メモリ
88 表示部
89 ストレージ
100 無人航空機
110 UAV制御部
150 通信インタフェース
160 メモリ
170 ストレージ
200 ジンバル
210 回転翼機構
220,230 撮像部
220z 筐体
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 超音波センサ
290 レーザー測定器
gm ヒストグラム
GZ1,GZ2,GZ3 撮像画像
hm 人物
mt 山
op 光軸
SL 太陽
DESCRIPTION OF SYMBOLS 10 Aircraft system 11 Camera processor 12 Shutter 13 Image pick-up element 14 Image processing part 15 Memory 18 Flash 19 Shutter drive part 20 Element drive part 21 Gain control part 32 ND filter 33 Diaphragm 34 Lens group 36 Lens drive part 38 ND drive part 40 Diaphragm Drive unit 80 Terminal 81 Terminal control unit 83 Operation unit 85 Communication unit 87 Memory 88 Display unit 89 Storage 100 Unmanned aircraft 110 UAV control unit 150 Communication interface 160 Memory 170 Storage 200 Gimbal 210 Rotor wing mechanism 220, 230 Imaging unit 220z Housing 240 GPS receiver 250 Inertial measurement device 260 Magnetic compass 270 Barometric altimeter 280 Ultrasonic sensor 290 Laser measuring device gm Histogram GZ1, GZ2, GZ3 Captured image hm Person mt Mountain op Optical axis SL Sun

Claims (14)

被写体を照明して画像を撮像する移動体であって、
前記被写体を撮像する撮像部と、前記被写体を照明する光源と、処理部と、を備え、
前記処理部は、
前記光源が発する光の有効距離である第1の距離を取得し、
前記撮像部により撮像される被写体と前記移動体との距離である第2の距離を取得し、
前記第1の距離と前記第2の距離とに基づいて、前記第2の距離を変更するよう前記移動体の移動を制御する、
移動体。
A moving body that illuminates a subject and captures an image,
An imaging unit that images the subject, a light source that illuminates the subject, and a processing unit,
The processor is
Obtaining a first distance which is an effective distance of light emitted by the light source;
Obtaining a second distance which is a distance between the subject imaged by the imaging unit and the moving body;
Based on the first distance and the second distance, control the movement of the moving body to change the second distance,
Moving body.
前記処理部は、前記第2の距離が前記第1の距離よりも長い場合、前記被写体に近づくよう前記移動体の移動を制御する、
請求項1に記載の移動体。
The processing unit controls the movement of the moving body so as to approach the subject when the second distance is longer than the first distance.
The moving body according to claim 1.
前記処理部は、前記第1の距離と前記第2の距離とに基づいて、前記光源が発する光量を調整する、
請求項1または2に記載の移動体。
The processing unit adjusts the amount of light emitted by the light source based on the first distance and the second distance.
The moving body according to claim 1 or 2.
前記処理部は、前記第2の距離が前記第1の距離よりも長い場合、前記光源が発する光量を増加させる、
請求項3に記載の移動体。
The processing unit increases the amount of light emitted by the light source when the second distance is longer than the first distance.
The moving body according to claim 3.
前記処理部は、
前記被写体の明度と前記被写体の背景の明度とに基づいて、前記光源が前記被写体を照明するための光の強度を算出し、
前記光源による光の強度に基づいて、前記第1の距離を算出する、
請求項1〜4のいずれか1項に記載の移動体。
The processor is
Based on the brightness of the subject and the brightness of the background of the subject, the light source calculates the light intensity for illuminating the subject,
Calculating the first distance based on the intensity of light from the light source;
The moving body according to any one of claims 1 to 4.
前記処理部は、
前記光源により所定の光量で被写体が照明された状態で、前記撮像部に前記被写体を撮像させて撮像画像を取得し、
前記撮像画像における画素値の分布の情報を取得し、
前記撮像画像における画素値の分布を基に、前記光源が発する前記光の強度を算出する、
請求項5に記載の移動体。
The processor is
In a state where the subject is illuminated with a predetermined amount of light by the light source, the imaging unit captures the subject and acquires a captured image.
Obtaining pixel value distribution information in the captured image,
Calculating the intensity of the light emitted by the light source based on the distribution of pixel values in the captured image;
The moving body according to claim 5.
被写体を照明して画像を撮像する移動体における光量調整方法であって、
前記被写体を照明する光源が発する光の有効距離である第1の距離を取得するステップと、
前記被写体を撮像する撮像部により撮像される被写体と前記移動体との距離である第2の距離を取得するステップと、
前記第1の距離と前記第2の距離とに基づいて、前記第2の距離を変更するよう前記移動体の移動を制御するステップと、
を有する光量調整方法。
A light amount adjustment method for a moving body that illuminates a subject and captures an image,
Obtaining a first distance that is an effective distance of light emitted by a light source that illuminates the subject;
Obtaining a second distance that is a distance between the subject imaged by the imaging unit that images the subject and the moving body;
Controlling the movement of the moving body to change the second distance based on the first distance and the second distance;
A method for adjusting the amount of light.
前記移動体の移動を制御するステップは、前記第2の距離が前記第1の距離よりも長い場合、前記被写体に近づくよう前記移動体の移動を制御するステップを含む、
請求項7に記載の光量調整方法。
The step of controlling the movement of the moving body includes the step of controlling the movement of the moving body so as to approach the subject when the second distance is longer than the first distance.
The light quantity adjustment method according to claim 7.
前記第1の距離と前記第2の距離とに基づいて、前記光源が発する光量を調整するステップ、を更に含む、
請求項7または8に記載の光量調整方法。
Adjusting the amount of light emitted by the light source based on the first distance and the second distance;
The light quantity adjustment method according to claim 7 or 8.
前記光量を調整するステップは、前記第2の距離が前記第1の距離よりも長い場合、前記光源が発する光量を増加させるステップを含む、
請求項9に記載の光量調整方法。
The step of adjusting the amount of light includes the step of increasing the amount of light emitted by the light source when the second distance is longer than the first distance.
The light quantity adjustment method according to claim 9.
前記第1の距離を取得するステップは、
前記被写体の明度と前記被写体の背景の明度とに基づいて、前記光源が前記被写体を照明するための光の強度を算出するステップと、
前記光源による光の強度に基づいて、前記第1の距離を算出するステップと、を含む、
請求項7〜10のいずれか1項に記載の光量調整方法。
Obtaining the first distance comprises:
Calculating light intensity for the light source to illuminate the subject based on the brightness of the subject and the brightness of the background of the subject;
Calculating the first distance based on the intensity of light from the light source,
The light quantity adjustment method of any one of Claims 7-10.
前記光の強度を算出するステップは、
前記光源により所定の光量で被写体が照明された状態で、前記撮像部に前記被写体を撮像させて撮像画像を取得するステップと、
前記撮像画像における画素値の分布の情報を取得するステップと、
前記撮像画像における画素値の分布を基に、前記光源が発する前記光の強度を算出するステップと、を含む、
請求項11に記載の光量調整方法。
The step of calculating the light intensity includes
Obtaining a captured image by causing the imaging unit to image the subject in a state where the subject is illuminated with a predetermined amount of light by the light source;
Obtaining information of distribution of pixel values in the captured image;
Calculating the intensity of the light emitted by the light source based on a distribution of pixel values in the captured image,
The light quantity adjustment method according to claim 11.
被写体を照明して画像を撮像する移動体に、
前記被写体を照明する光源が発する光の有効距離である第1の距離を取得するステップと、
前記被写体を撮像する撮像部により撮像される被写体と前記移動体との距離である第2の距離を取得するステップと、
前記第1の距離と前記第2の距離とに基づいて、前記第2の距離を変更するよう前記移動体の移動を制御するステップと、
を実行させるためのプログラム。
To a moving body that illuminates the subject and captures an image,
Obtaining a first distance that is an effective distance of light emitted by a light source that illuminates the subject;
Obtaining a second distance that is a distance between the subject imaged by the imaging unit that images the subject and the moving body;
Controlling the movement of the moving body to change the second distance based on the first distance and the second distance;
A program for running
被写体を照明して画像を撮像する移動体に、
前記被写体を照明する光源が発する光の有効距離である第1の距離を取得するステップと、
前記被写体を撮像する撮像部により撮像される被写体と前記移動体との距離である第2の距離を取得するステップと、
前記第1の距離と前記第2の距離とに基づいて、前記第2の距離を変更するよう前記移動体の移動を制御するステップと、
を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。
To a moving body that illuminates the subject and captures an image,
Obtaining a first distance that is an effective distance of light emitted by a light source that illuminates the subject;
Obtaining a second distance that is a distance between the subject imaged by the imaging unit that images the subject and the moving body;
Controlling the movement of the moving body to change the second distance based on the first distance and the second distance;
The computer-readable recording medium which recorded the program for performing this.
JP2018104888A 2018-05-31 2018-05-31 Mobile unit, light amount adjustment method, program, and recording medium Ceased JP2019212961A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018104888A JP2019212961A (en) 2018-05-31 2018-05-31 Mobile unit, light amount adjustment method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018104888A JP2019212961A (en) 2018-05-31 2018-05-31 Mobile unit, light amount adjustment method, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2019212961A true JP2019212961A (en) 2019-12-12

Family

ID=68845515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018104888A Ceased JP2019212961A (en) 2018-05-31 2018-05-31 Mobile unit, light amount adjustment method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2019212961A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022249752A1 (en) * 2021-05-26 2022-12-01 シャープ株式会社 Imaging apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07270676A (en) * 1994-04-01 1995-10-20 Olympus Optical Co Ltd Camera
JPH11275412A (en) * 1998-03-19 1999-10-08 Olympus Optical Co Ltd Electronic image pickup device
JP2000004393A (en) * 1998-06-16 2000-01-07 Minolta Co Ltd Back light scene determining method, computer-readable storage medium with back light scene determining method program stored therein and image processor having back light scene determining function
JP2010078631A (en) * 2008-09-24 2010-04-08 Casio Computer Co Ltd Imaging apparatus and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07270676A (en) * 1994-04-01 1995-10-20 Olympus Optical Co Ltd Camera
JPH11275412A (en) * 1998-03-19 1999-10-08 Olympus Optical Co Ltd Electronic image pickup device
JP2000004393A (en) * 1998-06-16 2000-01-07 Minolta Co Ltd Back light scene determining method, computer-readable storage medium with back light scene determining method program stored therein and image processor having back light scene determining function
JP2010078631A (en) * 2008-09-24 2010-04-08 Casio Computer Co Ltd Imaging apparatus and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022249752A1 (en) * 2021-05-26 2022-12-01 シャープ株式会社 Imaging apparatus

Similar Documents

Publication Publication Date Title
US11649052B2 (en) System and method for providing autonomous photography and videography
EP3488603B1 (en) Methods and systems for processing an image
US11722647B2 (en) Unmanned aerial vehicle imaging control method, unmanned aerial vehicle imaging method, control terminal, unmanned aerial vehicle control device, and unmanned aerial vehicle
US20090160970A1 (en) Remote determination of image-acquisition settings and opportunities
JP2017085551A (en) Method of determining duration of exposure of camera on board drone, and associated drone
WO2019238044A1 (en) Determination device, mobile object, determination method and program
JP2021096865A (en) Information processing device, flight control instruction method, program, and recording medium
JP6265576B1 (en) Imaging control apparatus, shadow position specifying apparatus, imaging system, moving object, imaging control method, shadow position specifying method, and program
JP2018198393A (en) Controller, imaging apparatus, imaging system, mobile, control method, and program
JP7501535B2 (en) Information processing device, information processing method, and information processing program
JP6949930B2 (en) Control device, moving body and control method
JP2019212961A (en) Mobile unit, light amount adjustment method, program, and recording medium
US10884415B2 (en) Unmanned aerial vehicle light flash synchronization
JP6790318B2 (en) Unmanned aerial vehicles, control methods, and programs
US20210092306A1 (en) Movable body, image generation method, program, and recording medium
WO2021115192A1 (en) Image processing device, image processing method, program and recording medium
US20210092282A1 (en) Control device and control method
WO2018158820A1 (en) Distance computing system, method, and program
JP6803960B1 (en) Image processing equipment, image processing methods, programs, and recording media
JP6547984B2 (en) CONTROL DEVICE, IMAGING DEVICE, IMAGING SYSTEM, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM
KR20150006752A (en) Air observations using the rotor structure construction method and system for terrain data.
WO2021249245A1 (en) Device, camera device, camera system, and movable member
JP2020122911A (en) Focusing device of camera lens, focusing method and focusing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210628

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20220222