JP6543859B1 - IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE OBJECT, IMAGE PROCESSING METHOD, AND PROGRAM - Google Patents

IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE OBJECT, IMAGE PROCESSING METHOD, AND PROGRAM Download PDF

Info

Publication number
JP6543859B1
JP6543859B1 JP2018055272A JP2018055272A JP6543859B1 JP 6543859 B1 JP6543859 B1 JP 6543859B1 JP 2018055272 A JP2018055272 A JP 2018055272A JP 2018055272 A JP2018055272 A JP 2018055272A JP 6543859 B1 JP6543859 B1 JP 6543859B1
Authority
JP
Japan
Prior art keywords
image
imaging device
moving
blur
uav
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018055272A
Other languages
Japanese (ja)
Other versions
JP2019169810A (en
Inventor
典幸 荒牧
典幸 荒牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2018055272A priority Critical patent/JP6543859B1/en
Application granted granted Critical
Publication of JP6543859B1 publication Critical patent/JP6543859B1/en
Publication of JP2019169810A publication Critical patent/JP2019169810A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】移動体に搭載された撮像装置により撮像される画像に、移動体の移動に応じた効果を生じさせる画像処理装置を提供する。【解決手段】無人航空機UAVにおいて、画像処理装置は、移動体に搭載された撮像装置により撮像された画像を取得する取得部、撮像装置が画像を撮像しているときの移動体の移動方向を特定する特定部及び移動方向に基づいて、画像にぼけを付与する暈し処理部を備える。特定部は、移動体を制御する制御情報に基づいて移動体の移動方向を特定する。【選択図】図2An image processing apparatus that produces an effect according to movement of a moving body on an image captured by an imaging apparatus mounted on the moving body. In an unmanned aerial vehicle UAV, an image processing device acquires an image captured by an imaging device mounted on a moving body, and indicates a moving direction of the moving body when the imaging device is capturing an image. A blur processing unit is provided that adds blur to an image based on a specific unit to be specified and a moving direction. The specifying unit specifies a moving direction of the moving body based on control information for controlling the moving body. [Selected figure] Figure 2

Description

本発明は、画像処理装置、撮像装置、移動体、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an imaging apparatus, a moving object, an image processing method, and a program.

キャラクターに、ぼやけを低減させるフィルタ処理を、キャラクターの移動速度に応じて施すことが開示されている。
特許文献1 特開2010−145510号公報
It is disclosed that the character is subjected to a filtering process to reduce blurring according to the moving speed of the character.
Patent Document 1: JP-A-2010-145510

移動体に搭載された撮像装置により撮像される画像に、移動体の移動に応じた効果を生じさせることが望まれている。   It is desired to produce an effect corresponding to the movement of a moving object in an image captured by an imaging device mounted on the moving object.

本発明の一態様に係る画像処理装置は、移動体に搭載された撮像装置により撮像された画像を取得する取得部を備えてよい。画像処理装置は、撮像装置が画像を撮像しているときの移動体の移動方向を特定する特定部を備えてよい。画像処理装置は、移動方向に基づいて、画像にぼけを付与する暈し処理部を備えてよい。   The image processing apparatus according to an aspect of the present invention may include an acquisition unit that acquires an image captured by an imaging device mounted on a mobile body. The image processing apparatus may include a specifying unit that specifies a moving direction of the moving body when the imaging apparatus captures an image. The image processing apparatus may include a tweak processing unit that blurs the image based on the movement direction.

特定部は、移動体を制御する制御情報に基づいて移動体の移動方向を特定してよい。   The identifying unit may identify the moving direction of the mobile based on control information for controlling the mobile.

特定部は、撮像装置の撮像面に沿った移動方向を特定してよい。暈し処理部は、移動方向に沿ったぼけを画像に付与する暈し処理を施してよい。   The identifying unit may identify the moving direction along the imaging surface of the imaging device. The forgery processing unit may perform forgery processing to add blur along the movement direction to the image.

暈し処理部は、移動方向と反対方向に延びるぼけを画像に付与する暈し処理を施してよい。   The forgery processing unit may perform a forgery processing for imparting a blur extending in the direction opposite to the movement direction to the image.

特定部は、撮像装置が画像を撮像しているときの移動体の移動速度をさらに特定してよい。暈し処理部は、移動速度に応じた強度のぼけを画像に付与してよい。   The identifying unit may further identify the moving speed of the moving object when the imaging device captures an image. The forgery processing unit may give the image a blur of the intensity according to the moving speed.

暈し処理部は、移動速度に応じたサイズのフィルタを適用して画像にぼけを付与してよい。   The forgery processing unit may apply a filter of a size according to the moving speed to blur the image.

暈し処理部は、移動体の移動速度が第1移動速度の場合、第1サイズのフィルタを適用して画像にぼけを付与してよい。暈し処理部は、移動体の移動速度が第1移動速度より大きい第2移動速度の場合、第1サイズより大きい第2サイズのフィルタを適用して画像にぼけを付与してよい。   When the moving speed of the moving object is the first moving speed, the tweak processing unit may apply a first size filter to blur the image. When the moving speed of the moving object is the second moving speed higher than the first moving speed, the tweak processing unit may apply a second size filter larger than the first size to blur the image.

暈し処理部は、移動体の移動速度が予め定められた閾値より小さい場合、第1サイズのフィルタを適用して画像にぼけを付与してよい。暈し処理部は、移動体の移動速度が閾値以上である場合、第1サイズより大きい第2サイズのフィルタを適用して画像にぼけを付与してよい。   When the moving speed of the moving object is smaller than a predetermined threshold, the forgery processing unit may apply a first size filter to blur the image. When the moving speed of the moving object is equal to or higher than the threshold, the forgery processing unit may apply a second size filter larger than the first size to blur the image.

特定部は、撮像装置が画像を撮像しているときの撮像装置のシャッタ速度を特定してよい。暈し処理部は、シャッタ速度に応じたサイズのフィルタを適用して画像にぼけを付与してよい。   The identifying unit may identify a shutter speed of the imaging device when the imaging device captures an image. The forgery processing unit may apply a filter of a size corresponding to the shutter speed to blur the image.

暈し処理部は、撮像装置のシャッタ速度が第1シャッタ速度の場合、第1サイズのフィルタを適用して画像にぼけを付与してよい。暈し処理部は、撮像装置のシャッタ速度が第1シャッタ速度より大きい第2シャッタ速度の場合、第1サイズより大きい第2サイズのフィルタを適用して画像にぼけを付与してよい。   When the shutter speed of the imaging device is the first shutter speed, the tweak processing unit may apply a filter of the first size to blur the image. When the shutter speed of the imaging device is a second shutter speed that is larger than the first shutter speed, the tweak processing unit may apply a second size filter that is larger than the first size to blur the image.

暈し処理部は、撮像装置のシャッタ速度が第1シャッタ速度より小さい予め定められた第3シャッタ速度より小さい場合、画像にぼけを付与しなくてよい。   When the shutter speed of the imaging device is smaller than a predetermined third shutter speed smaller than the first shutter speed, the blurring processing unit may not blur the image.

特定部は、撮像装置が画像を撮像しているときの移動体の移動速度、及び撮像装置のシャッタ速度を特定してよい。暈し処理部は、移動速度及びシャッタ速度に応じた強度のぼけを付与してよい。   The identifying unit may identify a moving speed of the moving body when the imaging device captures an image, and a shutter speed of the imaging device. The forgery processing unit may give a blur of the intensity according to the moving speed and the shutter speed.

撮像装置は、撮像装置の撮像方向を調整可能に撮像装置を支持する支持機構を介して移動体に搭載されてよい。特定部は、撮像装置が画像を撮像しているときの移動体に対する撮像装置の撮像方向を特定してよい。特定部は、移動体の移動方向、及び移動体に対する撮像装置の撮像方向に基づいて、撮像面に沿った移動方向を特定してよい。   The imaging device may be mounted on the movable body via a support mechanism that supports the imaging device such that the imaging direction of the imaging device can be adjusted. The identifying unit may identify an imaging direction of the imaging device with respect to the moving body when the imaging device captures an image. The identifying unit may identify the moving direction along the imaging surface based on the moving direction of the moving body and the imaging direction of the imaging device with respect to the moving body.

特定部は、撮像装置が画像を撮像しているときの移動体の移動速度、及び移動体に対する撮像装置の回転速度を特定してよい。暈し処理部は、移動体の移動速度及び撮像装置の回転速度に応じた強度のぼけを画像に付与してよい。   The identifying unit may identify a moving speed of the moving body when the imaging device captures an image, and a rotation speed of the imaging device with respect to the moving body. The forgery processing unit may give the image a blur of the intensity according to the moving speed of the moving body and the rotational speed of the imaging device.

本発明の一態様に係る撮像装置は、イメージセンサを備えてよい。撮像装置は、イメージセンサから出力される画像に対して画像処理を行う上記画像処理装置を備えてよい。   An imaging device according to an aspect of the present invention may include an image sensor. The imaging device may include the above-described image processing device that performs image processing on an image output from an image sensor.

本発明の一態様に係る移動体は、上記撮像装置を備えて移動する移動体でよい。   The mobile unit according to one aspect of the present invention may be a mobile unit that moves with the imaging device.

移動体は、撮像装置の撮像方向を調整可能に撮像装置を支持する支持機構を備えてよい。   The moving body may include a support mechanism that supports the imaging device such that the imaging direction of the imaging device can be adjusted.

本発明の一態様に係る画像処理方法は、移動体に搭載された撮像装置により撮像された画像を取得する段階を備えてよい。画像処理方法は、撮像装置が画像を撮像しているときの移動体の移動方向を特定する段階を備えてよい。画像処理方法は、移動方向に基づいて、画像にぼけを付与する段階を備えてよい。   The image processing method according to an aspect of the present invention may include the step of acquiring an image captured by an imaging device mounted on a mobile object. The image processing method may include the step of specifying the moving direction of the moving body when the imaging device captures an image. The image processing method may comprise blurring the image based on the direction of movement.

本発明の一態様に係るプログラムは、上記画像処理装置としてコンピュータを機能させるためのプログラムでよい。   The program according to an aspect of the present invention may be a program for causing a computer to function as the image processing apparatus.

本発明の一態様によれば、移動体に搭載された撮像装置により撮像される画像に、移動体の移動に応じた効果を生じさせることできる。   According to one aspect of the present invention, it is possible to produce an effect according to the movement of a moving object on an image captured by an imaging device mounted on the moving object.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   Note that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a subcombination of these feature groups can also be an invention.

無人航空機(UAV)及び遠隔操作装置の外観の一例を示す図である。It is a figure showing an example of the appearance of a UAV and a remote control. UAVの機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of UAV. UAVの移動方向及び移動速度に応じたフィルタの一例を示す図である。It is a figure which shows an example of the filter according to the moving direction and moving speed of UAV. UAVの移動方向及び移動速度に応じたフィルタの一例を示す図である。It is a figure which shows an example of the filter according to the moving direction and moving speed of UAV. UAVの移動方向及び移動速度に応じたフィルタの一例を示す図である。It is a figure which shows an example of the filter according to the moving direction and moving speed of UAV. 暈し処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of a tweet process. UAVの移動速度とフィルタのサイズとの関係の一例を示す図である。It is a figure which shows an example of the relationship between the moving speed of UAV, and the size of a filter. UAVの移動速度とフィルタのサイズとの関係の一例を示す図である。It is a figure which shows an example of the relationship between the moving speed of UAV, and the size of a filter. シャッタ速度とフィルタのサイズとの関係の一例を示す図である。It is a figure which shows an example of the relationship between shutter speed and the size of a filter. ぼけ処理前の画像、及びぼけ処理後の画像の一例を示す図である。It is a figure which shows an example of the image before blur processing, and the image after blur processing. ハードウェア構成の一例について説明するための図である。It is a figure for demonstrating an example of a hardware configuration.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。以下の実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   Hereinafter, although this invention is demonstrated through embodiment of invention, the following embodiment does not limit the invention which concerns on a claim. Further, not all combinations of features described in the embodiments are essential to the solution of the invention. It will be apparent to those skilled in the art that various changes or modifications can be added to the following embodiments. It is also apparent from the scope of the claims that the embodiments added with such alterations or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイルまたはレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。   The claims, the description, the drawings, and the abstract contain matters that are subject to copyright protection. The copyright holder will not object to any copy of these documents as they appear in the Patent Office file or record. However, in all other cases, all copyrights are reserved.

本発明の様々な実施形態は、フローチャート及びブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、プログラマブル回路、及び/またはプロセッサによって実装されてよい。専用回路は、デジタル及び/またはアナログハードウェア回路を含んでよい。集積回路(IC)及び/またはディスクリート回路を含んでよい。プログラマブル回路は、再構成可能なハードウェア回路を含んでよい。再構成可能なハードウェア回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、及び他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含んでよい。   Various embodiments of the present invention may be described with reference to flowcharts and block diagrams, wherein the blocks are responsible for (1) process steps or (2) operations being performed. May represent a "part" of The particular stages and "parts" may be implemented by programmable circuits and / or processors. Dedicated circuitry may include digital and / or analog hardware circuitry. Integrated circuits (ICs) and / or discrete circuits may be included. Programmable circuits may include reconfigurable hardware circuits. Reconfigurable hardware circuits include logic AND, logic OR, logic XOR, logic NAND, logic NOR, and other logic operations, flip flops, registers, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), etc. Memory elements, etc. may be included.

コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよい。その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。   Computer readable media may include any tangible device capable of storing instructions for execution by a suitable device. As a result, a computer readable medium having instructions stored thereon will comprise an article of manufacture that includes instructions that can be executed to create means for performing the operations specified in the flowchart or block diagram. Examples of computer readable media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer readable media include floppy disks, diskettes, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), Electrically Erasable Programmable Read Only Memory (EEPROM), Static Random Access Memory (SRAM), Compact Disc Read Only Memory (CD-ROM), Digital Versatile Disc (DVD), Blu-Ray (RTM) Disc, Memory Stick, Integrated A circuit card or the like may be included.

コンピュータ可読命令は、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードの何れかを含んでよい。ソースコードまたはオブジェクトコードは、従来の手続型プログラミング言語を含む。従来の手続型プログラミング言語は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語または同様のプログラミング言語でよい。コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供されてよい。プロセッサまたはプログラマブル回路は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。   Computer readable instructions may include either source code or object code written in any combination of one or more programming languages. Source code or object code includes a conventional procedural programming language. Conventional procedural programming languages include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state setting data, or like Smalltalk, JAVA, C ++, etc. It may be an object oriented programming language, and a "C" programming language or similar programming language. Computer readable instructions may be local or to a wide area network (WAN) such as a local area network (LAN), the Internet, etc., relative to a processor or programmable circuitry of a general purpose computer, special purpose computer, or other programmable data processing device. May be provided via The processor or programmable circuitry may execute computer readable instructions to create a means for performing the operations specified in the flowchart or block diagram. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.

図1は、無人航空機(UAV)10及び遠隔操作装置300の外観の一例を示す。UAV10は、UAV本体20、ジンバル50、複数の撮像装置60、及び撮像装置100を備える。ジンバル50、及び撮像装置100は、撮像システムの一例である。UAV10は、移動体とは、空中を移動する飛行体、地上を移動する車両、水上を移動する船舶等を含む概念である。空中を移動する飛行体とは、UAVの他、空中を移動する他の航空機、飛行船、ヘリコプター等を含む概念である。   FIG. 1 shows an example of the appearance of an unmanned aerial vehicle (UAV) 10 and a remote control device 300. The UAV 10 includes a UAV main body 20, a gimbal 50, a plurality of imaging devices 60, and an imaging device 100. The gimbal 50 and the imaging device 100 are examples of an imaging system. The UAV 10 is a concept including a moving object moving in the air, a vehicle moving on the ground, a ship moving on the water, and the like. A flying object moving in the air is a concept including UAV, other aircraft moving in the air, an airship, a helicopter, and the like.

UAV本体20は、複数の回転翼を備える。複数の回転翼は、推進部の一例である。UAV本体20は、複数の回転翼の回転を制御することでUAV10を飛行させる。UAV本体20は、例えば、4つの回転翼を用いてUAV10を飛行させる。回転翼の数は、4つには限定されない。また、UAV10は、回転翼を有さない固定翼機でもよい。   The UAV body 20 comprises a plurality of rotors. The plurality of rotors are an example of the propulsion unit. The UAV body 20 causes the UAV 10 to fly by controlling the rotation of a plurality of rotors. The UAV body 20 causes the UAV 10 to fly using, for example, four rotors. The number of rotors is not limited to four. The UAV 10 may also be a fixed wing aircraft that does not have a rotor.

撮像装置100は、所望の撮像範囲に含まれる被写体を撮像する撮像用のカメラである。ジンバル50は、撮像装置100を回転可能に支持する。ジンバル50は、支持機構の一例である。例えば、ジンバル50は、撮像装置100を、アクチュエータを用いてピッチ軸で回転可能に支持する。ジンバル50は、撮像装置100を、アクチュエータを用いて更にロール軸及びヨー軸のそれぞれを中心に回転可能に支持する。ジンバル50は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置100を回転させることで、撮像装置100の姿勢を変更してよい。   The imaging device 100 is a camera for imaging which captures an object included in a desired imaging range. The gimbal 50 rotatably supports the imaging device 100. The gimbal 50 is an example of a support mechanism. For example, the gimbal 50 rotatably supports the imaging device 100 on the pitch axis using an actuator. The gimbal 50 rotatably supports the imaging device 100 about each of the roll axis and the yaw axis using an actuator. The gimbal 50 may change the attitude of the imaging device 100 by rotating the imaging device 100 about at least one of the yaw axis, the pitch axis, and the roll axis.

複数の撮像装置60は、UAV10の飛行を制御するためにUAV10の周囲を撮像するセンシング用のカメラである。2つの撮像装置60が、UAV10の機首である正面に設けられてよい。更に他の2つの撮像装置60が、UAV10の底面に設けられてよい。正面側の2つの撮像装置60はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像装置60もペアとなり、ステレオカメラとして機能してよい。複数の撮像装置60により撮像された画像に基づいて、UAV10の周囲の3次元空間データが生成されてよい。UAV10が備える撮像装置60の数は4つには限定されない。UAV10は、少なくとも1つの撮像装置60を備えていればよい。UAV10は、UAV10の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像装置60を備えてもよい。撮像装置60で設定できる画角は、撮像装置100で設定できる画角より広くてよい。撮像装置60は、単焦点レンズまたは魚眼レンズを有してもよい。   The plurality of imaging devices 60 are cameras for sensing that capture the periphery of the UAV 10 to control the flight of the UAV 10. Two imaging devices 60 may be provided at the front, which is the nose of the UAV 10. Two further imaging devices 60 may be provided on the bottom of the UAV 10. The two front imaging devices 60 may be paired to function as a so-called stereo camera. The two imaging devices 60 on the bottom side may also be paired and function as a stereo camera. Three-dimensional spatial data around the UAV 10 may be generated based on the images captured by the plurality of imaging devices 60. The number of imaging devices 60 provided in the UAV 10 is not limited to four. The UAV 10 may include at least one imaging device 60. The UAV 10 may include at least one imaging device 60 on each of the nose, aft, sides, bottom, and ceiling of the UAV 10. The angle of view that can be set by the imaging device 60 may be wider than the angle of view that can be set by the imaging device 100. The imaging device 60 may have a single focus lens or a fisheye lens.

遠隔操作装置300は、UAV10と通信して、UAV10を遠隔操作する。遠隔操作装置300は、UAV10と無線で通信してよい。遠隔操作装置300は、UAV10に上昇、下降、加速、減速、前進、後進、回転などのUAV10の移動に関する各種命令を示す指示情報を送信する。指示情報は、例えば、UAV10の高度を上昇させる指示情報を含む。指示情報は、UAV10が位置すべき高度を示してよい。UAV10は、遠隔操作装置300から受信した指示情報により示される高度に位置するように移動する。指示情報は、UAV10を上昇させる上昇命令を含んでよい。UAV10は、上昇命令を受け付けている間、上昇する。UAV10は、上昇命令を受け付けても、UAV10の高度が上限高度に達している場合には、上昇を制限してよい。   The remote control device 300 communicates with the UAV 10 to remotely control the UAV 10. The remote control device 300 may communicate with the UAV 10 wirelessly. The remote control device 300 transmits instruction information indicating various commands related to the movement of the UAV 10 such as rising, falling, acceleration, deceleration, forward, reverse, and rotation to the UAV 10. The instruction information includes, for example, instruction information for raising the altitude of the UAV 10. The instruction information may indicate the altitude at which the UAV 10 should be located. The UAV 10 moves so as to be located at the altitude indicated by the instruction information received from the remote control device 300. The instruction information may include a lift instruction to raise the UAV 10. The UAV 10 goes up while accepting the up command. Even if the UAV 10 receives an ascent instruction, if the UAV 10's altitude reaches the upper limit altitude, the UAV 10 may limit the ascent.

図2は、UAV10の機能ブロックの一例を示す。UAV10は、UAV制御部30、メモリ37、通信インタフェース36、推進部40、GPS受信機41、慣性計測装置42、磁気コンパス43、気圧高度計44、温度センサ45、湿度センサ46、ジンバル50、撮像装置60及び撮像装置100を備える。   FIG. 2 shows an example of a functional block of the UAV 10. The UAV 10 includes a UAV control unit 30, a memory 37, a communication interface 36, a propulsion unit 40, a GPS receiver 41, an inertial measurement device 42, a magnetic compass 43, a barometric altimeter 44, a temperature sensor 45, a humidity sensor 46, a gimbal 50, an imaging device 60 and the imaging device 100.

通信インタフェース36は、遠隔操作装置300などの他の装置と通信する。通信インタフェース36は、遠隔操作装置300からUAV制御部30に対する各種の命令を含む指示情報を受信してよい。メモリ37は、UAV制御部30が、推進部40、GPS受信機41、慣性計測装置(IMU)42、磁気コンパス43、気圧高度計44、温度センサ45、湿度センサ46、ジンバル50、撮像装置60、及び撮像装置100を制御するのに必要なプログラム等を格納する。メモリ37は、コンピュータ読み取り可能な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ37は、UAV本体20の内部に設けられてよい。UAV本体20から取り外し可能に設けられてよい。   The communication interface 36 communicates with other devices such as the remote control device 300. The communication interface 36 may receive instruction information including various instructions for the UAV control unit 30 from the remote control device 300. The memory 37 includes a propulsion unit 40, a GPS receiver 41, an inertial measurement unit (IMU) 42, a magnetic compass 43, a barometric altimeter 44, a temperature sensor 45, a humidity sensor 46, a gimbal 50, an imaging device 60, and a memory 37. And the program etc. required to control the imaging device 100 are stored. The memory 37 may be a computer readable recording medium, and may include at least one of a SRAM, a DRAM, an EPROM, an EEPROM, and a flash memory such as a USB memory. The memory 37 may be provided inside the UAV main body 20. It may be provided to be removable from the UAV main body 20.

UAV制御部30は、メモリ37に格納されたプログラムに従ってUAV10の飛行及び撮像を制御する。UAV制御部30は、第2制御部の一例である。UAV制御部30は、CPUまたはMPU等のマイクロプロセッサ、MCU等のマイクロコントローラ等により構成されてよい。UAV制御部30は、通信インタフェース36を介して遠隔操作装置300から受信した命令に従って、UAV10の飛行及び撮像を制御する。推進部40は、UAV10を推進させる。推進部40は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータとを有する。推進部40は、UAV制御部30からの命令に従って複数の駆動モータを介して複数の回転翼を回転させて、UAV10を飛行させる。   The UAV control unit 30 controls the flight and imaging of the UAV 10 in accordance with the program stored in the memory 37. The UAV control unit 30 is an example of a second control unit. The UAV control unit 30 may be configured by a microprocessor such as a CPU or an MPU or a microcontroller such as an MCU. The UAV control unit 30 controls the flight and imaging of the UAV 10 according to the command received from the remote control device 300 via the communication interface 36. The promotion unit 40 promotes the UAV 10. The propulsion unit 40 has a plurality of rotors and a plurality of drive motors for rotating the plurality of rotors. The propulsion unit 40 rotates the plurality of rotary blades via the plurality of drive motors in accordance with the instruction from the UAV control unit 30 to fly the UAV 10.

GPS受信機41は、複数のGPS衛星から発信された時刻を示す複数の信号を受信する。GPS受信機41は、受信された複数の信号に基づいてGPS受信機41の位置(緯度及び経度)、つまりUAV10の位置(緯度及び経度)を算出する。IMU42は、UAV10の姿勢を検出する。IMU42は、UAV10の姿勢として、UAV10の前後、左右、及び上下の3軸方向の加速度と、ピッチ、ロール、及びヨーの3軸方向の角速度とを検出する。磁気コンパス43は、UAV10の機首の方位を検出する。気圧高度計44は、UAV10が飛行する高度を検出する。気圧高度計44は、UAV10の周囲の気圧を検出し、検出された気圧を高度に換算して、高度を検出する。温度センサ45は、UAV10の周囲の温度を検出する。湿度センサ46は、UAV10の周囲の湿度を検出する。   The GPS receiver 41 receives a plurality of signals indicating times transmitted from a plurality of GPS satellites. The GPS receiver 41 calculates the position (latitude and longitude) of the GPS receiver 41, that is, the position (latitude and longitude) of the UAV 10, based on the plurality of received signals. The IMU 42 detects the attitude of the UAV 10. The IMU 42 detects, as the posture of the UAV 10, accelerations in the front, rear, left, right, and top three axial directions of the UAV 10, and angular velocities in three axial directions of pitch, roll, and yaw. The magnetic compass 43 detects the heading of the UAV 10. The barometric altimeter 44 detects the altitude at which the UAV 10 flies. The barometric pressure altimeter 44 detects the barometric pressure around the UAV 10, converts the detected barometric pressure into a height, and detects the height. The temperature sensor 45 detects the temperature around the UAV 10. The humidity sensor 46 detects the humidity around the UAV 10.

撮像装置100は、撮像部102及びレンズ部200を備える。レンズ部200は、レンズ装置の一例である。撮像部102は、イメージセンサ120、撮像制御部110、及びメモリ130を有する。イメージセンサ120は、CCDまたはCMOSにより構成されてよい。イメージセンサ120は、複数のレンズ210を介して結像された光学像を撮像し、撮像された画像を撮像制御部110に出力する。撮像制御部110は、CPUまたはMPUなどのマイクロプロセッサ、MCUなどのマイクロコントローラなどにより構成されてよい。撮像制御部110は、UAV制御部30からの撮像装置100の動作命令に応じて、撮像装置100を制御してよい。撮像制御部110は、第1制御部の一例である。メモリ130は、コンピュータ可読可能な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。メモリ130は、撮像制御部110がイメージセンサ120などを制御するのに必要なプログラム等を格納する。メモリ130は、撮像装置100の筐体の内部に設けられてよい。メモリ130は、撮像装置100の筐体から取り外し可能に設けられてよい。   The imaging device 100 includes an imaging unit 102 and a lens unit 200. The lens unit 200 is an example of a lens device. The imaging unit 102 includes an image sensor 120, an imaging control unit 110, and a memory 130. The image sensor 120 may be configured by a CCD or a CMOS. The image sensor 120 captures an optical image formed through the plurality of lenses 210, and outputs the captured image to the imaging control unit 110. The imaging control unit 110 may be configured by a microprocessor such as a CPU or an MPU, a microcontroller such as an MCU, or the like. The imaging control unit 110 may control the imaging device 100 according to an operation command of the imaging device 100 from the UAV control unit 30. The imaging control unit 110 is an example of a first control unit. The memory 130 may be a computer readable recording medium, and may include at least one of SRAM, DRAM, EPROM, EEPROM, and flash memory such as USB memory. The memory 130 stores programs and the like necessary for the imaging control unit 110 to control the image sensor 120 and the like. The memory 130 may be provided inside the housing of the imaging device 100. The memory 130 may be provided to be removable from the housing of the imaging device 100.

レンズ部200は、複数のレンズ210、複数のレンズ駆動部212、及びレンズ制御部220を有する。複数のレンズ210は、ズームレンズ、バリフォーカルレンズ、及びフォーカスレンズとして機能してよい。複数のレンズ210の少なくとも一部または全部は、光軸に沿って移動可能に配置される。レンズ部200は、撮像部102に対して着脱可能に設けられる交換レンズでよい。レンズ駆動部212は、カム環などの機構部材を介して、複数のレンズ210の少なくとも一部または全部を光軸に沿って移動させる。レンズ駆動部212は、アクチュエータを含んでよい。アクチュエータは、ステッピングモータを含んでよい。レンズ制御部220は、撮像部102からのレンズ制御命令に従って、レンズ駆動部212を駆動して、機構部材を介して1または複数のレンズ210を光軸方向に沿って移動させる。レンズ制御命令は、例えば、ズーム制御命令、及びフォーカス制御命令である。   The lens unit 200 includes a plurality of lenses 210, a plurality of lens drivers 212, and a lens controller 220. The plurality of lenses 210 may function as a zoom lens, a varifocal lens, and a focus lens. At least a part or all of the plurality of lenses 210 is disposed movably along the optical axis. The lens unit 200 may be an interchangeable lens provided detachably to the imaging unit 102. The lens driving unit 212 moves at least a part or all of the plurality of lenses 210 along the optical axis via a mechanical member such as a cam ring. The lens driver 212 may include an actuator. The actuator may include a stepping motor. The lens control unit 220 drives the lens driving unit 212 according to the lens control command from the imaging unit 102 to move one or more lenses 210 along the optical axis direction via the mechanical member. The lens control command is, for example, a zoom control command and a focus control command.

レンズ部200は、メモリ222、位置センサ214をさらに有する。レンズ制御部220は、撮像部102からのレンズ動作命令に応じてレンズ駆動部212を介して、レンズ210の光軸方向への移動を制御する。レンズ制御部220は、撮像部102からのレンズ動作命令に応じてレンズ駆動部212を介して、レンズ210の光軸方向への移動を制御する。レンズ210の一部または全部は、光軸に沿って移動する。レンズ制御部220は、レンズ210の少なくとも1つを光軸に沿って移動させることで、ズーム動作及びフォーカス動作の少なくとも一方を実行する。位置センサ214は、レンズ210の位置を検出する。位置センサ214は、現在のズーム位置またはフォーカス位置を検出してよい。   The lens unit 200 further includes a memory 222 and a position sensor 214. The lens control unit 220 controls movement of the lens 210 in the optical axis direction via the lens driving unit 212 in accordance with the lens operation command from the imaging unit 102. The lens control unit 220 controls movement of the lens 210 in the optical axis direction via the lens driving unit 212 in accordance with the lens operation command from the imaging unit 102. Some or all of the lenses 210 move along the optical axis. The lens control unit 220 performs at least one of the zoom operation and the focusing operation by moving at least one of the lenses 210 along the optical axis. The position sensor 214 detects the position of the lens 210. Position sensor 214 may detect the current zoom position or focus position.

レンズ駆動部212は、振れ補正機構を含んでよい。レンズ制御部220は、振れ補正機構を介して、レンズ210を光軸に沿った方向、または光軸に垂直な方向に移動させることで、振れ補正を実行してよい。レンズ駆動部212は、ステッピングモータにより振れ補正機構を駆動して、振れ補正を実行してよい。なお、振れ補正機構は、ステッピングモータにより駆動されて、イメージセンサ120を光軸に方向に沿った方向、または光軸に垂直な方向に移動させることで、振れ補正を実行してよい。   The lens drive unit 212 may include a shake correction mechanism. The lens control unit 220 may execute shake correction by moving the lens 210 in the direction along the optical axis or in the direction perpendicular to the optical axis via the shake correction mechanism. The lens drive unit 212 may drive a shake correction mechanism by a stepping motor to execute shake correction. The shake correction mechanism may be driven by a stepping motor to move the image sensor 120 in the direction along the direction of the optical axis or in the direction perpendicular to the optical axis to perform the shake correction.

メモリ222は、レンズ駆動部212を介して移動する複数のレンズ210の制御値を記憶する。メモリ222は、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。   The memory 222 stores control values of the plurality of lenses 210 moving through the lens driving unit 212. The memory 222 may include at least one of flash memory such as SRAM, DRAM, EPROM, EEPROM, and USB memory.

以上のように構成されたUAV10において、撮像装置100により撮像された画像に対して、UAV10の移動に応じた効果を生じさせる。例えば、UAV10が屋外で撮像装置100により動画を撮像する場合、シャッタ速度が速く、フレーム間で被写体の動きが滑らかにならず、被写体の動きが不自然になる動画になる場合がある。本実施形態に係る撮像装置100によれば、このような画像の不自然さをUAV10の移動に応じたぼけを画像に施すことで解消する。   In the UAV 10 configured as described above, an effect according to the movement of the UAV 10 is produced on the image captured by the imaging device 100. For example, when the UAV 10 captures a moving image by the imaging device 100 outdoors, the shutter speed may be high, the motion of the subject may not be smooth between frames, and the motion of the subject may be unnatural. According to the imaging device 100 according to the present embodiment, such unnaturalness of the image is eliminated by applying blur to the image according to the movement of the UAV 10.

撮像制御部110は、取得部112、特定部114、及び暈し処理部116を有する。撮像制御部110は、画像処理装置の一例である。取得部112、特定部114、及び暈し処理部116は、撮像装置100以外の他の装置、例えば、パーソナルコンピュータなどに備えられてもよい。取得部112は、撮像装置100によりイメージセンサ120を介して撮像された画像を取得する。取得部112は、撮像装置100により撮像された動画を構成する各画像を順次取得してよい。特定部114は、撮像装置100が画像を撮像しているときのUAV10の移動方向を特定する。特定部114は、イメージセンサ120の撮像面に沿った移動方向を特定してよい。特定部114は、UAV10の移動方向のうちイメージセンサ120の撮像面に平行な成分を特定してよい。特定部114は、UAV制御部30を介して取得されるUAV10を制御する制御情報に基づいて、UAV10の移動方向を特定してよい。特定部114は、UAV制御部30を介して取得されるGPS受信機41からのUAV10の移動方向情報、及び慣性計測装置42からのUAV10の姿勢情報などに基づいて、UAV10の移動方向を特定してよい。   The imaging control unit 110 includes an acquisition unit 112, a specification unit 114, and a decoy processing unit 116. The imaging control unit 110 is an example of an image processing apparatus. The acquisition unit 112, the identification unit 114, and the forgery processing unit 116 may be included in an apparatus other than the imaging apparatus 100, such as a personal computer. The acquisition unit 112 acquires an image captured by the imaging device 100 via the image sensor 120. The acquisition unit 112 may sequentially acquire each image constituting a moving image captured by the imaging device 100. The identifying unit 114 identifies the moving direction of the UAV 10 when the imaging device 100 captures an image. The identifying unit 114 may identify the moving direction along the imaging surface of the image sensor 120. The identifying unit 114 may identify a component parallel to the imaging surface of the image sensor 120 in the movement direction of the UAV 10. The identifying unit 114 may identify the moving direction of the UAV 10 based on control information for controlling the UAV 10 acquired via the UAV control unit 30. The identifying unit 114 identifies the moving direction of the UAV 10 based on the moving direction information of the UAV 10 from the GPS receiver 41 acquired via the UAV control unit 30, the attitude information of the UAV 10 from the inertial measurement device 42, and the like. You may

暈し処理部116は、UAV10の移動方向に基づいて、画像にぼけを付与する。暈し処理部116は、UAV10の移動方向に沿ったぼけを画像に付与する暈し処理を施してよい。暈し処理部116は、UAV10の移動方向と反対方向に延びるぼけを画像に付与する暈し処理を施してよい。暈し処理部116は、UAV10の移動方向と反対方向に延びるぼけを画像に付与するフィルタを適用することで、暈し処理を施してよい。UAV10の移動方向と、撮像装置100の撮像方向とが同一の場合、暈し処理部116は、画像の中心から放射状に延びるぼけを画像に付与するフィルタを適用することで、暈し処理を施してよい。暈し処理部116は、特定の方向に画像を暈す処理を施すモーションブラーフィルタを画像に適用してよい。暈し処理部116は、特定の方向に画像を暈す処理を施すガウシアンフィルタを画像に適用してよい。   The forgery processing unit 116 blurs the image based on the moving direction of the UAV 10. The forgery processing unit 116 may perform forgery processing for adding blur to the image along the moving direction of the UAV 10. The forgery processing unit 116 may perform forgery processing for applying a blur extending in the direction opposite to the moving direction of the UAV 10 to the image. The forgery processing unit 116 may perform the forgery processing by applying a filter that applies the blur extending in the direction opposite to the moving direction of the UAV 10 to the image. When the moving direction of the UAV 10 and the imaging direction of the imaging device 100 are the same, the blurring processing unit 116 applies the blurring process to the image by applying blur extending radially from the center of the image to perform the blurring process. You may The forgery processing unit 116 may apply, to the image, a motion blur filter that performs processing for turning the image in a specific direction. The forgery processing unit 116 may apply, to the image, a Gaussian filter that performs processing for perturbing the image in a specific direction.

特定部114は、撮像装置100が画像を撮像しているときのUAV10の移動速度をさらに特定してよい。特定部114は、UAV制御部30を介して取得されるUAV10を制御する制御情報に基づいて、UAV10の移動速度を特定してよい。特定部114は、推進部40の制御情報に基づいて、UAV10の移動速度を特定してよい。特定部114は、UAV制御部30を介して取得されるGPS受信機41からのUAV10の移動速度に基づいて、UAV10の移動速度を特定してよい。暈し処理部116は、UAV10の移動速度に応じた強度のぼけを画像に付与してよい。暈し処理部116は、UAV10の移動速度に応じたサイズのフィルタを適用して画像にぼけを付与してよい。暈し処理部116は、UAV10の移動速度が第1移動速度の場合、第1サイズのフィルタを適用して画像にぼけを付与してよい。   The identifying unit 114 may further identify the moving speed of the UAV 10 when the imaging device 100 captures an image. The identifying unit 114 may identify the moving speed of the UAV 10 based on the control information for controlling the UAV 10 acquired via the UAV control unit 30. The identifying unit 114 may identify the moving speed of the UAV 10 based on the control information of the propulsion unit 40. The identifying unit 114 may identify the moving speed of the UAV 10 based on the moving speed of the UAV 10 from the GPS receiver 41 acquired via the UAV control unit 30. The forgery processing unit 116 may give the image a blur of the intensity according to the moving speed of the UAV 10. The forgery processing unit 116 may apply a filter of a size according to the moving speed of the UAV 10 to blur the image. When the moving speed of the UAV 10 is the first moving speed, the tweak processing unit 116 may apply a filter of the first size to blur the image.

暈し処理部116は、UAV10の移動速度が第1移動速度より大きい第2移動速度の場合、第1サイズより大きい第2サイズのフィルタを適用して画像にぼけを付与してよい。   When the moving speed of the UAV 10 is a second moving speed that is higher than the first moving speed, the tweak processing unit 116 may apply a filter of a second size larger than the first size to blur the image.

暈し処理部116は、UAV10の移動速度が予め定められた閾値より小さい場合、第1サイズのフィルタを適用して画像にぼけを付与してよい。暈し処理部116は、UAV10の移動速度が閾値以上である場合、第1サイズより大きい第2サイズのフィルタを適用して画像にぼけを付与してよい。   When the moving speed of the UAV 10 is smaller than a predetermined threshold value, the forgery processing unit 116 may apply a first size filter to blur the image. When the moving speed of the UAV 10 is equal to or higher than the threshold, the forgery processing unit 116 may apply a filter of a second size larger than the first size to blur the image.

暈し処理部116は、UAV10の移動速度に応じたフィルタのサイズを変える代わりに、UAV10の移動速度に応じた重みづけのフィルタを適用することで、ぼけを画像に付与してよい。暈し処理部116は、UAV10の移動速度が大きくなるほど、ぼけの強度が高くなるように重み付けされたフィルタを適用することで、ぼけを画像に付与してよい。暈し処理部116は、UAV10の移動速度に応じたサイズ及び重みづけのフィルタを適用することで、ぼけを画像に付与してよい。   Instead of changing the filter size according to the moving speed of the UAV 10, the forgery processing unit 116 may apply blurring to the image by applying a weighting filter according to the moving speed of the UAV 10. The blurring processing unit 116 may apply blur to the image by applying a filter that is weighted such that the blur intensity increases as the moving speed of the UAV 10 increases. The forgery processing unit 116 may apply blur to the image by applying a filter of a size and weighting according to the moving speed of the UAV 10.

撮像装置100は、ジンバル50を介してUAV10に搭載されている。ジンバル50が動作することで、撮像装置100のUAV10に対する撮像方向は変化する。そこで、特定部114は、撮像装置100が画像を撮像しているときのUAV10に対する撮像装置100の撮像方向をさらに特定してよい。そして、特定部114は、UAV10の移動方向、及びUAV10に対する撮像装置100の撮像方向に基づいて、UAV10のイメージセンサ120の撮像面に沿った移動方向を特定してよい。特定部114は、UAV制御部30から取得するジンバル50の制御情報に基づいて、UAV10のイメージセンサ120の撮像面に沿った移動方向を特定してよい。   The imaging device 100 is mounted on the UAV 10 via the gimbal 50. By operating the gimbal 50, the imaging direction of the imaging device 100 with respect to the UAV 10 changes. Therefore, the identifying unit 114 may further identify the imaging direction of the imaging device 100 with respect to the UAV 10 when the imaging device 100 is imaging an image. Then, the specifying unit 114 may specify the moving direction along the imaging surface of the image sensor 120 of the UAV 10 based on the moving direction of the UAV 10 and the imaging direction of the imaging device 100 with respect to the UAV 10. The identifying unit 114 may identify the movement direction along the imaging surface of the image sensor 120 of the UAV 10 based on the control information of the gimbal 50 acquired from the UAV control unit 30.

特定部114は、撮像装置100が画像を撮像しているときのUAV10に対する撮像装置100の回転速度をさらに特定してよい。暈し処理部116は、UAV10の移動速度及び撮像装置100の回転速度に応じた強度のぼけを画像に付与してよい。   The identifying unit 114 may further identify the rotational speed of the imaging device 100 with respect to the UAV 10 when the imaging device 100 captures an image. The forgery processing unit 116 may give the image a blur of the intensity according to the moving speed of the UAV 10 and the rotational speed of the imaging device 100.

取得部112は、イメージセンサ120を介して順次撮像される画像に、タイムスタンプとして、その画像が撮像されたときのUAV10の移動方向、及びUAV10の移動速度を示す情報を関連付けて、メモリ130に順次記憶させてもよい。特定部114は、画像に関連付けられたタイプスタンプを参照することで、画像が撮像されたときのUAV10の移動方向、及びUAV10の移動速度を特定してよい。   The acquisition unit 112 associates the information indicating the moving direction of the UAV 10 when the image is captured and the moving speed of the UAV 10 as a time stamp with the memory 130 as an image sequentially captured through the image sensor 120. It may be stored sequentially. The identifying unit 114 may identify the moving direction of the UAV 10 when the image is captured and the moving speed of the UAV 10 by referring to the timestamp associated with the image.

図3に示すように、UAV10が矢印400で示す方向(紙面右方向)に第1移動速度で移動しながら、撮像装置100が矢印402(紙面上方向)で示す方向を撮像している場合、暈し処理部116は、UAV10の移動方向と反対方向に延びるぼけを画像に付与する3×3のサイズのフィルタ500を適用してよい。   As shown in FIG. 3, when the imaging apparatus 100 captures a direction indicated by the arrow 402 (upward in the drawing) while moving the UAV 10 at the first movement speed in the direction indicated by the arrow 400 (rightward in the drawing). The forgery processing unit 116 may apply a 3 × 3 size filter 500 that applies a blur to the image that extends in the direction opposite to the moving direction of the UAV 10.

図4に示すように、UAV10が矢印400で示す方向(紙面右方向)に第1移動速度より大きい第2移動速度で移動しながら、撮像装置100が矢印402(紙面上方向)で示す方向を撮像している場合、暈し処理部116は、UAV10の移動方向と反対方向に延びるぼけを画像に付与する5×5のサイズのフィルタ502を適用してよい。   As shown in FIG. 4, while the UAV 10 moves at a second movement speed higher than the first movement speed in the direction indicated by the arrow 400 (right direction in the drawing), the direction indicated by the arrow 402 (upward in the drawing) When imaging, the blurring processing unit 116 may apply a 5 × 5 filter 502 that applies blur to the image in the direction opposite to the moving direction of the UAV 10.

図5に示すように、UAV10が矢印410で示す方向(紙面右下方向)に第2移動速度で移動しながら、撮像装置100が記号412で示す方向(紙面手前から奥方向)を撮像している場合、暈し処理部116は、UAV10の移動方向と反対方向に延びるぼけを画像に付与する5×5のサイズのフィルタ504を適用してよい。   As shown in FIG. 5, while the UAV 10 moves at the second moving speed in the direction indicated by the arrow 410 (the lower right direction on the sheet), the imaging device 100 captures an image in the direction indicated by the symbol 412 (from the front to the back of the sheet) If so, the forgery processing unit 116 may apply a 5 × 5 sized filter 504 that applies a blur to the image that extends in the direction opposite to the moving direction of the UAV 10.

図6は、暈し処理の手順の一例を示すフローチャートである。特定部114は、動画を構成する暈し処理の対象のフレームが撮像されたときのUAV10の移動方向及び移動速度を特定する(S100)。暈し処理部116は、UAV10の移動方向及び移動速度に基づいて、フィルタのサイズ、及びフィルタ内の重みづけを決定する(S102)。暈し処理部116は、UAV10の移動速度に基づいて、フィルタのサイズを選択し、選択されたサイズのフィルタの中から、UAV10の移動方向と反対方向に延びるぼけを施すように重みづけされたフィルタを選択してよい。暈し処理部116は、決定されたフィルタを対象のフレームに適用して、フレームに暈し処理を施す(S104)。暈し処理部116は、フィルタを適用した後の対象のフレームを出力する(S106)。   FIG. 6 is a flowchart showing an example of the procedure of the tanning process. The identifying unit 114 identifies the moving direction and the moving speed of the UAV 10 when the frame of the target of the tumbling process constituting the moving image is captured (S100). The forgery processing unit 116 determines the size of the filter and the weight in the filter based on the moving direction and the moving speed of the UAV 10 (S102). The forgery processing unit 116 selects the size of the filter based on the moving speed of the UAV 10 and is weighted so as to apply a blur extending in the direction opposite to the moving direction of the UAV 10 from the filters of the selected size. You may select a filter. The forgery processing unit 116 applies the determined filter to the target frame to perform forgery processing on the frame (S104). The forgery processing unit 116 outputs the target frame after applying the filter (S106).

以上のように、本実施形態によれば、UAV10の移動方向及び移動速度に応じた暈しが画像に施されるので、UAV10の移動に応じた効果を効果的に画像に生じさせることができる。例えば、UAV10が屋外で撮像装置100により動画を撮像する場合に、シャッタ速度が速くても、被写体が不自然な動きにならない動画を得ることができる。   As described above, according to the present embodiment, since the forgery according to the moving direction and the moving speed of the UAV 10 is applied to the image, the effect according to the movement of the UAV 10 can be effectively generated in the image . For example, when the UAV 10 captures a moving image by the imaging device 100 outdoors, it is possible to obtain a moving image in which the subject does not move unnaturally even if the shutter speed is high.

暈し処理部116は、例えば、UAV10の移動速度の予め定められた閾値Vthを基準として、フィルタのサイズを切り替えてもよい。暈し処理部116は、例えば、図7に示すように、UAV10の移動速度が閾値Vthより小さい場合、第1のサイズ(例えば、3×3のサイズ)のフィルタを選択してよい。暈し処理部116は、UAV10の移動速度が閾値Vth以上である場合、第2のサイズ(例えば、5×5のサイズ)のフィルタを選択してよい。   The forgery processing unit 116 may switch the size of the filter based on, for example, a predetermined threshold value Vth of the moving speed of the UAV 10. For example, as illustrated in FIG. 7, when the moving speed of the UAV 10 is smaller than the threshold value Vth, the concealment processing unit 116 may select a filter of a first size (for example, a 3 × 3 size). When the moving speed of the UAV 10 is equal to or higher than the threshold value Vth, the fork processing unit 116 may select a filter of a second size (for example, a 5 × 5 size).

暈し処理部116は、UAV10の移動速度に応じて段階的にフィルタのサイズを切り替えてもよい。暈し処理部116は、例えば、図8に示すように、UAV10の移動速度が第1閾値Vth1より小さい場合、第1のサイズ(例えば、3×3のサイズ)のフィルタを選択してよい。暈し処理部116は、UAV10の移動速度が第1閾値Vth1以上かつ第2閾値Vth2より小さい場合、第2のサイズ(例えば、5×5のサイズ)のフィルタを選択してよい。暈し処理部116は、UAV10の移動速度が第2閾値Vth2以上でかつ第3閾値Vth3より小さい場合、第3のサイズ(例えば、7×7のサイズ)のフィルタを選択してよい。暈し処理部116は、UAV10の移動速度が第3閾値Vth3以上である場合、第4のサイズ(例えば、9×9のサイズ)のフィルタを選択してよい。   The forgery processing unit 116 may switch the size of the filter stepwise in accordance with the moving speed of the UAV 10. For example, as illustrated in FIG. 8, when the moving speed of the UAV 10 is smaller than the first threshold value Vth1, the concealment processing unit 116 may select a filter of a first size (for example, a 3 × 3 size). When the moving speed of the UAV 10 is equal to or greater than the first threshold Vth1 and smaller than the second threshold Vth2, the forgery processor 116 may select a filter of the second size (for example, 5 × 5 size). When the moving speed of the UAV 10 is equal to or greater than the second threshold Vth2 and smaller than the third threshold Vth3, the forgery processor 116 may select a filter of a third size (for example, a size of 7 × 7). When the moving speed of the UAV 10 is equal to or higher than the third threshold Vth3, the forgery processing unit 116 may select a filter of a fourth size (for example, a size of 9 × 9).

特定部114は、撮像装置100が画像を撮像しているときの撮像装置100のシャッタ速度をさらに特定してもよい。暈し処理部116は、シャッタ速度に応じたサイズのフィルタを適用して画像にぼけを付与してよい。暈し処理部116は、撮像装置100のシャッタ速度が第1シャッタ速度の場合、第1サイズのフィルタを適用して画像にぼけを付与してよい。暈し処理部116は、撮像装置100のシャッタ速度が第1シャッタ速度より大きい第2シャッタ速度の場合、第1サイズより大きい第2サイズのフィルタを適用して画像にぼけを付与してよい。暈し処理部116は、撮像装置100のシャッタ速度が第1シャッタ速度より小さい予め定められた第3シャッタ速度以下の場合、画像にぼけを付与しなくてよい。   The identifying unit 114 may further identify the shutter speed of the imaging device 100 when the imaging device 100 captures an image. The blurring processing unit 116 may apply a filter of a size corresponding to the shutter speed to blur the image. When the shutter speed of the imaging apparatus 100 is the first shutter speed, the blurring processing unit 116 may apply a first size filter to blur the image. When the shutter speed of the imaging device 100 is a second shutter speed that is larger than the first shutter speed, the blurring processing unit 116 may apply a filter of a second size larger than the first size to blur the image. When the shutter speed of the imaging device 100 is equal to or less than a predetermined third shutter speed smaller than the first shutter speed, the blurring processing unit 116 may not add blur to the image.

暈し処理部116は、図9に示すように、シャッタ速度が第1閾値Vss1より小さい場合、画像にぼけを付与しなくてよい。暈し処理部116は、シャッタ速度が第1閾値Vss1以上、かつ第2閾値Vss2より小さい場合、第1のサイズ(例えば、3×3のサイズ)のフィルタを選択してよい。暈し処理部116は、第2閾値Vss2以上かつ第3閾値Vss3より小さい場合、第2のサイズ(例えば、5×5のサイズ)のフィルタを選択してよい。暈し処理部116は、シャッタ速度が第3閾値Vss3以上である場合、第3のサイズ(例えば、7×7のサイズ)のフィルタを選択してよい。   When the shutter speed is smaller than the first threshold Vss1 as shown in FIG. 9, the blurring processor 116 does not have to blur the image. When the shutter speed is equal to or higher than the first threshold Vss1 and smaller than the second threshold Vss2, the forgery processor 116 may select a filter of the first size (for example, 3 × 3 size). When the second processing unit 116 performs processing on the second threshold Vss2 or more and smaller than the third threshold Vss3, the forgery processing unit 116 may select a filter of a second size (for example, 5 × 5 size). If the shutter speed is equal to or higher than the third threshold Vss3, the forgery processing unit 116 may select a filter of a third size (for example, a size of 7 × 7).

暈し処理部116は、UAV10の移動速度及びシャッタ速度に応じた強度の、UAV10の移動方向と反対方向に延びるぼけを画像に付与してよい。暈し処理部116は、UAV10の移動速度に応じたサイズのフィルタと、シャッタ速度に応じたサイズのフィルタとを組み合わせたフィルタを画像に適用して、画像にぼけ処理を施してもよい。暈し処理部116は、UAV10の移動速度に応じたサイズのフィルタを画像に適用した後、シャッタ速度に応じたサイズのフィルタを画像に適用することで、画像にUAV10の移動方向と反対方向に延びるぼけ処理を施してもよい。   The manipulation processing unit 116 may provide the image with a blur that extends in the direction opposite to the moving direction of the UAV 10, the intensity of which corresponds to the moving speed and the shutter speed of the UAV 10. The blurring processing unit 116 may apply a filter combining a filter of a size according to the moving speed of the UAV 10 and a filter of a size according to the shutter speed to the image to perform blur processing on the image. After applying a filter of a size according to the moving speed of the UAV 10 to the image, the forgery processing unit 116 applies a filter of a size according to the shutter speed to the image to make the image opposite to the moving direction of the UAV 10 You may perform the blurring process extended.

図10は、暈し処理部116によりぼけ処理が施される前の画像と、ぼけ処理が施された後の画像との一例を示す図である。図10に示す画像は、紙面右方向にUAV10が移動しながら、撮像装置100が紙面手前から奥に向かう方向に向いた状態で、撮像装置100により撮像された画像である。このように、UAV10の移動方向と反対方向に延びるぼけ処理を施すことで、画像にUAV10の移動に伴う臨場感を与えることができる。   FIG. 10 is a view showing an example of an image before the blurring process is performed by the blurring unit 116 and an image after the blurring process is performed. The image illustrated in FIG. 10 is an image captured by the imaging device 100 in a state in which the imaging device 100 is directed from the front to the back of the paper surface while the UAV 10 moves in the right direction on the paper surface. As described above, by performing the blurring process extending in the direction opposite to the moving direction of the UAV 10, it is possible to give the image a sense of realism accompanying the movement of the UAV 10.

特定部114は、撮像装置100から被写体までの距離(被写体距離)をさらに特定してもよい。暈し処理部116は、被写体までの距離に応じたサイズのフィルタを画像に適用して、画像にぼけ処理を施してもよい。暈し処理部116は、被写体距離が第1の被写体距離の場合、第1のサイズのフィルタを画像に適用してよい。暈し処理部116は、被写体距離が第1の被写体距離より短い第2の被写体距離の場合、第1のサイズより大きい第2のサイズのフィルタを画像に適用してよい。   The specifying unit 114 may further specify the distance from the imaging device 100 to the subject (subject distance). The forgery processing unit 116 may apply a filter of a size according to the distance to the subject to the image to blur the image. When the subject distance is the first subject distance, the forgery processing unit 116 may apply a filter of the first size to the image. When the subject distance is a second subject distance shorter than the first subject distance, the forgery processing unit 116 may apply a filter of a second size larger than the first size to the image.

特定部114は、画像を複数の領域に分割して、複数の領域のそれぞれごとに被写体距離を特定してよい。暈し処理部116は、複数の領域ごとの被写体距離に応じたサイズのフィルタを複数の領域のそれぞれに適用して、画像のぼけ処理を施してもよい。   The identifying unit 114 may divide the image into a plurality of areas, and identify the subject distance for each of the plurality of areas. The forgery processing unit 116 may apply a filter of a size according to the subject distance for each of the plurality of areas to each of the plurality of areas to perform the blur processing of the image.

特定部114は、画像に対して相対的に移動する被写体を特定してよい。暈し処理部116は、画像内のその被写体の領域に対してフィルタを適用して、画像内のその被写体に対してぼけ処理を施してもよい。   The identifying unit 114 may identify an object moving relative to the image. The forgery processing unit 116 may apply a filter to the area of the subject in the image to blur the subject in the image.

図11は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ1200の一例を示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、本発明の実施形態に係る装置に関連付けられるオペレーションまたは当該装置の1または複数の「部」として機能させることができる。または、当該プログラムは、コンピュータ1200に当該オペレーションまたは当該1または複数の「部」を実行させることができる。当該プログラムは、コンピュータ1200に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。   FIG. 11 shows an example of a computer 1200 in which aspects of the invention may be fully or partially embodied. A program installed on computer 1200 can cause computer 1200 to act as an operation or one or more "parts" of the device according to embodiments of the invention. Alternatively, the program may cause the computer 1200 to execute the operation or one or more “parts”. The program can cause the computer 1200 to execute the process according to the embodiment of the present invention or the steps of the process. Such programs may be executed by CPU 1212 to cause computer 1200 to perform specific operations associated with some or all of the blocks in the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ1200は、CPU1212、及びRAM1214を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、入力/出力ユニットを含み、それらは入力/出力コントローラ1220を介してホストコントローラ1210に接続されている。コンピュータ1200はまた、ROM1230を含む。CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。   The computer 1200 according to the present embodiment includes a CPU 1212 and a RAM 1214, which are interconnected by a host controller 1210. Computer 1200 also includes a communication interface 1222, an input / output unit, which are connected to host controller 1210 via an input / output controller 1220. Computer 1200 also includes a ROM 1230. The CPU 1212 operates in accordance with programs stored in the ROM 1230 and the RAM 1214 to control each unit.

通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブが、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納してよい。ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/またはコンピュータ1200のハードウェアに依存するプログラムを格納する。プログラムが、CR−ROM、USBメモリまたはICカードのようなコンピュータ可読記録媒体またはネットワークを介して提供される。プログラムは、コンピュータ可読記録媒体の例でもあるRAM1214、またはROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ1200の使用に従い情報のオペレーションまたは処理を実現することによって構成されてよい。   The communication interface 1222 communicates with other electronic devices via a network. A hard disk drive may store programs and data used by the CPU 1212 in the computer 1200. The ROM 1230 stores therein a boot program or the like executed by the computer 1200 upon activation, and / or a program dependent on the hardware of the computer 1200. The program is provided via a computer readable recording medium or network such as a CR-ROM, a USB memory or an IC card. The program is installed in the RAM 1214 or ROM 1230, which is also an example of a computer-readable recording medium, and executed by the CPU 1212. Information processing described in these programs is read by the computer 1200 and brings about coordination between the programs and the various types of hardware resources. An apparatus or method may be configured by implementing the operation or processing of information in accordance with the use of computer 1200.

例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、またはUSBメモリのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。   For example, when communication is performed between the computer 1200 and an external device, the CPU 1212 executes the communication program loaded in the RAM 1214, and performs communication processing to the communication interface 1222 based on the processing described in the communication program. You may order. The communication interface 1222 reads transmission data stored in a transmission buffer area provided in a recording medium such as the RAM 1214 or a USB memory under the control of the CPU 1212 and transmits the read transmission data to the network, or The received data received from the network is written in a reception buffer area or the like provided on the recording medium.

また、CPU1212は、USBメモリ等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。   In addition, the CPU 1212 allows the RAM 1214 to read all or necessary portions of a file or database stored in an external recording medium such as a USB memory, and executes various types of processing on data on the RAM 1214. Good. The CPU 1212 may then write back the processed data to the external storage medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。   Various types of information such as various types of programs, data, tables, and databases may be stored in the recording medium and subjected to information processing. The CPU 1212 describes various types of operations, information processing, condition judgment, conditional branching, unconditional branching, information retrieval, which are described throughout the present disclosure for data read from the RAM 1214 and specified by a program instruction sequence. Various types of processing may be performed, including / replacement etc, and the results written back to RAM 1214. Further, the CPU 1212 may search for information in a file in a recording medium, a database or the like. For example, when a plurality of entries each having the attribute value of the first attribute associated with the attribute value of the second attribute are stored in the recording medium, the CPU 1212 specifies the attribute value of the first attribute. Search for an entry matching the condition from among the plurality of entries, read the attribute value of the second attribute stored in the entry, and thereby associate the first attribute satisfying the predetermined condition with the first attribute An attribute value of the second attribute may be acquired.

上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ1200上またはコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。   The programs or software modules described above may be stored on computer readable storage medium on or near computer 1200. In addition, a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer readable storage medium, whereby the program can be transmitted to the computer 1200 via the network. provide.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The execution order of each process such as operations, procedures, steps, and steps in the apparatuses, systems, programs, and methods shown in the claims, the specification, and the drawings is particularly “before”, “preceding” It is to be noted that “it is not explicitly stated as“ etc. ”and can be realized in any order as long as the output of the previous process is not used in the later process. With regard to the operation flow in the claims, the specification, and the drawings, even if it is described using “first,” “next,” etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It is apparent to those skilled in the art that various changes or modifications can be added to the above embodiment. It is also apparent from the scope of the claims that the embodiments added with such alterations or improvements can be included in the technical scope of the present invention.

10 UAV
20 UAV本体
30 UAV制御部
36 通信インタフェース
37 メモリ
40 推進部
41 受信機
42 慣性計測装置
43 磁気コンパス
44 気圧高度計
45 温度センサ
46 湿度センサ
50 ジンバル
60 撮像装置
100 撮像装置
102 撮像部
110 撮像制御部
112 取得部
114 特定部
116 処理部
120 イメージセンサ
130 メモリ
200 レンズ部
210 レンズ
212 レンズ駆動部
214 位置センサ
220 レンズ制御部
222 メモリ
300 遠隔操作装置
1200 コンピュータ
1210 ホストコントローラ
1212 CPU
1214 RAM
1220 入力/出力コントローラ
1222 通信インタフェース
1230 ROM
10 UAV
Reference Signs List 20 UAV main body 30 UAV control unit 36 communication interface 37 memory 40 propulsion unit 41 receiver 42 inertia measurement device 43 magnetic compass 44 barometric pressure altimeter 45 temperature sensor 46 humidity sensor 50 gimbal 60 imaging device 100 imaging device 102 imaging unit 110 imaging control unit 112 Acquisition unit 114 Identification unit 116 Processing unit 120 Image sensor 130 Memory 200 Lens unit 210 Lens 212 Lens drive unit 214 Position sensor 220 Lens control unit 222 Memory 300 Remote control device 1200 Computer 1210 Host controller 1212 CPU
1214 RAM
1220 I / O controller 1222 communication interface 1230 ROM

Claims (19)

移動体に搭載された撮像装置により撮像された画像を取得する取得部と、
前記撮像装置が前記画像を撮像しているときの前記移動体の移動方向を特定する特定部と、
前記移動方向に基づいて、前記画像にぼけを付与する暈し処理部と
を備える画像処理装置。
An acquisition unit that acquires an image captured by an imaging device mounted on a mobile object;
An identifying unit that identifies a moving direction of the moving object when the imaging device captures the image;
An image processing apparatus comprising: a tweak processing unit that adds blur to the image based on the movement direction.
前記特定部は、前記移動体を制御する制御情報に基づいて前記移動体の移動方向を特定する、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the specifying unit specifies a moving direction of the moving body based on control information for controlling the moving body. 前記特定部は、前記撮像装置の撮像面に沿った前記移動方向を特定し、
前記暈し処理部は、前記移動方向に沿ったぼけを前記画像に付与する暈し処理を施す、請求項1に記載の画像処理装置。
The specifying unit specifies the moving direction along an imaging surface of the imaging device;
The image processing apparatus according to claim 1, wherein the shaking processing unit performs a shaking process for applying blurring along the movement direction to the image.
前記暈し処理部は、前記移動方向と反対方向に延びるぼけを前記画像に付与する暈し処理を施す、請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the tweak processing unit performs tweak processing for applying a blur extending in a direction opposite to the movement direction to the image. 前記特定部は、前記撮像装置が前記画像を撮像しているときの前記移動体の移動速度をさらに特定し、
前記暈し処理部は、前記移動速度に応じた強度のぼけを前記画像に付与する、請求項1に記載の画像処理装置。
The specifying unit further specifies a moving speed of the moving body when the imaging device is capturing the image;
The image processing apparatus according to claim 1, wherein the tweak processing unit imparts a blur of an intensity corresponding to the movement speed to the image.
前記暈し処理部は、前記移動速度に応じたサイズのフィルタを適用して前記画像にぼけを付与する、請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the tweak processing unit applies a filter of a size according to the movement speed to add blur to the image. 前記暈し処理部は、前記移動体の移動速度が第1移動速度の場合、第1サイズのフィルタを適用して前記画像にぼけを付与し、前記移動体の移動速度が前記第1移動速度より大きい第2移動速度の場合、前記第1サイズより大きい第2サイズのフィルタを適用して前記画像にぼけを付与する、請求項6に記載の画像処理装置。   When the moving speed of the moving body is the first moving speed, the tumbling processing unit applies a filter of the first size to blur the image, and the moving speed of the moving body is the first moving speed. The image processing apparatus according to claim 6, wherein a second size filter larger than the first size is applied to blur the image when the second moving speed is higher. 前記暈し処理部は、前記移動体の移動速度が予め定められた閾値より小さい場合、第1サイズのフィルタを適用して前記画像にぼけを付与し、前記移動体の移動速度が前記閾値以上である場合、前記第1サイズより大きい第2サイズのフィルタを適用して前記画像にぼけを付与する、請求項6に記載の画像処理装置。   When the moving speed of the moving body is smaller than a predetermined threshold, the forgery processing unit applies a first size filter to blur the image, and the moving speed of the moving body is equal to or more than the threshold. The image processing apparatus according to claim 6, wherein a second filter larger than the first filter is applied to blur the image. 前記特定部は、前記撮像装置が前記画像を撮像しているときの前記撮像装置のシャッタ速度をさらに特定し、
前記暈し処理部は、前記シャッタ速度に応じたサイズのフィルタを適用して画像にぼけを付与する、請求項6に記載の画像処理装置。
The specifying unit further specifies a shutter speed of the imaging device when the imaging device captures the image;
The image processing apparatus according to claim 6, wherein the tweak processing unit applies a filter having a size according to the shutter speed to blur the image.
前記暈し処理部は、前記撮像装置のシャッタ速度が第1シャッタ速度の場合、第1サイズのフィルタを適用して前記画像にぼけを付与し、前記撮像装置のシャッタ速度が前記第1シャッタ速度より大きい第2シャッタ速度の場合、前記第1サイズより大きい第2サイズのフィルタを適用して前記画像にぼけを付与する、請求項9に記載の画像処理装置。   When the shutter speed of the imaging device is the first shutter speed, the tumbling processing unit applies a filter of the first size to blur the image, and the shutter speed of the imaging device is the first shutter speed. 10. The image processing apparatus according to claim 9, wherein a second size filter larger than the first size is applied to blur the image when the second shutter speed is larger. 前記暈し処理部は、前記撮像装置のシャッタ速度が前記第1シャッタ速度より小さい予め定められた第3シャッタ速度より小さい場合、前記画像にぼけを付与しない、請求項10に記載の画像処理装置。   11. The image processing apparatus according to claim 10, wherein the blurring unit does not blur the image when the shutter speed of the imaging device is smaller than a predetermined third shutter speed smaller than the first shutter speed. . 前記特定部は、前記撮像装置が前記画像を撮像しているときの前記移動体の移動速度、及び前記撮像装置のシャッタ速度をさらに特定し、
前記暈し処理部は、前記移動速度及び前記シャッタ速度に応じた強度のぼけを付与する、請求項1に記載の画像処理装置。
The specifying unit further specifies a moving speed of the moving body when the imaging device is imaging the image, and a shutter speed of the imaging device.
The image processing apparatus according to claim 1, wherein the forgery processing unit blurs the intensity according to the moving speed and the shutter speed.
前記撮像装置は、前記撮像装置の撮像方向を調整可能に前記撮像装置を支持する支持機構を介して前記移動体に搭載され、
前記特定部は、前記撮像装置が前記画像を撮像しているときの前記移動体に対する前記撮像装置の撮像方向をさらに特定し、前記移動体の移動方向、及び前記移動体に対する前記撮像装置の撮像方向に基づいて、前記撮像面に沿った前記移動方向を特定する、請求項3に記載の画像処理装置。
The imaging device is mounted on the movable body via a support mechanism that supports the imaging device so that the imaging direction of the imaging device can be adjusted.
The specifying unit further specifies an imaging direction of the imaging device with respect to the movable body when the imaging device is imaging the image, and a moving direction of the movable body and imaging of the imaging device with respect to the movable body The image processing apparatus according to claim 3, wherein the movement direction along the imaging surface is specified based on a direction.
前記特定部は、前記撮像装置が前記画像を撮像しているときの前記移動体の移動速度、及び前記移動体に対する撮像装置の回転速度をさらに特定し、
前記暈し処理部は、前記移動体の前記移動速度及び前記撮像装置の前記回転速度に応じた強度のぼけを前記画像に付与する、請求項13に記載の画像処理装置。
The specifying unit further specifies a moving speed of the moving body when the imaging device is capturing the image, and a rotational speed of the imaging device with respect to the moving body.
The image processing apparatus according to claim 13, wherein the tweak processing unit imparts, to the image, a blur of an intensity according to the moving speed of the moving body and the rotational speed of the imaging device.
イメージセンサと、
前記イメージセンサから出力される画像に対して画像処理を行う、請求項1から13の何れか1つに記載の画像処理装置と
を備える撮像装置。
An image sensor,
An image processing apparatus according to any one of claims 1 to 13, which performs image processing on an image output from the image sensor.
請求項15に記載の撮像装置を備えて移動する移動体。   A mobile which moves with the imaging device according to claim 15. 前記撮像装置の撮像方向を調整可能に前記撮像装置を支持する支持機構をさらに備える、請求項16に記載の移動体。   The movable body according to claim 16, further comprising a support mechanism that supports the imaging device such that the imaging direction of the imaging device can be adjusted. 移動体に搭載された撮像装置により撮像された画像を取得する段階と、
前記撮像装置が前記画像を撮像しているときの前記移動体の移動方向を特定する段階と、
前記移動方向に基づいて、前記画像にぼけを付与する段階と
を備える画像処理方法。
Acquiring an image captured by an imaging device mounted on a mobile object;
Identifying a moving direction of the moving body when the imaging device captures the image;
Applying blurring to the image based on the moving direction.
請求項1から14の何れか1つに記載の画像処理装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 14.
JP2018055272A 2018-03-22 2018-03-22 IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE OBJECT, IMAGE PROCESSING METHOD, AND PROGRAM Expired - Fee Related JP6543859B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018055272A JP6543859B1 (en) 2018-03-22 2018-03-22 IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE OBJECT, IMAGE PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018055272A JP6543859B1 (en) 2018-03-22 2018-03-22 IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE OBJECT, IMAGE PROCESSING METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP6543859B1 true JP6543859B1 (en) 2019-07-17
JP2019169810A JP2019169810A (en) 2019-10-03

Family

ID=67297522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018055272A Expired - Fee Related JP6543859B1 (en) 2018-03-22 2018-03-22 IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE OBJECT, IMAGE PROCESSING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6543859B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3991988A4 (en) 2019-06-28 2022-09-14 FUJIFILM Corporation Lithographic printing plate precursor, method for producing lithographic printing plate, and lithographic printing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009253921A (en) * 2008-04-10 2009-10-29 Sony Corp Imaging device, captured image recording method and program
JP2010268441A (en) * 2009-04-16 2010-11-25 Sanyo Electric Co Ltd Image processor, imaging device, and image reproducing device
JP2012253713A (en) * 2011-06-07 2012-12-20 Sony Corp Image processing device, method for controlling image processing device, and program for causing computer to execute the method
TWI554108B (en) * 2015-08-04 2016-10-11 緯創資通股份有限公司 Electronic device and image processing method

Also Published As

Publication number Publication date
JP2019169810A (en) 2019-10-03

Similar Documents

Publication Publication Date Title
JP6399498B1 (en) Control apparatus, imaging system, moving object, control method, and program
JP6496955B1 (en) Control device, system, control method, and program
JP6733106B2 (en) DETERMINING DEVICE, MOVING BODY, DETERMINING METHOD, AND PROGRAM
JP2019066563A (en) Controller, lens device, imaging apparatus, control method, and program
JP6630939B2 (en) Control device, imaging device, moving object, control method, and program
JP6543859B1 (en) IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE OBJECT, IMAGE PROCESSING METHOD, AND PROGRAM
JP6790318B2 (en) Unmanned aerial vehicles, control methods, and programs
JP6501091B1 (en) CONTROL DEVICE, IMAGING DEVICE, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM
JP6496953B2 (en) Control device, imaging device, moving object, control method, and program
JP6544542B2 (en) Control device, imaging device, unmanned aerial vehicle, control method, and program
JP6503607B2 (en) Imaging control apparatus, imaging apparatus, imaging system, moving object, imaging control method, and program
JP6801161B1 (en) Image processing equipment, imaging equipment, moving objects, image processing methods, and programs
JP7048019B2 (en) Controls, flying objects, control methods, and programs
JP2019161486A (en) Dynamic body detection device, control device, moving body, dynamic body detection method, and program
JP2019082539A (en) Control device, lens device, flying body, control method, and program
JP2019096965A (en) Determination device, control arrangement, imaging system, flying object, determination method, program
JP6641574B1 (en) Determination device, moving object, determination method, and program
JP6651693B2 (en) Control device, moving object, control method, and program
JP6547984B2 (en) CONTROL DEVICE, IMAGING DEVICE, IMAGING SYSTEM, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM
JP6696092B2 (en) Control device, moving body, control method, and program
JP6818987B1 (en) Image processing equipment, imaging equipment, moving objects, image processing methods, and programs
JP6569157B1 (en) Control device, imaging device, moving object, control method, and program
JP6459012B1 (en) Control device, imaging device, flying object, control method, and program
JP2019205047A (en) Controller, imaging apparatus, mobile body, control method and program
JP6710863B2 (en) Aircraft, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190529

R150 Certificate of patent or registration of utility model

Ref document number: 6543859

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees