JP2015106840A - Imaging system and imaging method of imaging system - Google Patents

Imaging system and imaging method of imaging system Download PDF

Info

Publication number
JP2015106840A
JP2015106840A JP2013248390A JP2013248390A JP2015106840A JP 2015106840 A JP2015106840 A JP 2015106840A JP 2013248390 A JP2013248390 A JP 2013248390A JP 2013248390 A JP2013248390 A JP 2013248390A JP 2015106840 A JP2015106840 A JP 2015106840A
Authority
JP
Japan
Prior art keywords
coordinates
target
imaging
unit
respect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013248390A
Other languages
Japanese (ja)
Other versions
JP6273803B2 (en
Inventor
佳之 若山
Yoshiyuki Wakayama
佳之 若山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Canon MJ IT Group Holdings Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Canon MJ IT Group Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc, Canon MJ IT Group Holdings Inc filed Critical Canon Marketing Japan Inc
Priority to JP2013248390A priority Critical patent/JP6273803B2/en
Publication of JP2015106840A publication Critical patent/JP2015106840A/en
Application granted granted Critical
Publication of JP6273803B2 publication Critical patent/JP6273803B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a constitution to allow an imaging system with flight means to automatically get ready to image a target.SOLUTION: On the basis of the specific coordinates of at least one place set previously by a user and positional coordinates received by GPS reception means, the system calculates the lens control value, the angle respect to a vertical direction, and the orientation with respect to a horizontal direction of imaging means, and controls the imaging means to have the lens control value, the angle respect to a vertical direction, and the orientation with respect to a horizontal direction, the angle and orientation being calculated like this. This enables the system to automatically get ready to image a target.

Description

本発明は、飛行手段を備えた撮像システム及び撮像システムの撮像方法に関する。   The present invention relates to an imaging system provided with flying means and an imaging method of the imaging system.

近年、撮像する目標物を座標で特定し、自動的に目標物の撮像が行えるカメラシステム(撮像装置)の開発が進められている。特許文献1には、車等で移動している際に、予め設定しておいた撮像地点に到達したら、自動的に撮像を実行することができるカメラシステムについて開示されている。具体的には自動車にGPS受信手段を搭載し、目標物の座標とGPS受信手段で得た現在の座標とから、撮像ポイント又は指定した撮像範囲に到達したものと判断して撮像を自動的に実行している。   2. Description of the Related Art In recent years, development of a camera system (imaging device) that can identify a target to be imaged with coordinates and automatically capture the target is in progress. Patent Document 1 discloses a camera system that can automatically perform imaging when it reaches a preset imaging point while moving in a car or the like. Specifically, the GPS receiving means is mounted on the car, and it is determined that it has reached the imaging point or the specified imaging range from the coordinates of the target and the current coordinates obtained by the GPS receiving means, and imaging is automatically performed. Running.

特開2001−257920号公報JP 2001-257920 A

このような自動的に目標物の撮像を行えるカメラシステムは、地上を走行する自動車等のみならず、ラジコン飛行機やラジコンヘリコプター等の飛行手段においても適用可能することが求められている。   Such a camera system capable of automatically capturing an image of a target is required to be applicable not only to an automobile traveling on the ground but also to a flying means such as a radio controlled airplane or a radio controlled helicopter.

しかしながら、特許文献1に開示されている技術は、地上の撮像についてしか考慮しておらず、飛行手段に搭載された撮像手段を用いてどのように目標物をとらえ、撮像可能な状態とするかについては何ら開示がされていない。   However, the technique disclosed in Patent Document 1 only considers imaging on the ground, and how to capture the target using the imaging means mounted on the flying means to make the imaging possible. There is no disclosure about.

そこで本願発明は上記課題を鑑み、飛行手段を備えた撮像システムにおいて自動的に目標物を撮像可能な状態を整えることができる構成を提供することを目的としている。   In view of the above problems, an object of the present invention is to provide a configuration capable of automatically preparing a state in which an image of a target can be imaged in an imaging system including flying means.

本発明に係る撮像システムは、画像を撮像する撮像手段と、前記撮像手段のレンズ制御を行うレンズ制御部と、前記撮像手段の上下方向に対する角度を制御する角度制御部と、前記撮像手段の左右方向に対する向きを制御する方向制御部と、前記撮像手段を搭載した飛行手段と、GPS衛星からの電波を受信し、前記電波から位置座標を解析するGPS受信手段と、目標物を特定するための少なくとも1か所の特定座標を記憶する記憶手段と、前記記憶手段で記憶された前記少なくとも1か所の特定座標と前記位置座標とに基づいて、前記撮像手段のレンズ制御値と上下方向に対する角度と左右方向に対する向きとを設定する算出手段と、前記レンズ制御部と前記角度制御部と前記方向制御部とを、前記算出手段で算出したレンズ制御値と上下方向に対する角度と左右方向に対する向きとなるように制御する制御手段と、を有することを特徴とする。   An imaging system according to the present invention includes an imaging unit that captures an image, a lens control unit that performs lens control of the imaging unit, an angle control unit that controls an angle of the imaging unit with respect to the vertical direction, and left and right of the imaging unit. A direction control unit that controls a direction with respect to a direction, a flying unit equipped with the imaging unit, a GPS receiving unit that receives radio waves from a GPS satellite and analyzes position coordinates from the radio waves, and a target for specifying a target Based on the storage means for storing at least one specific coordinate and the at least one specific coordinate and the position coordinate stored in the storage means, the lens control value of the imaging means and the angle with respect to the vertical direction And a calculation means for setting the direction with respect to the left and right direction, the lens control section, the angle control section, and the direction control section with the lens control value calculated by the calculation means. And having a control means for controlling such that the orientation with respect to the angle and the lateral direction with respect to direction.

このように、目標物を特定するための特定座標と位置座標とから、レンズ制御値と上下方向に対する角度と左右方向に対する向きを求めて制御することで、飛行手段を備えた撮像システムにおいて自動的に目標物を撮像可能な状態を整えることができる。   As described above, the lens control value, the angle with respect to the vertical direction, and the direction with respect to the horizontal direction are determined and controlled from the specific coordinates and the position coordinates for specifying the target object, so that the image pickup system including the flying means automatically It is possible to prepare a state in which the target can be imaged.

本願発明に係るカメラと飛行手段と情報処理装置との構成を示すブロック図である。It is a block diagram which shows the structure of the camera which concerns on this invention, a flight means, and information processing apparatus. カメラと目標物との関係を示す図である。It is a figure which shows the relationship between a camera and a target object. カメラの制御を説明するためのフローチャートである。It is a flowchart for demonstrating control of a camera. 特定座標が1か所の場合の、カメラと目標物の関係を示す図である。It is a figure which shows the relationship between a camera and a target object when a specific coordinate is one place. 特定座標が2か所の場合の、カメラと目標物の関係を示す図である。It is a figure which shows the relationship between a camera and a target object when there are two specific coordinates. 特定座標が4か所の場合の、カメラと目標物の関係を示す図である。It is a figure which shows the relationship between a camera and a target object when a specific coordinate is four places. 飛行手段の飛行目標座標を算出する流れを説明するフローチャートである。It is a flowchart explaining the flow which calculates the flight target coordinate of a flight means. カメラの制御を説明するためのフローチャートである。It is a flowchart for demonstrating control of a camera. カメラの制御を説明するためのフローチャートである。It is a flowchart for demonstrating control of a camera.

以下、図面を参照して、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本願発明に係る撮像手段と飛行手段と情報処理装置のハードウェア構成を示すブロック図である。本発明の撮像システムは、撮像手段として用いることができるカメラ300と、カメラ300を搭載し、飛行可能な無線の飛行機やヘリコプター等の飛行手段100と、カメラ300や飛行手段100に対して撮像目的の座標(特定座標)をユーザが設定したり、カメラ300で撮像された画像を抽出可能なPC等の情報処理装置200とを有して構成されている。   FIG. 1 is a block diagram showing a hardware configuration of an imaging unit, a flying unit, and an information processing apparatus according to the present invention. The imaging system of the present invention includes a camera 300 that can be used as an imaging unit, a flying unit 100 such as a wireless airplane or helicopter that can be mounted on the camera 300, and the camera 300 or the flying unit 100. The information processing apparatus 200 such as a PC that can set the coordinates (specific coordinates) of the user or extract an image captured by the camera 300 is configured.

飛行手段100のCPU103は、システムバスに接続される各デバイスやコントローラを統括的に制御することができる。ROM102にはCPU103の制御ブログラムや各種制御プログラムが記憶されている。RAM101は、CPU103が動作するためのシステムワークメモリとして機能する。CPU103は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。CPU103は、このようにRAM203にプログラム等をロードし、実行することで飛行制御部105を制御することもできる。   The CPU 103 of the flying means 100 can comprehensively control each device and controller connected to the system bus. The ROM 102 stores a control program of the CPU 103 and various control programs. The RAM 101 functions as a system work memory for the CPU 103 to operate. The CPU 103 implements various operations by loading a program necessary for execution of processing into the RAM 203 and executing the program. The CPU 103 can also control the flight control unit 105 by loading a program or the like into the RAM 203 and executing the program.

情報処理装置200のCPU201は、システムバスに接続される各デバイスやコントローラを統括的に制御することができる。また、ROM202あるいは外部メモリ207には、CPU201の制御プログラムであるBIOS(Basic Input/Output System)やオペレーティングシステムプログラム(以下、OS)や、各サーバ或いは各PCの実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM204は、CPU201のシステムワークメモリとして機能する。CPU201は、処理の実行に際して必要なプログラム等をRAM204にロードして、プログラムを実行することで各種動作を実現するものである。   The CPU 201 of the information processing apparatus 200 can comprehensively control each device and controller connected to the system bus. Further, the ROM 202 or the external memory 207 is necessary for realizing a BIOS (Basic Input / Output System) or an operating system program (hereinafter referred to as an OS) that is a control program of the CPU 201 and a function executed by each server or each PC. Various programs to be described later are stored. The RAM 204 functions as a system work memory for the CPU 201. The CPU 201 implements various operations by loading a program necessary for execution of processing into the RAM 204 and executing the program.

また、CPU201は、ディスプレイ205への表示出力、入力端末206からの入力を制御することができる。さらに、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフロッピーディスク(登録商標FD)或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュメモリ等の外部メモリ207へのアクセスを制御することもできる。   Further, the CPU 201 can control display output to the display 205 and input from the input terminal 206. In addition, it is connected via an adapter to a hard disk (HD), floppy disk (registered trademark FD) or PCMCIA card slot that stores boot programs, browser software, various applications, font data, user files, editing files, various data, etc. It is also possible to control access to an external memory 207 such as a compact flash memory.

また通信I/F203は、ネットワークを介して外部機器と接続・通信するものであり、本実施形態においてはカメラ300の通信I/F回路325と通信可能に接続されている。そして、このI/Fを介して、カメラ300に撮像目標物の座標等の入力や撮像画像の受け渡しを行うことができる。   The communication I / F 203 is connected to and communicates with an external device via a network. In this embodiment, the communication I / F 203 is communicably connected to the communication I / F circuit 325 of the camera 300. And via this I / F, it is possible to input to the camera 300 the coordinates and the like of the imaging target and to deliver the captured image.

次にカメラ300(撮像装置)のハードウェア構成について説明する。撮像装置としては、いわゆるデジタルカメラ等を用いることができ、撮像用のレンズ301、撮像素子(以下、「CCD」と称する)302、カメラ信号処理部(以下、「ADC」と称する)303、画像処理部304、システムコントローラ310、バッファメモリ311、フラッシュROM312、インターフェース回路(以下、「I/F回路」と称する)313、カードホルダ314、メモリカード315、ディスプレイドライバ316、および操作部320を備える。   Next, the hardware configuration of the camera 300 (imaging device) will be described. As the imaging device, a so-called digital camera or the like can be used, and an imaging lens 301, an imaging device (hereinafter referred to as “CCD”) 302, a camera signal processing unit (hereinafter referred to as “ADC”) 303, an image. A processing unit 304, a system controller 310, a buffer memory 311, a flash ROM 312, an interface circuit (hereinafter referred to as “I / F circuit”) 313, a card holder 314, a memory card 315, a display driver 316, and an operation unit 320 are provided.

レンズ301は、レンズ等であり、対物レンズ、ズームレンズ、およびフォーカスレンズなどで構成される。ズームレンズおよびフォーカスレンズについては、不図示の駆動機構により光軸方向へ駆動される。撮像素子302は、レンズ301から入射した撮像光を結像し、電気信号(アナログ信号)に変換して出力するCCDイメージセンサで構成される。
カメラ信号処理部(ADC)303は、撮像素子302から受けた電気信号にデジタル変換やホワイトバランス調整などの信号処理を行なって、デジタル信号に変換する機能を有する。システムコントローラ310は、画像処理部304、バッファメモリ311、フラッシュROM312、I/F回路313、325、レンズ制御部327、角度制御部321、方向制御部322、I/O323、GPS受信手段324に接続されている
The lens 301 is a lens or the like, and includes an objective lens, a zoom lens, a focus lens, and the like. The zoom lens and the focus lens are driven in the optical axis direction by a driving mechanism (not shown). The imaging element 302 is configured by a CCD image sensor that forms an image of imaging light incident from the lens 301, converts it into an electrical signal (analog signal), and outputs the electrical signal.
The camera signal processing unit (ADC) 303 has a function of performing signal processing such as digital conversion and white balance adjustment on the electric signal received from the image sensor 302 and converting the signal into a digital signal. The system controller 310 is connected to the image processing unit 304, the buffer memory 311, the flash ROM 312, the I / F circuits 313 and 325, the lens control unit 327, the angle control unit 321, the direction control unit 322, the I / O 323, and the GPS receiving unit 324. Has been

画像処理部304は、前処理部305、YC処理部306、電子ズーム処理部307、圧縮部308、および伸長部309を備え、カメラ信号処理部303から出力されるデジタル信号から画像データを生成し、各種画像処理を行う機能を有する。   The image processing unit 304 includes a preprocessing unit 305, a YC processing unit 306, an electronic zoom processing unit 307, a compression unit 308, and an expansion unit 309, and generates image data from the digital signal output from the camera signal processing unit 303. Have a function of performing various image processing.

前処理部305は、入力される画像データに基づく画像のホワイトバランスを調整するホワイトバランス処理や画像のガンマ補正処理を行う機能を有する。ホワイトバランス処理は、画像の色合いを、実物の色合いに近くなるように調整したり、光源(蛍光灯や太陽光など)に合った適正な色に調整したりする処理である。ガンマ補正処理は、画像のコントラストを調整する処理である。なお、前処理部305は、ホワイトバランス処理およびガンマ補正処理以外の画像処理を実行することも可能である。   The pre-processing unit 305 has a function of performing white balance processing for adjusting the white balance of an image based on input image data and image gamma correction processing. The white balance process is a process of adjusting the color of an image so as to be close to the actual color, or adjusting the color to an appropriate color that matches a light source (such as a fluorescent lamp or sunlight). The gamma correction process is a process for adjusting the contrast of an image. Note that the pre-processing unit 305 can also perform image processing other than white balance processing and gamma correction processing.

YC処理部306は、入力される画像データに基づく画像を、輝度情報「Y」と、輝度信号と青色の色差情報「Cb」と、輝度信号と赤色の色差情報「Cr」とに分離する機能を有する。電子ズーム処理部307は、画像の一部(例えば中央部)を所定の大きさでトリミングし、トリミングした画像を信号処理で元画像の大きさに拡大する機能を有する。電子ズーム処理部307は、例えば、撮像された1600×3200ドットの画像から中央の3024×768ドットの画像を切り出し、データ補間を行いながら1600×3200ドットのサイズに拡大することができる。   The YC processing unit 306 has a function of separating an image based on input image data into luminance information “Y”, luminance signal and blue color difference information “Cb”, and luminance signal and red color difference information “Cr”. Have The electronic zoom processing unit 307 has a function of trimming a part of an image (for example, a central part) with a predetermined size and enlarging the trimmed image to the size of the original image by signal processing. For example, the electronic zoom processing unit 307 can extract a central 3024 × 768 dot image from a captured 1600 × 3200 dot image, and enlarge it to a size of 1600 × 3200 dot while performing data interpolation.

圧縮部308は、画像データをJPEG(Joint Photographic Expert Group)方式などの圧縮形式によって圧縮する機能を有する。伸長部309は、圧縮されている画像データを伸長する機能を有する。例えば、画像データをJPEG方式で圧縮する場合、まず、画像データの高周波成分と低周波成分の割合を数値化する離散コサイン変換処理が行われる(DCT処理)。次に、画像の階調やグラデーションを表現する段階を数値(量子化ビット数)で表現する量子化処理が行われる。最後に、ハフマン符号化処理で画像データが圧縮される。   The compression unit 308 has a function of compressing image data by a compression format such as JPEG (Joint Photographic Expert Group). The decompression unit 309 has a function of decompressing compressed image data. For example, when compressing image data using the JPEG method, first, a discrete cosine transform process is performed (DCT process) that digitizes the ratio of high-frequency components and low-frequency components of image data. Next, a quantization process is performed for expressing the gradation or gradation of the image by a numerical value (quantization bit number). Finally, the image data is compressed by the Huffman encoding process.

具体的には、画像データの信号文字列が一定のビット毎に区切られ、出現頻度が高い文字列に対してより短い符号が与えてられてゆく。なお、圧縮処理を行わないで画像データを記録する方式の場合は、圧縮部308および伸長部309を省略することができる。また、画像データの圧縮形式は、JPEG方式に限らず、GIF(Graphical Interchange Format)形式などであっても、同様に処理を行うことができる。   Specifically, the signal character string of the image data is segmented every certain bit, and a shorter code is given to a character string having a high appearance frequency. Note that the compression unit 308 and the decompression unit 309 can be omitted in the case of a method of recording image data without performing compression processing. Further, the image data compression format is not limited to the JPEG format, and the same processing can be performed even in a GIF (Graphical Interchange Format) format.

バッファメモリ311には、画像処理部304で画像処理が行われる際に、一時的に画像データが保存される。フラッシュROM312には、撮像装置の各種設定情報や、後述するユーザ認証情報が保存される。I/F回路313は、システムコントローラ310から出力される画像データを、メモリカード315に記録可能なデータ形式に変換する。また、I/F回路313は、メモリカード315から読み出された画像データ等を、システムコントローラ310で処理可能なデータ形式に変換する。   The buffer memory 311 temporarily stores image data when the image processing unit 304 performs image processing. The flash ROM 312 stores various setting information of the imaging apparatus and user authentication information described later. The I / F circuit 313 converts the image data output from the system controller 310 into a data format that can be recorded in the memory card 315. The I / F circuit 313 converts image data read from the memory card 315 into a data format that can be processed by the system controller 310.

カードホルダ314は、記録媒体であるメモリカード315を撮像装置に着脱可能にする機構を備えると共に、メモリカード315との間でデータ通信が可能な電気接点を備える。また、カードホルダ314は、撮像装置で利用される記録媒体の種類に応じた構造を有する。メモリカード315は、フラッシュメモリなどの半導体記憶素子を内蔵し、カードホルダ314に着脱可能なカード型の記録媒体である。メモリカード315には、撮像装置で撮像された画像データを記録することができる。   The card holder 314 includes a mechanism that allows the memory card 315 that is a recording medium to be attached to and detached from the imaging apparatus, and includes an electrical contact that enables data communication with the memory card 315. The card holder 314 has a structure corresponding to the type of recording medium used in the imaging apparatus. The memory card 315 is a card-type recording medium that incorporates a semiconductor storage element such as a flash memory and is detachable from the card holder 314. The memory card 315 can record image data captured by the imaging device.

レンズ制御部327は、レンズ301のレンズに対して、ズーム、フォーカス、絞り等の制御を行う。角度制御部321は、カメラを目標物に向けるために上下方向に対する角度の制御を行う。方向制御部322は、カメラを目標物に向けるために左右方向に対する向きを制御する。さらに、GPS受信手段324は、GPS衛星からの電波を受信することができ、この電波からカメラ300の現在の位置座標を解析することができる。このGPSから求まる位置座標からは、カメラ300の高度および平面上の座標を取得することができる。またカメラ300の高度は、GPS座標からではなく、高度計を搭載して取得可能とすることもできる。   The lens control unit 327 controls zoom, focus, aperture, and the like for the lens 301. The angle controller 321 controls the angle with respect to the vertical direction in order to point the camera at the target. The direction control unit 322 controls the direction with respect to the left-right direction in order to point the camera at the target. Further, the GPS receiving means 324 can receive radio waves from GPS satellites, and can analyze the current position coordinates of the camera 300 from the radio waves. From the position coordinates obtained from the GPS, the altitude of the camera 300 and the coordinates on the plane can be acquired. Further, the altitude of the camera 300 can be acquired by installing an altimeter, not from the GPS coordinates.

次に、カメラ300における撮像動作について説明する。本実施形態においては、カメラ300と目標物との距離が所定の距離になると自動的に撮像動作が行われる。具体的には、一定の時間間隔や一定の移動間隔で撮像するなどの撮像動作を行うことができる。このような撮像動作では、光学画像がレンズ301を介して撮像装置内へ入射し、撮像素子(CCD)302に結像される。CCD302は、入射される光学画像を電気信号に変換して、カメラ信号処理部(ADC)303へ出力する。ADC303は、入力される電気信号(アナログ信号)をデジタル信号に変換する。ADC303から出力されるデジタル信号は画像処理部304に入力される。   Next, an imaging operation in the camera 300 will be described. In the present embodiment, the imaging operation is automatically performed when the distance between the camera 300 and the target becomes a predetermined distance. Specifically, an imaging operation such as imaging at a constant time interval or a constant movement interval can be performed. In such an imaging operation, an optical image enters the imaging apparatus via the lens 301 and forms an image on the imaging device (CCD) 302. The CCD 302 converts the incident optical image into an electrical signal and outputs it to the camera signal processing unit (ADC) 303. The ADC 303 converts an input electric signal (analog signal) into a digital signal. A digital signal output from the ADC 303 is input to the image processing unit 304.

画像処理部304内の前処理部305では、入力されるデジタル信号に基づき画像データを生成し、ホワイトバランス処理およびガンマ補正処理などが行われる。画像処理部304内のYC処理部306では、画像データが輝度信号Yと色差信号CrおよびCbとに分離され、色差信号CrおよびCbの情報量を減らす処理が行われる。色差信号CrおよびCbの情報量の削減処理は、例えば、画像の主走査方向の色情報を間引く「4:2:2ダウンサンプリング処理」や、画像の縦横方向の色情報を間引く「4:1:1ダウンサンプリング処理」などがある。なお、前処理部305およびYC処理部306で画像処理を行う際は、画像データを一時的にバッファメモリ311に保存し、随時バッファメモリ311に保存されている画像データを読み出しながら画像処理が行われる。   A pre-processing unit 305 in the image processing unit 304 generates image data based on an input digital signal, and performs white balance processing, gamma correction processing, and the like. In the YC processing unit 306 in the image processing unit 304, the image data is separated into the luminance signal Y and the color difference signals Cr and Cb, and processing for reducing the information amount of the color difference signals Cr and Cb is performed. The information amount reduction processing for the color difference signals Cr and Cb is, for example, “4: 2: 2 downsampling processing” for thinning out color information in the main scanning direction of an image, or “4: 1” for thinning out color information in the vertical and horizontal directions of an image. : 1 downsampling process ". When image processing is performed by the preprocessing unit 305 and the YC processing unit 306, image data is temporarily stored in the buffer memory 311 and image processing is performed while reading the image data stored in the buffer memory 311 as needed. Is called.

画像処理部304から出力される画像データ(非圧縮)はシステムコントローラ310に入力される。そして一定の間隔で、システムコントローラ310は画像処理部304に制御信号を出力する。画像処理部304に制御信号が入力されると、圧縮部308は、前処理部305およびYC処理部306で画像処理された画像データをバッファメモリ311へ保存し、圧縮処理を行う。   Image data (uncompressed) output from the image processing unit 304 is input to the system controller 310. The system controller 310 outputs a control signal to the image processing unit 304 at regular intervals. When a control signal is input to the image processing unit 304, the compression unit 308 stores the image data image-processed by the preprocessing unit 305 and the YC processing unit 306 in the buffer memory 311 and performs compression processing.

具体的には、画像データの高周波成分と低周波成分の割合を数値化する離散コサイン変換処理(DCT処理)や、画像の階調やグラデーションを表現する段階を量子化ビット数で表現する量子化処理や、画像データの信号文字列を一定のビット毎に区切り、出現頻度が高い文字列に対して、より短い符号を与えてゆくハフマン符号化処理などが実行される。圧縮された画像データは、カードホルダ314を介してメモリカード315に記録される。   Specifically, discrete cosine transform processing (DCT processing) that digitizes the ratio of high-frequency components and low-frequency components of image data, and quantization that expresses the gradation and gradation of an image with the number of quantization bits Processing, Huffman coding processing for dividing a signal character string of image data into fixed bits and giving a shorter code to a character string having a high appearance frequency is performed. The compressed image data is recorded on the memory card 315 via the card holder 314.

このようにしてメモリカード315等の記憶手段に保存された画像は、その後、I/F325等を介して情報処理装置200に送られることになる。   The image saved in the storage means such as the memory card 315 in this manner is then sent to the information processing apparatus 200 via the I / F 325 or the like.

(第1の実施形態)
図2は、本発明の第1の実施形態における、カメラと目標物との関係を示す図である。ここでは、カメラの撮像目的である目標物が1つであり、飛行手段100が飛行経路を定めずに飛行している場合を例に説明する。
(First embodiment)
FIG. 2 is a diagram showing the relationship between the camera and the target in the first embodiment of the present invention. Here, a case will be described as an example where there is one target that is the imaging purpose of the camera, and the flying means 100 is flying without setting a flight path.

飛行手段100に搭載されたカメラ300のGPS受信機は、カメラ300のカメラ座標402(位置座標)を一定の間隔で取得されている。そして、目標物の特定座標(目標座標401)とが地上に設定されている。このような目標物の位置である特定座標は、情報処理装置200を介してユーザが予め設定することができ、カメラ300内のメモリ等の記憶手段に記憶させておくことができる。このような状態で、カメラ300内のシステムコントローラ310は、目標座標401の高度とカメラ座標402の高度との高度差と、目標座標401とカメラ座標402との平面上の座標差とに基づいて、カメラが目標物に向くように上下の角度と、左右の角度と、を算出し、角度制御部321と方向制御部322を制御する。さらに、システムコントローラ310は、目標座標401とカメラ座標402との直線的な距離を求め、最適なフォーカス位置やズーム状態となるようにレンズ制御部を制御する。   The GPS receiver of the camera 300 mounted on the flying means 100 acquires the camera coordinates 402 (position coordinates) of the camera 300 at regular intervals. And the specific coordinate (target coordinate 401) of the target is set on the ground. The specific coordinates as the position of the target can be set in advance by the user via the information processing apparatus 200 and can be stored in a storage unit such as a memory in the camera 300. In such a state, the system controller 310 in the camera 300 is based on the altitude difference between the altitude of the target coordinate 401 and the altitude of the camera coordinate 402, and the coordinate difference on the plane between the target coordinate 401 and the camera coordinate 402. The up and down angles and the left and right angles are calculated so that the camera faces the target, and the angle control unit 321 and the direction control unit 322 are controlled. Further, the system controller 310 obtains a linear distance between the target coordinates 401 and the camera coordinates 402, and controls the lens control unit so as to obtain an optimum focus position and zoom state.

図3は、本発明の第1の実施形態における、カメラの制御を説明するためのフローチャートである。この制御は、カメラ300のシステムコントローラ310により実現される。   FIG. 3 is a flowchart for explaining camera control in the first embodiment of the present invention. This control is realized by the system controller 310 of the camera 300.

ステップS301では、システムコントローラ310が、GPS受信手段324で受信したGPS座標を解析してカメラ座標402を取得するとともに、カメラ300の記憶手段に記憶された目標物の位置である特定座標を取得する。   In step S <b> 301, the system controller 310 analyzes the GPS coordinates received by the GPS receiving unit 324 to acquire the camera coordinates 402, and acquires specific coordinates that are the positions of the target objects stored in the storage unit of the camera 300. .

次に、ステップS302では、システムコントローラが、記憶手段に記憶された特定座標を目標座標401として設定する。次に、ステップS303がS302で取得されたカメラ座標402と目標座標401の2点をもとに、目標座標401の高度とカメラ座標402の高度との高度差と、目標座標401とカメラ座標402との平面上の座標と、目標座標401とカメラ座標402との直線的な距離と、を算出する。そして、目標座標401の高度とカメラ座標402の高度との高度差からカメラが目標物に向くように上下の角度を算出し、目標座標401とカメラ座標402との平面上の座標差から左右の角度を算出し、目標座標401とカメラ座標402との直線的な距離から最適なフォーカス位置やズーム状態となるレンズ制御値を算出する。   Next, in step S <b> 302, the system controller sets the specific coordinates stored in the storage unit as the target coordinates 401. Next, based on the two points of the camera coordinates 402 and the target coordinates 401 acquired in step S <b> 303 in step S <b> 303, the difference between the height of the target coordinates 401 and the height of the camera coordinates 402, the target coordinates 401, and the camera coordinates 402. On the plane and the linear distance between the target coordinates 401 and the camera coordinates 402 are calculated. Then, the vertical angle is calculated from the altitude difference between the altitude of the target coordinates 401 and the altitude of the camera coordinates 402 so that the camera faces the target, and the left and right angles are calculated from the coordinate difference on the plane between the target coordinates 401 and the camera coordinates 402. An angle is calculated, and a lens control value that provides an optimal focus position and zoom state is calculated from a linear distance between the target coordinates 401 and the camera coordinates 402.

ステップS304では、ステップS303で算出された、最適なフォーカス位置やズーム状態となるレンズ制御値や上下の角度や左右の角度となるように、レンズ制御部と327と角度制御部321と方向制御部322を調整する。   In step S304, the lens control unit 327, the angle control unit 321 and the direction control unit are calculated so that the lens control value calculated in step S303, the lens control value for the zoom state, the vertical angle, and the horizontal angle are obtained. Adjust 322.

以上のように設けることで、目標物を捉えるためのカメラの上下、左右の角度制御とフォーカスやズーム等のレンズ制御を自動で行うことができる。すなわち、自動的に目標物を撮像可能な状態を整ええることができるため、無人のヘリコプターや飛行機であっても撮像動作をスムーズに行うことができる。   By providing as described above, it is possible to automatically perform up / down and left / right angle control of the camera for capturing a target and lens control such as focus and zoom. That is, since it is possible to automatically prepare a state in which a target can be imaged, even an unmanned helicopter or airplane can perform an imaging operation smoothly.

(第2の実施形態)
第1の実施形態では、飛行手段は飛行経路を定めずに飛行している場合について説明したが、本実施形態では飛行手段が目標物の周囲を周回するように飛行している場合の例について説明する。撮像のタイミングとしては、周回中に一定の時間間隔や一定の移動間隔で撮像動作が行われるように設定することができる。
(Second Embodiment)
In the first embodiment, the case where the flying means is flying without setting the flight route has been described. However, in the present embodiment, the flying means is flying so as to go around the target. explain. The imaging timing can be set so that the imaging operation is performed at a constant time interval or a constant movement interval during the lap.

図4は、目標物を1点の座標で特定されている場合のカメラと目標物の関係を示す図であり、すなわち特定座標が1か所の場合の例である。図4(a)に示すように飛行手段100は目標物の目標座標401を中心として所定の距離を保った状態で、かつ、所定の高度を維持した状態で周回する。図4(b)は、図4(a)を上から見ている図である。このような特定座標、所定の距離および所定の高度は、予めユーザによって情報処理装置200を介して設定しておくことができる。   FIG. 4 is a diagram showing the relationship between the camera and the target when the target is specified by one point of coordinates, that is, an example in the case where there is one specific coordinate. As shown in FIG. 4A, the flying means 100 circulates in a state where a predetermined distance is maintained around the target coordinate 401 of the target and a predetermined altitude is maintained. FIG. 4B is a view of FIG. 4A viewed from above. Such specific coordinates, a predetermined distance, and a predetermined altitude can be set in advance by the user via the information processing apparatus 200.

図5は、目標物が2点の座標で特定されている場合のカメラと目標物の関係を示す図であり、すなわち特定座標が2か所の場合の例である。特定座標が2か所ある場合には、目標座標が飛行手段の飛行位置(カメラの現在位置)によって変動する辺上監視モードと、目標座標を特定座標の中心点とする中心点監視モード(重心監視モード)と、のいずれかを選択することができる。   FIG. 5 is a diagram showing the relationship between the camera and the target when the target is specified by the coordinates of two points, that is, an example where there are two specific coordinates. When there are two specific coordinates, the side monitoring mode in which the target coordinates vary depending on the flight position (current position of the camera) of the flying means, and the center point monitoring mode (centroid of the center of the specific coordinates). Monitoring mode) can be selected.

図5(a)は、辺上監視モードにおけるカメラの向きと目標座標の関係を示しており、カメラがカメラ位置300−(a)にある場合には401−(a)を目標座標としてカメラの角度制御及びレンズ制御が行われる。また、カメラがカメラ位置300−(b)にある場合には、400−(b)を目標座標としてカメラの角度制御及びレンズ制御が行われる。また、カメラがカメラ位置300−(c)にある場合には、400−(c)を目標座標としてカメラの角度制御及びレンズ制御が行われる。すなわち、特定座標による直線上であって、カメラ座標に最も近い座標が目標座標となるように適宜変化している。   FIG. 5A shows the relationship between the camera direction and the target coordinates in the side-up monitoring mode. When the camera is at the camera position 300- (a), 401- (a) is set as the target coordinates. Angle control and lens control are performed. When the camera is at the camera position 300- (b), camera angle control and lens control are performed using 400- (b) as target coordinates. When the camera is at the camera position 300- (c), camera angle control and lens control are performed using 400- (c) as the target coordinates. That is, the coordinates are appropriately changed so that the coordinates closest to the camera coordinates on the straight line by the specific coordinates become the target coordinates.

図5(b)は、中心点監視モードにおけるカメラの向きと目標座標の関係を示しており、カメラがいずれの位置にあっても特定座標404(a)と特定座標404(b)の2点間の中心点を目標座標401としてカメラの角度制御及びレンズ制御が行われる。   FIG. 5B shows the relationship between the orientation of the camera and the target coordinates in the center point monitoring mode, and the two points of the specific coordinates 404 (a) and the specific coordinates 404 (b) regardless of the position of the camera. Camera angle control and lens control are performed with the center point between them as the target coordinates 401.

以上のような2つのモードをユーザによって選択可能(モード受付可能)とすることにより、目標物の形状に対応した撮像モードで撮像動作を行うことができる。たとえば、建物のような内部を視認できない目標物の場合には、撮像モードは建物の外観を撮像できるように辺上監視モードとすることが好ましい。一方公園や広場のように空中から全てを見渡せるような目標物である場合には、重心点監視モードとし、ズームアウトした状態で撮像することで目標物の全景を撮像することができる。このようなモードの選択は、特定座標、所定の距離および所定の高度の設定と同様に、予めユーザによって情報処理装置200を介して選択しておくことができる。   By making the above two modes selectable (allowing mode reception) by the user, the imaging operation can be performed in an imaging mode corresponding to the shape of the target. For example, in the case of a target such as a building that cannot visually recognize the interior, it is preferable to set the imaging mode to the side monitoring mode so that the appearance of the building can be imaged. On the other hand, in the case of a target such as a park or a plaza that can be seen all over from the air, it is possible to capture the entire view of the target by setting the center-of-gravity point monitoring mode and capturing an image in a zoomed out state. Such a mode can be selected in advance by the user via the information processing apparatus 200, as in the case of setting specific coordinates, a predetermined distance, and a predetermined altitude.

図6は、目標物が3点の座標で特定されている場合のカメラと目標物の関係を示す図であり、すなわち特定座標が3か所の場合の例である。特定座標が複数(3点以上)ある場合にも、目標座標が飛行手段の飛行位置(カメラの現在位置)によって変動する辺上監視モードと、目標座標を特定座標の重心点とする重心監視モードと、のいずれかを選択することができる。   FIG. 6 is a diagram showing the relationship between the camera and the target when the target is specified by coordinates of three points, that is, an example in the case where there are three specific coordinates. Even when there are a plurality of specific coordinates (three or more points), the side monitoring mode in which the target coordinates vary depending on the flight position of the flying means (current position of the camera) and the center of gravity monitoring mode in which the target coordinates are the center of gravity of the specific coordinates And can be selected.

図6(a)辺上監視モードにおけるカメラの向きと目標座標の関係を示しており、カメラがカメラ位置300−(d)にある場合には401−(d)を目標座標としてカメラの角度制御及びレンズ制御が行われる。また、カメラがカメラ位置300−(e)にある場合には、400−(e)を目標座標としてカメラの角度制御及びレンズ制御が行われる。そして図6(a)からわかるようにカメラの位置によって、多角形の辺上を撮像する場合と、多角形の角を撮像する場合とに分かれる。いずれの場合にも、隣接する2つの特定座標を結んだ直線上(多角形の辺)であって、カメラ座標に最も近い座標が目標座標となるように適宜変化している。   FIG. 6 (a) shows the relationship between the camera orientation and the target coordinates in the on-edge monitoring mode. When the camera is at the camera position 300- (d), the angle control of the camera is performed with 401- (d) as the target coordinates. And lens control is performed. When the camera is at the camera position 300- (e), camera angle control and lens control are performed using 400- (e) as target coordinates. As can be seen from FIG. 6A, depending on the position of the camera, there are a case where the image is taken on the side of the polygon and a case where the corner of the polygon is imaged. In either case, the coordinates are appropriately changed so that the coordinates closest to the camera coordinates on the straight line (polygonal side) connecting two adjacent specific coordinates become the target coordinates.

図6(b)は、中心点監視モードにおけるカメラの向きと目標座標の関係を示しており、カメラがいずれの位置にあっても複数の特定座標の重心点を目標座標401としてカメラの角度制御及びレンズ制御が行われる。   FIG. 6B shows the relationship between the orientation of the camera and the target coordinates in the center point monitoring mode, and the camera angle control is performed with the center of gravity of a plurality of specific coordinates as the target coordinates 401 regardless of the position of the camera. And lens control is performed.

次に、図7のフローチャートを用いて飛行手段の飛行目標座標を算出する流れを説明する。この制御は、カメラ300のシステムコントローラ310により実現することができる。ステップS701では、まずシステムコントローラ310がユーザによって予め設定されている特定座標と、特定座標とカメラの位置との距離(設定距離)と、カメラを維持する設定高度とを例えばカメラ300に設けられた記憶手段等から取得する。このような設定条件は、予めユーザによって情報処理装置200を介して設定しておくことができる。   Next, the flow of calculating the flight target coordinates of the flying means will be described using the flowchart of FIG. This control can be realized by the system controller 310 of the camera 300. In step S701, for example, the camera 300 is provided with specific coordinates preset by the user, a distance between the specific coordinates and the position of the camera (set distance), and a set altitude for maintaining the camera, for example. Obtained from storage means or the like. Such setting conditions can be set in advance by the user via the information processing apparatus 200.

次にステップS702では、ステップS701で取得した特定座標が2点以上かどうかを判断する。ステップS702で2点以上ではない、すなわち特定座標は1点であると判断された場合には、ステップS704に進み、取得した特定座標を飛行目標座標として設定する。一方、ステップS702で特定座標が2点以上であると判断された場合には、ステップS703に進み、取得した2点以上(複数)の座標の重心点を飛行目標座標として設定する。   Next, in step S702, it is determined whether the specific coordinates acquired in step S701 are two or more points. If it is determined in step S702 that the number is not two or more, that is, the specific coordinate is one point, the process proceeds to step S704, and the acquired specific coordinate is set as the flight target coordinate. On the other hand, if it is determined in step S702 that the specific coordinates are two or more, the process proceeds to step S703, and the center of gravity of the two or more (multiple) acquired coordinates is set as the flight target coordinates.

ステップS705では、システムコントローラ310が、飛行目標座標を中心として、ステップS701で取得された設定距離及び設定高度を維持した状態で周回するように飛行手段100による飛行が行われるように飛行手段100の飛行制御部105に制御させる。これにより、飛行目標座標を目的とした飛行手段100の飛行が行われることになる。   In step S705, the system controller 310 causes the flying means 100 to fly around the flight target coordinates so as to go around while maintaining the set distance and the set altitude acquired in step S701. The flight control unit 105 is controlled. Thereby, the flight of the flying means 100 aimed at the flight target coordinates is performed.

次に、図8のフローチャートを用いて、図4〜6に示したような撮像可能な状態となるようなカメラ制御について説明する。この制御は、カメラ300のシステムコントローラ310により実現することができる。   Next, with reference to the flowchart of FIG. 8, camera control that enables imaging as shown in FIGS. 4 to 6 will be described. This control can be realized by the system controller 310 of the camera 300.

ステップS801では、システムコントローラ310が、GPS受信手段324で受信したGPS座標を解析してカメラ座標402を取得するとともに、カメラ300の記憶手段に記憶された目標物を特定するための位置である1または2以上の特定座標を取得する。
ステップS802では、ステップS801で取得された特定座標が3点以上であるかを判断する。特定座標が3点以上ではない、すなわち特定座標が2点以下である場合には、ステップS806に進み、特定座標が2点以上であるかを判断する。ステップS806で2点以上ではない、すなわち特定座標が1点であると判断された場合には第1の実施形態と同様に特定座標を目標座標として設定する。ステップS806で特定座標が3点以上ではなくかつ2点以上である、すなわち2点であると判断された場合には、S807に進み
In step S <b> 801, the system controller 310 analyzes the GPS coordinates received by the GPS receiving unit 324 to acquire the camera coordinates 402, and 1 is a position for specifying the target stored in the storage unit of the camera 300. Alternatively, two or more specific coordinates are acquired.
In step S802, it is determined whether the specific coordinates acquired in step S801 are three or more points. If the specific coordinates are not 3 or more, that is, if the specific coordinates are 2 or less, the process proceeds to step S806, and it is determined whether or not the specific coordinates are 2 or more. If it is determined in step S806 that there are no two or more points, that is, the specific coordinate is one point, the specific coordinate is set as the target coordinate as in the first embodiment. If it is determined in step S806 that the specific coordinates are not three or more and two or more, that is, two, the process proceeds to S807.

ユーザによって予め選択されている監視モードが『辺上監視モード』であるか、『重心監視モード』であるかを判断する。ステップS806で、重心監視モードが選択されていると判断された場合には、ステップS809に進み2点の特定座標による直線の中心座標を目標座標として設定する。これにより、図5(b)に示す位置が目標座標として設定される。   It is determined whether the monitoring mode selected in advance by the user is the “edge monitoring mode” or the “center of gravity monitoring mode”. If it is determined in step S806 that the center-of-gravity monitoring mode has been selected, the process advances to step S809 to set the center coordinates of a straight line by two specific coordinates as target coordinates. Thereby, the position shown in FIG. 5B is set as the target coordinates.

ステップS807で辺上監視モードが選択されていると判断された場合には、ステップS808に進み、特定座標による直線上であって、カメラ座標に最も近い座標を目標座標として設定する。これにより、図5(a)に示す位置が目標座標として設定される。   If it is determined in step S807 that the side monitoring mode is selected, the process proceeds to step S808, and a coordinate that is on a straight line with specific coordinates and is closest to the camera coordinates is set as a target coordinate. Thereby, the position shown in FIG. 5A is set as the target coordinates.

次に、ステップS802に戻り、特定座標が3点以上であると判断された場合には、ステップS803に進み、ユーザによって予め選択されている監視モードが『辺上監視モード』であるか、『重心監視モード』であるかを判断する。ステップS803で、重心監視モードが選択されていると判断された場合には、ステップS805に進み複数の特定座標による重心点の重心座標を目標座標として設定する。これにより、図6(b)に示す位置が目標座標として設定される。   Next, returning to step S802, if it is determined that the specific coordinates are three or more points, the process proceeds to step S803, where the monitoring mode selected in advance by the user is “side monitoring mode” or “ It is determined whether it is in the “center of gravity monitoring mode”. If it is determined in step S803 that the center-of-gravity monitoring mode is selected, the process proceeds to step S805, and the center-of-gravity coordinates of the center-of-gravity point by a plurality of specific coordinates are set as target coordinates. Thereby, the position shown in FIG. 6B is set as the target coordinates.

ステップS803で辺上監視モードが選択されていると判断された場合には、ステップS804に進み、隣接する2つの特定座標を結んだ直線上(特定座標で形成される多角形の辺上)であって、カメラ座標に最も近い座標を目標座標として設定する。これにより、図6(a)に示す位置が目標座標として設定される。   If it is determined in step S803 that the on-edge monitoring mode is selected, the process proceeds to step S804, on a straight line connecting two adjacent specific coordinates (on the side of the polygon formed by the specific coordinates). Therefore, the coordinates closest to the camera coordinates are set as the target coordinates. Thereby, the position shown in FIG. 6A is set as the target coordinates.

ステップS811では、ステップS804、S805、S808、S809、S910のそれぞれで設定された目標座標と、ステップS801で取得された現在のカメラの位置座標であるカメラ座標の2点をもとに、目標座標401の高度とカメラ座標402の高度との高度差と、目標座標401とカメラ座標402との平面上の座標と、目標座標401とカメラ座標402との直線的な距離と、を算出する。そして、目標座標401の高度とカメラ座標402の高度との高度差からカメラが目標物に向くように上下の角度を算出し、目標座標401とカメラ座標402との平面上の座標差から左右の角度を算出し、目標座標401とカメラ座標402との直線的な距離から最適なフォーカス位置やズーム状態となるレンズ制御値を算出する。   In step S811, based on the target coordinates set in steps S804, S805, S808, S809, and S910 and the camera coordinates that are the current camera position coordinates acquired in step S801, the target coordinates are set. The altitude difference between the altitude 401 and the altitude of the camera coordinates 402, the coordinates on the plane between the target coordinates 401 and the camera coordinates 402, and the linear distance between the target coordinates 401 and the camera coordinates 402 are calculated. Then, the vertical angle is calculated from the altitude difference between the altitude of the target coordinates 401 and the altitude of the camera coordinates 402 so that the camera faces the target, and the left and right angles are calculated from the coordinate difference on the plane between the target coordinates 401 and the camera coordinates 402. An angle is calculated, and a lens control value that provides an optimal focus position and zoom state is calculated from a linear distance between the target coordinates 401 and the camera coordinates 402.

ステップS812では、ステップS811で算出された、最適なフォーカス位置やズーム状態となるレンズ制御値や上下の角度や左右の角度となるように、レンズ制御部と327と角度制御部321と方向制御部322を調整する。   In step S812, the lens control unit 327, the angle control unit 321, and the direction control unit are calculated so that the lens control value, the up / down angle, and the left / right angle in the optimum focus position and zoom state calculated in step S811 are obtained. Adjust 322.

以上のように設けることで、目標物を捉えるためのカメラの上下、左右の角度制御とフォーカスやズーム等のレンズ制御を自動で行うことができる。すなわち、自動的に目標物を撮像可能な状態を整えることができるため、無人のヘリコプターや飛行機であっても撮像動作をスムーズに行うことができる。   By providing as described above, it is possible to automatically perform up / down and left / right angle control of the camera for capturing a target and lens control such as focus and zoom. That is, since it is possible to automatically prepare a state in which a target can be imaged, an imaging operation can be performed smoothly even with an unmanned helicopter or airplane.

次に、図9は本実施形態を実現できるカメラ制御のもう1つの例を説明するためのフローチャートである。このフローチャートを用いても、図4〜6に示したような撮像可能な状態となるようにカメラ制御を行うことができる。この制御は、カメラ300のシステムコントローラ310により実現することができる。   Next, FIG. 9 is a flowchart for explaining another example of camera control capable of realizing the present embodiment. Even if this flowchart is used, camera control can be performed so as to obtain an imageable state as shown in FIGS. This control can be realized by the system controller 310 of the camera 300.

ステップS901では、システムコントローラ310が、GPS受信手段324で受信したGPS座標を解析してカメラ座標402を取得するとともに、カメラ300の記憶手段に記憶された目標物を特定するための位置である1または2以上の特定座標を取得する。   In step S <b> 901, the system controller 310 acquires the camera coordinates 402 by analyzing the GPS coordinates received by the GPS receiving unit 324, and is a position for specifying the target stored in the storage unit of the camera 300. Alternatively, two or more specific coordinates are acquired.

ステップS902では、ステップS901で取得された特定座標が2点以上であるかを判断する。特定座標が2点以上ではない、すなわち特定座標が1点である場合には、ステップS910に進み、第1の実施形態と同様に特定座標を目標座標として設定する。   In step S902, it is determined whether the specific coordinates acquired in step S901 are two or more points. If the specific coordinates are not two points or more, that is, if the specific coordinates are one point, the process proceeds to step S910, and the specific coordinates are set as the target coordinates as in the first embodiment.

ステップS902で特定座標が2点以上であると判断された場合には、ステップS903に進み、ユーザによって予め選択されている監視モードが『辺上監視モード』であるか、『重心監視モード』であるかを判断する。   If it is determined in step S902 that the specific coordinates are two or more points, the process proceeds to step S903, where the monitoring mode preselected by the user is “side monitoring mode” or “centroid monitoring mode”. Determine if there is.

ステップS903で、重心監視モードが選択されていると判断された場合には、ステップS907に進み、特定座標が3点以上であるかを判断する。特定座標が3点以上でない、すなわち2点である場合には、ステップS909に進み2点の特定座標による直線の中心座標を目標座標として設定する。これにより、図5(b)に示す位置が目標座標として設定される。   If it is determined in step S903 that the center-of-gravity monitoring mode is selected, the process advances to step S907 to determine whether the specific coordinates are three or more. If the specific coordinates are not three points or more, that is, two points, the process advances to step S909 to set the center coordinates of the straight line by the two specific coordinates as the target coordinates. Thereby, the position shown in FIG. 5B is set as the target coordinates.

一方、ステップS907で特定座標が3点以上でないと判断された場合には、ステップS908に進み、複数の特定座標による重心点の重心座標を目標座標として設定する。これにより、図6(b)に示す位置が目標座標として設定される。   On the other hand, if it is determined in step S907 that the specific coordinates are not three or more, the process proceeds to step S908, and the barycentric coordinates of the barycentric points based on the plurality of specific coordinates are set as target coordinates. Thereby, the position shown in FIG. 6B is set as the target coordinates.

次に、S903に戻り、辺上監視モードが選択されていると判断された場合には、ステップS904に進み、特定座標が3点以上であるかを判断する。特定座標が3点以上でない、すなわち2点である場合にはステップS906に進み、特定座標による直線上であって、カメラ座標に最も近い座標を目標座標として設定する。これにより、図5(a)に示す位置が目標座標として設定される。   Next, returning to S903, if it is determined that the side monitoring mode is selected, the process proceeds to step S904, where it is determined whether the specific coordinates are three or more. If the specific coordinates are not three points or more, that is, two points, the process proceeds to step S906, and the coordinates closest to the camera coordinates on the straight line by the specific coordinates are set as the target coordinates. Thereby, the position shown in FIG. 5A is set as the target coordinates.

一方、ステップS904で特定座標が3点以上であると判断された場合には、ステップS905に進み、隣接する2つの特定座標を結んだ直線上(特定座標で形成される多角形の辺上)であって、カメラ座標に最も近い座標を目標座標として設定する。これにより、図6(a)に示す位置が目標座標として設定される。   On the other hand, if it is determined in step S904 that the specific coordinates are three or more, the process proceeds to step S905, on a straight line connecting two adjacent specific coordinates (on the side of the polygon formed by the specific coordinates). The coordinates closest to the camera coordinates are set as the target coordinates. Thereby, the position shown in FIG. 6A is set as the target coordinates.

ステップS911とステップS912については、図8のステップS811及びステップS812と同様であるため説明を省略する。   Steps S911 and S912 are the same as steps S811 and S812 in FIG.

以上のように制御を行っても図8と同様に、目標物を捉えるためのカメラの上下、左右の角度制御とフォーカスやズーム等のレンズ制御を自動で行うことができる。すなわち自動的に目標物を撮像可能な状態を整ええることができるため、無人のヘリコプターや飛行機であっても撮像動作をスムーズに行うことができる。   Even if the control is performed as described above, similarly to FIG. 8, the vertical and horizontal angle control of the camera for capturing the target and the lens control such as focus and zoom can be automatically performed. That is, since it is possible to automatically prepare a state in which a target can be imaged, even an unmanned helicopter or airplane can perform an imaging operation smoothly.

なお、第2の本実施形態では、飛行目標座標の算出をカメラ300のシステムコントローラ310で行ったが、飛行手段100のCPU104で行ってもよい。また、第2の実施形態では、全て飛行手段の飛行軌道を常に複数の特定座標の重心点を中心として周回する例で説明したが、飛行手段の飛行軌道は複数の特定座標に基づいて特定される楕円形等の形状であってもよい。さらに、特定座標によって特定される多角形の上、すなわち多角形の内側を通過や周回するような飛行軌道であってもよい。   In the second embodiment, the flight target coordinates are calculated by the system controller 310 of the camera 300, but may be calculated by the CPU 104 of the flying means 100. In the second embodiment, the flight trajectory of the flying means is described as an example in which the flight trajectory of all the flying means is always circulated around the center of gravity of a plurality of specific coordinates. The shape may be an ellipse or the like. Further, it may be a flight trajectory that passes or circulates on a polygon specified by specific coordinates, that is, inside the polygon.

なお、第1及び第2の実施形態では、特定座標が地上にある場合を例に説明したが特定座標は高度を有していても同様に目標座標を設定し、カメラの角度制御とレンズ制御を行うことができる。   In the first and second embodiments, the case where the specific coordinates are on the ground has been described as an example. However, even if the specific coordinates have an altitude, the target coordinates are set similarly, and the camera angle control and lens control are performed. It can be performed.

また、第1及び第2の実施形態においては、撮像手段としてデジタルカメラを例に説明したがカメラに限られずビデオカメラ等を用いてもよい。   In the first and second embodiments, a digital camera has been described as an example of the imaging unit. However, the present invention is not limited to a camera, and a video camera or the like may be used.

また、第1及び第2の実施形態においては、無人のヘリコプターや飛行機に搭載する場合を想定して説明を行ったが、自動的にカメラの角度制御やレンズ制御が行われれば有人の場合であってもよい。   Further, in the first and second embodiments, the description has been made on the assumption that it is mounted on an unmanned helicopter or an airplane. However, if the camera angle control and lens control are automatically performed, the case of manned There may be.

また、第1及び第2の実施形態においては、GPS受信手段がカメラ300に設けられている例を用いて説明したが、カメラ300の現在位置が確認できればよく、飛行手段100に搭載されていてもよい。   In the first and second embodiments, the GPS receiving unit is described as being provided in the camera 300. However, it is only necessary that the current position of the camera 300 can be confirmed, and the GPS unit is mounted on the flying unit 100. Also good.

また、本願発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   Further, the present invention can be implemented as, for example, a system, apparatus, method, program, or storage medium, and can be applied to a system composed of a plurality of devices. You may apply to the apparatus which consists of one apparatus.

なお、本願発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置の情報処理装置が前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   The invention of the present application includes a software program that realizes the functions of the above-described embodiments directly or remotely from a system or apparatus. The present invention also includes a case where the information processing apparatus of the system or apparatus is achieved by reading and executing the supplied program code.

したがって、本発明の機能処理を情報処理装置で実現するために、前記情報処理装置にインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Therefore, the program code itself installed in the information processing apparatus in order to realize the functional processing of the present invention with the information processing apparatus also realizes the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理を情報処理装置で実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, the present invention also includes a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention with an information processing apparatus.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行して情報処理装置にインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let The downloaded key information can be used to execute the encrypted program and install it in the information processing apparatus.

また、情報処理装置が、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、情報処理装置上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiment are realized by the information processing apparatus executing the read program. In addition, based on the instructions of the program, the OS or the like operating on the information processing apparatus performs part or all of the actual processing, and the functions of the above-described embodiments can be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、情報処理装置に挿入された機能拡張ボードや情報処理装置に接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the information processing apparatus or a function expansion unit connected to the information processing apparatus. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

100 飛行手段
200 情報処理装置
300 カメラ
401 目標座標
402 カメラ座標
100 Flight Means 200 Information Processing Device 300 Camera 401 Target Coordinate 402 Camera Coordinate

Claims (9)

画像を撮像する撮像手段と、
前記撮像手段のレンズ制御を行うレンズ制御部と、
前記撮像手段の上下方向に対する角度を制御する角度制御部と、
前記撮像手段の左右方向に対する向きを制御する方向制御部と、
前記撮像手段を搭載した飛行手段と、
GPS衛星からの電波を受信し、前記電波から位置座標を解析するGPS受信手段と、
目標物を特定するための少なくとも1か所の特定座標を記憶する記憶手段と、
前記記憶手段で記憶された前記少なくとも1か所の特定座標と前記位置座標とに基づいて、前記撮像手段のレンズ制御値と上下方向に対する角度と左右方向に対する向きとを算出する算出手段と、
前記レンズ制御部と前記角度制御部と前記方向制御部とを、前記算出手段で算出されたレンズ制御値と上下方向に対する角度と左右方向に対する向きとなるように制御する制御手段と、を有することを特徴とする撮像システム。
An imaging means for capturing an image;
A lens control unit for controlling the lens of the imaging means;
An angle control unit that controls an angle of the imaging unit with respect to the vertical direction;
A direction control unit for controlling the direction of the imaging means with respect to the left-right direction;
Flight means equipped with the imaging means;
GPS receiving means for receiving radio waves from GPS satellites and analyzing position coordinates from the radio waves;
Storage means for storing at least one specific coordinate for specifying a target;
Calculation means for calculating a lens control value, an angle with respect to the vertical direction, and an orientation with respect to the horizontal direction based on the at least one specific coordinate stored in the storage means and the position coordinate;
Control means for controlling the lens control unit, the angle control unit, and the direction control unit so that the lens control value calculated by the calculation unit, the angle with respect to the vertical direction, and the direction with respect to the horizontal direction are set. An imaging system characterized by the above.
算出手段は、前記少なくとも1か所の特定座標に基づいて、前記撮像手段のレンズ制御値と上下方向に対する角度と左右方向に対する向きとを合わせるための目標座標を特定し、当該目標座標の高度と前記位置座標の高度との高度差と、前記目標座標と前記位置座標との平面上の座標差とに基づいて、前記撮像手段のレンズ制御値と上下方向に対する角度と左右方向に対する向きとを算出することを特徴とする請求項1に記載の撮像システム。   The calculation means specifies a target coordinate for matching the lens control value of the imaging means, the angle with respect to the vertical direction and the direction with respect to the horizontal direction based on the at least one specific coordinate, and determines the altitude of the target coordinate. Based on the altitude difference from the altitude of the position coordinates and the coordinate difference on the plane between the target coordinates and the position coordinates, the lens control value of the imaging means, the angle with respect to the vertical direction, and the direction with respect to the horizontal direction are calculated. The imaging system according to claim 1, wherein: 前記撮像手段の高度を取得可能な高度計をさらに有し、
前記位置座標の高度は、前記高度計で求めていることを特徴とする請求項2に記載の撮像システム。
An altimeter capable of acquiring the altitude of the imaging means;
The imaging system according to claim 2, wherein the altitude of the position coordinates is obtained by the altimeter.
前記特定座標が複数ある場合に、前記複数の特定座標の重心を前記目標座標とする第1のモード、及び、前記複数の特定座標をむすんだ辺上であって、前記位置座標に最も近い位置を前記目標座標とする第2のモードのいずれか一方の選択を、ユーザから受け付けるモード受付手段を有し、
前記算出手段は、前記モード受付手段で受け付けたモードに対応した目標座標を特定することを特徴とする請求項2または3に記載の撮像システム。
When there are a plurality of the specific coordinates, the first mode in which the target coordinates are the centroids of the plurality of specific coordinates, and the position closest to the position coordinates on the side that forms the plurality of specific coordinates Mode accepting means for accepting selection from the user of any one of the second modes with the target coordinates as
The imaging system according to claim 2, wherein the calculation unit specifies target coordinates corresponding to the mode received by the mode reception unit.
前記特定座標は2か所である場合に、
前記算出手段は、前記モード受付手段によって前記第1のモードがユーザから受け付けられた場合には、前記2つの特定座標の中心を目標座標として特定し、前記モード受付手段によって前記第2のモードがユーザから受け付けられた場合には、前記2つの特定座標の直線上であって、前記位置座標に最も近い位置を目標座標として特定することを特徴とする請求項4に記載の撮像システム。
When the specific coordinates are two places,
When the first mode is received from the user by the mode receiving unit, the calculating unit specifies the center of the two specific coordinates as a target coordinate, and the second mode is set by the mode receiving unit. 5. The imaging system according to claim 4, wherein when received from a user, a position that is on a straight line between the two specific coordinates and is closest to the position coordinates is specified as a target coordinate.
前記制御手段は、前記飛行手段を飛行目標座標から所定の距離及び所定の高度を保つように制御することを特徴とする請求項1乃至5のいずれか1項に記載の撮像システム。   The imaging system according to claim 1, wherein the control unit controls the flying unit so as to maintain a predetermined distance and a predetermined altitude from the flight target coordinates. 前記特定座標が複数ある場合には、
前記制御手段は、前記複数の特定座標の重心を前記飛行目標座標とし、当該飛行目標座標から前記所定の距離及び前記所定の高度を保つように前記飛行手段を制御することを特徴とする請求項6のいずれか1項に記載の撮像システム。
When there are a plurality of the specific coordinates,
The control means controls the flying means so that the center of gravity of the plurality of specific coordinates is the flight target coordinates and the predetermined distance and the predetermined altitude are maintained from the flight target coordinates. The imaging system according to any one of 6.
前記レンズ制御値とは、前記撮像手段のレンズのズーム、フォーカス、絞りの少なくとも一つを制御するための値であることを特徴とする請求項1乃至7のいずれか1項に記載の撮像システム。   The imaging system according to claim 1, wherein the lens control value is a value for controlling at least one of a zoom, a focus, and a diaphragm of a lens of the imaging unit. . 画像を撮像する撮像手段と、前記撮像手段のレンズ制御を行うレンズ制御部と、前記撮像手段の上下方向に対する角度を制御する角度制御部と、前記撮像手段の左右方向に対する向きを制御する方向制御部と、前記撮像手段を搭載した飛行手段と、GPS衛星からの電波を受信し、前記電波から位置座標を解析するGPS受信手段と、目標物を特定するための少なくとも1か所の特定座標を記憶する記憶手段と、を備えた撮像システムの撮像方法であって、
前記記憶手段で記憶された前記少なくとも1か所の特定座標と前記位置座標とに基づいて、前記撮像手段のレンズ制御値と上下方向に対する角度と左右方向に対する向きとを算出する算出工程と、
前記レンズ制御部と前記角度制御部と前記方向制御部とを、前記算出工程で算出されたレンズ制御値と上下方向に対する角度と左右方向に対する向きとなるように制御する制御工程と、を有することを特徴とする撮像方法。
An imaging unit that captures an image, a lens control unit that performs lens control of the imaging unit, an angle control unit that controls an angle of the imaging unit with respect to the vertical direction, and a direction control that controls the orientation of the imaging unit with respect to the horizontal direction Unit, flight means equipped with the imaging means, GPS receiving means for receiving radio waves from GPS satellites and analyzing position coordinates from the radio waves, and at least one specific coordinate for specifying a target An image pickup method for an image pickup system comprising:
A calculation step of calculating a lens control value, an angle with respect to the vertical direction, and an orientation with respect to the horizontal direction based on the at least one specific coordinate stored in the storage unit and the position coordinate;
A control step of controlling the lens control unit, the angle control unit, and the direction control unit so that the lens control value calculated in the calculation step, the angle with respect to the vertical direction, and the direction with respect to the horizontal direction are set. An imaging method characterized by the above.
JP2013248390A 2013-11-29 2013-11-29 Imaging system, imaging method of imaging system, and program Active JP6273803B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013248390A JP6273803B2 (en) 2013-11-29 2013-11-29 Imaging system, imaging method of imaging system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013248390A JP6273803B2 (en) 2013-11-29 2013-11-29 Imaging system, imaging method of imaging system, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018002341A Division JP6593460B2 (en) 2018-01-11 2018-01-11 IMAGING SYSTEM, IMAGING SYSTEM CONTROL METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2015106840A true JP2015106840A (en) 2015-06-08
JP6273803B2 JP6273803B2 (en) 2018-02-07

Family

ID=53436726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013248390A Active JP6273803B2 (en) 2013-11-29 2013-11-29 Imaging system, imaging method of imaging system, and program

Country Status (1)

Country Link
JP (1) JP6273803B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105867361A (en) * 2016-04-18 2016-08-17 深圳市道通智能航空技术有限公司 Method and device for flight direction control and unmanned aerial vehicle thereof
JP2017535086A (en) * 2015-07-31 2017-11-24 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Method, imaging system, and program for image processing
JP2017538300A (en) * 2015-08-26 2017-12-21 シャオミ・インコーポレイテッド Unmanned aircraft shooting control method, shooting control apparatus, electronic device, computer program, and computer-readable storage medium
JP2019082539A (en) * 2017-10-30 2019-05-30 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Control device, lens device, flying body, control method, and program
CN110382359A (en) * 2017-10-26 2019-10-25 深圳市大疆创新科技有限公司 Control device, photographic device, flying body, control method and program
WO2020090406A1 (en) * 2018-10-31 2020-05-07 株式会社センシンロボティクス Imaging system and imaging method
CN113824891A (en) * 2020-06-19 2021-12-21 浙江宇视科技有限公司 Camera and light supplementing method, device and medium thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001359083A (en) * 2000-06-13 2001-12-26 Minolta Co Ltd Imaging unit mounted on mobile body
JP2005269413A (en) * 2004-03-19 2005-09-29 Chugoku Electric Power Co Inc:The Aerial photography system using unmanned flying object
JP2006027448A (en) * 2004-07-16 2006-02-02 Chugoku Electric Power Co Inc:The Aerial photographing method and device using unmanned flying body

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001359083A (en) * 2000-06-13 2001-12-26 Minolta Co Ltd Imaging unit mounted on mobile body
JP2005269413A (en) * 2004-03-19 2005-09-29 Chugoku Electric Power Co Inc:The Aerial photography system using unmanned flying object
JP2006027448A (en) * 2004-07-16 2006-02-02 Chugoku Electric Power Co Inc:The Aerial photographing method and device using unmanned flying body

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017535086A (en) * 2015-07-31 2017-11-24 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Method, imaging system, and program for image processing
US10567651B2 (en) 2015-07-31 2020-02-18 SZ DJI Technology Co., Ltd. System and method for image processing
JP2017538300A (en) * 2015-08-26 2017-12-21 シャオミ・インコーポレイテッド Unmanned aircraft shooting control method, shooting control apparatus, electronic device, computer program, and computer-readable storage medium
CN105867361A (en) * 2016-04-18 2016-08-17 深圳市道通智能航空技术有限公司 Method and device for flight direction control and unmanned aerial vehicle thereof
US11117662B2 (en) 2016-04-18 2021-09-14 Autel Robotics Co., Ltd. Flight direction display method and apparatus, and unmanned aerial vehicle
US11066182B2 (en) 2017-10-26 2021-07-20 SZ DJI Technology Co., Ltd. Control apparatus, camera apparatus, flying object, control method and program
CN110382359A (en) * 2017-10-26 2019-10-25 深圳市大疆创新科技有限公司 Control device, photographic device, flying body, control method and program
JP2019082539A (en) * 2017-10-30 2019-05-30 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Control device, lens device, flying body, control method, and program
US10942331B2 (en) 2017-10-30 2021-03-09 SZ DJI Technology Co., Ltd. Control apparatus, lens apparatus, photographic apparatus, flying body, and control method
JP2020072366A (en) * 2018-10-31 2020-05-07 株式会社センシンロボティクス Imaging system and imaging method
WO2020090406A1 (en) * 2018-10-31 2020-05-07 株式会社センシンロボティクス Imaging system and imaging method
CN113824891A (en) * 2020-06-19 2021-12-21 浙江宇视科技有限公司 Camera and light supplementing method, device and medium thereof
CN113824891B (en) * 2020-06-19 2023-06-09 浙江宇视科技有限公司 Camera, light supplementing method, device and medium thereof

Also Published As

Publication number Publication date
JP6273803B2 (en) 2018-02-07

Similar Documents

Publication Publication Date Title
JP6273803B2 (en) Imaging system, imaging method of imaging system, and program
Kougianos et al. Design of a high-performance system for secure image communication in the internet of things
EP3167604B1 (en) Methods and systems of video processing
EP3471395B1 (en) Method and electronic device for processing raw image acquired through camera by using external electronic device
US10666941B1 (en) Low bitrate encoding of panoramic video to support live streaming over a wireless peer-to-peer connection
US11258949B1 (en) Electronic image stabilization to improve video analytics accuracy
JP6575476B2 (en) Unmanned aircraft control system, control method thereof, and program
US20190272625A1 (en) Electronic device and method for correcting images based on image feature information and image correction scheme
CN111788603A (en) Electronic device and method for correcting an image corrected with a first image processing scheme in an external electronic device with a second image processing scheme
KR20190096748A (en) electronic device and method for correcting image using external electronic device
CN116235506A (en) Method for providing image and electronic device supporting the same
JP6314427B2 (en) Imaging apparatus, information processing apparatus, control method, and program
JP6593460B2 (en) IMAGING SYSTEM, IMAGING SYSTEM CONTROL METHOD, AND PROGRAM
US11425300B2 (en) Electronic device and method for processing image by electronic device
JP2019219691A (en) Imaging system, control method of imaging system, and program
JP2014115388A (en) Information processor, information processing system, control method, and program
JP2018174441A (en) Unmanned aerial vehicle control system, information processing apparatus, unmanned aerial vehicle, their control methods, and program
JP2018142907A (en) Information processing apparatus, control method and program of information processing apparatus
JP6572500B1 (en) Image processing apparatus, imaging apparatus, moving object, image processing method, and program
JP6508376B2 (en) Image pickup apparatus, image pickup system, control method thereof and program
JP6947962B2 (en) Unmanned aerial vehicle control system, its control method, and program
JP5942422B2 (en) Information processing apparatus, control method thereof, and program
JP6337451B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2018129577A (en) Imaging system, control method thereof, and program
US11184538B2 (en) Electronic device for selectively generating video by using image data acquired at frame rate changed according to distance between subject and reference region, and operation method therefor

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150410

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171225

R150 Certificate of patent or registration of utility model

Ref document number: 6273803

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250