JP2016201616A - Image processing apparatus, control method therefor, and control program, and imaging device - Google Patents

Image processing apparatus, control method therefor, and control program, and imaging device Download PDF

Info

Publication number
JP2016201616A
JP2016201616A JP2015079111A JP2015079111A JP2016201616A JP 2016201616 A JP2016201616 A JP 2016201616A JP 2015079111 A JP2015079111 A JP 2015079111A JP 2015079111 A JP2015079111 A JP 2015079111A JP 2016201616 A JP2016201616 A JP 2016201616A
Authority
JP
Japan
Prior art keywords
motion vector
image
subject
images
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015079111A
Other languages
Japanese (ja)
Inventor
陽一 高橋
Yoichi Takahashi
陽一 高橋
武史 安冨
Takeshi Yasutomi
武史 安冨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015079111A priority Critical patent/JP2016201616A/en
Publication of JP2016201616A publication Critical patent/JP2016201616A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To calculate a motion vector required for deviation correction efficiently at high speed, at the time of image synthesis.SOLUTION: A system control unit 50 sets a first crop region for detecting a motion vector in each image, and detects the motion vector related to a subject in the first crop region as a first motion vector. When a determination is made that the subject is in a predetermined state depending on the analysis results of the first motion vector, the system control unit sets a second crop region wider than the first crop region and detects the motion vector related to the subject as a second motion vector. An image synthesis unit 54 synthesizes a plurality of images depending on the first motion vector or second motion vector.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、その制御方法、および制御プログラム、並びに撮像装置に関し、特に、日周運動で動く天体の撮影を行った結果得られた複数枚の画像を画像合成処理する画像処理装置に関する。   The present invention relates to an image processing device, a control method thereof, a control program, and an imaging device, and in particular, an image processing device that performs image composition processing on a plurality of images obtained as a result of photographing a celestial body moving in a diurnal motion. About.

一般に、天体を撮影する際には、星などの天体の光量は微量であるので、30秒又は1分などの長時間の露光を行う必要がある。そして、天体は地球の自転に合わせて日周運動をしているので、長時間の露光を行うと星は点像にならず光跡となってしまう。このため、天体を撮影する際には、一般に日周運動で動く天体の動きに合わせて天体を追尾できるようにした天体専用の赤道儀などを用いて撮影が行われている。   In general, when photographing a celestial body, the amount of light from a celestial body such as a star is very small, and thus it is necessary to perform a long exposure such as 30 seconds or 1 minute. And since the celestial body is moving in a diurnal motion according to the rotation of the earth, if a long exposure is performed, the star will not become a point image but become a light trail. For this reason, when photographing a celestial body, photographing is generally performed using an equator dedicated to the celestial body so that the celestial body can be tracked in accordance with the movement of the celestial body moving in a diurnal motion.

ところが、赤道儀は、高価でしかも重く使用の際にはセッティングを行う必要があるばかりでなくその操作も難しい。よって、赤道儀を用いることなく、天体が光跡にならない程度の露光時間で複数枚の撮影を行って、画像間で生じる日周運動による天体のずれを補正して1枚の画像に合成することが行われている。これによって、天体を光跡とすることなく、長秒露光した際と同等の露光で撮像することができる。   However, the equatorial mount is expensive and heavy, and not only does it need to be set, but also its operation is difficult. Therefore, without using an equatorial mount, a plurality of images are taken with an exposure time that does not cause the celestial object to become a light trace, and the deviation of the celestial object due to diurnal motion occurring between the images is corrected and combined into a single image. Things have been done. As a result, it is possible to take an image with the same exposure as that obtained when the celestial body is exposed to light for a long time without using a light trace.

上記の画像合成手法においては、まず画像を複数のブロックに分割して、ブロックの各々について天体の動きベクトルを算出する。そして、当該動きベクトルに基づいて天体の動きを算出して画像間のずれ補正を行っている。   In the above image composition method, first, an image is divided into a plurality of blocks, and a celestial motion vector is calculated for each of the blocks. Then, the movement of the celestial body is calculated based on the motion vector to correct the shift between images.

このような画像合成手法として、例えば、被写体の明るさに応じてトータルの露光時間を決定し、星が光跡にならない程度の露光時間でN回分割露光を行うようにしたものがある(特許文献1参照)。そして、ここでは、画像間の動きベクトルに応じて画像のずれ補正を行って、1枚の画像を合成するようにしている。さらに、動きベクトルを算出する際、その探索範囲を焦点距離に応じて切り替えるようにしたものがある(特許文献2参照)。   As such an image synthesizing method, for example, there is a method in which a total exposure time is determined according to the brightness of a subject, and N-time division exposure is performed with an exposure time that does not cause a star to become a light trace (patent). Reference 1). In this case, image deviation correction is performed according to the motion vector between the images, and one image is synthesized. Furthermore, when calculating a motion vector, there is one in which the search range is switched according to the focal length (see Patent Document 2).

特開2003−259184号公報JP 2003-259184 A 特開平4−180487号公報JP-A-4-180487

ところが、特許文献1および2ともに、画像全体について動きベクトルを検出する結果、画素数が多いと画像間のずれ補正に要する時間が増加するばかりでなく処理負荷が増大し、さらに撮影に要する時間が長くなってしまう。   However, in both Patent Documents 1 and 2, as a result of detecting the motion vector for the entire image, when the number of pixels is large, not only the time required for correcting the shift between images increases, but also the processing load increases, and further the time required for photographing. It will be long.

このような状況に対処するため、例えば、画像の所定の箇所に動きベクトルを検出するためのクロップ領域を設定することがある。しかしながら、天体撮影の場合には方角によって日周運動の方向が相違するので、適切な箇所にクロップ領域を設定しないと、精度よく動きベクトルを算出することが困難となる。   In order to cope with such a situation, for example, a crop area for detecting a motion vector may be set at a predetermined position of an image. However, in the case of astronomical photography, the direction of the diurnal motion differs depending on the direction, so it is difficult to accurately calculate a motion vector unless a crop area is set at an appropriate location.

そこで、本発明の目的は、ずれ補正に必要な動きベクトルを高速かつ効率的に算出することのできる画像処理装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus, a control method thereof, a control program, and an imaging apparatus capable of calculating a motion vector necessary for deviation correction at high speed and efficiently.

上記の目的を達成するため、本発明による画像処理装置は、移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置であって、前記画像の各々に動きベクトルを検出するための第1の検出領域を設定する第1の設定手段と、前記第1の検出領域において前記被写体に関する動きベクトルを第1の動きベクトルとして検出する第1の検出手段と、前記被写体が所定の状態であるか否かを判定する判定手段と、前記判定手段によって前記被写体が前記所定の状態である判定されると、前記第1の検出領域よりも広い第2の検出領域を前記画像の各々に設定する第2の設定手段と、前記第2の検出領域において前記被写体に関する動きベクトルを第2の動きベクトルとして検出する第2の検出手段と、前記第1の動きベクトル又は前記第2の動きベクトルに応じて前記複数枚の画像を合成処理して前記合成画像とする画像合成手段と、を有することを特徴する。   In order to achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus that combines a plurality of images obtained by photographing a moving subject to form a combined image, and each of the images First setting means for setting a first detection area for detecting a motion vector, and first detection means for detecting a motion vector related to the subject as the first motion vector in the first detection area; Determining means for determining whether or not the subject is in a predetermined state; and if the determination means determines that the subject is in the predetermined state, a second detection that is wider than the first detection region Second setting means for setting a region for each of the images, second detection means for detecting a motion vector related to the subject as a second motion vector in the second detection region, and the first To comprising: an image synthesizing means for the motion vector or the second motion vector the synthesized image by synthesizing processing the image of the plurality in accordance with, the.

本発明による撮像装置は、前記複数枚の画像を撮像する撮像手段と、上記の画像処理装置と、前記画像処理装置で得られた合成画像を記録する記録手段と、を有することを特徴とする。   An imaging apparatus according to the present invention includes an imaging unit that captures the plurality of images, the above-described image processing device, and a recording unit that records a composite image obtained by the image processing device. .

本発明による制御方法は、移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置の制御方法であって、前記画像の各々に動きベクトルを検出するための第1の検出領域を設定する第1の設定ステップと、前記第1の検出領域において前記被写体に関する動きベクトルを第1の動きベクトルとして検出する第1の検出ステップと、前記被写体が所定の状態であるか否かを判定する判定ステップと、前記判定ステップで前記被写体が前記所定の状態である判定されると、前記第1の検出領域よりも広い第2の検出領域を前記画像の各々に設定する第2の設定ステップと、前記第2の検出領域において前記被写体に関する動きベクトルを第2の動きベクトルとして検出する第2の検出ステップと、前記第1の動きベクトル又は前記第2の動きベクトルに応じて前記複数枚の画像を合成処理して前記合成画像とする画像合成ステップと、を有することを特徴する。   A control method according to the present invention is a control method of an image processing apparatus that combines a plurality of images obtained by photographing a moving subject to form a composite image, and detects a motion vector in each of the images. A first setting step for setting a first detection area for detecting a motion vector related to the subject as a first motion vector in the first detection region; and A determination step for determining whether or not the image is in a state; and when the determination step determines that the subject is in the predetermined state, each of the images has a second detection region wider than the first detection region. A second setting step for detecting a motion vector related to the subject as a second motion vector in the second detection area; and An image synthesizing step an image of the plurality and synthesis processing to the composite image according to come vectors or the second motion vector, comprising a.

本発明による制御プログラムは、移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置で用いられる制御プログラムであって、前記画像処理装置が備えるコンピュータに、前記画像の各々に動きベクトルを検出するための第1の検出領域を設定する第1の設定ステップと、前記第1の検出領域において前記被写体に関する動きベクトルを第1の動きベクトルとして検出する第1の検出ステップと、前記被写体が所定の状態であるか否かを判定する判定ステップと、前記判定ステップで前記被写体が前記所定の状態である判定されると、前記第1の検出領域よりも広い第2の検出領域を前記画像の各々に設定する第2の設定ステップと、前記第2の検出領域において前記被写体に関する動きベクトルを第2の動きベクトルとして検出する第2の検出ステップと、前記第1の動きベクトル又は前記第2の動きベクトルに応じて前記複数枚の画像を合成処理して前記合成画像とする画像合成ステップと、を実行させることを特徴とする。   A control program according to the present invention is a control program used in an image processing apparatus that synthesizes a plurality of images obtained by photographing a moving subject to obtain a composite image, and is provided in a computer included in the image processing apparatus. A first setting step of setting a first detection area for detecting a motion vector in each of the images; and a first setting step of detecting a motion vector related to the subject in the first detection area as a first motion vector. 1 detection step, a determination step for determining whether or not the subject is in a predetermined state, and when the determination step determines that the subject is in the predetermined state, A second setting step for setting a wide second detection area for each of the images; and a motion vector relating to the subject in the second detection area. A second detection step of detecting as a motion vector, and an image synthesis step of synthesizing the plurality of images according to the first motion vector or the second motion vector into the synthesized image. It is made to perform.

本発明によれば、第1の検出領域又は第2の検出領域を設定して、被写体の状態に応じて第1の検出領域又は第2の検出領域で検出された動きベクトルに応じて複数枚の画像を合成処理する。これによって、ずれ補正に必要な動きベクトルを高速かつ効率的に算出することができる。   According to the present invention, the first detection area or the second detection area is set, and a plurality of sheets are selected according to the motion vectors detected in the first detection area or the second detection area according to the state of the subject. The image is processed. This makes it possible to calculate a motion vector required for deviation correction at high speed and efficiently.

本発明の実施の形態による画像処理装置を備える撮像装置の一例についてその構成を示すブロック図である。It is a block diagram which shows the structure about an example of an imaging device provided with the image processing apparatus by embodiment of this invention. 図1に示すカメラで行われるずれ補正量の算出を説明するためのフローチャートである。3 is a flowchart for explaining calculation of a displacement correction amount performed by the camera shown in FIG. 1. 図1に示すカメラにおいて画像に設定されたクロップ領域の一例を説明するための図である。It is a figure for demonstrating an example of the crop area | region set to the image in the camera shown in FIG. 図1に示すカメラにおいて画像全体が回転している状態であると判定する際の処理を説明するための図である。It is a figure for demonstrating the process at the time of determining with it being the state which the whole image is rotating in the camera shown in FIG. 図1に示すカメラにおいてクロップ領域に主被写体以外の被写体が混在していると判定する際の処理を説明するための図である。FIG. 3 is a diagram for explaining processing when it is determined in the camera shown in FIG. 1 that subjects other than the main subject are mixed in the crop area.

以下に、本発明の実施の形態による画像処理装置の一例について図面を参照して説明する。   Hereinafter, an example of an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態による画像処理装置を備える撮像装置の一例についてその構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration of an example of an imaging apparatus including an image processing apparatus according to an embodiment of the present invention.

図示の撮像装置100は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)であり、撮影レンズユニット(以下単に撮影レンズと呼ぶ)103を有している。撮影レンズ103の後段には、絞り機能を備える機械式シャッター101が配置されており、撮影レンズ103を介して撮像部22に光学像(被写体像)が入射する。なお、撮影レンズ103の前面側には、撮影レンズ103、シャッター101、および撮像部22を保護するためのバリア102が配置されている。   The illustrated imaging apparatus 100 is, for example, a digital camera (hereinafter simply referred to as a camera) and includes a photographing lens unit (hereinafter simply referred to as a photographing lens) 103. A mechanical shutter 101 having a diaphragm function is disposed at the subsequent stage of the photographing lens 103, and an optical image (subject image) enters the imaging unit 22 via the photographing lens 103. A barrier 102 for protecting the photographing lens 103, the shutter 101, and the imaging unit 22 is arranged on the front side of the photographing lens 103.

撮像部22はCCD又はCMOSセンサなどの撮像素子を有しており、撮像素子は光学像に応じた電気信号(アナログ信号)を出力する。そして、当該アナログ信号はA/D変換器23によってデジタル信号(画像データ)に変換される。   The imaging unit 22 has an imaging device such as a CCD or CMOS sensor, and the imaging device outputs an electrical signal (analog signal) corresponding to the optical image. The analog signal is converted into a digital signal (image data) by the A / D converter 23.

撮像部22に備えられた撮像素子は、例えば、R(赤)、G(緑)、およびB(青)の画素が規則的に配列されるベイヤー配列を有している。なお、撮像素子の画素配列はベイヤー配列に限定されない。また、システム制御部50はタイミング発生回路(図示せず)によって撮像部22、撮影レンズ103、およびシャッター101を制御する。   The image sensor provided in the imaging unit 22 has, for example, a Bayer array in which R (red), G (green), and B (blue) pixels are regularly arranged. Note that the pixel array of the image sensor is not limited to the Bayer array. Further, the system control unit 50 controls the imaging unit 22, the photographing lens 103, and the shutter 101 by a timing generation circuit (not shown).

さらに、図示のカメラでは、撮像素子のリセットタイミングを制御することによって、撮像素子における蓄積時間を制御することができる(所謂電子シャッター)。この電子シャッターは、例えば、動画撮影に用いられる。   Further, in the illustrated camera, the accumulation time in the image sensor can be controlled by controlling the reset timing of the image sensor (so-called electronic shutter). This electronic shutter is used, for example, for moving image shooting.

画像処理部24は、A/D変換器23からの画像データ或いはメモリ制御部15からの画像データに対して所定の画素補間処理およびシェーディング補正などの各種補正処理を行うとともに、ホワイトバランス処理、γ補正処理、および色変換処理などを行う。さらに、画像処理部24は画像の切り出しおよび変倍処理を行って電子ズームを行う。   The image processing unit 24 performs various correction processing such as predetermined pixel interpolation processing and shading correction on the image data from the A / D converter 23 or the image data from the memory control unit 15, and also performs white balance processing, γ Correction processing, color conversion processing, and the like are performed. Furthermore, the image processing unit 24 performs image zooming and scaling processing to perform electronic zoom.

シェーディング補正の際には、画像処理部24は画像データについて撮影レンズ103の特性および撮像部22の収差などの特性に起因して生じるシェーディングを補正するため、画像における輝度レベルを補正する。画像処理部24は、シェーディング補正処理の後、画像データについて画像における白基準を白に合わせるホワイトバランス(WB)処理を行う。   At the time of shading correction, the image processing unit 24 corrects the luminance level in the image in order to correct shading caused by the characteristics of the photographing lens 103 and the characteristics of the imaging unit 22 such as the aberration of the image data. After the shading correction process, the image processing unit 24 performs a white balance (WB) process for matching the white reference in the image to white for the image data.

ここでは、シェーディング補正を行う際には、画像処理部24は、撮像素子の2次元の座標(位置)に応じて画素毎にゲインを乗算する補正を行う。また、WB処理の際には、画像処理部24は、ベイヤー配列のR、G(G1およびG2)、およびB毎に互いに異なるゲインを乗算する処理を行う。   Here, when performing shading correction, the image processing unit 24 performs correction by multiplying the gain for each pixel in accordance with the two-dimensional coordinates (position) of the image sensor. In the WB process, the image processing unit 24 performs a process of multiplying different gains for each of R, G (G1 and G2), and B in the Bayer array.

画像合成部54は、複数の画像データを画像合成して一つの画像データを生成する。図示の例では、画像合成部54は、単純な加算合成又は加算平均合成のみではなく、合成対象の画像データの領域の各々において最も明るい又は暗い領域を選択して、これら領域を合成して1枚の画像データを生成する比較明合成処理又は比較暗合成処理を行うことができる。なお、画像合成部54を画像処理部24と一体に構成するようにしてもよい。   The image composition unit 54 composes a plurality of image data to generate one image data. In the illustrated example, the image synthesis unit 54 selects not only the simple addition synthesis or addition average synthesis but also selects the brightest or darkest area in each of the areas of the image data to be synthesized, and synthesizes these areas to 1 A comparatively bright combining process or a comparative dark combining process for generating image data of a sheet can be performed. Note that the image composition unit 54 may be configured integrally with the image processing unit 24.

加えて、画像処理部24は画像データについて所定の演算処理を行う。システム制御部50は画像処理部24で得られた演算結果に基づいて露光制御部および測距制御部(ともに図示せず)を制御して、TTL方式のAF処理、AE処理、およびEF処理を行う。   In addition, the image processing unit 24 performs predetermined arithmetic processing on the image data. The system control unit 50 controls the exposure control unit and the distance measurement control unit (both not shown) based on the calculation result obtained by the image processing unit 24, and performs TTL AF processing, AE processing, and EF processing. Do.

メモリ制御部15は、システム制御部50の制御下でA/D変換器23、画像処理部24、およびメモリ32を制御する。そして、A/D変換器23の出力である画像データは画像処理部24およびメモリ制御部15を介して、或いは直接メモリ制御部15を介してメモリ32に書き込まれる。表示部28は、例えば、TFT LCDであり、メモリ制御部15はメモリ32に書き込まれた画像データを表示部28に画像として表示する。   The memory control unit 15 controls the A / D converter 23, the image processing unit 24, and the memory 32 under the control of the system control unit 50. The image data that is the output of the A / D converter 23 is written into the memory 32 via the image processing unit 24 and the memory control unit 15 or directly via the memory control unit 15. The display unit 28 is, for example, a TFT LCD, and the memory control unit 15 displays the image data written in the memory 32 on the display unit 28 as an image.

撮像部22において所定の周期で露光および読み出しを繰り返し行って得られた画像データを画像処理部24およびメモリ制御部15を介して表示部28に表示するようにすれば、ライブビュー表示および電子ファインダーを実現することができる。表示部28は、システム制御部50の制御によってその表示をオン又はオフすることができ、表示をオフとした場合には、カメラ100の電力消費を大幅に低減することができる。   If image data obtained by repeatedly performing exposure and reading at a predetermined cycle in the imaging unit 22 is displayed on the display unit 28 via the image processing unit 24 and the memory control unit 15, a live view display and an electronic viewfinder are displayed. Can be realized. The display unit 28 can turn on or off the display under the control of the system control unit 50. When the display is turned off, the power consumption of the camera 100 can be greatly reduced.

前述のように、メモリ32には撮影の結果得られた画像データ(静止画像および動画像)が格納される。そして、メモリ32は所定枚数の静止画像および所定時間の動画像を格納するための十分な記憶容量を備えている。これによって、複数枚の静止画像を連続して撮影する連写撮影又はパノラマ撮影の場合においても、高速かつ大量の画像データの書き込みをメモリ32に行うことができる。なお、メモリ32はシステム制御部50の作業領域として用いることができる。   As described above, the memory 32 stores image data (still images and moving images) obtained as a result of shooting. The memory 32 has a sufficient storage capacity for storing a predetermined number of still images and a moving image for a predetermined time. Thus, even in the case of continuous shooting or panoramic shooting in which a plurality of still images are continuously shot, a large amount of image data can be written into the memory 32 at high speed. The memory 32 can be used as a work area for the system control unit 50.

システム制御部50は、カメラ100全体の制御を司る。不揮発性メモリ56は、例えば、フラッシュROMであり、不揮発性メモリ56には制御プログラムなどが格納されており、システム制御部50は当該制御プログラムを実行して、後述の各種処理を行う。なお、不揮発性メモリ56にはシステム情報を記憶する領域およびユーザー設定情報を記憶する領域が設けられており、カメラ起動の際には、これら領域から各種情報および設定が読み出されて復元される。   The system control unit 50 controls the entire camera 100. The non-volatile memory 56 is, for example, a flash ROM, and a control program and the like are stored in the non-volatile memory 56, and the system control unit 50 executes the control program and performs various processes described below. The non-volatile memory 56 is provided with an area for storing system information and an area for storing user setting information. When the camera is activated, various information and settings are read and restored from these areas. .

システムメモリ52として、例えば、RAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、そして、不揮発性メモリ56から読み出された制御プログラムなどが展開される。また、システム制御部50はメモリ32および表示部28などを制御して表示制御を行う。システムタイマー53は各種制御に用いる時間および内蔵の時計の時間を計測する計時部である。   For example, a RAM is used as the system memory 52. In the system memory 52, constants and variables for operation of the system control unit 50, a control program read from the nonvolatile memory 56, and the like are expanded. Further, the system control unit 50 performs display control by controlling the memory 32, the display unit 28, and the like. The system timer 53 is a time measuring unit that measures the time used for various controls and the time of a built-in clock.

操作部70には各種ボタンおよびタッチパネルなどが備えられている。例えば、各種ボタンとしてシャッタースイッチ(SW1およびSW2)、メニューボタン、セットボタン、マクロボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタンなどがある。さらには、各種ボタンとして、メニュー移動+(プラス)ボタン、メニュー移動−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、および日付/時間設定ボタンなどがある。   The operation unit 70 includes various buttons and a touch panel. For example, as various buttons, there are a shutter switch (SW1 and SW2), a menu button, a set button, a macro button, a flash setting button, a single shooting / continuous shooting / self-timer switching button, and the like. Further, as various buttons, there are a menu movement + (plus) button, a menu movement-(minus) button, a photographing image quality selection button, an exposure correction button, a date / time setting button, and the like.

シャッターボタンの操作途中でシャッタースイッチSW1がオンとなって、システム制御部50はAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理などを開始する。シャッターボタンの操作完了でシャッタースイッチSW2がオンとなって、システム制御部50は露光処理、現像処理、圧縮・伸長処理、および記録処理などの一連の処理を開始する。   During the operation of the shutter button, the shutter switch SW1 is turned on, and the system control unit 50 starts AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and the like. Upon completion of the operation of the shutter button, the shutter switch SW2 is turned on, and the system control unit 50 starts a series of processing such as exposure processing, development processing, compression / expansion processing, and recording processing.

電源部30として、例えば、アルカリ電池又はリチウム電池などの一次電池、NiCd電池、NiMH電池、又はLi電池等の二次電池が用いられ、さらに、電源部30にはACアダプターなどが備えられている。そして、電源部30は電源制御部80によって制御される。   As the power supply unit 30, for example, a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery is used, and the power supply unit 30 is provided with an AC adapter or the like. . The power supply unit 30 is controlled by the power supply control unit 80.

記録媒体200は、カメラ100に対して着脱可能であり、例えば、メモリカード又はハードディスクが用いられる。記録媒体200はインタフェース(I/F)18によってカメラ100に接続される。   The recording medium 200 is detachable from the camera 100. For example, a memory card or a hard disk is used. The recording medium 200 is connected to the camera 100 via an interface (I / F) 18.

なお、システム制御部50は後述する動きベクトルを算出する際、演算部51によって所定の演算を実行する。   The system control unit 50 executes a predetermined calculation by the calculation unit 51 when calculating a motion vector described later.

動きベクトルを算出する際には、システム制御部50は、時間的に連続して撮影された2枚の画像について1枚目の画像を基準画像として設定する。そして、システム制御部50は当該2枚の画像の各々において切り出したクロップ領域を複数のブロックに分割する。続いて、システム制御部50は基準画像についてエッジ抽出を行って、複数のブロックにおいてエッジ量が所定の量よりも多いブロックについて2枚の画像間でテンプレートマッチングを行う。これによって、システム制御部50はブロック毎に動きベクトルを検出する。   When calculating the motion vector, the system control unit 50 sets the first image as a reference image for two images taken continuously in time. Then, the system control unit 50 divides the crop region cut out in each of the two images into a plurality of blocks. Subsequently, the system control unit 50 performs edge extraction for the reference image, and performs template matching between the two images for blocks in which the edge amount is larger than a predetermined amount in a plurality of blocks. As a result, the system control unit 50 detects a motion vector for each block.

ここで、図1に示すカメラ100で行われる複数の画像データを合成する合成処理について説明する。   Here, a combining process for combining a plurality of image data performed by the camera 100 shown in FIG. 1 will be described.

画像合成部54は合成処理として、前述の加算合成処理、加重加算合成処理、比較明合成処理、および比較暗合成処理の4つの合成処理を行うことができる。   As the synthesis process, the image synthesis unit 54 can perform four synthesis processes including the above-described addition synthesis process, weighted addition synthesis process, comparatively bright synthesis process, and comparative dark synthesis process.

いま、合成前の画像データの画素値をI_i(x,y)(i=1〜N,x,yは画像における座標を示す)とし、N枚(Nは2以上の整数)の画像を合成処理した後の合成画像の画素値をI(x,y)とする。なお、画素値として、ベイヤー配列のR、G1、G2、およびBの信号値を用いるようにしてもよく、R、G1、G2、およびBの信号のグループから得られる輝度信号値(輝度値)を用いるようにしてもよい。   Now, the pixel value of the image data before synthesis is I_i (x, y) (i = 1 to N, x, y indicates coordinates in the image), and N images (N is an integer of 2 or more) are synthesized. Let the pixel value of the composite image after processing be I (x, y). Note that the pixel values may be R, G1, G2, and B signal values in a Bayer array, and luminance signal values (luminance values) obtained from a group of R, G1, G2, and B signals. May be used.

さらに、ベイヤー配列における信号値ついて、画素毎にR、G、およびBの信号値が存在するように補間処理した後、画素毎に輝度値を求めるようにしてもよい。輝度値を求める際には、例えば、輝度値をYとすると、Y=0.3×R+0.59×G+0.11×BなどのR、G、およびBの信号値を加重加算して算出する手法が用いられる。   Further, the luminance value may be obtained for each pixel after interpolation processing is performed so that the signal values in the Bayer array have R, G, and B signal values for each pixel. When obtaining the luminance value, for example, assuming that the luminance value is Y, calculation is performed by weighted addition of R, G, and B signal values such as Y = 0.3 × R + 0.59 × G + 0.11 × B. A technique is used.

複数の画像データ間において必要に応じて位置合わせなどの処理を行って、互いに対応づけられた画素値について、画像合成部54は、次の式(1)によって加算合成処理を行う。   The image synthesis unit 54 performs addition synthesis processing on the pixel values associated with each other by performing processing such as alignment between a plurality of image data as necessary, by the following equation (1).

I(x,y)=I_1(x,y)+I_2(x,y)+・・・+I_N(x,y) (1)
画像合成部54は画素別にN枚の画像の画素値を加算合成処理したものを合成画像データとする。
I (x, y) = I_1 (x, y) + I_2 (x, y) +... + I_N (x, y) (1)
The image synthesizing unit 54 adds and synthesizes the pixel values of N images for each pixel as synthesized image data.

加重加算合成処理においては、画像合成部54は、akを重み付け係数として、次の式(2)によって加重加算合計処理を行う。   In the weighted addition synthesis process, the image synthesis unit 54 performs the weighted addition totaling process according to the following equation (2) using ak as a weighting coefficient.

I(x,y)=(a1×I_1(x,y)+a2×I_2(x,y)+・・・+aN×I_N(x,y))/N (2)
画像合成部54は画素別にN枚の画像の画素値の加重加算合成処理したものを合成画像データとする。
I (x, y) = (a1 × I_1 (x, y) + a2 × I_2 (x, y) +... + AN × I_N (x, y)) / N (2)
The image synthesizing unit 54 uses, as synthesized image data, a weighted addition synthesis process of pixel values of N images for each pixel.

比較明合成処理においては、画像合成部54は、次の式(3)によって比較明合成処理を行う。   In the comparatively bright combining process, the image combining unit 54 performs the comparatively bright combining process according to the following equation (3).

I(x,y)=max(I_1(x,y),I_2(x,y),・・・,I_N(x,y)) (3)
画像合成部54は画素別にN枚の画像の画素値の最大値を選択して当該最大値を合成画像データとする。
I (x, y) = max (I_1 (x, y), I_2 (x, y),..., I_N (x, y)) (3)
The image composition unit 54 selects the maximum value of the pixel values of the N images for each pixel and sets the maximum value as composite image data.

比較暗合成処理においては、画像合成部54は、次の式(4)によって比較暗合成処理を行う。   In the comparative dark composition process, the image composition unit 54 performs the comparative dark composition process according to the following equation (4).

I(x,y)=min(I_1(x,y),I_2(x,y),・・・,I_N(x,y)) (4)
画像合成部54は画素別にN枚の画像の画素値の最小値を選択して当該最小値を合成画像データとする。
I (x, y) = min (I_1 (x, y), I_2 (x, y),..., I_N (x, y)) (4)
The image composition unit 54 selects the minimum value of the pixel values of the N images for each pixel and sets the minimum value as composite image data.

ここで、比較明合成処理を行う際には、次の手順で比較明合成処理が行われる。まず、ユーザーの操作に応じて、システム制御部50はインターバル撮影を開始する。そして、システム制御部50は、複数枚の画像のうち1枚目の画像を、メモリ32に設定された合成用メモリ領域に初期値としてセットする。   Here, when the comparatively bright combination process is performed, the comparatively bright combination process is performed in the following procedure. First, in response to a user operation, the system control unit 50 starts interval shooting. Then, the system control unit 50 sets the first image of the plurality of images as an initial value in the compositing memory area set in the memory 32.

次に、システム制御部50の制御下で、画像合成部54は2枚目の画像と合成用メモリ領域にセットされた1枚目の画像とにおいて同一の画素における輝度を比較する。そして、画像合成部54は、輝度が高い方の画素値を合成用メモリ領域に格納する。   Next, under the control of the system control unit 50, the image composition unit 54 compares the luminance of the same pixel in the second image and the first image set in the composition memory area. Then, the image composition unit 54 stores the pixel value having the higher luminance in the composition memory area.

上記の処理を、1枚目の画像と2枚目の画像の全画素について行って、画像合成部54は合成用メモリ領域に1枚目の画像と2枚目の画像との合成画像を格納する。   The above processing is performed for all pixels of the first image and the second image, and the image composition unit 54 stores the composite image of the first image and the second image in the compositing memory area. To do.

続いて、画像合成部54は3枚目以降の画像について、合成用メモリ領域に格納された合成画像と当該処理すべき画像(つまり、ここでは、3枚目の画像)と同一の画素について輝度を比較する。そして、輝度が高い方の画素値を合成用メモリ領域に格納する。さらに、画像合成部54は当該処理を合成画像および処理すべき画像の全画素について行う。   Subsequently, for the third and subsequent images, the image composition unit 54 determines the luminance of the same pixel as the composite image stored in the compositing memory area and the image to be processed (that is, the third image here). Compare Then, the pixel value having the higher luminance is stored in the synthesis memory area. Furthermore, the image composition unit 54 performs the process on the composite image and all pixels of the image to be processed.

このようにして、画像合成部54は、処理すべき画像の全てについて上述の処理を行う。つまり、画像合成部54は、次の式(5)で示す処理を行うことになる。   In this way, the image composition unit 54 performs the above-described processing for all the images to be processed. That is, the image composition unit 54 performs the processing shown by the following equation (5).

I2(x,y)=max(I_1(x,y),I_2(x,y))
I3(x,y)=max(I_2(x,y),I_3(x,y))
‥‥
I(x,y)=IN(x,y)=max(IN_1(x,y),I_N(x,y)) (5)
図2は、図1に示すカメラで行われるずれ補正量の算出を説明するためのフローチャートである。なお、図示のフローチャートに係る処理はシステム制御部50の制御下で行われる。
I2 (x, y) = max (I_1 (x, y), I_2 (x, y))
I3 (x, y) = max (I_2 (x, y), I_3 (x, y))
...
I (x, y) = IN (x, y) = max (IN_1 (x, y), I_N (x, y)) (5)
FIG. 2 is a flowchart for explaining the calculation of the shift correction amount performed by the camera shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the system control unit 50.

ユーザーよる撮影操作があると、システム制御部50は被写体である天体の撮影を開始する(ステップS201)。そして、連続的な撮影によって所定枚数(複数枚)の画像を得ると、システム制御部50は、撮影の結果得られた画像に第1のクロップ領域(第1の検出領域)を設定する(ステップS202)。   When there is a photographing operation by the user, the system control unit 50 starts photographing a celestial body that is a subject (step S201). When a predetermined number of images (a plurality of images) are obtained by continuous shooting, the system control unit 50 sets a first crop area (first detection area) in the image obtained as a result of shooting (step 1). S202).

図3は、図1に示すカメラにおいて画像に設定されたクロップ領域の一例を示す図である。   FIG. 3 is a diagram showing an example of a crop area set in an image in the camera shown in FIG.

図示の例では、画像には日周運動によって移動する天体302が存在し、当該天体302の一部を含むようにして第1のクロップ領域301が設定される。ここでは、第1のクロップ領域301のサイズは画像のサイズに比べて十分に小さく、システム制御部50は不揮発性メモリ56に格納されたクロップ情報に応じて第1のクロップ領域301を設定する。   In the illustrated example, the image includes a celestial body 302 that moves due to a diurnal motion, and the first crop region 301 is set so as to include a part of the celestial body 302. Here, the size of the first crop area 301 is sufficiently smaller than the size of the image, and the system control unit 50 sets the first crop area 301 according to the crop information stored in the nonvolatile memory 56.

続いて、システム制御部50は第1のクロップ領域において天体の動きベクトル(第1の動きベクトル)を検出する(ステップS203)。そして、システム制御部50は、ステップS203で得た動きベクトルの解析を行う(ステップS204)。なお、動きベクトルの解析については後述する。   Subsequently, the system control unit 50 detects a celestial motion vector (first motion vector) in the first crop region (step S203). Then, the system control unit 50 analyzes the motion vector obtained in step S203 (step S204). The motion vector analysis will be described later.

次に、システム制御部50は、動きベクトルの解析結果に応じて天体が所定の状態であるか否かを判定する(ステップS205)。天体が所定の状態であると(ステップS205において、YES)、システム制御部50は画像(ベクトル抽出用画像ともいう)を画像処理部24によって、図3に示すように縮小処理する(ステップS206)。   Next, the system control unit 50 determines whether or not the celestial body is in a predetermined state according to the motion vector analysis result (step S205). If the celestial body is in a predetermined state (YES in step S205), the system control unit 50 reduces the image (also referred to as a vector extraction image) by the image processing unit 24 as shown in FIG. 3 (step S206). .

その後、システム制御部50は、縮小処理後の画像(縮小画像)に対して、ステップS202で設定した第1のクロップ領域301よりもそのサイズが大きい第2のクロップ領域(第2の検出領域)を再設定する(ステップS207)。そして、システム制御部50は、再設定した第2のクロップ領域において動きベクトル(第2の動きベクトル)を検出する(ステップS208)。なお、第2のクロップ領域は、縮小画像の全体に設定してもよいし、縮小画像の一部に設定してもよい。第2のクロップ領域を縮小画像の一部に設定する場合は、そのサイズが第1のクロップ領域よりも大きくなるように設定する必要がある。   Thereafter, the system control unit 50 performs a second crop area (second detection area) whose size is larger than that of the first crop area 301 set in step S202 with respect to the image after reduction processing (reduced image). Is reset (step S207). Then, the system control unit 50 detects a motion vector (second motion vector) in the reset second crop region (step S208). Note that the second crop area may be set for the entire reduced image, or may be set for a part of the reduced image. When the second crop area is set as a part of the reduced image, the size needs to be set so as to be larger than the first crop area.

続いて、システム制御部50は、ステップS208で検出された動きベクトルに基づいてアフィン係数を算出して、当該アフィン係数に応じて画像のずれ補正量を求める。(ステップS209)。そして、システム制御部50はずれ補正量算出を終了する。その後、システム制御部50の制御下で、画像合成部54はずれ補正量を用いて、画像間の位置ずれを補正して、画像合成を行う。   Subsequently, the system control unit 50 calculates an affine coefficient based on the motion vector detected in step S208, and obtains an image shift correction amount according to the affine coefficient. (Step S209). Then, the system control unit 50 ends the deviation correction amount calculation. Thereafter, under the control of the system control unit 50, the image synthesis unit 54 corrects the positional deviation between the images using the deviation correction amount, and performs image synthesis.

動きベクトルの解析結果が所定の状態でないと(ステップS205において、NO)、システム制御部50は、ステップS209の処理に進んで、ステップS203で求めた動きベクトルに応じてずれ補正量を求める。   If the analysis result of the motion vector is not in a predetermined state (NO in step S205), the system control unit 50 proceeds to the process of step S209, and obtains a deviation correction amount according to the motion vector obtained in step S203.

上述のように、動きベクトルの解析結果に応じて画像の縮小を行うようにしたので、サイズで大きなクロップ領域を設定したとしても高速で動きベクトルの検出処理を行うことができる。この結果、画像間のずれ補正処理においてもその処理時間を短縮することができ、追尾対象の天体をカメラの画角に長時間留めることができる。   As described above, since the image is reduced according to the analysis result of the motion vector, even if a large crop area is set in size, the motion vector detection process can be performed at high speed. As a result, the processing time can be shortened also in the displacement correction processing between images, and the tracking target celestial body can be kept at the field angle of the camera for a long time.

さらに、高感度撮影の際、又は撮影の際の温度が高いと、画像にノイズが発生し易く、ノイズの影響によって動きベクトルを誤検出する可能性が高くなる。ここでは、画像を縮小しているのでノイズの影響を軽減することができる。   Furthermore, when high-sensitivity shooting is performed or when the temperature during shooting is high, noise is likely to occur in the image, and the possibility of erroneous detection of a motion vector due to the influence of noise increases. Here, since the image is reduced, the influence of noise can be reduced.

ここで、動きベクトルの解析について説明する。前述のように、まず、システム制御部50は、等倍画像(縮小しない画像)に設定されたサイズの小さいクロップ領域で検出された動きベクトルを解析して解析結果を得る。前述の所定の状態とは、例えば、画像全体が回転している状態又はクロップ領域に主被写体以外の被写体が混在する割合が所定の割合よりも高い状態をいう。   Here, motion vector analysis will be described. As described above, first, the system control unit 50 obtains an analysis result by analyzing a motion vector detected in a crop area having a small size set in an equal-size image (an image that is not reduced). The predetermined state mentioned above refers to, for example, a state where the entire image is rotated or a state where the proportion of subjects other than the main subject is mixed in the crop area is higher than the predetermined proportion.

例えば、画像全体が回転している状態では、サイズの小さいクロップ領域においては回転を示す動きベクトルを十分に得ることが難しく、高精度にずれ補正量を求めることができない。また、クロップ領域に占める主被写体以外の被写体の割合が高いと、主被写体以外の被写体に係る動きベクトルの影響を強く受けてしまう。このため、高精度にずれ補正量を求めることができない。つまり、システム制御部50は、動きベクトルの解析結果が所定の状態であると、正確にずれ補正量が算出できない状態であるとする。   For example, in a state where the entire image is rotated, it is difficult to obtain a sufficient motion vector indicating the rotation in a small crop area, and the shift correction amount cannot be obtained with high accuracy. Further, if the ratio of subjects other than the main subject in the crop area is high, the motion vector related to the subjects other than the main subject is strongly influenced. For this reason, the shift correction amount cannot be obtained with high accuracy. That is, it is assumed that the system control unit 50 is in a state where the deviation correction amount cannot be accurately calculated when the motion vector analysis result is in a predetermined state.

図4は、図1に示すカメラにおいて画像全体が回転している状態であると判定する際の処理を説明するための図である。   FIG. 4 is a diagram for explaining processing when it is determined that the entire image is rotated in the camera shown in FIG.

システム制御部50は、クロップ領域301において動きベクトルの方向および大きさに基づいて動きベクトルのグルーピングを行う。画像全体が回転していない状態では、動きベクトルは同一のグループに属することになる。よって、システム制御部50は、クロップ領域301において動きベクトルが複数のグループに分けられている場合には画像全体が回転している状態であると判定する。   The system control unit 50 performs motion vector grouping in the crop area 301 based on the direction and magnitude of the motion vector. When the entire image is not rotated, the motion vectors belong to the same group. Therefore, when the motion vector is divided into a plurality of groups in the crop area 301, the system control unit 50 determines that the entire image is rotating.

図5は、図1に示すカメラにおいてクロップ領域に主被写体以外の被写体が混在していると判定する際の処理を説明するための図である。   FIG. 5 is a diagram for explaining processing when it is determined that subjects other than the main subject are mixed in the crop area in the camera shown in FIG.

図5においては、クロップ領域301には、主被写体である天体302の他に木501などの前景が混在している。天体302は移動するのに対して、木501などの前景は移動しない。よって、動きベクトルをグルーピングすると2つのピークに収斂する。従って、システム制御部50は動きベクトルをそのベクトル量に応じてグルーピングしてピークとなるグループが2つ存在すると、クロップ領域301に主被写体以外の被写体が混在していると判定する。   In FIG. 5, the crop area 301 includes a foreground such as a tree 501 in addition to the celestial body 302 that is the main subject. While the celestial body 302 moves, the foreground such as the tree 501 does not move. Therefore, grouping motion vectors converges on two peaks. Therefore, the system control unit 50 determines that a subject other than the main subject is mixed in the crop region 301 when there are two groups in which the motion vectors are grouped in accordance with the vector amount and have a peak.

このようにして、動きベクトルの解析結果が所定の状態であるか否かに応じて、等倍画像又は縮小画像から動きベクトルを検出する。これによって、正確に動きベクトルを短時間で求めることができる。   In this manner, the motion vector is detected from the equal-size image or the reduced image depending on whether or not the motion vector analysis result is in a predetermined state. Thereby, the motion vector can be obtained accurately in a short time.

なお、以上の例では、動きベクトルの解析結果に応じて、被写体である天体が所定の状態であるか否かを判定したが、判定方法にこれに限らず、他の方法によって判定してもよい。例えば、カメラ100に撮像対象である天体の方向を検出する検出部を設けることにより、撮像方向から画像全体が回転している状態であるか否かを判定することができる。また、画像の動きベクトル以外の輝度などの情報を用いて、画像に主被写体以外の被写体が混在しているかを判定することも可能である。   In the above example, it is determined whether or not the celestial body that is the subject is in a predetermined state according to the analysis result of the motion vector. However, the determination method is not limited to this, and other methods may be used for determination. Good. For example, by providing the camera 100 with a detection unit that detects the direction of the celestial body that is the imaging target, it is possible to determine whether or not the entire image is rotating from the imaging direction. It is also possible to determine whether a subject other than the main subject is mixed in the image using information such as luminance other than the motion vector of the image.

なお、上述の実施の形態では、動きベクトルの解析結果から天体が所定の状態であると、第1のクロップ領域よりもそのサイズが大きい第2のクロップ領域を設定するようにしたが、この第2のクロップ領域は画像の全体に設定する様にしてもよい。さらには、複数のクロップ領域を設定してこれら複数のクロップ領域を第2のクロップ領域とするようにしてもよい。   In the above-described embodiment, when the celestial body is in a predetermined state based on the motion vector analysis result, the second crop area having a size larger than that of the first crop area is set. The second crop area may be set for the entire image. Furthermore, a plurality of crop areas may be set and the plurality of crop areas may be set as the second crop area.

上述のように、本発明の実施の形態では、ずれ補正に必要な動きベクトルを高速かつ効率的に算出することができる。   As described above, in the embodiment of the present invention, a motion vector required for deviation correction can be calculated at high speed and efficiently.

上述の説明から明らかなように、図1に示す例では、画像処理部24およびシステム制御部50が第1の設定手段、第1の検出手段、判定手段、第2の設定手段、および第2の検出手段として機能する。また、システム制御部50および画像合成部54は画像合成手段として機能する。なお、撮影レンズ103、シャッター102、撮像部22、およびA/D変換部23によって撮像手段が構成される。   As is clear from the above description, in the example shown in FIG. 1, the image processing unit 24 and the system control unit 50 have the first setting unit, the first detection unit, the determination unit, the second setting unit, and the second setting unit. Functions as a detection means. The system control unit 50 and the image composition unit 54 function as image composition means. The imaging lens 103, the shutter 102, the imaging unit 22, and the A / D conversion unit 23 constitute an imaging unit.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像処理装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the image processing apparatus. In addition, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the image processing apparatus. The control program is recorded on a computer-readable recording medium, for example.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

15 メモリ制御部
22 撮像部
24 画像処理部
28 表示部
32 メモリ
50 システム制御部
51 演算部
54 画像合成部
70 操作部
103 撮影レンズ
DESCRIPTION OF SYMBOLS 15 Memory control part 22 Imaging part 24 Image processing part 28 Display part 32 Memory 50 System control part 51 Calculation part 54 Image composition part 70 Operation part 103 Shooting lens

Claims (10)

移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置であって、
前記画像の各々に動きベクトルを検出するための第1の検出領域を設定する第1の設定手段と、
前記第1の検出領域において前記被写体に関する動きベクトルを第1の動きベクトルとして検出する第1の検出手段と、
前記被写体が所定の状態であるか否かを判定する判定手段と、
前記判定手段によって前記被写体が前記所定の状態である判定されると、前記第1の検出領域よりも広い第2の検出領域を前記画像の各々に設定する第2の設定手段と、
前記第2の検出領域において前記被写体に関する動きベクトルを第2の動きベクトルとして検出する第2の検出手段と、
前記第1の動きベクトル又は前記第2の動きベクトルに応じて前記複数枚の画像を合成処理して前記合成画像とする画像合成手段と、
を有することを特徴する画像処理装置。
An image processing apparatus that combines a plurality of images obtained by photographing a moving subject to form a combined image,
First setting means for setting a first detection region for detecting a motion vector in each of the images;
First detection means for detecting a motion vector related to the subject in the first detection region as a first motion vector;
Determining means for determining whether or not the subject is in a predetermined state;
A second setting means for setting a second detection area wider than the first detection area in each of the images when the determination means determines that the subject is in the predetermined state;
Second detection means for detecting a motion vector related to the subject in the second detection region as a second motion vector;
Image synthesizing means for synthesizing the plurality of images according to the first motion vector or the second motion vector into the synthesized image;
An image processing apparatus comprising:
前記第2の設定手段は、前記画像の各々を縮小処理して縮小画像として、当該縮小画像に前記第2の検出領域を設定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the second setting unit sets the second detection area in the reduced image by reducing each of the images to obtain a reduced image. 前記第2の設定手段は、前記画像の全体を前記第2の検出領域として設定することを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the second setting unit sets the entire image as the second detection area. 前記第2の設定手段は、複数の検出領域を設定して当該複数の検出領域を前記第2の検出領域とすることを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the second setting unit sets a plurality of detection areas and sets the plurality of detection areas as the second detection areas. 前記判定手段は、前記第1の動きベクトルの方向および大きさに基づいて前記動きベクトルのグルーピングを行った際、前記第1の動きベクトルが複数のグループに分けられた場合に、前記被写体が前記所定の状態である判定することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   The determination unit performs the grouping of the motion vectors based on the direction and magnitude of the first motion vector, and the subject is detected when the first motion vector is divided into a plurality of groups. The image processing apparatus according to claim 1, wherein the image processing apparatus is determined to be in a predetermined state. 前記判定手段は、前記第1の動きベクトルをそのベクトル量に応じてグルーピングしてピークとなるグループが2つ存在した場合に、前記被写体が前記所定の状態である判定することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   The determination unit is configured to determine that the subject is in the predetermined state when there are two groups having a peak by grouping the first motion vectors according to the vector amount. Item 5. The image processing apparatus according to any one of Items 1 to 4. 前記被写体は天体であることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the subject is an astronomical object. 前記複数枚の画像を撮像する撮像手段と、
請求項1乃至7のいずれか1項に記載の画像処理装置と、
前記画像処理装置で得られた合成画像を記録する記録手段と、
を有することを特徴とする撮像装置。
An imaging means for imaging the plurality of images;
An image processing apparatus according to any one of claims 1 to 7,
Recording means for recording a composite image obtained by the image processing apparatus;
An imaging device comprising:
移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置の制御方法であって、
前記画像の各々に動きベクトルを検出するための第1の検出領域を設定する第1の設定ステップと、
前記第1の検出領域において前記被写体に関する動きベクトルを第1の動きベクトルとして検出する第1の検出ステップと、
前記被写体が所定の状態であるか否かを判定する判定ステップと、
前記判定ステップで前記被写体が前記所定の状態である判定されると、前記第1の検出領域よりも広い第2の検出領域を前記画像の各々に設定する第2の設定ステップと、
前記第2の検出領域において前記被写体に関する動きベクトルを第2の動きベクトルとして検出する第2の検出ステップと、
前記第1の動きベクトル又は前記第2の動きベクトルに応じて前記複数枚の画像を合成処理して前記合成画像とする画像合成ステップと、
を有することを特徴する制御方法。
A control method of an image processing apparatus that combines a plurality of images obtained by photographing a moving subject to form a composite image,
A first setting step of setting a first detection region for detecting a motion vector in each of the images;
A first detection step of detecting a motion vector related to the subject in the first detection region as a first motion vector;
A determination step of determining whether or not the subject is in a predetermined state;
A second setting step of setting a second detection area wider than the first detection area in each of the images when it is determined in the determination step that the subject is in the predetermined state;
A second detection step of detecting a motion vector related to the subject in the second detection region as a second motion vector;
An image synthesis step of synthesizing the plurality of images according to the first motion vector or the second motion vector into the synthesized image;
A control method characterized by comprising:
移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置で用いられる制御プログラムであって、
前記画像処理装置が備えるコンピュータに、
前記画像の各々に動きベクトルを検出するための第1の検出領域を設定する第1の設定ステップと、
前記第1の検出領域において前記被写体に関する動きベクトルを第1の動きベクトルとして検出する第1の検出ステップと、
前記被写体が所定の状態であるか否かを判定する判定ステップと、
前記判定ステップで前記被写体が前記所定の状態である判定されると、前記第1の検出領域よりも広い第2の検出領域を前記画像の各々に設定する第2の設定ステップと、
前記第2の検出領域において前記被写体に関する動きベクトルを第2の動きベクトルとして検出する第2の検出ステップと、
前記第1の動きベクトル又は前記第2の動きベクトルに応じて前記複数枚の画像を合成処理して前記合成画像とする画像合成ステップと、
を実行させることを特徴とする制御プログラム。
A control program used in an image processing apparatus that synthesizes a plurality of images obtained by photographing a moving subject to form a composite image,
In the computer provided in the image processing apparatus,
A first setting step of setting a first detection region for detecting a motion vector in each of the images;
A first detection step of detecting a motion vector related to the subject in the first detection region as a first motion vector;
A determination step of determining whether or not the subject is in a predetermined state;
A second setting step of setting a second detection area wider than the first detection area in each of the images when it is determined in the determination step that the subject is in the predetermined state;
A second detection step of detecting a motion vector related to the subject in the second detection region as a second motion vector;
An image synthesis step of synthesizing the plurality of images according to the first motion vector or the second motion vector into the synthesized image;
A control program characterized by causing
JP2015079111A 2015-04-08 2015-04-08 Image processing apparatus, control method therefor, and control program, and imaging device Pending JP2016201616A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015079111A JP2016201616A (en) 2015-04-08 2015-04-08 Image processing apparatus, control method therefor, and control program, and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015079111A JP2016201616A (en) 2015-04-08 2015-04-08 Image processing apparatus, control method therefor, and control program, and imaging device

Publications (1)

Publication Number Publication Date
JP2016201616A true JP2016201616A (en) 2016-12-01

Family

ID=57423152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015079111A Pending JP2016201616A (en) 2015-04-08 2015-04-08 Image processing apparatus, control method therefor, and control program, and imaging device

Country Status (1)

Country Link
JP (1) JP2016201616A (en)

Similar Documents

Publication Publication Date Title
US9473698B2 (en) Imaging device and imaging method
JP6512810B2 (en) Image pickup apparatus, control method and program
US9648238B2 (en) Image processing device that synthesizes a plurality of images, method of controlling the same, storage medium, and image pickup apparatus
JP6218378B2 (en) Image processing apparatus and image processing method
US10839497B2 (en) Image processing apparatus and method
JP5800664B2 (en) Imaging apparatus and control method thereof
JP2020107956A (en) Imaging apparatus, imaging method, and program
JP2017049947A (en) Image processing apparatus and image processing method
JP7030565B2 (en) Image processing equipment, image processing methods and programs
JP2019201359A (en) Image processing apparatus, image processing method, imaging apparatus, and program
US9299147B2 (en) Image processing apparatus, image capturing apparatus, and image processing method
JP7102150B2 (en) Image processing equipment, image processing methods, and programs
JP2011193496A (en) Imaging apparatus, imaging method, and imaging program
JP5743729B2 (en) Image synthesizer
JP6525692B2 (en) Image processing apparatus, control method therefor, control program, and imaging apparatus
JP2016201616A (en) Image processing apparatus, control method therefor, and control program, and imaging device
US20190028709A1 (en) Image processing apparatus, control method for image processing apparatus, and storage medium
JP2019205100A (en) Imaging apparatus, imaging method, and program
JP2020036091A (en) Imaging device and control method therefor, program, and storage medium
JP6433177B2 (en) Image processing apparatus and image processing method
JP2017153154A (en) Imaging device, control method therefor, program, and storage medium
JP2017038300A (en) Image processing apparatus and method
JP6799411B2 (en) Focus detection device and method, and imaging device
JP2021044752A (en) Imaging apparatus, image processing method and image processing program
JP2014075729A (en) Image processing system and image processing method