JP6525692B2 - Image processing apparatus, control method therefor, control program, and imaging apparatus - Google Patents

Image processing apparatus, control method therefor, control program, and imaging apparatus Download PDF

Info

Publication number
JP6525692B2
JP6525692B2 JP2015079110A JP2015079110A JP6525692B2 JP 6525692 B2 JP6525692 B2 JP 6525692B2 JP 2015079110 A JP2015079110 A JP 2015079110A JP 2015079110 A JP2015079110 A JP 2015079110A JP 6525692 B2 JP6525692 B2 JP 6525692B2
Authority
JP
Japan
Prior art keywords
image
images
motion vector
detection area
reference axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015079110A
Other languages
Japanese (ja)
Other versions
JP2016201615A (en
Inventor
武史 安冨
武史 安冨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015079110A priority Critical patent/JP6525692B2/en
Publication of JP2016201615A publication Critical patent/JP2016201615A/en
Application granted granted Critical
Publication of JP6525692B2 publication Critical patent/JP6525692B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)

Description

本発明は、画像処理装置、その制御方法、および制御プログラム、並びに撮像装置に関し、特に、日周運動で動く天体の撮影を行った結果得られた複数枚の画像を画像合成処理する画像処理装置に関する。   The present invention relates to an image processing apparatus, a control method thereof, a control program, and an imaging apparatus, and in particular, an image processing apparatus that performs image composition processing on a plurality of images obtained as a result of photographing an astronomical object moving by periodical movement. About.

一般に、天体を撮影する際には、星などの天体の光量は微量であるので、30秒又は1分などの長時間の露光を行う必要がある。そして、天体は地球の自転に合わせて日周運動をしているので、長時間の露光を行うと天体は点像にならず光跡となってしまう。このため、天体を撮影する際には、一般に日周運動で動く天体の動きに合わせて天体を追尾できるようにした天体専用の赤道儀などを用いて撮影が行われている。   In general, when photographing an astronomical object, it is necessary to perform long-time exposure such as 30 seconds or 1 minute because the amount of light of an astronomical object such as a star is very small. And, because the celestial body is performing a diurnal movement in accordance with the rotation of the earth, if it is exposed for a long time, the celestial body will not be a point image but a light trace. Therefore, when photographing celestial bodies, photography is generally performed using an equatorial telescope or the like dedicated to celestial bodies that can track celestial bodies in accordance with the movement of celestial bodies moving by circling motion.

ところが、赤道儀は、高価でしかも重く使用の際にはセッティングを行う必要があるばかりでなくその操作も難しい。よって、赤道儀を用いることなく、天体が光跡にならない程度の露光時間で複数枚の撮影を行って、画像間で生じる日周運動による天体のずれを補正して1枚の画像に合成することが行われている。これによって、天体を光跡とすることなく、長秒露光した際と同等の露光で撮像することができる。   However, the equatorial mount is expensive and heavy, and not only does it need to be set when it is used, but its operation is also difficult. Therefore, without using the equatorial mount, multiple shots are taken with an exposure time that does not cause the light object to become a light trace, and the deviation of the light object due to the circumstantial motion occurring between the images is corrected and combined into one image The thing is done. As a result, imaging can be performed with the same exposure as when exposure is performed for a long second, without using the celestial body as a light trace.

上記の画像合成手法においては、まず画像を複数のブロックに分割して、ブロックの各々について天体の動きベクトルを算出する。そして、当該動きベクトルに基づいて天体の動きを算出して画像のずれ補正を行っている。   In the above-described image synthesis method, the image is first divided into a plurality of blocks, and the motion vector of the celestial body is calculated for each of the blocks. Then, the motion of the celestial body is calculated based on the motion vector to perform image shift correction.

このような画像合成手法として、例えば、被写体の明るさに応じてトータルの露光時間を決定し、天体が光跡にならない程度の露光時間でN回分割露光を行うようにしたものがある(特許文献1参照)。そして、ここでは、画像間の動きベクトルに応じて画像のずれ補正を行って、1枚の画像を合成するようにしている。さらに、動きベクトルを算出する際、その探索範囲を焦点距離に応じて切り替えるようにしたものがある(特許文献2参照)。   As such an image synthesizing method, for example, there is a method in which the total exposure time is determined according to the brightness of the subject, and the divided exposure is performed N times in such an exposure time that the celestial body does not become a light trace. Reference 1). Then, in this case, image shift correction is performed according to the motion vector between images, and one image is synthesized. Furthermore, when calculating a motion vector, there is one in which the search range is switched according to the focal length (see Patent Document 2).

特開2003−259184号公報JP 2003-259184 A 特開平4−180487号公報Japanese Patent Application Laid-Open No. 4-180487

ところが、特許文献1および2ともに、画素数が多いと画像のずれ補正に要する時間が増加するばかりでなく処理負荷が増大し、さらに撮影に要する時間が長くなってしまう。その結果、星雲などの天体を撮影する場合には、被写体である天体が撮影範囲から出てしまって所望の画像が得られないことがある。   However, in both of the patent documents 1 and 2, when the number of pixels is large, not only the time required for the image shift correction increases, but also the processing load increases, and the time required for photographing also increases. As a result, when photographing an astronomical object such as a nebula, the astronomical object as a subject may come out of the photographing range and a desired image may not be obtained.

このような状況に対処するため、例えば、画像の所定の箇所に動きベクトルを検出するためのクロップ領域を設定することがある。しかしながら、天体撮影の場合には方角によって日周運動の方向が相違するので、画像の適切な箇所にクロップ領域を設定しないと、精度よく動きベクトルを算出することが困難となる。   In order to cope with such a situation, for example, a cropping area for detecting a motion vector may be set at a predetermined position of an image. However, in the case of astronomical radiography, since the direction of the diurnal motion is different depending on the direction, it is difficult to calculate the motion vector with high accuracy unless the cropping area is set at an appropriate part of the image.

そこで、本発明の目的は、精度が高く、かつ高速で処理が可能な位置にクロップ領域を設定して、画像のずれ補正に必要な動きベクトルを高速かつ効率的に算出することのできる画像処理装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。   Therefore, it is an object of the present invention to provide an image processing capable of calculating a motion vector necessary for image shift correction at high speed and efficiently by setting a crop area at a position where processing can be performed with high accuracy and at high speed. Abstract: An apparatus, a control method thereof, a control program, and an imaging apparatus.

上記の目的を達成するため、本発明による画像処理装置は、移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置であって、前記複数枚の画像に応じて前記被写体が移動する際の基準点を示す基準軸を求める第1の算出手段と、前記基準軸に応じて前記画像の各々に動きベクトルを検出するための検出領域を設定する設定手段と、前記検出領域において前記被写体の動きベクトルを求める第2の算出手段と、前記動きベクトルに基づいて前記複数枚の画像を合成処理して前記合成画像とする画像合成手段と、を有し、前記設定手段は、前記基準軸と前記画像の中心点とを結ぶ直線上に前記検出領域を設定することを特徴とする。 In order to achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus that combines a plurality of images obtained by photographing a moving subject into a composite image, the image processing apparatus comprising: First calculation means for obtaining a reference axis indicating a reference point when the subject moves according to an image, and setting a detection area for detecting a motion vector in each of the images according to the reference axis possess means, second calculating means for determining a motion vector of the object in the detection region, and an image synthesizing means for said synthesized image by synthesizing processing the image of the plurality on the basis of the motion vector The setting means sets the detection area on a straight line connecting the reference axis and the center point of the image .

本発明による撮像装置は、前記複数枚の画像を撮像する撮像手段と、上記の画像処理装置と、前記画像処理装置で得られた合成画像を記録する記録手段と、を有することを特徴とする。   An image pickup apparatus according to the present invention is characterized by comprising: an image pickup means for picking up the plurality of images; an image processing apparatus as described above; and a recording means for recording a composite image obtained by the image processing apparatus. .

本発明による制御方法は、移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置の制御方法であって、前記複数枚の画像に応じて前記被写体が移動する際の基準点を示す基準軸を求める第1の算出ステップと、前記基準軸に応じて前記画像の各々に動きベクトルを検出するための検出領域を設定する設定ステップと、前記検出領域において前記被写体の動きベクトルを求める第2の算出ステップと、前記動きベクトルに基づいて前記複数枚の画像を合成処理して前記合成画像とする画像合成ステップと、を有し、前記設定ステップでは、前記基準軸と前記画像の中心点とを結ぶ直線上に前記検出領域を設定することを特徴とする。 A control method according to the present invention is a control method of an image processing apparatus which combines a plurality of images obtained by photographing moving objects into a combined image, and the objects according to the plurality of images. A first calculation step of obtaining a reference axis indicating a reference point at the time of movement, a setting step of setting a detection area for detecting a motion vector in each of the images according to the reference axis, and a second calculation step of obtaining a motion vector of the object in the synthesized processed image of said plurality based on the motion vector have a, an image combining step to the composite image, in the setting step, The detection area is set on a straight line connecting the reference axis and the center point of the image .

本発明による制御プログラムは、上記の画像処理装置の各手段をコンピュータに実行させるためのコンピュータに読み取り可能な制御プログラムであるA control program according to the present invention is a computer readable control program for causing a computer to execute each means of the image processing apparatus described above .

本発明によれば、画像合成の際のずれ補正に必要な動きベクトルを高速かつ効率的に算出することができる。 According to the present invention, it is possible to calculate the motion vectors required to shift correction during images synthesized quickly and efficiently.

本発明の実施の形態による画像処理装置を備える撮像装置の一例についてその構成を示すブロック図である。It is a block diagram showing the composition about an example of an imaging device provided with an image processing device by an embodiment of the invention. 図1に示すカメラにおいて動きベクトルの算出を行う際のシステム制御部の機能を説明するための図である。It is a figure for demonstrating the function of the system control part at the time of calculating a motion vector in the camera shown in FIG. 図1に示すカメラにおいて画像合成処理の際に行われるクロップ領域設定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the crop area | region setting process performed at the time of an image synthetic | combination process in the camera shown in FIG. 図1に示すカメラにおいて行われるクロップ領域の設定の第1の例を説明するための図である。It is a figure for demonstrating the 1st example of the setting of the crop area | region performed in the camera shown in FIG. 図1に示すカメラにおいて行われるクロップ領域の設定の第2の例を説明するための図である。It is a figure for demonstrating the 2nd example of a setting of the crop area | region performed in the camera shown in FIG. 図1に示すカメラにおいて行われるクロップ領域の設定の第3の例を説明するための図である。It is a figure for demonstrating the 3rd example of a setting of the crop area | region performed in the camera shown in FIG.

以下に、本発明の実施の形態による画像処理装置の一例について図面を参照して説明する。   Hereinafter, an example of an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態による画像処理装置を備える撮像装置の一例についてその構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of an example of an imaging apparatus provided with an image processing apparatus according to an embodiment of the present invention.

図示の撮像装置100は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)であり、撮影レンズユニット(以下単に撮影レンズと呼ぶ)103を有している。撮影レンズ103の後段には、絞り機能を備える機械式シャッター101が配置されており、撮影レンズ103を介して撮像部22に光学像(被写体像)が入射する。なお、撮影レンズ103の前面側には、撮影レンズ103、シャッター101、および撮像部22を保護するためのバリア102が配置されている。   The illustrated imaging apparatus 100 is, for example, a digital camera (hereinafter simply referred to as a camera), and includes a photographing lens unit (hereinafter simply referred to as a photographing lens) 103. A mechanical shutter 101 having an aperture function is disposed downstream of the photographing lens 103, and an optical image (object image) is incident on the imaging unit 22 through the photographing lens 103. In addition, on the front side of the photographing lens 103, a barrier 102 for protecting the photographing lens 103, the shutter 101, and the imaging unit 22 is disposed.

撮像部22はCCD又はCMOSセンサーなどの撮像素子を有しており、撮像素子は光学像に応じた電気信号(アナログ信号)を出力する。そして、当該アナログ信号はA/D変換器23によってデジタル信号(画像データ)に変換される。   The imaging unit 22 includes an imaging device such as a CCD or a CMOS sensor, and the imaging device outputs an electrical signal (analog signal) corresponding to the optical image. Then, the analog signal is converted by the A / D converter 23 into a digital signal (image data).

撮像部22に備えられた撮像素子は、例えば、R(赤)、G(緑)、およびB(青)の画素が規則的に配列されたベイヤー配列を有している。なお、撮像素子の画素配列はベイヤー配列に限定されない。また、システム制御部50はタイミング発生回路(図示せず)によって撮像部22、撮影レンズ103、およびシャッター101を制御する。   The imaging element provided in the imaging unit 22 has, for example, a Bayer array in which R (red), G (green), and B (blue) pixels are regularly arranged. The pixel arrangement of the imaging device is not limited to the Bayer arrangement. Further, the system control unit 50 controls the imaging unit 22, the photographing lens 103, and the shutter 101 by a timing generation circuit (not shown).

さらに、図示のカメラでは、撮像素子のリセットタイミングを制御することによって、撮像素子における蓄積時間を制御することができる(所謂電子シャッター)。この電子シャッターは、例えば、動画撮影に用いられる。   Furthermore, in the illustrated camera, by controlling the reset timing of the imaging device, the accumulation time in the imaging device can be controlled (so-called electronic shutter). This electronic shutter is used, for example, for moving image shooting.

画像処理部24は、A/D変換器23からの画像データ或いはメモリ制御部15からの画像データに対して所定の画素補間処理およびシェーディング補正などの各種補正処理を行うとともに、ホワイトバランス処理、γ補正処理、および色変換処理などを行う。さらに、画像処理部24は画像の切り出しおよび変倍処理を行って電子ズームを行う。   The image processing unit 24 performs various correction processing such as predetermined pixel interpolation processing and shading correction on the image data from the A / D converter 23 or the image data from the memory control unit 15, and performs white balance processing, γ Perform correction processing and color conversion processing. Further, the image processing unit 24 performs image clipping and scaling processing to perform electronic zoom.

シェーディング補正の際には、画像処理部24は画像データについて撮影レンズ103の特性および撮像部22の収差などの特性に起因して生じるシェーディングを補正するため、画像における輝度レベルを補正する。画像処理部24は、シェーディング補正処理の後、画像データについて画像における白基準を白に合わせるホワイトバランス(WB)処理を行う。   At the time of shading correction, the image processing unit 24 corrects the luminance level in the image in order to correct the shading that occurs due to the characteristics of the photographing lens 103 and the characteristics such as the aberration of the imaging unit 22 for the image data. After the shading correction processing, the image processing unit 24 performs white balance (WB) processing for matching white reference in the image with white for the image data.

ここでは、シェーディング補正を行う際には、画像処理部24は、撮像素子の2次元の座標(位置)に応じて画素毎にゲインを乗算する補正を行う。また、WB処理の際には、画像処理部24は、ベイヤー配列のR、G(G1およびG2)、およびB毎に互いに異なるゲインを乗算する処理を行う。   Here, when performing the shading correction, the image processing unit 24 performs the correction of multiplying the gain for each pixel according to the two-dimensional coordinates (position) of the imaging element. In addition, in the case of the WB process, the image processing unit 24 performs a process of multiplying different gains for each of R, G (G 1 and G 2), and B in the Bayer arrangement.

画像合成部54は、複数の画像データを画像合成処理して一つの画像データを生成する。図示の例では、画像合成部54は、単純な加算合成又は加算平均合成のみではなく、合成対象の画像データの領域の各々において最も明るい又は暗い領域を選択して、これら領域を合成して1枚の画像データを生成する比較明合成処理又は比較暗合成処理を行うことができる。なお、画像合成部54を画像処理部24と一体に構成するようにしてもよい。   The image combining unit 54 performs an image combining process on a plurality of image data to generate one image data. In the illustrated example, the image combining unit 54 selects not only the simple addition combination or the addition average combination but also the brightest or darkest region in each of the regions of the image data to be combined, and combines these regions 1 It is possible to perform comparative bright combining processing or comparative dark combining processing for generating image data of a sheet. The image combining unit 54 may be integrated with the image processing unit 24.

加えて、画像処理部24は画像データについて所定の演算処理を行う。システム制御部50は画像処理部24で得られた演算結果に基づいて露光制御部および測距制御部(ともに図示せず)を制御して、TTL方式のAF処理、AE処理、およびEF処理を行う。   In addition, the image processing unit 24 performs predetermined arithmetic processing on image data. The system control unit 50 controls the exposure control unit and the distance measurement control unit (both not shown) based on the calculation result obtained by the image processing unit 24 to execute TTL AF processing, AE processing, and EF processing. Do.

メモリ制御部15は、システム制御部50の制御下でA/D変換器23、画像処理部24、およびメモリ32を制御する。そして、A/D変換器23の出力である画像データは画像処理部24およびメモリ制御部15を介して、或いは直接メモリ制御部15を介してメモリ32に書き込まれる。表示部28は、例えば、TFT LCDであり、メモリ制御部15はメモリ32に書き込まれた画像データを表示部28に画像として表示する。   The memory control unit 15 controls the A / D converter 23, the image processing unit 24, and the memory 32 under the control of the system control unit 50. Then, the image data that is the output of the A / D converter 23 is written to the memory 32 via the image processing unit 24 and the memory control unit 15 or directly via the memory control unit 15. The display unit 28 is, for example, a TFT LCD, and the memory control unit 15 displays the image data written in the memory 32 on the display unit 28 as an image.

撮像部22において所定の周期で露光および読み出しを繰り返し行って得られた画像データを画像処理部24およびメモリ制御部15を介して表示部28に表示するようにすれば、ライブビュー表示および電子ファインダーを実現することができる。表示部28は、システム制御部50の制御によってその表示をオン又はオフすることができ、表示をオフとした場合には、カメラ100の電力消費を大幅に低減することができる。   If image data obtained by repeatedly performing exposure and readout in a predetermined cycle in the imaging unit 22 is displayed on the display unit 28 via the image processing unit 24 and the memory control unit 15, live view display and an electronic finder Can be realized. The display unit 28 can turn on or off the display under the control of the system control unit 50. When the display is turned off, the power consumption of the camera 100 can be significantly reduced.

前述のように、メモリ32には撮影の結果得られた画像データ(静止画像および動画像)が格納される。そして、メモリ32は所定枚数の静止画像および所定時間の動画像を格納するための十分な記憶容量を備えている。これによって、複数枚の静止画像を連続して撮影する連写撮影又はパノラマ撮影の場合においても、高速かつ大量の画像データの書き込みをメモリ32に行うことができる。なお、メモリ32はシステム制御部50の作業領域として用いることができる。   As described above, the memory 32 stores image data (still image and moving image) obtained as a result of imaging. The memory 32 has a sufficient storage capacity for storing a predetermined number of still images and a moving image for a predetermined time. As a result, even in the case of continuous shooting or panoramic shooting in which a plurality of still images are continuously shot, writing of a large amount of image data can be performed to the memory 32 at high speed. The memory 32 can be used as a work area of the system control unit 50.

システム制御部50は、カメラ100全体の制御を司る。不揮発性メモリ56は、例えば、フラッシュROMであり、不揮発性メモリ56には制御プログラムなどが格納されており、システム制御部50は当該制御プログラムを実行して、後述の各種処理を行う。なお、不揮発性メモリ56にはシステム情報を記憶する領域およびユーザー設定情報を記憶する領域が設けられており、カメラ起動の際には、これら領域から各種情報および設定が読み出されて復元される。   The system control unit 50 controls the entire camera 100. The non-volatile memory 56 is, for example, a flash ROM, and a control program or the like is stored in the non-volatile memory 56. The system control unit 50 executes the control program to perform various processes described later. The non-volatile memory 56 is provided with an area for storing system information and an area for storing user setting information, and when the camera is activated, various information and settings are read from these areas and restored. .

システムメモリ52として、例えば、RAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、そして、不揮発性メモリ56から読み出された制御プログラムなどが展開される。また、システム制御部はメモリ32および表示部28などを制御して表示制御を行う。システムタイマー53は各種制御に用いる時間および内蔵の時計の時間を計測する計時部である。   For example, a RAM is used as the system memory 52. In the system memory 52, constants and variables for the operation of the system control unit 50, and a control program read from the non-volatile memory 56 are expanded. Further, the system control unit controls the memory 32 and the display unit 28 to perform display control. A system timer 53 is a clock unit that measures time used for various controls and time of a built-in clock.

操作部70には各種ボタンおよびタッチパネルなどが備えられている。例えば、各種ボタンとしてシャッタースイッチ(SW1およびSW2)、メニューボタン、セットボタン、マクロボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタンなどがある。さらには、各種ボタンとして、メニュー移動+(プラス)ボタン、メニュー移動−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、および日付/時間設定ボタンなどがある。   The operation unit 70 is provided with various buttons and a touch panel. For example, as various buttons, there are a shutter switch (SW1 and SW2), a menu button, a set button, a macro button, a flash setting button, a single shot / continuous shooting / self timer switching button, and the like. Furthermore, as various buttons, there are a menu movement + (plus) button, a menu movement-(minus) button, a shooting image quality selection button, an exposure correction button, a date / time setting button, and the like.

シャッターボタンの操作途中でシャッタースイッチSW1がオンとなって、システム制御部50はAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理などを開始する。シャッターボタンの操作完了でシャッタースイッチSW2がオンとなって、システム制御部50は露光処理、現像処理、圧縮・伸長処理、および記録処理などの一連の処理を開始する。   During operation of the shutter button, the shutter switch SW1 is turned on, and the system control unit 50 starts AF (auto focus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and the like. When the operation of the shutter button is completed, the shutter switch SW2 is turned on, and the system control unit 50 starts a series of processes such as an exposure process, a development process, a compression / decompression process, and a recording process.

電源部30として、例えば、アルカリ電池又はリチウム電池などの一次電池、NiCd電池、NiMH電池、又はLi電池等の二次電池が用いられ、さらに、電源部30にはACアダプターなどが備えられている。そして、電源部30は電源制御部80によって制御される。   As the power supply unit 30, for example, a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery is used, and the power supply unit 30 further includes an AC adapter and the like. . The power supply unit 30 is controlled by the power supply control unit 80.

記録媒体200は、カメラ100に対して着脱可能であり、例えば、メモリカード又はハードディスクが用いられる。記録媒体200はインタフェース(I/F)18によってカメラ100に接続される。   The recording medium 200 is removable from the camera 100, and for example, a memory card or a hard disk is used. The recording medium 200 is connected to the camera 100 by an interface (I / F) 18.

なお、システム制御部50は後述する回転軸および動きベクトルを算出する際、演算部51によって所定の演算を実行する。   When the system control unit 50 calculates a rotation axis and a motion vector, which will be described later, the operation unit 51 executes a predetermined operation.

図2は、図1に示すカメラにおいて動きベクトルの算出を行う際のシステム制御部50の機能を説明するための図である。   FIG. 2 is a diagram for explaining the function of the system control unit 50 when calculating the motion vector in the camera shown in FIG.

図示のように、システム制御部50は、機能ブロックとして動きベクトル検出部201、動きベクトル算出部202、動きベクトル補正演算部203、および回転軸算出部204を有している。動きベクトル検出部201は、画像データを受けて画像間における被写体(天体)の動きベクトルを検出する。動きベクトル算出手段202は、動きベクトル補正演算部203と協調して、動きベクトル補正演算部203で得られたベクトル補正量および動きベクトル検出部で検出された動きベクトルに応じて補正後の動きベクトルを求める。   As illustrated, the system control unit 50 includes a motion vector detection unit 201, a motion vector calculation unit 202, a motion vector correction operation unit 203, and a rotation axis calculation unit 204 as functional blocks. The motion vector detection unit 201 receives image data and detects a motion vector of a subject (celestial body) between images. The motion vector calculation unit 202 cooperates with the motion vector correction operation unit 203 to correct the motion vector after correction according to the vector correction amount obtained by the motion vector correction operation unit 203 and the motion vector detected by the motion vector detection unit. Ask for

動きベクトル補正演算部203は、動きベクトル算出部202によって得られた補正後の動きベクトルと焦点距離および絞り値と応じてベクトル補正量を求める。回転軸算出部204は動きベクトル補正演算部203によって求められたベクトル補正量に基づいて動きベクトルを補正する。そして、回転軸算出部204は、画像から抽出した複数のサーチエリア毎に得られた動きベクトルの向きおよびスカラー量に応じて、動きベクトルの向きとスカラー量がゼロとなる地点を求める。そして、回転軸算出部204は、サーチエリア毎のゼロ地点を統合して、画像の回転軸(基準点を示す基準軸)を算出する。このようにして算出された動きベクトルデータおよび回転軸データは、例えば、メモリ32に一旦格納される。   The motion vector correction operation unit 203 obtains a vector correction amount according to the corrected motion vector obtained by the motion vector calculation unit 202, the focal length, and the aperture value. The rotation axis calculation unit 204 corrects the motion vector based on the vector correction amount obtained by the motion vector correction operation unit 203. Then, the rotation axis calculation unit 204 obtains a point at which the direction of the motion vector and the scalar amount become zero according to the direction and the scalar amount of the motion vector obtained for each of a plurality of search areas extracted from the image. Then, the rotation axis calculation unit 204 integrates the zero points for each search area to calculate the rotation axis of the image (a reference axis indicating a reference point). The motion vector data and the rotation axis data thus calculated are temporarily stored in the memory 32, for example.

ここで、図1に示すカメラ100で行われる複数の画像データを合成する合成処理について説明する。   Here, a combining process for combining a plurality of image data performed by the camera 100 shown in FIG. 1 will be described.

画像合成部54は合成処理として、前述の加算合成処理、加重加算合成処理、比較明合成処理、および比較暗合成処理の4つの合成処理を行うことができる。   The image combining unit 54 can perform the four combining processes described above as the combining process, the weighted addition combining process, the comparative bright combining process, and the comparative dark combining process as the combining process.

いま、合成前の画像データの画素値をI_i(x,y)(i=1〜N,x,yは画像における座標を示す)とし、N枚(Nは2以上の整数)の画像を合成処理した後の合成画像の画素値をI(x,y)とする。なお、画素値として、ベイヤー配列のR、G1、G2、およびBの信号値を用いるようにしてもよく、R、G1、G2、およびBの信号のグループから得られる輝度信号値(輝度値)を用いるようにしてもよい。   Now, assuming that the pixel value of the image data before composition is I_i (x, y) (i = 1 to N, x and y indicate coordinates in the image), N sheets (N is an integer of 2 or more) are combined Let the pixel value of the composite image after processing be I (x, y). As pixel values, signal values of R, G1, G2, and B in Bayer arrangement may be used, and luminance signal values (luminance values) obtained from groups of R, G1, G2, and B signals. May be used.

さらに、ベイヤー配列における信号ついて、画素毎にR、G、およびBの信号が存在するように補間処理した後、画素毎に輝度値を求めるようにしてもよい。輝度値を求める際には、例えば、輝度値をYとすると、Y=0.3×R+0.59×G+0.11×BなどのR、G、およびBの信号を加重加算して算出する手法が用いられる。   Furthermore, after the interpolation processing is performed on the signals in the Bayer arrangement so that the R, G, and B signals exist for each pixel, the luminance value may be determined for each pixel. When obtaining the luminance value, for example, assuming that the luminance value is Y, a method of calculating by weighted addition of R, G, and B signals such as Y = 0.3 × R + 0.59 × G + 0.11 × B. Is used.

複数の画像データ間において必要に応じて位置合わせなどの処理を行って、互いに対応づけられた画素値について、画像合成部54は、次の式(1)によって加算合成処理を行う。   The image combining unit 54 performs an addition combining process according to the following equation (1) with respect to pixel values associated with each other by performing processing such as alignment among a plurality of pieces of image data as necessary.

I(x,y)=I_1(x,y)+I_2(x,y)+・・・+I_N(x,y) (1)
画像合成部54は画素別にN枚の画像の画素値を加算合成処理したものを合成画像データとする。
I (x, y) = I_1 (x, y) + I_2 (x, y) +... + I_N (x, y) (1)
The image combining unit 54 combines the pixel values of the N images for each pixel and combines them into composite image data.

加重加算合成処理においては、画像合成部54は、akを重み付け係数として、次の式(2)によって加重加算合計処理を行う。   In the weighted addition and combining process, the image combining unit 54 performs weighted addition and sum process according to the following equation (2), using ak as a weighting coefficient.

I(x,y)=(a1×I_1(x,y)+a2×I_2(x,y)+・・・+aN×I_N(x,y))/N (2)
画像合成部54は画素別にN枚の画像の画素値の加重加算合成処理したものを合成画像データとする。
I (x, y) = (a1 x I_1 (x, y) + a2 x I_2 (x, y) + ... + aN x I_N (x, y)) / N (2)
The image combining unit 54 uses weighted addition combining processing of pixel values of N sheets of images for each pixel as combined image data.

比較明合成処理においては、画像合成部54は、次の式(3)によって比較明合成処理を行う。   In the comparative bright combining process, the image combining unit 54 performs the comparative bright combining process according to the following equation (3).

I(x,y)=max(I_1(x,y),I_2(x,y),・・・,I_N(x,y)) (3)
画像合成部54は画素別にN枚の画像の画素値の最大値を選択して当該最大値を合成画像データとする。
I (x, y) = max (I_1 (x, y), I_2 (x, y), ..., I_N (x, y)) (3)
The image combining unit 54 selects the maximum value of the pixel values of N images for each pixel, and sets the maximum value as combined image data.

比較暗合成処理においては、画像合成部54は、次の式(4)によって比較暗合成処理を行う。   In the comparison dark synthesis process, the image synthesis unit 54 performs the comparison dark synthesis process according to the following equation (4).

I(x,y)=min(I_1(x,y),I_2(x,y),・・・,I_N(x,y)) (4)
画像合成部54は画素別にN枚の画像の画素値の最小値を選択して当該最小値を合成画像データとする。
I (x, y) = min (I_1 (x, y), I_2 (x, y), ..., I_N (x, y)) (4)
The image combining unit 54 selects the minimum value of the pixel values of N images for each pixel, and sets the minimum value as combined image data.

ここで、比較明合成処理を行う際には、次の手順で比較明合成処理が行われる。まず、ユーザーの操作に応じて、システム制御部50はインターバル撮影を開始する。そして、システム制御部50は、複数枚の画像のうち1枚目の画像を、メモリ32に設定された合成用メモリ領域に初期値としてセットする。   Here, when performing the comparative bright combining processing, the comparative bright combining processing is performed in the following procedure. First, the system control unit 50 starts interval shooting according to the user's operation. Then, the system control unit 50 sets the first image of the plurality of images in the composition memory area set in the memory 32 as an initial value.

次に、システム制御部50の制御下で、画像合成部54は2枚目の画像と合成用メモリ領域にセットされた1枚目の画像とにおいて同一の画素における輝度を比較する。そして、画像合成部54は、輝度が高い方の画素値を合成用メモリ領域に格納する。   Next, under the control of the system control unit 50, the image combining unit 54 compares the luminance at the same pixel in the second image and the first image set in the combining memory area. Then, the image combining unit 54 stores the pixel value having the higher luminance in the combining memory area.

上記の処理を、1枚目の画像と2枚目の画像の全画素について行って、画像合成部54は合成用メモリ領域に1枚目の画像と2枚目の画像との合成画像を格納する。   The above process is performed on all pixels of the first image and the second image, and the image combining unit 54 stores a combined image of the first image and the second image in the combining memory area. Do.

続いて、画像合成部54は3枚目以降の画像について、合成用メモリ領域に格納された合成画像と当該処理すべき画像(つまり、ここでは、3枚目の画像)と同一の画素について輝度を比較する。そして、輝度が高い方の画素値を合成用メモリ領域に格納する。さらに、画像合成部54は当該処理を合成画像および処理すべき画像の全画素について行う。   Subsequently, for the third and subsequent images, the image combining unit 54 performs luminance on the same pixel as the combined image stored in the combining memory area and the image to be processed (that is, the third image here). Compare Then, the pixel value having the higher luminance is stored in the synthesis memory area. Furthermore, the image combining unit 54 performs the process on all pixels of the combined image and the image to be processed.

このようにして、画像合成部54は、処理すべき画像の全てについて上述の処理を行う。つまり、画像合成部54は、次の式(5)で示す処理を行うことになる。   Thus, the image combining unit 54 performs the above-described processing on all the images to be processed. That is, the image combining unit 54 performs the process represented by the following equation (5).

I2(x,y)=max(I_1(x,y),I_2(x,y))
I3(x,y)=max(I2(x,y),I_3(x,y))
‥‥
I(x,y)=IN(x,y)=max(IN−1(x,y),I_N(x,y)) (5)
図3は、図1に示すカメラ100において画像合成処理の際に行われるクロップ領域設定処理を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、システム制御部50の制御下で行われる。
I2 (x, y) = max (I_1 (x, y), I_2 (x, y))
I3 (x, y) = max (I2 (x, y), I_3 (x, y))
....
I (x, y) = IN (x, y) = max (IN-1 (x, y), I_N (x, y)) (5)
FIG. 3 is a flowchart for explaining crop region setting processing performed in the image combining processing in the camera 100 shown in FIG. The process according to the illustrated flowchart is performed under the control of the system control unit 50.

クロップ領域設定処理を開始する際には、システム制御部50は、ユーザーの操作に応じて画像(ベクトル抽出用画像)の撮影を開始する(ステップS301)。複数枚の撮影が完了すると、システム制御部50の制御下で、画像処理部24は当該複数枚の画像を縮小処理する(ステップS302)。   When starting the crop area setting process, the system control unit 50 starts photographing of an image (vector extraction image) according to the user's operation (step S301). When photographing of a plurality of sheets is completed, the image processing unit 24 reduces the plurality of images under control of the system control unit 50 (step S302).

続いて、システム制御部50は、図2に関連して説明したようにして、縮小処理によって得られた画像について動きベクトル検出および回転軸の算出を行う(ステップS303)。画像の回転軸(基準軸)を求めた後、システム制御部50は正確な動きベクトルを求めるため、回転軸に応じてクロップ領域(検出領域)を設定する(ステップS304)。なお、クロップ領域の設定については後述する。   Subsequently, the system control unit 50 performs motion vector detection and rotation axis calculation on the image obtained by the reduction process as described with reference to FIG. 2 (step S303). After obtaining the rotation axis (reference axis) of the image, the system control unit 50 sets a crop area (detection area) according to the rotation axis in order to obtain an accurate motion vector (step S304). The setting of the cropping area will be described later.

クロップ領域は複数設定され、クロップ領域を設定した後、システム制御部50はクロップ領域において、図2で説明した動きベクトル算出部202および回転軸算出部204によって動きベクトルを算出する(ステップS305)。なお、この処理においては回転軸まで算出する必要はない。   A plurality of cropping areas are set, and after setting cropping areas, the system control unit 50 calculates motion vectors in the cropping area by the motion vector calculating unit 202 and the rotation axis calculating unit 204 described in FIG. 2 (step S305). In this process, it is not necessary to calculate up to the rotation axis.

次に、システム制御部50は所定数のクロップ領域を設定したか否かを判定する(ステップS306)。所定数のクロップ領域が設定されていないと(ステップS306において、NO)、システム制御部50はステップS304の処理に戻って、クロップ領域の設定を行う。   Next, the system control unit 50 determines whether a predetermined number of cropping areas have been set (step S306). If a predetermined number of crop areas are not set (NO in step S306), the system control unit 50 returns to the process of step S304 to set crop areas.

一方、所定数のクロップ領域を設定すると(ステップS306において、YES)、つまり、ステップS304のクロップ領域設定とステップS305の動きベクトル算出が所定数のクロップ領域について行われると、システム制御部50はクロップ領域設定処理を終了する。そして、システム制御部50はクロップ領域毎に求められた動きベクトルを統合する処理を行って、画像合成部54は統合された動きベクトルに応じて画像合成処理を行う。   On the other hand, when a predetermined number of crop areas are set (YES in step S306), that is, when the crop area setting of step S304 and the motion vector calculation of step S305 are performed for a predetermined number of crop areas, the system control unit 50 performs cropping. End the area setting process. Then, the system control unit 50 integrates the motion vectors obtained for each cropping area, and the image combining unit 54 performs an image combining process according to the integrated motion vectors.

ここで、図3で説明したクロップ領域の設定について説明する。   Here, the setting of the cropping area described in FIG. 3 will be described.

図4は、図1に示すカメラにおいて行われるクロップ領域の設定の第1の例を説明するための図である。   FIG. 4 is a diagram for explaining a first example of setting of cropping regions performed in the camera shown in FIG.

まず、前述のようにして、画像の回転軸43を求める。なお、この回転軸43は画像の領域外であってもよい。天体46は極軸と呼ばれる軸を中心として日周運動をしている。精度よく動きベクトルを抽出するためには、画像において単位時間に日周運動する天体46の移動量が大きい方が有利であり、天体46が動かないエリアにクロップ領域を設定すると正しく動きベクトルを得ることができない。   First, as described above, the rotation axis 43 of the image is obtained. The rotation shaft 43 may be outside the area of the image. The celestial body 46 is performing periodical movement about an axis called polar axis. In order to extract motion vectors with high accuracy, it is advantageous that the moving amount of the celestial body 46 moving in a unit time in the image is large, and setting the crop area in the area where the celestial body 46 does not move correctly obtains the motion vector I can not do it.

一般に、天体46を撮影する際には、例えば、所謂星雲などを撮影する星雲写真と景色などを一緒に撮影する星景写真などがある。星景写真の場合には、通常、画像の下部に風景などが入るので、当該エリアにクロップ領域を設定することは好ましくない。   In general, when photographing the celestial body 46, for example, there are a so-called nebula photograph for photographing so-called nebula and so on and a star scene photograph and so on for photographing together a landscape and the like. In the case of a star landscape photograph, it is not preferable to set a cropping area in the area, since a landscape or the like usually enters at the bottom of the image.

よって、図4に示すように、クロップ領域45を設定する際には、回転軸43を起点として、回転軸43と当該回転軸43から遠い画像の上端部とを結ぶ直線42上、又は回転軸43と画像の中心点44とを結ぶ直線41上において、画像中心点44よりも画像の上側であって、画像中心点44を基準として回転軸43が位置する側の反対側の画像にクロップ領域45を設定することが望ましい。このようにして、クロップ領域45を設定すれば、回転軸43から離れた天体46のエリアをクロップ領域45として設定することができる結果、精度の高い動きベクトルを得ることができる。   Therefore, as shown in FIG. 4, when setting the cropping area 45, the rotation axis 43 is used as a starting point, on the straight line 42 connecting the rotation axis 43 and the upper end of the image far from the rotation axis 43 or The cropping region is on the image on the upper side of the image center point 44 above the image center point 44 on the straight line 41 connecting the image center 43 and the center point 44 of the image and on the opposite side to the side where the rotation axis 43 is located It is desirable to set 45. By setting the cropping area 45 in this manner, the area of the celestial body 46 away from the rotation axis 43 can be set as the cropping area 45. As a result, a highly accurate motion vector can be obtained.

なお、回転軸43と当該回転軸43から遠い画像の上端部とを結ぶ直線42上、回転軸43と画像中心軸を結ぶ直線41上のそれぞれにクロップ領域を設定してもよいし、一方の直線上に複数のクロップ領域を設定してもよい。   Crop regions may be set on a straight line 42 connecting the rotation shaft 43 and the upper end of the image far from the rotation shaft 43 and on a straight line 41 connecting the rotation shaft 43 and the image center axis, A plurality of cropping areas may be set on a straight line.

図5は、図1に示すカメラにおいて行われるクロップ領域の設定の第2の例を説明するための図である。   FIG. 5 is a diagram for explaining a second example of setting of cropping regions performed in the camera shown in FIG.

前述のようにして、回転軸43を求めた後(ここでも、回転軸43は画像の領域外にあってもよい)、回転軸43から等距離のエリアにクロップ領域45を設定する。つまり、回転軸43を中心とする円弧上に複数のクロップ領域45を設定する。前述のように、回転軸43から離れている方が精度よく動きベクトルを検出することができるので、クロップ領域45から回転軸43までの距離は長い方が有利である。   As described above, after the rotation axis 43 is determined (again, the rotation axis 43 may be outside the area of the image), the cropping area 45 is set in an area equidistant from the rotation axis 43. That is, a plurality of cropping areas 45 are set on an arc centered on the rotation axis 43. As described above, since it is possible to detect the motion vector more accurately if it is separated from the rotation axis 43, it is advantageous that the distance from the crop area 45 to the rotation axis 43 is longer.

一方、回転軸43からの距離を最大とした場合には、画像が存在しなくなってクロップ領域45を設定することができない。このため、画像のサイズを考慮して、クロップ領域45と回転軸43との距離を設定することが望ましい。また、画像の下部には風景などが入る可能性があるので、回転軸43から等距離な曲線上において画像の上側にクロップ領域45を設定することが望ましい。   On the other hand, when the distance from the rotation axis 43 is maximized, the image does not exist and the crop area 45 can not be set. Therefore, it is desirable to set the distance between the crop area 45 and the rotation axis 43 in consideration of the size of the image. Further, since there is a possibility that a landscape or the like may enter the lower part of the image, it is desirable to set the cropping area 45 on the upper side of the image on a curve equidistant from the rotation axis 43.

ここでは、上述のように、回転軸43から延びる直線41および42上にクロップ領域45を設定する手法と、回転軸43から等距離に位置するようにクロップ領域43を設定する手法について説明した。さらに、精度よく動きベクトルを算出したい場合には、これら2つの手法を組み合わせれば、画像全体を細かいブロック単位に分けたサーチエリアについても動きベクトルを求めることができる。その結果、天体を追尾しつつ撮影する場合においては好ましい結果が得られる。   Here, as described above, the method of setting the cropping area 45 on the straight lines 41 and 42 extending from the rotation axis 43 and the method of setting the cropping area 43 so as to be equidistant from the rotation axis 43 have been described. Furthermore, when it is desired to calculate a motion vector with high accuracy, a motion vector can be obtained even for a search area in which the entire image is divided into small blocks by combining these two methods. As a result, a preferable result is obtained when shooting while tracking an astronomical object.

また、星雲写真を撮影する場合には、望遠レンズなどを用いて画角を狭めて撮影することが多い。この場合、画像から天体の日周運動における回転軸の求めることが難しいことがある。この場合には、カメラに別に搭載されたジャイロセンサー(検出手段)などによって検出された煽り角度および方位(姿勢)などの情報を組み合わせれば、正しく回転軸を求めることができる。   In addition, when photographing a nebula photograph, the angle of view is often narrowed using a telephoto lens or the like. In this case, it may be difficult to determine the rotation axis in the periodic movement of the celestial body from the image. In this case, the rotation axis can be correctly determined by combining information such as the turning angle and the orientation (attitude) detected by a gyro sensor (detection means) or the like separately mounted on the camera.

図6は、図1に示すカメラにおいて行われるクロップ領域の設定の第3の例を説明するための図である。   FIG. 6 is a diagram for describing a third example of crop region setting performed in the camera shown in FIG.

図6においては、回転軸43が画像の中心部分に近いエリアに位置している。天体46の日周運動を撮影した画像から回転軸43を求めた際、当該回転軸43が画像の領域内にある場合には、極軸が画像内に存在することになる。この場合、画像内においては、天体46は極軸を中心に回転するように動くので、極軸周辺においてはほとんど天体46の動きがなく正しく動きベクトルを求めることが難しい。   In FIG. 6, the rotation axis 43 is located in an area near the center of the image. When the rotation axis 43 is obtained from an image obtained by photographing the daily movement of the celestial body 46, if the rotation axis 43 is in the area of the image, a polar axis is present in the image. In this case, in the image, the celestial body 46 moves so as to rotate around the polar axis, so there is almost no movement of the celestial body 46 around the polar axis, and it is difficult to obtain a correct motion vector.

よって、回転軸43が画像中心部における所定のエリアに存在する場合、回転軸43から水平方向および垂直方向に延びる直線61および62上にクロップ領域45を設定する。なお、回転軸43から画像の上端に延びる直線上にクロップ領域を設定するようにしてもよい。より精度を高めるためには、回転軸43から水平方向および垂直方向に延びる直線と回転軸43から画像端に延びる直線とを組み合わせてクロップ領域を設定することが望ましい。   Therefore, when the rotation axis 43 exists in a predetermined area in the center of the image, the crop area 45 is set on the straight lines 61 and 62 extending from the rotation axis 43 in the horizontal direction and the vertical direction. The cropping area may be set on a straight line extending from the rotating shaft 43 to the upper end of the image. In order to further improve the accuracy, it is desirable to set a cropping area by combining a straight line extending horizontally and vertically from the rotation axis 43 with a straight line extending from the rotation axis 43 to the image end.

このように、本発明では、天体などの移動体を撮影した複数枚の画像を合成する際に、天体の日周運動の回転軸に基づいて、画像にクロップ領域を設定して、当該クロップ領域において天体の動きベクトルを求める。これによって、画像合成の際のずれ補正に必要な動きベクトルを高速かつ効率的に算出することができる。   As described above, according to the present invention, when combining a plurality of images obtained by photographing a moving object such as an astronomical object, a cropping region is set in the image based on the rotation axis of the circling motion of the celestial object, and the cropping region Find the motion vector of the celestial body at. By this, it is possible to calculate the motion vector necessary for the shift correction at the time of image composition at high speed and efficiently.

上述の説明から明らかなように、図1に示す例では、画像処理部24およびシステム制御部50が第1の算出手段、設定手段、および第2の算出手段として機能する。また、システム制御部50および画像合成部54は画像合成手段として機能する。なお、撮影レンズ103、シャッター102、撮像部22、およびA/D変換部23によって撮像手段が構成される。   As apparent from the above description, in the example shown in FIG. 1, the image processing unit 24 and the system control unit 50 function as a first calculating unit, a setting unit, and a second calculating unit. Further, the system control unit 50 and the image combining unit 54 function as an image combining unit. The imaging lens 103, the shutter 102, the imaging unit 22, and the A / D conversion unit 23 constitute an imaging unit.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, The various form of the range which does not deviate from the summary of this invention is also included in this invention .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像処理装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the control method may be executed by the image processing apparatus as the control method of the above-described embodiment. Further, a program having the functions of the above-described embodiments may be used as a control program to cause a computer provided with the image processing apparatus to execute the control program. The control program is recorded, for example, on a computer readable recording medium.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Embodiments
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

15 メモリ制御部
22 撮像部
24 画像処理部
28 表示部
32 メモリ
50 システム制御部
51 演算部
54 画像合成部
70 操作部
103 撮影レンズ
Reference Signs List 15 memory control unit 22 imaging unit 24 image processing unit 28 display unit 32 memory 50 system control unit 51 calculation unit 54 image combining unit 70 operation unit 103 photographing lens

Claims (14)

移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置であって、
前記複数枚の画像に応じて前記被写体が移動する際の基準点を示す基準軸を求める第1の算出手段と、
前記基準軸に応じて前記画像の各々に動きベクトルを検出するための検出領域を設定する設定手段と、
前記検出領域において前記被写体の動きベクトルを求める第2の算出手段と、
前記動きベクトルに基づいて前記複数枚の画像を合成処理して前記合成画像とする画像合成手段と、
を有し、
前記設定手段は、前記基準軸と前記画像の中心点とを結ぶ直線上に前記検出領域を設定することを特徴とする画像処理装置。
An image processing apparatus that combines a plurality of images obtained by photographing a moving subject into a combined image,
First calculation means for obtaining a reference axis indicating a reference point when the subject moves according to the plurality of images;
Setting means for setting a detection area for detecting a motion vector in each of the images according to the reference axis;
Second calculating means for determining a motion vector of the subject in the detection area;
Image combining means for combining the plurality of images based on the motion vector to obtain the combined image;
I have a,
The image processing apparatus , wherein the setting unit sets the detection area on a straight line connecting the reference axis and a center point of the image.
移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置であって、
前記複数枚の画像に応じて前記被写体が移動する際の基準点を示す基準軸を求める第1の算出手段と、
前記基準軸に応じて前記画像の各々に動きベクトルを検出するための検出領域を設定する設定手段と、
前記検出領域において前記被写体の動きベクトルを求める第2の算出手段と、
前記動きベクトルに基づいて前記複数枚の画像を合成処理して前記合成画像とする画像合成手段と、
を有し、
前記設定手段は前記基準軸と前記画像の隅とを結ぶ直線上に前記検出領域を設定することを特徴とする画像処理装置。
An image processing apparatus that combines a plurality of images obtained by photographing a moving subject into a combined image,
First calculation means for obtaining a reference axis indicating a reference point when the subject moves according to the plurality of images;
Setting means for setting a detection area for detecting a motion vector in each of the images according to the reference axis;
Second calculating means for determining a motion vector of the subject in the detection area;
Image combining means for combining the plurality of images based on the motion vector to obtain the combined image;
Have
The setting means images processor you and sets the detection area on the straight line connecting the corner of the image and the reference axis.
移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置であって、
前記複数枚の画像に応じて前記被写体が移動する際の基準点を示す基準軸を求める第1の算出手段と、
前記基準軸に応じて前記画像の各々に動きベクトルを検出するための検出領域を設定する設定手段と、
前記検出領域において前記被写体の動きベクトルを求める第2の算出手段と、
前記動きベクトルに基づいて前記複数枚の画像を合成処理して前記合成画像とする画像合成手段と、
を有し、
前記設定手段は、前記画像の中心点を基準として前記基準軸が位置する側の反対側に、前記検出領域を設定することを特徴とする画像処理装置。
An image processing apparatus that combines a plurality of images obtained by photographing a moving subject into a combined image,
First calculation means for obtaining a reference axis indicating a reference point when the subject moves according to the plurality of images;
Setting means for setting a detection area for detecting a motion vector in each of the images according to the reference axis;
Second calculating means for determining a motion vector of the subject in the detection area;
Image combining means for combining the plurality of images based on the motion vector to obtain the combined image;
Have
The setting means, the side opposite to the side where the reference axis is located the center point of the image as a reference, the detection area images processor you and sets a.
移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置であって、
前記複数枚の画像に応じて前記被写体が移動する際の基準点を示す基準軸を求める第1の算出手段と、
前記基準軸に応じて前記画像の各々に動きベクトルを検出するための検出領域を設定する設定手段と、
前記検出領域において前記被写体の動きベクトルを求める第2の算出手段と、
前記動きベクトルに基づいて前記複数枚の画像を合成処理して前記合成画像とする画像合成手段と、
を有し、
前記設定手段は、前記基準軸を中心とする円弧上に前記検出領域を設定することを特徴とする画像処理装置。
An image processing apparatus that combines a plurality of images obtained by photographing a moving subject into a combined image,
First calculation means for obtaining a reference axis indicating a reference point when the subject moves according to the plurality of images;
Setting means for setting a detection area for detecting a motion vector in each of the images according to the reference axis;
Second calculating means for determining a motion vector of the subject in the detection area;
Image combining means for combining the plurality of images based on the motion vector to obtain the combined image;
Have
The setting means, the reference axis images processor you and sets the detection area on an arc around the.
移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置であって、
前記複数枚の画像に応じて前記被写体が移動する際の基準点を示す基準軸を求める第1の算出手段と、
前記基準軸に応じて前記画像の各々に動きベクトルを検出するための検出領域を設定する設定手段と、
前記検出領域において前記被写体の動きベクトルを求める第2の算出手段と、
前記動きベクトルに基づいて前記複数枚の画像を合成処理して前記合成画像とする画像合成手段と、
を有し、
前記設定手段は、前記基準軸を起点として前記画像において水平方向又は垂直方向に延びる直線上に前記検出領域を設定することを特徴とする画像処理装置。
An image processing apparatus that combines a plurality of images obtained by photographing a moving subject into a combined image,
First calculation means for obtaining a reference axis indicating a reference point when the subject moves according to the plurality of images;
Setting means for setting a detection area for detecting a motion vector in each of the images according to the reference axis;
Second calculating means for determining a motion vector of the subject in the detection area;
Image combining means for combining the plurality of images based on the motion vector to obtain the combined image;
Have
The setting means, the reference axis images processor you characterized in that the horizontal direction towards or to set the detection area on a straight line extending in the vertical direction in the image as a starting point.
前記被写体は天体であり、前記基準軸は前記天体の日周運動における回転軸であることを特徴とする請求項1からのいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5 , wherein the subject is a celestial body, and the reference axis is a rotation axis in a periodic motion of the celestial body. 前記複数枚の画像を撮像する撮像手段と、
請求項1からのいずれか1項に記載の画像処理装置と、
前記画像処理装置で得られた合成画像を記録する記録手段と、
を有することを特徴とする撮像装置。
An imaging unit configured to capture the plurality of images;
An image processing apparatus according to any one of claims 1 to 6 .
Recording means for recording a composite image obtained by the image processing apparatus;
An imaging apparatus characterized by having:
前記撮像装置の姿勢を検出する検出手段を備え、
前記設定手段は前記検出手段で検出された姿勢に応じて前記検出領域の設定を行うことを特徴とする請求項に記載の撮像装置。
A detection unit configured to detect an attitude of the imaging device;
8. The image pickup apparatus according to claim 7 , wherein the setting unit sets the detection area in accordance with the posture detected by the detection unit.
移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置の制御方法であって、
前記複数枚の画像に応じて前記被写体が移動する際の基準点を示す基準軸を求める第1の算出ステップと、
前記基準軸に応じて前記画像の各々に動きベクトルを検出するための検出領域を設定する設定ステップと、
前記検出領域において前記被写体の動きベクトルを求める第2の算出ステップと、
前記動きベクトルに基づいて前記複数枚の画像を合成処理して前記合成画像とする画像合成ステップと、
を有し、
前記設定ステップでは、前記基準軸と前記画像の中心点とを結ぶ直線上に前記検出領域を設定することを特徴とする制御方法。
A control method of an image processing apparatus which combines a plurality of images obtained by photographing a moving subject and combines them into a composite image.
A first calculation step of determining a reference axis indicating a reference point when the subject moves according to the plurality of images;
Setting a detection area for detecting a motion vector in each of the images according to the reference axis;
A second calculation step of determining a motion vector of the subject in the detection area;
An image combining step of combining the plurality of images based on the motion vector to obtain the combined image;
I have a,
In the setting step, the detection area is set on a straight line connecting the reference axis and the center point of the image .
移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置の制御方法であって、A control method of an image processing apparatus which combines a plurality of images obtained by photographing a moving subject and combines them into a composite image.
前記複数枚の画像に応じて前記被写体が移動する際の基準点を示す基準軸を求める第1の算出ステップと、A first calculation step of determining a reference axis indicating a reference point when the subject moves according to the plurality of images;
前記基準軸に応じて前記画像の各々に動きベクトルを検出するための検出領域を設定する設定ステップと、Setting a detection area for detecting a motion vector in each of the images according to the reference axis;
前記検出領域において前記被写体の動きベクトルを求める第2の算出ステップと、A second calculation step of determining a motion vector of the subject in the detection area;
前記動きベクトルに基づいて前記複数枚の画像を合成処理して前記合成画像とする画像合成ステップと、  An image combining step of combining the plurality of images based on the motion vector to obtain the combined image;
を有し、Have
前記設定ステップでは、前記基準軸と前記画像の隅とを結ぶ直線上に前記検出領域を設定することを特徴とする制御方法。In the setting step, the detection area is set on a straight line connecting the reference axis and a corner of the image.
移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置の制御方法であって、A control method of an image processing apparatus which combines a plurality of images obtained by photographing a moving subject and combines them into a composite image.
前記複数枚の画像に応じて前記被写体が移動する際の基準点を示す基準軸を求める第1の算出ステップと、A first calculation step of determining a reference axis indicating a reference point when the subject moves according to the plurality of images;
前記基準軸に応じて前記画像の各々に動きベクトルを検出するための検出領域を設定する設定ステップと、Setting a detection area for detecting a motion vector in each of the images according to the reference axis;
前記検出領域において前記被写体の動きベクトルを求める第2の算出ステップと、A second calculation step of determining a motion vector of the subject in the detection area;
前記動きベクトルに基づいて前記複数枚の画像を合成処理して前記合成画像とする画像合成ステップと、  An image combining step of combining the plurality of images based on the motion vector to obtain the combined image;
を有し、Have
前記設定ステップでは、前記画像の中心点を基準として前記基準軸が位置する側の反対側に、前記検出領域を設定することを特徴とする制御方法。In the setting step, the detection area is set on the opposite side to the side where the reference axis is located with reference to the center point of the image.
移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置の制御方法であって、A control method of an image processing apparatus which combines a plurality of images obtained by photographing a moving subject and combines them into a composite image.
前記複数枚の画像に応じて前記被写体が移動する際の基準点を示す基準軸を求める第1の算出ステップと、A first calculation step of determining a reference axis indicating a reference point when the subject moves according to the plurality of images;
前記基準軸に応じて前記画像の各々に動きベクトルを検出するための検出領域を設定する設定ステップと、Setting a detection area for detecting a motion vector in each of the images according to the reference axis;
前記検出領域において前記被写体の動きベクトルを求める第2の算出ステップと、A second calculation step of determining a motion vector of the subject in the detection area;
前記動きベクトルに基づいて前記複数枚の画像を合成処理して前記合成画像とする画像合成ステップと、  An image combining step of combining the plurality of images based on the motion vector to obtain the combined image;
を有し、Have
前記設定ステップでは、前記基準軸を中心とする円弧上に前記検出領域を設定することを特徴とする制御方法。In the setting step, the detection area is set on an arc centered on the reference axis.
移動する被写体を撮影して得られた複数枚の画像を合成処理して合成画像とする画像処理装置の制御方法であって、A control method of an image processing apparatus which combines a plurality of images obtained by photographing a moving subject and combines them into a composite image.
前記複数枚の画像に応じて前記被写体が移動する際の基準点を示す基準軸を求める第1の算出ステップと、A first calculation step of determining a reference axis indicating a reference point when the subject moves according to the plurality of images;
前記基準軸に応じて前記画像の各々に動きベクトルを検出するための検出領域を設定する設定ステップと、Setting a detection area for detecting a motion vector in each of the images according to the reference axis;
前記検出領域において前記被写体の動きベクトルを求める第2の算出ステップと、A second calculation step of determining a motion vector of the subject in the detection area;
前記動きベクトルに基づいて前記複数枚の画像を合成処理して前記合成画像とする画像合成ステップと、  An image combining step of combining the plurality of images based on the motion vector to obtain the combined image;
を有し、Have
前記設定ステップでは、前記基準軸を起点として前記画像において水平方向又は垂直方向に延びる直線上に前記検出領域を設定することを特徴とする制御方法。In the setting step, the detection area is set on a straight line extending in a horizontal direction or a vertical direction in the image with the reference axis as a starting point.
請求項1から6のいずれか1項に記載の画像処理装置の各手段をコンピュータに実行させるためのコンピュータに読み取り可能な制御プログラム。 A computer readable control program for causing a computer to execute each means of the image processing apparatus according to any one of claims 1 to 6 .
JP2015079110A 2015-04-08 2015-04-08 Image processing apparatus, control method therefor, control program, and imaging apparatus Active JP6525692B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015079110A JP6525692B2 (en) 2015-04-08 2015-04-08 Image processing apparatus, control method therefor, control program, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015079110A JP6525692B2 (en) 2015-04-08 2015-04-08 Image processing apparatus, control method therefor, control program, and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2016201615A JP2016201615A (en) 2016-12-01
JP6525692B2 true JP6525692B2 (en) 2019-06-05

Family

ID=57424618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015079110A Active JP6525692B2 (en) 2015-04-08 2015-04-08 Image processing apparatus, control method therefor, control program, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP6525692B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005348212A (en) * 2004-06-04 2005-12-15 Casio Comput Co Ltd Imaging apparatus
JP2006287375A (en) * 2005-03-31 2006-10-19 Casio Comput Co Ltd Photographic apparatus, and program
JP5678911B2 (en) * 2012-03-12 2015-03-04 カシオ計算機株式会社 Image composition apparatus, image composition method, and program
JP6053422B2 (en) * 2012-09-24 2016-12-27 キヤノン株式会社 Imaging apparatus and imaging method

Also Published As

Publication number Publication date
JP2016201615A (en) 2016-12-01

Similar Documents

Publication Publication Date Title
US9473698B2 (en) Imaging device and imaging method
JP6512810B2 (en) Image pickup apparatus, control method and program
KR100840856B1 (en) Image processing apparatus, image processing method, recording medium for recording image processing program, and image pickup apparatus
JP6418879B2 (en) Image processing apparatus, control method thereof, control program, and imaging apparatus
JP2009225072A (en) Imaging apparatus
JP5729237B2 (en) Image processing apparatus, image processing method, and program
JP2009124340A (en) Imaging apparatus, photographing support method, and photographing support program
JP7049163B2 (en) Electronic devices and their control methods, programs and storage media
JP6833801B2 (en) Imaging equipment, imaging methods, programs and recording media
JP6564284B2 (en) Image processing apparatus and image processing method
JP2010136058A (en) Electronic camera and image processing program
JP2014068081A (en) Imaging apparatus and control method of the same, program and storage medium
CN110505394B (en) Image processing apparatus, image processing method, image pickup apparatus, and storage medium
JP2018006828A (en) Imaging apparatus, control method therefor and program
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP6525692B2 (en) Image processing apparatus, control method therefor, control program, and imaging apparatus
JP6584259B2 (en) Image blur correction apparatus, imaging apparatus, and control method
JP7030565B2 (en) Image processing equipment, image processing methods and programs
JP6590899B2 (en) Imaging apparatus, imaging method, and program
JP5743729B2 (en) Image synthesizer
JP2017011657A (en) Imaging device
JP2019205100A (en) Imaging apparatus, imaging method, and program
JP2019186831A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2019121981A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R151 Written notification of patent or utility model registration

Ref document number: 6525692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151