JP2021047608A - Image processing device, imaging device, image processing method, and program - Google Patents

Image processing device, imaging device, image processing method, and program Download PDF

Info

Publication number
JP2021047608A
JP2021047608A JP2019169447A JP2019169447A JP2021047608A JP 2021047608 A JP2021047608 A JP 2021047608A JP 2019169447 A JP2019169447 A JP 2019169447A JP 2019169447 A JP2019169447 A JP 2019169447A JP 2021047608 A JP2021047608 A JP 2021047608A
Authority
JP
Japan
Prior art keywords
image
difference
image processing
images
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019169447A
Other languages
Japanese (ja)
Inventor
佳絵 伊藤
Yoshie Ito
佳絵 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019169447A priority Critical patent/JP2021047608A/en
Publication of JP2021047608A publication Critical patent/JP2021047608A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image processing device capable of appropriately performing alignment between images when synthesizing a plurality of images.SOLUTION: An image processing device includes: a reference image serving as a position reference of image synthesis; an object image having an object to be included in a composite image obtained by the image synthesis; an image processing part which generates a difference image by selecting the reference image to be compared with the object image from a plurality of images and aligning the reference image and the object image to extract a difference; and an image composition part which generates the composite image by aligning the difference image with the reference image and combining them.SELECTED DRAWING: Figure 4

Description

本発明は、複数の画像を合成して合成画像を取得する画像処理装置、撮像装置、画像処理方法、およびプログラムに関する。 The present invention relates to an image processing device, an imaging device, an image processing method, and a program for synthesizing a plurality of images to obtain a composite image.

恒星、惑星、星雲、銀河等の天体や、流星、日食、月食等の天文現象を被写体として撮影する天体撮影が広く行われている。多数の流星が集中的に発生する現象である流星群を撮影する場合、撮影した画像において、流星以外の天体が軌跡を描かないこと、より多くの流星が収められること、および恒星に対する流星の相対位置が正確であることが重要である。また、天球上の点である流星群の放射点から各流星が放射状に出射している様子が撮影画像に収められることも重要である。 Astronomical photography is widely used to photograph celestial bodies such as stars, planets, nebulae, and galaxies, and astronomical phenomena such as meteors, solar eclipses, and lunar eclipses. When shooting a meteor shower, which is a phenomenon in which a large number of meteors occur intensively, in the captured image, celestial bodies other than the meteor do not draw a trajectory, more meteors are contained, and the relative of the meteor to the star. It is important that the position is accurate. It is also important that the captured image captures how each meteor radiates from the radiant point of the meteor shower, which is a point on the celestial sphere.

天体撮影では被写体の光量が極僅かであることが多いので、1枚の画像を取得するのに比較的長時間(例えば、30秒、1分等)に亘る露光が実行される場合が多い。地球は自転しているので、地球上から見た天球上の恒星は日周運動という見かけの運動を行っているように見える。したがって、天体撮影において撮像装置を固定して長時間の露光を実行すると、撮影画像において恒星は点像とならずに円弧状(略直線状)の軌跡を描く。 In astronomical photography, the amount of light of the subject is often very small, so exposure for a relatively long time (for example, 30 seconds, 1 minute, etc.) is often performed to acquire one image. Since the earth is rotating, the stars on the celestial sphere seen from the earth appear to be in the apparent motion of diurnal motion. Therefore, when the imaging device is fixed and exposure is performed for a long time in astronomical photography, the star draws an arc-shaped (substantially straight line) trajectory in the photographed image instead of forming a point image.

そのため、天体撮影においては、日周運動によって移動する恒星を追尾するように撮像装置を赤経方向に移動させる赤道儀を利用して、恒星像を点像として取得することが行われている。しかしながら、赤道儀は、一般的に高価かつ高重量である上、極軸を天の極(北極または南極)に向ける極軸合わせ等のセッティングが必要であるので、ユーザによっては利用が困難である。そこで、恒星が軌跡を描かない程度の短時間の露光を繰り返して複数枚画像を取得し、取得された複数の画像間に生じている日周運動による星像のずれを補正して合成し、1枚の合成画像を取得すると好適である。 Therefore, in astronomical photography, a star image is acquired as a point image by using an equatorial mount that moves the image pickup device in the right ascension direction so as to track a star moving by diurnal motion. However, equatorial mounts are generally expensive and heavy, and it is difficult for some users to use them because they require polar alignment and other settings to orient the polar axis toward the celestial pole (north pole or south pole). .. Therefore, a plurality of images are acquired by repeating a short exposure so that the star does not draw a locus, and the deviation of the star image due to the diurnal motion occurring between the acquired images is corrected and combined. It is preferable to acquire one composite image.

特許文献1は、天体以外の一般的な被写体(自動車等)の撮影に関して、被写体の存在しない背景画像に対して被写体が存在する対象画像を位置合わせしてから差分を抽出し、抽出された差分を背景画像に合成する技術を開示している。 Patent Document 1 describes the extracted difference by aligning the target image in which the subject exists with respect to the background image in which the subject does not exist and then extracting the difference in photographing a general subject (automobile or the like) other than the celestial body. Discloses a technique for synthesizing a background image.

特開2011−72035号公報Japanese Unexamined Patent Publication No. 2011-72035

一般的な被写体に関する特許文献1の技術においては複数枚の撮影に亘って背景自体が移動しないので、背景と被写体(撮影対象物)との関係に基づいて位置合わせをして画像を合成すれば十分である。しかしながら、天体撮影においては背景とすべき恒星像自体が日周運動によって移動するので、背景および被写体のみを考慮した特許文献1の位置合わせ技術を単に適用することは適当でないと考えられる。 In the technique of Patent Document 1 relating to a general subject, the background itself does not move over a plurality of shots, so if the images are combined by aligning based on the relationship between the background and the subject (shooting object). It is enough. However, in astronomical photography, the stellar image itself, which should be the background, moves due to diurnal motion, so it is considered inappropriate to simply apply the alignment technique of Patent Document 1 in consideration of only the background and the subject.

例えば、上記したように、背景である恒星像が日周運動によって移動するので、背景が固定されている場合と比較して、流星等の撮影対象物を含む画像を背景に対して位置合わせをすることが難しい。また、恒星像は光点の集合であって一般的な画像と比較して複雑性が低いので、単なる画像比較を用いても高精度に位置合わせをすることが困難である。 For example, as described above, since the stellar image as the background moves due to diurnal motion, the image including the object to be photographed such as a meteor is aligned with the background as compared with the case where the background is fixed. Difficult to do. Further, since the stellar image is a set of light spots and is less complicated than a general image, it is difficult to align with high accuracy even by using a simple image comparison.

以上の事情に鑑み、本発明は、複数の画像を合成するに際して適切に画像間の位置合わせを実行可能な画像処理装置、撮像装置、画像処理方法、およびプログラムを提供することを目的とする。 In view of the above circumstances, it is an object of the present invention to provide an image processing device, an imaging device, an image processing method, and a program capable of appropriately aligning images when synthesizing a plurality of images.

上記目的を達成するために、本発明の画像処理装置は、画像合成の位置基準となる基準画像と、画像合成で得られる合成画像に含まれるべき対象物を有する対象画像と、対象画像と比較される参照画像とを複数の画像から選択し、参照画像と対象画像とを位置合わせして差分を抽出することで差分画像を生成する画像処理部と、差分画像を基準画像に対して位置合わせして合成することで合成画像を生成する画像合成部と、を備えることを特徴とする。 In order to achieve the above object, the image processing apparatus of the present invention compares a reference image that serves as a position reference for image composition, a target image having an object to be included in the composite image obtained by image composition, and the target image. An image processing unit that generates a difference image by selecting the reference image to be used from a plurality of images, aligning the reference image and the target image and extracting the difference, and aligning the difference image with respect to the reference image. It is characterized by including an image compositing unit that generates a compositing image by compositing the images.

本発明によれば、複数の画像を合成するに際して適切に画像間の位置合わせを実行することができる。 According to the present invention, it is possible to appropriately perform alignment between images when synthesizing a plurality of images.

本発明の第1実施形態に係る画像処理装置の一例であるデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera which is an example of the image processing apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態における動きベクトルの取得処理の一例についての説明図である。It is explanatory drawing about an example of the motion vector acquisition processing in 1st Embodiment of this invention. 本発明の第1実施形態における動きベクトルの取得処理の別の例についての説明図である。It is explanatory drawing about another example of the motion vector acquisition processing in 1st Embodiment of this invention. 本発明の第1実施形態における合成処理を示すフローチャートである。It is a flowchart which shows the synthesis process in 1st Embodiment of this invention. 本発明の第1実施形態における合成処理に関する複数の画像の関係を示す説明図である。It is explanatory drawing which shows the relationship of a plurality of images concerning the synthesis process in 1st Embodiment of this invention.

以下、本発明の実施形態について添付図面を参照しながら詳細に説明する。以下に説明される各実施形態は、本発明を実現可能な構成の一例に過ぎない。以下の各実施形態は、本発明が適用される装置の構成や各種の条件に応じて適宜に修正または変更することが可能である。また、以下の各実施形態に含まれる要素の組合せの全てが本発明を実現するのに必須であるとは限られず、要素の一部を適宜に省略することが可能である。したがって、本発明の範囲は、以下の各実施形態に記載される構成によって限定されるものではない。また、相互に矛盾のない限りにおいて実施形態内に記載された複数の構成を組み合わせた構成も採用可能である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Each embodiment described below is merely an example of a configuration in which the present invention can be realized. Each of the following embodiments can be appropriately modified or modified according to the configuration of the apparatus to which the present invention is applied and various conditions. In addition, not all combinations of elements included in the following embodiments are essential for realizing the present invention, and some of the elements can be omitted as appropriate. Therefore, the scope of the present invention is not limited by the configurations described in each of the following embodiments. Further, as long as there is no mutual contradiction, a configuration in which a plurality of configurations described in the embodiment are combined can also be adopted.

<第1実施形態>
図1は、本発明の第1実施形態に係る画像処理装置の一例であるデジタルカメラ100の構成を示すブロック図である。デジタルカメラ100は、点線内に図示される以下の各要素を有する撮像装置である。概略的には、本実施形態のデジタルカメラ100は、複数の画像に対して位置合わせおよび合成処理を実行して1枚の合成画像を取得する。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a digital camera 100 which is an example of an image processing device according to the first embodiment of the present invention. The digital camera 100 is an imaging device having the following elements shown in the dotted line. Generally, the digital camera 100 of the present embodiment performs alignment and composition processing on a plurality of images to acquire one composite image.

撮影レンズ103は、被写体の撮影に供されるレンズ群であって、フォーカスレンズ、ズームレンズ等のレンズを含む。シャッター101は、絞り機構を有する機械式シャッターである。撮像部22は、撮影レンズ103を通過して結像した光学像を光電変換によって電気信号に変換して出力する撮像素子を有する。A/D変換部23は、撮像部22から出力されたアナログ信号をデジタル信号(画像データ)に変換して出力する変換回路である。バリア102は、撮影レンズ103および撮像部22を覆う事によって汚れや破損を防止するバリアである。 The photographing lens 103 is a lens group used for photographing a subject, and includes a lens such as a focus lens and a zoom lens. The shutter 101 is a mechanical shutter having an aperture mechanism. The image pickup unit 22 has an image pickup element that converts an optical image formed through the photographing lens 103 into an electric signal by photoelectric conversion and outputs the image sensor. The A / D conversion unit 23 is a conversion circuit that converts an analog signal output from the imaging unit 22 into a digital signal (image data) and outputs the digital signal (image data). The barrier 102 is a barrier that prevents stains and damage by covering the photographing lens 103 and the imaging unit 22.

上記した撮像素子は、ベイヤー配列に従って規則的に配置された赤(R)、緑(G1,G2)、および青(B)のカラーフィルタを有する。ベイヤー配列以外のフィルタ配置に従う撮像素子が採用されてもよい。デジタルカメラ100は、以上のシャッター101に代えてまたは加えて、撮像素子のリセットタイミングを制御することで実現される電子シャッターを有していてもよい。 The image sensor described above has red (R), green (G1, G2), and blue (B) color filters that are regularly arranged according to the Bayer arrangement. An image sensor that follows a filter arrangement other than the Bayer arrangement may be adopted. The digital camera 100 may have an electronic shutter realized by controlling the reset timing of the image pickup device in place of or in addition to the above shutter 101.

画像処理部24は、例えば、画像処理エンジン等の集積回路であって、A/D変換部23やメモリ制御部15から供給された画像に対して以下に例示するような種々の画像処理を実行し、画像処理後の画像を出力する。 The image processing unit 24 is, for example, an integrated circuit such as an image processing engine, and executes various image processing as illustrated below on the images supplied from the A / D conversion unit 23 and the memory control unit 15. Then, the image after image processing is output.

−画像データに対する画素補間処理
−シェーディング補正を含む各種の補正処理。本実施形態のシェーディング補正では、撮像素子の2次元座標に応じて画素毎にゲインを掛けることで、撮影レンズ103の特性や撮像部22の収差等に起因するシェーディングが補正されるように画像データの輝度レベルが調整される。
-Pixel interpolation processing for image data-Various correction processing including shading correction. In the shading correction of the present embodiment, the image data is corrected so that the shading caused by the characteristics of the photographing lens 103, the aberration of the imaging unit 22, etc. is corrected by applying a gain for each pixel according to the two-dimensional coordinates of the image sensor. Brightness level is adjusted.

−ホワイトバランス(WB)処理。本実施形態のオートホワイトバランス処理では、ベイヤー配列状のカラーフィルタ(R,G1,G2,B)に対応する画像データにそれぞれ異なるゲインを掛けることで、画像データ内の基準部分(最大輝度の部分)が所定色(白)になるように補正される。以上のオートホワイトバランス処理(AWB処理)は、シェーディング補正が施された画像データに対して実行される。 -White balance (WB) processing. In the auto white balance processing of the present embodiment, different gains are applied to the image data corresponding to the Bayer array color filters (R, G1, G2, B), so that the reference portion (maximum brightness portion) in the image data is applied. ) Is corrected so that it becomes a predetermined color (white). The above auto white balance processing (AWB processing) is executed on the image data to which shading correction has been applied.

−γ補正処理、色変換処理
−画像データの切出しおよび変倍処理による電子ズーム処理
−現像処理(RAWデータに対するYUV色空間への変換処理および所定の画像フォーマット(JPEGフォーマット等)へのエンコード処理)
−画像フォーマットからのデコード処理
−差分算出処理(2枚の画像から各画素における輝度値等の色情報の差分を算出する処理)
−マスク処理、ローパスフィルタ処理
−閾値処理(設定された所定閾値以下の値を有する画像データの色情報を画素ごとに切り捨てる処理)
−動きベクトル取得処理(複数枚の画像データから動きベクトルを算出する処理。後に詳述される)
-Γ correction processing, color conversion processing-Electronic zoom processing by cropping and scaling of image data-Development processing (conversion processing of RAW data to YUV color space and encoding processing to a predetermined image format (JPEG format, etc.))
-Decoding process from image format-Difference calculation process (process to calculate the difference of color information such as brightness value in each pixel from two images)
-Mask processing, low-pass filter processing-Threshold processing (processing to truncate the color information of image data having a value equal to or less than the set predetermined threshold value for each pixel)
-Motion vector acquisition process (process to calculate motion vector from multiple image data. Details will be described later)

画像合成部54は、複数の画像データを合成する合成処理を実行する合成処理回路であって、画像処理部24と別個に設けられてもよいし、画像処理部24が画像合成部54を物理的または機能的に有してもよい。画像合成部54は、単純な加算合成および加算平均合成に加えて比較明合成処理を実行することができる。比較明合成処理とは、合成対象の複数の画像データを比較して、最も明るい値を有する箇所(画素または領域)を選択して合成することによって、1枚の画像データを生成する処理である。また、画像合成部54は、画像処理部24にて生成されたマスク画像や色情報の差分を有する領域等の付加情報を基準となる画像に埋め込む埋込合成処理を実行することができる。加えて、画像合成部54は、複数の画像データを合成する際に、画像処理部24から供給される動きベクトル情報に基づき位置合わせを行ってから合成処理を実行することができる。 The image composition unit 54 is a composition processing circuit that executes a composition process for synthesizing a plurality of image data, and may be provided separately from the image processing unit 24, or the image processing unit 24 physically performs the image composition unit 54. It may have a physical or functional effect. The image compositing unit 54 can execute comparative bright compositing processing in addition to simple additive compositing and additive average compositing. The comparative bright composition process is a process of generating one image data by comparing a plurality of image data to be synthesized, selecting a portion (pixel or area) having the brightest value, and synthesizing the data. .. Further, the image compositing unit 54 can execute an embedding compositing process in which additional information such as a mask image generated by the image processing unit 24 and a region having a difference in color information is embedded in a reference image. In addition, when synthesizing a plurality of image data, the image synthesizing unit 54 can perform the compositing process after performing the alignment based on the motion vector information supplied from the image processing unit 24.

システム制御部50は、デジタルカメラ100が有する各要素の動作を統合的に制御する制御部であって、例えば、CPU(Central Processing Unit)である。システム制御部50は、後述する不揮発性メモリ56に記憶されたプログラムを実行することによって、以上の統合的な制御を実現すると共に本実施形態の各処理を実現する。システム制御部50は、画像処理部24による画像データに対する演算処理に基づいて取得された演算結果に基づいて、露光制御手段40およびフォーカス制御手段42を制御することで、TTL方式の自動焦点処理および自動露出処理を実現する。 The system control unit 50 is a control unit that integrally controls the operation of each element of the digital camera 100, and is, for example, a CPU (Central Processing Unit). The system control unit 50 realizes the above-mentioned integrated control and realizes each process of the present embodiment by executing the program stored in the non-volatile memory 56 described later. The system control unit 50 controls the exposure control means 40 and the focus control means 42 based on the calculation result acquired based on the calculation process for the image data by the image processing unit 24, thereby performing the TTL method automatic focus processing and the focus control unit 42. Achieve automatic exposure processing.

システムメモリ52は、システム制御部50の動作時の定数や変数を記憶するワーキングメモリとして機能する記憶媒体であって、例えば、RAM(Random Access Memory)である。不揮発性メモリ56は、前述したプログラムのコード、システム情報、およびユーザ設定情報を記憶する記憶媒体であって、例えば、フラッシュメモリである。システム制御部50は、不揮発性メモリ56からプログラムを逐次に読み出しシステムメモリ52に展開しながらプログラムを実行する。また、システム制御部50は、不揮発性メモリ56に記憶された種々の設定情報を起動時に読み出すことによって、デジタルカメラ100のシステム環境を復元する。 The system memory 52 is a storage medium that functions as a working memory for storing constants and variables during operation of the system control unit 50, and is, for example, a RAM (Random Access Memory). The non-volatile memory 56 is a storage medium for storing the above-mentioned program code, system information, and user setting information, and is, for example, a flash memory. The system control unit 50 sequentially reads the program from the non-volatile memory 56 and executes the program while expanding the program into the system memory 52. Further, the system control unit 50 restores the system environment of the digital camera 100 by reading various setting information stored in the non-volatile memory 56 at startup.

システムタイマー53は、種々の制御に用いられるタイミング生成部であると共に不図示の内蔵時計の時間を計測する計時部である。システム制御部50は、システムタイマー53が生成するタイミングに基づいて、撮影レンズ103、シャッター101、撮像部22等の動作を制御する。 The system timer 53 is a timing generation unit used for various controls and a time measuring unit for measuring the time of a built-in clock (not shown). The system control unit 50 controls the operations of the photographing lens 103, the shutter 101, the imaging unit 22, and the like based on the timing generated by the system timer 53.

メモリ制御部15は、A/D変換部23、画像処理部24、およびメモリ32に関する画像データの入出力およびメモリ32への読み書きを制御する。メモリ32は、撮影された静止画や動画を格納するメモリである。メモリ制御部15による制御の下、A/D変換部23から出力された画像データは、画像処理部24における画像処理を経て、または直接的にメモリ制御部15に供給される。メモリ制御部15は、供給された画像データをメモリ32に書き込む。 The memory control unit 15 controls input / output of image data related to the A / D conversion unit 23, the image processing unit 24, and the memory 32, and reading / writing to / from the memory 32. The memory 32 is a memory for storing captured still images and moving images. Under the control of the memory control unit 15, the image data output from the A / D conversion unit 23 is supplied to the memory control unit 15 directly or through image processing in the image processing unit 24. The memory control unit 15 writes the supplied image data to the memory 32.

メモリ32は、複数の静止画や動画を格納するのに十分な容量および帯域を有しているので、複数の静止画を連続的に撮影する連写撮影による大量かつ高速の画像データの書込みに適合している。また、メモリ32は、画像処理部24による画像処理時の一時データ、例えば、選択された基準画像を特定する画像IDや、取得された動きベクトル等を格納できる。なお、メモリ32は、システム制御部50のワーキングメモリとして機能することもできる。 Since the memory 32 has a sufficient capacity and band for storing a plurality of still images and moving images, it is suitable for writing a large amount of high-speed image data by continuous shooting in which a plurality of still images are continuously photographed. It fits. Further, the memory 32 can store temporary data at the time of image processing by the image processing unit 24, for example, an image ID that identifies a selected reference image, an acquired motion vector, and the like. The memory 32 can also function as a working memory of the system control unit 50.

表示部28は、メモリ32に格納された画像データや、デジタルカメラ100の種々の設定情報を表示する要素であって、例えば、TFT液晶によって構成される。メモリ32に格納された画像データは、システム制御部50による制御の下にメモリ制御部15を介して表示部28に表示される。所定周期の露光および読出しによって撮像部22から出力された画像データを画像処理部24およびメモリ制御部15を介して表示部28に順次に表示させることで、ライブビュー表示や電子ファインダー機能を実現できる。表示部28は、システム制御部50からの指示に基づいてON状態とOFF状態とを切り替えられる。表示部28をOFF状態にすることによって、デジタルカメラ100全体の消費電力を低減できる。 The display unit 28 is an element that displays image data stored in the memory 32 and various setting information of the digital camera 100, and is composed of, for example, a TFT liquid crystal. The image data stored in the memory 32 is displayed on the display unit 28 via the memory control unit 15 under the control of the system control unit 50. The live view display and the electronic viewfinder function can be realized by sequentially displaying the image data output from the imaging unit 22 by the exposure and reading in a predetermined cycle on the display unit 28 via the image processing unit 24 and the memory control unit 15. .. The display unit 28 can switch between an ON state and an OFF state based on an instruction from the system control unit 50. By turning off the display unit 28, the power consumption of the entire digital camera 100 can be reduced.

操作部70は、ユーザの操作に供される種々のボタンおよびタッチパネル等のデバイスを含む要素であって、例えば、以下の要素を構造的にまたは機能的に(例えば、タッチパネルに表示されるソフトウェアボタンとして)含む。 The operation unit 70 is an element including various buttons and devices such as a touch panel to be operated by the user, and for example, the following elements are structurally or functionally (for example, a software button displayed on the touch panel). As) including.

−シャッターボタン
−メニューボタン
−セットボタン
−マクロボタン
−フラッシュ設定ボタン
−単写/連写/セルフタイマー切り替えボタン
−メニュー移動+(プラス)ボタン
−メニュー移動−(マイナス)ボタン
−撮影画質選択ボタン
−露出補正ボタン
−日付/時間設定ボタン
− Shutter button − Menu button − Set button − Macro button − Flash setting button − Single shot / continuous shooting / self-timer switching button − Menu move + (plus) button − Menu move − (minus) button − Shooting image quality selection button − Exposure Correction button-Date / time setting button

操作部70に含まれるメニューボタンの押下によって起動されタッチパネル等に表示されるメニューには、任意の画像を基準画像として選択および設定する項目が含まれてよい。 The menu activated by pressing the menu button included in the operation unit 70 and displayed on the touch panel or the like may include an item for selecting and setting an arbitrary image as a reference image.

操作部70に含まれるシャッターボタンは、押下操作の途中で(すなわち、半押しによって)ON状態となる第1シャッタースイッチSW1と、押下操作の完了によって(すなわち、全押しによって)ON状態となる第2シャッタースイッチSW2とを含む。第1シャッタースイッチSW1がON状態になると、AF処理、AE処理、AWB処理等の撮影準備動作の開始がシステム制御部50に指示される。他方、第2シャッタースイッチSW2がON状態になると、露光処理、現像処理、圧縮・伸長処理、記録処理等の撮影動作の開始がシステム制御部50に指示される。 The shutter button included in the operation unit 70 has a first shutter switch SW1 that is turned on during the pressing operation (that is, by pressing halfway) and a first shutter switch SW1 that is turned ON by completing the pressing operation (that is, by pressing the button fully). 2 Includes shutter switch SW2. When the first shutter switch SW1 is turned on, the system control unit 50 is instructed to start shooting preparation operations such as AF processing, AE processing, and AWB processing. On the other hand, when the second shutter switch SW2 is turned on, the system control unit 50 is instructed to start shooting operations such as exposure processing, development processing, compression / decompression processing, and recording processing.

電源部30は、デジタルカメラ100に電源を供給する要素であって、一次電池(アルカリ電池、リチウム電池等)、二次電池(NiCd電池、NiMH電池、Li電池等)、およびACアダプタの少なくともいずれかによって構成される。電源部30は、電源制御部80によって制御される。 The power supply unit 30 is an element that supplies power to the digital camera 100, and is at least one of a primary battery (alkaline battery, lithium battery, etc.), a secondary battery (NiCd battery, NiMH battery, Li battery, etc.), and an AC adapter. Consists of. The power supply unit 30 is controlled by the power supply control unit 80.

インタフェース18は、デジタルカメラ100に接続可能な記録媒体(メモリカード、ハードディスクドライブ等)との接続インタフェースであって、例えばコネクタである。 The interface 18 is a connection interface with a recording medium (memory card, hard disk drive, etc.) that can be connected to the digital camera 100, and is, for example, a connector.

図2を参照して、本発明の第1実施形態における動きベクトルの取得処理の一例について説明する。動きベクトルは、画像処理部24がプログラムを実行することで実現されるベクトル処理部が、複数の画像データに基づいて算出する。図2では、上部分に図示された1枚目および2枚目の画像データから動きベクトルが取得される。2枚目の画像データは1枚目の画像データよりも時系列的に後に撮影されており、1枚目の画像データから2枚目の画像データにかけて複数の特徴点(恒星像)が画像上で右下に移動している。 An example of the motion vector acquisition process according to the first embodiment of the present invention will be described with reference to FIG. The motion vector is calculated by the vector processing unit realized by executing the program by the image processing unit 24 based on a plurality of image data. In FIG. 2, motion vectors are acquired from the first and second image data illustrated in the upper portion. The second image data is taken after the first image data in chronological order, and a plurality of feature points (stellar images) appear on the image from the first image data to the second image data. It is moving to the lower right.

動きベクトルを算出するために、ベクトル処理部が、図示のように各画像データを複数のブロック(例えば、8行10列の80ブロック)に分割する。各ブロックは、さらに複数のサブブロックに分割される。すなわち、各ブロックは複数のサブブロックを含む。以下、1枚目に示されるブロック(a)を参照して説明する。ブロック(a)には1つの特徴点が含まれている。 In order to calculate the motion vector, the vector processing unit divides each image data into a plurality of blocks (for example, 80 blocks of 8 rows and 10 columns) as shown in the figure. Each block is further divided into a plurality of subblocks. That is, each block contains a plurality of subblocks. Hereinafter, description will be made with reference to the block (a) shown on the first sheet. The block (a) contains one feature point.

ベクトル処理部は、1枚目の画像データにおいて、特徴点を含む1つのサブブロックを差分検出用のテンプレートとして設定する(図2の左下部分(1枚目))。次いで、ベクトル処理部は、以上のテンプレートが含まれる1枚目のブロックに相当する2枚目のブロックにおいて、テンプレートを用いて1画素ずつ走査し差分をそれぞれ算定していく(図2の右下部分)。本例では、図示のように、元の位置から右にm画素かつ下にn画素だけテンプレートを変位させた時の差分が最も小さくなる。差分が小さいほどテンプレートとサブブロックとの類似度は増加する。したがって、本例では、以上の差分検出によって、1枚目の画像データから2枚目の画像データにかけて特徴点が右にm画素、下にn画素だけ移動したことを示す動きベクトルが取得される。 The vector processing unit sets one sub-block including the feature points as a template for difference detection in the first image data (lower left portion (first image) in FIG. 2). Next, the vector processing unit scans one pixel at a time using the template in the second block corresponding to the first block including the above template, and calculates the difference (lower right of FIG. 2). part). In this example, as shown in the figure, the difference when the template is displaced by m pixels to the right and n pixels downward from the original position is the smallest. The smaller the difference, the greater the similarity between the template and the subblock. Therefore, in this example, by the above difference detection, a motion vector indicating that the feature point has moved m pixels to the right and n pixels downward from the first image data to the second image data is acquired. ..

ベクトル処理部は、画像データに含まれる全てのブロックに対して、または、ブロック内に輝度差が存在する(すなわち、特徴点が存在すると想定される)ブロックに対して、上述した差分検出処理(動きベクトル取得処理)を実行する。 The vector processing unit performs the above-mentioned difference detection processing (that is, for a block in which a luminance difference exists (that is, a feature point is assumed to exist) in all the blocks included in the image data or in the block. Motion vector acquisition process) is executed.

ベクトル取得部は、1枚目に特徴点が存在しているが動きベクトルが検出されなかったブロック、すなわち、特徴点が他のブロックに移動した可能性のあるブロックに関しては、そのブロックに隣接するブロックを追加的に走査して動きベクトルを検出する。好適には、ベクトル取得部は、先にブロック内の特徴点の移動によって検出された動きベクトルに基づいて、当該ブロック内の特徴点が移動した方向を予測することによって、走査すべき(すなわち、探索すべき)隣接ブロックを絞り込む。 The vector acquisition unit is adjacent to the block in which the feature point exists on the first sheet but the motion vector is not detected, that is, the block in which the feature point may have moved to another block is adjacent to the block. The motion vector is detected by scanning the block additionally. Preferably, the vector acquisition unit should scan (ie, by predicting the direction in which the feature points in the block have moved, based on the motion vector previously detected by the movement of the feature points in the block. Narrow down adjacent blocks (to be searched).

ベクトル取得部は、上記した隣接ブロックの探索によっても動きベクトルが取得されなかったブロックに対しては、隣接ブロックよりも広く範囲に含まれる近隣のブロックを用いた補間処理によって動きベクトルを取得する。 The vector acquisition unit acquires a motion vector by interpolation processing using neighboring blocks included in a wider range than the adjacent block for the block for which the motion vector is not acquired even by the above-mentioned search for the adjacent block.

図2を参照して説明した以上の例においては、画像データが8行10列のブロックに分割されているが、画像データは任意の数および形状のブロックによって分割され得る。例えば、撮影レンズ103が焦点距離の短い広角レンズであるために画像データ内に見かけ上小さい恒星像が大量に含まれる場合には、ブロックのサイズが小さく設定されると好適である。したがって、画像処理部24は、撮影レンズ103の焦点距離に応じて画像データの分割ブロック数を変化させると好適である。ブロックの形状は、図2に示すような正方形であってもよいし、長方形であってもよいし、六角形であってもよい。 In the above example described with reference to FIG. 2, the image data is divided into blocks of 8 rows and 10 columns, but the image data can be divided by blocks of an arbitrary number and shape. For example, when the photographing lens 103 is a wide-angle lens having a short focal length and therefore a large amount of apparently small stellar images are included in the image data, it is preferable that the block size is set small. Therefore, it is preferable that the image processing unit 24 changes the number of divided blocks of the image data according to the focal length of the photographing lens 103. The shape of the block may be a square as shown in FIG. 2, a rectangle, or a hexagon.

ところで、上記したベクトル取得処理のように、テンプレートを1画素ずつ走査して類似度(差の絶対値の総和)を算出すると、処理負荷が過大となる可能性がある。また、比較対象となる2枚の画像(例えば、上記した1枚目と2枚目の画像データ)の撮影時間差が大きい場合には、類似した特徴点の配置パターンが誤検出される可能性も想定される。したがって、本実施形態では、以下のように誤検出の可能性を低減した動きベクトルの取得処理を実行することが可能である。 By the way, if the degree of similarity (sum of absolute values of differences) is calculated by scanning the template pixel by pixel as in the vector acquisition process described above, the processing load may become excessive. Further, when the shooting time difference between the two images to be compared (for example, the above-mentioned first and second image data) is large, there is a possibility that the arrangement pattern of similar feature points may be erroneously detected. is assumed. Therefore, in the present embodiment, it is possible to execute the motion vector acquisition process that reduces the possibility of erroneous detection as follows.

図3を参照して、本発明の第1実施形態における動きベクトルの取得処理の別の例について説明する。図3の上部分には、1枚目からn枚目までの一連の撮影画像(画像データ)が示されている。枚数を追うごとに時間も経過している。すなわち、1枚目よりも2枚目が後の時刻に撮影され、2枚目よりも3枚目が後の時刻に撮影され、以下同様に、(n−1)枚目よりもn枚目が後の時刻に撮影されている。図2と同様に、各画像データは複数のブロックに分割されている。 Another example of the motion vector acquisition process according to the first embodiment of the present invention will be described with reference to FIG. In the upper part of FIG. 3, a series of captured images (image data) from the first image to the nth image are shown. Time has passed each time the number of sheets is chased. That is, the second image is taken at a time later than the first image, the third image is taken at a time later than the second image, and similarly, the nth image is taken after the (n-1) th image. Was filmed at a later time. Similar to FIG. 2, each image data is divided into a plurality of blocks.

本例では、各画像に示されている恒星像である特徴点(b)を参照して説明する。図示の通り、特徴点(b)は、撮影された複数の画像において画像上で右下に向かって移動している。図3の下部分に示される4行5列のグリッドは、上部分に示されるブロックのうち最も左上に位置する4行5列のブロックを抜粋して拡大したものである。 In this example, it will be described with reference to the feature point (b) which is a stellar image shown in each image. As shown in the figure, the feature point (b) moves toward the lower right on the images in the plurality of captured images. The 4 rows and 5 columns grid shown in the lower part of FIG. 3 is an enlargement of the 4 rows and 5 columns block located at the upper left of the blocks shown in the upper part.

1枚目からn枚目にかけての特徴点(b)の移動が以上のグリッド内に示されている。グリッド内の実線の矢印は、ベクトル処理部として機能する画像処理部24によって取得される特徴点(b)の各動きベクトルに対応している。(V1:2)は1枚目から2枚目にかけての特徴点(b)の移動に対応する動きベクトルであり、(V2:3)は2枚目から3枚目にかけての特徴点(b)の移動に対応する動きベクトルである。以下同様であって、(n−1)枚目からn枚目にかけての特徴点(b)の移動に対応する動きベクトルを示す(Vn−1:n)が終端に位置している。 The movement of the feature point (b) from the first sheet to the nth sheet is shown in the above grid. The solid arrows in the grid correspond to each motion vector of the feature point (b) acquired by the image processing unit 24 that functions as the vector processing unit. (V1: 2) is a motion vector corresponding to the movement of the feature point (b) from the first to the second sheet, and (V2: 3) is the feature point (b) from the second to the third sheet. It is a motion vector corresponding to the movement of. The same applies hereinafter, and (Vn-1: n) indicating the motion vector corresponding to the movement of the feature point (b) from the (n-1) th sheet to the nth sheet is located at the end.

画像処理部24は、一連の全画像データに含まれる連続する2枚の画像データについて時系列的に順次に動きベクトルを取得する。すなわち、画像処理部24は、画像データを取得するごとに、上記した(V1:2)、(V2:3)、・・・、(Vn−1:n)を順次に取得していく。以上の時系列的な動きベクトルの算出処理において、画像処理部24は、新たな画像データが取得されると、各動きベクトルとは別に、一連の特徴点の動きを示す動きベクトルの総和に相当する値(合計ベクトル)をメモリ32に格納する。例えば、3枚目の画像データを取得した画像処理部24は、今回の動きベクトル(V2:3)を取得するのに加えて、前回の動きベクトル(V1:2)を(V2:3)に加算した合計ベクトル(totalV3)をメモリ32に格納する。一般化すると、x枚目(3≦x≦n)の画像データが取得されると、ベクトル処理部としての画像処理部24は、まず、今回の動きベクトル(Vx−1:x)を取得する。そして、画像処理部24は、既にメモリ32に格納されている(V1:2)から(Vx−2:x−1)までの合計ベクトル(totalVx−1)と今回の(Vx−1:x)とを加算して、新たな合計ベクトル(totalVx)を取得してメモリ32に格納する。3枚目以降の処理において、メモリ32には、少なくとも、前回の合計ベクトル(totalVx−1)と今回の合計ベクトル(totalVx)とが格納されている状態にある。以上の合計ベクトルは、後述する画像同士の位置合わせに活用される。 The image processing unit 24 acquires motion vectors sequentially in chronological order for two consecutive image data included in a series of all image data. That is, each time the image processing unit 24 acquires the image data, the above-mentioned (V1: 2), (V2: 3), ..., (Vn-1: n) are sequentially acquired. In the above time-series motion vector calculation process, when new image data is acquired, the image processing unit 24 corresponds to the sum of the motion vectors indicating the motions of a series of feature points separately from each motion vector. The value (total vector) to be processed is stored in the memory 32. For example, the image processing unit 24 that has acquired the third image data, in addition to acquiring the current motion vector (V2: 3), changes the previous motion vector (V1: 2) to (V2: 3). The added total vector (totalV3) is stored in the memory 32. As a generalization, when the xth image data (3 ≦ x ≦ n) is acquired, the image processing unit 24 as the vector processing unit first acquires the motion vector (Vx-1: x) this time. .. Then, the image processing unit 24 includes the total vector (totalVx-1) from (V1: 2) to (Vx-2: x-1) already stored in the memory 32 and the current (Vx-1: x). And are added to obtain a new total vector (totalVx) and store it in the memory 32. In the processing of the third and subsequent sheets, at least the previous total vector (totalVx-1) and the current total vector (totalVx) are stored in the memory 32. The above total vector is used for alignment of images, which will be described later.

図4および図5を参照して、本実施形態のデジタルカメラ100において実行される画像データの合成処理について説明する。図4は、本発明の第1実施形態における合成処理を示すフローチャートである。図5は、以上の合成処理における複数の画像の関係を示す説明図である。概略的には、本実施形態の合成処理において、対象画像と参照画像との差分検出によって得られた差分画像が画角を規定する基準画像に合成される。 The image data compositing process executed by the digital camera 100 of the present embodiment will be described with reference to FIGS. 4 and 5. FIG. 4 is a flowchart showing a synthesis process according to the first embodiment of the present invention. FIG. 5 is an explanatory diagram showing the relationship between a plurality of images in the above compositing process. Generally, in the composition process of the present embodiment, the difference image obtained by detecting the difference between the target image and the reference image is combined with the reference image that defines the angle of view.

ステップS401において、ユーザが、操作部70を操作して複数枚の画像の連続撮影処理および合成処理をデジタルカメラ100に対して指示する。 In step S401, the user operates the operation unit 70 to instruct the digital camera 100 to perform continuous shooting processing and compositing processing of a plurality of images.

ステップS402において、システム制御部50は、操作部70を介したユーザによる指示に基づき、複数枚の画像の連続撮影を実行するようにデジタルカメラ100の各部を制御する。結果として、複数枚(n枚)の画像が取得されメモリ32に格納される。 In step S402, the system control unit 50 controls each unit of the digital camera 100 so as to execute continuous shooting of a plurality of images based on an instruction by the user via the operation unit 70. As a result, a plurality of (n) images are acquired and stored in the memory 32.

ステップS403において、画像処理部24は、ステップS402にて取得された複数の画像から、画像合成における位置基準となる基準画像501を設定する基準設定部として動作する。基準画像501は、画像データの合成処理において、流星等の合成対象物を合成していくベースとなる画像であって、合成処理によって最終的に得られる合成画像の画角を規定する画像である。基準画像501は、任意の手法によって選択されてよい。例えば、連続的に撮影された複数の画像の1枚目が自動的に基準画像501として設定されてもよいし、ユーザが操作部70を介して指定した画像が基準画像501として設定されてもよい。他に、最初に選択された対象画像503が基準画像501として設定されてもよい。本例では、1枚目の画像データが基準画像501として設定されている。 In step S403, the image processing unit 24 operates as a reference setting unit for setting a reference image 501, which is a position reference in image composition, from the plurality of images acquired in step S402. The reference image 501 is an image that is a base for synthesizing an object to be synthesized such as a meteor in the image data synthesizing process, and is an image that defines the angle of view of the composite image finally obtained by the synthesizing process. .. The reference image 501 may be selected by any method. For example, the first image of a plurality of continuously captured images may be automatically set as the reference image 501, or the image designated by the user via the operation unit 70 may be set as the reference image 501. Good. Alternatively, the first selected target image 503 may be set as the reference image 501. In this example, the first image data is set as the reference image 501.

ステップS404において、画像処理部24は、まず、対象物505を含み差分画像507の抽出対象とすべき画像(対象画像503)と、参照画像502とを選択する。次いで、画像処理部24は、選択された参照画像502と対象画像503との位置合わせを実行する。具体的には、画像処理部24は、各画像に含まれる恒星像である特徴点504に基づいて前述のように画像間の動きベクトル(第1動きベクトル)を取得し、取得された動きベクトルを用いて参照画像502と対象画像503とを位置合わせする。以上の動きベクトルは、参照画像502から対象画像503にかけての特徴点504の移動量を示す。位置合わせの概略は、重ね合わせ画像506に図示されている。本実施形態の位置合わせは、動きベクトルに基づいて対象画像503と参照画像502とをデジタル的に重ね合わせる処理を意味している。 In step S404, the image processing unit 24 first selects an image (target image 503) including the object 505 and should be the extraction target of the difference image 507, and the reference image 502. Next, the image processing unit 24 executes the alignment of the selected reference image 502 and the target image 503. Specifically, the image processing unit 24 acquires a motion vector (first motion vector) between images as described above based on the feature points 504 that are stellar images included in each image, and the acquired motion vector. Is used to align the reference image 502 and the target image 503. The above motion vector indicates the amount of movement of the feature point 504 from the reference image 502 to the target image 503. The outline of the alignment is shown in the superimposed image 506. The alignment of the present embodiment means a process of digitally superimposing the target image 503 and the reference image 502 based on the motion vector.

対象画像503は、例えば、操作部70を介したユーザからの指示によって指定されてもよいし、対象物505の特徴(所定数以上の高輝度ピクセルが存在する、略直線状の軌跡を描く対象物が存在する、等)に基づいて選択されてもよい。また、参照画像502として、対象画像503に隣接し、基準画像501と対象画像503との間に撮影された画像データが選択されると好適である。すなわち、n枚目の対象画像503に対して、(n−1)枚目の参照画像502が選択されると好適である。以上のように参照画像502が選択されると、対象画像503と参照画像502の重複領域および基準画像501と参照画像502の重複領域がより増大するので、動きベクトルがより容易かつ高精度に算出される。 The target image 503 may be designated, for example, by an instruction from the user via the operation unit 70, or is a feature of the target object 505 (an object that draws a substantially linear locus in which a predetermined number or more of high-luminance pixels exist). It may be selected based on the existence of an object, etc.). Further, as the reference image 502, it is preferable that image data adjacent to the target image 503 and captured between the reference image 501 and the target image 503 is selected. That is, it is preferable that the (n-1) th reference image 502 is selected with respect to the nth target image 503. When the reference image 502 is selected as described above, the overlapping area of the target image 503 and the reference image 502 and the overlapping area of the reference image 501 and the reference image 502 are further increased, so that the motion vector is calculated more easily and with high accuracy. Will be done.

選択された(n−1)枚目の画像が参照画像502に適さない場合は、画像処理部24が、適する画像が見つかるまで(n−2)枚目、(n−3)枚目、…と遡って探索してもよい。参照画像502に適さない画像の例として、対象画像503と重複するベクトル算出領域のうち、所定の閾値を上回る割合の領域が差分として検出されてしまう画像が挙げられる。より具体的には、例えば、対象画像503には無い障害物が写り込んだ画像や、自動車のヘッドライト等の照明によって露出条件が対象画像503とは著しく異なる画像である。他に、手振れによってベクトル算出に失敗するような画像や、ジャイロセンサによって所定の閾値以上の手振れ量が検出された画像も、参照画像502に適さない画像の一例である。 If the selected (n-1) th image is not suitable for the reference image 502, the image processing unit 24 finds a suitable image until the (n-2) th image, the (n-3) th image, ... You may search retroactively. As an example of an image that is not suitable for the reference image 502, there is an image in which a region having a ratio exceeding a predetermined threshold value is detected as a difference in the vector calculation region that overlaps with the target image 503. More specifically, for example, it is an image in which an obstacle that is not in the target image 503 is reflected, or an image whose exposure condition is significantly different from that of the target image 503 due to lighting such as a headlight of an automobile. In addition, an image in which the vector calculation fails due to camera shake and an image in which a camera shake amount equal to or larger than a predetermined threshold value is detected by the gyro sensor are examples of images that are not suitable for the reference image 502.

ステップS405において、画像処理部24は、前述のように、ステップS404にて取得された今回の動きベクトル(移動量)を過去の合計ベクトルに加算してメモリ32に格納する。 In step S405, as described above, the image processing unit 24 adds the current motion vector (movement amount) acquired in step S404 to the past total vector and stores it in the memory 32.

ステップS406において、画像処理部24は、位置合わせ後の参照画像502と対象画像503とを比較して差分を抽出し、差分画像507を取得する。以上の差分抽出として、例えば、画像処理部24は、YUVデータをそれぞれ有する対象画像503および参照画像502において、輝度信号Y、青色成分差分信号U、および赤色成分差分信号Vの差分を画素ごとまたは領域ごとに算出してよい。すなわち、画像処理部24は、画素ごとまたは領域ごとに、以下のY差分ΔY、U差分ΔU、およびV差分ΔVを取得する。 In step S406, the image processing unit 24 compares the aligned reference image 502 with the target image 503, extracts the difference, and acquires the difference image 507. As the above difference extraction, for example, the image processing unit 24 extracts the difference between the luminance signal Y, the blue component difference signal U, and the red component difference signal V for each pixel or in the target image 503 and the reference image 502 having YUV data, respectively. It may be calculated for each area. That is, the image processing unit 24 acquires the following Y difference ΔY, U difference ΔU, and V difference ΔV for each pixel or each region.

ΔY=(対象画像503のYデータ)−(参照画像502のYデータ)
ΔU=(対象画像503のUデータ)−(参照画像502のUデータ)
ΔV=(対象画像503のVデータ)−(参照画像502のVデータ)
なお、Y差分ΔYが0より小さい(負値である)場合、画像処理部24は、その画素または領域における各差分ΔY,ΔU,ΔVを0に設定する。ここで、ある画素または領域のY差分ΔYが0より小さいことは、参照画像502においてその画素または領域の輝度が対象画像503よりも高い、すなわち、参照画像502に流星等の対象物505が含まれる可能性が高いことを意味する。以上のように差分が0に設定されることによって、対象物505が含まれていない対象画像503の画素または領域が差分として抽出されることが防止され、ひいては、対象画像503のその画素または領域が基準画像501に合成されることが防止される。
ΔY = (Y data of target image 503)-(Y data of reference image 502)
ΔU = (U data of target image 503)-(U data of reference image 502)
ΔV = (V data of target image 503)-(V data of reference image 502)
When the Y difference ΔY is smaller than 0 (negative value), the image processing unit 24 sets each difference ΔY, ΔU, ΔV in the pixel or region to 0. Here, the fact that the Y difference ΔY of a certain pixel or region is smaller than 0 means that the brightness of the pixel or region in the reference image 502 is higher than that of the target image 503, that is, the reference image 502 includes an object 505 such as a meteor. It means that there is a high possibility of being affected. By setting the difference to 0 as described above, it is possible to prevent the pixels or regions of the target image 503 that do not include the object 505 from being extracted as differences, and by extension, the pixels or regions of the target image 503. Is prevented from being combined with the reference image 501.

ステップS407において、画像処理部24は、ステップS406における処理において差分が存在するか否かを判定する。参照画像502と対象画像503とに差分が存在しない場合(S407:NO)、画像処理部24は、以降のステップS408,S409をスキップして処理をステップS410に進める。以上の判定によって、不要な位置合わせおよび合成処理が実行されることが抑制される。他方、参照画像502と対象画像503とに差分が存在する場合(S407:YES)、画像処理部24は、処理をステップS408に進める。 In step S407, the image processing unit 24 determines whether or not there is a difference in the processing in step S406. When there is no difference between the reference image 502 and the target image 503 (S407: NO), the image processing unit 24 skips the subsequent steps S408 and S409 and proceeds to the process in step S410. By the above determination, it is possible to prevent unnecessary alignment and composition processing from being executed. On the other hand, when there is a difference between the reference image 502 and the target image 503 (S407: YES), the image processing unit 24 advances the process to step S408.

ステップS408において、画像処理部24は、基準画像501と対象画像503との間の動きベクトルを取得する。より具体的には、画像処理部24は、基準画像501と参照画像502との間の動きベクトル(第2動きベクトル)を取得し、メモリ32内の参照画像502と対象画像503との間の動きベクトル(Vn−1:n)に加算して所望の動きベクトルを取得する。すなわち、画像処理部24は、基準画像501と対象画像503との間の動きベクトルを、直接的にではなく、参照画像502を介して間接的に算出する。互いにより近い画像を用いて動きベクトルを算出することによって、算出の精度が向上する。なお、画像処理部24は、メモリ領域の占有タイミング等に配慮して、基準画像501と対象画像503との間の動きベクトルを直接的に取得してもよい。 In step S408, the image processing unit 24 acquires a motion vector between the reference image 501 and the target image 503. More specifically, the image processing unit 24 acquires a motion vector (second motion vector) between the reference image 501 and the reference image 502, and between the reference image 502 and the target image 503 in the memory 32. A desired motion vector is obtained by adding to the motion vector (Vn-1: n). That is, the image processing unit 24 calculates the motion vector between the reference image 501 and the target image 503 indirectly, not directly, but through the reference image 502. By calculating the motion vectors using images that are closer to each other, the accuracy of the calculation is improved. The image processing unit 24 may directly acquire the motion vector between the reference image 501 and the target image 503 in consideration of the occupancy timing of the memory area and the like.

基準画像501と参照画像502との間の動きベクトルを取得するに際し、画像処理部24は、メモリ32に格納された前回の動きベクトル(totalVn−1)を用いて2枚の画像を予備的に位置合わせした後に目標の動きベクトルを取得すると好適である。予備的な位置合わせによって基準画像501と参照画像502とが近付くので、2枚の画像を近付けない恒星と比較して、画像内の特徴点パターンの重なりが誤って検出されることが抑制される。 When acquiring the motion vector between the reference image 501 and the reference image 502, the image processing unit 24 preliminaryly prepares two images by using the previous motion vector (totalVn-1) stored in the memory 32. It is preferable to acquire the target motion vector after alignment. Since the reference image 501 and the reference image 502 are brought closer to each other by the preliminary alignment, it is possible to prevent the overlap of the feature point patterns in the image from being erroneously detected as compared with the star in which the two images are not brought close to each other. ..

ステップS409において、画像処理部24は、ステップS406で取得された差分画像507を、ステップS408で取得された動きベクトルを用いて基準画像501に位置合わせして合成し、合成画像509を取得するように、画像合成部54を制御する。以上の合成処理においては、既知の合成手法(例えば、加算合成処理、加算平均合成処理、比較明合成処理)が用いられてよい。 In step S409, the image processing unit 24 aligns and synthesizes the difference image 507 acquired in step S406 with the reference image 501 using the motion vector acquired in step S408, and acquires the composite image 509. In addition, the image composition unit 54 is controlled. In the above synthesis process, a known synthesis method (for example, additive synthesis process, additive average synthesis process, comparative bright synthesis process) may be used.

ステップS410において、画像処理部24は、システム制御部50が撮影完了命令を出力したか否かを判定する。撮影完了命令が出力されているならば(S410:YES)、画像処理部24は、直近のステップS409にて取得された合成画像509を画像合成部54に出力させて処理を終了する(ステップS411)。他方、撮影完了命令が出力されていないならば、画像処理部24は、処理をステップS402に戻して、合成画像509を新たな基準画像501として以上の処理を繰り返す。 In step S410, the image processing unit 24 determines whether or not the system control unit 50 has output a shooting completion command. If the shooting completion command is output (S410: YES), the image processing unit 24 outputs the composite image 509 acquired in the latest step S409 to the image synthesis unit 54 and ends the processing (step S411). ). On the other hand, if the shooting completion command is not output, the image processing unit 24 returns the processing to step S402, and repeats the above processing with the composite image 509 as a new reference image 501.

上記した本実施形態の構成によれば、対象画像と参照画像とを比較して取得され対象物を含む差分画像が、基準画像に対して位置合わせをして合成される。すなわち、画像合成において複数の画像間の位置合わせが適切に行われる。例えば、流星群を対象とした撮影を本実施形態の構成に従って実行すると、合成画像において、通常の恒星は移動しない点として描写される一方、流星群に含まれる流星は恒星に対する相対位置を精度よく維持しつつ線状の軌跡として描写される。 According to the configuration of the present embodiment described above, the difference image obtained by comparing the target image and the reference image and including the target object is aligned with the reference image and synthesized. That is, in image composition, alignment between a plurality of images is appropriately performed. For example, when shooting a meteor shower according to the configuration of the present embodiment, a normal star is depicted as a non-moving point in the composite image, while the meteor shower included in the meteor shower accurately determines the relative position with respect to the star. It is depicted as a linear trajectory while maintaining it.

また、上記した本実施形態の構成によれば、連続する画像に亘っての特徴点の移動量を示す動きベクトルに基づいて位置合わせが実行される。したがって、単なるパターン比較による位置合わせと比較して、より精度良く位置合わせを実行することが可能である。以上の技術的効果は、星像という比較的単純なパターンを有し、長時間に亘って撮影された複数の天体画像に対して本実施形態の構成を適用する際に、一層顕著に奏される。加えて、動きベクトルによって特徴点の移動量を特定できるので、全ての画像データをメモリ32に記憶しておく必要性が低減する。 Further, according to the configuration of the present embodiment described above, the alignment is executed based on the motion vector indicating the amount of movement of the feature points over the continuous image. Therefore, it is possible to perform the alignment more accurately than the alignment by a simple pattern comparison. The above technical effect has a relatively simple pattern of a star image, and is more remarkable when the configuration of the present embodiment is applied to a plurality of astronomical images taken over a long period of time. To. In addition, since the movement amount of the feature point can be specified by the motion vector, the need to store all the image data in the memory 32 is reduced.

<第2実施形態>
以下、本発明の第2実施形態について説明する。なお、以下に例示する各実施形態において、作用、機能が第1実施形態と同等である要素については、以上の説明で参照した符号を流用して各々の説明を適宜に省略する。
<Second Embodiment>
Hereinafter, a second embodiment of the present invention will be described. In each of the embodiments illustrated below, for elements having the same functions and functions as those in the first embodiment, the reference numerals referred to in the above description will be used and the respective description will be omitted as appropriate.

1枚の合成画像により多くの流星を含ませるには、より長時間に亘って撮影を実行してより多くの画像を取得し、画像合成を実行することが望ましい。しかしながら、露光が長時間に亘ると、いずれは、基準画像(合成画像の画角)に含まれていた特徴点が日周運動によって移動して対象画像内に含まれなくなる状態が到来する。そのような状態において撮影された対象画像は、特徴点を用いて基準画像に対して位置合わせすることができないので、画像合成の対象とすることができない。 In order to include more meteors in one composite image, it is desirable to perform shooting for a longer period of time to acquire more images and perform image composition. However, if the exposure is extended for a long time, the feature points included in the reference image (angle of view of the composite image) will eventually move due to diurnal motion and will not be included in the target image. Since the target image taken in such a state cannot be aligned with the reference image using the feature points, it cannot be the target of image composition.

第2実施形態では、システム制御部50が露光制御手段40およびフォーカス制御手段42を駆動して日周運動を追跡するように画角を変位させることで、基準画像と対象画像とが重複する期間(対象画像に基準画像の特徴点が含まれる期間)を延長させる。例えば、上記したn枚目の撮影が完了した後であって(n+1)枚目の撮影が開始する前(ステップS410とステップS402との間)に、画像処理部24が、動きベクトル(Vn−1:n)に基づいて日周運動の方向を推定する。そして、システム制御部50が、露光制御手段40およびフォーカス制御手段42を駆動して、補正光学系が画像処理部24が推定した上記方向に向かうように追尾させる。本実施形態においては、第1実施形態にて説明した合計ベクトルに加えて、少なくとも直近の2枚の対象画像503に相当する動きベクトルをメモリ32に格納しておくと好適である。 In the second embodiment, the system control unit 50 drives the exposure control means 40 and the focus control means 42 to displace the angle of view so as to track the diurnal motion, so that the reference image and the target image overlap. (The period during which the target image includes the feature points of the reference image) is extended. For example, after the shooting of the nth image is completed and before the shooting of the (n + 1) th image is started (between step S410 and step S402), the image processing unit 24 causes the motion vector (Vn−). The direction of diurnal motion is estimated based on 1: n). Then, the system control unit 50 drives the exposure control means 40 and the focus control means 42 to track the correction optical system in the direction estimated by the image processing unit 24. In the present embodiment, in addition to the total vector described in the first embodiment, it is preferable to store at least the motion vectors corresponding to the two most recent target images 503 in the memory 32.

上記した本実施形態の構成によれば、第1実施形態と同様の技術的効果が奏されると共に、より長い時間に亘って撮影された複数の画像を1枚の合成画像として合成することが可能となる。結果として、例えば、流星群が撮影の対象である場合には、より多くの流星を1枚の合成画像に収めることが可能となる。 According to the configuration of the present embodiment described above, the same technical effect as that of the first embodiment can be obtained, and a plurality of images taken over a longer time can be combined as one composite image. It will be possible. As a result, for example, when a meteor shower is the object of photography, it is possible to fit more meteors in one composite image.

<変形例>
以上の各実施形態は多様に変形される。具体的な変形の態様を以下に例示する。以上の実施形態および以下の例示から任意に選択された2以上の態様は、相互に矛盾しない限り適宜に併合され得る。
<Modification example>
Each of the above embodiments is variously modified. A specific mode of modification is illustrated below. Two or more embodiments arbitrarily selected from the above embodiments and the following examples can be appropriately merged as long as they do not contradict each other.

上記した実施の形態において、画像処理部24がノイズ低減処理を実行すると好適である。一般に、ISO感度が高い場合、露光時間が長い場合、撮像素子の温度が上昇している場合等に、画像信号にランダムノイズが入り易い。天体撮影の際には、比較的暗い被写体である天体像を撮影するために高いISO感度(例えば、ISO1600以上)が使用される傾向にあり、撮影時間すなわち露光時間が長時間に亘る傾向があり、長時間の撮影によって撮像素子の温度が上昇する傾向にある。すなわち、天体撮影においてはノイズが発生し易い。 In the above embodiment, it is preferable that the image processing unit 24 executes noise reduction processing. In general, random noise is likely to be included in an image signal when the ISO sensitivity is high, the exposure time is long, the temperature of the image sensor is rising, and the like. When shooting astronomical objects, high ISO sensitivity (for example, ISO 1600 or higher) tends to be used to shoot an astronomical image that is a relatively dark subject, and the shooting time, that is, the exposure time tends to be long. The temperature of the image sensor tends to rise due to long-time shooting. That is, noise is likely to occur in astronomical photography.

したがって、本変形例の画像処理部24は、ステップS406の差分抽出処理に先立って、参照画像502と対象画像503とに対してノイズ低減処理を実行する。ノイズ低減処理によって、例えば、ISO感度が高い場合に生じる点状の高輝度ランダムノイズが除去される。ノイズ低減の手法は任意に選択され得る。例えば、画像全体にローパスフィルタを適用すると共に、ローパスフィルタ適用後の高輝度部分をマスク領域として設定し、元の画像にマスクを適用する手法が採用され得る。他に、恒星および流星はノイズよりも高輝度である傾向にあるという知見に基づいて、対象画像503における輝度信号Yが閾値以下である画素または領域については差分抽出を実行しないという手法も採用され得る。ただし、後者の手法によれば、閾値以下の輝度を有する天体(等級の高い恒星)が除去されてしまう可能性がある。 Therefore, the image processing unit 24 of this modification executes noise reduction processing on the reference image 502 and the target image 503 prior to the difference extraction processing in step S406. The noise reduction processing removes, for example, punctate high-intensity random noise that occurs when the ISO sensitivity is high. The noise reduction method can be arbitrarily selected. For example, a method of applying a low-pass filter to the entire image, setting a high-luminance portion after applying the low-pass filter as a mask area, and applying a mask to the original image can be adopted. In addition, based on the finding that stars and meteors tend to have higher brightness than noise, a method is also adopted in which difference extraction is not performed for pixels or regions where the brightness signal Y in the target image 503 is less than or equal to the threshold value. obtain. However, according to the latter method, there is a possibility that celestial bodies (high-grade stars) having brightness below the threshold value will be removed.

上記した実施の形態において、画像処理部24が、抽出された差分を示す箇所がセンササイズに対して所定の太さおよび長さを有する線形形状である場合のみに、その差分を示す箇所を採用するように差分抽出処理を実行してもよい。換言すると、抽出された差分を示す箇所が上記条件を充足しない場合には、その差分を採用せず当該箇所が差分画像において0を呈するように処理されてもよい。線形形状を抽出する手法として、VanderBrugの線検出法、LSD法、Patonの線検出法、Kasvandの線検出法等が採用されてよい。以上の構成によれば、流星以外の高輝度被写体(雲、浮遊する虫や鳥、ビルの窓の灯り、自動車のテールランプ等)が差分として抽出されることが抑制される。 In the above-described embodiment, the image processing unit 24 adopts the portion showing the difference only when the portion showing the extracted difference has a linear shape having a predetermined thickness and length with respect to the sensor size. The difference extraction process may be executed so as to be performed. In other words, when the extracted difference portion does not satisfy the above condition, the difference may not be adopted and the portion may be processed so as to exhibit 0 in the difference image. As a method for extracting a linear shape, a VanderBrug line detection method, an LSD method, a Paton line detection method, a Kasvand line detection method, or the like may be adopted. According to the above configuration, high-intensity subjects other than meteors (clouds, floating insects and birds, building window lights, automobile tail lamps, etc.) are suppressed from being extracted as differences.

加えて、画像処理部24が、複数の対象画像から取得した差分に相当する複数の線形形状をそれぞれ延長して交点(流星群の放射点に相当)を取得し、以上の交点に向かわない線形形状に相当する差分を除去してもよい。放射点に向かわない線形形状は、人工衛星や飛行機等の流星以外の物体であるからである。画像処理部24は、例えば、除去すべき差分の箇所を、差分合成前の基準画像における相当箇所に置換することによって、以上の除去を実現することができる。本変形例においては、合成処理後の基準画像の他に合成処理前の基準画像をもメモリ32に保持しておく、または、基準画像と差分画像とを順次に合成した差分画像をメモリ32に保持しておくと好適である。 In addition, the image processing unit 24 extends a plurality of linear shapes corresponding to the differences acquired from the plurality of target images to acquire intersections (corresponding to the radiant points of the meteor shower), and the linear shapes do not go to the above intersections. The difference corresponding to the shape may be removed. This is because the linear shape that does not face the radiant point is an object other than a meteor, such as an artificial satellite or an airplane. The image processing unit 24 can realize the above removal by, for example, replacing the difference portion to be removed with a corresponding portion in the reference image before the difference synthesis. In this modification, in addition to the reference image after the composition processing, the reference image before the composition processing is also stored in the memory 32, or the difference image in which the reference image and the difference image are sequentially combined is stored in the memory 32. It is preferable to hold it.

上記した実施の形態においては、画像処理装置としてデジタルカメラ100が例示されているが、任意の情報処理装置が本発明の画像処理装置を構成することも可能である。例えば、携帯電話、スマートフォン、パーソナルコンピュータ(ラップトップ型、デスクトップ型、タブレット型など)、ゲーム機等の、撮像装置を内蔵するまたは撮像装置が外部接続される任意の装置が、本発明の画像処理装置として機能し得る。加えて、撮像機能を有さないパーソナルコンピュータ等の装置が、本発明の画像処理装置を構成することも可能である。例えば、撮像機能を有さないパーソナルコンピュータが、他のデジタルカメラにて撮影された複数の画像データを読み込んで、上記実施形態における画像処理を実行することによって1枚の合成画像を取得してもよい。従って、本明細書における「画像処理装置」は、画像処理機能を有する任意の電子機器を包摂する一般概念である。 In the above-described embodiment, the digital camera 100 is exemplified as the image processing device, but any information processing device can also configure the image processing device of the present invention. For example, any device such as a mobile phone, a smartphone, a personal computer (laptop type, desktop type, tablet type, etc.), a game machine, etc., which has a built-in image pickup device or is externally connected to the image pickup device, is the image processing of the present invention. Can function as a device. In addition, a device such as a personal computer that does not have an image pickup function can form the image processing device of the present invention. For example, even if a personal computer having no imaging function reads a plurality of image data taken by another digital camera and executes the image processing in the above embodiment to acquire one composite image. Good. Therefore, the "image processing apparatus" in the present specification is a general concept that includes any electronic device having an image processing function.

本発明は以下のような構成によっても実現され得る。上記した実施形態の機能を実現する手順が記述されたソフトウェアのプログラムコードを格納した記録媒体がシステムまたは装置に供給され、システムまたは装置のコンピュータが記録媒体内のプログラムコードを読み出して実行する。コンピュータは、例えば、1以上のCPUおよび/またはMPU等の演算素子を含んで構成される。本構成では、記録媒体から読み出されたプログラムコード自体が本発明に係る新規機能を実現するので、当該プログラムコードが記録された記憶媒体およびプログラム自体も本発明を構成する。 The present invention can also be realized by the following configuration. A recording medium containing the program code of the software in which the procedure for realizing the function of the above-described embodiment is described is supplied to the system or the device, and the computer of the system or the device reads and executes the program code in the recording medium. A computer is configured to include, for example, one or more CPUs and / or arithmetic elements such as MPUs. In the present configuration, since the program code itself read from the recording medium realizes the new function according to the present invention, the storage medium on which the program code is recorded and the program itself also constitute the present invention.

以上のプログラムコードを供給する記録媒体として、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク等が採用され得る。他に、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等が、プログラムコードを提供する記録媒体として採用され得る。 As a recording medium for supplying the above program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, or the like can be adopted. In addition, recordings such as CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, non-volatile memory card, ROM, etc. provide the program code. It can be adopted as a medium.

以上のコンピュータが読み出したプログラムコードを実行可能とすることによって、上記した実施形態における処理機能が実現される。また、プログラムコードの指示に基づいて、以上のコンピュータ上で稼働しているOS(オペレーティングシステム)等のソフトウェアが上記した処理の一部または全部を実行して、上記した実施形態における機能が実現されてもよい。 By making the program code read by the above computer executable, the processing function in the above-described embodiment is realized. Further, based on the instruction of the program code, the software such as the OS (operating system) running on the above computer executes a part or all of the above-mentioned processing, and the function in the above-described embodiment is realized. You may.

加えて、本発明は、以下のような構成によっても実現され得る。上記したソフトウェアのプログラムコードが、コンピュータに挿入された機能拡張ボードまたはコンピュータに接続された機能拡張ユニットに設けられたメモリに書き込まれる。その後、メモリに書き込まれたプログラムコードの指示に基づいて、機能拡張ボードまたは機能拡張ユニットが有するCPU等の演算素子が実際の処理の一部または全部を実行する。 In addition, the present invention can also be realized by the following configuration. The program code of the above software is written to the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer. After that, based on the instruction of the program code written in the memory, an arithmetic element such as a CPU included in the function expansion board or the function expansion unit executes a part or all of the actual processing.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.

24 画像処理部
50 システム制御部
54 画像合成部
100 デジタルカメラ(撮像装置、画像処理装置)
501 基準画像
502 参照画像
503 対象画像
504 特徴点
509 合成画像
24 Image processing unit 50 System control unit 54 Image compositing unit 100 Digital camera (imaging device, image processing device)
501 Reference image 502 Reference image 503 Target image 504 Feature point 509 Composite image

Claims (14)

画像合成の位置基準となる基準画像と、画像合成で得られる合成画像に含まれるべき対象物を有する対象画像と、前記対象画像と比較される参照画像とを複数の画像から選択し、前記参照画像と前記対象画像とを位置合わせして差分を抽出することで差分画像を生成する画像処理部と、
前記差分画像を前記基準画像に対して位置合わせして合成することで前記合成画像を生成する画像合成部と、を備えることを特徴とする画像処理装置。
A reference image serving as a position reference for image composition, a target image having an object to be included in the composite image obtained by image composition, and a reference image to be compared with the target image are selected from a plurality of images, and the reference is made. An image processing unit that generates a difference image by aligning the image with the target image and extracting the difference.
An image processing apparatus comprising: an image synthesizing unit that generates the composite image by aligning and synthesizing the difference image with respect to the reference image.
前記画像処理部は、前記参照画像から前記対象画像にかけての特徴点の移動量を示す第1動きベクトルに基づいて前記対象画像を前記参照画像に位置合わせし、
前記画像合成部は、前記基準画像から前記対象画像にかけての前記特徴点の移動量を示す合計ベクトルに基づいて前記差分画像を前記基準画像に位置合わせする、ことを特徴とする請求項1に記載の画像処理装置。
The image processing unit aligns the target image with the reference image based on a first motion vector indicating the amount of movement of the feature point from the reference image to the target image.
The first aspect of claim 1, wherein the image synthesizing unit aligns the difference image with the reference image based on a total vector indicating the amount of movement of the feature points from the reference image to the target image. Image processing equipment.
前記画像処理部は、前記参照画像と前記対象画像との比較によって取得した前記第1動きベクトルを用いて前記合計ベクトルを取得する、ことを特徴とする請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the image processing unit acquires the total vector using the first motion vector acquired by comparing the reference image with the target image. 複数の前記画像が撮影された際の時系列において、前記参照画像は、前記基準画像より後であって前記対象画像より前に撮影されており、
前記画像処理部は、前記基準画像から前記参照画像にかけての前記特徴点の移動量を示す第2動きベクトルと、前記参照画像から前記対象画像にかけての前記特徴点の移動量を示す前記第1動きベクトルとを加算して前記合計ベクトルを取得する、ことを特徴とする請求項2または請求項3に記載の画像処理装置。
In the time series when the plurality of the images are taken, the reference image is taken after the reference image and before the target image.
The image processing unit has a second motion vector showing the amount of movement of the feature point from the reference image to the reference image, and the first motion showing the amount of movement of the feature point from the reference image to the target image. The image processing apparatus according to claim 2 or 3, wherein the total vector is acquired by adding the vector.
前記参照画像と前記対象画像との間に前記差分が存在しない場合に、前記画像合成部は位置合わせおよび画像合成を実行しない、ことを特徴とする請求項1から請求項4のいずれか1項に記載の画像処理装置。 Any one of claims 1 to 4, wherein the image compositing unit does not perform alignment and image compositing when the difference does not exist between the reference image and the target image. The image processing apparatus according to. 前記参照画像および前記対象画像は、複数の前記画像が撮影された際の時系列において隣接する、ことを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, wherein the reference image and the target image are adjacent to each other in a time series when a plurality of the images are taken. 前記画像処理部は、複数の前記対象画像から複数の前記差分画像を順次に生成し、
前記画像合成部は、複数の前記差分画像を1枚の前記基準画像に順次に合成する、ことを特徴とする請求項1から請求項6のいずれか1項に記載の画像処理装置。
The image processing unit sequentially generates a plurality of the difference images from the plurality of target images, and sequentially generates the plurality of difference images.
The image processing apparatus according to any one of claims 1 to 6, wherein the image synthesizing unit sequentially synthesizes a plurality of the difference images into one reference image.
前記基準画像は、複数の前記画像が撮影された際の時系列において1枚目に撮影された画像である、ことを特徴とする請求項7に記載の画像処理装置。 The image processing apparatus according to claim 7, wherein the reference image is an image taken as the first image in a time series when a plurality of the images are taken. 前記基準画像は、最初に差分抽出処理が実行された前記対象画像である、ことを特徴とする請求項1から請求項7のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 7, wherein the reference image is the target image for which the difference extraction process is first executed. 前記画像処理部は、前記差分画像を生成する際に0より小さい差分を0に設定する、ことを特徴とする請求項1から請求項9のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 9, wherein the image processing unit sets a difference smaller than 0 to 0 when generating the difference image. 複数の前記画像の各々には天体像が含まれ、前記対象画像に含まれる前記対象物は流星である、ことを特徴とする請求項1から請求項10のいずれか1項に記載の画像処理装置。 The image processing according to any one of claims 1 to 10, wherein each of the plurality of the images includes an astronomical image, and the object included in the target image is a meteor. apparatus. 請求項1から請求項11のいずれか1項に記載の画像処理装置として機能する撮像装置であって、
連続的な撮影によって複数の前記画像を取得する撮像部を備える、ことを特徴とする撮像装置。
An image pickup apparatus that functions as the image processing apparatus according to any one of claims 1 to 11.
An imaging device including an imaging unit that acquires a plurality of the images by continuous shooting.
画像合成の位置基準となる基準画像と、画像合成で得られる合成画像に含まれるべき対象物を有する対象画像と、前記対象画像と比較される参照画像とを複数の画像から選択することと、
前記参照画像と前記対象画像とを位置合わせして差分を抽出することで差分画像を生成することと、
前記差分画像を前記基準画像に対して位置合わせして合成することで前記合成画像を生成することと、を備えることを特徴とする画像処理方法。
Selecting from a plurality of images a reference image that serves as a position reference for image composition, a target image having an object to be included in the composite image obtained by image composition, and a reference image to be compared with the target image.
To generate a difference image by aligning the reference image and the target image and extracting the difference,
An image processing method comprising: generating the composite image by aligning the difference image with respect to the reference image and synthesizing the composite image.
請求項13に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。 A program comprising causing a computer to execute the image processing method according to claim 13.
JP2019169447A 2019-09-18 2019-09-18 Image processing device, imaging device, image processing method, and program Pending JP2021047608A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019169447A JP2021047608A (en) 2019-09-18 2019-09-18 Image processing device, imaging device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019169447A JP2021047608A (en) 2019-09-18 2019-09-18 Image processing device, imaging device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2021047608A true JP2021047608A (en) 2021-03-25

Family

ID=74878491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019169447A Pending JP2021047608A (en) 2019-09-18 2019-09-18 Image processing device, imaging device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2021047608A (en)

Similar Documents

Publication Publication Date Title
JP6833746B2 (en) Imaging equipment, imaging methods, programs and recording media
JP6218378B2 (en) Image processing apparatus and image processing method
JP6418879B2 (en) Image processing apparatus, control method thereof, control program, and imaging apparatus
US9591231B2 (en) Image processing apparatus capable of properly emphasizing differences in brightness between bright spots, image processing method, and storage medium
JP7023662B2 (en) Image processing device, image pickup device, control method and program of image processing device
JP2010050934A (en) Image processing device, imaging apparatus, control method of the image processing device and program
US10839497B2 (en) Image processing apparatus and method
JP6833801B2 (en) Imaging equipment, imaging methods, programs and recording media
JP7214681B2 (en) SUBJECT TRACKING DEVICE, SUBJECT TRACKING METHOD, COMPUTER PROGRAM AND STORAGE MEDIUM
JP2005167697A (en) Electronic camera having red-eye correction function
JP7030565B2 (en) Image processing equipment, image processing methods and programs
JP2021047608A (en) Image processing device, imaging device, image processing method, and program
JP7102150B2 (en) Image processing equipment, image processing methods, and programs
JP2019087924A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2008028890A (en) Imaging apparatus, imaging method, and imaging program
JP7051586B2 (en) Imaging equipment, imaging methods and programs
JP2015041865A (en) Image processing apparatus and image processing method
JP6353585B2 (en) Imaging apparatus, control method therefor, program, and storage medium
US11308580B2 (en) Image processing apparatus, image processing method, and recording medium
JP6433177B2 (en) Image processing apparatus and image processing method
JP7458723B2 (en) Image processing device, imaging device, control method, and program
US20240071124A1 (en) Image processing apparatus, imaging apparatus, and control method for controlling image processing apparatus
JP2023041734A (en) Subject tracking device
JP6478481B2 (en) Image processing apparatus, image processing method, and program
JP6525692B2 (en) Image processing apparatus, control method therefor, control program, and imaging apparatus