JP2020043419A - Imaging apparatus, control method of the same, and program - Google Patents

Imaging apparatus, control method of the same, and program Download PDF

Info

Publication number
JP2020043419A
JP2020043419A JP2018167870A JP2018167870A JP2020043419A JP 2020043419 A JP2020043419 A JP 2020043419A JP 2018167870 A JP2018167870 A JP 2018167870A JP 2018167870 A JP2018167870 A JP 2018167870A JP 2020043419 A JP2020043419 A JP 2020043419A
Authority
JP
Japan
Prior art keywords
image
star
long
time
short
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018167870A
Other languages
Japanese (ja)
Other versions
JP7102301B2 (en
Inventor
慎二 久本
Shinji Hisamoto
慎二 久本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018167870A priority Critical patent/JP7102301B2/en
Priority to CN201910743581.0A priority patent/CN110891140B/en
Priority to US16/539,040 priority patent/US11044397B2/en
Publication of JP2020043419A publication Critical patent/JP2020043419A/en
Application granted granted Critical
Publication of JP7102301B2 publication Critical patent/JP7102301B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an imaging apparatus capable of positioning both of a background and stars even if a star to be a subject is moved between photographs which have different field angle in a starry sky panoramic photography, a control method of the same, and a program.SOLUTION: After and before an acquisition of a long second photography image in each difficult field angle, a short second photography A image and a short second photography B image are acquired. Sequentially, for the long second photography image of N-th is composed by a comparison darkness combination compared with a comparison darkness combination image until N-1-th after the positioning with a blurring amount of the short second photography B image of N-1-th and the short second photography A image at N-th to only generate a panoramic image of a simple background. Sequentially, only for N-1-th star extracted from the long second photography image of N-1-th and the comparison darkness combination image until N-th, it is composed by a comparison brightness combination with a comparison darkness combination image until N-1-th after the positioning with the blurring amount of images only in the star to generate the panoramic image of the simple star. A starry panoramic image is generated from the two panoramic images to be generated.SELECTED DRAWING: Figure 6

Description

本発明は、撮像装置及びその制御方法、並びにプログラムに関し。特に星空パノラマ撮影を行う撮像装置及びその制御方法、並びにプログラムに関する。   The present invention relates to an imaging device, a control method thereof, and a program. In particular, the present invention relates to an imaging apparatus that performs a starry sky panoramic image capturing, a control method thereof, and a program.

広大な天体を1枚の画像として収めるための撮影方法の一つとして星空パノラマ撮影がある。   One of the shooting methods for storing a vast celestial object as one image is starry sky panorama shooting.

また、パノラマ画像を生成する技術としては以下の技術が知られている(例えば特許文献1参照)。まず、撮影方向を順次変化させて撮影範囲の一部を構成する複数枚の単位画像を撮像する。その後、N−1枚目及びN枚目に撮像された各単位画像の一部を構成する所定サイズの画像領域を互いに重ね合わせ領域が生じるように切り出す。この切り出しを全ての単位画像に対して行い、切り出された画像領域を順次重ね合わせて合成するという方法である。   Further, as a technique for generating a panoramic image, the following technique is known (for example, see Patent Document 1). First, a plurality of unit images constituting a part of the imaging range are imaged by sequentially changing the imaging direction. Thereafter, image regions of a predetermined size, which constitute a part of each of the unit images captured on the (N-1) -th and N-th sheets, are cut out so that overlapping regions are generated. This is a method in which this extraction is performed on all the unit images, and the extracted image regions are sequentially superimposed and synthesized.

一方、天体の日周運動による撮影面上での位置ずれを光学式振れ補正を行いながら撮影と合成を繰り返すことで位置合わせの失敗を防ぎつつより広い画角の撮影画像を得る技術も知られている(例えば特許文献2参照)。   On the other hand, there is also known a technique for obtaining a captured image having a wider angle of view while preventing misalignment by repeating photographing and synthesizing while performing optical shake correction for a positional shift on a photographing surface due to a diurnal motion of a celestial body. (For example, see Patent Document 2).

天体を撮影する際は星の光量が微量であることから30秒や1分といった長時間の露光を行うことが多い。一方、天体は地球の自転に合わせて日周運動をしているため、特許文献2のように光学式振れ補正を行うことなく長時間露光すると星は点像にならず光跡となってしまう。   When photographing an astronomical object, a long exposure time of 30 seconds or 1 minute is often performed because the amount of light of the star is very small. On the other hand, since the celestial body performs a diurnal motion in accordance with the rotation of the earth, stars are not point images but light trails when exposed for a long time without performing optical shake correction as in Patent Document 2. .

従って、天体をパノラマ撮影する際は、光跡にならない程度の露光時間で画角の異なる画像(天体画像)を単位画像として撮影することが必要になる。   Therefore, when taking a panoramic photograph of an astronomical object, it is necessary to photograph an image (astronomical image) having a different angle of view as a unit image with an exposure time that does not cause a light trail.

特開2005−328497号公報JP 2005-328497 A 特開2016−005160号公報JP-A-2006-005160

しかしながら長時間露光で撮影された天体画像同士では時間の経過により星が動くため、各単位画像から切り出された画像領域を順次重ね合わせて合成する際、背景及び星の夫々を位置合わせすることは困難である。   However, since stars move with the passage of time between astronomical images taken with long exposure, when the image regions cut out from each unit image are sequentially superimposed and synthesized, it is not possible to align the background and the star respectively. Have difficulty.

図3は、星空パノラマ撮影の際の画角の異なる2つの画像301,302を合成した際の位置合わせの失敗例である。   FIG. 3 shows an example of a failure in alignment when two images 301 and 302 having different angles of view are combined during starry sky panoramic photography.

図3では、まず、カメラを所定方向に向けて長秒露光撮影を行うことにより画像301を取得する。その後、カメラを所定角度までパンニングした後、再度長秒露光撮影を行うことにより画像302を取得する。   In FIG. 3, first, the image 301 is obtained by performing long-second exposure shooting with the camera directed in a predetermined direction. Thereafter, after panning the camera to a predetermined angle, the image 302 is obtained by performing long-time exposure photography again.

その後、画像301,302の重ね合わせ領域に対してぶれ量算出と位置合わせを行い、合成することでパノラマ画像303を生成している。しかし、被写体となる星は移動体であるため、生成されたパノラマ画像303の重ね合わせ領域において星が二重像になってしまうという問題が生じる。また、星空パノラマ撮影際に行われる複数回の長秒露光撮影を全て終了するまでには時間がかかり、撮り始めの画像と撮り終わりの画像とでは背景と星の相対関係が変わってしまうという問題も生じる。   After that, a blur amount calculation and a position adjustment are performed on a superimposed region of the images 301 and 302, and the images are combined to generate a panoramic image 303. However, since the star to be the subject is a moving object, there is a problem that the star becomes a double image in the overlapping area of the generated panoramic image 303. In addition, it takes time to complete all of the multiple long-second exposure shootings performed during the starry sky panorama shooting, and the relative relationship between the background and the star changes between the image at the start of shooting and the image at the end of shooting. Also occurs.

また、特許文献1,2で開示されている従来技術では、背景または星のどちらか一方の被写体に対する位置合わせはできるが、撮影と撮影の間で被写体となる星が動いた場合に背景と星の両方の位置合わせを行うことはできない。   Further, in the prior arts disclosed in Patent Documents 1 and 2, alignment with respect to either the background or the star can be performed. However, when a star serving as a subject moves between shootings, the background and the star move. Cannot perform both alignments.

そこで本発明の目的は、星空パノラマ撮影において画角の異なる撮影と撮影の間で被写体となる星が動いても背景と星の両方の位置合わせを行うことができる撮像装置及びその制御方法、並びにプログラムを提供する。   Therefore, an object of the present invention is to provide an imaging apparatus and a control method thereof that can perform both positioning of a background and a star even when a star serving as a subject moves between shootings having different angles of view in a starry sky panoramic shooting, and Provide a program.

本発明の請求項1に係る撮像装置は、異なる画角での長秒露光撮影により得られるn枚の長秒撮影画像を使用して星空パノラマ画像を生成する撮像装置において、前記異なる画角の夫々で、前記長秒露光撮影の前後に短秒露光撮影を行うことにより第1及び第2の短秒撮影画像を取得する取得手段と、N−1枚目(Nは2〜nまでの整数)の前記第2の短秒撮影画像とN枚目の前記第1の短秒撮影画像から画角間ぶれ量を算出する第1のぶれ量算出手段と、前記画角間ぶれ量を用いて、N−1枚目の前記長秒撮影画像に対する、N枚目の長秒撮影画像の位置合わせを行う第1の位置合わせ手段と、順次、前記位置合わせが行われたN枚目の前記長秒撮影画像と、N−1枚目までの前記長秒撮影画像の合成結果である比較暗合成画像とを比較暗合成し、背景のみパノラマ画像を生成する第1の合成手段と、N−1枚目の前記長秒撮影画像とN枚目までの合成結果である比較暗合成画像の差分画像をN−1枚目の星のみ画像として抽出する差分画像抽出手段と、N−1枚目の前記星のみ画像とN枚目の前記星のみ画像から星のみ画像間ぶれ量を算出する第2のぶれ量算出手段と、前記星のみ画像間ぶれ量を用いて、N−1枚目の前記星のみ画像に対する、N枚目の前記星のみ画像の位置合わせを行う第2の位置合わせ手段と、順次、前記位置合わせが行われたN枚目の前記星のみ画像と、N−1枚目までの前記星のみ画像の合成結果である比較明合成画像とを比較明合成し、星のみパノラマ画像を生成する第2の合成手段と、前記背景のみパノラマ画像と前記星のみパノラマ画像とを加算合成して星空パノラマ画像を生成する第3の合成手段とを備えることを特徴とする。   An image pickup apparatus according to claim 1 of the present invention is an image pickup apparatus that generates a starry sky panoramic image using n long-time shot images obtained by long-time exposure shooting at a different angle of view. Acquiring means for acquiring first and second short-time photographed images by performing short-time exposure photographing before and after the long-time exposure photographing, respectively, and an (N-1) -th image (N is an integer from 2 to n) A) a first blur amount calculating means for calculating a blur amount between view angles from the second short-time shot image and the N-th first short-time shot image; (1) first alignment means for aligning the N-th long-second captured image with respect to the first long-second captured image, and the N-th long-second captured image sequentially aligned The image is compared with a comparative dark synthetic image which is a result of synthesizing the long-second captured images up to the (N-1) th image. A first synthesizing means for generating a panoramic image of only the background, and N-1 images representing the difference between the (N-1) -th long-time photographed image and the comparative dark-synthesized image, which is the synthesis result up to the N-th image Difference image extracting means for extracting an eye-only star image, and second blur amount calculating means for calculating a star-to-star image blur amount from the (N-1) th star-only image and the N-th star-only image Second positioning means for positioning the N-th star-only image with respect to the (N-1) -th star-only image using the star-only inter-image blurring amount; A comparatively bright composite of the N-th star-only image that has been combined and the comparative bright composite image that is the composite result of the (N-1) -th star-only image is performed to generate a star-only panoramic image. 2, combining the background only panoramic image and the star only panoramic image. Synthesized and characterized in that it comprises a third synthesizing means for generating a starry sky panoramic image.

本発明によれば、星空パノラマ撮影において画角の異なる撮影と撮影の間で被写体となる星が動いても背景と星の両方の位置合わせを行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, even if the star used as a subject moves between imaging | photography with a different angle of view in starry sky panorama imaging | photography, both a background and a star can be aligned.

本発明の実施例1に係る撮像装置のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram illustrating a hardware configuration of the imaging device according to the first embodiment of the present invention. パノラマ撮影の概要を説明するための図である。It is a figure for explaining the outline of panorama photography. 星空パノラマ合成の課題を説明する概念図である。It is a conceptual diagram explaining the subject of a starry sky panorama synthesis | combination. 図1の撮像装置における通常の撮影処理の手順を示すフローチャートである。3 is a flowchart illustrating a procedure of a normal photographing process in the imaging device in FIG. 1. 本発明の実施例1に係る星空パノラマ撮影処理の手順を示すフローチャートである。6 is a flowchart illustrating a procedure of a starry sky panorama shooting process according to the first embodiment of the present invention. 図5のステップS503の撮影及び背景のみパノラマ画像生成の並行処理の手順を示すフローチャートである。FIG. 6 is a flowchart illustrating a procedure of a parallel process of photographing and generating only a background panoramic image in step S503 in FIG. 5. 図6の処理における撮影及び背景のみパノラマ画像生成の並行処理の流れを示すデータフローダイアグラムである。FIG. 7 is a data flow diagram showing a flow of parallel processing of shooting and background only panoramic image generation in the processing of FIG. 6. 図5のステップS504の星のみパノラマ画像生成処理の手順を示すフローチャートである。FIG. 6 is a flowchart illustrating a procedure of a star-only panorama image generation process in step S <b> 504 in FIG. 5. 図8の処理における星空のみパノラマ画像の生成の流れを示す概念図である。FIG. 9 is a conceptual diagram showing a flow of generating a panoramic image of only the starry sky in the processing of FIG. 8. 図5のステップS505の星空パノラマ画像生成処理の手順を示すフローチャートである。6 is a flowchart illustrating a procedure of a starry sky panoramic image generation process in step S505 in FIG. 本発明の実施例2に係る星空パノラマ画像生成処理の手順を示すフローチャートである。9 is a flowchart illustrating a procedure of a starry sky panoramic image generation process according to the second embodiment of the present invention. 本発明の実施例2に係る星空パノラマ画像の生成の流れを示す概念図である。It is a conceptual diagram showing the flow of generation of the starry sky panorama image concerning Example 2 of the present invention. 本発明の実施例2に係る警告表示の例を示す図である。It is a figure showing an example of a warning display concerning Example 2 of the present invention.

以下、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

はじめにパノラマ撮影の概要について図2を用いて説明する。   First, an overview of panoramic shooting will be described with reference to FIG.

まず、図2(a)に示すように、撮像装置100をユーザ202が直接、もしくは自動雲台等に載せた状態でパンニングしながら順次撮影が行われ、複数の画像を取得する。図2(b)に示すように、この取得される複数の画像の夫々に、被写体の重ね合わせ領域が含まれるように撮影は行われる。   First, as shown in FIG. 2A, the user 202 sequentially captures images while panning the image capturing apparatus 100 directly or with the image capturing apparatus 100 mounted on an automatic camera platform or the like, and acquires a plurality of images. As shown in FIG. 2B, shooting is performed such that each of the plurality of acquired images includes a superimposed region of the subject.

1枚目の画像と2枚目の画像が取得されると重ね合わせ領域の特徴点を両画像から抽出し、その特徴点が画像間でどのくらい動いたかを示す移動ベクトル(ぶれ量)を検出する。その移動ベクトルを例えばアフィン変換の係数に変換し、特徴点が一致するように1枚目の画像と2枚目の画像を重ね合わせることで合成画像が得られる。   When the first image and the second image are acquired, the feature points of the overlapping area are extracted from both images, and a movement vector (a blur amount) indicating how much the feature points have moved between the images is detected. . The movement vector is converted into, for example, affine transformation coefficients, and the composite image is obtained by superimposing the first image and the second image so that the feature points match.

以降は、合成画像と直前に撮影された画像を順次重ね合わせることでパノラマ画像(全景画像)を生成する。生成するパノラマ画像が星空パノラマ画像である場合、パンニングしながら順次行われる撮影は長秒露光撮影となるため、三脚を使った撮影が望ましい。   Thereafter, a panoramic image (whole view image) is generated by sequentially superimposing the composite image and the image captured immediately before. When the panorama image to be generated is a starry sky panorama image, shooting performed sequentially while panning is long-time exposure shooting, so shooting using a tripod is desirable.

図1は本発明の実施例1に係る撮像装置100のハードウェア構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a hardware configuration of the imaging apparatus 100 according to the first embodiment of the present invention.

図1において、撮像装置100は、撮影レンズ101、AF(オートフォーカス)駆動回路102、マイクロコンピュータ123、絞り103、絞り駆動回路104、主ミラー105、サブミラー106、及びミラー駆動回路107を備える。また、撮像装置100は、ペンタプリズム108、露光量算出回路109、フォーカルプレーンシャッタ(以下、単に「シャッタ」という)110、シャッタ駆動回路111、撮像センサ112、A/D変換器115、及び映像信号処理回路116を備える。撮像装置100は、さらに、メモリコントローラ119、メモリ120、外部インターフェイス121、バッファメモリ122、操作部材124、レリーズスイッチ125、及び液晶駆動回路127を備える。また、撮像装置100は、外部液晶表示部材(以下「液晶モニタ」という)128、ファインダ内液晶表示部材129、不揮発性メモリ130、電源部131、時計132、ジャイロ133、及び方位計134を備える。   In FIG. 1, the imaging apparatus 100 includes a photographing lens 101, an AF (autofocus) driving circuit 102, a microcomputer 123, an aperture 103, an aperture driving circuit 104, a main mirror 105, a sub mirror 106, and a mirror driving circuit 107. Further, the imaging apparatus 100 includes a pentaprism 108, an exposure amount calculation circuit 109, a focal plane shutter (hereinafter, simply referred to as “shutter”) 110, a shutter driving circuit 111, an imaging sensor 112, an A / D converter 115, and a video signal. The processing circuit 116 is provided. The imaging device 100 further includes a memory controller 119, a memory 120, an external interface 121, a buffer memory 122, an operation member 124, a release switch 125, and a liquid crystal drive circuit 127. Further, the imaging apparatus 100 includes an external liquid crystal display member (hereinafter, referred to as “liquid crystal monitor”) 128, a liquid crystal display member 129 in a finder, a nonvolatile memory 130, a power supply unit 131, a clock 132, a gyro 133, and a compass 134.

AF駆動回路102は、例えばDCモータやステッピングモータによって構成され、マイクロコンピュータ123の制御によって撮影レンズ101のフォーカスレンズ位置を変化させることによりピントを合わせる。   The AF drive circuit 102 is configured by, for example, a DC motor or a stepping motor, and focuses by changing the focus lens position of the photographing lens 101 under the control of the microcomputer 123.

絞り駆動回路104は、絞り103を駆動する。駆動されるべき量はマイクロコンピュータ123によって算出され、光学的な絞り値を変化させる。   The aperture driving circuit 104 drives the aperture 103. The amount to be driven is calculated by the microcomputer 123 and changes the optical aperture value.

主ミラー105は、撮影レンズ101から入射した光束をファインダを構成するペンタプリズム108側に導くか撮像センサ112側に導くかを切り替えるためのミラーである。主ミラー105は、常時はペンタプリズム108へと光束を導くが、撮影が行われる場合やライブビュー表示の場合には、撮像センサ112へと光束を導くように上方に跳ね上がり光束中から待避する。また主ミラー105はその中央部が光の一部を透過できるようにハーフミラーとなっており、光束の一部を、焦点検出を行うためのセンサ(不図示)に入射するように透過させる。尚、ファインダはペンタプリズム108の他に図1においては不図示のピント板やアイピースレンズなどによって構成される。   The main mirror 105 is a mirror for switching between guiding the light beam incident from the photographing lens 101 to the pentaprism 108 constituting the viewfinder or the image sensor 112. The main mirror 105 always guides the light beam to the pentaprism 108, but in the case of photographing or live view display, the main mirror 105 jumps upward to guide the light beam to the image sensor 112 and escapes from the light beam. The main mirror 105 is a half mirror so that a central part thereof can transmit a part of light, and transmits a part of the light flux so as to be incident on a sensor (not shown) for performing focus detection. The finder is constituted by a focus plate, an eyepiece lens, etc., not shown in FIG.

サブミラー106は、主ミラー105から透過してきた光束を反射させ、焦点検出を行うためのセンサ(不図示)や露光量算出回路109内に配置されているセンサ(不図示)に導く。   The sub-mirror 106 reflects a light beam transmitted from the main mirror 105 and guides the light beam to a sensor (not shown) for performing focus detection and a sensor (not shown) arranged in the exposure amount calculation circuit 109.

ミラー駆動回路107は、マイクロコンピュータ123の制御によって主ミラー105を駆動する。   The mirror driving circuit 107 drives the main mirror 105 under the control of the microcomputer 123.

露光量算出回路109は、主ミラー105の中央部を透過し、サブミラー106で反射された光束を、その内部に配置された光電変換を行うためのセンサで受光する。フォーカス演算に用いるデフォーカス量は、このセンサの出力を演算することによって求められる。マイクロコンピュータ123は、演算結果を評価してAF駆動回路102に指示し、撮影レンズ101を駆動させる。   The exposure amount calculation circuit 109 receives the light beam transmitted through the central portion of the main mirror 105 and reflected by the sub-mirror 106 by a sensor for performing photoelectric conversion disposed therein. The defocus amount used for the focus calculation is obtained by calculating the output of this sensor. The microcomputer 123 evaluates the calculation result and instructs the AF driving circuit 102 to drive the photographing lens 101.

シャッタ駆動回路111は、マイクロコンピュータ123の制御によってシャッタ110を駆動する。すなわち、シャッタ110の開口時間はマイクロコンピュータ123によって制御される。   The shutter drive circuit 111 drives the shutter 110 under the control of the microcomputer 123. That is, the opening time of the shutter 110 is controlled by the microcomputer 123.

撮像センサ112は、CCDやCMOSセンサなどが用いられ、撮影レンズ101によって結像された被写体像をアナログ化された画像信号に変換し、出力する。   As the image sensor 112, a CCD, a CMOS sensor, or the like is used. The image sensor 112 converts a subject image formed by the imaging lens 101 into an analog image signal and outputs the analog image signal.

A/D変換器115は、撮像センサ112から出力された画像信号をAD変換し、出力する。   The A / D converter 115 AD-converts the image signal output from the image sensor 112 and outputs the result.

映像信号処理回路116は、ゲートアレイなどのロジックデバイスにより実現され、A/D変換器115から出力された画像信号の画像に対し各種処理を行ない、画像データとして出力する。具体的には、映像信号処理回路116は、輝度調整回路116a、ガンマ補正回路116b、ぶれ量算出回路116c、位置合わせ回路116d、及び幾何変換回路116eを備える。また、映像信号処理回路116は、変倍回路116f、トリミング回路116g、合成回路116j、現像回路116k、圧縮・伸長回路116l、及び差分画像抽出回路116mを備える。   The video signal processing circuit 116 is realized by a logic device such as a gate array, performs various processes on the image of the image signal output from the A / D converter 115, and outputs the processed image data. Specifically, the video signal processing circuit 116 includes a luminance adjustment circuit 116a, a gamma correction circuit 116b, a blur amount calculation circuit 116c, a positioning circuit 116d, and a geometric conversion circuit 116e. The video signal processing circuit 116 includes a scaling circuit 116f, a trimming circuit 116g, a synthesizing circuit 116j, a developing circuit 116k, a compression / decompression circuit 116l, and a difference image extraction circuit 116m.

輝度調整回路116aは、デジタルゲインによって画像の明るさを調整し、ガンマ補正回路116bは、ガンマ特性によって画像の輝度を調整する。ぶれ量算出回路116cは、2枚の画像の間のぶれ量を算出し、位置合わせ回路116dは、その算出されたぶれ量に応じて2枚の画像の位置合わせを行う。幾何変換回路116eは、撮影レンズ101の歪曲を補正し、変倍回路116fは、画像のサイズを変倍し、トリミング回路116gは、画像の一部を切り出し、合成回路116jは、複数の画像を1枚の画像に合成する。現像回路116kは、画像信号を画像データに変換する現像を行い、圧縮・伸長回路116lは、Jpegなどの一般的な画像形式に圧縮する変換を行い、差分画像抽出回路116mは、複数の画像から差分画像を抽出する。尚、合成回路116jは、単純な加算合成や加算平均合成だけでなく、合成対象の画像の各領域において最も明るい値又は暗い値を持つ画素を選択して1枚の画像を生成する比較明合成や比較暗合成等の処理も行う。   The brightness adjustment circuit 116a adjusts the brightness of the image using a digital gain, and the gamma correction circuit 116b adjusts the brightness of the image using a gamma characteristic. The blur amount calculating circuit 116c calculates the blur amount between the two images, and the positioning circuit 116d aligns the two images according to the calculated blur amount. The geometric transformation circuit 116e corrects the distortion of the photographing lens 101, the scaling circuit 116f changes the size of the image, the trimming circuit 116g cuts out a part of the image, and the combining circuit 116j converts the plurality of images. Combine into one image. The development circuit 116k performs development for converting the image signal into image data, the compression / decompression circuit 116l performs conversion for compressing the image data into a general image format such as Jpeg, and the difference image extraction circuit 116m performs conversion from a plurality of images. Extract the difference image. Note that the synthesis circuit 116j performs not only simple addition synthesis and average addition synthesis but also comparative bright synthesis in which a pixel having the brightest or darkest value in each region of the image to be synthesized is selected to generate one image. And processing such as comparison dark synthesis.

メモリ120は、SDカードやコンパクトフラッシュ(登録商標)などからなる取り外し可能なメモリである。   The memory 120 is a removable memory such as an SD card or a compact flash (registered trademark).

外部インターフェイス121は外部のコンピュータ等に撮像装置100を接続可能とするインターフェイスである。   The external interface 121 is an interface that allows the imaging device 100 to be connected to an external computer or the like.

メモリコントローラ119は、映像信号処理回路116から出力された処理済みの画像データを、メモリ120で保持させるべく出力する。また、メモリコントローラ119は、映像信号処理回路116より処理途中の画像データが送信された場合、これを一時的にバッファメモリ122に保持させるべく出力する。メモリコントローラ119による出力先切り替えはマイクロコンピュータ123の指示により行われる。   The memory controller 119 outputs the processed image data output from the video signal processing circuit 116 so as to be held in the memory 120. In addition, when image data being processed is transmitted from the video signal processing circuit 116, the memory controller 119 outputs the image data to be temporarily stored in the buffer memory 122. The output destination is switched by the memory controller 119 in accordance with an instruction from the microcomputer 123.

メモリコントローラ119は、また、逆にバッファメモリ122やメモリ120から画像データを映像信号処理回路116にマイクロコンピュータ123の指示により出力する。   Conversely, the memory controller 119 outputs image data from the buffer memory 122 or the memory 120 to the video signal processing circuit 116 according to an instruction of the microcomputer 123.

マイクロコンピュータ123は、映像信号処理回路116により、必要に応じて撮像センサ112からの画像信号に含まれる露出情報やホワイトバランスなどの情報を取得し、それらの情報を基にホワイトバランスやゲインを調整するための指示を行う。また、連続撮影動作の場合においては、メモリコントローラ119を制御し、撮影毎に得られる処理途中の各画像データをバッファメモリ122に一時的に保持させつつ、映像信号処理回路116にて画像処理や圧縮処理を順次行う。連像撮影可能枚数は、バッファメモリ122の容量に左右される。またパノラマ撮影時の連続撮影可能枚数についてはさらに1回の撮影で得られる画像データの画像サイズの大きさにも左右される。   The microcomputer 123 obtains information such as exposure information and white balance included in the image signal from the image sensor 112 as needed by the video signal processing circuit 116, and adjusts white balance and gain based on the information. Instructions to do so. Further, in the case of the continuous shooting operation, the video signal processing circuit 116 controls the memory controller 119 to temporarily store the image data in the process of being obtained for each shooting in the buffer memory 122, Compression processing is performed sequentially. The number of continuously shootable images depends on the capacity of the buffer memory 122. Further, the number of continuously shootable images during panoramic shooting is further influenced by the image size of image data obtained by one shot.

メモリコントローラ119は、さらに、外部のコンピュータ等と撮像装置100を接続する外部インターフェイス121を介してメモリ120に記憶されている画像を出力可能である。   The memory controller 119 can further output an image stored in the memory 120 via an external interface 121 that connects the imaging device 100 to an external computer or the like.

操作部材124は、レリーズスイッチ125と接続し、マイクロコンピュータ123にレリーズスイッチ125の信号状態を伝える。マイクロコンピュータ123は操作部材124を介して受信したレリーズスイッチ125の信号の状態に応じて各部をコントロールする。具体的には、レリーズスイッチ125は、ユーザ押下により半押し状態となった場合にSW1信号の状態をONとする。マイクロコンピュータ123はSW1信号の状態がONになるとオートフォーカスの動作を行うと共に、測光動作を行う。また、レリーズスイッチ125は、ユーザ押下により全押し状態となった場合にSW2信号の状態をONとする。マイクロコンピュータ123はSW2信号の状態がONになると画像の記録(撮影)を開始する。またSW1信号及びSW2信号の状態が共にONである間は、連続撮影動作が行われる。   The operation member 124 is connected to the release switch 125 and transmits a signal state of the release switch 125 to the microcomputer 123. The microcomputer 123 controls each part according to the state of the signal of the release switch 125 received via the operation member 124. Specifically, the release switch 125 turns on the state of the SW1 signal when the user is half-pressed by pressing the button. When the state of the SW1 signal is turned ON, the microcomputer 123 performs an autofocus operation and performs a photometric operation. The release switch 125 turns on the state of the SW2 signal when the switch is fully pressed by the user. When the state of the SW2 signal is turned on, the microcomputer 123 starts recording (photographing) an image. Further, while both the state of the SW1 signal and the state of the SW2 signal are ON, the continuous shooting operation is performed.

操作部材124には、他に、図1において不図示の各種ボタン・スイッチと接続されており、これらのボタン・スイッチの状態をマイクロコンピュータ123に伝える。ここで、不図示の各種ボタン・スイッチは、特に限定されるものではない。例えば、ISO設定ボタン、メニューボタン、セットボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン、メニューや再生画像移動のための移動+(プラス)ボタン、移動−(マイナス)ボタン、露出補正ボタンである。また、表示画像拡大ボタン、表示画像縮小ボタン、再生スイッチ、絞り103を設定された絞り量とするための絞りボタン、撮影した画像を消去するための消去ボタン、撮影や再生に関する情報表示ボタンも不図示の各種ボタン・スイッチに含んでいてもよい。尚、上記プラスボタン及びマイナスボタンの各機能は、回転ダイアルスイッチを備えることによって、より軽快に数値や機能を選択することが可能となる。   The operation member 124 is also connected to various buttons and switches (not shown in FIG. 1), and notifies the microcomputer 123 of the states of these buttons and switches. Here, various buttons and switches (not shown) are not particularly limited. For example, an ISO setting button, a menu button, a set button, a flash setting button, a single-shot / continuous-shot / self-timer switching button, a move + (plus) button for moving a menu or a reproduced image, a move-(minus) button, exposure The correction button. The display image enlargement button, the display image reduction button, the reproduction switch, the aperture button for setting the aperture 103 to the set aperture amount, the erasure button for erasing a captured image, and the information display button for photography and reproduction are also not available. It may be included in the various buttons and switches shown. The functions of the plus button and the minus button are provided with a rotary dial switch so that numerical values and functions can be more easily selected.

液晶駆動回路127は、マイクロコンピュータ123の表示内容命令に従って、文字、画像を用いて動作状態やメッセージ等を表示する液晶モニタ128やファインダ内液晶表示部材129を駆動する。   The liquid crystal driving circuit 127 drives a liquid crystal monitor 128 and a finder liquid crystal display member 129 which display an operation state, a message, and the like using characters and images according to a display content command of the microcomputer 123.

また、ファインダ内液晶表示部材129には、不図示のLEDなどのバックライトが配置されており、そのLEDも液晶駆動回路127で駆動される。   A backlight such as an LED (not shown) is disposed on the liquid crystal display member 129 in the finder, and the LED is also driven by the liquid crystal driving circuit 127.

マイクロコンピュータ123は撮影前に設定されているISO感度、画像サイズ、画質に応じた、画像サイズの予測値データをもとに、メモリコントローラ119を通して、メモリ120の容量を確認した上で撮影可能残数を演算することができる。また、この演算結果を必要に応じて液晶モニタ128やファインダ内液晶表示部材129に表示する。   The microcomputer 123 checks the capacity of the memory 120 through the memory controller 119 based on the predicted value data of the image size corresponding to the ISO sensitivity, the image size, and the image quality set before the photographing, and then sets the remaining photographable amount. Numbers can be computed. The calculation result is displayed on the liquid crystal monitor 128 or the liquid crystal display member 129 in the viewfinder as needed.

不揮発性メモリ130は、EEPROMからなり、撮像装置100の電源部131がOFFの状態でも、データを保存することができる。   The nonvolatile memory 130 is composed of an EEPROM, and can store data even when the power supply unit 131 of the imaging device 100 is off.

電源部131は、ON状態のときに各ICや駆動系に必要な電源を供給する。   The power supply unit 131 supplies necessary power to each IC and the drive system when in the ON state.

時計132は、メモリ120に記録する画像データに撮影時刻などを保存したり、後述するように画像そのものに撮影時刻を重畳したりできる。   The clock 132 can store the photographing time and the like in the image data recorded in the memory 120, and can superimpose the photographing time on the image itself as described later.

ジャイロ133は、2軸もしくは3軸で、撮像装置100の回転の角速度を検出する。   The gyro 133 detects the angular velocity of rotation of the imaging device 100 on two axes or three axes.

方位計134は、撮像装置100の撮影レンズ101の光軸方向を検出する。   The compass 134 detects the direction of the optical axis of the imaging lens 101 of the imaging device 100.

以下、図4のフローチャートを用いて撮像装置100における通常の撮影処理を説明する。この処理を開始する前に予め露光量算出回路109によって露光量を算出し、絞り量、蓄積時間、ISO感度を決定しておく。   Hereinafter, a normal photographing process in the imaging device 100 will be described with reference to the flowchart of FIG. Before starting this processing, the exposure amount is calculated in advance by the exposure amount calculation circuit 109, and the aperture amount, the accumulation time, and the ISO sensitivity are determined in advance.

本処理は、レリーズスイッチ125がユーザによって全押しされ、SW2信号の状態がONになったときにマイクロコンピュータ123において開始する。   This processing is started in the microcomputer 123 when the release switch 125 is fully pressed by the user and the state of the SW2 signal is turned on.

まず、マイクロコンピュータ123は予め決められた絞り量を絞り駆動回路104に通知し、絞り103を目的の絞り量にする。次に、撮像センサ112、A/D変換器115などに電源部131から電源を供給し、撮影準備を行う。準備が完了するとミラー駆動回路107を駆動して、主ミラー105を光束中から退避させると共に、シャッタ駆動回路111を駆動してシャッタ110の不図示の先幕を開け、被写体像を撮影レンズ101を通して撮像センサ112に結像させる。   First, the microcomputer 123 notifies a predetermined aperture amount to the aperture drive circuit 104 and sets the aperture 103 to a target aperture amount. Next, power is supplied from the power supply unit 131 to the image sensor 112, the A / D converter 115, and the like, and preparation for photographing is performed. When the preparation is completed, the mirror driving circuit 107 is driven to retract the main mirror 105 from the light beam, and the shutter driving circuit 111 is driven to open the front curtain (not shown) of the shutter 110, and the subject image is passed through the photographing lens 101. An image is formed on the image sensor 112.

続いて予め決められた蓄積時間後にシャッタ駆動回路111を駆動してシャッタ110の不図示の後幕を閉じ、撮像センサ112に蓄積時間の間だけ光が入るようにする。この一連の動作を行って露光を行う(ステップS401)。   Subsequently, after a predetermined accumulation time, the shutter drive circuit 111 is driven to close the rear curtain (not shown) of the shutter 110 so that light enters the image sensor 112 only during the accumulation time. Exposure is performed by performing this series of operations (step S401).

続いて撮像センサ112に結像した被写体像の画像信号をA/D変換器115でデジタル信号へと変換し、映像信号処理回路116に画像信号を読み出すと共にバッファメモリ122へと格納する(ステップS402)。   Subsequently, the image signal of the subject image formed on the image sensor 112 is converted into a digital signal by the A / D converter 115, and the image signal is read out by the video signal processing circuit 116 and stored in the buffer memory 122 (step S402). ).

次に、映像信号処理回路116に読み出した画像信号を現像回路116kにて画像データに変換する現像処理を行う(ステップS403)。この時、画像が適正になるようホワイトバランスを調整してもよいし、ガンマ補正回路116bで暗部にゲインをかける等の画像処理を行ってもよい。   Next, a developing process of converting the image signal read by the video signal processing circuit 116 into image data is performed by the developing circuit 116k (step S403). At this time, the white balance may be adjusted so that the image is appropriate, or image processing such as applying a gain to a dark part by the gamma correction circuit 116b may be performed.

その後、ステップS403の現像処理により得られた画像データを圧縮・伸長回路116lでJPEGなどの汎用的な画像形式に圧縮する変換を行い(ステップS404)、これをメモリ120に書き込み(ステップS405)、本処理を終了する。   Thereafter, the image data obtained by the development processing in step S403 is converted by the compression / decompression circuit 116l into a general-purpose image format such as JPEG (step S404), and is written in the memory 120 (step S405). This processing ends.

尚、ステップS403における画像処理や現像処理を行わず、ステップS402から直接ステップS404に進み、読み出した画像信号そのままを可逆圧縮して、ステップS405でその可逆圧縮された画像信号をメモリ120に保存するよう切り替えてもよい。この切り替えはユーザが操作部材124で行うことが可能である。   Note that the process directly proceeds from step S402 to step S404 without performing the image processing and the developing process in step S403, losslessly compresses the read image signal as it is, and stores the losslessly compressed image signal in the memory 120 in step S405. May be switched. This switching can be performed by the user using the operation member 124.

以下、図5のフローチャートを用いてマイクロコンピュータ123により実行される星空パノラマ撮影処理を説明する。尚、星空パノラマ撮影モードには、撮像装置100を横方向に向きを変えながら撮影するモードと、縦方向に向きを変えながら撮影するモードがあるが、ここでは前者のモードについて説明する。   Hereinafter, the starry sky panorama photographing process executed by the microcomputer 123 will be described with reference to the flowchart of FIG. The starry sky panorama shooting mode includes a mode in which the image capturing apparatus 100 is shot while changing the direction in the horizontal direction and a mode in which the image is shot while changing the direction in the vertical direction. Here, the former mode will be described.

ユーザがメニューボタンを操作して星空パノラマ撮影モードを選択すると(ステップS500でYES)、撮影準備を行う(ステップS501)。   When the user operates the menu button to select the starry sky panorama shooting mode (YES in step S500), preparation for shooting is performed (step S501).

ここで、撮影準備とは、具体的には以下の処理を指す、まず、撮像センサ112、A/D変換器115などに電源部131から電源を供給し、初期設定を行う。次に、ミラー駆動回路107を駆動して主ミラー105を光束中から退避させると共に、シャッタ駆動回路111を駆動してシャッタ110を開いて、被写体像を撮影レンズ101を通して撮像センサ112に結像させる。   Here, the shooting preparation specifically indicates the following processing. First, power is supplied from the power supply unit 131 to the image sensor 112, the A / D converter 115, and the like, and initialization is performed. Next, the mirror drive circuit 107 is driven to retract the main mirror 105 from the light beam, and the shutter drive circuit 111 is driven to open the shutter 110 so that a subject image is formed on the image sensor 112 through the photographing lens 101. .

その後、液晶モニタ128でライブビューの表示を開始する。すなわち、撮像センサ112からの画像信号をA/D変換器115でデジタル信号へと変換し、映像信号処理回路116の現像回路116kで画像データに変換する現像を行い、輝度調整回路116a、ガンマ補正回路116bで画像の明るさ及び輝度を調整する。さらに、その画像データを変倍回路116fで液晶モニタ128に適した画像サイズへと変倍して表示を行う。これを1秒間に24乃至は60回繰り返して行う。   Thereafter, the display of the live view on the liquid crystal monitor 128 is started. That is, the image signal from the image sensor 112 is converted into a digital signal by the A / D converter 115, and is developed into image data by the developing circuit 116k of the video signal processing circuit 116, and the luminance adjustment circuit 116a and the gamma correction are performed. The circuit 116b adjusts the brightness and brightness of the image. Further, the image data is scaled by the scaling circuit 116f to an image size suitable for the liquid crystal monitor 128 and displayed. This is repeated 24 to 60 times per second.

次に、ユーザが液晶モニタ128におけるライブビューを確認しながら、画角を調整した後、レリーズスイッチ125を半押しすると、レリーズスイッチ125はSW1信号の状態をONとする。マイクロコンピュータ123はSW1信号の状態がONになると、測光動作を行い、露光量算出回路109で露光量を算出する。本実施例では、この露光量の算出の際、ライブビューを中止し、サブミラー106に反射された光を露光量算出回路109内のセンサに導くことにより、露光量算出回路109において最適な露光量を算出する。尚、この露光量の算出の際もライブビューを継続するようにしてもよい。この場合は映像信号処理回路116に含まれる不図示の露光量算出回路で最適な露光量を決定する。   Next, when the user adjusts the angle of view while checking the live view on the liquid crystal monitor 128 and then half-presses the release switch 125, the release switch 125 turns on the state of the SW1 signal. When the state of the SW1 signal is turned on, the microcomputer 123 performs a photometric operation, and the exposure calculation circuit 109 calculates the exposure. In this embodiment, when calculating the exposure amount, the live view is stopped, and the light reflected by the sub-mirror 106 is guided to the sensor in the exposure amount calculation circuit 109, so that the optimum exposure amount Is calculated. It should be noted that the live view may be continued even when calculating the exposure amount. In this case, an optimal exposure amount is determined by an exposure amount calculation circuit (not shown) included in the video signal processing circuit 116.

その後、算出された露光量に基づき露光制御を行う。具体的には、算出された露光量に基づき絞り量を決定し、その絞り量を絞り駆動回路104に通知し、絞り103をその絞り量とする。また、算出された露光量に基づき、撮像センサ112の感度や蓄積時間も制御する。このとき、星空パノラマ撮影では長秒露光撮影の際に星が軌跡にならない程度の露光時間になるよう、プログラム線図を用いて蓄積時間が設定される。   Thereafter, exposure control is performed based on the calculated exposure amount. Specifically, the aperture amount is determined based on the calculated exposure amount, the aperture amount is notified to the aperture drive circuit 104, and the aperture 103 is set as the aperture amount. Also, the sensitivity and the accumulation time of the image sensor 112 are controlled based on the calculated exposure amount. At this time, in the starry sky panoramic imaging, the accumulation time is set using the program diagram so that the exposure time is such that the star does not follow the trajectory during long-second exposure imaging.

露光制御後、AF駆動回路102で撮影レンズ101を駆動し、焦点調整も終了すると、不図示のブザー等でユーザに星空パノラマ撮影の準備が終了した旨を通知し、撮影準備を終える。   After the exposure control, the photographing lens 101 is driven by the AF driving circuit 102, and when the focus adjustment is completed, the user is notified by a buzzer or the like (not shown) that preparation for the starry sky panorama photography is completed, and photography preparation is completed.

ステップS501で撮影準備が終了し、ユーザが上記通知を受け、撮像装置100を撮り始めたい向きに向け、レリーズスイッチ125を全押しすると、レリーズスイッチ125はSW2信号の状態をONとする。マイクロコンピュータ123はSW1信号の状態がONになると(ステップS502でYES)、撮影及び背景のみパノラマ画像生成の並行処理へと移行する(ステップS503)。この処理では、星空パノラマ画像を生成するために必要な全ての画像を取得るための撮影と並行して背景のみのパノラマ画像が生成される。この背景のみのパノラマ画像の生成方法については、図7のデータフローダイアグラム、及び図9の概念図も用いて以下に詳細に説明する。   In step S501, the preparation for photographing is completed. When the user receives the above notification and turns the release switch 125 fully toward the direction in which the user wants to start photographing the imaging apparatus 100, the release switch 125 turns on the state of the SW2 signal. When the state of the SW1 signal is turned ON (YES in step S502), the microcomputer 123 shifts to parallel processing of capturing and generating a panoramic image only for the background (step S503). In this process, a panoramic image of only the background is generated in parallel with the photographing for acquiring all the images necessary for generating the starry sky panoramic image. The method of generating the panoramic image with only the background will be described in detail below with reference to the data flow diagram of FIG. 7 and the conceptual diagram of FIG.

図6において、まず、撮影レンズ101のレンズ情報を取得する(ステップS601)。このレンズ情報は後述する歪曲やレンズ周辺部の光量の低下を補正するためのデータなどが含まれる。   In FIG. 6, first, lens information of the photographing lens 101 is obtained (step S601). The lens information includes data for correcting distortion and a decrease in the amount of light around the lens, which will be described later.

次に、最初の画角での長秒露光撮影(以下「1枚目の長秒撮影」という。)を行う(ステップS602)。撮像センサ112、A/D変換器115はライブビュー用の駆動に設定されているため、これを静止画撮影用に切り替える。その後、前述した図4の処理を行なう。尚、ステップS403において、映像信号処理回路116に読み出した画像信号は、映像信号処理回路116に含まれる不図示の回路によって、例えば撮像センサ112のシェーディングなどの補正を行う。このように最小限の加工しか行っていない画像データを以下RAW画像と呼ぶ。続いてこのRAW画像を現像回路116kによって現像しYUV画像とする。具体的には、図7のNが2である場合、1枚目の長秒撮影によりRAW画像601が得られ、これが現像回路116kによって現像され1枚目のYUV画像602となる。   Next, long-second exposure shooting at the first angle of view (hereinafter, referred to as "first long-time shooting") is performed (step S602). Since the imaging sensor 112 and the A / D converter 115 are set to drive for live view, they are switched to those for still image shooting. Thereafter, the processing of FIG. 4 described above is performed. In step S403, the image signal read out to the video signal processing circuit 116 is subjected to correction such as shading of the image sensor 112 by a circuit (not shown) included in the video signal processing circuit 116. Image data that has undergone minimal processing in this manner is hereinafter referred to as a RAW image. Subsequently, the RAW image is developed by the developing circuit 116k to be a YUV image. Specifically, when N in FIG. 7 is 2, a RAW image 601 is obtained by the long-time shooting of the first image, which is developed by the developing circuit 116k to become the first YUV image 602.

ステップS603では、1枚目の高感度短秒露光撮影を行う。以下、N枚目の長秒撮影の直前の高感度短秒露光撮影をN枚目の短秒撮影Aと称し、N枚目の長秒撮影の直後の高感度短秒露光撮影をN枚目の短秒撮影Bと称する。短秒撮影A,Bで得られる画像はぶれ量算出のためだけに使用し、パノラマ合成画像としては使用しない。また、ステップS603で行われる高感度短秒露光撮影はステップS602の長秒撮影の直後の処理であるため、短秒撮影Bに該当する。N枚目の短秒撮影A,BをN枚目の長秒撮影と同じISO感度で行うと、N枚目の短秒撮影A,Bで得られる画像の星がN枚目の長秒撮影と比べて小さく薄くなる。このため、N枚目の短秒撮影A,Bでは、N枚目の長秒撮影より高いISO感度に切り替えて、前述した図4の処理を行なう。具体的には、図7のNが2である場合、1枚目の短秒撮影BによりRAW画像604が得られ、これが現像回路116kによって現像され1枚目のYUV画像605となる。   In step S603, the first high-sensitivity short-second exposure shooting is performed. Hereinafter, the high-sensitivity short-time exposure photography immediately before the N-th long-time exposure is referred to as the N-th short-time exposure A, and the high-sensitivity short-time exposure immediately after the N-th long-time exposure is taken as the N-th exposure. Is referred to as short-time shooting B. The images obtained by the short-time shooting A and B are used only for calculating the amount of blur, and are not used as a panorama composite image. The high-sensitivity short-time exposure shooting performed in step S603 is a process immediately after the long-time shooting in step S602, and thus corresponds to the short-time shooting B. When the Nth short-time shooting A and B are performed at the same ISO sensitivity as the Nth long-time shooting, the stars of the images obtained in the Nth short-time shooting A and B become the Nth long-time shooting It is smaller and thinner than. For this reason, in the Nth short-time shooting A and B, the ISO sensitivity is switched to a higher ISO sensitivity than in the Nth long-time shooting, and the above-described processing in FIG. 4 is performed. Specifically, when N in FIG. 7 is 2, a RAW image 604 is obtained by the first short-time shooting B, and this is developed by the developing circuit 116k to become the first YUV image 605.

ステップS604では、2枚目の長秒撮影までに撮像装置100がどのくらいスイング(回転)されたかを取得するため、まず1枚目の撮影時のジャイロ情報の初期化(リセット)を行う。   In step S604, the gyro information at the time of shooting the first image is first initialized (reset) to obtain how much the imaging apparatus 100 has been swung (rotated) before the second long-time shooting.

ステップS605では、ステップS602の1枚目の長秒撮影及びステップS603の1枚目の短秒撮影Bで得られたYUV画像602,605に対して幾何変換回路116eで既存の技術を用いて撮影レンズ101の歪曲収差を補正する。この補正により、幾何変換後画像603,606を取得する。長秒撮影で得られた幾何変換後画像603を液晶モニタ128に表示させるため、変倍回路116fで液晶モニタ128の画素数に応じて縮小し、バッファメモリ122のVRAM領域611に格納する。その後、カウンタNを2に設定してステップS606に進む。   In step S605, the geometric conversion circuit 116e captures the YUV images 602 and 605 obtained in the first long-time shooting B in step S602 and the first short-time shooting B in step S603 using existing technology. The distortion of the lens 101 is corrected. With this correction, the images 603 and 606 after geometric transformation are obtained. In order to display the post-geometric transformation image 603 obtained by long-time shooting on the liquid crystal monitor 128, the image is reduced by the scaling circuit f according to the number of pixels of the liquid crystal monitor 128 and stored in the VRAM area 611 of the buffer memory 122. Thereafter, the counter N is set to 2, and the process proceeds to step S606.

ステップS606では、N枚目の短秒撮影AによりRAW画像608を得た後、現像回路116kによって現像しYUV画像609とする。   In step S606, after the RAW image 608 is obtained by the Nth short-time shooting A, the image is developed by the developing circuit 116k to be a YUV image 609.

続いてステップS607では、N枚目の長秒撮影によりRAW画像613を得た後、現像回路116kによって現像しYUV画像614とする。   Subsequently, in step S607, after the RAW image 613 is obtained by the N-th long-time shooting, the image is developed by the developing circuit 116k to be a YUV image 614.

さらに、ステップS608では、N枚目の短秒撮影BによりRAW画像616を得た後、現像回路116kによって現像しYUV画像617とする。   Further, in step S608, after a RAW image 616 is obtained by the Nth short-time shooting B, the image is developed by the developing circuit 116k to be a YUV image 617.

ステップS609では、N−1枚目の撮影時からN枚目の撮影時までの撮像装置100の回転角度をジャイロ情報として取得する。ジャイロ情報としては、撮像装置100に対してYaw方向、Pitch方向の2軸に関する回転角度を取得するが、光軸に対しての回転であるRoll方向の3軸に関する回転角度を取得することも好ましい。尚、ジャイロ133からの出力そのものは角速度であるため、これを積分した回転角度をジャイロ情報として算出する。この算出された回転角度は、N>2の場合のジャイロ情報を計算する際必要となるため、ジャイロ情報607として記憶しておく。   In step S609, the rotation angle of the imaging device 100 from the time of photographing the (N-1) th image to the time of photographing the Nth image is acquired as gyro information. As the gyro information, rotation angles about two axes in the Yaw direction and the Pitch direction with respect to the imaging device 100 are acquired, but it is also preferable to acquire rotation angles about three axes in the Roll direction that is rotation about the optical axis. . Since the output from the gyro 133 is an angular velocity itself, a rotation angle obtained by integrating the angular velocity is calculated as gyro information. Since the calculated rotation angle is necessary when calculating the gyro information when N> 2, it is stored as the gyro information 607.

ステップS610では、ステップS601で取得した撮影レンズ101の焦点距離や、画角、撮像センサ112の情報などから、ステップS609で算出されたジャイロ情報を画素単位に変換し、撮像装置100の移動量を計算する。   In step S610, the gyro information calculated in step S609 is converted into pixel units based on the focal length of the photographing lens 101, the angle of view, information on the image sensor 112, and the like acquired in step S601, and the amount of movement of the imaging device 100 is calculated. calculate.

ここで、撮影レンズ101の歪曲補正後の画角(α)は、実効焦点距離をf[mm]、撮像センサ112の幅をw[mm]とすると、以下の式1で計算される。
α[°] = 2 × arctan( w[mm]÷ 2 ÷f[mm] ) (式1)
Here, the angle of view (α) of the photographing lens 101 after the distortion correction is calculated by the following equation 1, assuming that the effective focal length is f [mm] and the width of the image sensor 112 is w [mm].
α [°] = 2 × arctan (w [mm] ÷ 2 ÷ f [mm]) (Equation 1)

撮像センサ112の1画素あたりのサイズをp[μm]、スイング角[°]をθとすると、画像における移動量d[pix]は式7の通りとなる。
d[pix] = tan( α[°]÷2 ) × f[mm] / p[μm] × 1000 (式2)
Assuming that the size per pixel of the image sensor 112 is p [μm] and the swing angle [°] is θ, the moving amount d [pix] in the image is as shown in Expression 7.
d [pix] = tan (α [°] ÷ 2) × f [mm] / p [μm] × 1000 (Equation 2)

ステップS611では、N枚目の短秒撮影A、長秒撮影、及び短秒撮影Bで得られたYUV画像609,614,617に対してステップS605と同様の方法で撮影レンズ101の歪曲収差の補正を行い、幾何変換後画像610,615,618を取得する。この際、1枚目の長秒撮影で得られた幾何変換後画像603と同様に、N枚目の長秒撮影で得られた幾何変換後画像615を液晶モニタ128に表示させる。このため、幾何変換後画像615は、変倍回路116fで液晶モニタ128の画素数に応じて縮小された後、バッファメモリ122のVRAM619に格納される。   In step S611, the distortion aberration of the photographing lens 101 is determined for the N-th YUV images 609, 614, and 617 obtained in the short-time shooting A, the long-time shooting, and the short-time shooting B in the same manner as in step S605. After the correction, the images 610, 615, and 618 after the geometric transformation are obtained. At this time, similarly to the post-geometric conversion image 603 obtained by the first long-time shooting, the post-geometric conversion image 615 obtained by the N-th long-time shooting is displayed on the liquid crystal monitor 128. For this reason, the image 615 after the geometric transformation is reduced by the scaling circuit 116f according to the number of pixels of the liquid crystal monitor 128, and then stored in the VRAM 619 of the buffer memory 122.

ステップS612では、ぶれ量算出回路116cを用いてN−1枚目(前回)の短秒撮影Bで得られた幾何変換後画像606とN枚目(今回)の短秒撮影Aで得られた幾何変換後画像610の間のぶれ量、すなわち画角間ぶれ量を算出する。ぶれ量の算出に関しては既知の方法が使えるが、本実施例ではぶれ量算出回路116cで両画像内の重ね合わせ領域における特徴点を抽出し、標本化することでぶれ量としてのアフィン係数612を算出している。例えばここで特徴点1が座標(x1,y1)から座標(u1,v1)に、特徴点2が座標(x2,y2)から(u2,v2)に、特徴点3が座標(x3,y3)から(u3,v3)にずれていたとする。すると式1から連立方程式を作ると式3、式4のようになる。   In step S612, the image 606 obtained from the (N-1) th (previous) short-time shooting B and the N-th (current) short-time shooting A using the blur amount calculation circuit 116c are obtained. The amount of blur between the images 610 after the geometric transformation, that is, the amount of blur between the angles of view, is calculated. Although a known method can be used to calculate the blur amount, in this embodiment, the affine coefficient 612 as the blur amount is extracted by sampling the feature points in the superimposed regions in both images by the blur amount calculation circuit 116c and sampling the extracted feature points. It has been calculated. For example, here, feature point 1 is from coordinates (x1, y1) to coordinates (u1, v1), feature point 2 is from coordinates (x2, y2) to (u2, v2), and feature point 3 is coordinates (x3, y3). To (u3, v3). Then, when simultaneous equations are formed from Equation 1, Equations 3 and 4 are obtained.

この方程式を解くことでa〜fのアフィン係数を算出することが可能である。4点以上の特徴点が検出できた場合は、近い点を除外して最小二乗法を用いて正規化する。3点以上の特徴点が検出できない場合、検出された3点の特徴点が直線状になっている場合、及び検出された3点のうち2点が近い場合は、ぶれ量の算出に失敗したと判断する。   By solving this equation, the affine coefficients a to f can be calculated. If four or more feature points are detected, close points are excluded and normalization is performed using the least squares method. If three or more feature points cannot be detected, if the three detected feature points are linear, and if two of the three detected points are close, the calculation of the blur amount has failed. Judge.

このようにして算出されたぶれ量(アフィン係数)と、ステップS610で計算された移動量とが大きく異なる場合は、幾何変換後画像606,601に繰り返しパターンや移動体が含まれていることが考えられる。この場合、別の条件下で再度ぶれ量を算出したり、この撮影を失敗とし、ステップS606に戻り、N枚目の撮影を再度行ったり、あるいは星空パノラマ撮影を失敗したことの警告を出す。   If the blur amount (affine coefficient) calculated in this way greatly differs from the movement amount calculated in step S610, the post-geometric transformation images 606 and 601 may include a repeated pattern or moving object. Conceivable. In this case, the blur amount is calculated again under another condition, or this photographing is determined to be failed, and the process returns to step S606 to warn that the Nth photographing is performed again or that the starry sky panoramic photographing has failed.

ステップS613では、ステップS612で算出したぶれ量(アフィン係数)をもとに、位置合わせ回路116dが、N−1枚目の長秒撮影で得られた幾何変換後画像603に対して、N枚目の長秒撮影で得られた幾何変換後画像615の位置合わせを行う。これにより、位置合わせ画像621を取得する。   In step S613, based on the shake amount (affine coefficient) calculated in step S612, the positioning circuit 116d performs N-image conversion on the post-geometric transformation image 603 obtained in the (N-1) -th long-time shooting. The position of the geometrically transformed image 615 obtained by long-second imaging of the eye is aligned. Thereby, the alignment image 621 is obtained.

ステップS614では、合成回路116jが、ステップS613で取得した位置合わせ画像621とN−1枚目までの合成結果である比較暗合成画像620に対して比較暗合成を行ない、比較暗合成画像622を取得する。尚、N=2の場合は、1枚目の長秒撮影で得られた幾何変換後画像603をN−1枚目までの合成結果である比較暗合成画像620として用いる。以下、比較暗合成処理について図9の画像処理の概念図を用いて説明する。   In step S614, the combining circuit 116j performs comparative dark combining on the alignment image 621 acquired in step S613 and the comparative dark combined image 620, which is the result of combining up to the (N-1) th sheet, and outputs the comparative dark combined image 622. get. When N = 2, the geometrically transformed image 603 obtained by the first long-time shooting is used as a comparative dark combined image 620 which is a result of combining up to the (N-1) th image. Hereinafter, the comparative dark synthesis processing will be described with reference to the conceptual diagram of the image processing in FIG.

図9に示すように、被写体である星が移動している間に、画角901〜904の長秒撮影により得られた1枚目から4枚目の幾何変換後画像(以下単に「長秒撮影画像」という。)905,908,911,914が取得される。   As shown in FIG. 9, while the star, which is the subject, is moving, the first to fourth geometrically transformed images (hereinafter simply referred to as “long 905, 908, 911, and 914 are acquired.

一方、1枚目の長秒撮影の直後に1枚目の短秒撮影Bにより得られた幾何変換後画像(以下「短秒撮影B画像」(第2の短秒撮影画像)という。)906が取得される。また、2枚目の長秒撮影の直前に短秒撮影Aにより得られた幾何変換後画像(以下「短秒撮影A画像」(第1の短秒撮影画像)という。)907が取得され、2枚目の長秒撮影の直後に短秒撮影B画像909が取得される。同様に、3枚目、4枚目の長秒撮影の直前には夫々短秒撮影A画像910,913が取得され、3枚目、4枚目の長秒撮影の直後には夫々短秒撮影B画像912,915が取得される。   On the other hand, an image after geometric transformation (hereinafter, referred to as a “short-time photographed B image” (second short-time photographed image)) 906 obtained by the first short-time photographing B immediately after the first image is photographed. Is obtained. Further, an image after geometric transformation (hereinafter, referred to as a “short-second photographed A image” (first short-second photographed image)) 907 obtained by the short-second photographing A immediately before the second long-second photographing is obtained, and Immediately after the second long-time shooting, a short-time shot B image 909 is obtained. Similarly, short-time shooting A images 910 and 913 are acquired immediately before the third and fourth long-time shooting, and short-time shooting is performed immediately after the third and fourth long-time shooting. B images 912 and 915 are acquired.

まず、1枚目の短秒撮影B画像906と2枚目の短秒撮影A画像907の重ね合わせ領域における星のぶれ量916を算出する。同様に、2枚目の短秒撮影B画像909と3枚目の短秒撮影A画像910を使ってぶれ量917を算出し、3枚目の短秒撮影B画像912と4枚目の短秒撮影A画像913を使ってぶれ量918を算出する。   First, a blur amount 916 of a star in an overlapping area of the first short-time photographed B image 906 and the second short-time photographed A image 907 is calculated. Similarly, the blur amount 917 is calculated using the second short-time B image 909 and the third short-time A image 910, and the third short-time B image 912 and the fourth The blur amount 918 is calculated using the second shot A image 913.

算出されたぶれ量916,917,918は夫々、長秒撮影画像908,911,914に対して比較暗合成処理を行なうことにより比較暗合成画像919,920,921を取得する際に用いられる。具体的には、比較暗合成画像919は、1枚目の長秒撮影画像901と2枚目の長秒撮影画像908をぶれ量916に基づく位置合わせをした状態で比較暗合成することにより生成される。比較暗合成画像919で示すように、比較暗合成の対象となる画像(ここでは、長秒撮影画像905,908)の重ね合わせ領域において、背景は動いていないため残るが、星は動いているため残らない。   The calculated blur amounts 916, 917, and 918 are used when comparative dark synthetic images 919, 920, and 921 are obtained by performing comparative dark synthetic processing on the long-second captured images 908, 911, and 914, respectively. More specifically, the comparative dark synthetic image 919 is generated by performing comparative dark synthetic on the first long second photographed image 901 and the second long second photographed image 908 in a state of being aligned based on the blur amount 916. Is done. As shown by the comparative dark synthetic image 919, in the superimposed area of the images to be subjected to the comparative dark synthetic (here, the long-second captured images 905 and 908), the background remains because the moving is not performed, but the star is moving. Do not remain.

尚、N>2の場合、N−1枚目までの合成結果である比較暗合成画像とN枚目の長秒撮影画像を、N−1枚目の短秒撮影B画像とN枚目の短秒撮影A画像を使って算出されたぶれ量に基づく位置合わせをした状態で比較暗合成する。これにより、N枚目までの合成結果である比較暗合成画像を生成する。例えば、3枚目までの合成結果である比較暗合成画像920は、2枚目までの合成結果である比較暗合成画像919と3枚目の長秒撮影画像911をぶれ量917に基づく位置合わせをした状態で比較暗合成することにより生成される。同様の比較暗合成を繰り返すことで、比較暗合成画像921のように背景部分の領域が徐々に繋がった背景のみパノラマ画像が生成できる。   In the case of N> 2, the comparative dark synthetic image and the N-th long-time photographed image, which are the combined results up to the (N-1) th image, are compared with the (N-1) -th short-time photographed B image and the N-th image. The comparative dark synthesis is performed in a state where the position is adjusted based on the shake amount calculated using the short-time shooting A image. As a result, a comparative dark synthetic image, which is the synthesis result up to the Nth sheet, is generated. For example, the comparative dark synthetic image 920 which is the synthetic result up to the third image is aligned with the comparative dark synthetic image 919 which is the synthetic result up to the second image and the third long-time captured image 911 based on the blur amount 917. Are generated by performing comparative dark synthesis in a state in which. By repeating the similar comparative dark synthesis, a panoramic image can be generated only for the background where the background area is gradually connected like the comparative dark synthetic image 921.

図6に戻り、ステップS615では、ステップS608の短秒撮影Bが終了した後、所定時間が経過するまでの期間中にユーザがレリーズスイッチ125を全押しすると、レリーズスイッチ125はSW2信号をONとする。この場合、撮影はまだ終了しないと判定し(ステップS615でNO)、カウントNを1つインクリメントした後、ステップS606からの処理を繰り返す。一方、上記期間中にユーザがレリーズスイッチ125を全押ししなかった場合、撮影を終了すると判定し(ステップS615でYES)、本処理を終了する。尚、以下の処理では、ステップS615において撮影を終了すると判定したときのカウンタNの値がnである場合について説明する。   Returning to FIG. 6, in step S615, when the user fully presses the release switch 125 during a period until the predetermined time elapses after the short-time shooting B in step S608 is completed, the release switch 125 turns on the SW2 signal. I do. In this case, it is determined that the shooting has not been completed yet (NO in step S615), and after the count N is incremented by one, the processing from step S606 is repeated. On the other hand, if the user does not fully press the release switch 125 during the above period, it is determined that the shooting is to be ended (YES in step S615), and this processing ends. In the following processing, a case will be described in which the value of the counter N is n when it is determined in step S615 that the shooting is to be ended.

以上、図6の処理によれば、カウンタNを2〜nまでインクリメントすることで、各画角で長秒露光撮影及びその前後で短秒露光撮影を行い、各長秒撮影画像について、得られた短秒撮影画像から算出したぶれ量での位置合わせ及び比較暗合成を繰り返す。これにより、比較暗合成画像921のように背景部分のみの領域が徐々に繋がった背景のみパノラマ画像が生成できる。   As described above, according to the processing in FIG. 6, by incrementing the counter N from 2 to n, long-second exposure shooting at each angle of view and short-second exposure shooting before and after the angle of view are performed. The position alignment and the comparison dark combination based on the blur amount calculated from the short-time captured image are repeated. As a result, a panoramic image can be generated only from the background where only the background portion is gradually connected like the comparative dark synthetic image 921.

また、ステップS602,S603で示すように、最初の画角、すなわち1枚目の長秒撮影画像の取得時においては、長秒露光撮影の後にのみ短秒露光撮影が行われる。   Also, as shown in steps S602 and S603, at the time of acquiring the first angle of view, that is, the first long-shot image, short-second exposure shooting is performed only after long-second exposure shooting.

図5に戻り、図6において詳述したステップS503の撮影及び背景のみパノラマ画像生成の並行処理が終了すると、星のみパノラマ生成処理へと移行する(ステップS504)。   Returning to FIG. 5, when the parallel processing of the photographing and the background only panorama image generation in step S503 described in detail in FIG. 6 is completed, the processing shifts to the star only panorama generation processing (step S504).

以下、ステップS504の星のみパノラマ画像生成処理について、図8のフローチャートと図9の画像処理の概念図を用いて詳細に説明する。   Hereinafter, the star-only panorama image generation processing in step S504 will be described in detail with reference to the flowchart in FIG. 8 and the conceptual diagram of the image processing in FIG.

図8において、まず、カウンタNを1に初期化する(ステップS801)。   In FIG. 8, first, a counter N is initialized to 1 (step S801).

続いて、N枚目の長秒撮影画像とN+1枚目までの合成結果である比較暗合成画像を差分画像抽出回路116mで差分画像抽出を行ない、N枚目の比較暗合成画像を生成する(ステップS802)。   Subsequently, a difference image is extracted by the difference image extraction circuit 116m from the Nth long-time captured image and the comparison dark combination image that is the combination result up to the (N + 1) th image to generate the Nth comparison dark combination image ( Step S802).

例えば、N=1の場合、図9に示すように、1枚目の長秒撮影画像905と2枚目までの合成結果である比較暗合成画像919を差分画像抽出回路116mで差分画像抽出を行ない、1枚目の星のみ画像922を生成する。この星のみ画像922は、長秒撮影画像905の重ね合わせ領域における星のみが差分画像として残った画像である。   For example, in the case of N = 1, as shown in FIG. 9, the difference image extraction circuit 116m extracts the first long-time captured image 905 and the comparative dark combined image 919, which is the result of combining up to the second image. Then, an image 922 is generated for only the first star. The star-only image 922 is an image in which only the star in the superimposition region of the long-second captured image 905 remains as a difference image.

次にカウンタNの値をインクリメントする(ステップS803)。   Next, the value of the counter N is incremented (step S803).

その後、ステップS802で用いた長秒撮影画像が、N>nとなったとき、すなわちN−1枚目がn枚目(最後)の長秒撮影画像となるまで(ステップS804でNO)、ステップS802からの処理を繰り返す。これにより、図9に示すように、N=2の場合に2枚目の星のみ画像923が生成され、N=3の場合に3枚目の星のみ画像924が生成される。   Thereafter, when the long-time photographed image used in step S802 satisfies N> n, that is, until the (N-1) th image becomes the nth (last) long-time photographed image (NO in step S804). The processing from S802 is repeated. Thereby, as shown in FIG. 9, when N = 2, only the second star image 923 is generated, and when N = 3, the third star only image 924 is generated.

その後、ステップS804で最後の長秒撮影画像となったと判定されると、ステップS805へ移行し、カウンタNを2に初期化する。   Thereafter, if it is determined in step S804 that the last long-second captured image has been reached, the process proceeds to step S805, and the counter N is initialized to 2.

続いてぶれ量算出回路116cによりN−1枚目及びN枚目の星のみ画像の間の星のぶれ量(星のみ画像間ぶれ量)の算出する(ステップS806)。例えば、N=2の場合、図9に示すように、1枚目及び2枚目の星のみ画像922,923からぶれ量算出回路116cによりそのぶれ量が算出される。   Subsequently, the blur amount calculating circuit 116c calculates the blur amount of the stars between the (N−1) th and N-th stars only images (the amount of blur between the stars only) (step S806). For example, when N = 2, as shown in FIG. 9, the blur amount is calculated by the blur amount calculating circuit 116c from the images 922 and 923 of only the first and second stars.

次に、ステップS806での算出されたぶれ量をもとにN−1枚目及びN枚目の星のみ画像の位置合わせを位置合わせ回路116dにより行う(ステップS807)。例えば、N=2の場合、図9に示すように、1枚目及び2枚目の星のみ画像922,923の位置合わせが行われる。   Next, based on the blur amount calculated in step S806, only the (N-1) th and Nth stars are image-aligned by the alignment circuit 116d (step S807). For example, when N = 2, as shown in FIG. 9, the alignment of the images 922 and 923 is performed only on the first and second stars.

ステップS808では、ステップS807で位置合わせされた、N−1枚目までの星のみ画像の合成結果である比較明合成画像とN枚目の星のみ画像を合成回路116jを使って比較明合成し、N枚目までの合成結果である比較明合成画像を生成する。例えば、N=3の場合、図9に示すように、2枚目までの合成結果である比較明合成画像925と3枚目の星のみ画像924を合成回路116jを使って比較明合成し、3枚目までの合成結果である比較明合成画像926を生成する。尚、N=2の場合のみは、N−1枚目までの合成結果である比較明合成画像として1枚目の星のみ画像922が用いられる。   In step S808, the comparatively bright composite image and the N-th star only image, which are the result of combining the (N-1) th star-only images, which have been aligned in step S807, are compared and brightly combined using the combining circuit 116j. , And a comparatively bright composite image, which is the result of combining up to the Nth sheet. For example, when N = 3, as shown in FIG. 9, the comparative bright composite image 925, which is the composite result up to the second image, and the image 924 of the third star only are comparatively bright composited using the composite circuit 116j. A comparatively bright synthesized image 926, which is the synthesis result of up to the third sheet, is generated. Note that only in the case of N = 2, the image 922 of only the first star is used as a comparatively bright composite image which is the composite result up to the (N-1) th page.

次にカウンタNの値をインクリメントし(ステップS809)、N>nとなったとき、すなわちN−1枚目がn枚目(最後)の星のみ画像となるまで(ステップS810でNO)、ステップS806からの処理を繰り返し、本処理を終了する。   Next, the value of the counter N is incremented (step S809), and when N> n, that is, until the (N-1) th image is an image of only the nth (last) star (NO in step S810), step The processing from S806 is repeated, and this processing ends.

以上、図8の処理によれば、カウンタNの値を2〜nまで順にインクリメントすることで、各長秒撮影画像と比較暗合成結果の差分から抽出された各星のみ画像について、星のみ画像の間のぶれ量での位置合わせ及び比較明合成を繰り返す。これにより、比較明合成画像926のように星部分の領域が徐々に繋がった星のみパノラマ画像が生成できる。   As described above, according to the processing of FIG. 8, by incrementing the value of the counter N in order from 2 to n, for each star-only image extracted from the difference between each long-time captured image and the comparison dark composition result, only the star-only image , And the comparatively bright composition is repeated. As a result, a panoramic image can be generated only for stars in which the regions of star portions are gradually connected as in the comparative bright composite image 926.

図5に戻り、図10において詳述したステップS504の星のみパノラマ画像生成処理が終了すると、星空パノラマ画像生成処理へと移行する(ステップS505)。   Returning to FIG. 5, when the panorama image generation processing for only the stars in step S504 described in detail in FIG. 10 is completed, the processing shifts to the starry sky panorama image generation processing (step S505).

以下、ステップS505の星空パノラマ画像生成処理について、図9の画像処理の概念図と図10のフローチャートを用いて詳細に説明する。   Hereinafter, the starry sky panorama image generation processing in step S505 will be described in detail with reference to the conceptual diagram of the image processing in FIG. 9 and the flowchart in FIG.

図10において、まず、背景のみパノラマ画像(例えば図9の比較暗合成画像921)と星のみパノラマ画像(例えば図9の比較明合成画像926)を合成回路116jにより加算合成する(ステップS1001)。これにより、図9に示すように、星空パノラマ画像927を生成する。   10, first, a panoramic image of only the background (for example, the comparative dark composite image 921 of FIG. 9) and a panoramic image of only the stars (for example, the comparative bright composite image 926 of FIG. 9) are added and composited by the composite circuit 116j (step S1001). Thus, a starry sky panoramic image 927 is generated as shown in FIG.

続いて、生成された星空パノラマ画像927を圧縮・伸長回路116lでJpegなどの汎用フォーマットに圧縮して(ステップS1002)、メモリ120に保存して(ステップS1003)、本処理を終了する。尚、この時に、星空パノラマ画像927の暗部を見やすくするためにガンマ補正回路116bでγ補正を行うことや、画像全体の色調を統一するために補正を行うことも好ましい。またこのようにして得られる画像はサイズが大きいため、あらかじめユーザが指示したサイズに変倍回路116fで変倍を行っても良い。さらに最大内接矩形あるいは予め決められた領域で、トリミング回路116gで切り出しを行ってから保存することも好ましい。   Subsequently, the generated starry sky panoramic image 927 is compressed into a general-purpose format such as Jpeg by the compression / expansion circuit 116l (step S1002), stored in the memory 120 (step S1003), and the process ends. At this time, it is also preferable to perform the gamma correction by the gamma correction circuit 116b in order to make the dark part of the starry sky panoramic image 927 easy to see, or to perform the correction in order to unify the color tone of the entire image. Since the image thus obtained has a large size, the image may be scaled by the scaling circuit 116f to the size designated by the user in advance. Further, it is preferable that the image is cut out from the maximum inscribed rectangle or a predetermined area by the trimming circuit 116g and then stored.

図5に戻り、図10において詳述したステップS505の星空パノラマ画像生成処理が終了すると、星空パノラマ撮影処理の全体の処理が終了する。   Returning to FIG. 5, when the starry sky panorama image generation processing in step S505 described in detail in FIG. 10 ends, the entire processing of the starry sky panorama shooting processing ends.

尚、本実施例では撮像装置100に対して横方向にスイングする例を示したが、縦方向にスイングするようにしてもよい。   In the present embodiment, an example is shown in which the image pickup apparatus 100 swings in the horizontal direction, but it may swing in the vertical direction.

以上説明したように、星空パノラマ撮影において画角の異なる撮影と撮影の間で被写体となる星が動いても背景と星の両方の位置合わせを行うことができる。   As described above, in the starry sky panorama shooting, even when the star serving as the subject moves between shootings having different angles of view, both the background and the star can be aligned.

本実施例では、図5の星空パノラマ撮影処理のステップS504の星のみパノラマ画像生成処理において、星のみ画像間でのぶれ量の算出に失敗した際にユーザに適切な警告を表示し、比較暗合成処理の代替手段を実行する。以下、本実施例について図11、図12、図13を用いて具体的に説明する。   In the present embodiment, in the star-only panorama image generation process in step S504 of the starry sky panorama shooting process in FIG. 5, when the calculation of the blur amount between the star-only images fails, an appropriate warning is displayed to the user, and the comparison darkness is displayed. Perform alternatives to the compositing process. Hereinafter, this embodiment will be specifically described with reference to FIGS. 11, 12, and 13. FIG.

尚、本実施例は、実施例1とは星のみパノラマ画像生成処理のみが一部異なるが、その他の処理及びハードウェア構成は実施例1と同一であるため同一の構成及びステップには同一の符号を付し、重複した説明を省略する。   The present embodiment is different from the first embodiment only in the panorama image generation process for only the stars, but the other processes and the hardware configuration are the same as those in the first embodiment, so the same configurations and steps are the same. The reference numerals are used, and the repeated description is omitted.

図11において、まず、図8のステップS801〜S806の処理を行なうと、ステップS1101に進む。   In FIG. 11, first, after performing the processing of steps S801 to S806 in FIG. 8, the process proceeds to step S1101.

ステップS1101では、星のみ画像間でのぶれ量の算出に成功したか、具体的には、図12に示すM−1枚目及びM枚目の星のみ画像1101,1102内の重ね合わせ領域における特徴点の抽出に成功したか否かを判定する(2≦M≦nの整数)。この判定の結果、成功していれば、図8のステップS807以降の処理を行なって、本処理を終了する。   In step S1101, whether the calculation of the amount of blur between the star-only images has succeeded or not, specifically, in the superimposition region in the M-1st and M-th star-only images 1101 and 1102 shown in FIG. It is determined whether the extraction of the feature point is successful (an integer of 2 ≦ M ≦ n). If the result of this determination is a success, the processing from step S807 in FIG. 8 is performed, and this processing ends.

一方、特徴点の抽出に失敗した場合は(ステップS1101でNO)、星のみ画像の位置合わせ失敗した旨をユーザに警告表示する(ステップS1102)。この警告表示の方法は特に限定されるものではないが、例えば、図13に示す通知画面を液晶モニタ128に表示することにより行う。   On the other hand, if the extraction of the feature points has failed (NO in step S1101), a warning is displayed to the user indicating that the alignment of the star-only image has failed (step S1102). The method of displaying the warning is not particularly limited, but is performed by, for example, displaying a notification screen shown in FIG.

続いてM−1枚目及びM枚目の星のみ画像1101,1102から合成回路116jを使って結合画像1105を生成する(ステップS1103)。このとき、本実施例では、星のみ画像1101,1102の重ね合わせ領域の画像は、M−1枚目の星のみ画像1101を採用するが、M枚目の星のみ画像1102を採用してもよい。また、このような結合画像1105はその境界部に輝度差が生じやすくなるため、境界部にフィルターをかけてぼかす等の処理を実施してもよい。   Subsequently, a combined image 1105 is generated from only the M-1 and M-th stars from the images 1101 and 1102 by using the combining circuit 116j (step S1103). At this time, in this embodiment, the image in the superimposed area of the star-only images 1101 and 1102 employs the image 1101 only for the (M−1) -th star, but the image 1102 only for the M-th star is employed. Good. Further, in such a combined image 1105, since a luminance difference is likely to occur at the boundary, processing such as filtering and blurring the boundary may be performed.

その後ステップS809以降の処理を行なって、本処理を終了する。   Thereafter, the processing after step S809 is performed, and this processing ends.

以上説明したように、星のみ画像間のぶれ量の算出の際の特徴点の抽出に失敗した場合、その両画像の結合処理を実施する。これにより、ユーザが図6の撮影及び背景のみパノラマ画像生成の並行処理において時間をかけて複数回の撮影を行ったにも関わらず星空パノラマ画像が生成できないという事態を防ぐことができる。   As described above, when the extraction of the feature point in calculating the blur amount between the star-only images fails, the combining process of the two images is performed. Accordingly, it is possible to prevent a situation in which a starry sky panoramic image cannot be generated even though the user has taken a plurality of times taking a long time in the parallel processing of the panorama image generation and the imaging in FIG.

一方、かかる結合処理をした場合、星空パノラマ撮影における星のみ画像の位置合わせに失敗する場合も想定される。よって、かかる結合処理を行なう直前に予め警告表示を行いつつ、星空パノラマ画像を生成する、これによりユーザの利便性を向上させることが可能となる。   On the other hand, when such a combining process is performed, it may be assumed that the alignment of only the stars in the starry sky panoramic imaging fails. Therefore, a starry sky panorama image is generated while displaying a warning in advance immediately before performing the combining process. This makes it possible to improve user convenience.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータはがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。   As described above, the present invention has been described in detail based on the preferred embodiments. However, the present invention is not limited to these specific embodiments, and various forms that do not depart from the gist of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined. Further, when a software program for realizing the functions of the above-described embodiments is supplied to a system or an apparatus having a computer capable of executing the program directly from a recording medium or using wired / wireless communication, and the program is executed. Is also included in the present invention. Therefore, the program code itself supplied and installed in the computer to implement the functional processing of the present invention by the computer also implements the present invention. That is, the present invention includes the computer program itself for implementing the functional processing of the present invention. In this case, any form of the program, such as an object code, a program executed by an interpreter, and script data to be supplied to the OS, may be used as long as the program has the function of the program. As a recording medium for supplying the program, for example, a magnetic recording medium such as a hard disk or a magnetic tape, an optical / magneto-optical storage medium, or a nonvolatile semiconductor memory may be used. As a method of supplying the program, a method in which a computer program forming the present invention is stored in a server on a computer network, and a connected client computer downloads and programs the computer program is also conceivable.

100 撮像装置
116 映像信号処理回路
116c ぶれ量算出回路
116d 位置合わせ回路
116j 合成回路
116m 差分画像抽出回路
123 マイクロコンピュータ
124 操作部材
125 レリーズスイッチ
133 ジャイロ
REFERENCE SIGNS LIST 100 imaging device 116 video signal processing circuit 116 c shake amount calculation circuit 116 d alignment circuit 116 j synthesis circuit 116 m difference image extraction circuit 123 microcomputer 124 operating member 125 release switch 133 gyro

Claims (10)

異なる画角での長秒露光撮影により得られるn枚の長秒撮影画像を使用して星空パノラマ画像を生成する撮像装置において、
前記異なる画角の夫々で、前記長秒露光撮影の前後に短秒露光撮影を行うことにより第1及び第2の短秒撮影画像を取得する取得手段と、
N−1枚目(Nは2〜nまでの整数)の前記第2の短秒撮影画像とN枚目の前記第1の短秒撮影画像から画角間ぶれ量を算出する第1のぶれ量算出手段と、
前記画角間ぶれ量を用いて、N−1枚目の前記長秒撮影画像に対する、N枚目の長秒撮影画像の位置合わせを行う第1の位置合わせ手段と、
順次、前記位置合わせが行われたN枚目の前記長秒撮影画像と、N−1枚目までの前記長秒撮影画像の合成結果である比較暗合成画像とを比較暗合成し、背景のみパノラマ画像を生成する第1の合成手段と、
N−1枚目の前記長秒撮影画像とN枚目までの合成結果である比較暗合成画像の差分画像をN−1枚目の星のみ画像として抽出する差分画像抽出手段と、
N−1枚目の前記星のみ画像とN枚目の前記星のみ画像から星のみ画像間ぶれ量を算出する第2のぶれ量算出手段と、
前記星のみ画像間ぶれ量を用いて、N−1枚目の前記星のみ画像に対する、N枚目の前記星のみ画像の位置合わせを行う第2の位置合わせ手段と、
順次、前記位置合わせが行われたN枚目の前記星のみ画像と、N−1枚目までの前記星のみ画像の合成結果である比較明合成画像とを比較明合成し、星のみパノラマ画像を生成する第2の合成手段と、
前記背景のみパノラマ画像と前記星のみパノラマ画像とを加算合成して星空パノラマ画像を生成する第3の合成手段とを備えることを特徴とする撮像装置。
In an imaging apparatus that generates a starry sky panoramic image using n long-time shot images obtained by long-time exposure shooting at different angles of view,
An acquisition unit configured to acquire first and second short-time shot images by performing short-time exposure shooting before and after the long-time exposure shooting at each of the different field angles;
A first shake amount for calculating a shake amount between view angles from the (N-1) -th second short-time photographed image (N is an integer from 2 to n) and the N-th first short-time photographed image Calculating means;
A first alignment unit configured to perform alignment of the N-th long-second captured image with respect to the (N-1) -th long-second captured image using the inter-field-angle blur amount;
The N-th long-shooted image that has been sequentially aligned and the comparative dark-synthesized image that is the result of synthesizing the long-shooted images up to the (N-1) -th image are compared and dark-synthesized, and only the background is obtained. First synthesizing means for generating a panoramic image;
Difference image extracting means for extracting a difference image between the (N-1) -th long-time photographed image and a comparative dark-synthesized image which is a synthesis result up to the N-th frame as an image of only the (N-1) -th star;
Second blur amount calculating means for calculating a star-only inter-image blur amount from the (N-1) th star-only image and the N-th star-only image;
A second alignment unit that performs alignment of the N-th star-only image with respect to the (N-1) -th star-only image using the star-only inter-image blur amount;
The N-th star-only image in which the alignment has been sequentially performed and the comparative bright composite image, which is a composite result of the (N-1) -th star-only image, are comparatively bright composited, and only the star panoramic image is obtained. Second synthesizing means for generating
An imaging apparatus comprising: a third combining unit that adds and combines the background-only panoramic image and the star-only panoramic image to generate a starry sky panoramic image.
N−1枚目及びN枚目の前記星のみ画像の夫々の重ね合わせ領域から特徴点を抽出する抽出手段を更に備え、
前記第2のぶれ量算出手段は、前記抽出された特徴点に基づき、前記星のみ画像間ぶれ量を算出することを特徴とする請求項1記載の撮像装置。
Extracting means for extracting feature points from respective superimposed areas of the (N-1) th and Nth star-only images,
2. The imaging apparatus according to claim 1, wherein the second shake amount calculation unit calculates an image shake amount between the stars only based on the extracted feature points. 3.
前記抽出手段がM−1枚目及びM枚目の前記星のみ画像の夫々の重ね合わせ領域からの前記特徴点の抽出に失敗をした場合(2≦M≦nの整数)、前記第2の合成手段は、M枚目の前記星のみ画像については、M−1枚目までの前記星のみ画像の合成結果である比較明合成画像と比較明合成することなく、M−1枚目の前記星のみ画像との結合画像を生成することを特徴とする請求項2記載の撮像装置。   If the extraction unit fails to extract the feature points from the respective superimposed regions of the (M−1) th and Mth star-only images (2 ≦ M ≦ n), the second The synthesizing unit is configured to perform the M-1 th star-only image without performing comparative bright synthesizing with the comparatively bright synthesized image that is a result of synthesizing the M-1 th star-only image. 3. The imaging apparatus according to claim 2, wherein a combined image with the star-only image is generated. 前記抽出手段が前記失敗をした場合、M枚目の前記星のみ画像の位置合わせに失敗した旨をユーザに警告する通知を行う通知手段を更に備えることを特徴とする請求項3記載の撮像装置。   4. The image pickup apparatus according to claim 3, further comprising: a notifying unit that notifies a user that the positioning of the M-th only star has failed when the extracting unit fails. . 前記取得手段は、前記異なる画角の最初の画角については、前記長秒露光撮影の後にのみ前記短秒露光撮影を行うことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   4. The method according to claim 1, wherein the obtaining unit performs the short-time exposure shooting only after the long-time exposure shooting for the first field angle of the different field angle. 5. Imaging device. 前記短秒露光撮影の際の感度は、前記長秒露光撮影の際の感度より高いことを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   The imaging device according to claim 1, wherein the sensitivity at the time of the short-second exposure shooting is higher than the sensitivity at the time of the long-second exposure shooting. 前記第1の合成手段は、N=2である場合、N−1枚目のまでの前記長秒撮影画像の合成結果である比較暗合成画像として1枚目の前記長秒撮影画像を用いることを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。   When N = 2, the first synthesizing unit uses the first long-shot image as a comparative dark synthetic image that is a synthesis result of the (N-1) -th long-shot image. The imaging device according to claim 1, wherein: 前記第2の合成手段は、N=2である場合、N−1枚目のまでの前記星のみ画像の合成結果である比較明合成画像として1枚目の前記星のみ画像を用いることを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。   When N = 2, the second combining unit uses the first star-only image as a comparatively bright combined image that is a combined result of the (N-1) th star-only image. The imaging device according to claim 1. 異なる画角での長秒露光撮影により得られるn枚の長秒撮影画像を使用して星空パノラマ画像を生成する撮像装置の制御方法において、
前記異なる画角の夫々で、前記長秒露光撮影の前後に短秒露光撮影を行うことにより第1及び第2の短秒撮影画像を取得する取得ステップと、
N−1枚目(Nは2〜nまでの整数)の前記第2の短秒撮影画像とN枚目の前記第1の短秒撮影画像から画角間ぶれ量を算出する第1のぶれ量算出ステップと、
前記画角間ぶれ量を用いて、N−1枚目の前記長秒撮影画像に対する、N枚目の長秒撮影画像の位置合わせを行う第1の位置合わせステップと、
順次、前記位置合わせが行われたN枚目の前記長秒撮影画像と、N−1枚目までの前記長秒撮影画像の合成結果である比較暗合成画像とを比較暗合成し、背景のみパノラマ画像を生成する第1の合成ステップと、
N−1枚目の前記長秒撮影画像とN枚目までの合成結果である比較暗合成画像の差分画像をN−1枚目の星のみ画像として抽出する差分画像抽出ステップと、
N−1枚目の前記星のみ画像とN枚目の前記星のみ画像から星のみ画像間ぶれ量を算出する第2のぶれ量算出ステップと、
前記星のみ画像間ぶれ量を用いて、N−1枚目の前記星のみ画像に対する、N枚目の前記星のみ画像の位置合わせを行う第2の位置合わせステップと、
順次、前記位置合わせが行われたN枚目の前記星のみ画像と、N−1枚目までの前記星のみ画像の合成結果である比較明合成画像とを比較明合成し、星のみパノラマ画像を生成する第2の合成ステップと、
前記背景のみパノラマ画像と前記星のみパノラマ画像とを加算合成して星空パノラマ画像を生成する第3の合成ステップとを備えることを特徴とする制御方法。
In a control method of an image pickup apparatus that generates a starry sky panoramic image using n long-time captured images obtained by long-time exposure shooting at different angles of view,
An obtaining step of obtaining first and second short-time shot images by performing short-time exposure shooting before and after the long-time exposure shooting at each of the different field angles;
A first shake amount for calculating a shake amount between view angles from the (N-1) -th second short-time photographed image (N is an integer from 2 to n) and the N-th first short-time photographed image A calculating step;
A first alignment step of aligning the N-th long-second captured image with respect to the (N-1) -th long-second captured image using the inter-view-angle blur amount;
The N-th long-shooted image that has been sequentially aligned and the comparative dark-synthesized image that is the result of synthesizing the long-shooted images up to the (N-1) -th image are compared and dark-synthesized, and only the background is obtained. A first combining step of generating a panoramic image;
A difference image extracting step of extracting a difference image between the (N-1) -th long-time captured image and a comparison dark combined image that is a synthesis result up to the N-th image as only the (N-1) -th star image;
A second blur amount calculating step of calculating a blur amount between the stars only from the (N-1) th star-only image and the N-th star-only image;
A second alignment step of aligning the N-th star-only image with respect to the (N-1) -th star-only image using the star-only inter-image blur amount;
The N-th star-only image in which the alignment has been sequentially performed and the comparative bright composite image, which is a composite result of the (N-1) -th star-only image, are comparatively bright composited, and only the star panoramic image is obtained. A second synthesis step of generating
A third combining step of adding and combining the background-only panoramic image and the star-only panoramic image to generate a starry sky panoramic image.
請求項9に係る制御方法を実行することを特徴とするプログラム。
A program for executing the control method according to claim 9.
JP2018167870A 2018-08-16 2018-09-07 Imaging device and its control method, and program Active JP7102301B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018167870A JP7102301B2 (en) 2018-09-07 2018-09-07 Imaging device and its control method, and program
CN201910743581.0A CN110891140B (en) 2018-08-16 2019-08-13 Image pickup apparatus, image processing apparatus, control method therefor, and storage medium
US16/539,040 US11044397B2 (en) 2018-08-16 2019-08-13 Image capturing device and image processing device, control methods of the same, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018167870A JP7102301B2 (en) 2018-09-07 2018-09-07 Imaging device and its control method, and program

Publications (2)

Publication Number Publication Date
JP2020043419A true JP2020043419A (en) 2020-03-19
JP7102301B2 JP7102301B2 (en) 2022-07-19

Family

ID=69798735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018167870A Active JP7102301B2 (en) 2018-08-16 2018-09-07 Imaging device and its control method, and program

Country Status (1)

Country Link
JP (1) JP7102301B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112637515A (en) * 2020-12-22 2021-04-09 维沃软件技术有限公司 Shooting method and device and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328497A (en) * 2004-04-16 2005-11-24 Sony Corp Image pickup apparatus and image pickup method
JP2016005160A (en) * 2014-06-18 2016-01-12 キヤノン株式会社 Imaging device and control method thereof
JP2016149631A (en) * 2015-02-12 2016-08-18 オリンパス株式会社 Imaging apparatus and imaging method
JP2017073741A (en) * 2015-10-09 2017-04-13 キヤノン株式会社 Imaging apparatus for imaging locus of subject, and control method for imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328497A (en) * 2004-04-16 2005-11-24 Sony Corp Image pickup apparatus and image pickup method
JP2016005160A (en) * 2014-06-18 2016-01-12 キヤノン株式会社 Imaging device and control method thereof
JP2016149631A (en) * 2015-02-12 2016-08-18 オリンパス株式会社 Imaging apparatus and imaging method
JP2017073741A (en) * 2015-10-09 2017-04-13 キヤノン株式会社 Imaging apparatus for imaging locus of subject, and control method for imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112637515A (en) * 2020-12-22 2021-04-09 维沃软件技术有限公司 Shooting method and device and electronic equipment

Also Published As

Publication number Publication date
JP7102301B2 (en) 2022-07-19

Similar Documents

Publication Publication Date Title
JP6659130B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP4378272B2 (en) Imaging device
JP4900401B2 (en) Imaging apparatus and program
JP7030442B2 (en) Image processing equipment, image processing methods, and programs
JP2007043637A (en) Image pick-up apparatus, image pick-up program, and image processing program
JP7023662B2 (en) Image processing device, image pickup device, control method and program of image processing device
JP7174120B2 (en) IMAGING DEVICE, PROGRAM, RECORDING MEDIUM, AND CONTROL METHOD
US20110109771A1 (en) Image capturing appratus and image capturing method
JP5578442B2 (en) Imaging apparatus, image composition method, and program
JP2008236645A (en) Photographing device
JP4533252B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2006162991A (en) Stereoscopic image photographing apparatus
JP2004221992A (en) Imaging device and program
CN110891140B (en) Image pickup apparatus, image processing apparatus, control method therefor, and storage medium
JP2007318490A (en) Image processing apparatus, camera, and image processing program
JP2011035752A (en) Imaging apparatus
JP7102301B2 (en) Imaging device and its control method, and program
JP6717354B2 (en) Image processing apparatus, image processing method and program
JP7051586B2 (en) Imaging equipment, imaging methods and programs
JP6869841B2 (en) Image processing device, control method of image processing device, and program
JP7100535B2 (en) Image pickup device and image processing device, their control method, program, storage medium
JP7106399B2 (en) Image processing device, image processing method, and program
JP2010050599A (en) Electronic camera
JP2017085466A (en) Imaging apparatus and its control method
JP2005026786A (en) Image photographing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R151 Written notification of patent or utility model registration

Ref document number: 7102301

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151