JP7100535B2 - Image pickup device and image processing device, their control method, program, storage medium - Google Patents

Image pickup device and image processing device, their control method, program, storage medium Download PDF

Info

Publication number
JP7100535B2
JP7100535B2 JP2018153205A JP2018153205A JP7100535B2 JP 7100535 B2 JP7100535 B2 JP 7100535B2 JP 2018153205 A JP2018153205 A JP 2018153205A JP 2018153205 A JP2018153205 A JP 2018153205A JP 7100535 B2 JP7100535 B2 JP 7100535B2
Authority
JP
Japan
Prior art keywords
image
short
exposure
unit
unit image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018153205A
Other languages
Japanese (ja)
Other versions
JP2020028079A5 (en
JP2020028079A (en
Inventor
慎二 久本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018153205A priority Critical patent/JP7100535B2/en
Priority to US16/539,040 priority patent/US11044397B2/en
Priority to CN201910743581.0A priority patent/CN110891140B/en
Publication of JP2020028079A publication Critical patent/JP2020028079A/en
Publication of JP2020028079A5 publication Critical patent/JP2020028079A5/en
Application granted granted Critical
Publication of JP7100535B2 publication Critical patent/JP7100535B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Description

本発明は互いに共通領域が写るように撮影の向きを順次変化させながら連続撮影した画像を合成することにより、より広範囲の星空画像、すなわち星空パノラマ画像を得る技術に関する。 The present invention relates to a technique for obtaining a wider range of starry sky images, that is, starry sky panoramic images, by synthesizing continuously shot images while sequentially changing the shooting directions so that common areas can be captured.

広大な星空を一枚の画像として収めるための撮影方法の一つとして、パノラマ撮影の手法が知られている。この手法の例として、特許文献1には次のような撮影方法が開示されている。つまり、撮影の向きを順次変化させて撮影範囲の一部を構成する複数の単位画像を撮像し、撮像した単位画像から所定サイズの画像領域を互いに重複領域が生じるように切り出し、切り出した画像領域を順次重ね合わせることによりパノラマ画像を生成する。 A panoramic photography method is known as one of the photography methods for capturing a vast starry sky as a single image. As an example of this method, Patent Document 1 discloses the following photographing method. That is, a plurality of unit images constituting a part of the shooting range are imaged by sequentially changing the shooting direction, and an image area of a predetermined size is cut out from the captured unit image so as to generate overlapping areas with each other, and the cut out image area. To generate a panoramic image by sequentially superimposing.

ここで、この手法を星空のパノラマ撮影に適用する場合の問題点について説明する。星空を撮影する際は星の光量が微量であることから、30秒や1分といった長時間の露光を行うことが多い。天体は地球の自転に合わせて日周運動をしているため、長時間露光すると星は点像にならず光跡となってしまう。 Here, the problems when applying this method to panoramic photography of the starry sky will be described. When shooting a starry sky, the amount of light of the stars is very small, so long-time exposure such as 30 seconds or 1 minute is often performed. Since the celestial body moves diurnal in accordance with the rotation of the earth, the stars do not become point images but become light trails when exposed for a long time.

星空をパノラマ撮影する際は、星が光跡にならない程度の露光時間で撮影の向きが異なる画像を撮影し、画像をつなぎ合わせることでパノラマ画像を生成することが必要になる。しかし、長時間露光で星空のパノラマ撮影を行いたい場合もある。この場合、画像同士の間で時間の経過により星が動くため、画像同士の位置合わせに失敗しやすい。図8は、星空のパノラマ撮影において、撮影の向きが異なる2つの画像を合成した際の、位置合わせの失敗例を示している。図8(a)は1枚目の撮影画像を示し、301は背景を示している。図8(b)は2枚目の撮影画像を示し、302は背景を示している。1枚目の長秒露光撮影の時間とユーザーが撮影の向きを変えるために撮像装置をセッティングする時間とを合わせた時間の経過によって、2枚目の画像に写る星の位置が1枚目の画像の星の位置に対して移動している。図8(c)は1枚目と2枚目の撮影画像の位置合わせを行う際に、星を位置合わせの基準としたために、星の動きの分だけ背景301と302がずれて合成された状態を示している。 When taking a panoramic picture of a starry sky, it is necessary to take an image with a different shooting direction with an exposure time that does not cause the star to become a light trail, and to generate a panoramic image by stitching the images together. However, there are cases where you want to take a panoramic shot of the starry sky with long exposure. In this case, since the stars move between the images with the passage of time, it is easy to fail in the alignment of the images. FIG. 8 shows an example of misalignment when two images having different shooting directions are combined in panoramic shooting of a starry sky. FIG. 8A shows the first captured image, and FIG. 301 shows the background. FIG. 8B shows the second captured image, and FIG. 302 shows the background. The position of the star in the second image is the first one due to the passage of time, which is the sum of the time of the first long-second exposure shooting and the time when the user sets the image pickup device to change the shooting direction. It is moving with respect to the position of the star in the image. In FIG. 8 (c), since the star was used as the alignment reference when aligning the first and second captured images, the backgrounds 301 and 302 were combined by the amount of the movement of the star. It shows the state.

一方、特許文献2には、天体の日周運動による撮影面上での位置ずれを光学式の振れ補正手段を用いて補正し、撮影と合成を繰り返すことにより、位置合わせの失敗を防ぎつつより広い画角の撮影画像を得る技術が開示されている。 On the other hand, in Patent Document 2, the positional deviation on the imaging surface due to the diurnal motion of the celestial body is corrected by using an optical shake correction means, and imaging and composition are repeated to prevent misalignment. A technique for obtaining a photographed image having a wide angle of view is disclosed.

特開2005-328497号公報Japanese Unexamined Patent Publication No. 2005-328497 特開2016-005160号公報Japanese Unexamined Patent Publication No. 2016-005160

しかしながら、特許文献2に開示されている従来技術では、光学式の振れ補正手段を利用するため、撮影の向きの変化の最大値が制限されてしまい、更に広い画角の天体画像を撮影することができないという課題がある。 However, in the prior art disclosed in Patent Document 2, since the optical shake correction means is used, the maximum value of the change in the shooting direction is limited, and an astronomical image having a wider angle of view is taken. There is a problem that it cannot be done.

本発明は上述した課題に鑑みてなされたものであり、その目的は、撮影の向きが異なる画像間で被写体となる星が動いた場合でも、高画質なパノラマ画像を撮影することが出来る撮像装置を提供することである。 The present invention has been made in view of the above-mentioned problems, and an object thereof is an image pickup apparatus capable of taking a high-quality panoramic image even when a star as a subject moves between images having different shooting directions. Is to provide.

本発明に係わる撮像装置は、撮像方向が異なり、部分的に共通な領域を有する複数枚の単位画像を合成することにより1枚の合成画像を生成可能な撮像装置であって、被写体像を撮像する撮像手段と、前記撮像手段に、前記複数枚の単位画像を撮像させるとともに、前記複数枚の単位画像のうちのそれぞれの単位画像の撮像の前後に、前記単位画像の露光時間よりも露光時間の短い短秒露光画像を撮像させる制御手段と、第1の単位画像の撮像の後に撮像された第1の短秒露光画像と、前記第1の単位画像に続いて撮像された第2の単位画像の撮像の前に撮像された第2の短秒露光画像とを用いて、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量を算出する算出手段と、前記算出手段により算出された前記被写体の移動量に基づいて、前記第1の単位画像と前記第2の単位画像の位置合わせを行い、前記第1の単位画像と前記第2の単位画像を合成する合成手段と、を備えることを特徴とする。 The image pickup device according to the present invention is an image pickup device capable of generating one composite image by synthesizing a plurality of unit images having different imaging directions and having a partially common area, and captures a subject image. The image pickup means and the image pickup means are made to image the plurality of unit images, and the exposure time is longer than the exposure time of the unit image before and after the acquisition of each unit image of the plurality of unit images. A control means for capturing a short short-second exposed image, a first short-second exposed image captured after capturing the first unit image, and a second unit captured following the first unit image. Calculation to calculate the amount of movement of the subject between the first short-second exposed image and the second short-second exposed image using the second short-second exposed image captured before the image was captured. Based on the means and the movement amount of the subject calculated by the calculation means, the first unit image and the second unit image are aligned, and the first unit image and the second unit are aligned. It is characterized by comprising a compositing means for compositing images.

また、本発明に係わる画像処理装置は、撮像方向が異なり、部分的に共通な領域を有する複数枚の単位画像を合成することにより1枚の合成画像を生成可能な画像処理装置であって、前記複数枚の単位画像と、前記複数枚の単位画像のうちのそれぞれの単位画像の撮像の前後に、前記単位画像の露光時間よりも短い露光時間で撮像された短秒露光画像と、を取得する取得手段と、第1の単位画像の撮像の後に撮像された第1の短秒露光画像と、前記第1の単位画像に続いて撮像された第2の単位画像の撮像の前に撮像された第2の短秒露光画像とを用いて、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量を算出する算出手段と、前記算出手段により算出された前記被写体の移動量に基づいて、前記第1の単位画像と前記第2の単位画像の位置合わせを行い、前記第1の単位画像と前記第2の単位画像を合成する合成手段と、を備えることを特徴とする。 Further, the image processing apparatus according to the present invention is an image processing apparatus capable of generating one composite image by synthesizing a plurality of unit images having different imaging directions and having a partially common region. Acquires the plurality of unit images and short-second exposed images captured with an exposure time shorter than the exposure time of the unit images before and after imaging of each of the plurality of unit images. The acquisition means to be performed, the first short-second exposed image captured after the first unit image is captured, and the second unit image captured following the first unit image captured before the capture. Using the second short-second exposed image, the calculation means for calculating the amount of movement of the subject between the first short-second exposed image and the second short-second exposed image, and the calculation means. A compositing means for aligning the first unit image and the second unit image based on the amount of movement of the subject and synthesizing the first unit image and the second unit image. It is characterized by having.

本発明によれば、撮影の向きが異なる画像間で被写体となる星が動いた場合でも、高画質なパノラマ画像を撮影することが出来る撮像装置を提供することが可能となる。 According to the present invention, it is possible to provide an image pickup device capable of taking a high-quality panoramic image even when a star as a subject moves between images having different shooting directions.

撮影した複数の画像をパノラマ合成する際の概念図。A conceptual diagram for panoramic composition of multiple captured images. 本発明の撮像装置の第1の実施形態の構成を示すブロック図。The block diagram which shows the structure of 1st Embodiment of the image pickup apparatus of this invention. 通常の撮影動作を説明するフローチャート。A flowchart illustrating normal shooting operation. 第1の実施形態における星空パノラマ撮影の動作を示すフローチャート。The flowchart which shows the operation of the starry sky panoramic photography in 1st Embodiment. 第1の実施形態の動作を説明するデータフローダイアグラム。A data flow diagram illustrating the operation of the first embodiment. 第2の実施形態における星空パノラマ撮影の動作を示すフローチャート。The flowchart which shows the operation of the starry sky panoramic photography in 2nd Embodiment. 第3の実施形態における警告画面の概念図。The conceptual diagram of the warning screen in 3rd Embodiment. 星空パノラマ合成の課題を説明する概念図。A conceptual diagram explaining the problem of starry sky panoramic composition.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、パノラマ撮影の概要を示す図である。本実施形態では、パノラマ撮影は、図1(a)に示すように撮像装置201をユーザー202が動かしながら、もしくは自動雲台等で動かしながら順次撮像方向を変えて撮影を行うことにより実施される。図1(b)に示すように、撮影された各画像に部分的に被写体の共通領域が含まれるように、複数枚の画像の撮影を行う。そして各画像の共通領域の特徴点を抽出し、その特徴点がどのくらい動いたかを示す移動ベクトルを検出する。その移動ベクトルから、例えばアフィン変換の係数を算出し、特徴点が一致するように2枚の画像を重ね合わせることにより、共通領域以外の部分が拡張された画像が得られる。これを複数回繰り返すことにより、1回の撮影で得られる画角よりも広範囲の画角のパノラマ画像が生成可能となる。
(First Embodiment)
FIG. 1 is a diagram showing an outline of panoramic photography. In the present embodiment, panoramic shooting is performed by sequentially changing the shooting direction while the user 202 moves the image pickup device 201 as shown in FIG. 1A or by moving the image pickup device 201 on an automatic pan head or the like. .. As shown in FIG. 1 (b), a plurality of images are photographed so that each captured image partially includes a common area of the subject. Then, the feature points in the common area of each image are extracted, and the movement vector indicating how much the feature points have moved is detected. By calculating, for example, the coefficient of the affine transformation from the movement vector and superimposing the two images so that the feature points match, an image in which the portion other than the common region is expanded can be obtained. By repeating this a plurality of times, it is possible to generate a panoramic image having a wider angle of view than the angle of view obtained by one shooting.

図2は、本発明の撮像装置の第1の実施形態の構成を示すブロック図である。図2において、撮像装置100は、被写体像を結像させる撮影レンズ101と、撮影レンズ101の焦点調節を行うAF(オートフォーカス)駆動回路102を備える。AF駆動回路102は、例えばDCモータやステッピングモータによって構成され、マイクロコンピュータ123の制御により、撮影レンズ101のフォーカスレンズの位置を変化させて焦点調節を行う。 FIG. 2 is a block diagram showing a configuration of a first embodiment of the image pickup apparatus of the present invention. In FIG. 2, the image pickup apparatus 100 includes a photographing lens 101 for forming an image of a subject image and an AF (autofocus) drive circuit 102 for adjusting the focus of the photographing lens 101. The AF drive circuit 102 is composed of, for example, a DC motor or a stepping motor, and adjusts the focus by changing the position of the focus lens of the photographing lens 101 under the control of the microcomputer 123.

撮影レンズ101は絞り103を備え、絞り103は絞り駆動回路104により駆動される。光学的な絞り値がマイクロコンピュータ123によって算出され、それに基づいて絞り駆動回路104が絞り103を駆動する量が決定される。 The photographing lens 101 includes an aperture 103, and the aperture 103 is driven by an aperture drive circuit 104. The optical aperture value is calculated by the microcomputer 123, and the amount of the aperture drive circuit 104 driving the aperture 103 is determined based on the calculation.

絞り103の後方には、主ミラー105が配置されている。主ミラー105は、撮影レンズ101を通過した光束をファインダに導く状態と撮像素子112に導く状態を切り替える。主ミラー105は、常時はファインダへと光束が向かうように、光束を上方に反射させる位置に配置されているが、撮影が行われる場合やライブビュー表示の場合には、撮像素子112へと光束が向かうように、上方に跳ね上がり光路中から待避する。また、主ミラー105は、その中央部が少量の光を透過させるハーフミラーとなっており、一部の光を透過させて、それを焦点検出を行うための不図示の焦点検出センサに導く。撮影レンズ101のデフォーカス量は、この焦点検出センサの出力を演算することによって求められる。マイクロコンピュータ123は演算結果を評価してAF駆動回路102に指示し、フォーカスレンズを駆動させる。 A main mirror 105 is arranged behind the aperture 103. The main mirror 105 switches between a state in which the luminous flux passing through the photographing lens 101 is guided to the finder and a state in which the light beam is guided to the image pickup element 112. The main mirror 105 is arranged at a position where the light flux is reflected upward so that the light flux always directs to the finder, but when shooting is performed or when the live view is displayed, the light flux is directed to the image sensor 112. It jumps upward and escapes from the optical path so that Further, the central portion of the main mirror 105 is a half mirror that transmits a small amount of light, and a part of the light is transmitted and led to a focus detection sensor (not shown) for performing focus detection. The amount of defocus of the photographing lens 101 is obtained by calculating the output of the focus detection sensor. The microcomputer 123 evaluates the calculation result and instructs the AF drive circuit 102 to drive the focus lens.

主ミラー5は、マイクロコンピュータ123の指示により、ミラー駆動回路107を介して上下に駆動される。主ミラーの後方には、サブミラー106が配置されており、主ミラー105を透過した光束を反射させ、前述の焦点検出センサに導く。主ミラー105の中央部を透過し、サブミラー106で反射された光束は、露光量算出回路109にも入射し、その内部に配置された光電変換を行うための測光センサに至る。 The main mirror 5 is driven up and down via the mirror drive circuit 107 according to the instruction of the microcomputer 123. A sub-mirror 106 is arranged behind the main mirror to reflect the light flux transmitted through the main mirror 105 and guide it to the above-mentioned focus detection sensor. The luminous flux transmitted through the central portion of the main mirror 105 and reflected by the sub mirror 106 also enters the exposure amount calculation circuit 109 and reaches the photometric sensor arranged inside the circuit for performing photoelectric conversion.

主ミラー105の上方には、ファインダを構成するペンタプリズムが配置されている。ファインダは、他にピント板、不図示のアイピースレンズなどによって構成される。
撮影レンズ101の光路を開閉するフォーカルプレーンシャッタ110は、シャッタ駆動回路111により駆動される。フォーカルプレーンシャッタ110の開口時間は、マイクロコンピュータ123によって制御される。
A pentaprism constituting a finder is arranged above the main mirror 105. The viewfinder is also composed of a focus plate, an eyepiece lens (not shown), and the like.
The focal plane shutter 110 that opens and closes the optical path of the photographing lens 101 is driven by the shutter drive circuit 111. The opening time of the focal plane shutter 110 is controlled by the microcomputer 123.

フォーカルプレーンシャッタ110の後方には、撮像素子112が配置されている。撮像素子112には、CCDやCMOSセンサなどが用いられ、撮影レンズ101によって結像された被写体像を電気信号に変換する。撮像素子112の出力はA/D変換器115に入力される。A/D変換器115は撮像素子112のアナログ出力信号をデジタル信号に変換する。 An image sensor 112 is arranged behind the focal plane shutter 110. A CCD, CMOS sensor, or the like is used for the image pickup element 112, and the subject image formed by the photographing lens 101 is converted into an electric signal. The output of the image sensor 112 is input to the A / D converter 115. The A / D converter 115 converts the analog output signal of the image sensor 112 into a digital signal.

映像信号処理回路116は、ゲートアレイなどのロジックデバイスにより実現される。映像信号処理回路116は、輝度調整回路116a、ガンマ補正回路116b、ぶれ量算出回路116c、位置合わせ回路116d、幾何変換回路116e、変倍回路116fを有する。映像信号処理回路116は、さらにトリミング回路116e、合成回路116j、現像回路116k、圧縮・伸長回路116lを有する。 The video signal processing circuit 116 is realized by a logic device such as a gate array. The video signal processing circuit 116 includes a luminance adjustment circuit 116a, a gamma correction circuit 116b, a blur amount calculation circuit 116c, an alignment circuit 116d, a geometric conversion circuit 116e, and a scaling circuit 116f. The video signal processing circuit 116 further includes a trimming circuit 116e, a synthesis circuit 116j, a development circuit 116k, and a compression / decompression circuit 116l.

輝度調整回路116aは、デジタルゲインによって明るさを調整する。ガンマ補正回路116bは、ガンマ特性によって輝度を調整する。ぶれ量算出回路116cは、複数枚の画像のぶれ量を算出する。位置合わせ回路116dは、画像のぶれ量に応じて複数枚の画像の位置合わせを行う。幾何変換回路116eは、撮影レンズ101の歪曲を補正する。変倍回路116fは、画像のサイズを変倍する。トリミング回路116eは、画像の一部を切り出す。合成回路116jは、複数枚の画像を合成する。現像回路116kは、画像データの現像を行う。圧縮・伸長回路116lは、画像データをJpegなどの一般的な画像形式に変換する。 The brightness adjustment circuit 116a adjusts the brightness by a digital gain. The gamma correction circuit 116b adjusts the luminance according to the gamma characteristic. The blur amount calculation circuit 116c calculates the blur amount of a plurality of images. The alignment circuit 116d aligns a plurality of images according to the amount of blurring of the images. The geometric conversion circuit 116e corrects the distortion of the photographing lens 101. The scaling circuit 116f scales the size of the image. The trimming circuit 116e cuts out a part of the image. The synthesis circuit 116j synthesizes a plurality of images. The developing circuit 116k develops image data. The compression / decompression circuit 116l converts the image data into a general image format such as JPEG.

映像信号処理回路116には、表示駆動回路117、TFTや有機ELなどを用いた表示部材118、メモリコントローラ119、メモリ120、コンピュータ等と接続可能な外部インターフェイス121、バッファメモリ122が接続されている。 The video signal processing circuit 116 is connected to a display drive circuit 117, a display member 118 using a TFT, an organic EL, or the like, a memory controller 119, a memory 120, an external interface 121 that can be connected to a computer, and a buffer memory 122. ..

映像信号処理回路116は、デジタル化された画像データに、フィルター処理、色変換処理、ガンマ処理を行うと共に、JPEGなどの圧縮処理を行い、メモリコントローラ119に出力する。その際、処理途中の画像を一時的にバッファメモリ122に置くことも可能である。 The video signal processing circuit 116 performs filter processing, color conversion processing, and gamma processing on the digitized image data, and also performs compression processing such as JPEG, and outputs the digitized image data to the memory controller 119. At that time, it is also possible to temporarily place the image in the process of processing in the buffer memory 122.

映像信号処理回路116は、撮像素子112からの映像信号や、メモリコントローラ119から逆に入力される画像データを、表示駆動回路117を介して表示部材118に出力することも可能である。これらの機能の切り替えはマイクロコンピュータ123の指示により行われる。 The video signal processing circuit 116 can also output the video signal from the image pickup element 112 and the image data reversely input from the memory controller 119 to the display member 118 via the display drive circuit 117. Switching between these functions is performed according to the instructions of the microcomputer 123.

映像信号処理回路116は、必要に応じて撮像素子112の信号の露出情報やホワイトバランスなどの情報をマイクロコンピュータ123に出力することが可能である。それらの情報に基づいて、マイクロコンピュータ123はホワイトバランス調整やゲイン調整の指示を行う。 The video signal processing circuit 116 can output information such as exposure information and white balance of the signal of the image pickup element 112 to the microcomputer 123 as needed. Based on the information, the microcomputer 123 gives instructions for white balance adjustment and gain adjustment.

連続撮影動作の場合においては、一旦、未処理のままバッファメモリ122に撮影データを格納し、メモリコントローラ119を介して未処理の画像データを読み出し、映像信号処理回路116において画像処理や圧縮処理を行い、連続撮影を行う。連像撮影枚数は、バッファメモリ122の容量やパノラマ撮影の場合はその画像サイズの大きさに左右される。メモリコントローラ119では、映像信号処理回路116から入力された未処理のデジタル画像データをバッファメモリ122に格納し、処理済みのデジタル画像データをメモリ120に格納する。また、逆にバッファメモリ122やメモリ120から画像データを映像信号処理回路部116に出力することも可能である。メモリ120は取り外し可能である場合もある。なお、メモリコントローラ119は、コンピュータ等と接続可能な外部インターフェイス121を介してメモリ120に記憶されている画像を外部に出力可能である。 In the case of continuous shooting operation, the shooting data is temporarily stored in the buffer memory 122 without being processed, the unprocessed image data is read out via the memory controller 119, and the image processing and compression processing are performed by the video signal processing circuit 116. And perform continuous shooting. The number of continuous image shots depends on the capacity of the buffer memory 122 and the size of the image in the case of panoramic shots. In the memory controller 119, the unprocessed digital image data input from the video signal processing circuit 116 is stored in the buffer memory 122, and the processed digital image data is stored in the memory 120. On the contrary, it is also possible to output the image data from the buffer memory 122 or the memory 120 to the video signal processing circuit unit 116. The memory 120 may be removable. The memory controller 119 can output an image stored in the memory 120 to the outside via an external interface 121 that can be connected to a computer or the like.

操作部材124は、マイクロコンピュータ123にその状態を伝え、マイクロコンピュータ123はその操作部材の変化に応じて各部をコントロールする。スイッチSW1(125)とスイッチSW2(126)は、レリーズボタンの操作でオンオフするスイッチであり、それぞれ操作部材124の入力スイッチのうちの1つである。 The operation member 124 conveys the state to the microcomputer 123, and the microcomputer 123 controls each part according to the change of the operation member. The switch SW1 (125) and the switch SW2 (126) are switches that are turned on and off by operating the release button, and are one of the input switches of the operation member 124, respectively.

スイッチSW1(125)のみオンの状態はレリーズボタンの半押し状態であり、この状態でオートフォーカスの動作を行うと共に、測光動作を行う。スイッチSW1(125)、SW2(126)が共にオンの状態はレリーズボタンの全押し状態であり、画像を記録するためのレリーズスイッチのオン状態である。この状態で撮影が行われる。またスイッチSW1(125)、SW2(126)がONし続けている間は、連続撮影動作が行われる。 When only the switch SW1 (125) is on, the release button is half-pressed, and in this state, the autofocus operation is performed and the photometric operation is performed. When both the switches SW1 (125) and SW2 (126) are on, the release button is fully pressed, and the release switch for recording an image is on. Shooting is performed in this state. Further, while the switches SW1 (125) and SW2 (126) are continuously turned on, the continuous shooting operation is performed.

操作部材124には、他に、ISO設定ボタン、メニューボタン、セットボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン、メニューや再生画像移動のための移動+(プラス)ボタン、移動-(マイナス)ボタン、露出補正ボタン、表示画像拡大ボタン、表示画像縮小ボタン、再生スイッチ、絞り103を設定された絞りに絞り込ませるための絞りボタン、撮影した画像を消去するための消去ボタン、撮影や再生に関する情報表示ボタンなど不図示のスイッチが接続されており、スイッチの状態が検出されている。また、上記のプラスボタン及びマイナスボタンの機能を、回転ダイアルスイッチに割り当てることによって、より軽快に数値や機能を選択することが可能となる。 The operation member 124 also has an ISO setting button, a menu button, a set button, a flash setting button, a single shooting / continuous shooting / self-timer switching button, a move + (plus) button for moving a menu or a reproduced image, and a move. -(Minus) button, exposure compensation button, display image enlargement button, display image reduction button, playback switch, aperture button to narrow down the aperture 103 to the set aperture, erase button to erase the shot image, shooting A switch (not shown) such as an information display button related to playback or playback is connected, and the state of the switch is detected. Further, by assigning the above-mentioned plus button and minus button functions to the rotary dial switch, it becomes possible to select numerical values and functions more easily.

液晶駆動回路127は、マイクロコンピュータ123の表示命令に従って、文字、画像を用いた動作状態の表示やメッセージ等を、外部液晶表示部材128やファインダ内液晶表示部材129に表示させる。また、ファインダ内液晶表示部材129には、不図示のLEDなどのバックライトが配置されており、そのLEDも液晶駆動回路127で駆動される。 The liquid crystal drive circuit 127 causes the external liquid crystal display member 128 and the liquid crystal display member 129 in the finder to display an operation state display or a message using characters and images according to a display command of the microcomputer 123. Further, a backlight such as an LED (not shown) is arranged on the liquid crystal display member 129 in the finder, and the LED is also driven by the liquid crystal drive circuit 127.

マイクロコンピュータ123は、撮影前に設定されているISO感度、画像サイズ、画質に応じた画像サイズの予測値データに基づいて、メモリコントローラ119を介してメモリの容量を確認した上で撮影可能残数を算出することができる。この情報は、必要に応じて外部液晶表示部材128、ファインダ内液晶表示部材129にも表示することができる。 The microcomputer 123 confirms the capacity of the memory via the memory controller 119 based on the predicted value data of the image size according to the ISO sensitivity, the image size, and the image quality set before shooting, and then the remaining number of shots that can be taken. Can be calculated. This information can also be displayed on the external liquid crystal display member 128 and the liquid crystal display member 129 in the finder, if necessary.

不揮発性メモリ(EEPROM)130は、カメラに電源が入れられていない状態でも、データを保存することができる。電源部131は、各ICや駆動系に必要な電源を供給する。内部時計132は経過時間を計時し、メモリ120に記録する画像ファイルに撮影時刻などを保存したり、後述するように画像そのものに撮影時刻を重畳したりできる。ジャイロ133は、2軸もしくは3軸で、撮像装置100の回転の角速度を検出する。方位計134は、撮像装置の向いている方向を検出する。 The non-volatile memory (EEPROM) 130 can store data even when the camera is not turned on. The power supply unit 131 supplies the necessary power to each IC and drive system. The internal clock 132 measures the elapsed time, saves the shooting time or the like in an image file recorded in the memory 120, and can superimpose the shooting time on the image itself as described later. The gyro 133 detects the angular velocity of rotation of the image pickup apparatus 100 on two or three axes. The azimuth meter 134 detects the direction in which the image pickup device is facing.

次に、上記のように構成される撮像装置の動作について説明する。図3は、第1の実施形態の撮像装置の撮影動作を示すフローチャートである。 Next, the operation of the image pickup apparatus configured as described above will be described. FIG. 3 is a flowchart showing a shooting operation of the image pickup apparatus of the first embodiment.

まず、撮影動作を開始する前に、予め露光量算出回路109によって露光量を算出し、絞り量、蓄積時間、ISO感度を決定しておく。スイッチSW2(126)がユーザーによって押下されると撮影動作が実施される。 First, before starting the shooting operation, the exposure amount is calculated in advance by the exposure amount calculation circuit 109, and the aperture amount, the accumulation time, and the ISO sensitivity are determined. When the switch SW2 (126) is pressed by the user, the shooting operation is performed.

S401では、マイクロコンピュータ123は、予め決められた絞り値を絞り駆動回路104に通知し、絞り103を目的の絞り値に調節する。撮像素子112、AD変換器115などに電源を入れ、撮影準備を行う。準備が完了するとミラー駆動回路107を駆動して主ミラー5を跳ね上げ、被写体像を撮像素子112に入射させるようにする。シャッタ駆動回路はフォーカルプレーンシャッタ110のうち不図示の先幕を開けて被写体像が撮像素子112に入射するようにする。続いて予め決められた蓄積時間後にシャッタ110のうち不図示の後幕を閉じて、撮像素子112に蓄積時間の間だけ光が入るようにする。この一連の動作を行って露光を行う。 In S401, the microcomputer 123 notifies the aperture drive circuit 104 of a predetermined aperture value, and adjusts the aperture 103 to a target aperture value. The image sensor 112, the AD converter 115, and the like are turned on to prepare for shooting. When the preparation is completed, the mirror drive circuit 107 is driven to flip up the main mirror 5 so that the subject image is incident on the image sensor 112. The shutter drive circuit opens a front curtain (not shown) of the focal plane shutter 110 so that the subject image is incident on the image pickup device 112. Subsequently, after a predetermined storage time, the rear curtain (not shown) of the shutter 110 is closed so that light enters the image sensor 112 only during the storage time. Exposure is performed by performing this series of operations.

S402では、AD変換器115を介して映像信号処理回路116に画像信号を読み出し、バッファメモリ122に格納する。S403では、読み出した画像信号を現像回路116kで現像し、画像データに変換する。この時、画像が適正な画質になるように、ホワイトバランス処理や、ガンマ補正回路116bにより暗部にゲインをかけるガンマ処理などの画像処理を行ってもよい。 In S402, the image signal is read into the video signal processing circuit 116 via the AD converter 115 and stored in the buffer memory 122. In S403, the read image signal is developed by the developing circuit 116k and converted into image data. At this time, image processing such as white balance processing or gamma processing for applying a gain to a dark portion by the gamma correction circuit 116b may be performed so that the image has an appropriate image quality.

S404では、得られた画像データが圧縮・伸長回路116lでJPEGなどの汎用的なデータフォーマットへと変換される。S405では、変換された画像データが、SDカードやコンパクトフラッシュ(登録商標)などのメモリ120へと保存される。以上で撮影動作を終了する。 In S404, the obtained image data is converted into a general-purpose data format such as JPEG by the compression / decompression circuit 116l. In S405, the converted image data is stored in a memory 120 such as an SD card or a compact flash (registered trademark). This completes the shooting operation.

なお、S403において、画像処理や現像処理を行わず、読み出した画像信号そのままをS404で可逆圧縮し、S405で記憶媒体に保存してもよい。これらの切り替えはユーザーが操作部材124を用いて切り替えることが可能である。 In S403, the read image signal as it is may be losslessly compressed in S404 and stored in a storage medium in S405 without performing image processing or development processing. These switching can be switched by the user using the operation member 124.

以下、星空パノラマ撮影モードについて説明する。星空パノラマ撮影は、横方向に撮像装置をずらしながら撮影するモードと、縦方向に撮像装置をずらしながら撮影するモードがあるが、ここでは横方向にずらしながら撮影する例について説明する。 Hereinafter, the starry sky panoramic shooting mode will be described. Starry sky panorama shooting has a mode of shooting while shifting the image pickup device in the horizontal direction and a mode of shooting while shifting the image pickup device in the vertical direction. Here, an example of shooting while shifting the image pickup device in the horizontal direction will be described.

ユーザーが操作部材124を用いて星空パノラマ撮影モードを設定すると、撮像素子112、AD変換器115へと電源が供給され、初期設定が行われる。一方で主ミラー105を跳ね上げ、シャッタ駆動回路111はシャッタ110を開いて、撮影レンズ101を介した被写体像を撮像素子112へと入射させる。 When the user sets the starry sky panorama shooting mode using the operation member 124, power is supplied to the image sensor 112 and the AD converter 115, and the initial setting is performed. On the other hand, the main mirror 105 is flipped up, the shutter drive circuit 111 opens the shutter 110, and the subject image via the photographing lens 101 is incident on the image sensor 112.

撮像素子112からの信号をAD変換器115でデジタル信号へと変換し、映像信号処理回路116の現像回路116kで現像し、輝度調整回路116a、ガンマ補正回路116bにより適正な画像へと変換する。その後、この画像データは、変倍回路116fで表示部材118に適した画像サイズへと変倍され、表示される。これを1秒間に24回~60回繰り返して行うことにより、いわゆるライブビュー表示を行う。 The signal from the image pickup element 112 is converted into a digital signal by the AD converter 115, developed by the development circuit 116k of the video signal processing circuit 116, and converted into an appropriate image by the brightness adjustment circuit 116a and the gamma correction circuit 116b. After that, this image data is scaled to an image size suitable for the display member 118 by the scaling circuit 116f and displayed. By repeating this 24 to 60 times per second, so-called live view display is performed.

ユーザーはそのライブビュー表示を確認しながら、撮影の向きや画角を合わせてスイッチSW1(125)を押す。スイッチSW1(125)が押下されると、露光量が算出される。ライブビュー撮影でない場合は、サブミラー106により反射された光を露光量算出回路109で受光し、適切な露光量を算出する。ライブビュー撮影中は、映像信号処理回路116に含まれる不図示の露光量算出回路で適切な露光量を決定する。そして、マイクロコンピュータ123が、絞り駆動回路104を用いて絞り103を駆動したり、撮像素子112の感度や蓄積時間を制御したりする。星空パノラマ撮影では星が軌跡にならない程度の露光時間になるようなプログラム線図を用いる。一方、AF駆動回路102は撮影レンズ101を駆動し、焦点を合わせる。撮影の準備を終えると、不図示のブザー等でユーザーに知らせる。ユーザーが撮像装置を撮り始めたい向きに向け、スイッチSW2(126)を押下すると星空パノラマ撮影が開始される。 While checking the live view display, the user adjusts the shooting direction and angle of view and presses the switch SW1 (125). When the switch SW1 (125) is pressed, the exposure amount is calculated. In the case of not live view shooting, the light reflected by the sub mirror 106 is received by the exposure amount calculation circuit 109, and an appropriate exposure amount is calculated. During live view shooting, an appropriate exposure amount is determined by an exposure amount calculation circuit (not shown) included in the video signal processing circuit 116. Then, the microcomputer 123 drives the diaphragm 103 by using the diaphragm drive circuit 104, and controls the sensitivity and the accumulation time of the image pickup device 112. In starry sky panoramic photography, a program diagram is used so that the exposure time is such that the stars do not form a locus. On the other hand, the AF drive circuit 102 drives the photographing lens 101 to focus. When the preparation for shooting is completed, the user is notified by a buzzer (not shown). When the user presses the switch SW2 (126) in the direction in which he / she wants to start shooting the image pickup device, starry sky panoramic shooting is started.

次に、図4のフローチャートと図5のデータフローダイアグラムを用いて、星空パノラマ撮影について詳細に説明する。 Next, the starry sky panoramic photography will be described in detail using the flowchart of FIG. 4 and the data flow diagram of FIG.

星空パノラマ撮影が開始されると、まずマイクロコンピュータ123は、S501において、レンズ情報を取得する。このレンズ情報には、後述する歪曲収差やレンズ周辺部の光量の低下を補正するためのデータなどが含まれる。 When the starry sky panoramic photography is started, the microcomputer 123 first acquires the lens information in S501. This lens information includes data for correcting distortion and a decrease in the amount of light in the peripheral portion of the lens, which will be described later.

S502では、1枚目の長秒露光撮影を行う。撮像素子112、AD変換器115はライブビュー用の駆動に設定されているため、これを静止画撮影用に切り替える。絞り103を先ほど決めた露光量になるように調整し、フォーカルプレーンシャッタ110を開閉して、撮像素子112を露光させる。撮像素子112で得られた画像信号をAD変換器115でデジタル信号へと変換し、バッファメモリ122へと格納する。この画像データは、画像処理回路116に含まれる不図示の回路によって、例えばシェーディング補正などの処理が加えられる。このように最小限の加工しか行っていない画像データをRAW画像データ601と呼ぶ。次に、このRAW画像データ601を現像回路116kによって現像しYUV画像データ602とする。 In S502, the first long-second exposure image is taken. Since the image sensor 112 and the AD converter 115 are set to drive for live view, they are switched to for still image shooting. The aperture 103 is adjusted to have the exposure amount determined earlier, and the focal plane shutter 110 is opened and closed to expose the image sensor 112. The image signal obtained by the image pickup element 112 is converted into a digital signal by the AD converter 115 and stored in the buffer memory 122. The image data is subjected to processing such as shading correction by a circuit (not shown) included in the image processing circuit 116. Image data that has undergone minimal processing in this way is called RAW image data 601. Next, this RAW image data 601 is developed by the developing circuit 116k to obtain YUV image data 602.

次に、S503では、1枚目の高感度短秒露光撮影を行い、短秒露光画像を得る。長秒露光撮影の直前の高感度短秒露光撮影をAとし、長秒露光撮影の直後の高感度短秒露光撮影をBとする。高感度短秒露光撮影は移動量算出のためだけに使用し、パノラマ合成画像としては使用しない。S503で行われるのは、高感度短秒露光撮影Bである。短秒露光撮影では星が小さく薄くなるため、ISO感度を上げて撮影を行う。長秒露光撮影と同様に、RAW画像データ604を現像回路116kによって現像しYUV画像データ605とする。 Next, in S503, the first high-sensitivity short-second exposure image is taken to obtain a short-second exposure image. Let A be the high-sensitivity short-second exposure shooting immediately before the long-second exposure shooting, and B be the high-sensitivity short-second exposure shooting immediately after the long-second exposure shooting. High-sensitivity short-second exposure photography is used only for calculating the amount of movement, and is not used as a panoramic composite image. What is performed in S503 is high-sensitivity short-second exposure shooting B. Since the stars become smaller and thinner in short-second exposure photography, the ISO sensitivity is increased before shooting. Similar to the long exposure photography, the RAW image data 604 is developed by the developing circuit 116k to obtain the YUV image data 605.

S504では、2枚目の撮影までに撮像装置100がどのくらいスイング(回転)されたかを後のS509で取得できるようにするため、まず1枚目の時点でジャイロ133の初期化を行う。 In S504, the gyro 133 is first initialized at the time of the first image in order to be able to acquire how much the image pickup device 100 has been swung (rotated) by the second image in the later S509.

S505では、長秒露光撮影と短秒露光撮影それぞれの現像後の画像データ602,605について、幾何変換回路116eにより既存の技術を用いて撮影レンズ101の歪曲収差を補正し、歪曲補正後の画像データ603,606を得る。長秒露光による歪曲補正後の画像データ603は、表示部材118に表示させるため、変倍回路116fにより液晶モニタの画素数に応じて縮小され、VRAM611に格納される。 In S505, the distortion aberration of the photographing lens 101 is corrected by the geometric conversion circuit 116e for the image data 602,605 after development of each of the long-time exposure photography and the short-time exposure photography, and the image after the distortion correction is performed. Data 603,606 is obtained. The image data 603 after distortion correction by long-second exposure is reduced according to the number of pixels of the liquid crystal monitor by the scaling circuit 116f and stored in the VRAM 611 in order to be displayed on the display member 118.

次に、S506では、2枚目の高感度短秒露光撮影Aを行い、画像データ608を得る。S507では、2枚目の長秒露光撮影を行い、画像データ613を得る。さらに、S508において、2枚目の高感度短秒露光撮影Bを行い、画像データ616を得る。S502と同様に各RAW画像データ608,613,616を現像回路116kによって現像し、YUV画像データ609,614,617を得る。 Next, in S506, the second high-sensitivity short-second exposure shooting A is performed to obtain image data 608. In S507, a second long-second exposure shot is taken to obtain image data 613. Further, in S508, the second high-sensitivity short-second exposure shooting B is performed to obtain image data 616. Similar to S502, each RAW image data 608, 613, 616 is developed by the developing circuit 116k to obtain YUV image data 609, 614, 617.

S509では、前回の撮影からの撮像装置100のスイング量を取得するためにジャイロ133の検出値であるジャイロ情報を取得する。ジャイロ情報は、撮像装置のYaw方向、Pitch方向の2軸方向についての値を取得するが、光軸に対しての回転であるRoll方向を加えた3軸方向についての値を取得することも好ましい。ジャイロ133からの出力そのものは角速度であるが、パノラマ撮影では前回の撮影からどのくらいスイングされたかが必要なので、前の撮影と次の撮影までの角速度を積分し、2枚目以降の撮影時に前回からの回転角度607を計算し、記憶しておく。 In S509, in order to acquire the swing amount of the image pickup apparatus 100 from the previous shooting, the gyro information which is the detection value of the gyro 133 is acquired. For the gyro information, the values in the two-axis directions of the Yaw direction and the Pitch direction of the image pickup device are acquired, but it is also preferable to acquire the values in the three-axis direction including the Roll direction which is the rotation with respect to the optical axis. .. The output itself from the gyro 133 is the angular velocity, but in panoramic shooting it is necessary how much it has been swung from the previous shooting, so the angular velocity from the previous shooting to the next shooting is integrated, and when the second and subsequent shots are taken from the previous time. The rotation angle 607 is calculated and stored.

S510では、S501で取得したレンズの焦点距離や画角、撮像素子の情報などから、この回転角度607を画素単位に変換する。 In S510, this rotation angle 607 is converted into pixel units from the focal length and angle of view of the lens acquired in S501, information on the image sensor, and the like.

一般に歪曲収差のないレンズもしくは歪曲補正後の画角(α)は、実効焦点距離をf[mm]、撮像素子の幅をw[mm]とすると、以下の式1で計算される。 Generally, the lens without distortion or the angle of view (α) after distortion correction is calculated by the following equation 1 assuming that the effective focal length is f [mm] and the width of the image sensor is w [mm].

α[°]=2×arctan(w[mm]÷2÷f[mm]) (式1)
撮像素子の1画素あたりのサイズをp[μm]、スイング角[°]をθとすると、画像における移動量d[pix]は式2のようになる。
α [°] = 2 × arctan (w [mm] ÷ 2 ÷ f [mm]) (Equation 1)
Assuming that the size of the image sensor per pixel is p [μm] and the swing angle [°] is θ, the movement amount d [pix] in the image is as shown in Equation 2.

d[pix]=tan(α[°]÷2)×f[mm] /p[μm]×1000 (式2)
S511では、1枚目の歪曲収差補正(S505)と同様に2枚目の各画像の歪曲収差補正を行い、歪曲補正後の画像データ610,615,618を得る。1枚目と同様に、歪曲補正後の長秒露光撮影画像データ615は表示部材118に表示させるため、変倍回路116fにより、液晶モニタの画素数に応じて縮小し、VRAM619に格納する。
d [pix] = tan (α [°] ÷ 2) × f [mm] / p [μm] × 1000 (Equation 2)
In S511, the distortion aberration of each image of the second image is corrected in the same manner as the distortion aberration correction (S505) of the first image, and the image data 610, 615, 618 after the distortion correction is obtained. Similar to the first image, the long-time exposure photographed image data 615 after distortion correction is displayed on the display member 118, so that it is reduced according to the number of pixels of the liquid crystal monitor by the scaling circuit 116f and stored in the VRAM 619.

S512では、移動量算出回路116cを用いて、1枚目の高感度短秒露光撮影Bで得られた画像データ606と2枚目の高感度短秒露光撮影Aで得られた画像データ610とから移動量を算出する。移動量検出に関しては前述した通り既知の方法が使えるが、本実施形態では移動量検出回路116cで画像内の特徴点をいくつか見つけ出し、標本化することでアフィン係数612を算出している。 In S512, the image data 606 obtained in the first high-sensitivity short-second exposure shooting B and the image data 610 obtained in the second high-sensitivity short-second exposure shooting A are used by using the movement amount calculation circuit 116c. The amount of movement is calculated from. As described above, a known method can be used for the movement amount detection, but in the present embodiment, the affine coefficient 612 is calculated by finding some feature points in the image by the movement amount detection circuit 116c and sampling them.

具体的には、エッジを検出し、特徴点を抽出し、その移動量を算出する。例えばここで特徴点1が座標(x1,y1)から座標(u1,v1)に、特徴点2が座標(x2,y2)から(u2,v2)に、特徴点3が座標(x3,y3)から(u3,v3)にずれていたとする。すると式1から連立方程式を作ると式3、式4のようになる。 Specifically, an edge is detected, feature points are extracted, and the amount of movement thereof is calculated. For example, here, the feature point 1 is from the coordinates (x1, y1) to the coordinates (u1, v1), the feature point 2 is from the coordinates (x2, y2) to (u2, v2), and the feature point 3 is the coordinates (x3, y3). It is assumed that the coordinates deviate from (u3, v3). Then, when simultaneous equations are created from Equation 1, Equations 3 and 4 are obtained.

Figure 0007100535000001
Figure 0007100535000001

この方程式を解くことでa~fのアフィン係数を算出することが可能である。4点以上の特徴点が検出できた場合は、近い点を除外して最小二乗法を用いて正規化する。3点見つからない場合や、抽出した3点が直線状になっている場合、3点のうち2点が近い場合は移動量の算出が失敗したと判断する。 By solving this equation, it is possible to calculate the affine coefficients a to f. If 4 or more feature points can be detected, normalize using the least squares method by excluding close points. If three points are not found, if the extracted three points are linear, or if two of the three points are close to each other, it is determined that the calculation of the movement amount has failed.

このようにして画像から算出した移動量(アフィン係数)と、S510でジャイロセンサの検出値から計算した回転角度607に基づく移動量とが大きく異なる場合は、画像に繰り返しパターンや移動体が含まれていることが考えられる。そこで、別の条件下で再度移動量を算出したり、このショットを失敗とし、次の撮影(S506)に戻ったり、あるいは星空パノラマ撮影が失敗したことの警告を出す方法が考えられる。 If the movement amount (affin coefficient) calculated from the image in this way and the movement amount based on the rotation angle 607 calculated from the detection value of the gyro sensor in S510 are significantly different, the image includes a repeating pattern or a moving body. It is possible that Therefore, it is conceivable to calculate the movement amount again under another condition, make this shot a failure, return to the next shooting (S506), or issue a warning that the starry sky panoramic shooting has failed.

S513では、画像から算出した移動量(アフィン係数)に基づいて、S502とS507で長秒露光撮影して得られた画像について、位置合わせ回路116dを用いて位置合わせを行い、位置合わせ画像データ621を得る。 In S513, based on the movement amount (affin coefficient) calculated from the image, the image obtained by long-time exposure photography with S502 and S507 is aligned using the alignment circuit 116d, and the alignment image data 621 is used. To get.

S514では、1枚目の画像データ620と2枚目の位置合わせ後の画像データ621を合成回路116jを用いて合成し、合成画像データ622を得る。なおN枚目(N>2)の処理を行う場合は、これまでの合成結果、つまり(N-1)枚目までの合成画像データ620とN枚目の位置合わせ後の画像データ621を合成する。 In S514, the first image data 620 and the image data 621 after the alignment of the second image are combined by using the synthesis circuit 116j to obtain the composite image data 622. When processing the Nth sheet (N> 2), the composition results so far, that is, the composite image data 620 up to the (N-1) th sheet and the image data 621 after the alignment of the Nth sheet are combined. do.

S515で、スイッチSW2(126)が押下されていたら次の撮影S506へと戻り、スイッチSW2(126)が押下されていない場合はS516の処理を行う。S516では、圧縮・伸長回路116lを用いて、画像データをJpegなどの汎用フォーマットに圧縮し、S517でメモリ120に保存する。 In S515, if the switch SW2 (126) is pressed, the process returns to the next shooting S506, and if the switch SW2 (126) is not pressed, the process of S516 is performed. In S516, the image data is compressed into a general-purpose format such as Jpeg using the compression / decompression circuit 116l, and stored in the memory 120 in S517.

なおこの時に、合成画像の暗部を見やすくするためにガンマ補正回路116bでγ補正を行うことや、画像全体の色調を統一するために補正を行うことも好ましい。またこのようにして得られる画像はサイズが大きいため、あらかじめユーザーが指示したサイズに変倍回路116fで変倍を行ってもよい。さらに最大内接矩形あるいは予め決められた領域について、トリミング回路116gで切り出しを行ってから保存することも好ましい。 At this time, it is also preferable to perform gamma correction by the gamma correction circuit 116b in order to make the dark part of the composite image easier to see, or to perform correction in order to unify the color tone of the entire image. Further, since the image obtained in this way has a large size, scaling may be performed by the scaling circuit 116f to a size specified in advance by the user. Further, it is also preferable to cut out the maximum inscribed rectangle or a predetermined region with the trimming circuit 116 g and then store the region.

なお、上記の説明では、撮像装置を横方向にずらしながら複数の画像を撮影する例を示したが、縦方向にずらす場合も同様の方法で行うことができる。 In the above description, an example of capturing a plurality of images while shifting the image pickup device in the horizontal direction is shown, but the same method can be used when the image pickup device is shifted in the vertical direction.

以上説明したように、撮影の向きが異なる画像の間で被写体となる星が動いても、正しく位置合わせを行い、感度を上げずに高画質なパノラマ合成画像を撮影することが可能となる。 As described above, even if the star as the subject moves between images in different shooting directions, it is possible to perform correct alignment and shoot a high-quality panoramic composite image without increasing the sensitivity.

(第2の実施形態)
本実施形態では、星空パノラマ撮影の撮影条件や環境によって移動量算出のための高感度短秒露光撮影が不要な場合の例について説明する。図6は、第2の実施形態におけるパノラマ撮影の動作を示すフローチャートである。
(Second embodiment)
In this embodiment, an example will be described in which high-sensitivity short-second exposure photography for calculating the amount of movement is not necessary depending on the imaging conditions and environment of starry sky panoramic photography. FIG. 6 is a flowchart showing the operation of panoramic photography in the second embodiment.

星空パノラマ撮影が開始されてからのS701~S702の処理は第1の実施形態のS501~S502の処理に、S704~S706の処理はS503~S505の処理に、S708~S709の処理はS506~S507の処理に、S711~S720の処理はS508~S517の処理に相当するため、これらの処理についての説明は省略する。 The processing of S701 to S702 after the start of starry sky panoramic photography is the processing of S501 to S502 of the first embodiment, the processing of S704 to S706 is the processing of S503 to S505, and the processing of S708 to S709 is S506 to S507. Since the processes of S711 to S720 correspond to the processes of S508 to S517, the description of these processes will be omitted.

S703では、1枚目の長秒露光撮影(S702)に続いて、高感度短秒露光撮影Bを実施する必要があるか否かを判定する。実施の判定は、例えば次のようにして行う。まず、マイクロコンピュータ123が方位計134で検出された撮像装置の方向を取得し、撮影間の星の動き量を算出する。星の動きがないと判定された場合には、S704の高感度短秒露光撮影Bを行わずにS705の処理を行う。高感度短秒露光撮影Bの実施の判定には、蓄積時間の設定などを用いても構わない。 In S703, it is determined whether or not it is necessary to perform the high-sensitivity short-second exposure shooting B following the first long-second exposure shooting (S702). The determination of implementation is made, for example, as follows. First, the microcomputer 123 acquires the direction of the image pickup device detected by the azimuth meter 134, and calculates the amount of movement of the star during shooting. If it is determined that there is no movement of the star, the processing of S705 is performed without performing the high-sensitivity short-second exposure shooting B of S704. The accumulation time setting or the like may be used to determine the execution of the high-sensitivity short-second exposure shooting B.

2枚目以降も長秒露光撮影(S709)の前後の高感度短秒露光撮影AおよびBを実施する必要があるか否かを、S707とS710において、S703と同様の処理で判定する。そして、星の動きがないと判定された場合には、S708の高感度短秒露光撮影AやS711の高感度短秒露光撮影Bを行わずS709、S712の処理を行う。 Whether or not it is necessary to perform high-sensitivity short-second exposure photography A and B before and after the long-second exposure photography (S709) for the second and subsequent images is determined in S707 and S710 by the same processing as in S703. If it is determined that there is no movement of the star, the processes of S709 and S712 are performed without performing the high-sensitivity short-second exposure photography A of S708 and the high-sensitivity short-second exposure photography B of S711.

以上説明したように、星空パノラマ撮影の撮影条件や撮影環境を判定することにより、位置合わせのための不要な高感度短秒露光撮影を省略することで撮影に係る電力を低減することが可能となる。なお、本実施形態では全ての高感度短秒露光撮影の前に実施判定を入れる場合について説明したが、撮像装置の待機状態で全ての高感度短秒露光撮影が不要であると判定可能な場合は、1回のみの判定処理とする構成であっても構わない。 As explained above, by determining the shooting conditions and shooting environment for starry sky panoramic shooting, it is possible to reduce the power consumption related to shooting by omitting unnecessary high-sensitivity short-second exposure shooting for alignment. Become. In the present embodiment, the case where the implementation judgment is made before all the high-sensitivity short-second exposure shootings has been described, but when it is possible to judge that all the high-sensitivity short-second exposure shootings are unnecessary in the standby state of the image pickup apparatus. May be configured so that the determination process is performed only once.

(第3の実施形態)
本実施形態では、星空パノラマ撮影において、位置合わせに失敗すると考えられる場合にユーザーへの適切な警告を表示する例について図4と図7を用いて説明する。
(Third embodiment)
In the present embodiment, an example of displaying an appropriate warning to the user when it is considered that the alignment fails in the starry sky panoramic photography will be described with reference to FIGS. 4 and 7.

S504の高感度短秒撮影BとS506の高感度短秒撮影Aを行った際に、マイクロコンピュータ123は時計132から時刻を取得し、記憶しておく。マイクロコンピュータ123は2つの撮影時間間隔を算出し、一定の時間以上の間隔が空いている場合には星が動きすぎてしまっていると判定し、図8(a)の警告画面を表示する。 When the high-sensitivity short-second photography B of S504 and the high-sensitivity short-second photography A of S506 are performed, the microcomputer 123 acquires and stores the time from the clock 132. The microcomputer 123 calculates the interval between the two shooting times, determines that the star has moved too much when the interval is longer than a certain time, and displays the warning screen of FIG. 8A.

また、マイクロコンピュータ123はS509で取得したジャイロ情報である回転角度607から撮像装置のスイング量を検出し、一定のスイング量を超えている場合は位置合わせができないと判定し、図8(b)の警告画面を表示する。 Further, the microcomputer 123 detects the swing amount of the image pickup device from the rotation angle 607 which is the gyro information acquired in S509, and if it exceeds a certain swing amount, it is determined that the alignment cannot be performed, and FIG. 8B is shown. Warning screen is displayed.

以上説明したように、星空パノラマ撮影における位置合わせが不可能と予想される場面では予め警告を表示することでユーザーの利便性を向上させることができる。 As described above, it is possible to improve the convenience of the user by displaying a warning in advance in a scene where alignment is expected to be impossible in starry sky panoramic photography.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.

(その他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads the program. It can also be realized by the processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:撮像装置、101:撮影レンズ、112:撮像素子、116:映像信号処理回路、119:メモリコントローラ、123:マイクロコンピュータ、133:ジャイロ、134:方位計 100: Image pickup device, 101: Shooting lens, 112: Image pickup element, 116: Video signal processing circuit, 119: Memory controller, 123: Microcomputer, 133: Gyro, 134: Direction meter

Claims (18)

撮像方向が異なり、部分的に共通な領域を有する複数枚の単位画像を合成することにより1枚の合成画像を生成可能な撮像装置であって、
被写体像を撮像する撮像手段と、
前記撮像手段に、前記複数枚の単位画像を撮像させるとともに、前記複数枚の単位画像のうちのそれぞれの単位画像の撮像の前後に、前記単位画像の露光時間よりも露光時間の短い短秒露光画像を撮像させる制御手段と、
第1の単位画像の撮像の後に撮像された第1の短秒露光画像と、前記第1の単位画像に続いて撮像された第2の単位画像の撮像の前に撮像された第2の短秒露光画像とを用いて、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量を算出する算出手段と、
前記算出手段により算出された前記被写体の移動量に基づいて、前記第1の単位画像と前記第2の単位画像の位置合わせを行い、前記第1の単位画像と前記第2の単位画像を合成する合成手段と、
を備えることを特徴とする撮像装置。
An image pickup device capable of generating one composite image by synthesizing a plurality of unit images having different imaging directions and having a partially common area.
An imaging means for capturing a subject image and
The imaging means is made to image the plurality of unit images, and before and after the imaging of each unit image of the plurality of unit images, a short-second exposure having a shorter exposure time than the exposure time of the unit image is performed. A control means for capturing an image and
The first short exposure image taken after the first unit image was taken and the second short shot taken before the second short shot taken following the first unit image. A calculation means for calculating the amount of movement of the subject between the first short-exposure image and the second short-exposure image using the second-exposure image, and
Based on the movement amount of the subject calculated by the calculation means, the first unit image and the second unit image are aligned, and the first unit image and the second unit image are combined. Synthetic means and
An image pickup device characterized by being provided with.
前記被写体は星空であり、前記単位画像は、星空を撮影するための長秒露光で撮影された画像であることを特徴とする請求項1に記載の撮像装置。 The image pickup apparatus according to claim 1, wherein the subject is a starry sky, and the unit image is an image taken by long-second exposure for taking a picture of the starry sky. 前記短秒露光画像は、星空を短秒露光で撮影するために、前記撮像手段の感度を上げて撮影された画像であることを特徴とする請求項2に記載の撮像装置。 The imaging device according to claim 2, wherein the short-second exposure image is an image captured by increasing the sensitivity of the imaging means in order to capture a starry sky with a short-second exposure. 前記短秒露光画像の撮像を実施する必要があるか否かを判定する第1の判定手段をさらに備え、該第1の判定手段により前記短秒露光画像の撮像が必要ないと判定された場合は、前記制御手段は、前記短秒露光画像の撮像を省略することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 When the first determination means for determining whether or not it is necessary to capture the short exposure image is further provided, and it is determined by the first determination means that the imaging of the short exposure image is not necessary. The image pickup apparatus according to any one of claims 1 to 3, wherein the control means omits the acquisition of the short-time exposure image. 前記第1の判定手段は、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動がない場合に、前記短秒露光画像の撮像が必要ないと判定することを特徴とする請求項4に記載の撮像装置。 The first determination means determines that it is not necessary to capture the short exposure image when there is no movement of the subject between the first short exposure image and the second short exposure image. The image pickup apparatus according to claim 4, wherein the image pickup apparatus is characterized by the above. 前記第1の単位画像と前記第2の単位画像の位置合わせが可能か否かを判定する第2の判定手段と、該第2の判定手段により、前記第1の単位画像と前記第2の単位画像の位置合わせが不可能と判定された場合に警告を発する警告手段と、をさらに備えることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。 The first unit image and the second unit image are determined by the second determination means for determining whether or not the alignment of the first unit image and the second unit image is possible, and the second determination means. The image pickup apparatus according to any one of claims 1 to 5, further comprising a warning means for issuing a warning when it is determined that alignment of a unit image is impossible. 前記第2の判定手段は、前記算出手段により算出された、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量が所定の量を超えている場合に、前記第1の単位画像と前記第2の単位画像の位置合わせが不可能と判定することを特徴とする請求項6に記載の撮像装置。 In the second determination means, when the amount of movement of the subject between the first short-second exposure image and the second short-second exposure image calculated by the calculation means exceeds a predetermined amount. The image pickup apparatus according to claim 6, wherein it is determined that the alignment of the first unit image and the second unit image is impossible. 前記第1の短秒露光画像の撮像と前記第2の短秒露光画像の撮像との間の経過時間を計時する計時手段をさらに備え、前記第2の判定手段は、前記経過時間が所定の時間を超えている場合に、前記第1の単位画像と前記第2の単位画像の位置合わせが不可能と判定することを特徴とする請求項6に記載の撮像装置。 Further provided with a time measuring means for measuring the elapsed time between the acquisition of the first short-time exposure image and the acquisition of the second short-time exposure image, the second determination means has a predetermined elapsed time. The image pickup apparatus according to claim 6, wherein it is determined that the alignment of the first unit image and the second unit image is impossible when the time is exceeded. 撮像方向が異なり、部分的に共通な領域を有する複数枚の単位画像を合成することにより1枚の合成画像を生成可能な画像処理装置であって、
前記複数枚の単位画像と、前記複数枚の単位画像のうちのそれぞれの単位画像の撮像の前後に、前記単位画像の露光時間よりも短い露光時間で撮像された短秒露光画像と、を取得する取得手段と、
第1の単位画像の撮像の後に撮像された第1の短秒露光画像と、前記第1の単位画像に続いて撮像された第2の単位画像の撮像の前に撮像された第2の短秒露光画像とを用いて、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量を算出する算出手段と、
前記算出手段により算出された前記被写体の移動量に基づいて、前記第1の単位画像と前記第2の単位画像の位置合わせを行い、前記第1の単位画像と前記第2の単位画像を合成する合成手段と、
を備えることを特徴とする画像処理装置。
An image processing device capable of generating a single composite image by synthesizing a plurality of unit images having different imaging directions and having a partially common area.
Acquires the plurality of unit images and short-second exposure images captured with an exposure time shorter than the exposure time of the unit images before and after imaging of each of the plurality of unit images. Acquisition method and
The first short exposure image taken after the first unit image was taken and the second short shot taken before the second short shot taken following the first unit image. A calculation means for calculating the amount of movement of the subject between the first short-exposure image and the second short-exposure image using the second-exposure image, and
Based on the movement amount of the subject calculated by the calculation means, the first unit image and the second unit image are aligned, and the first unit image and the second unit image are combined. Synthetic means and
An image processing device characterized by comprising.
前記被写体は星空であり、前記単位画像は、星空を撮影するための長秒露光で撮影された画像であることを特徴とする請求項9に記載の画像処理装置。 The image processing apparatus according to claim 9, wherein the subject is a starry sky, and the unit image is an image taken with a long exposure for photographing the starry sky. 前記短秒露光画像は、星空を短秒露光で撮影するために、像手段の感度を上げて撮影された画像であることを特徴とする請求項10に記載の画像処理装置。 The image processing apparatus according to claim 10, wherein the short-second exposure image is an image taken with increased sensitivity of an imaging means in order to take a short-second exposure of a starry sky. 前記第1の単位画像と前記第2の単位画像の位置合わせが可能か否かを判定する第2の判定手段と、該第2の判定手段により、前記第1の単位画像と前記第2の単位画像の位置合わせが不可能と判定された場合に警告を発する警告手段と、をさらに備えることを特徴とする請求項9乃至11のいずれか1項に記載の画像処理装置。 The first unit image and the second unit image are determined by the second determination means for determining whether or not the alignment of the first unit image and the second unit image is possible, and the second determination means. The image processing apparatus according to any one of claims 9 to 11, further comprising a warning means for issuing a warning when it is determined that alignment of a unit image is impossible. 前記第2の判定手段は、前記算出手段により算出された、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量が所定の量を超えている場合に、前記第1の単位画像と前記第2の単位画像の位置合わせが不可能と判定することを特徴とする請求項12に記載の画像処理装置。 In the second determination means, when the amount of movement of the subject between the first short-second exposed image and the second short-second exposed image calculated by the calculation means exceeds a predetermined amount. The image processing apparatus according to claim 12, wherein it is determined that the alignment of the first unit image and the second unit image is impossible. 前記取得手段は、前記第1の短秒露光画像の撮像と前記第2の短秒露光画像の撮像との間の経過時間の情報をさらに取得し、前記第2の判定手段は、前記経過時間が所定の時間を超えている場合に、前記第1の単位画像と前記第2の単位画像の位置合わせが不可能と判定することを特徴とする請求項12に記載の画像処理装置。 The acquisition means further acquires information on the elapsed time between the acquisition of the first short-second exposed image and the acquisition of the second short-second exposed image, and the second determination means obtains the elapsed time. The image processing apparatus according to claim 12, wherein when the image exceeds a predetermined time, it is determined that the alignment of the first unit image and the second unit image is impossible. 撮像方向が異なり、部分的に共通な領域を有する複数枚の単位画像を合成することにより1枚の合成画像を生成可能な撮像装置を制御する方法であって、
被写体像を撮像する撮像手段に、前記複数枚の単位画像を撮像させるとともに、前記複数枚の単位画像のうちのそれぞれの単位画像の撮像の前後に、前記単位画像の露光時間よりも露光時間の短い短秒露光画像を撮像させる制御工程と、
第1の単位画像の撮像の後に撮像された第1の短秒露光画像と、前記第1の単位画像に続いて撮像された第2の単位画像の撮像の前に撮像された第2の短秒露光画像とを用いて、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量を算出する算出工程と、
前記算出工程において算出された前記被写体の移動量に基づいて、前記第1の単位画像と前記第2の単位画像の位置合わせを行い、前記第1の単位画像と前記第2の単位画像を合成する合成工程と、
を有することを特徴とする撮像装置の制御方法。
It is a method of controlling an imaging device capable of generating one composite image by synthesizing a plurality of unit images having different imaging directions and having a partially common area.
The imaging means for capturing the subject image captures the plurality of unit images, and the exposure time is longer than the exposure time of the unit image before and after the imaging of each unit image of the plurality of unit images. A control process for capturing a short short-second exposure image and
The first short exposure image taken after the first unit image was taken and the second short shot taken before the second short shot taken following the first unit image. A calculation step of calculating the amount of movement of the subject between the first short-exposure image and the second short-exposure image using the second-exposure image, and
Based on the movement amount of the subject calculated in the calculation step, the first unit image and the second unit image are aligned, and the first unit image and the second unit image are combined. And the synthesis process
A method for controlling an image pickup apparatus, which comprises.
撮像方向が異なり、部分的に共通な領域を有する複数枚の単位画像を合成することにより1枚の合成画像を生成可能な画像処理装置を制御する方法であって、
前記複数枚の単位画像と、前記複数枚の単位画像のうちのそれぞれの単位画像の撮像の前後に、前記単位画像の露光時間よりも短い露光時間で撮像された短秒露光画像と、を取得する取得工程と、
第1の単位画像の撮像の後に撮像された第1の短秒露光画像と、前記第1の単位画像に続いて撮像された第2の単位画像の撮像の前に撮像された第2の短秒露光画像とを用いて、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量を算出する算出工程と、
前記算出こうていにおいて算出された前記被写体の移動量に基づいて、前記第1の単位画像と前記第2の単位画像の位置合わせを行い、前記第1の単位画像と前記第2の単位画像を合成する合成工程と、
を有することを特徴とする画像処理装置の制御方法。
It is a method of controlling an image processing device capable of generating one composite image by synthesizing a plurality of unit images having different imaging directions and having a partially common region.
Acquires the plurality of unit images and short-second exposure images captured with an exposure time shorter than the exposure time of the unit images before and after imaging of each of the plurality of unit images. Acquisition process and
The first short exposure image taken after the first unit image was taken and the second short shot taken before the second short shot taken following the first unit image. A calculation step of calculating the amount of movement of the subject between the first short-exposure image and the second short-exposure image using the second-exposure image, and
Based on the movement amount of the subject calculated in this calculation, the first unit image and the second unit image are aligned, and the first unit image and the second unit image are combined. The synthesis process to synthesize and
A method for controlling an image processing apparatus, which comprises.
コンピュータに、請求項15または16に記載の制御方法の各工程を実行させるためのプログラム。 A program for causing a computer to execute each step of the control method according to claim 15. コンピュータに、請求項15または16に記載の制御方法の各工程を実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium that stores a program for causing a computer to execute each step of the control method according to claim 15.
JP2018153205A 2018-08-16 2018-08-16 Image pickup device and image processing device, their control method, program, storage medium Active JP7100535B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018153205A JP7100535B2 (en) 2018-08-16 2018-08-16 Image pickup device and image processing device, their control method, program, storage medium
US16/539,040 US11044397B2 (en) 2018-08-16 2019-08-13 Image capturing device and image processing device, control methods of the same, and storage medium
CN201910743581.0A CN110891140B (en) 2018-08-16 2019-08-13 Image pickup apparatus, image processing apparatus, control method therefor, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018153205A JP7100535B2 (en) 2018-08-16 2018-08-16 Image pickup device and image processing device, their control method, program, storage medium

Publications (3)

Publication Number Publication Date
JP2020028079A JP2020028079A (en) 2020-02-20
JP2020028079A5 JP2020028079A5 (en) 2021-08-12
JP7100535B2 true JP7100535B2 (en) 2022-07-13

Family

ID=69620456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018153205A Active JP7100535B2 (en) 2018-08-16 2018-08-16 Image pickup device and image processing device, their control method, program, storage medium

Country Status (1)

Country Link
JP (1) JP7100535B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328497A (en) 2004-04-16 2005-11-24 Sony Corp Image pickup apparatus and image pickup method
JP2016149631A (en) 2015-02-12 2016-08-18 オリンパス株式会社 Imaging apparatus and imaging method
JP2017168982A (en) 2016-03-15 2017-09-21 キヤノン株式会社 Imaging apparatus, and control method and program for imaging apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016005160A (en) * 2014-06-18 2016-01-12 キヤノン株式会社 Imaging device and control method thereof
JP6246175B2 (en) * 2015-10-09 2017-12-13 キヤノン株式会社 Imaging apparatus for imaging subject trajectory and control method of imaging apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328497A (en) 2004-04-16 2005-11-24 Sony Corp Image pickup apparatus and image pickup method
JP2016149631A (en) 2015-02-12 2016-08-18 オリンパス株式会社 Imaging apparatus and imaging method
JP2017168982A (en) 2016-03-15 2017-09-21 キヤノン株式会社 Imaging apparatus, and control method and program for imaging apparatus

Also Published As

Publication number Publication date
JP2020028079A (en) 2020-02-20

Similar Documents

Publication Publication Date Title
JP4378272B2 (en) Imaging device
JP6659130B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP7030442B2 (en) Image processing equipment, image processing methods, and programs
WO2015049907A1 (en) Imaging device, image processing device, and image processing method
JP7174120B2 (en) IMAGING DEVICE, PROGRAM, RECORDING MEDIUM, AND CONTROL METHOD
US20110109771A1 (en) Image capturing appratus and image capturing method
JP7023662B2 (en) Image processing device, image pickup device, control method and program of image processing device
WO2016002355A1 (en) Image capturing device and image capturing method
JP6529533B2 (en) Imaging device, control method of imaging device, and program
KR20120115119A (en) Image processing device for generating composite image having predetermined aspect ratio
JP6833801B2 (en) Imaging equipment, imaging methods, programs and recording media
US11330156B2 (en) Image capturing device
JP5495598B2 (en) Imaging apparatus and control method thereof
JPH09322055A (en) Electronic camera system
JP5693664B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
CN110891140B (en) Image pickup apparatus, image processing apparatus, control method therefor, and storage medium
JP7102301B2 (en) Imaging device and its control method, and program
JP7100535B2 (en) Image pickup device and image processing device, their control method, program, storage medium
JP6869841B2 (en) Image processing device, control method of image processing device, and program
JP7051586B2 (en) Imaging equipment, imaging methods and programs
JP2022083147A (en) Imaging apparatus, imaging method, program, and recording medium
JP7106399B2 (en) Image processing device, image processing method, and program
JP2007142554A (en) Digital camera
JP2019009574A (en) Image processing apparatus
JP2007174574A (en) Digital single lens reflex camera

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220701

R151 Written notification of patent or utility model registration

Ref document number: 7100535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151