JP2020028079A - Imaging apparatus, image processing apparatus, control method of the same, program, and storage medium - Google Patents

Imaging apparatus, image processing apparatus, control method of the same, program, and storage medium Download PDF

Info

Publication number
JP2020028079A
JP2020028079A JP2018153205A JP2018153205A JP2020028079A JP 2020028079 A JP2020028079 A JP 2020028079A JP 2018153205 A JP2018153205 A JP 2018153205A JP 2018153205 A JP2018153205 A JP 2018153205A JP 2020028079 A JP2020028079 A JP 2020028079A
Authority
JP
Japan
Prior art keywords
image
unit
short
exposure
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018153205A
Other languages
Japanese (ja)
Other versions
JP2020028079A5 (en
JP7100535B2 (en
Inventor
慎二 久本
Shinji Hisamoto
慎二 久本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018153205A priority Critical patent/JP7100535B2/en
Priority to CN201910743581.0A priority patent/CN110891140B/en
Priority to US16/539,040 priority patent/US11044397B2/en
Publication of JP2020028079A publication Critical patent/JP2020028079A/en
Publication of JP2020028079A5 publication Critical patent/JP2020028079A5/en
Application granted granted Critical
Publication of JP7100535B2 publication Critical patent/JP7100535B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging apparatus capable of capturing a high-quality panoramic image even if a subject star moves between images with different shooting directions.SOLUTION: The imaging apparatus capable of generating one synthesized image by synthesizing a plurality of unit images having different imaging directions and having a partially common area, includes: an imaging unit for capturing a subject image; a control unit for causing the imaging unit to capture a plurality of unit images and a short-second exposure image whose exposure time is shorter than exposure time of the unit image before and after capturing each unit image of the plurality of unit images; a calculating unit for calculating a moving amount of the subject between a first short-second exposure image and a second short-second exposure image by using the first short-second exposure image captured after capturing a first unit image and the second short-time exposure image captured before capturing a second unit image captured after the first unit image; and a synthesizing unit for aligning the first unit image and the second unit image on the basis of the movement amount of the subject calculated by the calculation unit to synthesize the first unit image and the second unit image.SELECTED DRAWING: Figure 5

Description

本発明は互いに共通領域が写るように撮影の向きを順次変化させながら連続撮影した画像を合成することにより、より広範囲の星空画像、すなわち星空パノラマ画像を得る技術に関する。   The present invention relates to a technique for obtaining a wider-range starry sky image, that is, a starry sky panoramic image, by synthesizing continuously shot images while sequentially changing the shooting direction so that a common region is captured.

広大な星空を一枚の画像として収めるための撮影方法の一つとして、パノラマ撮影の手法が知られている。この手法の例として、特許文献1には次のような撮影方法が開示されている。つまり、撮影の向きを順次変化させて撮影範囲の一部を構成する複数の単位画像を撮像し、撮像した単位画像から所定サイズの画像領域を互いに重複領域が生じるように切り出し、切り出した画像領域を順次重ね合わせることによりパノラマ画像を生成する。   2. Description of the Related Art A panoramic imaging method is known as one of imaging methods for storing a vast starry sky as one image. As an example of this technique, Patent Document 1 discloses the following imaging method. That is, a plurality of unit images constituting a part of the photographing range are photographed by sequentially changing the photographing direction, and image regions of a predetermined size are cut out from the photographed unit images so that overlapping regions are generated with each other. Are sequentially superimposed to generate a panoramic image.

ここで、この手法を星空のパノラマ撮影に適用する場合の問題点について説明する。星空を撮影する際は星の光量が微量であることから、30秒や1分といった長時間の露光を行うことが多い。天体は地球の自転に合わせて日周運動をしているため、長時間露光すると星は点像にならず光跡となってしまう。   Here, a problem in a case where this method is applied to panoramic shooting of a starry sky will be described. When photographing a starry sky, a long exposure such as 30 seconds or 1 minute is often performed because the amount of light of the star is very small. As the celestial body makes a diurnal motion in accordance with the rotation of the earth, long exposure will result in a star trail instead of a point image.

星空をパノラマ撮影する際は、星が光跡にならない程度の露光時間で撮影の向きが異なる画像を撮影し、画像をつなぎ合わせることでパノラマ画像を生成することが必要になる。しかし、長時間露光で星空のパノラマ撮影を行いたい場合もある。この場合、画像同士の間で時間の経過により星が動くため、画像同士の位置合わせに失敗しやすい。図8は、星空のパノラマ撮影において、撮影の向きが異なる2つの画像を合成した際の、位置合わせの失敗例を示している。図8(a)は1枚目の撮影画像を示し、301は背景を示している。図8(b)は2枚目の撮影画像を示し、302は背景を示している。1枚目の長秒露光撮影の時間とユーザーが撮影の向きを変えるために撮像装置をセッティングする時間とを合わせた時間の経過によって、2枚目の画像に写る星の位置が1枚目の画像の星の位置に対して移動している。図8(c)は1枚目と2枚目の撮影画像の位置合わせを行う際に、星を位置合わせの基準としたために、星の動きの分だけ背景301と302がずれて合成された状態を示している。   When taking a panoramic image of a starry sky, it is necessary to generate panoramic images by photographing images having different photographing directions with an exposure time that does not cause a star to form a light trail, and connecting the images. However, there are cases where it is desired to perform panoramic shooting of the starry sky with long exposure. In this case, since the stars move between the images with the passage of time, alignment between the images tends to fail. FIG. 8 shows an example of a failure in alignment when two images having different shooting directions are combined in panoramic shooting of a starry sky. FIG. 8A shows a first captured image, and 301 indicates a background. FIG. 8B illustrates a second captured image, and 302 indicates a background. With the lapse of time including the time of the first long-time exposure shooting and the time for the user to set the imaging device to change the shooting direction, the position of the star in the second image is changed to the position of the first image. Moving relative to the position of the star in the image. FIG. 8C shows that when the first and second shot images are aligned, the background 301 and 302 are shifted by the amount of the movement of the stars because the stars are used as a reference for alignment. The state is shown.

一方、特許文献2には、天体の日周運動による撮影面上での位置ずれを光学式の振れ補正手段を用いて補正し、撮影と合成を繰り返すことにより、位置合わせの失敗を防ぎつつより広い画角の撮影画像を得る技術が開示されている。   On the other hand, Patent Literature 2 discloses an optical shake correction unit that corrects a position shift on an imaging surface due to a diurnal motion of a celestial body, and repeats imaging and synthesis to prevent alignment failure while preventing misalignment. A technique for obtaining a captured image with a wide angle of view has been disclosed.

特開2005−328497号公報JP 2005-328497 A 特開2016−005160号公報JP-A-2006-005160

しかしながら、特許文献2に開示されている従来技術では、光学式の振れ補正手段を利用するため、撮影の向きの変化の最大値が制限されてしまい、更に広い画角の天体画像を撮影することができないという課題がある。   However, in the related art disclosed in Patent Document 2, since an optical shake correction unit is used, the maximum value of the change in the shooting direction is limited, and an astronomical image with a wider angle of view is shot. There is a problem that can not be.

本発明は上述した課題に鑑みてなされたものであり、その目的は、撮影の向きが異なる画像間で被写体となる星が動いた場合でも、高画質なパノラマ画像を撮影することが出来る撮像装置を提供することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an imaging apparatus capable of capturing a high-quality panoramic image even when a star serving as a subject moves between images having different shooting directions. It is to provide.

本発明に係わる撮像装置は、撮像方向が異なり、部分的に共通な領域を有する複数枚の単位画像を合成することにより1枚の合成画像を生成可能な撮像装置であって、被写体像を撮像する撮像手段と、前記撮像手段に、前記複数枚の単位画像を撮像させるとともに、前記複数枚の単位画像のうちのそれぞれの単位画像の撮像の前後に、前記単位画像の露光時間よりも露光時間の短い短秒露光画像を撮像させる制御手段と、第1の単位画像の撮像の後に撮像された第1の短秒露光画像と、前記第1の単位画像に続いて撮像された第2の単位画像の撮像の前に撮像された第2の短秒露光画像とを用いて、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量を算出する算出手段と、前記算出手段により算出された前記被写体の移動量に基づいて、前記第1の単位画像と前記第2の単位画像の位置合わせを行い、前記第1の単位画像と前記第2の単位画像を合成する合成手段と、を備えることを特徴とする。   An imaging apparatus according to the present invention is an imaging apparatus that can generate a single composite image by synthesizing a plurality of unit images having different imaging directions and partially common areas, and captures a subject image. And an imaging unit that causes the imaging unit to capture the plurality of unit images, and before and after capturing each unit image of the plurality of unit images, the exposure time is shorter than the exposure time of the unit image. Control means for capturing a short short-time exposure image, a first short-time exposure image captured after capturing the first unit image, and a second unit captured subsequent to the first unit image Calculation for calculating the amount of movement of a subject between the first short-time exposure image and the second short-time exposure image using a second short-time exposure image captured before capturing the image Means, and the subject calculated by the calculation means A synthesizing unit that aligns the first unit image and the second unit image based on a movement amount, and synthesizes the first unit image and the second unit image. And

また、本発明に係わる画像処理装置は、撮像方向が異なり、部分的に共通な領域を有する複数枚の単位画像を合成することにより1枚の合成画像を生成可能な画像処理装置であって、前記複数枚の単位画像と、前記複数枚の単位画像のうちのそれぞれの単位画像の撮像の前後に、前記単位画像の露光時間よりも短い露光時間で撮像された短秒露光画像と、を取得する取得手段と、第1の単位画像の撮像の後に撮像された第1の短秒露光画像と、前記第1の単位画像に続いて撮像された第2の単位画像の撮像の前に撮像された第2の短秒露光画像とを用いて、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量を算出する算出手段と、前記算出手段により算出された前記被写体の移動量に基づいて、前記第1の単位画像と前記第2の単位画像の位置合わせを行い、前記第1の単位画像と前記第2の単位画像を合成する合成手段と、を備えることを特徴とする。   The image processing apparatus according to the present invention is an image processing apparatus capable of generating one composite image by combining a plurality of unit images having different imaging directions and having a partially common area, Obtaining the plurality of unit images and a short-second exposure image captured with an exposure time shorter than the exposure time of the unit image before and after capturing each unit image of the plurality of unit images. Acquiring means, a first short-time exposure image captured after capturing the first unit image, and an image captured before capturing a second unit image captured subsequent to the first unit image. Calculating means for calculating the amount of movement of the subject between the first short-time exposure image and the second short-time exposure image using the second short-time exposure image The first unit image based on the determined moving amount of the subject Said alignment was carried out of the second unit image, characterized in that it comprises a synthesizing means for synthesizing said second unit image and the first unit image.

本発明によれば、撮影の向きが異なる画像間で被写体となる星が動いた場合でも、高画質なパノラマ画像を撮影することが出来る撮像装置を提供することが可能となる。   According to the present invention, it is possible to provide an imaging apparatus capable of capturing a high-quality panoramic image even when a star serving as a subject moves between images having different shooting directions.

撮影した複数の画像をパノラマ合成する際の概念図。FIG. 3 is a conceptual diagram when a plurality of shot images are synthesized in a panorama. 本発明の撮像装置の第1の実施形態の構成を示すブロック図。FIG. 1 is a block diagram illustrating a configuration of a first embodiment of an imaging device according to the present invention. 通常の撮影動作を説明するフローチャート。5 is a flowchart illustrating a normal photographing operation. 第1の実施形態における星空パノラマ撮影の動作を示すフローチャート。5 is a flowchart illustrating an operation of starry sky panoramic imaging according to the first embodiment. 第1の実施形態の動作を説明するデータフローダイアグラム。4 is a data flow diagram illustrating the operation of the first embodiment. 第2の実施形態における星空パノラマ撮影の動作を示すフローチャート。9 is a flowchart showing the operation of starry sky panoramic imaging according to the second embodiment. 第3の実施形態における警告画面の概念図。FIG. 13 is a conceptual diagram of a warning screen according to the third embodiment. 星空パノラマ合成の課題を説明する概念図。The conceptual diagram explaining the subject of a starry sky panorama synthesis.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、パノラマ撮影の概要を示す図である。本実施形態では、パノラマ撮影は、図1(a)に示すように撮像装置201をユーザー202が動かしながら、もしくは自動雲台等で動かしながら順次撮像方向を変えて撮影を行うことにより実施される。図1(b)に示すように、撮影された各画像に部分的に被写体の共通領域が含まれるように、複数枚の画像の撮影を行う。そして各画像の共通領域の特徴点を抽出し、その特徴点がどのくらい動いたかを示す移動ベクトルを検出する。その移動ベクトルから、例えばアフィン変換の係数を算出し、特徴点が一致するように2枚の画像を重ね合わせることにより、共通領域以外の部分が拡張された画像が得られる。これを複数回繰り返すことにより、1回の撮影で得られる画角よりも広範囲の画角のパノラマ画像が生成可能となる。
(First embodiment)
FIG. 1 is a diagram showing an outline of panoramic shooting. In the present embodiment, panoramic imaging is performed by sequentially changing the imaging direction while the user 202 moves the imaging device 201 or moving the imaging device 201 with an automatic camera platform or the like as shown in FIG. . As shown in FIG. 1B, a plurality of images are photographed so that each photographed image partially includes the common region of the subject. Then, feature points in the common area of each image are extracted, and a movement vector indicating how much the feature points have moved is detected. For example, an affine transformation coefficient is calculated from the movement vector, and the two images are overlapped so that the feature points coincide with each other, thereby obtaining an image in which a portion other than the common area is extended. By repeating this a plurality of times, it becomes possible to generate a panoramic image having a wider angle of view than the angle of view obtained by one shooting.

図2は、本発明の撮像装置の第1の実施形態の構成を示すブロック図である。図2において、撮像装置100は、被写体像を結像させる撮影レンズ101と、撮影レンズ101の焦点調節を行うAF(オートフォーカス)駆動回路102を備える。AF駆動回路102は、例えばDCモータやステッピングモータによって構成され、マイクロコンピュータ123の制御により、撮影レンズ101のフォーカスレンズの位置を変化させて焦点調節を行う。   FIG. 2 is a block diagram illustrating a configuration of the first embodiment of the imaging apparatus of the present invention. In FIG. 2, the imaging apparatus 100 includes a photographing lens 101 for forming a subject image, and an AF (autofocus) driving circuit 102 for adjusting the focus of the photographing lens 101. The AF drive circuit 102 is constituted by, for example, a DC motor or a stepping motor, and performs focus adjustment by changing the position of the focus lens of the photographing lens 101 under the control of the microcomputer 123.

撮影レンズ101は絞り103を備え、絞り103は絞り駆動回路104により駆動される。光学的な絞り値がマイクロコンピュータ123によって算出され、それに基づいて絞り駆動回路104が絞り103を駆動する量が決定される。   The taking lens 101 includes an aperture 103, and the aperture 103 is driven by an aperture driving circuit 104. The optical diaphragm value is calculated by the microcomputer 123, and the amount by which the diaphragm driving circuit 104 drives the diaphragm 103 is determined based on the calculated diaphragm value.

絞り103の後方には、主ミラー105が配置されている。主ミラー105は、撮影レンズ101を通過した光束をファインダに導く状態と撮像素子112に導く状態を切り替える。主ミラー105は、常時はファインダへと光束が向かうように、光束を上方に反射させる位置に配置されているが、撮影が行われる場合やライブビュー表示の場合には、撮像素子112へと光束が向かうように、上方に跳ね上がり光路中から待避する。また、主ミラー105は、その中央部が少量の光を透過させるハーフミラーとなっており、一部の光を透過させて、それを焦点検出を行うための不図示の焦点検出センサに導く。撮影レンズ101のデフォーカス量は、この焦点検出センサの出力を演算することによって求められる。マイクロコンピュータ123は演算結果を評価してAF駆動回路102に指示し、フォーカスレンズを駆動させる。   Behind the stop 103, a main mirror 105 is arranged. The main mirror 105 switches between a state in which the light beam passing through the photographing lens 101 is guided to the finder and a state in which the light beam is guided to the image sensor 112. The main mirror 105 is arranged at a position where the light flux is reflected upward so that the light flux always goes to the finder. However, when the photographing is performed or the live view display is performed, the light flux is transmitted to the image sensor 112. Bounce upward so as to move away from the optical path. In addition, the main mirror 105 is a half mirror that transmits a small amount of light at the center thereof, transmits a part of the light, and guides it to a focus detection sensor (not shown) for performing focus detection. The defocus amount of the photographing lens 101 is obtained by calculating the output of the focus detection sensor. The microcomputer 123 evaluates the calculation result and instructs the AF drive circuit 102 to drive the focus lens.

主ミラー5は、マイクロコンピュータ123の指示により、ミラー駆動回路107を介して上下に駆動される。主ミラーの後方には、サブミラー106が配置されており、主ミラー105を透過した光束を反射させ、前述の焦点検出センサに導く。主ミラー105の中央部を透過し、サブミラー106で反射された光束は、露光量算出回路109にも入射し、その内部に配置された光電変換を行うための測光センサに至る。   The main mirror 5 is driven up and down through a mirror driving circuit 107 according to an instruction from the microcomputer 123. A sub-mirror 106 is arranged behind the main mirror, reflects the light beam transmitted through the main mirror 105, and guides the light beam to the focus detection sensor. The light beam transmitted through the central portion of the main mirror 105 and reflected by the sub-mirror 106 also enters the exposure amount calculation circuit 109, and reaches a photometric sensor disposed therein for performing photoelectric conversion.

主ミラー105の上方には、ファインダを構成するペンタプリズムが配置されている。ファインダは、他にピント板、不図示のアイピースレンズなどによって構成される。
撮影レンズ101の光路を開閉するフォーカルプレーンシャッタ110は、シャッタ駆動回路111により駆動される。フォーカルプレーンシャッタ110の開口時間は、マイクロコンピュータ123によって制御される。
Above the main mirror 105, a pentaprism constituting a finder is arranged. The finder is configured by a focus plate, an eyepiece lens (not shown), and the like.
A focal plane shutter 110 that opens and closes the optical path of the taking lens 101 is driven by a shutter drive circuit 111. The opening time of the focal plane shutter 110 is controlled by the microcomputer 123.

フォーカルプレーンシャッタ110の後方には、撮像素子112が配置されている。撮像素子112には、CCDやCMOSセンサなどが用いられ、撮影レンズ101によって結像された被写体像を電気信号に変換する。撮像素子112の出力はA/D変換器115に入力される。A/D変換器115は撮像素子112のアナログ出力信号をデジタル信号に変換する。   An image sensor 112 is arranged behind the focal plane shutter 110. A CCD, a CMOS sensor, or the like is used for the image sensor 112, and converts an object image formed by the imaging lens 101 into an electric signal. The output of the image sensor 112 is input to the A / D converter 115. The A / D converter 115 converts an analog output signal of the image sensor 112 into a digital signal.

映像信号処理回路116は、ゲートアレイなどのロジックデバイスにより実現される。映像信号処理回路116は、輝度調整回路116a、ガンマ補正回路116b、ぶれ量算出回路116c、位置合わせ回路116d、幾何変換回路116e、変倍回路116fを有する。映像信号処理回路116は、さらにトリミング回路116e、合成回路116j、現像回路116k、圧縮・伸長回路116lを有する。   The video signal processing circuit 116 is realized by a logic device such as a gate array. The video signal processing circuit 116 has a luminance adjustment circuit 116a, a gamma correction circuit 116b, a blur amount calculation circuit 116c, a positioning circuit 116d, a geometric conversion circuit 116e, and a scaling circuit 116f. The video signal processing circuit 116 further includes a trimming circuit 116e, a synthesizing circuit 116j, a developing circuit 116k, and a compression / decompression circuit 116l.

輝度調整回路116aは、デジタルゲインによって明るさを調整する。ガンマ補正回路116bは、ガンマ特性によって輝度を調整する。ぶれ量算出回路116cは、複数枚の画像のぶれ量を算出する。位置合わせ回路116dは、画像のぶれ量に応じて複数枚の画像の位置合わせを行う。幾何変換回路116eは、撮影レンズ101の歪曲を補正する。変倍回路116fは、画像のサイズを変倍する。トリミング回路116eは、画像の一部を切り出す。合成回路116jは、複数枚の画像を合成する。現像回路116kは、画像データの現像を行う。圧縮・伸長回路116lは、画像データをJpegなどの一般的な画像形式に変換する。   The brightness adjustment circuit 116a adjusts brightness by a digital gain. The gamma correction circuit 116b adjusts luminance according to gamma characteristics. The blur amount calculation circuit 116c calculates the blur amounts of a plurality of images. The positioning circuit 116d performs positioning of a plurality of images in accordance with the amount of image blur. The geometric transformation circuit 116e corrects the distortion of the taking lens 101. The scaling circuit f changes the size of the image. The trimming circuit 116e cuts out a part of the image. The combining circuit 116j combines a plurality of images. The development circuit 116k develops image data. The compression / expansion circuit 116l converts the image data into a general image format such as Jpeg.

映像信号処理回路116には、表示駆動回路117、TFTや有機ELなどを用いた表示部材118、メモリコントローラ119、メモリ120、コンピュータ等と接続可能な外部インターフェイス121、バッファメモリ122が接続されている。   To the video signal processing circuit 116, a display drive circuit 117, a display member 118 using a TFT or an organic EL, a memory controller 119, a memory 120, an external interface 121 connectable to a computer or the like, and a buffer memory 122 are connected. .

映像信号処理回路116は、デジタル化された画像データに、フィルター処理、色変換処理、ガンマ処理を行うと共に、JPEGなどの圧縮処理を行い、メモリコントローラ119に出力する。その際、処理途中の画像を一時的にバッファメモリ122に置くことも可能である。   The video signal processing circuit 116 performs filtering, color conversion, and gamma processing on the digitized image data, performs compression processing such as JPEG, and outputs the result to the memory controller 119. At this time, it is also possible to temporarily store the image being processed in the buffer memory 122.

映像信号処理回路116は、撮像素子112からの映像信号や、メモリコントローラ119から逆に入力される画像データを、表示駆動回路117を介して表示部材118に出力することも可能である。これらの機能の切り替えはマイクロコンピュータ123の指示により行われる。   The video signal processing circuit 116 can also output a video signal from the image sensor 112 and image data reversely input from the memory controller 119 to the display member 118 via the display drive circuit 117. Switching of these functions is performed according to an instruction from the microcomputer 123.

映像信号処理回路116は、必要に応じて撮像素子112の信号の露出情報やホワイトバランスなどの情報をマイクロコンピュータ123に出力することが可能である。それらの情報に基づいて、マイクロコンピュータ123はホワイトバランス調整やゲイン調整の指示を行う。   The video signal processing circuit 116 can output information such as exposure information of a signal of the image sensor 112 and white balance to the microcomputer 123 as needed. Based on the information, the microcomputer 123 issues white balance adjustment and gain adjustment instructions.

連続撮影動作の場合においては、一旦、未処理のままバッファメモリ122に撮影データを格納し、メモリコントローラ119を介して未処理の画像データを読み出し、映像信号処理回路116において画像処理や圧縮処理を行い、連続撮影を行う。連像撮影枚数は、バッファメモリ122の容量やパノラマ撮影の場合はその画像サイズの大きさに左右される。メモリコントローラ119では、映像信号処理回路116から入力された未処理のデジタル画像データをバッファメモリ122に格納し、処理済みのデジタル画像データをメモリ120に格納する。また、逆にバッファメモリ122やメモリ120から画像データを映像信号処理回路部116に出力することも可能である。メモリ120は取り外し可能である場合もある。なお、メモリコントローラ119は、コンピュータ等と接続可能な外部インターフェイス121を介してメモリ120に記憶されている画像を外部に出力可能である。   In the case of the continuous shooting operation, the shooting data is temporarily stored in the buffer memory 122 without being processed, the unprocessed image data is read out via the memory controller 119, and the video signal processing circuit 116 performs image processing and compression processing. Perform continuous shooting. The number of continuous image shots depends on the capacity of the buffer memory 122 and the size of the image in the case of panoramic shooting. In the memory controller 119, the unprocessed digital image data input from the video signal processing circuit 116 is stored in the buffer memory 122, and the processed digital image data is stored in the memory 120. Conversely, it is also possible to output image data from the buffer memory 122 or the memory 120 to the video signal processing circuit unit 116. The memory 120 may be removable. Note that the memory controller 119 can output an image stored in the memory 120 to the outside via an external interface 121 connectable to a computer or the like.

操作部材124は、マイクロコンピュータ123にその状態を伝え、マイクロコンピュータ123はその操作部材の変化に応じて各部をコントロールする。スイッチSW1(125)とスイッチSW2(126)は、レリーズボタンの操作でオンオフするスイッチであり、それぞれ操作部材124の入力スイッチのうちの1つである。   The operation member 124 informs the microcomputer 123 of the state, and the microcomputer 123 controls each part according to the change of the operation member. The switch SW1 (125) and the switch SW2 (126) are switches that are turned on and off by operating a release button, and are each one of the input switches of the operation member 124.

スイッチSW1(125)のみオンの状態はレリーズボタンの半押し状態であり、この状態でオートフォーカスの動作を行うと共に、測光動作を行う。スイッチSW1(125)、SW2(126)が共にオンの状態はレリーズボタンの全押し状態であり、画像を記録するためのレリーズスイッチのオン状態である。この状態で撮影が行われる。またスイッチSW1(125)、SW2(126)がONし続けている間は、連続撮影動作が行われる。   A state where only the switch SW1 (125) is ON is a state where the release button is half-pressed. In this state, the autofocus operation and the photometric operation are performed. When both the switches SW1 (125) and SW2 (126) are on, the release button is fully pressed, and the release switch for recording an image is on. Imaging is performed in this state. While the switches SW1 (125) and SW2 (126) are kept ON, a continuous shooting operation is performed.

操作部材124には、他に、ISO設定ボタン、メニューボタン、セットボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン、メニューや再生画像移動のための移動+(プラス)ボタン、移動−(マイナス)ボタン、露出補正ボタン、表示画像拡大ボタン、表示画像縮小ボタン、再生スイッチ、絞り103を設定された絞りに絞り込ませるための絞りボタン、撮影した画像を消去するための消去ボタン、撮影や再生に関する情報表示ボタンなど不図示のスイッチが接続されており、スイッチの状態が検出されている。また、上記のプラスボタン及びマイナスボタンの機能を、回転ダイアルスイッチに割り当てることによって、より軽快に数値や機能を選択することが可能となる。   The operation member 124 includes an ISO setting button, a menu button, a set button, a flash setting button, a single-shot / continuous-shot / self-timer switching button, a move + (plus) button for moving a menu and a reproduced image, and a move. -(Minus) button, exposure correction button, display image enlargement button, display image reduction button, playback switch, aperture button for narrowing aperture 103 to the set aperture, erasure button for erasing a captured image, shooting A switch (not shown), such as an information display button for playback and playback, is connected, and the state of the switch is detected. Also, by assigning the functions of the plus button and the minus button to the rotary dial switch, it is possible to more easily select a numerical value and a function.

液晶駆動回路127は、マイクロコンピュータ123の表示命令に従って、文字、画像を用いた動作状態の表示やメッセージ等を、外部液晶表示部材128やファインダ内液晶表示部材129に表示させる。また、ファインダ内液晶表示部材129には、不図示のLEDなどのバックライトが配置されており、そのLEDも液晶駆動回路127で駆動される。   The liquid crystal drive circuit 127 causes the external liquid crystal display member 128 and the finder liquid crystal display member 129 to display a display of an operation state using characters and images, a message, and the like according to a display command of the microcomputer 123. A backlight such as an LED (not shown) is disposed on the liquid crystal display member 129 in the finder, and the LED is also driven by the liquid crystal driving circuit 127.

マイクロコンピュータ123は、撮影前に設定されているISO感度、画像サイズ、画質に応じた画像サイズの予測値データに基づいて、メモリコントローラ119を介してメモリの容量を確認した上で撮影可能残数を算出することができる。この情報は、必要に応じて外部液晶表示部材128、ファインダ内液晶表示部材129にも表示することができる。   The microcomputer 123 checks the memory capacity via the memory controller 119 based on the ISO sensitivity, the image size, and the predicted value data of the image size according to the image quality set before shooting, and then checks the remaining number of shootable images. Can be calculated. This information can also be displayed on the external liquid crystal display member 128 and the finder internal liquid crystal display member 129 as necessary.

不揮発性メモリ(EEPROM)130は、カメラに電源が入れられていない状態でも、データを保存することができる。電源部131は、各ICや駆動系に必要な電源を供給する。内部時計132は経過時間を計時し、メモリ120に記録する画像ファイルに撮影時刻などを保存したり、後述するように画像そのものに撮影時刻を重畳したりできる。ジャイロ133は、2軸もしくは3軸で、撮像装置100の回転の角速度を検出する。方位計134は、撮像装置の向いている方向を検出する。   The non-volatile memory (EEPROM) 130 can store data even when the power of the camera is not turned on. The power supply unit 131 supplies necessary power to each IC and drive system. The internal clock 132 can measure the elapsed time, store the shooting time in an image file recorded in the memory 120, and superimpose the shooting time on the image itself as described later. The gyro 133 detects the angular velocity of rotation of the imaging device 100 on two axes or three axes. The compass 134 detects the direction in which the imaging device is facing.

次に、上記のように構成される撮像装置の動作について説明する。図3は、第1の実施形態の撮像装置の撮影動作を示すフローチャートである。   Next, the operation of the imaging device configured as described above will be described. FIG. 3 is a flowchart illustrating a shooting operation of the imaging device according to the first embodiment.

まず、撮影動作を開始する前に、予め露光量算出回路109によって露光量を算出し、絞り量、蓄積時間、ISO感度を決定しておく。スイッチSW2(126)がユーザーによって押下されると撮影動作が実施される。   First, before the photographing operation is started, the exposure amount is calculated in advance by the exposure amount calculation circuit 109, and the aperture amount, the accumulation time, and the ISO sensitivity are determined. When the switch SW2 (126) is pressed by the user, a shooting operation is performed.

S401では、マイクロコンピュータ123は、予め決められた絞り値を絞り駆動回路104に通知し、絞り103を目的の絞り値に調節する。撮像素子112、AD変換器115などに電源を入れ、撮影準備を行う。準備が完了するとミラー駆動回路107を駆動して主ミラー5を跳ね上げ、被写体像を撮像素子112に入射させるようにする。シャッタ駆動回路はフォーカルプレーンシャッタ110のうち不図示の先幕を開けて被写体像が撮像素子112に入射するようにする。続いて予め決められた蓄積時間後にシャッタ110のうち不図示の後幕を閉じて、撮像素子112に蓄積時間の間だけ光が入るようにする。この一連の動作を行って露光を行う。   In step S401, the microcomputer 123 notifies the aperture driving circuit 104 of a predetermined aperture value, and adjusts the aperture 103 to a target aperture value. The power is turned on to the image sensor 112, the AD converter 115, and the like, and the shooting is prepared. When the preparation is completed, the mirror driving circuit 107 is driven to flip up the main mirror 5 so that the subject image is incident on the image sensor 112. The shutter drive circuit opens the front curtain (not shown) of the focal plane shutter 110 so that the subject image enters the image sensor 112. Then, after a predetermined accumulation time, the rear curtain (not shown) of the shutter 110 is closed so that light enters the image sensor 112 only during the accumulation time. Exposure is performed by performing this series of operations.

S402では、AD変換器115を介して映像信号処理回路116に画像信号を読み出し、バッファメモリ122に格納する。S403では、読み出した画像信号を現像回路116kで現像し、画像データに変換する。この時、画像が適正な画質になるように、ホワイトバランス処理や、ガンマ補正回路116bにより暗部にゲインをかけるガンマ処理などの画像処理を行ってもよい。   In S402, the image signal is read out to the video signal processing circuit 116 via the AD converter 115 and stored in the buffer memory 122. In S403, the read image signal is developed by the developing circuit 116k, and is converted into image data. At this time, image processing such as white balance processing or gamma processing for applying a gain to a dark portion by the gamma correction circuit 116b may be performed so that the image has an appropriate image quality.

S404では、得られた画像データが圧縮・伸長回路116lでJPEGなどの汎用的なデータフォーマットへと変換される。S405では、変換された画像データが、SDカードやコンパクトフラッシュ(登録商標)などのメモリ120へと保存される。以上で撮影動作を終了する。   In S404, the obtained image data is converted into a general-purpose data format such as JPEG by the compression / decompression circuit 116l. In S405, the converted image data is stored in the memory 120 such as an SD card or CompactFlash (registered trademark). Thus, the photographing operation ends.

なお、S403において、画像処理や現像処理を行わず、読み出した画像信号そのままをS404で可逆圧縮し、S405で記憶媒体に保存してもよい。これらの切り替えはユーザーが操作部材124を用いて切り替えることが可能である。   In step S403, the read image signal may be losslessly compressed in step S404 without performing image processing or development processing, and may be stored in a storage medium in step S405. These switching can be performed by the user using the operation member 124.

以下、星空パノラマ撮影モードについて説明する。星空パノラマ撮影は、横方向に撮像装置をずらしながら撮影するモードと、縦方向に撮像装置をずらしながら撮影するモードがあるが、ここでは横方向にずらしながら撮影する例について説明する。   Hereinafter, the starry sky panorama shooting mode will be described. The starry sky panoramic shooting includes a mode in which the image capturing device is shifted in the horizontal direction and a mode in which the image capturing device is shifted in the vertical direction. Here, an example in which the image capturing is performed while shifting in the horizontal direction will be described.

ユーザーが操作部材124を用いて星空パノラマ撮影モードを設定すると、撮像素子112、AD変換器115へと電源が供給され、初期設定が行われる。一方で主ミラー105を跳ね上げ、シャッタ駆動回路111はシャッタ110を開いて、撮影レンズ101を介した被写体像を撮像素子112へと入射させる。   When the user sets the starry sky panorama shooting mode using the operation member 124, power is supplied to the image sensor 112 and the AD converter 115, and initialization is performed. On the other hand, the main mirror 105 is flipped up, the shutter drive circuit 111 opens the shutter 110, and causes the subject image via the photographing lens 101 to enter the image sensor 112.

撮像素子112からの信号をAD変換器115でデジタル信号へと変換し、映像信号処理回路116の現像回路116kで現像し、輝度調整回路116a、ガンマ補正回路116bにより適正な画像へと変換する。その後、この画像データは、変倍回路116fで表示部材118に適した画像サイズへと変倍され、表示される。これを1秒間に24回〜60回繰り返して行うことにより、いわゆるライブビュー表示を行う。   A signal from the image sensor 112 is converted into a digital signal by an AD converter 115, developed by a developing circuit 116k of a video signal processing circuit 116, and converted into an appropriate image by a luminance adjustment circuit 116a and a gamma correction circuit 116b. Thereafter, the image data is scaled by the scaling circuit 116f to an image size suitable for the display member 118 and displayed. By repeating this operation 24 to 60 times per second, a so-called live view display is performed.

ユーザーはそのライブビュー表示を確認しながら、撮影の向きや画角を合わせてスイッチSW1(125)を押す。スイッチSW1(125)が押下されると、露光量が算出される。ライブビュー撮影でない場合は、サブミラー106により反射された光を露光量算出回路109で受光し、適切な露光量を算出する。ライブビュー撮影中は、映像信号処理回路116に含まれる不図示の露光量算出回路で適切な露光量を決定する。そして、マイクロコンピュータ123が、絞り駆動回路104を用いて絞り103を駆動したり、撮像素子112の感度や蓄積時間を制御したりする。星空パノラマ撮影では星が軌跡にならない程度の露光時間になるようなプログラム線図を用いる。一方、AF駆動回路102は撮影レンズ101を駆動し、焦点を合わせる。撮影の準備を終えると、不図示のブザー等でユーザーに知らせる。ユーザーが撮像装置を撮り始めたい向きに向け、スイッチSW2(126)を押下すると星空パノラマ撮影が開始される。   While checking the live view display, the user adjusts the shooting direction and the angle of view and presses the switch SW1 (125). When the switch SW1 (125) is pressed, the exposure amount is calculated. If it is not the live view shooting, the light reflected by the sub-mirror 106 is received by the exposure amount calculation circuit 109, and an appropriate exposure amount is calculated. During live view shooting, an appropriate exposure amount is determined by an exposure amount calculation circuit (not shown) included in the video signal processing circuit 116. Then, the microcomputer 123 drives the diaphragm 103 using the diaphragm driving circuit 104, and controls the sensitivity and the accumulation time of the image sensor 112. In the starry sky panoramic photography, a program diagram is used such that the exposure time is such that the stars do not form a trajectory. On the other hand, the AF drive circuit 102 drives the photographing lens 101 to focus. When the preparation for shooting is completed, the user is notified by a buzzer (not shown) or the like. When the user presses the switch SW2 (126) in a direction in which the user wants to start taking an image, the starry sky panoramic photographing is started.

次に、図4のフローチャートと図5のデータフローダイアグラムを用いて、星空パノラマ撮影について詳細に説明する。   Next, the starry sky panoramic shooting will be described in detail with reference to the flowchart of FIG. 4 and the data flow diagram of FIG.

星空パノラマ撮影が開始されると、まずマイクロコンピュータ123は、S501において、レンズ情報を取得する。このレンズ情報には、後述する歪曲収差やレンズ周辺部の光量の低下を補正するためのデータなどが含まれる。   When the starry sky panorama shooting is started, the microcomputer 123 first obtains lens information in S501. The lens information includes data for correcting distortion, which will be described later, and a decrease in the amount of light around the lens.

S502では、1枚目の長秒露光撮影を行う。撮像素子112、AD変換器115はライブビュー用の駆動に設定されているため、これを静止画撮影用に切り替える。絞り103を先ほど決めた露光量になるように調整し、フォーカルプレーンシャッタ110を開閉して、撮像素子112を露光させる。撮像素子112で得られた画像信号をAD変換器115でデジタル信号へと変換し、バッファメモリ122へと格納する。この画像データは、画像処理回路116に含まれる不図示の回路によって、例えばシェーディング補正などの処理が加えられる。このように最小限の加工しか行っていない画像データをRAW画像データ601と呼ぶ。次に、このRAW画像データ601を現像回路116kによって現像しYUV画像データ602とする。   In S502, the first long-time exposure shooting is performed. Since the image sensor 112 and the AD converter 115 are set to drive for live view, they are switched to those for still image shooting. The aperture 103 is adjusted so as to have the previously determined exposure amount, the focal plane shutter 110 is opened and closed, and the image sensor 112 is exposed. The image signal obtained by the image sensor 112 is converted into a digital signal by the AD converter 115 and stored in the buffer memory 122. This image data is subjected to processing such as shading correction by a circuit (not shown) included in the image processing circuit 116. The image data on which only the minimum processing has been performed is called RAW image data 601. Next, the RAW image data 601 is developed by the developing circuit 116k to be YUV image data 602.

次に、S503では、1枚目の高感度短秒露光撮影を行い、短秒露光画像を得る。長秒露光撮影の直前の高感度短秒露光撮影をAとし、長秒露光撮影の直後の高感度短秒露光撮影をBとする。高感度短秒露光撮影は移動量算出のためだけに使用し、パノラマ合成画像としては使用しない。S503で行われるのは、高感度短秒露光撮影Bである。短秒露光撮影では星が小さく薄くなるため、ISO感度を上げて撮影を行う。長秒露光撮影と同様に、RAW画像データ604を現像回路116kによって現像しYUV画像データ605とする。   Next, in step S <b> 503, a first high-sensitivity short-second exposure shooting is performed to obtain a short-second exposure image. The high-sensitivity short-second exposure shooting immediately before the long-second exposure shooting is A, and the high-sensitivity short-second exposure shooting immediately after the long-second exposure shooting is B. High-sensitivity short-second exposure photography is used only for calculating the amount of movement, and is not used as a panoramic composite image. What is performed in S503 is high-sensitivity short-second exposure photography B. In short-second exposure shooting, stars are small and thin, so shooting is performed with an increased ISO sensitivity. As in the case of the long-second exposure shooting, the RAW image data 604 is developed by the developing circuit 116k to be YUV image data 605.

S504では、2枚目の撮影までに撮像装置100がどのくらいスイング(回転)されたかを後のS509で取得できるようにするため、まず1枚目の時点でジャイロ133の初期化を行う。   In S504, first, the gyro 133 is initialized at the time of the first image so that the extent to which the imaging apparatus 100 has been swung (rotated) before the second image is captured can be acquired in S509.

S505では、長秒露光撮影と短秒露光撮影それぞれの現像後の画像データ602,605について、幾何変換回路116eにより既存の技術を用いて撮影レンズ101の歪曲収差を補正し、歪曲補正後の画像データ603,606を得る。長秒露光による歪曲補正後の画像データ603は、表示部材118に表示させるため、変倍回路116fにより液晶モニタの画素数に応じて縮小され、VRAM611に格納される。   In step S505, the geometric conversion circuit 116e corrects the distortion of the photographing lens 101 using the existing technology for the developed image data 602 and 605 of the long-second exposure shooting and the short-second exposure shooting, respectively. Data 603 and 606 are obtained. The image data 603 after the distortion correction by the long-second exposure is reduced according to the number of pixels of the liquid crystal monitor by the scaling circuit 116f and stored in the VRAM 611 for display on the display member 118.

次に、S506では、2枚目の高感度短秒露光撮影Aを行い、画像データ608を得る。S507では、2枚目の長秒露光撮影を行い、画像データ613を得る。さらに、S508において、2枚目の高感度短秒露光撮影Bを行い、画像データ616を得る。S502と同様に各RAW画像データ608,613,616を現像回路116kによって現像し、YUV画像データ609,614,617を得る。   Next, in S506, the second high-sensitivity short-second exposure shooting A is performed to obtain image data 608. In S507, the second long-time exposure shooting is performed to obtain image data 613. Further, in S508, the second high-sensitivity short-second exposure shooting B is performed to obtain image data 616. Similarly to S502, each of the RAW image data 608, 613, 616 is developed by the developing circuit 116k to obtain YUV image data 609, 614, 617.

S509では、前回の撮影からの撮像装置100のスイング量を取得するためにジャイロ133の検出値であるジャイロ情報を取得する。ジャイロ情報は、撮像装置のYaw方向、Pitch方向の2軸方向についての値を取得するが、光軸に対しての回転であるRoll方向を加えた3軸方向についての値を取得することも好ましい。ジャイロ133からの出力そのものは角速度であるが、パノラマ撮影では前回の撮影からどのくらいスイングされたかが必要なので、前の撮影と次の撮影までの角速度を積分し、2枚目以降の撮影時に前回からの回転角度607を計算し、記憶しておく。   In step S509, gyro information, which is a detection value of the gyro 133, is obtained to obtain the swing amount of the imaging device 100 from the previous shooting. The gyro information acquires values in two directions of the imaging device in the Yaw direction and the Pitch direction, but it is also preferable to acquire values in three axes directions obtained by adding a Roll direction that is rotation with respect to the optical axis. . The output itself from the gyro 133 is the angular velocity, but in panoramic photography, it is necessary to know how much the camera has been swung from the previous photography, so the angular velocity between the previous photography and the next photography is integrated, and the The rotation angle 607 is calculated and stored.

S510では、S501で取得したレンズの焦点距離や画角、撮像素子の情報などから、この回転角度607を画素単位に変換する。   In step S510, the rotation angle 607 is converted into a pixel unit based on information such as the focal length and the angle of view of the lens acquired in step S501 and the image sensor.

一般に歪曲収差のないレンズもしくは歪曲補正後の画角(α)は、実効焦点距離をf[mm]、撮像素子の幅をw[mm]とすると、以下の式1で計算される。   In general, the lens having no distortion or the angle of view (α) after distortion correction is calculated by the following equation 1 when the effective focal length is f [mm] and the width of the image sensor is w [mm].

α[°]=2×arctan(w[mm]÷2÷f[mm]) (式1)
撮像素子の1画素あたりのサイズをp[μm]、スイング角[°]をθとすると、画像における移動量d[pix]は式2のようになる。
α [°] = 2 x arctan (w [mm] ÷ 2 ÷ f [mm]) (Equation 1)
Assuming that the size per pixel of the image sensor is p [μm] and the swing angle [°] is θ, the amount of movement d [pix] in the image is as shown in Expression 2.

d[pix]=tan(α[°]÷2)×f[mm] /p[μm]×1000 (式2)
S511では、1枚目の歪曲収差補正(S505)と同様に2枚目の各画像の歪曲収差補正を行い、歪曲補正後の画像データ610,615,618を得る。1枚目と同様に、歪曲補正後の長秒露光撮影画像データ615は表示部材118に表示させるため、変倍回路116fにより、液晶モニタの画素数に応じて縮小し、VRAM619に格納する。
d [pix] = tan (α [°] ÷ 2) × f [mm] / p [μm] × 1000 (Equation 2)
In S511, similarly to the first image (S505), the second image is subjected to distortion correction to obtain distortion-corrected image data 610, 615, and 618. Similarly to the first image, the long-time exposure photographed image data 615 after the distortion correction is reduced according to the number of pixels of the liquid crystal monitor by the scaling circuit 116f and stored in the VRAM 619 for display on the display member 118.

S512では、移動量算出回路116cを用いて、1枚目の高感度短秒露光撮影Bで得られた画像データ606と2枚目の高感度短秒露光撮影Aで得られた画像データ610とから移動量を算出する。移動量検出に関しては前述した通り既知の方法が使えるが、本実施形態では移動量検出回路116cで画像内の特徴点をいくつか見つけ出し、標本化することでアフィン係数612を算出している。   In S512, using the movement amount calculation circuit 116c, the image data 606 obtained in the first high-sensitivity short-second exposure shooting B and the image data 610 obtained in the second high-sensitivity short-second exposure shooting A are used. Is calculated from the distance. As described above, a known method can be used for the movement amount detection. In the present embodiment, the affine coefficient 612 is calculated by finding some characteristic points in the image by the movement amount detection circuit 116c and sampling it.

具体的には、エッジを検出し、特徴点を抽出し、その移動量を算出する。例えばここで特徴点1が座標(x1,y1)から座標(u1,v1)に、特徴点2が座標(x2,y2)から(u2,v2)に、特徴点3が座標(x3,y3)から(u3,v3)にずれていたとする。すると式1から連立方程式を作ると式3、式4のようになる。   Specifically, edges are detected, feature points are extracted, and the amount of movement is calculated. For example, here, feature point 1 is from coordinates (x1, y1) to coordinates (u1, v1), feature point 2 is from coordinates (x2, y2) to (u2, v2), and feature point 3 is coordinates (x3, y3). To (u3, v3). Then, when simultaneous equations are formed from Equation 1, Equations 3 and 4 are obtained.

この方程式を解くことでa〜fのアフィン係数を算出することが可能である。4点以上の特徴点が検出できた場合は、近い点を除外して最小二乗法を用いて正規化する。3点見つからない場合や、抽出した3点が直線状になっている場合、3点のうち2点が近い場合は移動量の算出が失敗したと判断する。 By solving this equation, the affine coefficients a to f can be calculated. If four or more feature points are detected, close points are excluded and normalization is performed using the least squares method. When three points are not found, when the extracted three points are linear, and when two of the three points are close to each other, it is determined that the calculation of the movement amount has failed.

このようにして画像から算出した移動量(アフィン係数)と、S510でジャイロセンサの検出値から計算した回転角度607に基づく移動量とが大きく異なる場合は、画像に繰り返しパターンや移動体が含まれていることが考えられる。そこで、別の条件下で再度移動量を算出したり、このショットを失敗とし、次の撮影(S506)に戻ったり、あるいは星空パノラマ撮影が失敗したことの警告を出す方法が考えられる。   If the movement amount (affine coefficient) calculated from the image in this way greatly differs from the movement amount based on the rotation angle 607 calculated from the detection value of the gyro sensor in S510, the image includes a repetitive pattern or a moving object. It is thought that it is. Therefore, a method of calculating the movement amount again under another condition, making this shot a failure and returning to the next photographing (S506), or issuing a warning that the starry sky panorama photographing has failed can be considered.

S513では、画像から算出した移動量(アフィン係数)に基づいて、S502とS507で長秒露光撮影して得られた画像について、位置合わせ回路116dを用いて位置合わせを行い、位置合わせ画像データ621を得る。   In step S513, based on the movement amount (affine coefficient) calculated from the image, the images obtained by performing the long-time exposure shooting in steps S502 and S507 are aligned using the alignment circuit 116d, and the alignment image data 621 is obtained. Get.

S514では、1枚目の画像データ620と2枚目の位置合わせ後の画像データ621を合成回路116jを用いて合成し、合成画像データ622を得る。なおN枚目(N>2)の処理を行う場合は、これまでの合成結果、つまり(N−1)枚目までの合成画像データ620とN枚目の位置合わせ後の画像データ621を合成する。   In step S514, the first image data 620 and the second-aligned image data 621 are combined using the combining circuit 116j to obtain combined image data 622. When the N-th (N> 2) processing is performed, the synthesis result so far, that is, the synthesized image data 620 up to the (N-1) -th image and the N-th aligned image data 621 are synthesized. I do.

S515で、スイッチSW2(126)が押下されていたら次の撮影S506へと戻り、スイッチSW2(126)が押下されていない場合はS516の処理を行う。S516では、圧縮・伸長回路116lを用いて、画像データをJpegなどの汎用フォーマットに圧縮し、S517でメモリ120に保存する。   In step S515, if the switch SW2 (126) is pressed, the process returns to the next shooting step S506. If the switch SW2 (126) is not pressed, the process of step S516 is performed. In S516, the image data is compressed into a general-purpose format such as Jpeg using the compression / decompression circuit 116l, and stored in the memory 120 in S517.

なおこの時に、合成画像の暗部を見やすくするためにガンマ補正回路116bでγ補正を行うことや、画像全体の色調を統一するために補正を行うことも好ましい。またこのようにして得られる画像はサイズが大きいため、あらかじめユーザーが指示したサイズに変倍回路116fで変倍を行ってもよい。さらに最大内接矩形あるいは予め決められた領域について、トリミング回路116gで切り出しを行ってから保存することも好ましい。   At this time, it is also preferable to perform the gamma correction by the gamma correction circuit 116b in order to make the dark portion of the composite image easy to see, or to perform the correction in order to unify the color tone of the entire image. Since the image obtained in this way has a large size, the image may be scaled by the scaling circuit 116f to the size specified by the user in advance. Further, it is preferable that the maximum inscribed rectangle or a predetermined area is cut out by the trimming circuit 116g and then stored.

なお、上記の説明では、撮像装置を横方向にずらしながら複数の画像を撮影する例を示したが、縦方向にずらす場合も同様の方法で行うことができる。   Note that, in the above description, an example in which a plurality of images are shot while the imaging device is shifted in the horizontal direction has been described.

以上説明したように、撮影の向きが異なる画像の間で被写体となる星が動いても、正しく位置合わせを行い、感度を上げずに高画質なパノラマ合成画像を撮影することが可能となる。   As described above, even if a star serving as a subject moves between images having different shooting directions, it is possible to perform correct positioning and shoot a high-quality panoramic composite image without increasing sensitivity.

(第2の実施形態)
本実施形態では、星空パノラマ撮影の撮影条件や環境によって移動量算出のための高感度短秒露光撮影が不要な場合の例について説明する。図6は、第2の実施形態におけるパノラマ撮影の動作を示すフローチャートである。
(Second embodiment)
In the present embodiment, an example in which high-sensitivity short-second exposure shooting for calculating a moving amount is not necessary depending on shooting conditions and environment of starry sky panorama shooting will be described. FIG. 6 is a flowchart illustrating an operation of panoramic image capturing according to the second embodiment.

星空パノラマ撮影が開始されてからのS701〜S702の処理は第1の実施形態のS501〜S502の処理に、S704〜S706の処理はS503〜S505の処理に、S708〜S709の処理はS506〜S507の処理に、S711〜S720の処理はS508〜S517の処理に相当するため、これらの処理についての説明は省略する。   The processing of S701 to S702 from the start of the starry sky panorama shooting is the processing of S501 to S502 of the first embodiment, the processing of S704 to S706 is the processing of S503 to S505, and the processing of S708 to S709 is S506 to S507. Since the processing of S711 to S720 corresponds to the processing of S508 to S517, the description of these processing will be omitted.

S703では、1枚目の長秒露光撮影(S702)に続いて、高感度短秒露光撮影Bを実施する必要があるか否かを判定する。実施の判定は、例えば次のようにして行う。まず、マイクロコンピュータ123が方位計134で検出された撮像装置の方向を取得し、撮影間の星の動き量を算出する。星の動きがないと判定された場合には、S704の高感度短秒露光撮影Bを行わずにS705の処理を行う。高感度短秒露光撮影Bの実施の判定には、蓄積時間の設定などを用いても構わない。   In S703, it is determined whether or not it is necessary to perform high-sensitivity short-time exposure shooting B following the first long-time exposure shooting (S702). The determination of execution is performed, for example, as follows. First, the microcomputer 123 acquires the direction of the imaging device detected by the compass 134, and calculates the amount of movement of the star during imaging. If it is determined that there is no movement of the star, the processing of S705 is performed without performing the high-sensitivity short-second exposure shooting B of S704. The setting of the accumulation time or the like may be used to determine the execution of the high-sensitivity short-second exposure shooting B.

2枚目以降も長秒露光撮影(S709)の前後の高感度短秒露光撮影AおよびBを実施する必要があるか否かを、S707とS710において、S703と同様の処理で判定する。そして、星の動きがないと判定された場合には、S708の高感度短秒露光撮影AやS711の高感度短秒露光撮影Bを行わずS709、S712の処理を行う。   In S707 and S710, it is determined in the same processing as S703 whether or not it is necessary to perform high-sensitivity short-time exposure shooting A and B before and after the long-time exposure shooting (S709) for the second and subsequent images. If it is determined that there is no movement of the star, the processes of S709 and S712 are performed without performing the high-sensitivity short-time exposure shooting A of S708 or the high-sensitivity short-time exposure shooting B of S711.

以上説明したように、星空パノラマ撮影の撮影条件や撮影環境を判定することにより、位置合わせのための不要な高感度短秒露光撮影を省略することで撮影に係る電力を低減することが可能となる。なお、本実施形態では全ての高感度短秒露光撮影の前に実施判定を入れる場合について説明したが、撮像装置の待機状態で全ての高感度短秒露光撮影が不要であると判定可能な場合は、1回のみの判定処理とする構成であっても構わない。   As described above, by determining the shooting conditions and shooting environment of the starry sky panorama shooting, it is possible to reduce unnecessary power for shooting by omitting unnecessary high-sensitivity short-second exposure shooting for alignment. Become. Note that, in the present embodiment, the case where the execution determination is performed before all the high-sensitivity short-second exposure shootings has been described, but when it is possible to determine that all the high-sensitivity short-second exposure shootings are unnecessary in the standby state of the imaging device. May be configured to be a one-time determination process.

(第3の実施形態)
本実施形態では、星空パノラマ撮影において、位置合わせに失敗すると考えられる場合にユーザーへの適切な警告を表示する例について図4と図7を用いて説明する。
(Third embodiment)
In the present embodiment, an example in which an appropriate warning is displayed to the user when positioning is considered to be unsuccessful in starry sky panoramic imaging will be described with reference to FIGS. 4 and 7.

S504の高感度短秒撮影BとS506の高感度短秒撮影Aを行った際に、マイクロコンピュータ123は時計132から時刻を取得し、記憶しておく。マイクロコンピュータ123は2つの撮影時間間隔を算出し、一定の時間以上の間隔が空いている場合には星が動きすぎてしまっていると判定し、図8(a)の警告画面を表示する。   When the high-sensitivity short-time shooting B in S504 and the high-sensitivity short-time shooting A in S506 are performed, the microcomputer 123 acquires the time from the clock 132 and stores it. The microcomputer 123 calculates two photographing time intervals, and determines that the star has moved too much if the time interval is longer than a predetermined time, and displays a warning screen of FIG. 8A.

また、マイクロコンピュータ123はS509で取得したジャイロ情報である回転角度607から撮像装置のスイング量を検出し、一定のスイング量を超えている場合は位置合わせができないと判定し、図8(b)の警告画面を表示する。   Further, the microcomputer 123 detects the swing amount of the imaging device from the rotation angle 607, which is the gyro information acquired in S509, and determines that the position cannot be adjusted if the swing amount exceeds a predetermined swing amount, and FIG. Display a warning screen.

以上説明したように、星空パノラマ撮影における位置合わせが不可能と予想される場面では予め警告を表示することでユーザーの利便性を向上させることができる。   As described above, in a scene where positioning in starry sky panorama shooting is expected to be impossible, displaying a warning in advance can improve user convenience.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As described above, the preferred embodiments of the present invention have been described, but the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist.

(その他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
In addition, the present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read the program. It can also be realized by executing processing. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

100:撮像装置、101:撮影レンズ、112:撮像素子、116:映像信号処理回路、119:メモリコントローラ、123:マイクロコンピュータ、133:ジャイロ、134:方位計 100: imaging device, 101: photographing lens, 112: imaging element, 116: video signal processing circuit, 119: memory controller, 123: microcomputer, 133: gyro, 134: compass

Claims (18)

撮像方向が異なり、部分的に共通な領域を有する複数枚の単位画像を合成することにより1枚の合成画像を生成可能な撮像装置であって、
被写体像を撮像する撮像手段と、
前記撮像手段に、前記複数枚の単位画像を撮像させるとともに、前記複数枚の単位画像のうちのそれぞれの単位画像の撮像の前後に、前記単位画像の露光時間よりも露光時間の短い短秒露光画像を撮像させる制御手段と、
第1の単位画像の撮像の後に撮像された第1の短秒露光画像と、前記第1の単位画像に続いて撮像された第2の単位画像の撮像の前に撮像された第2の短秒露光画像とを用いて、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量を算出する算出手段と、
前記算出手段により算出された前記被写体の移動量に基づいて、前記第1の単位画像と前記第2の単位画像の位置合わせを行い、前記第1の単位画像と前記第2の単位画像を合成する合成手段と、
を備えることを特徴とする撮像装置。
An imaging apparatus capable of generating one combined image by combining a plurality of unit images having different imaging directions and having a partially common area,
Imaging means for imaging a subject image;
The imaging unit causes the plurality of unit images to be imaged, and before and after the imaging of each unit image of the plurality of unit images, a short-second exposure having an exposure time shorter than the exposure time of the unit image. Control means for capturing an image,
A first short-time exposure image captured after capturing the first unit image, and a second short-time exposure image captured before capturing the second unit image captured following the first unit image. Calculating means for calculating a moving amount of the subject between the first short-time exposure image and the second short-time exposure image using a second-time exposure image;
The first unit image and the second unit image are aligned based on the movement amount of the subject calculated by the calculation unit, and the first unit image and the second unit image are combined. Means for synthesizing,
An imaging device comprising:
前記被写体は星空であり、前記単位画像は、星空を撮影するための長秒露光で撮影された画像であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the subject is a starry sky, and the unit image is an image captured with a long exposure for capturing a starry sky. 前記短秒露光画像は、星空を短秒露光で撮影するために、前記撮像手段の感度を上げて撮影された画像であることを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the short-time exposure image is an image captured by increasing the sensitivity of the imaging unit in order to capture the starry sky with the short-time exposure. 前記短秒露光画像の撮像を実施する必要があるか否かを判定する第1の判定手段をさらに備え、該第1の判定手段により前記短秒露光画像の撮像が必要ないと判定された場合は、前記制御手段は、前記短秒露光画像の撮像を省略することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   A first determining unit that determines whether or not it is necessary to perform the imaging of the short-time exposure image; and when the first determining unit determines that the imaging of the short-time exposure image is not necessary. The imaging apparatus according to claim 1, wherein the control unit omits imaging of the short-time exposure image. 前記判定手段は、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動がない場合に、前記短秒露光画像の撮像が必要ないと判定することを特徴とする請求項4に記載の撮像装置。   The determining unit determines that it is not necessary to capture the short-time exposure image when there is no movement of the subject between the first short-time exposure image and the second short-time exposure image. The imaging device according to claim 4, wherein 前記第1の単位画像と前記第2の単位画像の位置合わせが可能か否かを判定する第2の判定手段と、該第2の判定手段により、前記第1の単位画像と前記第2の単位画像の位置合わせが不可能と判定された場合に警告を発する警告手段と、をさらに備えることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   A second determination unit that determines whether the first unit image and the second unit image can be aligned, and the second determination unit determines whether the first unit image is aligned with the second unit image. The imaging apparatus according to claim 1, further comprising: a warning unit configured to issue a warning when it is determined that the alignment of the unit images is not possible. 前記第2の判定手段は、前記算出手段により算出された、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量が所定の量を超えている場合に、前記第1の単位画像と前記第2の単位画像の位置合わせが不可能と判定することを特徴とする請求項6に記載の撮像装置。   The second determination unit is configured to determine that a movement amount of the subject between the first short-second exposure image and the second short-second exposure image calculated by the calculation unit exceeds a predetermined amount. 7. The imaging apparatus according to claim 6, wherein it is determined that the alignment between the first unit image and the second unit image is impossible. 前記第1の短秒露光画像の撮像と前記第2の短秒露光画像の撮像との間の経過時間を計時する計時手段をさらに備え、前記第2の判定手段は、前記経過時間が所定の時間を超えている場合に、前記第1の単位画像と前記第2の単位画像の位置合わせが不可能と判定することを特徴とする請求項6に記載の撮像装置。   The image forming apparatus further includes a timer that measures an elapsed time between the imaging of the first short-second exposure image and the imaging of the second short-second exposure image, wherein the second determination unit determines that the elapsed time is a predetermined time. 7. The imaging apparatus according to claim 6, wherein when the time has elapsed, it is determined that alignment between the first unit image and the second unit image is impossible. 撮像方向が異なり、部分的に共通な領域を有する複数枚の単位画像を合成することにより1枚の合成画像を生成可能な画像処理装置であって、
前記複数枚の単位画像と、前記複数枚の単位画像のうちのそれぞれの単位画像の撮像の前後に、前記単位画像の露光時間よりも短い露光時間で撮像された短秒露光画像と、を取得する取得手段と、
第1の単位画像の撮像の後に撮像された第1の短秒露光画像と、前記第1の単位画像に続いて撮像された第2の単位画像の撮像の前に撮像された第2の短秒露光画像とを用いて、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量を算出する算出手段と、
前記算出手段により算出された前記被写体の移動量に基づいて、前記第1の単位画像と前記第2の単位画像の位置合わせを行い、前記第1の単位画像と前記第2の単位画像を合成する合成手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus capable of generating one combined image by combining a plurality of unit images having different imaging directions and having a partially common area,
Obtaining the plurality of unit images and a short-second exposure image captured with an exposure time shorter than the exposure time of the unit image before and after capturing each unit image of the plurality of unit images. Acquisition means for
A first short-time exposure image captured after capturing the first unit image, and a second short-time exposure image captured before capturing the second unit image captured following the first unit image. Calculating means for calculating a moving amount of the subject between the first short-time exposure image and the second short-time exposure image using a second-time exposure image;
The first unit image and the second unit image are aligned based on the movement amount of the subject calculated by the calculation unit, and the first unit image and the second unit image are combined. Means for synthesizing,
An image processing apparatus comprising:
前記被写体は星空であり、前記単位画像は、星空を撮影するための長秒露光で撮影された画像であることを特徴とする請求項9に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the subject is a starry sky, and the unit image is an image captured with a long exposure for capturing a starry sky. 前記短秒露光画像は、星空を短秒露光で撮影するために、前記撮像手段の感度を上げて撮影された画像であることを特徴とする請求項10に記載の画像処理装置。   The image processing apparatus according to claim 10, wherein the short-time exposure image is an image captured by increasing the sensitivity of the imaging unit in order to capture a starry sky with a short-time exposure. 前記第1の単位画像と前記第2の単位画像の位置合わせが可能か否かを判定する第2の判定手段と、該第2の判定手段により、前記第1の単位画像と前記第2の単位画像の位置合わせが不可能と判定された場合に警告を発する警告手段と、をさらに備えることを特徴とする請求項9乃至11のいずれか1項に記載の画像処理装置。   A second determination unit that determines whether the first unit image and the second unit image can be aligned, and the second determination unit determines whether the first unit image is aligned with the second unit image. The image processing apparatus according to claim 9, further comprising: a warning unit that issues a warning when it is determined that alignment of the unit images is impossible. 前記第2の判定手段は、前記算出手段により算出された、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量が所定の量を超えている場合に、前記第1の単位画像と前記第2の単位画像の位置合わせが不可能と判定することを特徴とする請求項12に記載の画像処理装置。   The second determination unit is configured to determine that a movement amount of the subject between the first short-second exposure image and the second short-second exposure image calculated by the calculation unit exceeds a predetermined amount. 13. The image processing apparatus according to claim 12, wherein it is determined that the alignment between the first unit image and the second unit image is impossible. 前記取得手段は、前記第1の短秒露光画像の撮像と前記第2の短秒露光画像の撮像との間の経過時間の情報をさらに取得し、前記第2の判定手段は、前記経過時間が所定の時間を超えている場合に、前記第1の単位画像と前記第2の単位画像の位置合わせが不可能と判定することを特徴とする請求項12に記載の画像処理装置。   The acquisition unit further acquires information on an elapsed time between the imaging of the first short-time exposure image and the imaging of the second short-time exposure image, and the second determination unit includes the elapsed time. 13. The image processing apparatus according to claim 12, wherein when the time exceeds a predetermined time, it is determined that the alignment between the first unit image and the second unit image is impossible. 撮像方向が異なり、部分的に共通な領域を有する複数枚の単位画像を合成することにより1枚の合成画像を生成可能な撮像装置を制御する方法であって、
被写体像を撮像する撮像手段に、前記複数枚の単位画像を撮像させるとともに、前記複数枚の単位画像のうちのそれぞれの単位画像の撮像の前後に、前記単位画像の露光時間よりも露光時間の短い短秒露光画像を撮像させる制御工程と、
第1の単位画像の撮像の後に撮像された第1の短秒露光画像と、前記第1の単位画像に続いて撮像された第2の単位画像の撮像の前に撮像された第2の短秒露光画像とを用いて、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量を算出する算出工程と、
前記算出工程において算出された前記被写体の移動量に基づいて、前記第1の単位画像と前記第2の単位画像の位置合わせを行い、前記第1の単位画像と前記第2の単位画像を合成する合成工程と、
を有することを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus capable of generating one combined image by combining a plurality of unit images having different imaging directions and having a partially common area,
The imaging unit that captures the subject image causes the plurality of unit images to be captured, and before and after capturing each unit image of the plurality of unit images, the exposure time is shorter than the exposure time of the unit image. A control step of capturing a short short exposure image,
A first short-time exposure image captured after capturing the first unit image, and a second short-time exposure image captured before capturing the second unit image captured following the first unit image. Using a second exposure image, a calculation step of calculating the amount of movement of the subject between the first short exposure image and the second short exposure image;
The first unit image and the second unit image are aligned based on the movement amount of the subject calculated in the calculation step, and the first unit image and the second unit image are combined. A synthesis process,
A method for controlling an imaging device, comprising:
撮像方向が異なり、部分的に共通な領域を有する複数枚の単位画像を合成することにより1枚の合成画像を生成可能な画像処理装置を制御する方法であって、
前記複数枚の単位画像と、前記複数枚の単位画像のうちのそれぞれの単位画像の撮像の前後に、前記単位画像の露光時間よりも短い露光時間で撮像された短秒露光画像と、を取得する取得工程と、
第1の単位画像の撮像の後に撮像された第1の短秒露光画像と、前記第1の単位画像に続いて撮像された第2の単位画像の撮像の前に撮像された第2の短秒露光画像とを用いて、前記第1の短秒露光画像と前記第2の短秒露光画像の間での被写体の移動量を算出する算出工程と、
前記算出こうていにおいて算出された前記被写体の移動量に基づいて、前記第1の単位画像と前記第2の単位画像の位置合わせを行い、前記第1の単位画像と前記第2の単位画像を合成する合成工程と、
を有することを特徴とする画像処理装置の制御方法。
A method for controlling an image processing apparatus capable of generating one combined image by combining a plurality of unit images having different imaging directions and having a partially common area,
Obtaining the plurality of unit images and a short-second exposure image captured with an exposure time shorter than the exposure time of the unit image before and after capturing each unit image of the plurality of unit images. An acquisition process to
A first short-time exposure image captured after capturing the first unit image, and a second short-time exposure image captured before capturing the second unit image captured following the first unit image. Using a second exposure image, a calculation step of calculating the amount of movement of the subject between the first short exposure image and the second short exposure image;
The first unit image and the second unit image are aligned based on the movement amount of the subject calculated in the calculation, and the first unit image and the second unit image are aligned. A synthesis step of synthesizing,
A method for controlling an image processing apparatus, comprising:
コンピュータに、請求項15または16に記載の制御方法の各工程を実行させるためのプログラム。   A program for causing a computer to execute each step of the control method according to claim 15. コンピュータに、請求項15または16に記載の制御方法の各工程を実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to execute each step of the control method according to claim 15.
JP2018153205A 2018-08-16 2018-08-16 Image pickup device and image processing device, their control method, program, storage medium Active JP7100535B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018153205A JP7100535B2 (en) 2018-08-16 2018-08-16 Image pickup device and image processing device, their control method, program, storage medium
CN201910743581.0A CN110891140B (en) 2018-08-16 2019-08-13 Image pickup apparatus, image processing apparatus, control method therefor, and storage medium
US16/539,040 US11044397B2 (en) 2018-08-16 2019-08-13 Image capturing device and image processing device, control methods of the same, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018153205A JP7100535B2 (en) 2018-08-16 2018-08-16 Image pickup device and image processing device, their control method, program, storage medium

Publications (3)

Publication Number Publication Date
JP2020028079A true JP2020028079A (en) 2020-02-20
JP2020028079A5 JP2020028079A5 (en) 2021-08-12
JP7100535B2 JP7100535B2 (en) 2022-07-13

Family

ID=69620456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018153205A Active JP7100535B2 (en) 2018-08-16 2018-08-16 Image pickup device and image processing device, their control method, program, storage medium

Country Status (1)

Country Link
JP (1) JP7100535B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328497A (en) * 2004-04-16 2005-11-24 Sony Corp Image pickup apparatus and image pickup method
JP2016005160A (en) * 2014-06-18 2016-01-12 キヤノン株式会社 Imaging device and control method thereof
JP2016149631A (en) * 2015-02-12 2016-08-18 オリンパス株式会社 Imaging apparatus and imaging method
JP2017073741A (en) * 2015-10-09 2017-04-13 キヤノン株式会社 Imaging apparatus for imaging locus of subject, and control method for imaging apparatus
JP2017168982A (en) * 2016-03-15 2017-09-21 キヤノン株式会社 Imaging apparatus, and control method and program for imaging apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328497A (en) * 2004-04-16 2005-11-24 Sony Corp Image pickup apparatus and image pickup method
JP2016005160A (en) * 2014-06-18 2016-01-12 キヤノン株式会社 Imaging device and control method thereof
JP2016149631A (en) * 2015-02-12 2016-08-18 オリンパス株式会社 Imaging apparatus and imaging method
JP2017073741A (en) * 2015-10-09 2017-04-13 キヤノン株式会社 Imaging apparatus for imaging locus of subject, and control method for imaging apparatus
JP2017168982A (en) * 2016-03-15 2017-09-21 キヤノン株式会社 Imaging apparatus, and control method and program for imaging apparatus

Also Published As

Publication number Publication date
JP7100535B2 (en) 2022-07-13

Similar Documents

Publication Publication Date Title
JP6659130B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP4378272B2 (en) Imaging device
JP7030442B2 (en) Image processing equipment, image processing methods, and programs
JP7174120B2 (en) IMAGING DEVICE, PROGRAM, RECORDING MEDIUM, AND CONTROL METHOD
JP7086571B2 (en) Image pickup device, lens device and control method thereof
US20110109771A1 (en) Image capturing appratus and image capturing method
JP6529533B2 (en) Imaging device, control method of imaging device, and program
KR20120115119A (en) Image processing device for generating composite image having predetermined aspect ratio
JP2016005160A (en) Imaging device and control method thereof
CN110891140B (en) Image pickup apparatus, image processing apparatus, control method therefor, and storage medium
JP2010233188A (en) Imaging apparatus, control method thereof and program
JP7102301B2 (en) Imaging device and its control method, and program
JP5861420B2 (en) Electronic camera
JP7100535B2 (en) Image pickup device and image processing device, their control method, program, storage medium
JP6869841B2 (en) Image processing device, control method of image processing device, and program
JP7051586B2 (en) Imaging equipment, imaging methods and programs
JP4471364B2 (en) Image processing apparatus and image processing method
JP7106399B2 (en) Image processing device, image processing method, and program
JP2006019852A (en) Image pickup device, zoom image pickup method and program
JP6828069B2 (en) Imaging equipment, imaging methods and programs
JP7353749B2 (en) Image processing device, imaging device, and method for controlling the image processing device
JP6176305B2 (en) Electronic camera and program
JP2022015594A (en) Display control device, image processing device, imaging apparatus, and control method and program of display control device
JP6176306B2 (en) Electronic camera and program
JP2020036168A (en) Imaging system and universal head system

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220701

R151 Written notification of patent or utility model registration

Ref document number: 7100535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151