JP7225281B2 - IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, COMPUTER PROGRAM AND RECORDING MEDIUM - Google Patents

IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, COMPUTER PROGRAM AND RECORDING MEDIUM Download PDF

Info

Publication number
JP7225281B2
JP7225281B2 JP2021015467A JP2021015467A JP7225281B2 JP 7225281 B2 JP7225281 B2 JP 7225281B2 JP 2021015467 A JP2021015467 A JP 2021015467A JP 2021015467 A JP2021015467 A JP 2021015467A JP 7225281 B2 JP7225281 B2 JP 7225281B2
Authority
JP
Japan
Prior art keywords
image
images
imaging
focus position
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021015467A
Other languages
Japanese (ja)
Other versions
JP2021073813A (en
Inventor
卓也 正村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021015467A priority Critical patent/JP7225281B2/en
Publication of JP2021073813A publication Critical patent/JP2021073813A/en
Application granted granted Critical
Publication of JP7225281B2 publication Critical patent/JP7225281B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置の表示に関するものであり、特にピント位置の異なる画像を撮像するときの表示に関するものである。 The present invention relates to the display of an imaging device, and more particularly to the display when imaging images with different focus positions.

デジタルカメラなどの撮像装置からの距離が異なる複数の被写体を撮像する場合、あるいは、奥行き方向に長い被写体を撮像する場合に、撮像光学系における被写界深度が足りないために、被写体の一部にしかピントを合わせられない場合がある。これを解決するため、特許文献1には、ピント位置を変化させて複数の画像を撮像し、各画像から合焦領域のみを抽出して1枚の画像に合成し、撮像領域全体に合焦している合成画像を生成する技術が開示されている。 When capturing images of multiple subjects at different distances from an image capturing device such as a digital camera, or when capturing an image of a subject that is long in the depth direction, the depth of field in the imaging optical system is insufficient, so some of the subjects may be captured. There are times when you can only focus on the subject. In order to solve this problem, Patent Document 1 discloses that a plurality of images are captured by changing the focus position, only the in-focus region is extracted from each image, combined into one image, and the entire imaging region is focused. A technique is disclosed for generating a composite image that

しかし、デジタルカメラなどの撮像装置のライブビュー表示を用いて上述の撮像を行うとき、レンズの繰り出し量の変化などため、撮像画像の画角は、ピント位置の変化に伴い変わってしまう場合がある。合成画像を生成するために、画角の最も狭い撮像画像の画角に合わせてほかの撮像画像に対して切り出し処理をする必要があり、撮像中のライブビュー画像の画角と合成画像との画角が異なる可能性がある。 However, when performing the above-described imaging using the live view display of an imaging device such as a digital camera, the angle of view of the captured image may change as the focus position changes due to changes in the extension amount of the lens. . In order to generate a composite image, it is necessary to cut out other captured images according to the angle of view of the captured image with the narrowest angle of view. The angle of view may differ.

特許文献2には、本撮像を行う前に、簡易的なプレ撮像および画像処理を通じ、確認用の画像データを生成する方法が開示されている。 Patent Literature 2 discloses a method of generating image data for confirmation through simple pre-imaging and image processing before performing main imaging.

特開2015-216532号公報JP 2015-216532 A 特開2015-231058号公報JP 2015-231058 A

しかしながら、上述する特許文献2に記載の方法を用いては、本撮像の前にプレ撮像を行わなければならず、撮像者にとって面倒のみならず、撮像動作の全体の時間が延びてしまう。 However, with the method described in Patent Document 2, pre-imaging must be performed before main imaging, which is troublesome for the photographer and lengthens the entire imaging operation time.

本発明は、上記の課題を鑑みてなされたものであり、ピント位置の異なる複数の画像を撮像し、利便性良く、合成画像の画角を確認できる撮像装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an imaging apparatus capable of capturing a plurality of images with different focal positions and conveniently confirming the angle of view of a composite image.

本発明は撮像手段と、ピント位置を変更できる光学系と、制御手段と、を備え、前記制御手段は、互いにピント位置が異なる複数の画像であって、合成画像を生成するために用いられる複数の画像をあらかじめ定められた前記ピント位置で撮像するように、前記光学系と前記撮像手段とを制御し、前記制御手段は、前記ピント位置が異なる複数の画像を撮像する前に、前記光学系と前記撮像手段を制御して前記撮像手段により撮像された画像を用いてライブビュー表示を行うように制御し、前記制御手段は、前記合成画像の画角を示すように、前記ピント位置が異なる複数の画像を撮像する前の前記ライブビュー表示を制御することを特徴とする撮像装置を提供する。 The present invention comprises imaging means, an optical system capable of changing the focal position, and control means, wherein the control means is a plurality of images having different focal positions, which are used to generate a composite image. The optical system and the imaging means are controlled so as to capture the image at the predetermined focus position , and the control means controls the optical system before capturing the plurality of images with different focus positions. and controlling the image capturing means to perform live view display using the image captured by the image capturing means, wherein the control means changes the focus position so as to indicate the angle of view of the composite image. Provided is an imaging device characterized by controlling the live view display before imaging a plurality of images.

本発明の撮像装置によれば、ピント位置の異なる複数の画像に対して合成を行うとき、利便性良く、合成画像の画角を確認できる。 According to the imaging apparatus of the present invention, when combining a plurality of images with different focus positions, the angle of view of the combined image can be confirmed with good convenience.

本発明の実施形態に係るデジタルカメラの構造を示すブロック図である。1 is a block diagram showing the structure of a digital camera according to an embodiment of the present invention; FIG. 第1の実施形態を説明するためのフローチャートである。4 is a flowchart for explaining the first embodiment; 第1の実施形態におけるピント位置と像倍率との関係を示す関数を説明するための図である。FIG. 4 is a diagram for explaining a function representing the relationship between the focus position and the image magnification in the first embodiment; 第1の実施形態における最大設定像倍率とLV像倍率を説明するための図である。FIG. 4 is a diagram for explaining maximum set image magnification and LV image magnification in the first embodiment; 被写体の距離情報を取得可能な撮像素子を構成するセンサのアレイの一例を説明するための図である。FIG. 4 is a diagram for explaining an example of an array of sensors forming an imaging device capable of acquiring distance information of a subject; 複数の光電変換部を有する画素における光信号の入射を説明するための図である。FIG. 4 is a diagram for explaining incidence of optical signals in a pixel having a plurality of photoelectric conversion units; 複数の光電変換部を有する画素を用いて被写体の距離情報を取得する方法について説明するための図である。FIG. 10 is a diagram for explaining a method of acquiring distance information of a subject using pixels having a plurality of photoelectric conversion units; 第2の実施形態を説明するためのフローチャートである。9 is a flowchart for explaining a second embodiment; (a)は、像倍率の単調減少を示す図であり、(b)は、像倍率の単調増加を示す図である。(a) is a diagram showing a monotonous decrease in image magnification, and (b) is a diagram showing a monotonous increase in image magnification.

以下では、添付の図面を参照しながら、本発明の好適な実施形態について詳細に説明する。 Preferred embodiments of the present invention will now be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は本実施形態に係るデジタルカメラの構造を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing the structure of a digital camera according to this embodiment.

制御回路101は、例えばCPUやMPUなどのシグナルプロセッサであり、予め後述するROM105に内蔵されたプログラムを読み出して、デジタルカメラ100の各部分を制御する。たとえば、後述するように、制御回路101が、後述する撮像素子104に対して撮像の開始と終了について指令を出す。また、後述する画像処理回路107に対して、ROM105に内蔵されたプログラムに基づいて、画像処理の指令を出す。ユーザによる指令は、後述する操作部材110によってデジタルカメラ100に入力され、制御回路101を通して、デジタルカメラ100の各部分に達する。 The control circuit 101 is, for example, a signal processor such as a CPU or an MPU, reads out a program prestored in a ROM 105 to be described later, and controls each part of the digital camera 100 . For example, as will be described later, the control circuit 101 issues commands to the imaging element 104, which will be described later, regarding the start and end of imaging. It also issues an image processing command to an image processing circuit 107, which will be described later, based on a program stored in the ROM 105. FIG. A user's command is input to the digital camera 100 by an operation member 110 (to be described later) and reaches each part of the digital camera 100 through the control circuit 101 .

駆動機構102は、モーターなどによって構成され、制御回路101の指令の下で、後述する光学系103を機械的に動作させる。たとえば、制御回路101の指令に基づいて、駆動機構102が光学系103に含まれるフォーカスレンズの位置を移動させ、光学系103の焦点距離を調整する。 The drive mechanism 102 is composed of a motor or the like, and mechanically operates an optical system 103 described later under the command of the control circuit 101 . For example, based on a command from the control circuit 101 , the drive mechanism 102 moves the position of the focus lens included in the optical system 103 to adjust the focal length of the optical system 103 .

光学系103は、ズームレンズ、フォーカスレンズ、および絞りなどにより構成される。絞りは、透過する光量を調整する機構である。フォーカスレンズの位置を変えることによって、ピント位置を変えることができる。 The optical system 103 is composed of a zoom lens, a focus lens, an aperture, and the like. A diaphragm is a mechanism that adjusts the amount of light that is transmitted. By changing the position of the focus lens, the focus position can be changed.

撮像素子104は、光電変換素子であり、入射された光信号を電気信号に変換する光電変換を行うものである。たとえば、撮像素子104に、CCDやCMOSセンサなどを適用することができる。 The imaging element 104 is a photoelectric conversion element that performs photoelectric conversion to convert an incident optical signal into an electrical signal. For example, a CCD, CMOS sensor, or the like can be applied to the imaging device 104 .

ROM105は、記録媒体としての読み出し専用の不揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶している。RAM106は、書き換え可能な揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。 The ROM 105 is a read-only non-volatile memory as a recording medium, and stores the operation program of each block provided in the digital camera 100 as well as the parameters required for the operation of each block. A RAM 106 is a rewritable volatile memory, and is used as a temporary storage area for data output during operation of each block of the digital camera 100 .

画像処理回路107は、撮像素子104から出力された画像、あるいは後述する内蔵メモリ109に記録されている画像信号のデータに対して、ホワイトバランス調整、色補間、フィルタリングなど、様々な画像処理を行う。また、撮像素子104が撮像した画像信号のデータに対して、JPEGなどの規格で、圧縮処理を行う。 The image processing circuit 107 performs various image processing such as white balance adjustment, color interpolation, and filtering on the image output from the image sensor 104 or image signal data recorded in a built-in memory 109, which will be described later. . Also, the data of the image signal captured by the image sensor 104 is subjected to compression processing according to a standard such as JPEG.

画像処理回路107は、特定の処理を行う回路を集めた集積回路(ASIC)で構成される。あるいは、制御回路101がROM105から読み出したプログラムに従って処理することで、制御回路101が画像処理回路107の機能の一部または全部を兼用するようにしてもよい。制御回路101が画像処理回路107の全ての機能を兼用する場合には、画像処理回路107をハードウェアとして有する必要はなくなる。 The image processing circuit 107 is composed of an integrated circuit (ASIC) that is a collection of circuits that perform specific processing. Alternatively, the control circuit 101 may perform processing according to a program read from the ROM 105 so that the control circuit 101 may share some or all of the functions of the image processing circuit 107 . If the control circuit 101 shares all the functions of the image processing circuit 107, the image processing circuit 107 does not have to be provided as hardware.

ディスプレイ108は、RAM106に一時保存されている画像、または、後述する内蔵メモリ109に保存されている画像、あるいは、デジタルカメラ100の設定画面などを表示するための液晶ディスプレイや有機ELディスプレイなどである。ディスプレイ108は、撮像素子104が取得する画像を表示画像としてリアルタイムに反映し、いわゆるライブビュー表示することができる。 A display 108 is a liquid crystal display, an organic EL display, or the like for displaying images temporarily stored in the RAM 106, images stored in a later-described internal memory 109, or setting screens of the digital camera 100. . The display 108 can reflect the image acquired by the imaging device 104 as a display image in real time, and can perform so-called live view display.

内蔵メモリ109は、撮像素子104が撮像した画像や画像処理回路107の処理を得た画像、および、画像撮像時のピント位置の情報などを記録する場所である。内蔵メモリの代わりに、メモリカードなどを用いてもよい。 The built-in memory 109 is a place for recording the image captured by the image sensor 104, the image processed by the image processing circuit 107, information on the focus position at the time of image capturing, and the like. A memory card or the like may be used instead of the built-in memory.

操作部材110は、たとえば、デジタルカメラ100につけるボタンやスイッチ、キー、モードダイアルなど、あるいは、ディスプレイ108に兼用されるタッチパネルなどである。ユーザが操作部材110を用いて入力した指令は、制御回路101に達し、この指令に応じて制御回路101は各ブロックの動作を制御する。 The operation member 110 is, for example, a button, switch, key, mode dial, etc. attached to the digital camera 100, or a touch panel that is also used as the display 108, or the like. A command input by the user using the operation member 110 reaches the control circuit 101, and the control circuit 101 controls the operation of each block according to this command.

図2は、本実施形態を説明するためのフローチャートである。まず、図2(a)に基づいて、本実施形態について説明する。 FIG. 2 is a flow chart for explaining this embodiment. First, this embodiment will be described with reference to FIG.

ステップS201で、制御回路101は、レンズの情報を取得する。たとえば、レンズ交換可能でないデジタルカメラにおいては、レンズの情報を予めROM105に保存し、S201において、制御回路101がレンズの情報を取得する。または、レンズ交換可能なデジタルカメラの場合、制御回路101は、光学系103に設けられたマウントなどを通じて、レンズの種類を読み出す。レンズの種類ごとの情報を予めROM105に保存し、制御回路101は、読み出したレンズの種類と照らし合わせ、ROM105から該当するレンズの情報を読み出す。なお、ここでいうレンズの情報とは、後述するレンズを使用するときのピント位置と像倍率との関係などのレンズの固有情報を指す。 In step S201, the control circuit 101 acquires lens information. For example, in a digital camera with a non-interchangeable lens, lens information is stored in the ROM 105 in advance, and the control circuit 101 acquires the lens information in S201. Alternatively, in the case of a lens-interchangeable digital camera, the control circuit 101 reads the lens type through a mount provided in the optical system 103 or the like. Information for each type of lens is stored in advance in the ROM 105 , and the control circuit 101 compares it with the type of lens that has been read out, and reads information on the corresponding lens from the ROM 105 . Note that the lens information here refers to lens-specific information such as the relationship between the focal position and the image magnification when the lens is used, which will be described later.

本実施形態においては、制御回路101は、レンズの情報に含まれるピント位置と像倍率との関係を示す関数を読み出す。画像の像倍率と画角とは反比例するので、制御回路101は、ピント位置と像倍率との関係を示す関数よりピント位置と画角との関係を示す関数を得ることもできる。一般的に、ピント位置と像倍率との関係を示す関数は、レンズの種類によって一意に定まり、その関数は単調変化である。なお、ここでいう像倍率は、撮像素子に結像された被写体像の大きさと、実際の被写体の大きさの比を指す。 In this embodiment, the control circuit 101 reads out a function indicating the relationship between the focus position and the image magnification included in the lens information. Since the image magnification and the angle of view of an image are inversely proportional, the control circuit 101 can obtain a function representing the relationship between the focus position and the angle of view from the function representing the relationship between the focus position and the image magnification. In general, the function indicating the relationship between the focus position and the image magnification is uniquely determined by the type of lens, and the function changes monotonously. It should be noted that the image magnification here refers to the ratio between the size of the subject image formed on the imaging device and the actual size of the subject.

図3は、本実施形態におけるピント位置と像倍率との関係を示す関数を説明するための図である。図3で示した関数においては、像倍率はピント位置に対して単調減少である。 FIG. 3 is a diagram for explaining a function showing the relationship between the focus position and the image magnification in this embodiment. In the function shown in FIG. 3, the image magnification monotonously decreases with respect to the focus position.

ステップS202は、制御回路101は、複数のピント位置の設定を行う。たとえば、ユーザがタッチパネルを通じて、焦点領域を設定し、光学系103はその焦点領域に相当するピント位置を測定する。制御回路101は、測定したピント位置の前後に、所定数のピント位置を設定する。制御回路101は、互いの被写界深度の端部が少し重複するように、隣接するピント位置間の距離を設定することが好ましい。 In step S202, the control circuit 101 sets a plurality of focus positions. For example, a user sets a focal area through a touch panel, and the optical system 103 measures a focus position corresponding to the focal area. The control circuit 101 sets a predetermined number of focus positions before and after the measured focus position. The control circuit 101 preferably sets the distance between adjacent focus positions so that the edges of the depth of field slightly overlap each other.

ステップS203では、制御回路101は像倍率の算出を行う。ステップ203では、制御回路101は、ステップS201で取得したピント位置と像倍率との関係を示す関数を用い、ステップS202で設定した各々のピント位置に対応する像倍率を算出する。たとえば、図3に示したように、制御回路101は、ステップS202で、ピント位置301乃至304を設定する。図3に示した関数によれば、光学系103がピント位置301乃至304にピントを合わせたときに、撮像素子104が撮像する画像の像倍率がそれぞれ像倍率311乃至314であることがわかる。 In step S203, the control circuit 101 calculates the image magnification. At step S203, the control circuit 101 uses the function indicating the relationship between the focus position and the image magnification obtained at step S201 to calculate the image magnification corresponding to each focus position set at step S202. For example, as shown in FIG. 3, the control circuit 101 sets focus positions 301 to 304 in step S202. According to the functions shown in FIG. 3, when the optical system 103 focuses on the focal positions 301 to 304, the image magnifications of the images captured by the imaging device 104 are 311 to 314, respectively.

ステップS204で、制御回路101は、最大設定像倍率とライブビュー像倍率(以下、LV像倍率と称す)との比較を行う。ここでの最大設定像倍率とは、ステップS203で算出した像倍率の中で最も大きいものであって、基準となる像倍率を指す。LV像倍率とは、ディスプレイ108がライブビュー表示の際に設定されているピント位置に対応する像倍率を指す。 In step S204, the control circuit 101 compares the maximum set image magnification and the live view image magnification (hereinafter referred to as LV image magnification). The maximum set image magnification here refers to the image magnification that is the largest among the image magnifications calculated in step S203 and serves as a reference. The LV image magnification refers to the image magnification corresponding to the focus position set when the display 108 is displaying the live view.

ステップS204で、制御回路101は、最大設定像倍率がLV像倍率より大きいと判断した場合、ステップS205に進み、そうでないとステップS206に進む。 If the control circuit 101 determines in step S204 that the maximum set image magnification is greater than the LV image magnification, the process proceeds to step S205; otherwise, the process proceeds to step S206.

図4は、本実施形態における最大設定像倍率とLV像倍率を説明するための図である。図4(a)はLV像倍率の画像の画角を示し、図4(b)は最大設定像倍率の画像の画角を示す。図4(a)に示した画像401の画角は図4(b)に示した画像402の画角より広く、図4(a)に示した枠403の部分の画角は、画像402の画角に相当する。したがって、制御回路101は、画像401と画像402を用いて合成しようとすると、画像401の枠403より外の部分を切り捨てなければならなく、作成した合成画像で、枠403より外の部分がなくなる。ディスプレイ108は、画像401をそのまま用いてライブビュー表示を行うと、枠403より外の部分が表示されるにもかかわらず、合成画像にはその部分が含まれないという課題が起きる。この課題を解決するために、制御回路101は最大設定像倍率がLV像倍率より大きいと判断した場合、ディスプレイ108は、画像401の枠403より外の部分をライブビュー表示させないように、ライブビュー画像の補正を行う。具体的には、ステップS205で画像処理回路107は、図4(a)に示した画像401に対して、枠403内の部分を切り出し、画像401の元のサイズまで拡大処理を行う。 FIG. 4 is a diagram for explaining the maximum set image magnification and LV image magnification in this embodiment. FIG. 4(a) shows the angle of view of the image with the LV image magnification, and FIG. 4(b) shows the angle of view of the image with the maximum set image magnification. The angle of view of the image 401 shown in FIG. 4A is wider than the angle of view of the image 402 shown in FIG. It corresponds to the angle of view. Therefore, when the control circuit 101 attempts to synthesize the images 401 and 402, the portion outside the frame 403 of the image 401 must be cut off, and the portion outside the frame 403 is lost in the created synthesized image. . When the display 108 performs live view display using the image 401 as it is, a problem arises in that although the portion outside the frame 403 is displayed, that portion is not included in the synthesized image. In order to solve this problem, when the control circuit 101 determines that the maximum set image magnification is larger than the LV image magnification, the display 108 controls the live view display so that the portion outside the frame 403 of the image 401 is not live view displayed. Correct the image. Specifically, in step S205, the image processing circuit 107 cuts out the portion within the frame 403 from the image 401 shown in FIG.

ステップS206で、ディスプレイ108は、ライブビュー画像の表示を行う。ステップS205で画像処理回路107がライブビューの補正を行った場合、ステップS206では、ディスプレイ108は補正前の画像でなく、補正後の画像を表示画像としてライブビュー表示を行う。 In step S206, the display 108 displays a live view image. If the image processing circuit 107 corrects the live view in step S205, in step S206 the display 108 displays the corrected image instead of the pre-corrected image as the display image for live view display.

ステップS207は、制御回路101は、ユーザの操作部材110に設けたボタン操作などの、撮像開始の指示があるかどうかを判断する。撮像開始の指示があれば、ステップS207に進み、撮像開始の指示がなければ、ステップS208に進む。ステップS208で、制御回路101は、ピント位置の再設定を行うかどうかについて判断する。ピント位置の再設定を行う場合、ステップS202に戻り、ピント位置の再設定を行わない場合、ステップS204に戻る。 In step S<b>207 , the control circuit 101 determines whether or not there is an instruction to start imaging by operating a button provided on the operation member 110 by the user. If there is an instruction to start imaging, the process proceeds to step S207, and if there is no instruction to start imaging, the process proceeds to step S208. In step S208, the control circuit 101 determines whether or not to reset the focus position. If the focus position is to be reset, the process returns to step S202, and if the focus position is not to be reset, the process returns to step S204.

たとえば、デジタルカメラ100が、被写体の位置に合わせて、リアルタイムにピント位置を変える追尾モードで撮像を行う場合、ピント位置もリアルタイムに変える必要がある。このような場合、ステップS207で撮像開始の指示がなければ、ステップS202に戻り、ピント位置をもう一度設定する必要がある。一方で、最初にステップS202でデジタルカメラ100から所定の距離にピント位置を設定し、その後変えない場合では、ピント位置を再度設定する必要がない。したがって、このような場合、ステップS207で撮像開始の指示がなければ、ステップS202でなくステップS204に戻る。 For example, when the digital camera 100 performs imaging in a tracking mode in which the focus position is changed in real time according to the position of the subject, the focus position also needs to be changed in real time. In such a case, if there is no instruction to start imaging in step S207, it is necessary to return to step S202 and set the focus position again. On the other hand, if the focus position is first set at a predetermined distance from the digital camera 100 in step S202 and is not changed thereafter, there is no need to set the focus position again. Therefore, in such a case, if there is no instruction to start imaging in step S207, the process returns to step S204 instead of step S202.

ステップS209では、ステップS202で設定した複数のピント位置のそれぞれで撮像素子104を用いて本撮像を行う。 In step S209, main imaging is performed using the image sensor 104 at each of the plurality of focus positions set in step S202.

ステップS210で、画像処理回路107はステップS209で本撮像した画像を用いて合成を行う。合成の方法の一例は以下で簡単に述べる。画像処理回路107は各画像から得られたコントラスト値を用いて合成MAPを生成する。具体的には、各々の着目領域あるいは画素において、複数の画像のうち、画像のコントラスト値が最も高くなる画像の合成比率を100%とし、それ以外の画像を0%とする。なお、隣接画素間で合成比率が0%から100%に変化(あるいは100%から0%に変化)すると、合成境界での不自然さが目立つようになる。そのため、合成MAPに対して所定の画素数(タップ数)を持つローパスフィルタをかけることで、隣接画素間で合成比率が急激に変化しないように合成MAPを加工する。また、着目領域あるいは画素における各画像のコントラスト値に基づいて、コントラスト値の高い画像ほど合成比率が高くなるような合成MAPを作成してもよい。 In step S210, the image processing circuit 107 performs synthesis using the image captured in step S209. An example of a method of synthesis is briefly described below. The image processing circuit 107 uses the contrast values obtained from each image to generate a composite MAP. Specifically, in each region or pixel of interest, the composite ratio of the image with the highest image contrast value among the plurality of images is set to 100%, and the other images are set to 0%. Note that when the composition ratio between adjacent pixels changes from 0% to 100% (or changes from 100% to 0%), unnaturalness at the composition boundary becomes conspicuous. Therefore, by applying a low-pass filter having a predetermined number of pixels (number of taps) to the composite MAP, the composite MAP is processed so that the composite ratio does not change abruptly between adjacent pixels. Further, based on the contrast value of each image in the region of interest or pixel, a composite map may be created in which the composition ratio is higher for images with higher contrast values.

このように、第1の実施形態によれば、合成画像の画角を考慮し、撮像時のライブビュー表示を補正し、合成画像の画角に相当する画角を撮像時にユーザに表示することができる。 As described above, according to the first embodiment, the angle of view of the synthesized image is taken into consideration, the live view display at the time of imaging is corrected, and the angle of view corresponding to the angle of view of the synthesized image is displayed to the user at the time of imaging. can be done.

なお、ステップS202の説明において、ユーザがタッチパネルを通じて設定した焦点領域のピント位置を基準として、所定数のピント位置を設定するとしたが、これに限られるものではない。基準となるピント位置が設定された被写体が占める領域を画像から判別し、この領域における距離情報に基づいて、複数のピント位置を設定するようにしてもよい。 In the description of step S202, a predetermined number of focus positions are set based on the focus position of the focus area set by the user through the touch panel, but the present invention is not limited to this. A region occupied by the subject for which the reference focus position is set may be determined from the image, and a plurality of focus positions may be set based on the distance information in this region.

図5は、被写体の距離情報を取得できる撮像素子104を構成するセンサのアレイの一例を説明するための図である。図5(a)に、画素500が、互いに独立に光信号を読み取れる2つの光電変換部501と502を有する場合の構造を示す。それぞれの画素が有する光電変換部の数は2つに限られるものではなく、3つ以上であってもよい。たとえば、図5(b)に、画素510が、4つの光電変換部511乃至514を有する構造を示す。以下の記述では、1つの画素が2つの光電変換部を有する構造に基づいて説明する。 FIG. 5 is a diagram for explaining an example of an array of sensors forming the imaging device 104 capable of acquiring distance information of a subject. FIG. 5A shows a structure in which a pixel 500 has two photoelectric conversion units 501 and 502 capable of reading optical signals independently of each other. The number of photoelectric conversion units included in each pixel is not limited to two, and may be three or more. For example, FIG. 5B shows a structure in which a pixel 510 has four photoelectric conversion units 511 to 514. FIG. The following description will be based on a structure in which one pixel has two photoelectric conversion units.

図6は、複数の光電変換部を有する画素に光信号が入射する様子を説明するための図である。 FIG. 6 is a diagram for explaining how an optical signal is incident on a pixel having a plurality of photoelectric conversion units.

図6では、画素アレイ601が、マイクロレンズ602と、カラーフィルタ603と、光電変換部604および605を備えている。光電変換部604と605とは、同じ画素に属し、共通するマイクロレンズ602とカラーフィルタ603に対応する。図6はデジタルカメラ100を上から見た図であって、1つの画素に対応する2つの光電変換部604と605が左右に並んで配置されていることを示している。射出瞳606から出る光束のうち、光軸609を境にして、上側の光束(領域607からの光束に相当)は光電変換部605に入射し、下側の光束(領域608からの光束に相当)は光電変換部604に入射する。つまり、光電変換部604と605とはそれぞれ撮像レンズの射出瞳の異なる領域の光を受光している。ここで光電変換部604が受光した信号をA像、光電変換部605で受光した信号をB像とすると、A像とB像の位相差に基づいて焦点ズレ量を算出でき、距離情報を取得することができる。特に、撮像素子104の全体に、2つの光電変換部を有する画素を全面的に配置すれば、撮像素子104が、被写体の任意の場所の距離情報を得ることができる。 In FIG. 6, a pixel array 601 includes microlenses 602 , color filters 603 , and photoelectric conversion units 604 and 605 . The photoelectric conversion units 604 and 605 belong to the same pixel and correspond to the common microlens 602 and color filter 603 . FIG. 6 is a top view of the digital camera 100 and shows that two photoelectric conversion units 604 and 605 corresponding to one pixel are arranged side by side. Of the luminous fluxes emitted from the exit pupil 606, the upper luminous flux (corresponding to the luminous flux from the area 607) with the optical axis 609 as a boundary is incident on the photoelectric conversion unit 605, and the lower luminous flux (corresponding to the luminous flux from the area 608) enters the photoelectric conversion unit 605. ) enters the photoelectric conversion unit 604 . That is, the photoelectric conversion units 604 and 605 receive light in different regions of the exit pupil of the imaging lens. Assuming that the signal received by the photoelectric conversion unit 604 is the A image and the signal received by the photoelectric conversion unit 605 is the B image, the amount of focus shift can be calculated based on the phase difference between the A image and the B image, and distance information can be obtained. can do. In particular, by arranging pixels having two photoelectric conversion units over the entire image sensor 104, the image sensor 104 can obtain distance information of an arbitrary location of the object.

図7は本実施形態における複数の光電変換部を有する画素を用いて被写体の距離情報を取得する方法を説明するための図である。図7(a)では、見やすくするために、画面に5×5合計25個の画素を示すが、実際の画素はもっと小さく、数が多い。画素701のように、被写体と重畳する画素は実線、そうでない画素は、画素702のように、点線で描かれる。すべての実線の画素に対して上述するように距離情報を取得すると、被写体全体の距離情報を取得できる。 FIG. 7 is a diagram for explaining a method of acquiring distance information of a subject using pixels having a plurality of photoelectric conversion units according to this embodiment. In FIG. 7A, a total of 25 pixels of 5×5 are shown on the screen for easy viewing, but the actual pixels are smaller and more in number. A pixel that overlaps with the object, such as a pixel 701, is drawn with a solid line, and a pixel that does not overlap, like a pixel 702, is drawn with a dotted line. By obtaining the distance information for all the solid-line pixels as described above, the distance information for the entire subject can be obtained.

以下では、本実施形態におけるステップS202でのピント位置の設定について説明する。ユーザが被写体の一部である領域703を指定するため、操作部材110に含まれるタッチパネルを用いてタッチ操作を行う。このタッチ操作によって領域703が選択されると、制御回路101は、領域703が属している被写体の全体領域704を検出する。たとえば、制御回路101は、画像処理回路107を通じて画像中の色情報を分析し、色情報より被写体を検出する。または、制御回路101は、画像処理回路107を通じて、画像中のエッジ情報や距離情報取得してからそれらを元に被写体の全体領域704の検出を行ってもよい。 The setting of the focus position in step S202 in this embodiment will be described below. The user performs a touch operation using the touch panel included in the operation member 110 in order to specify the area 703 that is part of the subject. When the area 703 is selected by this touch operation, the control circuit 101 detects the entire subject area 704 to which the area 703 belongs. For example, the control circuit 101 analyzes color information in the image through the image processing circuit 107 and detects a subject from the color information. Alternatively, the control circuit 101 may acquire edge information and distance information in the image through the image processing circuit 107, and then detect the entire area 704 of the object based on them.

続いて、前述したように、図7(a)の画素701のような被写体の全体領域704と重畳する画素の距離情報を取得する。制御回路101は、取得した距離情報の中で、最も遠い被写体の距離にあたるところに、ピント位置を設定すると同時に、最も近い被写体の距離にあたるところにも、ピント位置を設定する。この2つのピント位置の間に、等間隔配置などの予め定められた方法で、いくつかのピント位置を設定する。 Subsequently, as described above, the distance information of pixels overlapping the entire subject area 704, such as the pixel 701 in FIG. 7A, is acquired. The control circuit 101 sets the focus position at the distance of the farthest subject in the acquired distance information, and at the same time sets the focus position at the distance of the closest subject. Between these two focus positions, several focus positions are set by a predetermined method such as equidistant arrangement.

(第2の実施形態)
第2の実施形態では、第1の実施形態と異なり、制御回路101が自動的にピント位置を設定するのでなく、ユーザがマニュアル操作でピント位置を動かして撮像を行う。以下では、第2の実施形態について説明する。なお、第1の実施形態と同様な構成については説明を省略する。
(Second embodiment)
In the second embodiment, unlike the first embodiment, the control circuit 101 does not automatically set the focus position, but the user manually moves the focus position to take an image. A second embodiment will be described below. Note that the description of the configuration similar to that of the first embodiment is omitted.

図8は本実施形態を説明するためのフローチャートである。 FIG. 8 is a flow chart for explaining this embodiment.

ステップS801は、第1の実施形態のステップS802と同様に、制御回路101がレンズの情報の取得を行う。 In step S801, the control circuit 101 acquires lens information, as in step S802 of the first embodiment.

ステップS802で、制御回路101は、像倍率が単調減少か単調増加かを判断する。図9(a)は、本実施形態における像倍率が単調減少である様子を示す図であり、図9(b)は、本実施形態における像倍率が単調増加である様子を示す図である。制御回路101は、ステップS801で取得したレンズの情報に基づいて、像倍率とピント位置との関係を示す関数を分析する。図9(a)の曲線901ように、像倍率はピント位置が遠くなるにつれ、常に減少するのであれば、制御回路101は、像倍率が単調減少と判断する。逆に、図9(b)の曲線911ように、像倍率はピント位置が遠くなるにつれ、常に増加するのであれば、制御回路101は、像倍率が単調増加と判断する。ステップS802で、制御回路101は像倍率が単調減少と判断すれば、ステップS803へ、単調増加と判断すれば、ステップS804へ進む。 In step S802, the control circuit 101 determines whether the image magnification is monotonically decreasing or monotonously increasing. FIG. 9A is a diagram showing how the image magnification monotonically decreases in this embodiment, and FIG. 9B is a diagram showing how the image magnification monotonously increases in this embodiment. The control circuit 101 analyzes the function indicating the relationship between the image magnification and the focus position based on the lens information acquired in step S801. If the image magnification always decreases as the focal position becomes distant, as shown by the curve 901 in FIG. 9A, the control circuit 101 determines that the image magnification monotonously decreases. Conversely, if the image magnification always increases as the focus position becomes farther, as shown by the curve 911 in FIG. 9B, the control circuit 101 determines that the image magnification monotonously increases. In step S802, if the control circuit 101 determines that the image magnification is monotonically decreasing, the process proceeds to step S803. If it is determined that the image magnification is monotonously increasing, the process proceeds to step S804.

ステップS803で、制御回路101は、ピント位置の駆動方向を無限遠側に制限する。つまり、制御回路101は、後述するステップS806の本撮像開始後は、ピント位置の移動は図9(a)のように矢印904に沿ってピント位置902からピント位置903へ向かう方向に制限する。ピント位置が矢印904と逆の方向に移動すれば、後述するように警告を出す。 In step S803, the control circuit 101 limits the driving direction of the focus position to the infinity side. That is, the control circuit 101 restricts the movement of the focus position from the focus position 902 to the focus position 903 along the arrow 904 as shown in FIG. If the focus position moves in the direction opposite to arrow 904, a warning is given as will be described later.

ステップS804で、制御回路101は、ピント位置の駆動方向を至近側に制限する。つまり、制御回路101は、本撮像開始後は、ピント位置の移動は図9(b)のように矢印914に沿ってピント位置913からピント位置912へ向かう方向に制限し、ピント位置が矢印914と逆の方向に移動すれば、後述するように警告を出す。 In step S804, the control circuit 101 limits the driving direction of the focus position to the close side. In other words, the control circuit 101 restricts the movement of the focus position from the focus position 913 to the focus position 912 along the arrow 914 as shown in FIG. If it moves in the opposite direction, it issues a warning as described below.

ユーザは光学系103のピント位置を調整し、初期のピント位置に移動させる。ここでの初期のピント位置は、ユーザがライブビューまたは電子ファインダーを通じて被写体のボケ具合を注視しながら、任意な位置に設定することができる。ステップS805で、制御回路101は、ユーザから1枚目の本撮像の指示があったかどうかを判定し、本撮像の指示があればステップS806に進み、なければステップS805で待機する。 The user adjusts the focus position of the optical system 103 and moves it to the initial focus position. The initial focus position here can be set to any position while the user observes the degree of blurring of the subject through live view or an electronic viewfinder. In step S805, the control circuit 101 determines whether or not the user has given an instruction to take the first image.If so, the process proceeds to step S806.

ステップS806で、撮像素子104が、初期のピント位置で本撮像を行い、制御回路101は、このピント位置に対応する像倍率を取得する。ここで制御回路101が取得した像倍率は、第1の実施形態における「最大設定像倍率」に相当する。 In step S806, the image sensor 104 performs main imaging at the initial focus position, and the control circuit 101 acquires the image magnification corresponding to this focus position. The image magnification acquired by the control circuit 101 here corresponds to the "maximum set image magnification" in the first embodiment.

ステップS807で、制御回路101は、ユーザがピント位置をステップS803またはS804で制限した方向へ移動させているかどうかを判断する。たとえば、制御回路101は、ステップS802で像倍率が単調減少と判断し、ステップS803でピント位置の駆動方向を無限遠側に制限した場合、ピント位置が至近側へ移動していれば、ステップS807でディスプレイ108が警告を表示する。または、ディスプレイ108はステップS808で、ライブビュー画像を表示し、表示したライブビュー画像の上に警告を表示する。もしくは、デジタルカメラ100は警告音などを利用して警告を出してもよい。逆に、ステップS807で、ピント位置が無限遠側へ移動していれば、ステップS809に進む。 In step S807, control circuit 101 determines whether the user has moved the focus position in the direction restricted in step S803 or S804. For example, if the control circuit 101 determines in step S802 that the image magnification is monotonically decreasing and restricts the driving direction of the focus position to the infinity side in step S803, if the focus position has moved to the close side, step S807 display 108 displays a warning. Alternatively, display 108 displays the live-view image and displays the warning over the displayed live-view image in step S808. Alternatively, the digital camera 100 may issue a warning using a warning sound or the like. Conversely, if the focus position has moved to the infinity side in step S807, the process proceeds to step S809.

ステップS809で、画像処理回路107は、ライブビュー画像の補正を行う。ステップS807でピント位置の移動方向を制限することにより、ライブビュー画像の画角は初期のピント位置で本撮像した画像の画角より大きくなる。そのため、第1の実施形態のステップS205と同様に、画像処理回路107は、合成画像に表示されない部分を切り捨てるための拡大処理を行う。具体的な方法は、ステップS205と同様のため、省略する。 In step S809, the image processing circuit 107 corrects the live view image. By restricting the moving direction of the focus position in step S807, the angle of view of the live view image becomes larger than the angle of view of the image captured at the initial focus position. Therefore, as in step S205 of the first embodiment, the image processing circuit 107 performs enlargement processing to cut off portions that are not displayed in the composite image. A specific method is the same as step S205, and therefore omitted.

ステップS810で、ディスプレイ108は、ステップS809で画像処理回路107が補正した後のライブビュー画像を表示する。 In step S810, the display 108 displays the live view image corrected by the image processing circuit 107 in step S809.

ステップS811で、制御回路101は、操作部材110にユーザによる本撮像の指示があるかどうかを判断する。たとえば、ユーザが操作部材110に設けるボタンを押したかどうかを判断する。撮像の指示があれば、ステップS812に進み、撮像素子104が撮像し、撮像の指示がなければ、ステップS807に戻る。 In step S811, the control circuit 101 determines whether or not the operation member 110 is instructed by the user to perform actual imaging. For example, it is determined whether or not the user has pressed a button provided on the operation member 110 . If there is an instruction to take an image, the process proceeds to step S812, and the imaging device 104 takes an image. If there is no instruction to take an image, the process returns to step S807.

ステップS812で撮像素子104が本撮像した後、ステップS813、制御回路101は、撮像終了の指示があるかどうかについて判断する。ここで、たとえば、ユーザがステップS811でのボタンと別のボタンを押したかどうかを判断する。または、ユーザがタッチパネルを通じて、撮像終了の指示を与えたかどうか判断する。もしくは、ユーザが予め撮像枚数を定め、ステップS813で制御回路101は、定められた撮像枚数の画像を本撮像したかどうかについて判断し、定められた撮像枚数に達した場合は、撮像終了と判断する。ステップS813、制御回路101は、撮像終了と判断した場合は、ステップS814に進み、撮像終了でないと判断した場合は、ステップS807に戻る。 After the image sensor 104 performs the main imaging in step S812, in step S813, the control circuit 101 determines whether or not there is an instruction to end imaging. Here, for example, it is determined whether the user has pressed a button other than the button in step S811. Alternatively, it is determined whether or not the user has given an instruction to end imaging through the touch panel. Alternatively, the user predetermines the number of images to be captured, and in step S813, the control circuit 101 determines whether or not the determined number of images have been actually captured. do. In step S813, if the control circuit 101 determines that imaging has ended, the process proceeds to step S814, and if it determines that imaging has not ended, the process returns to step S807.

ステップ814で、画像処理回路107はステップS806およびS812で撮像素子104が本撮像した複数の画像を用いて合成を行う。合成の方法はステップS209と同様である。 In step 814, the image processing circuit 107 synthesizes a plurality of images captured by the image sensor 104 in steps S806 and S812. The combining method is the same as in step S209.

なお、以上の記述は、本実施形態の一例にすぎず、本実施形態は様々な変形をすることができる。たとえば、上記のステップS808で制御回路101は、ピント位置が制限方向でない方向に移動するときのみならず、ピント位置が隣接のピント位置の被写体深度の外に移動したときにも警告を出すように実施してもよい。または、第2の実施形態の図5に示したような画素500を持つ場合、第2の実施形態と同様に被写体検出を行い、ピント位置が光軸方向での被写体の距離の範囲から出ると、制御回路101は、警告を出すように実施してもよい。 The above description is merely an example of this embodiment, and this embodiment can be modified in various ways. For example, in step S808, the control circuit 101 issues a warning not only when the focus position moves in a non-limiting direction, but also when the focus position moves out of the depth of field of the adjacent focus position. may be implemented. Alternatively, when the pixels 500 shown in FIG. 5 of the second embodiment are provided, subject detection is performed in the same manner as in the second embodiment, and when the focus position goes out of the distance range of the subject in the optical axis direction, , the control circuit 101 may be implemented to issue a warning.

第2の実施形態によれば、ユーザがマニュアルで複数のピント位置で本撮像するとき、ピント位置の移動方向を制限することにより、初期のピント位置でユーザに合成画像に相当する画角を表示することができる。 According to the second embodiment, when the user manually takes an image at a plurality of focus positions, by restricting the movement direction of the focus position, the angle of view corresponding to the composite image is displayed to the user at the initial focus position. can do.

(その他の実施形態)
以上の実施形態は、デジタルカメラでの実施をもとに説明したが、デジタルカメラに限定するものではない。たとえば、撮像素子が内蔵した携帯機器などで実施してもよく、画像を撮像することができるネットワークカメラなどでもよい。
(Other embodiments)
Although the above embodiment has been described based on implementation in a digital camera, it is not limited to a digital camera. For example, it may be carried out by a mobile device having an image sensor built therein, or by a network camera capable of capturing an image.

なお、本発明は、上述の実施形態の1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し作動させる処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 In addition, the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device executes the program. can also be realized by a process of reading and operating the It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100 デジタルカメラ
101 制御回路
102 駆動機構
103 光学系
104 撮像素子
105 ROM
106 RAM
107 画像処理回路
108 ディスプレイ
109 内蔵メモリ
110 操作部材
100 Digital Camera 101 Control Circuit 102 Driving Mechanism 103 Optical System 104 Imaging Device 105 ROM
106 RAMs
107 image processing circuit 108 display 109 built-in memory 110 operation member

Claims (8)

撮像手段と、
ピント位置を変更できる光学系と、
制御手段と、を備え、
前記制御手段は、互いに前記ピント位置が異なる複数の画像であって、合成画像を生成するために用いられる複数の画像をあらかじめ定められた前記ピント位置で撮像するように、前記光学系と前記撮像手段とを制御し、
前記制御手段は、前記ピント位置が異なる複数の画像を撮像する前に、前記光学系と前記撮像手段を制御して前記撮像手段により撮像された画像を用いてライブビュー表示を行うように制御し、
前記制御手段は、前記合成画像の画角を示すように、前記ピント位置が異なる複数の画像を撮像する前の前記ライブビュー表示を制御することを特徴とする撮像装置。
imaging means;
An optical system that can change the focus position,
a control means;
The control means controls the optical system and the imaging unit so that a plurality of images having different focus positions and used for generating a composite image are captured at the predetermined focus positions. control means and
The control means controls the optical system and the image capturing means to perform live view display using the images captured by the image capturing means before capturing the plurality of images with different focus positions. ,
The image capturing apparatus, wherein the control means controls the live view display before capturing the plurality of images with different focus positions so as to indicate the angle of view of the composite image.
前記ピント位置が異なる複数の画像の画角は、前記ピント位置に応じて互いに異なる画角であり、
前記合成画像の画角は、前記ピント位置が異なる複数の画像の画角のうち最も狭い画角と等しいことを特徴とする請求項1に記載の撮像装置。
The angles of view of the plurality of images with different focus positions are angles of view that differ from each other according to the focus position,
2. The imaging apparatus according to claim 1, wherein the angle of view of said composite image is equal to the narrowest angle of view of the plurality of images with different focus positions.
前記撮像手段により撮像された、前記ピント位置が異なる複数の画像を用いて、前記合成画像を生成する画像処理手段を備えたことを特徴とする請求項1に記載の撮像装置。 2. The imaging apparatus according to claim 1, further comprising image processing means for generating said composite image using a plurality of images captured by said imaging means and having different focus positions. 前記制御手段は、前記合成画像の画角が前記ライブビュー表示のピント位置に対応した画角よりも狭くない場合、前記ライブビュー表示のピント位置に対応した画角を示すように前記ライブビュー表示を制御することを特徴とする請求項1から3の何れか1項に記載の撮像装置。 When the angle of view of the synthesized image is not narrower than the angle of view corresponding to the focus position of the live view display, the control means controls the live view display to indicate the angle of view corresponding to the focus position of the live view display. 4. The imaging apparatus according to any one of claims 1 to 3, characterized in that it controls the . 前記複数の画像は、光軸方向でのピント位置が異なることを特徴とする請求項1ないし4の何れか1項に記載の撮像装置。5. The imaging apparatus according to any one of claims 1 to 4, wherein the plurality of images have different focal positions in the optical axis direction. 撮像手段とピント位置を変更できる光学系とを備える撮像装置の制御方法であって、
制御ステップを有し、
前記制御ステップにおいては、互いに前記ピント位置が異なる複数の画像であって、合成画像を生成するために用いられる複数の画像をあらかじめ定められた前記ピント位置で撮像するように、前記光学系と前記撮像手段とを制御し、
前記ピント位置が異なる複数の画像を撮像する前に、前記光学系と前記撮像手段を制御して前記撮像手段により撮像された画像を用いてライブビュー表示を行うように制御し、
前記合成画像の画角を示すように、前記ピント位置が異なる複数の画像を撮像する前の前記ライブビュー表示を制御することを特徴とする制御方法。
A control method for an imaging device comprising imaging means and an optical system capable of changing a focus position,
having a control step,
In the control step, the optical system and the controlling the imaging means;
before capturing the plurality of images with different focus positions, controlling the optical system and the imaging means to perform live view display using the images captured by the imaging means;
A control method, comprising: controlling the live view display before capturing the plurality of images having different focus positions so as to indicate the angle of view of the composite image.
撮像手段とピント位置を変更できる光学系とを備える撮像装置の制御方法をコンピュータに動作させるプログラムであって、
制御ステップを有し、
前記制御ステップにおいては、互いに前記ピント位置が異なる複数の画像であって、合成画像を生成するために用いられる複数の画像をあらかじめ定められた前記ピント位置で撮像するように、前記光学系と前記撮像手段とを制御し、
前記ピント位置が異なる複数の画像を撮像する前に、前記光学系と前記撮像手段を制御して前記撮像手段により撮像された画像を用いてライブビュー表示を行うように制御し、
前記合成画像の画角を示すように、前記ピント位置が異なる複数の画像を撮像する前の前記ライブビュー表示を制御することを特徴とするプログラム。
A program for causing a computer to operate a control method for an imaging device comprising imaging means and an optical system capable of changing a focus position,
having a control step,
In the control step, the optical system and the controlling the imaging means;
before capturing the plurality of images with different focus positions, controlling the optical system and the imaging means to perform live view display using the images captured by the imaging means;
A program for controlling the live view display before capturing the plurality of images with different focus positions so as to indicate the angle of view of the composite image.
請求項7に記載のプログラムを記録したコンピュータ読み出し可能な記録媒体。A computer-readable recording medium recording the program according to claim 7 .
JP2021015467A 2021-02-03 2021-02-03 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, COMPUTER PROGRAM AND RECORDING MEDIUM Active JP7225281B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021015467A JP7225281B2 (en) 2021-02-03 2021-02-03 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, COMPUTER PROGRAM AND RECORDING MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021015467A JP7225281B2 (en) 2021-02-03 2021-02-03 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, COMPUTER PROGRAM AND RECORDING MEDIUM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016248205A Division JP6833498B2 (en) 2016-12-11 2016-12-21 Imaging device, imaging method and computer program

Publications (2)

Publication Number Publication Date
JP2021073813A JP2021073813A (en) 2021-05-13
JP7225281B2 true JP7225281B2 (en) 2023-02-20

Family

ID=75802594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021015467A Active JP7225281B2 (en) 2021-02-03 2021-02-03 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, COMPUTER PROGRAM AND RECORDING MEDIUM

Country Status (1)

Country Link
JP (1) JP7225281B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011007872A (en) 2009-06-23 2011-01-13 Olympus Corp Observation device and magnification correction method
JP2014137704A (en) 2013-01-16 2014-07-28 Nikon Corp Imaging device
JP2017098631A (en) 2015-11-18 2017-06-01 オリンパス株式会社 Image combination processing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011007872A (en) 2009-06-23 2011-01-13 Olympus Corp Observation device and magnification correction method
JP2014137704A (en) 2013-01-16 2014-07-28 Nikon Corp Imaging device
JP2017098631A (en) 2015-11-18 2017-06-01 オリンパス株式会社 Image combination processing device

Also Published As

Publication number Publication date
JP2021073813A (en) 2021-05-13

Similar Documents

Publication Publication Date Title
JP5779959B2 (en) Imaging device
US7509041B2 (en) Image-capturing device having multiple optical systems
JP6833498B2 (en) Imaging device, imaging method and computer program
US10511781B2 (en) Image pickup apparatus, control method for image pickup apparatus
JP2009225072A (en) Imaging apparatus
JP2009044669A (en) Digital camera system
JP7174120B2 (en) IMAGING DEVICE, PROGRAM, RECORDING MEDIUM, AND CONTROL METHOD
JP6529533B2 (en) Imaging device, control method of imaging device, and program
JP2008092440A (en) Camera, and image processing program
US20200154056A1 (en) Image processing apparatus for providing information for focus adjustment, control method of the same, and storage medium
JP6218385B2 (en) Interchangeable lens and imaging device
JP7225281B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, COMPUTER PROGRAM AND RECORDING MEDIUM
JP6961423B2 (en) Image processing equipment, imaging equipment, control methods for image processing equipment, programs and recording media
JP6828069B2 (en) Imaging equipment, imaging methods and programs
JP2009036987A (en) Photographing device and control method for photographing device
JP7458769B2 (en) Image processing device, imaging device, image processing method, program and recording medium
JP7337566B2 (en) IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
KR20130092213A (en) Digital photographing apparatus and control method thereof
JP2010268029A (en) Digital camera
JP5384173B2 (en) Auto focus system
JP2007057933A (en) Camera having electronic view finder
JP2009037084A (en) Photographing device and control method for photographing device
JP2023055075A (en) Imaging apparatus and method for controlling the same
JP2010193377A (en) Electronic camera
JP2024002631A (en) Image processing device, imaging apparatus, image processing method, computer program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230208

R151 Written notification of patent or utility model registration

Ref document number: 7225281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151