JP2024061309A - Image processing device, imaging device, image processing method, imaging method, program, and recording medium - Google Patents

Image processing device, imaging device, image processing method, imaging method, program, and recording medium Download PDF

Info

Publication number
JP2024061309A
JP2024061309A JP2022169170A JP2022169170A JP2024061309A JP 2024061309 A JP2024061309 A JP 2024061309A JP 2022169170 A JP2022169170 A JP 2022169170A JP 2022169170 A JP2022169170 A JP 2022169170A JP 2024061309 A JP2024061309 A JP 2024061309A
Authority
JP
Japan
Prior art keywords
imaging
angle
determination
synthesis
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022169170A
Other languages
Japanese (ja)
Inventor
大樹 宇佐美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022169170A priority Critical patent/JP2024061309A/en
Publication of JP2024061309A publication Critical patent/JP2024061309A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】 ユーザの意図した画角で画像を得ることを可能にした、画角変更を発生させない機能の切替える撮像方法を提供する。【解決手段】 本発明に係る画像処理装置は、画角を決定する決定手段と、前記決定手段が決定した前記画角に基づいて、予め定められた複数の合成方法のうちの1つを選んで複数の画像に対して合成を行い、合成画像を生成する合成手段と、を有することを特徴とする。【選択図】 図5[Problem] To provide an imaging method that switches functions without changing the angle of view, making it possible to obtain an image with the angle of view intended by the user. [Solution] The image processing device according to the present invention is characterized by having a determination means for determining the angle of view, and a synthesis means for selecting one of a plurality of predetermined synthesis methods based on the angle of view determined by the determination means, synthesizing a plurality of images, and generating a synthetic image. [Selected Figure] Figure 5

Description

本発明は、画像処理装置に関するものであり、特に画角の表示および合成を行う画像処理装置に関するものである。 The present invention relates to an image processing device, and in particular to an image processing device that displays and synthesizes an angle of view.

近年、デジタルカメラなどの画像処理装置において、自動的に画像に対して合成などの処理を行い、より画質のよい画像などを自動生成する技術が実用化されている。 In recent years, technology has been put into practical use in image processing devices such as digital cameras that automatically perform processes such as compositing on images to automatically generate images with better image quality.

ただし、合成を行った後に、画像の画角が変わってしまうことがしばしば発生する。たとえば、特許文献1に記載の技術では、被写界深度を深くするための合成、いわゆる深度合成において、合成画像の画角が合成に用いられる画像より狭くなることが開示されている。 However, it often happens that the angle of view of the images changes after compositing. For example, the technology described in Patent Document 1 discloses that in compositing to deepen the depth of field, known as depth compositing, the angle of view of the composite image becomes narrower than that of the images used in compositing.

また、HDR(ハイダイナミックレンジ)合成の技術においても、位置合わせのために合成後の画像の画角が狭くなることが考えられる。 In addition, even with HDR (high dynamic range) compositing technology, the angle of view of the composite image may become narrower due to alignment.

上記のように、合成を行う画像処理装置において、合成後の画像の画角が合成前よりも狭くなる。ライブビュー機能を使用するユーザにとって、合成後の画像の画角がフレーミング中の画角より狭くなり、意図していた画像を撮れなくなることがある。 As described above, in an image processing device that performs compositing, the angle of view of the composite image becomes narrower than that of the image before compositing. For users who use the live view function, the angle of view of the composite image becomes narrower than the angle of view during framing, and they may not be able to capture the image they intended.

特許文献2には、所定時間に一定の変化量で画角を変化させる技術が開示されている。 Patent document 2 discloses a technology that changes the angle of view by a fixed amount over a given period of time.

特開2020-96317号公報JP 2020-96317 A 特開2016-72663号公報JP 2016-72663 A

しかしながら、特許文献2に開示の方法では、画角の変化を緩やかにすることができるが、合成後の画角が狭くなるという課題が解決できない。 However, while the method disclosed in Patent Document 2 can make the change in the angle of view more gradual, it does not solve the problem of the angle of view becoming narrower after synthesis.

本発明は、上述した課題を鑑みてなされたものであり、設定した表示画角により合成方法が決められる画像処理装置を提供することを目的とする。 The present invention was made in consideration of the above-mentioned problems, and aims to provide an image processing device in which the synthesis method is determined based on the set display angle of view.

本発明は、画角を決定する決定手段と、前記決定手段が決定した前記画角に基づいて、予め定められた複数の合成方法のうちの1つを選んで複数の画像に対して合成を行い、合成画像を生成する合成手段と、を有することを特徴とする画像処理装置を提供する。 The present invention provides an image processing device that includes a determination means for determining an angle of view, and a synthesis means for selecting one of a plurality of predetermined synthesis methods based on the angle of view determined by the determination means, synthesizing a plurality of images using the selected synthesis method, and generating a synthetic image.

本発明の構成によれば、自動的に合成を行う画像処理装置において、設定した表示画角により合成方法を制限することができる。 According to the configuration of the present invention, in an image processing device that performs automatic compositing, the compositing method can be limited by the set display angle of view.

本発明の実施形態におけるデジタルカメラのハードウェア構成について説明するためのブロック図である。FIG. 1 is a block diagram illustrating a hardware configuration of a digital camera according to an embodiment of the present invention. 本発明の実施形態における深度合成画像をライブビューした際の表示部の表示画像を説明するための図である。11A and 11B are diagrams for explaining a display image on a display unit when a focus stacking image is live-viewed in an embodiment of the present invention. デジタルカメラが撮像した画像のズームを説明するための図である。FIG. 2 is a diagram for explaining zooming of an image captured by a digital camera. 本発明の実施形態におけるシーン判定の一例を説明するフローチャートである。10 is a flowchart illustrating an example of scene determination in an embodiment of the present invention. 本発明の実施形態における保存画角の表示を説明するための図である。11A and 11B are diagrams for explaining display of a saved angle of view in an embodiment of the present invention.

以下では、添付の図面を参照しながら、本発明の好適な実施形態について詳細に説明する。 The following describes in detail a preferred embodiment of the present invention with reference to the accompanying drawings.

尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Note that the following embodiments do not limit the scope of the invention as claimed, and not all of the combinations of features described in the embodiments are necessarily essential to the solution of the present invention.

図1は、本実施形態におけるデジタルカメラのハードウェア構成について説明するためのブロック図である。図1において、デジタルカメラ100は、シャッター101、バリア102、フォーカスレンズ103、撮像部22を含む撮像系を備える。シャッター101は、絞り機能を備えるシャッターである。バリア102は、デジタルカメラ100の撮像系を覆うことにより、撮像系の汚れや破損を防止する。フォーカスレンズ103は、シャッター101及びバリア102の間に配置される不図示のレンズ群に含まれるレンズである。尚、前述するレンズ群には、ズームレンズ等、他のレンズも存在する。撮像部22は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子、及びA/D変換処理機能を備えている。撮像部22の出力データ(撮像画像)は、画像処理部24及びメモリ制御部15を介して、あるいは、メモリ制御部15を介してメモリ32に直接書き込まれる。後述するフォーカスブラケット撮像の際には、設定枚数分の撮像画像が全てメモリ32に書き込まれる。 1 is a block diagram for explaining the hardware configuration of a digital camera in this embodiment. In FIG. 1, the digital camera 100 has an imaging system including a shutter 101, a barrier 102, a focus lens 103, and an imaging unit 22. The shutter 101 is a shutter with an aperture function. The barrier 102 covers the imaging system of the digital camera 100 to prevent the imaging system from becoming dirty or damaged. The focus lens 103 is a lens included in a lens group (not shown) arranged between the shutter 101 and the barrier 102. Note that the lens group described above also includes other lenses such as a zoom lens. The imaging unit 22 has an imaging element composed of a CCD or CMOS element that converts an optical image into an electrical signal, and an A/D conversion processing function. The output data (captured image) of the imaging unit 22 is written to the memory 32 via the image processing unit 24 and the memory control unit 15, or directly via the memory control unit 15. During focus bracketing imaging described later, all of the captured images up to the set number are written to the memory 32.

デジタルカメラ100は、更に、AF評価値検出部23、ストロボ90、画像処理部24、深度合成部25、動き検知部26、状態検出部27、メモリ32、D/A変換器13、表示部28、不揮発性メモリ56、システム制御部50、システムメモリ52、及びシステムタイマー53を備える。AF評価値検出部23は、撮像部22の内部にあってデジタル画像信号から得られるコントラスト情報などからAF評価値を算出し、得られたAF評価値を撮像部22からシステム制御部50に出力する。ストロボ90は、撮像時に発光させることにより低照度シーンでの撮像や逆光シーンでの撮像時に照度を補うことができる。画像処理部24は、撮像部22から出力される画像データ、又は、メモリ制御部15からの画像データに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAE(自動露出)処理、EF(フラッシュ自動調光発光)処理が行われる。また画像処理部24ではAF(オートフォーカス)処理が行われるが、このとき撮像部22に備えるAF評価値検出部23の出力が用いられることもある。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。 The digital camera 100 further includes an AF evaluation value detection unit 23, a strobe 90, an image processing unit 24, a depth stacking unit 25, a motion detection unit 26, a state detection unit 27, a memory 32, a D/A converter 13, a display unit 28, a non-volatile memory 56, a system control unit 50, a system memory 52, and a system timer 53. The AF evaluation value detection unit 23 is located inside the imaging unit 22 and calculates an AF evaluation value from contrast information obtained from a digital image signal, and outputs the obtained AF evaluation value from the imaging unit 22 to the system control unit 50. The strobe 90 can compensate for illuminance when imaging in a low-illumination scene or a backlit scene by emitting light during imaging. The image processing unit 24 performs resizing processing such as predetermined pixel interpolation and reduction and color conversion processing on the image data output from the imaging unit 22 or the image data from the memory control unit 15. In addition, the image processing unit 24 performs predetermined calculation processing using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation results. This allows TTL (through-the-lens) AE (automatic exposure) processing and EF (automatic flash light emission) processing to be performed. The image processing unit 24 also performs AF (autofocus) processing, and the output of the AF evaluation value detection unit 23 provided in the imaging unit 22 may be used at this time. The image processing unit 24 also performs a predetermined calculation process using the captured image data, and performs TTL AWB (auto white balance) processing based on the obtained calculation results.

深度合成部25は、撮像部22においてフォーカスブラケット撮像によって得られた複数枚の撮像画像を用いて、各画像内においてピントの合っている画素を出力することにより、被写界深度が拡大された画像を生成する。詳細は後述する。 The depth stacking unit 25 uses multiple captured images obtained by focus bracketing imaging in the imaging unit 22 to generate an image with an extended depth of field by outputting pixels that are in focus in each image. Details will be described later.

動き検知部26は、2枚の画像データを用い、注目領域とその周辺とでテンプレートマッチング処理を行い、画像を複数領域に分割した領域毎、もしくは、画素ごとに動きベクトルを算出する。算出した動きベクトルが閾値以上である場合、被写体に動きがあると検出し、システム制御部50へ通知する。状態検出部27は、ジャイロセンサによる角速度や、三脚の着脱状態、操作部70を介したユーザによる設定内容など、デジタルカメラ100の状態検出を行う。検出した結果をシステム制御部50へ通知する。 The motion detection unit 26 uses two pieces of image data to perform template matching processing between the area of interest and its surroundings, and calculates a motion vector for each area into which the image is divided, or for each pixel. If the calculated motion vector is equal to or greater than a threshold, it detects that there is motion in the subject, and notifies the system control unit 50. The status detection unit 27 detects the status of the digital camera 100, such as the angular velocity from the gyro sensor, the attachment/detachment status of the tripod, and the settings made by the user via the operation unit 70. The detection results are notified to the system control unit 50.

メモリ32は、撮像部22によって取得およびA/D変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器13は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器13を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器13からのアナログ信号に応じた表示を行う。撮像部22で一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器13においてアナログ変換し、表示部28に逐次転送して表示することで、電子ビューファインダとして機能し、スルー画像表示(以降、ライブビューと言う)を行える。不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばフラッシュメモリ等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、後述の第1、2の実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。 The memory 32 stores image data acquired and A/D converted by the imaging unit 22, and image data to be displayed on the display unit 28. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, a predetermined period of moving images, and sound. The memory 32 also serves as a memory for displaying images (video memory). The D/A converter 13 converts the image display data stored in the memory 32 into an analog signal and supplies it to the display unit 28. In this way, the image data for display written in the memory 32 is displayed by the display unit 28 via the D/A converter 13. The display unit 28 performs display according to the analog signal from the D/A converter 13 on a display such as an LCD. The digital signal once A/D converted by the imaging unit 22 and stored in the memory 32 is converted to analog by the D/A converter 13, and is sequentially transferred to the display unit 28 for display, thereby functioning as an electronic viewfinder and performing through image display (hereinafter referred to as live view). The non-volatile memory 56 is an electrically erasable and recordable memory, and for example, a flash memory or the like is used. The non-volatile memory 56 stores constants, programs, etc. for the operation of the system control unit 50. The programs referred to here are programs for executing various flowcharts described later in the first and second embodiments.

システム制御部50は、デジタルカメラ100全体を制御する。具体的には、前述した不揮発性メモリ56に記録されたプログラムを実行することで、被写体情報、被写体距離、および、画像のコントラスト情報に基づくフォーカスブラケット撮像を実現する。すなわち、システム制御部50は、かかる撮像の間、フォーカスレンズ103やシャッター101の駆動制御を行うことで、ピント位置が異なる複数の画像が順次撮像される。尚、かかる撮像処理で得られる隣接する撮像画像間のピント位置変化量(フォーカスステップ)は、システム制御部50にて算出される値から設定される。 The system control unit 50 controls the entire digital camera 100. Specifically, by executing the program recorded in the non-volatile memory 56 described above, focus bracketing imaging based on subject information, subject distance, and image contrast information is realized. That is, during this imaging, the system control unit 50 controls the drive of the focus lens 103 and the shutter 101, so that multiple images with different focus positions are captured sequentially. The amount of change in focus position (focus step) between adjacent captured images obtained by this imaging process is set from a value calculated by the system control unit 50.

システムメモリ52は、RAM等により構成され、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読出したプログラム等を展開する。また、システム制御部はメモリ32、D/A変換器13、表示部28等を制御することにより表示制御も行う。システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。 The system memory 52 is composed of RAM etc., and expands constants and variables for the operation of the system control unit 50, programs read from the non-volatile memory 56, etc. The system control unit also performs display control by controlling the memory 32, D/A converter 13, display unit 28 etc. The system timer 53 is a timing unit that measures the time used for various controls and the time of the built-in clock.

デジタルカメラ100は、また、モード切替スイッチ60、シャッターボタン61、第1シャッタースイッチ64、第2シャッタースイッチ62、操作部70、電源スイッチ72からなる、システム制御部50に各種の動作指示を入力するための操作手段を備える。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画記録モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮像モード、オートシーン判別モード、マニュアルモード、撮像シーン別の撮像設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ60で、静止画撮像モードに含まれるこれらのモードのいずれかに直接切り替えられる。あるいは、モード切替スイッチ60で静止画撮像モードに一旦切り換えた後に、静止画撮像モードに含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮像モードにも複数のモードが含まれていてもよい。シャッターボタン61は、撮像指示を行うための操作部である。第1シャッタースイッチ64は、シャッターボタン61の操作途中、いわゆる半押しでONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュ自動調光発光)処理等の動作を開始する。つまり、システム制御部50の制御のもとで、撮像のためのパラメータを取得する。尚、ユーザは、信号SW1を受けて開始するAF処理として中央1点AF処理や顔AF処理を選択することが可能である。ここで、中央1点AF処理とは撮像画面内の中央位置1点に対してAFを行う処理を指し、顔AF処理とは顔検出機能によって検出された撮像画面内の顔に対してAFを行う処理を指す。第2シャッタースイッチ62は、シャッターボタン61の操作完了、いわゆる全押し(撮像指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読出しから記録媒体200に画像データを書き込むまでの一連の撮像処理の動作を開始する。操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。電源スイッチ72は、デジタルカメラ100の電源オン、電源オフを切り替える。 The digital camera 100 also includes an operating unit for inputting various operation instructions to the system control unit 50, which is composed of a mode changeover switch 60, a shutter button 61, a first shutter switch 64, a second shutter switch 62, an operation unit 70, and a power switch 72. The mode changeover switch 60 switches the operation mode of the system control unit 50 to one of a still image recording mode, a video recording mode, a playback mode, etc. Modes included in the still image recording mode include an auto imaging mode, an auto scene discrimination mode, a manual mode, various scene modes in which the imaging settings are made for each imaging scene, a program AE mode, a custom mode, etc. The mode changeover switch 60 directly switches to one of these modes included in the still image imaging mode. Alternatively, after switching to the still image imaging mode once with the mode changeover switch 60, it may be possible to switch to one of these modes included in the still image imaging mode using other operating members. Similarly, the video imaging mode may also include multiple modes. The shutter button 61 is an operating unit for issuing imaging instructions. The first shutter switch 64 is turned on by half-pressing the shutter button 61 during its operation, and generates a first shutter switch signal SW1. The first shutter switch signal SW1 starts operations such as AF (autofocus) processing, AE (auto exposure) processing, AWB (auto white balance) processing, and EF (auto flash light control) processing. That is, under the control of the system control unit 50, parameters for imaging are acquired. The user can select center one-point AF processing or face AF processing as the AF processing to be started upon receiving the signal SW1. Here, center one-point AF processing refers to processing to perform AF on one point at the center position in the imaging screen, and face AF processing refers to processing to perform AF on a face in the imaging screen detected by the face detection function. The second shutter switch 62 is turned ON when the shutter button 61 is operated, that is, fully pressed (imaging instruction), and generates a second shutter switch signal SW2. The system control unit 50 starts a series of imaging processing operations from reading a signal from the imaging unit 22 to writing image data to the recording medium 200 by the second shutter switch signal SW2. Each operating member of the operating unit 70 is assigned a function appropriate for each situation by selecting and operating various functional icons displayed on the display unit 28, and acts as various function buttons. Examples of function buttons include an end button, a back button, an image forward button, a jump button, a filter button, and an attribute change button. For example, when the menu button is pressed, a menu screen in which various settings can be made is displayed on the display unit 28. The user can intuitively make various settings using the menu screen displayed on the display unit 28, the four directional buttons (up, down, left, and right), and the SET button. The power switch 72 switches the power of the digital camera 100 on and off.

デジタルカメラ100は、更に、電源制御部80、電源部40、及び記録媒体I/F18を備える。電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部40は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮像された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスクなどから構成される。 The digital camera 100 further comprises a power supply control unit 80, a power supply unit 40, and a recording medium I/F 18. The power supply control unit 80 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching between blocks to be energized, and the like, and detects whether a battery is attached, the type of battery, and the remaining battery power. The power supply control unit 80 also controls the DC-DC converter based on the detection results and instructions from the system control unit 50, and supplies the necessary voltage to each unit including the recording medium 200 for the necessary period. The power supply unit 40 is composed of primary batteries such as alkaline batteries and lithium batteries, secondary batteries such as NiCd batteries, NiMH batteries, and Li batteries, and an AC adapter. The recording medium I/F 18 is an interface with the recording medium 200 such as a memory card or a hard disk. The recording medium 200 is a recording medium such as a memory card for recording captured images, and is composed of a semiconductor memory, a magnetic disk, and the like.

次に、本実施形態における合成機能の1つである深度合成のためのフォーカスブラケット撮像について説明する。 Next, we will explain focus bracketing imaging for depth stacking, which is one of the synthesis functions in this embodiment.

図2は、本実施形態における深度合成画像をライブビューした際の表示部の表示画像を説明するための図である。位置201はAF枠で明示されたフォーカスブラケット撮像の至近側ピント位置、位置202は無限遠側ピント位置、位置203は被写体(昆虫)である。表示部28に表示されるのは、至近側ピント位置201を示すAF枠および被写体203である。ユーザが操作部70を操作し、表示部28に表示された画像上における基準ピント位置を指定する。あるいは、AF評価値検出部23によって検出された被写体に対し、自動で基準ピント位置を指定してもよい。図2においては、被写体203の最も至近側の箇所を基準ピント位置として指定されたものとする。これにより、システム制御部50は、指定された基準ピント位置を、フォーカスブラケット撮像の至近側ピント位置201と認識し、その場所にAF枠を表示する。至近側ピント位置201が決定されると、Z軸方向(奥行き方向)に、フォーカスステップの設定に応じたフォーカス間隔、および、1枚の深度合成画像を生成するための撮像回数によって、フォーカスブラケット撮像が終了するピント位置、すなわち、無限遠側ピント位置202が決まる。図2においては、被写体203の全体が、至近側ピント位置201から無限遠側ピント位置202で示すフォーカス範囲に収まるものとする。また、1枚の深度合成画像を生成するための撮像回数は10回として図示しており、深度合成部25は10枚の撮像画像を用いて深度合成処理を施すものとする。 FIG. 2 is a diagram for explaining a display image on the display unit when a depth stacking image in this embodiment is live-viewed. Position 201 is the close-side focus position of focus bracketing imaging indicated by an AF frame, position 202 is the infinity-side focus position, and position 203 is the subject (insect). The AF frame indicating the close-side focus position 201 and the subject 203 are displayed on the display unit 28. The user operates the operation unit 70 to specify a reference focus position on the image displayed on the display unit 28. Alternatively, the reference focus position may be automatically specified for the subject detected by the AF evaluation value detection unit 23. In FIG. 2, the closest location of the subject 203 is specified as the reference focus position. As a result, the system control unit 50 recognizes the specified reference focus position as the close-side focus position 201 of focus bracketing imaging and displays the AF frame at that location. Once the closest focus position 201 is determined, the focus position where focus bracketing imaging ends, i.e., the infinity focus position 202, is determined in the Z-axis direction (depth direction) based on the focus interval according to the focus step setting and the number of images captured to generate one depth composite image. In FIG. 2, the entire subject 203 is assumed to fall within the focus range indicated by the closest focus position 201 to the infinity focus position 202. Also, the number of images captured to generate one depth composite image is illustrated as 10, and the depth stacking unit 25 performs depth stacking processing using 10 captured images.

次は、深度合成の処理の一例について説明する。 Next, we'll explain an example of the depth stacking process.

まず、画像処理部24は、深度合成の対象の画像に対して、位置合わせを行う。画像処理部24は、深度合成の対象の複数の画像のうちの1枚である基準画像に、複数のブロックを設定する。画像処理部24は、各々のブロックのサイズが同じになるように設定することが好ましい。次に、画像処理部24は、位置合わせの対象画像の、基準画像のそれぞれのブロックと同じ位置に、基準画像のブロックよりも広い範囲を、探索範囲を設定する。最後に、画像処理部24は、対象画像のそれぞれの探索範囲に、基準画像のブロックとの輝度の差分絶対値和(Sum of Absolute Difference、以下、SADをいう)が最小となる対応点を算出する。画像処理部24は、基準画像のブロックの中心と前述した対応点から、位置のずれをベクトルとして算出する。画像処理部241は、前述する対応点の算出において、SADのほかに、差分二乗和(Sum of Squared Difference、以下SSDをいう)や正規化相互相関(Normalized Cross Correlation、以下NCCをいう)などを用いてもよい。 First, the image processing unit 24 performs position alignment on the image to be subjected to depth stacking. The image processing unit 24 sets a plurality of blocks in a reference image, which is one of the plurality of images to be subjected to depth stacking. It is preferable that the image processing unit 24 sets the size of each block to be the same. Next, the image processing unit 24 sets a search range in the image to be subjected to position alignment, which is wider than the block of the reference image, at the same position as each block of the reference image. Finally, the image processing unit 24 calculates a corresponding point in each search range of the target image, which has a minimum sum of absolute difference (SAD) in brightness with the block of the reference image. The image processing unit 24 calculates the positional deviation as a vector from the center of the block of the reference image and the corresponding point described above. In calculating the corresponding points described above, the image processing unit 241 may use, in addition to SAD, the sum of squared differences (hereinafter referred to as SSD) or normalized cross correlation (hereinafter referred to as NCC), etc.

つぎに、画像処理部24は、基準画像と対象画像との位置のずれ量から変換係数を算出する。画像処理部24は、変換係数として、例えば射影変換係数を用いる。ただし、変換係数として射影変換係数だけに限定するわけではなく、アフィン変換係数や水平垂直シフトのみの簡略化した変換係数を用いてもよい。 Next, the image processing unit 24 calculates a conversion coefficient from the amount of positional deviation between the reference image and the target image. The image processing unit 24 uses, for example, a projection transformation coefficient as the conversion coefficient. However, the conversion coefficient is not limited to the projection transformation coefficient, and an affine transformation coefficient or a simplified conversion coefficient that only includes a horizontal and vertical shift may be used.

たとえば、画像処理部24は、(式1)に示した式を用いて変形を行うことができる。 For example, the image processing unit 24 can perform the transformation using the formula shown in (Formula 1).

Figure 2024061309000002

(式1)では、(x´,y´)は変形を行った後の座標を示し、(x,y)は変形を行う前の座標を示す。行列Aは変形係数を示す。
Figure 2024061309000002

In (Equation 1), (x', y') indicates the coordinates after transformation, and (x, y) indicates the coordinates before transformation. Matrix A indicates the transformation coefficients.

位置合わせの後に、深度合成部25は、位置合わせの後の画像に対してコントラスト値を算出する。 After alignment, the depth stacking unit 25 calculates a contrast value for the image after alignment.

コントラスト値の算出方法の一例としては、たとえば、まず、それぞれの画素の色信号Sr、Sg、Sbから、下記の(式2)を用いて輝度Yを算出する。
Y=0.299Sr+0.587Sg+0.114Sb・・・(式2)
次に、3×3の画素の輝度Yの行列Lに、下記の(式3)乃至(式5)に示したように、ソーベルフィルタを用いてコントラスト値Iを算出する。
As an example of a method for calculating the contrast value, for example, first, a luminance Y is calculated from the color signals Sr, Sg, and Sb of each pixel using the following (Equation 2).
Y = 0.299Sr + 0.587Sg + 0.114Sb ... (Equation 2)
Next, a contrast value I is calculated for a matrix L of luminance Y of 3×3 pixels using a Sobel filter as shown in the following (Equation 3) to (Equation 5).

Figure 2024061309000003
Figure 2024061309000003

Figure 2024061309000004
Figure 2024061309000004

Figure 2024061309000005
Figure 2024061309000005

また、上述のコントラスト値の計算方法は一例にすぎず、たとえば、使用するフィルタをラプラシアンフィルタ等のエッジ検出フィルタや所定の帯域を通過するバンドパスフィルタを用いることも可能である。 The above-mentioned method of calculating the contrast value is merely one example. For example, it is also possible to use an edge detection filter such as a Laplacian filter or a bandpass filter that passes through a specified band.

次に、深度合成部25は合成マップを生成する。合成マップの生成方法としては、深度合成部25は、それぞれの画像の同じ位置にある画素のコントラスト値を比較し、コントラスト値の大きさに応じた合成比率を算出する。 Next, the depth stacking unit 25 generates a synthesis map. To generate the synthesis map, the depth stacking unit 25 compares the contrast values of pixels at the same position in each image and calculates a synthesis ratio according to the magnitude of the contrast value.

具体的な算出方法の一例を以下に示す。 An example of a specific calculation method is shown below.

深度合成部25は、コントラスト値Cm(x,y)を用いて合成マップAm(x,y)を生成する。なお、mはピント位置の異なる複数画像のうちm番目の画像、xは画像の水平座標、yは垂直座標を示している。合成マップの生成方法としては、深度合成部25は、それぞれの画像の同じ位置にある画素のコントラスト値を比較し、コントラスト値の大きさに応じた合成比率を算出する。具体的に、同じ位置にある画像のうち、コントラスト値の最も大きい画素に対して100%の合成比率を与え、同じ位置にある他の画素に対して0%の合成比率を与える。つまり、次の(式6)が成り立つ。 The depth stacking unit 25 generates a synthesis map Am(x,y) using the contrast value Cm(x,y). Here, m is the mth image among multiple images with different focus positions, x is the horizontal coordinate of the image, and y is the vertical coordinate. To generate the synthesis map, the depth stacking unit 25 compares the contrast values of pixels at the same position in each image and calculates a synthesis ratio according to the magnitude of the contrast value. Specifically, among the images at the same position, a synthesis ratio of 100% is assigned to the pixel with the largest contrast value, and a synthesis ratio of 0% is assigned to other pixels at the same position. In other words, the following (Equation 6) holds.

Figure 2024061309000006
Figure 2024061309000006

ただし、境界部が不自然にならないように合成比率を適宜調整する必要がある。その結果、1枚の画像における合成マップの合成比率は、0%と100%との二値化のものでなく、連続的に変化するものになる。調整した後の合成比率が、Bm(x,y)である。 However, the blending ratio must be adjusted appropriately so that the boundaries do not look unnatural. As a result, the blending ratio of the blending map for one image is not a binary ratio of 0% and 100%, but rather changes continuously. The blending ratio after adjustment is Bm(x, y).

深度合成部257は、算出した合成マップに従い、撮像された画像を合成した全焦点画像О(x,y)を生成する。撮像された元の画像をIm(x,y)とすると、以下の(式7)で画像が生成される。 The depth stacking unit 257 generates an all-focus image O(x, y) by synthesizing the captured images according to the calculated synthesis map. If the captured original image is Im(x, y), the image is generated by the following (Equation 7).

Figure 2024061309000007
Figure 2024061309000007

以上は、深度合成の処理の一例についての説明である。 The above is an explanation of one example of the depth stacking process.

次に、本実施形態における合成処理の流れについて説明する。 Next, we will explain the flow of the synthesis process in this embodiment.

図3は、本実施形態における合成処理を説明するフローチャートである。図3に示したフローチャートでは、デジタルカメラ100が撮像する際に、決定した画角に基づいて、選択できる機能を特定し、選択できる機能のうちの1つを実行することについて示している。選択できる機能の例としては、通常撮像、HDR合成撮像、深度合成撮像などがあげられる。 Figure 3 is a flowchart explaining the composition process in this embodiment. The flowchart shown in Figure 3 shows that when the digital camera 100 captures an image, it identifies selectable functions based on the determined angle of view, and executes one of the selectable functions. Examples of selectable functions include normal imaging, HDR composition imaging, and depth composition imaging.

ステップ301で、システム制御部50はユーザが操作部70での操作に基づいて、画角を決める。ユーザが、たとえば、全画面の10割、8割、7割または6割を、保存したい画像の画角として設定する。つまり、たとえば、ユーザが6割を設定した場合、ユーザが最終的に保存したい合成画像の画角は、ライブビューで見た画像の画角の6割であることを意味する。 In step 301, the system control unit 50 determines the angle of view based on the user's operation on the operation unit 70. The user sets, for example, 100%, 80%, 70%, or 60% of the entire screen as the angle of view of the image that the user wants to save. In other words, for example, if the user sets it to 60%, this means that the angle of view of the composite image that the user ultimately wants to save will be 60% of the angle of view of the image viewed in live view.

ユーザが画角を設定する方法としては、たとえば以下のものが考えられる。 The following are some examples of ways that a user can set the angle of view:

たとえば、予め保存画角の選択肢を不揮発性メモリ56に複数設け、ユーザが選択する構成をとってもよい。この時、ステップS302における切替可能機能の数が最大となる画角、あるいはステップS303において実施しない処理が最少となる画角をデフォルト値として備えてもよい。 For example, multiple options for the saved angle of view may be provided in advance in the non-volatile memory 56, and the user may select one. In this case, the angle of view that maximizes the number of switchable functions in step S302, or the angle of view that minimizes the number of processes that are not performed in step S303 may be provided as a default value.

また、表示部28は保存画角表示手段と操作部70のユーザ操作によって保存領域を指定してもよい。図5は、本実施形態における保存画角の表示を説明するための図である。画像501あるいは画像503あるいは画像505のような複数の表示形式を有してもよい。画像501における領域502は保存画角境界を表す。画像503および画像505における、領域504、領域506は保存されない領域を示しており、領域504は半透明、領域506は黒を被せることを表す。表示形式をユーザのフレーミングを妨げない形式に選択し、切り替えてもよい。画角決定の方法に関して、例えば画像501のように枠の内側を保存画角とする表示手段を有する場合、ユーザはタッチパネルを介してピンチ操作を行い、枠のサイズを拡大縮小することで、指定してもよい。また、各種ボタンに拡大縮小機能を割り当てて指定してもよい。 The display unit 28 may specify the saved area by the saved angle display means and the user's operation of the operation unit 70. FIG. 5 is a diagram for explaining the display of the saved angle of view in this embodiment. There may be a plurality of display formats such as image 501, image 503, or image 505. Area 502 in image 501 represents the saved angle of view boundary. Areas 504 and 506 in images 503 and 505 indicate areas that are not saved, with area 504 being semi-transparent and area 506 being covered with black. The display format may be selected and switched to a format that does not interfere with the user's framing. Regarding the method of determining the angle of view, for example, in the case of image 501, when the display means has a display means that sets the inside of the frame as the saved angle of view, the user may specify the angle by performing a pinch operation via the touch panel to enlarge or reduce the size of the frame. Also, the enlargement and reduction functions may be assigned to various buttons.

ステップ302で、システム制御部50は、ステップS301で決めた画角に基づいて、切替可能機能を特定する。切替可能機能とは、前述した通常撮像、HDR合成撮像、深度合成撮像などであり、これらに限らない。 In step S302, the system control unit 50 identifies a switchable function based on the angle of view determined in step S301. The switchable functions include, but are not limited to, the normal imaging, HDR composite imaging, and depth stacking imaging described above.

ステップ302において、システム制御部50は撮像部22で撮像した対象画像間で位置合わせした際の重複領域における保存可能領域が、ステップS301でシステム制御部50が決定した画角を満たすことができる機能を切替可能機能と判定する。また、深度合成機能に関して、ステップS301でシステム制御部50が決定した保存画角が広いほど、位置合わせ基準画像からの合成対象画像群のずれ量が小さい時のみ合成可能という位置あわせ精度に対する制約が強くなる。つまり、深度合成の場合、合成枚数が減少することによって被写界深度が浅くなりやすいという特徴を有する。本実施形態の一例として、下記の表1のように切替可能機能判定をしてもよい。 In step 302, the system control unit 50 determines that a switchable function is a function that can satisfy the angle of view determined by the system control unit 50 in step S301 for the storable area in the overlapping area when the target images captured by the imaging unit 22 are aligned. In addition, with regard to the depth stacking function, the wider the saved angle of view determined by the system control unit 50 in step S301, the stronger the constraints on alignment accuracy, in that compositing is only possible when the deviation of the compositing target images from the alignment reference image is small. In other words, depth stacking has the characteristic that the depth of field tends to become shallower as the number of images combined decreases. As an example of this embodiment, the switchable function determination may be made as shown in Table 1 below.

Figure 2024061309000008
Figure 2024061309000008

表1における制約強の場合、位置あわせ精度が良い(ずれ量が小さい)時のみ合成可能のため、合成画像の被写界深度がより浅くなる。制約弱の場合、位置あわせ精度が悪い(ずれ量が大きい)時でも合成可能のため、合成画像の被写界深度がより深くなる。 In the case of strong constraints in Table 1, synthesis is possible only when the alignment accuracy is good (the amount of misalignment is small), so the depth of field of the synthesized image is shallower. In the case of weak constraints, synthesis is possible even when the alignment accuracy is poor (the amount of misalignment is large), so the depth of field of the synthesized image is deeper.

ステップS303で、システム制御部50は、撮像部22が撮像したライブビューのための画像などに対して、シーン判定を行う。シーン判定の詳細について後述する。 In step S303, the system control unit 50 performs scene determination on images for live view captured by the imaging unit 22. Details of scene determination will be described later.

ステップS304で、システム制御部50は、ステップS302で特定した切替可能機能のうち、実際に後述するステップS307で実施する機能を決める。ステップS304でシステム制御部50が機能を決めるのにあたって、ステップS303でのシーン判定の結果を、または、ユーザが操作部70での操作を、またはその両方をもとに決めてよい。 In step S304, the system control unit 50 determines which of the switchable functions identified in step S302 will actually be implemented in step S307 (described later). When the system control unit 50 determines the function in step S304, the determination may be based on the result of the scene determination in step S303, or on the user's operation on the operation unit 70, or on both.

ステップS305で、システム制御部50はライブビュー中にAF評価値検出部23、動き検知部26、あるいは状態検出部27の出力結果に関する評価値が予め定められた閾値より大きい変化があった場合に、フローがステップS302に戻る。そうでなければ、フローがステップS306に進む。 In step S305, if the system control unit 50 detects a change in the evaluation value relating to the output result of the AF evaluation value detection unit 23, the motion detection unit 26, or the state detection unit 27 during live view that is greater than a predetermined threshold, the flow returns to step S302. If not, the flow proceeds to step S306.

ステップS306で、システム制御部50は第2シャッタースイッチ62からの信号SW2をうけて静止画記録モードに切り替える。 In step S306, the system control unit 50 receives the signal SW2 from the second shutter switch 62 and switches to the still image recording mode.

ステップS307において、システム制御部50は静止画記録モードに含まれる機能の中からステップS304でシステム制御部50が選択した機能を実施する。ステップS307でシステム制御部50がたとえば前述した深度合成などが選ばれた場合選ばれた機能を実施する。 In step S307, the system control unit 50 performs the function selected by the system control unit 50 in step S304 from among the functions included in the still image recording mode. If the system control unit 50 selects, for example, the aforementioned focus stacking in step S307, the selected function is performed.

次に、ステップS303におけるシーン判定の一例について詳しく説明する。 Next, an example of scene determination in step S303 will be described in detail.

図4は、本実施形態におけるシーン判定の一例を説明するフローチャートである。以下での説明は、あくまでも本実施形態を実施するための一例である。 Figure 4 is a flowchart that explains an example of scene determination in this embodiment. The following explanation is merely an example for implementing this embodiment.

ステップS401で、システム制御部50が動体検知を行う。システム制御部50が動体を検知した場合、フローがステップS408に進み、ステップS304で通常撮像に切り替える。システム制御部50が動体を検知しなかった場合、フローがステップS402に進み、輝度に関する明暗判定を行う。ステップS402で、システム制御部50が画像の輝度を輝度に関する閾値と比較する。画像の輝度が閾値より小さい場合、フローがステップS405に進み、ステップS304でHDR撮像に切り替える。画像の輝度が閾値以上の場合、フローがステップS403に進む。ステップS403で、システム制御部50は画像がマクロレンズで撮像されたかどうかを判定する。マクロレンズで撮像された場合、フローがステップS407に進み、システム制御部50がステップS304で深度合成のための撮像に切り替える。マクロレンズで撮像されたのでなければ、フローがステップS404に進む。ステップS404で、システム制御部50は画像の明暗差が明暗差に関する閾値と比較する。画像の明暗差が閾値より小さい場合、フローがステップS406に進み、システム制御部50がステップS304で通常撮像に切り替える。画像の明暗差が閾値以上であれば、システム制御部50がステップS304でHDR撮像に切り替える。 In step S401, the system control unit 50 performs moving object detection. If the system control unit 50 detects a moving object, the flow proceeds to step S408, and switches to normal imaging in step S304. If the system control unit 50 does not detect a moving object, the flow proceeds to step S402, and performs a brightness determination. In step S402, the system control unit 50 compares the brightness of the image with a brightness threshold. If the brightness of the image is less than the threshold, the flow proceeds to step S405, and switches to HDR imaging in step S304. If the brightness of the image is equal to or greater than the threshold, the flow proceeds to step S403. In step S403, the system control unit 50 determines whether the image was captured with a macro lens. If the image was captured with a macro lens, the flow proceeds to step S407, and the system control unit 50 switches to imaging for depth stacking in step S304. If the image was not captured with a macro lens, the flow proceeds to step S404. In step S404, the system control unit 50 compares the brightness difference of the image with a brightness difference threshold. If the contrast between the images is less than the threshold, the flow proceeds to step S406, and the system control unit 50 switches to normal imaging in step S304. If the contrast between the images is greater than or equal to the threshold, the system control unit 50 switches to HDR imaging in step S304.

以上のシーン判定のフローはあくまでも一例にすぎず、様々な変形を適用して実施することができる。また、上記のシーン判定において、ユーザの設定などにより特定の機能を切替不可機能として、ステップS304での切り替えを制限することも考えられる。たとえば、図4に示したフローの場合、深度合成が切替不可とした場合、ステップS303のシーン判定において、ステップS402からステップS403へ遷移するフローにおいて、ステップS403の判定は実施されず、ステップS404へ遷移する。もう一例として、HDR撮像が切替不可とした場合、ステップS303のシーン判定において、ステップS401からステップS402へ遷移するフローにおいて、ステップS402の判定は実施されず、ステップS403へ遷移する。また、ステップS403からステップS404へ遷移するフローにおいて、ステップS404の判定は実施されず、ステップS406へ遷移する。ただし、以上の記載もあくまでも一例であり、設計上様々な変形が適用できる。 The above scene determination flow is merely an example, and various modifications can be applied. In addition, in the above scene determination, it is also possible to restrict switching in step S304 by setting a specific function as a non-switchable function by user settings, etc. For example, in the case of the flow shown in FIG. 4, if depth stacking is non-switchable, in the scene determination of step S303, in the flow transitioning from step S402 to step S403, the determination of step S403 is not performed, and the process transitions to step S404. As another example, if HDR imaging is non-switchable, in the scene determination of step S303, in the flow transitioning from step S401 to step S402, the determination of step S402 is not performed, and the process transitions to step S403. In addition, in the flow transitioning from step S403 to step S404, the determination of step S404 is not performed, and the process transitions to step S406. However, the above description is merely an example, and various modifications can be applied in design.

以上の説明は、本実施形態を実施するための一例にすぎず、様々な変形が適用できる。たとえば、ステップS301における画角の決定は、ユーザが実行したい機能によりなされることも可能である。つまり、あらかじめ有効にしたい機能をユーザが選択する構成にする。この時、ユーザが選択した機能すべてが切替可能と判定される画角をステップS301で決定する画角とする。表1を用いて説明すると、たとえばユーザがHDR合成および、深度合成(制約中)を有効化するように選択した場合、保存画角は7割に決定される。また、同様に無効化したい機能も選択可能とする構成をとってもよい。なお、このような実施方法の場合は図3に示したフローではステップS302を実施しなくてもよい。 The above description is merely an example for implementing this embodiment, and various modifications can be applied. For example, the angle of view in step S301 can be determined based on the function that the user wants to execute. In other words, the user can select the functions that he or she wants to enable in advance. At this time, the angle of view at which all the functions selected by the user are determined to be switchable is set as the angle of view determined in step S301. For example, using Table 1, if the user selects to enable HDR compositing and depth compositing (constrained), the saved angle of view is determined to be 70%. Similarly, a configuration may be adopted in which functions to be disabled can also be selected. In this case, step S302 does not need to be performed in the flow shown in FIG. 3.

本実施形態によれば、決定した画角に応じて、撮像の方法を選択し、最終的に、決定した画角を有する画像を得ることができる。 According to this embodiment, an imaging method is selected according to the determined angle of view, and ultimately, an image having the determined angle of view can be obtained.

(その他の実施形態)
以上の実施形態は、デジタルカメラでの実施をもとに説明したが、デジタルカメラに限定するものではない。たとえば、撮像素子が内蔵した携帯機器などで実施してもよく、画像を撮像することができるネットワークカメラなどでもよい。
Other Embodiments
The above embodiment has been described based on the implementation in a digital camera, but the present invention is not limited to a digital camera. For example, the present invention may be implemented in a mobile device with a built-in image sensor, or in a network camera capable of capturing images.

なお、本発明は、上述の実施形態の1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し作動させる処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention can also be realized by supplying a program that realizes one or more of the functions of the above-mentioned embodiments to a system or device via a network or storage medium, and having one or more processors in the computer of the system or device read and run the program. It can also be realized by a circuit (e.g., an ASIC) that realizes one or more functions.

100 デジタルカメラ
101 シャッター
102 バリア
103 フォーカスレンズ
13 D/A変換器
15 メモリ制御部
18 記録媒体I/F
22 撮像部
23 AF評価値検出部
24 画像処理部
25 深度合成部
26 動き検知部
27 状態検出部
28 表示部
32 メモリ
40 電源部
50 システム制御部
52 システムメモリ
53 システムタイマー
56 不揮発性メモリ
60 モード切替スイッチ
61 シャッターボタン
62 第2シャッタースイッチ
64 第1シャッタースイッチ
70 操作部
72 電源スイッチ
80 電源制御部
90 ストロボ
200 記録媒体
100 Digital camera 101 Shutter 102 Barrier 103 Focus lens 13 D/A converter 15 Memory control unit 18 Recording medium I/F
22 Imaging section 23 AF evaluation value detection section 24 Image processing section 25 Depth stacking section 26 Motion detection section 27 Status detection section 28 Display section 32 Memory 40 Power supply section 50 System control section 52 System memory 53 System timer 56 Non-volatile memory 60 Mode changeover switch 61 Shutter button 62 Second shutter switch 64 First shutter switch 70 Operation section 72 Power switch 80 Power supply control section 90 Strobe 200 Recording medium

Claims (26)

画角を決定する決定手段と、
前記決定手段が決定した前記画角に基づいて、予め定められた複数の合成方法のうちの1つを選んで複数の画像に対して合成を行い、合成画像を生成する合成手段と、を有することを特徴とする画像処理装置。
A determination means for determining an angle of view;
a synthesis means for selecting one of a plurality of predetermined synthesis methods based on the angle of view determined by the determination means, and performing synthesis on a plurality of images to generate a synthetic image.
前記合成手段は、前記合成画像の画角が、前記決定手段が決定した前記画角となるように前記複数の合成方法のうちの1つを選ぶことを特徴とする請求項1に記載の画像処理装置。 The image processing device according to claim 1, characterized in that the synthesis means selects one of the plurality of synthesis methods so that the angle of view of the synthesized image becomes the angle of view determined by the determination means. 前記複数の合成方法は、少なくともHDR合成と深度合成とのどちらかを含むことを特徴とする請求項1または2に記載の画像処理装置。 The image processing device according to claim 1 or 2, characterized in that the multiple synthesis methods include at least one of HDR synthesis and depth synthesis. シーン判定を行う判定手段を有し、
前記合成手段は、前記シーン判定の結果に基づいて、前記複数の合成方法のうちの1つを選ぶことを特徴とする請求項1または2に記載の画像処理装置。
A determination means for performing scene determination,
3. The image processing apparatus according to claim 1, wherein the combining means selects one of the plurality of combining methods based on a result of the scene determination.
前記合成手段は、前記シーン判定の結果に基づいて、前記合成を行うかどうかを決めることを特徴とする請求項4に記載の画像処理装置。 The image processing device according to claim 4, characterized in that the synthesis means determines whether or not to perform the synthesis based on the result of the scene determination. 前記合成手段が前記合成を行わない場合、
前記複数の画像のうちのすくなくとも1つの画角が、前記決定手段が決定した画角と同じであることを特徴とする請求項5に記載の画像処理装置。
When the synthesis means does not perform the synthesis,
6. The image processing apparatus according to claim 5, wherein the angle of view of at least one of the plurality of images is the same as the angle of view determined by the determination means.
前記判定手段は、前記シーン判定において動体検知を行うことを特徴とする請求項4に記載の画像処理装置。 The image processing device according to claim 4, characterized in that the determination means performs moving object detection in the scene determination. 前記判定手段は、前記シーン判定において輝度の検出を行うことを特徴とする請求項4に記載の画像処理装置。 The image processing device according to claim 4, characterized in that the determination means detects luminance in the scene determination. 前記判定手段は、前記シーン判定において明暗差の検出を行うことを特徴とする請求項4に記載の画像処理装置。 The image processing device according to claim 4, characterized in that the determination means detects brightness and darkness in the scene determination. 前記判定手段は、前記シーン判定においてマクロレンズの装着の検出を行うことを特徴とする請求項4に記載の画像処理装置。 The image processing device according to claim 4, characterized in that the determination means detects whether a macro lens is attached in the scene determination. 前記合成手段が、前記決定手段が決定した前記画角に基づいて、前記複数の合成方法のうち、選択が可能な合成方法を特定して、さらに、ユーザの操作により選択が可能な合成方法から1つを選ぶことを特徴とする請求項1または2に記載の画像処理装置。 The image processing device according to claim 1 or 2, characterized in that the compositing means identifies selectable compositing methods from among the plurality of compositing methods based on the angle of view determined by the determining means, and further selects one of the selectable compositing methods by a user operation. 画角を決定する決定手段と、
前記決定手段が決定した前記画角に基づいて、予め定められた複数の撮像方法のうちの1つを選んで撮像する撮像手段と、を有することを特徴とする撮像装置。
A determination means for determining an angle of view;
and imaging means for selecting one of a plurality of predetermined imaging methods based on the angle of view determined by the determination means and performing imaging using the selected imaging method.
さらに合成手段を有し、
前記撮像手段が複数の画像を撮像した場合、前記合成手段が前記複数の画像を用いて合成を行い、合成画像を生成することを特徴とする請求項12に記載の撮像装置。
Further comprising a synthesis means,
13. The imaging apparatus according to claim 12, wherein, when the imaging means captures a plurality of images, the synthesis means synthesizes the plurality of images to generate a synthetic image.
前記合成画像の画角が、前記決定手段が決定した前記画角となるように、前記撮像手段が前記複数の撮像方法のうちの1つを選ぶことを特徴とする請求項13に記載の撮像装置。 The imaging device according to claim 13, characterized in that the imaging means selects one of the plurality of imaging methods so that the angle of view of the composite image is the angle of view determined by the determination means. 前記複数の撮像方法は、1枚の画像の撮像と、HDR合成の撮像と、深度合成のための撮像と、の少なくともいずれかを含むことを特徴とする請求項12または13に記載の撮像装置。 The imaging device according to claim 12 or 13, characterized in that the multiple imaging methods include at least one of imaging of a single image, imaging for HDR synthesis, and imaging for depth synthesis. シーン判定を行う判定手段を有し、
前記撮像手段が前記シーン判定の結果に基づいて、前記複数の撮像方法のうちの1つを選ぶことを特徴とする請求項12または13に記載の撮像装置。
A determination means for performing scene determination,
14. The image pickup apparatus according to claim 12, wherein the image pickup means selects one of the plurality of image pickup methods based on a result of the scene determination.
前記判定手段は、前記シーン判定において動体検知を行うことを特徴とする請求項16に記載の撮像装置。 The imaging device according to claim 16, characterized in that the determination means performs moving object detection in the scene determination. 前記判定手段は、前記シーン判定において輝度の検出を行うことを特徴とする請求項16に記載の撮像装置。 The imaging device according to claim 16, characterized in that the determination means detects luminance in the scene determination. 前記判定手段は、前記シーン判定において明暗差の検出を行うことを特徴とする請求項16に記載の撮像装置。 The imaging device according to claim 16, characterized in that the determination means detects the difference in brightness in the scene determination. 前記判定手段は、前記シーン判定においてマクロレンズの装着の検出を行うことを特徴とする請求項16に記載の撮像装置。 The imaging device according to claim 16, characterized in that the determination means detects whether a macro lens is attached in the scene determination. 前記撮像手段が、前記決定手段が決定した前記画角に基づいて、前記複数の撮像方法のうち、選択が可能な撮像方法を特定して、さらに、ユーザの操作により選択が可能な撮像方法から1つを選ぶことを特徴とする請求項12または13に記載の撮像装置。 The imaging device according to claim 12 or 13, characterized in that the imaging means identifies selectable imaging methods from among the plurality of imaging methods based on the angle of view determined by the determination means, and further selects one of the imaging methods selectable by a user operation. 画角を決定する決定ステップと、
前記決定ステップにおいて決定した前記画角に基づいて、予め定められた複数の合成方法のうちの1つを選んで複数の画像に対して合成を行い、合成画像を生成する合成ステップと、を有することを特徴とする画像処理方法。
A determination step of determining an angle of view;
a synthesis step of selecting one of a plurality of predetermined synthesis methods based on the angle of view determined in the determination step, and performing synthesis on a plurality of images to generate a composite image.
画角を決定する決定ステップと、
前記決定ステップにおいて決定した前記画角に基づいて、予め定められた複数の撮像方法のうちの1つを選んで撮像する撮像ステップと、を有することを特徴とする撮像方法。
A determination step of determining an angle of view;
an imaging step of selecting one of a plurality of predetermined imaging methods based on the angle of view determined in the determination step and performing imaging using the selected imaging method.
コンピュータに作動させるプログラムであって、
画角を決定する決定ステップと、
前記決定ステップにおいて決定した前記画角に基づいて、予め定められた複数の合成方法のうちの1つを選んで複数の画像に対して合成を行い、合成画像を生成する合成ステップと、を行わせることを特徴とするプログラム。
A program for causing a computer to operate,
A determination step of determining an angle of view;
a synthesis step of selecting one of a plurality of predetermined synthesis methods based on the angle of view determined in the determination step, and performing synthesis on a plurality of images to generate a composite image.
コンピュータに作動させるプログラムであって、
画角を決定する決定ステップと、
前記決定ステップにおいて決定した前記画角に基づいて、予め定められた複数の撮像方法のうちの1つを選んで撮像する撮像ステップと、を行わせることを特徴とするプログラム。
A program for causing a computer to operate,
A determination step of determining an angle of view;
an imaging step of selecting one of a plurality of predetermined imaging methods based on the angle of view determined in the determination step and capturing an image using the selected imaging method,
請求項24または25に記載のプログラムを記録したコンピュータが読み出し可能な記録媒体。 A computer-readable recording medium having the program according to claim 24 or 25 recorded thereon.
JP2022169170A 2022-10-21 2022-10-21 Image processing device, imaging device, image processing method, imaging method, program, and recording medium Pending JP2024061309A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022169170A JP2024061309A (en) 2022-10-21 2022-10-21 Image processing device, imaging device, image processing method, imaging method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022169170A JP2024061309A (en) 2022-10-21 2022-10-21 Image processing device, imaging device, image processing method, imaging method, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2024061309A true JP2024061309A (en) 2024-05-07

Family

ID=90925393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022169170A Pending JP2024061309A (en) 2022-10-21 2022-10-21 Image processing device, imaging device, image processing method, imaging method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2024061309A (en)

Similar Documents

Publication Publication Date Title
JP4904108B2 (en) Imaging apparatus and image display control method
US8837864B2 (en) Image synthesis and rotation processing apparatus and image synthesis processing method
US9838609B2 (en) Image capturing apparatus, control apparatus and control method for controlling zooming function
JP2005086499A (en) Imaging apparatus
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP2007074031A (en) Imaging device, and image processing apparatus and method therefor
JP5782813B2 (en) Imaging apparatus and image display method
JP6833801B2 (en) Imaging equipment, imaging methods, programs and recording media
JP5506589B2 (en) Imaging apparatus, control method therefor, program, and recording medium
JP2007081732A (en) Imaging apparatus
JP2011049685A (en) Imaging apparatus, and method for controlling the same
JP2021021857A (en) Imaging apparatus and control method thereof
JP2003051979A (en) Electronic camera provided with image processing function and a computer-readable recording medium recording program enabling the electronic camera to realize the image processing function
JP7378999B2 (en) Imaging device, imaging method, program and recording medium
JP2019087924A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2024061309A (en) Image processing device, imaging device, image processing method, imaging method, program, and recording medium
JP6353585B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP7286451B2 (en) Imaging device, imaging method and program
JP2023086270A (en) Image processing device, image processing method, imaging apparatus, program, and recording medium
JP2019186831A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2012105016A (en) Imaging apparatus and controlling method for the same
JP2012039178A (en) Imaging apparatus, exposure control method and program
JP2022010685A (en) Imaging device, imaging method, program, and recording medium
JP2022150647A (en) Image processing device, image processing method, imaging apparatus, program, and recording medium
JP2013207531A (en) Imaging apparatus

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213