JP2024061309A - Image processing device, imaging device, image processing method, imaging method, program, and recording medium - Google Patents
Image processing device, imaging device, image processing method, imaging method, program, and recording medium Download PDFInfo
- Publication number
- JP2024061309A JP2024061309A JP2022169170A JP2022169170A JP2024061309A JP 2024061309 A JP2024061309 A JP 2024061309A JP 2022169170 A JP2022169170 A JP 2022169170A JP 2022169170 A JP2022169170 A JP 2022169170A JP 2024061309 A JP2024061309 A JP 2024061309A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- angle
- determination
- synthesis
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 88
- 238000012545 processing Methods 0.000 title claims abstract description 58
- 238000003672 processing method Methods 0.000 title 1
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 33
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 33
- 238000001308 synthesis method Methods 0.000 claims abstract description 9
- 238000001514 detection method Methods 0.000 claims description 21
- 238000000034 method Methods 0.000 claims description 21
- 239000002131 composite material Substances 0.000 claims description 11
- 230000006870 function Effects 0.000 abstract description 33
- 230000002194 synthesizing effect Effects 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000004888 barrier function Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000002156 mixing Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000009432 framing Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Abstract
【課題】 ユーザの意図した画角で画像を得ることを可能にした、画角変更を発生させない機能の切替える撮像方法を提供する。【解決手段】 本発明に係る画像処理装置は、画角を決定する決定手段と、前記決定手段が決定した前記画角に基づいて、予め定められた複数の合成方法のうちの1つを選んで複数の画像に対して合成を行い、合成画像を生成する合成手段と、を有することを特徴とする。【選択図】 図5[Problem] To provide an imaging method that switches functions without changing the angle of view, making it possible to obtain an image with the angle of view intended by the user. [Solution] The image processing device according to the present invention is characterized by having a determination means for determining the angle of view, and a synthesis means for selecting one of a plurality of predetermined synthesis methods based on the angle of view determined by the determination means, synthesizing a plurality of images, and generating a synthetic image. [Selected Figure] Figure 5
Description
本発明は、画像処理装置に関するものであり、特に画角の表示および合成を行う画像処理装置に関するものである。 The present invention relates to an image processing device, and in particular to an image processing device that displays and synthesizes an angle of view.
近年、デジタルカメラなどの画像処理装置において、自動的に画像に対して合成などの処理を行い、より画質のよい画像などを自動生成する技術が実用化されている。 In recent years, technology has been put into practical use in image processing devices such as digital cameras that automatically perform processes such as compositing on images to automatically generate images with better image quality.
ただし、合成を行った後に、画像の画角が変わってしまうことがしばしば発生する。たとえば、特許文献1に記載の技術では、被写界深度を深くするための合成、いわゆる深度合成において、合成画像の画角が合成に用いられる画像より狭くなることが開示されている。 However, it often happens that the angle of view of the images changes after compositing. For example, the technology described in Patent Document 1 discloses that in compositing to deepen the depth of field, known as depth compositing, the angle of view of the composite image becomes narrower than that of the images used in compositing.
また、HDR(ハイダイナミックレンジ)合成の技術においても、位置合わせのために合成後の画像の画角が狭くなることが考えられる。 In addition, even with HDR (high dynamic range) compositing technology, the angle of view of the composite image may become narrower due to alignment.
上記のように、合成を行う画像処理装置において、合成後の画像の画角が合成前よりも狭くなる。ライブビュー機能を使用するユーザにとって、合成後の画像の画角がフレーミング中の画角より狭くなり、意図していた画像を撮れなくなることがある。 As described above, in an image processing device that performs compositing, the angle of view of the composite image becomes narrower than that of the image before compositing. For users who use the live view function, the angle of view of the composite image becomes narrower than the angle of view during framing, and they may not be able to capture the image they intended.
特許文献2には、所定時間に一定の変化量で画角を変化させる技術が開示されている。 Patent document 2 discloses a technology that changes the angle of view by a fixed amount over a given period of time.
しかしながら、特許文献2に開示の方法では、画角の変化を緩やかにすることができるが、合成後の画角が狭くなるという課題が解決できない。 However, while the method disclosed in Patent Document 2 can make the change in the angle of view more gradual, it does not solve the problem of the angle of view becoming narrower after synthesis.
本発明は、上述した課題を鑑みてなされたものであり、設定した表示画角により合成方法が決められる画像処理装置を提供することを目的とする。 The present invention was made in consideration of the above-mentioned problems, and aims to provide an image processing device in which the synthesis method is determined based on the set display angle of view.
本発明は、画角を決定する決定手段と、前記決定手段が決定した前記画角に基づいて、予め定められた複数の合成方法のうちの1つを選んで複数の画像に対して合成を行い、合成画像を生成する合成手段と、を有することを特徴とする画像処理装置を提供する。 The present invention provides an image processing device that includes a determination means for determining an angle of view, and a synthesis means for selecting one of a plurality of predetermined synthesis methods based on the angle of view determined by the determination means, synthesizing a plurality of images using the selected synthesis method, and generating a synthetic image.
本発明の構成によれば、自動的に合成を行う画像処理装置において、設定した表示画角により合成方法を制限することができる。 According to the configuration of the present invention, in an image processing device that performs automatic compositing, the compositing method can be limited by the set display angle of view.
以下では、添付の図面を参照しながら、本発明の好適な実施形態について詳細に説明する。 The following describes in detail a preferred embodiment of the present invention with reference to the accompanying drawings.
尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Note that the following embodiments do not limit the scope of the invention as claimed, and not all of the combinations of features described in the embodiments are necessarily essential to the solution of the present invention.
図1は、本実施形態におけるデジタルカメラのハードウェア構成について説明するためのブロック図である。図1において、デジタルカメラ100は、シャッター101、バリア102、フォーカスレンズ103、撮像部22を含む撮像系を備える。シャッター101は、絞り機能を備えるシャッターである。バリア102は、デジタルカメラ100の撮像系を覆うことにより、撮像系の汚れや破損を防止する。フォーカスレンズ103は、シャッター101及びバリア102の間に配置される不図示のレンズ群に含まれるレンズである。尚、前述するレンズ群には、ズームレンズ等、他のレンズも存在する。撮像部22は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子、及びA/D変換処理機能を備えている。撮像部22の出力データ(撮像画像)は、画像処理部24及びメモリ制御部15を介して、あるいは、メモリ制御部15を介してメモリ32に直接書き込まれる。後述するフォーカスブラケット撮像の際には、設定枚数分の撮像画像が全てメモリ32に書き込まれる。
1 is a block diagram for explaining the hardware configuration of a digital camera in this embodiment. In FIG. 1, the
デジタルカメラ100は、更に、AF評価値検出部23、ストロボ90、画像処理部24、深度合成部25、動き検知部26、状態検出部27、メモリ32、D/A変換器13、表示部28、不揮発性メモリ56、システム制御部50、システムメモリ52、及びシステムタイマー53を備える。AF評価値検出部23は、撮像部22の内部にあってデジタル画像信号から得られるコントラスト情報などからAF評価値を算出し、得られたAF評価値を撮像部22からシステム制御部50に出力する。ストロボ90は、撮像時に発光させることにより低照度シーンでの撮像や逆光シーンでの撮像時に照度を補うことができる。画像処理部24は、撮像部22から出力される画像データ、又は、メモリ制御部15からの画像データに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAE(自動露出)処理、EF(フラッシュ自動調光発光)処理が行われる。また画像処理部24ではAF(オートフォーカス)処理が行われるが、このとき撮像部22に備えるAF評価値検出部23の出力が用いられることもある。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。
The
深度合成部25は、撮像部22においてフォーカスブラケット撮像によって得られた複数枚の撮像画像を用いて、各画像内においてピントの合っている画素を出力することにより、被写界深度が拡大された画像を生成する。詳細は後述する。
The
動き検知部26は、2枚の画像データを用い、注目領域とその周辺とでテンプレートマッチング処理を行い、画像を複数領域に分割した領域毎、もしくは、画素ごとに動きベクトルを算出する。算出した動きベクトルが閾値以上である場合、被写体に動きがあると検出し、システム制御部50へ通知する。状態検出部27は、ジャイロセンサによる角速度や、三脚の着脱状態、操作部70を介したユーザによる設定内容など、デジタルカメラ100の状態検出を行う。検出した結果をシステム制御部50へ通知する。
The
メモリ32は、撮像部22によって取得およびA/D変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器13は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器13を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器13からのアナログ信号に応じた表示を行う。撮像部22で一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器13においてアナログ変換し、表示部28に逐次転送して表示することで、電子ビューファインダとして機能し、スルー画像表示(以降、ライブビューと言う)を行える。不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばフラッシュメモリ等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、後述の第1、2の実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
The
システム制御部50は、デジタルカメラ100全体を制御する。具体的には、前述した不揮発性メモリ56に記録されたプログラムを実行することで、被写体情報、被写体距離、および、画像のコントラスト情報に基づくフォーカスブラケット撮像を実現する。すなわち、システム制御部50は、かかる撮像の間、フォーカスレンズ103やシャッター101の駆動制御を行うことで、ピント位置が異なる複数の画像が順次撮像される。尚、かかる撮像処理で得られる隣接する撮像画像間のピント位置変化量(フォーカスステップ)は、システム制御部50にて算出される値から設定される。
The
システムメモリ52は、RAM等により構成され、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読出したプログラム等を展開する。また、システム制御部はメモリ32、D/A変換器13、表示部28等を制御することにより表示制御も行う。システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
The
デジタルカメラ100は、また、モード切替スイッチ60、シャッターボタン61、第1シャッタースイッチ64、第2シャッタースイッチ62、操作部70、電源スイッチ72からなる、システム制御部50に各種の動作指示を入力するための操作手段を備える。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画記録モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮像モード、オートシーン判別モード、マニュアルモード、撮像シーン別の撮像設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ60で、静止画撮像モードに含まれるこれらのモードのいずれかに直接切り替えられる。あるいは、モード切替スイッチ60で静止画撮像モードに一旦切り換えた後に、静止画撮像モードに含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮像モードにも複数のモードが含まれていてもよい。シャッターボタン61は、撮像指示を行うための操作部である。第1シャッタースイッチ64は、シャッターボタン61の操作途中、いわゆる半押しでONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュ自動調光発光)処理等の動作を開始する。つまり、システム制御部50の制御のもとで、撮像のためのパラメータを取得する。尚、ユーザは、信号SW1を受けて開始するAF処理として中央1点AF処理や顔AF処理を選択することが可能である。ここで、中央1点AF処理とは撮像画面内の中央位置1点に対してAFを行う処理を指し、顔AF処理とは顔検出機能によって検出された撮像画面内の顔に対してAFを行う処理を指す。第2シャッタースイッチ62は、シャッターボタン61の操作完了、いわゆる全押し(撮像指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読出しから記録媒体200に画像データを書き込むまでの一連の撮像処理の動作を開始する。操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。電源スイッチ72は、デジタルカメラ100の電源オン、電源オフを切り替える。
The
デジタルカメラ100は、更に、電源制御部80、電源部40、及び記録媒体I/F18を備える。電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部40は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮像された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスクなどから構成される。
The
次に、本実施形態における合成機能の1つである深度合成のためのフォーカスブラケット撮像について説明する。 Next, we will explain focus bracketing imaging for depth stacking, which is one of the synthesis functions in this embodiment.
図2は、本実施形態における深度合成画像をライブビューした際の表示部の表示画像を説明するための図である。位置201はAF枠で明示されたフォーカスブラケット撮像の至近側ピント位置、位置202は無限遠側ピント位置、位置203は被写体(昆虫)である。表示部28に表示されるのは、至近側ピント位置201を示すAF枠および被写体203である。ユーザが操作部70を操作し、表示部28に表示された画像上における基準ピント位置を指定する。あるいは、AF評価値検出部23によって検出された被写体に対し、自動で基準ピント位置を指定してもよい。図2においては、被写体203の最も至近側の箇所を基準ピント位置として指定されたものとする。これにより、システム制御部50は、指定された基準ピント位置を、フォーカスブラケット撮像の至近側ピント位置201と認識し、その場所にAF枠を表示する。至近側ピント位置201が決定されると、Z軸方向(奥行き方向)に、フォーカスステップの設定に応じたフォーカス間隔、および、1枚の深度合成画像を生成するための撮像回数によって、フォーカスブラケット撮像が終了するピント位置、すなわち、無限遠側ピント位置202が決まる。図2においては、被写体203の全体が、至近側ピント位置201から無限遠側ピント位置202で示すフォーカス範囲に収まるものとする。また、1枚の深度合成画像を生成するための撮像回数は10回として図示しており、深度合成部25は10枚の撮像画像を用いて深度合成処理を施すものとする。
FIG. 2 is a diagram for explaining a display image on the display unit when a depth stacking image in this embodiment is live-viewed.
次は、深度合成の処理の一例について説明する。 Next, we'll explain an example of the depth stacking process.
まず、画像処理部24は、深度合成の対象の画像に対して、位置合わせを行う。画像処理部24は、深度合成の対象の複数の画像のうちの1枚である基準画像に、複数のブロックを設定する。画像処理部24は、各々のブロックのサイズが同じになるように設定することが好ましい。次に、画像処理部24は、位置合わせの対象画像の、基準画像のそれぞれのブロックと同じ位置に、基準画像のブロックよりも広い範囲を、探索範囲を設定する。最後に、画像処理部24は、対象画像のそれぞれの探索範囲に、基準画像のブロックとの輝度の差分絶対値和(Sum of Absolute Difference、以下、SADをいう)が最小となる対応点を算出する。画像処理部24は、基準画像のブロックの中心と前述した対応点から、位置のずれをベクトルとして算出する。画像処理部241は、前述する対応点の算出において、SADのほかに、差分二乗和(Sum of Squared Difference、以下SSDをいう)や正規化相互相関(Normalized Cross Correlation、以下NCCをいう)などを用いてもよい。
First, the
つぎに、画像処理部24は、基準画像と対象画像との位置のずれ量から変換係数を算出する。画像処理部24は、変換係数として、例えば射影変換係数を用いる。ただし、変換係数として射影変換係数だけに限定するわけではなく、アフィン変換係数や水平垂直シフトのみの簡略化した変換係数を用いてもよい。
Next, the
たとえば、画像処理部24は、(式1)に示した式を用いて変形を行うことができる。
For example, the
(式1)では、(x´,y´)は変形を行った後の座標を示し、(x,y)は変形を行う前の座標を示す。行列Aは変形係数を示す。
In (Equation 1), (x', y') indicates the coordinates after transformation, and (x, y) indicates the coordinates before transformation. Matrix A indicates the transformation coefficients.
位置合わせの後に、深度合成部25は、位置合わせの後の画像に対してコントラスト値を算出する。
After alignment, the
コントラスト値の算出方法の一例としては、たとえば、まず、それぞれの画素の色信号Sr、Sg、Sbから、下記の(式2)を用いて輝度Yを算出する。
Y=0.299Sr+0.587Sg+0.114Sb・・・(式2)
次に、3×3の画素の輝度Yの行列Lに、下記の(式3)乃至(式5)に示したように、ソーベルフィルタを用いてコントラスト値Iを算出する。
As an example of a method for calculating the contrast value, for example, first, a luminance Y is calculated from the color signals Sr, Sg, and Sb of each pixel using the following (Equation 2).
Y = 0.299Sr + 0.587Sg + 0.114Sb ... (Equation 2)
Next, a contrast value I is calculated for a matrix L of luminance Y of 3×3 pixels using a Sobel filter as shown in the following (Equation 3) to (Equation 5).
また、上述のコントラスト値の計算方法は一例にすぎず、たとえば、使用するフィルタをラプラシアンフィルタ等のエッジ検出フィルタや所定の帯域を通過するバンドパスフィルタを用いることも可能である。 The above-mentioned method of calculating the contrast value is merely one example. For example, it is also possible to use an edge detection filter such as a Laplacian filter or a bandpass filter that passes through a specified band.
次に、深度合成部25は合成マップを生成する。合成マップの生成方法としては、深度合成部25は、それぞれの画像の同じ位置にある画素のコントラスト値を比較し、コントラスト値の大きさに応じた合成比率を算出する。
Next, the
具体的な算出方法の一例を以下に示す。 An example of a specific calculation method is shown below.
深度合成部25は、コントラスト値Cm(x,y)を用いて合成マップAm(x,y)を生成する。なお、mはピント位置の異なる複数画像のうちm番目の画像、xは画像の水平座標、yは垂直座標を示している。合成マップの生成方法としては、深度合成部25は、それぞれの画像の同じ位置にある画素のコントラスト値を比較し、コントラスト値の大きさに応じた合成比率を算出する。具体的に、同じ位置にある画像のうち、コントラスト値の最も大きい画素に対して100%の合成比率を与え、同じ位置にある他の画素に対して0%の合成比率を与える。つまり、次の(式6)が成り立つ。
The
ただし、境界部が不自然にならないように合成比率を適宜調整する必要がある。その結果、1枚の画像における合成マップの合成比率は、0%と100%との二値化のものでなく、連続的に変化するものになる。調整した後の合成比率が、Bm(x,y)である。 However, the blending ratio must be adjusted appropriately so that the boundaries do not look unnatural. As a result, the blending ratio of the blending map for one image is not a binary ratio of 0% and 100%, but rather changes continuously. The blending ratio after adjustment is Bm(x, y).
深度合成部257は、算出した合成マップに従い、撮像された画像を合成した全焦点画像О(x,y)を生成する。撮像された元の画像をIm(x,y)とすると、以下の(式7)で画像が生成される。 The depth stacking unit 257 generates an all-focus image O(x, y) by synthesizing the captured images according to the calculated synthesis map. If the captured original image is Im(x, y), the image is generated by the following (Equation 7).
以上は、深度合成の処理の一例についての説明である。 The above is an explanation of one example of the depth stacking process.
次に、本実施形態における合成処理の流れについて説明する。 Next, we will explain the flow of the synthesis process in this embodiment.
図3は、本実施形態における合成処理を説明するフローチャートである。図3に示したフローチャートでは、デジタルカメラ100が撮像する際に、決定した画角に基づいて、選択できる機能を特定し、選択できる機能のうちの1つを実行することについて示している。選択できる機能の例としては、通常撮像、HDR合成撮像、深度合成撮像などがあげられる。
Figure 3 is a flowchart explaining the composition process in this embodiment. The flowchart shown in Figure 3 shows that when the
ステップ301で、システム制御部50はユーザが操作部70での操作に基づいて、画角を決める。ユーザが、たとえば、全画面の10割、8割、7割または6割を、保存したい画像の画角として設定する。つまり、たとえば、ユーザが6割を設定した場合、ユーザが最終的に保存したい合成画像の画角は、ライブビューで見た画像の画角の6割であることを意味する。
In step 301, the
ユーザが画角を設定する方法としては、たとえば以下のものが考えられる。 The following are some examples of ways that a user can set the angle of view:
たとえば、予め保存画角の選択肢を不揮発性メモリ56に複数設け、ユーザが選択する構成をとってもよい。この時、ステップS302における切替可能機能の数が最大となる画角、あるいはステップS303において実施しない処理が最少となる画角をデフォルト値として備えてもよい。
For example, multiple options for the saved angle of view may be provided in advance in the
また、表示部28は保存画角表示手段と操作部70のユーザ操作によって保存領域を指定してもよい。図5は、本実施形態における保存画角の表示を説明するための図である。画像501あるいは画像503あるいは画像505のような複数の表示形式を有してもよい。画像501における領域502は保存画角境界を表す。画像503および画像505における、領域504、領域506は保存されない領域を示しており、領域504は半透明、領域506は黒を被せることを表す。表示形式をユーザのフレーミングを妨げない形式に選択し、切り替えてもよい。画角決定の方法に関して、例えば画像501のように枠の内側を保存画角とする表示手段を有する場合、ユーザはタッチパネルを介してピンチ操作を行い、枠のサイズを拡大縮小することで、指定してもよい。また、各種ボタンに拡大縮小機能を割り当てて指定してもよい。
The
ステップ302で、システム制御部50は、ステップS301で決めた画角に基づいて、切替可能機能を特定する。切替可能機能とは、前述した通常撮像、HDR合成撮像、深度合成撮像などであり、これらに限らない。
In step S302, the
ステップ302において、システム制御部50は撮像部22で撮像した対象画像間で位置合わせした際の重複領域における保存可能領域が、ステップS301でシステム制御部50が決定した画角を満たすことができる機能を切替可能機能と判定する。また、深度合成機能に関して、ステップS301でシステム制御部50が決定した保存画角が広いほど、位置合わせ基準画像からの合成対象画像群のずれ量が小さい時のみ合成可能という位置あわせ精度に対する制約が強くなる。つまり、深度合成の場合、合成枚数が減少することによって被写界深度が浅くなりやすいという特徴を有する。本実施形態の一例として、下記の表1のように切替可能機能判定をしてもよい。
In step 302, the
表1における制約強の場合、位置あわせ精度が良い(ずれ量が小さい)時のみ合成可能のため、合成画像の被写界深度がより浅くなる。制約弱の場合、位置あわせ精度が悪い(ずれ量が大きい)時でも合成可能のため、合成画像の被写界深度がより深くなる。 In the case of strong constraints in Table 1, synthesis is possible only when the alignment accuracy is good (the amount of misalignment is small), so the depth of field of the synthesized image is shallower. In the case of weak constraints, synthesis is possible even when the alignment accuracy is poor (the amount of misalignment is large), so the depth of field of the synthesized image is deeper.
ステップS303で、システム制御部50は、撮像部22が撮像したライブビューのための画像などに対して、シーン判定を行う。シーン判定の詳細について後述する。
In step S303, the
ステップS304で、システム制御部50は、ステップS302で特定した切替可能機能のうち、実際に後述するステップS307で実施する機能を決める。ステップS304でシステム制御部50が機能を決めるのにあたって、ステップS303でのシーン判定の結果を、または、ユーザが操作部70での操作を、またはその両方をもとに決めてよい。
In step S304, the
ステップS305で、システム制御部50はライブビュー中にAF評価値検出部23、動き検知部26、あるいは状態検出部27の出力結果に関する評価値が予め定められた閾値より大きい変化があった場合に、フローがステップS302に戻る。そうでなければ、フローがステップS306に進む。
In step S305, if the
ステップS306で、システム制御部50は第2シャッタースイッチ62からの信号SW2をうけて静止画記録モードに切り替える。
In step S306, the
ステップS307において、システム制御部50は静止画記録モードに含まれる機能の中からステップS304でシステム制御部50が選択した機能を実施する。ステップS307でシステム制御部50がたとえば前述した深度合成などが選ばれた場合選ばれた機能を実施する。
In step S307, the
次に、ステップS303におけるシーン判定の一例について詳しく説明する。 Next, an example of scene determination in step S303 will be described in detail.
図4は、本実施形態におけるシーン判定の一例を説明するフローチャートである。以下での説明は、あくまでも本実施形態を実施するための一例である。 Figure 4 is a flowchart that explains an example of scene determination in this embodiment. The following explanation is merely an example for implementing this embodiment.
ステップS401で、システム制御部50が動体検知を行う。システム制御部50が動体を検知した場合、フローがステップS408に進み、ステップS304で通常撮像に切り替える。システム制御部50が動体を検知しなかった場合、フローがステップS402に進み、輝度に関する明暗判定を行う。ステップS402で、システム制御部50が画像の輝度を輝度に関する閾値と比較する。画像の輝度が閾値より小さい場合、フローがステップS405に進み、ステップS304でHDR撮像に切り替える。画像の輝度が閾値以上の場合、フローがステップS403に進む。ステップS403で、システム制御部50は画像がマクロレンズで撮像されたかどうかを判定する。マクロレンズで撮像された場合、フローがステップS407に進み、システム制御部50がステップS304で深度合成のための撮像に切り替える。マクロレンズで撮像されたのでなければ、フローがステップS404に進む。ステップS404で、システム制御部50は画像の明暗差が明暗差に関する閾値と比較する。画像の明暗差が閾値より小さい場合、フローがステップS406に進み、システム制御部50がステップS304で通常撮像に切り替える。画像の明暗差が閾値以上であれば、システム制御部50がステップS304でHDR撮像に切り替える。
In step S401, the
以上のシーン判定のフローはあくまでも一例にすぎず、様々な変形を適用して実施することができる。また、上記のシーン判定において、ユーザの設定などにより特定の機能を切替不可機能として、ステップS304での切り替えを制限することも考えられる。たとえば、図4に示したフローの場合、深度合成が切替不可とした場合、ステップS303のシーン判定において、ステップS402からステップS403へ遷移するフローにおいて、ステップS403の判定は実施されず、ステップS404へ遷移する。もう一例として、HDR撮像が切替不可とした場合、ステップS303のシーン判定において、ステップS401からステップS402へ遷移するフローにおいて、ステップS402の判定は実施されず、ステップS403へ遷移する。また、ステップS403からステップS404へ遷移するフローにおいて、ステップS404の判定は実施されず、ステップS406へ遷移する。ただし、以上の記載もあくまでも一例であり、設計上様々な変形が適用できる。 The above scene determination flow is merely an example, and various modifications can be applied. In addition, in the above scene determination, it is also possible to restrict switching in step S304 by setting a specific function as a non-switchable function by user settings, etc. For example, in the case of the flow shown in FIG. 4, if depth stacking is non-switchable, in the scene determination of step S303, in the flow transitioning from step S402 to step S403, the determination of step S403 is not performed, and the process transitions to step S404. As another example, if HDR imaging is non-switchable, in the scene determination of step S303, in the flow transitioning from step S401 to step S402, the determination of step S402 is not performed, and the process transitions to step S403. In addition, in the flow transitioning from step S403 to step S404, the determination of step S404 is not performed, and the process transitions to step S406. However, the above description is merely an example, and various modifications can be applied in design.
以上の説明は、本実施形態を実施するための一例にすぎず、様々な変形が適用できる。たとえば、ステップS301における画角の決定は、ユーザが実行したい機能によりなされることも可能である。つまり、あらかじめ有効にしたい機能をユーザが選択する構成にする。この時、ユーザが選択した機能すべてが切替可能と判定される画角をステップS301で決定する画角とする。表1を用いて説明すると、たとえばユーザがHDR合成および、深度合成(制約中)を有効化するように選択した場合、保存画角は7割に決定される。また、同様に無効化したい機能も選択可能とする構成をとってもよい。なお、このような実施方法の場合は図3に示したフローではステップS302を実施しなくてもよい。 The above description is merely an example for implementing this embodiment, and various modifications can be applied. For example, the angle of view in step S301 can be determined based on the function that the user wants to execute. In other words, the user can select the functions that he or she wants to enable in advance. At this time, the angle of view at which all the functions selected by the user are determined to be switchable is set as the angle of view determined in step S301. For example, using Table 1, if the user selects to enable HDR compositing and depth compositing (constrained), the saved angle of view is determined to be 70%. Similarly, a configuration may be adopted in which functions to be disabled can also be selected. In this case, step S302 does not need to be performed in the flow shown in FIG. 3.
本実施形態によれば、決定した画角に応じて、撮像の方法を選択し、最終的に、決定した画角を有する画像を得ることができる。 According to this embodiment, an imaging method is selected according to the determined angle of view, and ultimately, an image having the determined angle of view can be obtained.
(その他の実施形態)
以上の実施形態は、デジタルカメラでの実施をもとに説明したが、デジタルカメラに限定するものではない。たとえば、撮像素子が内蔵した携帯機器などで実施してもよく、画像を撮像することができるネットワークカメラなどでもよい。
Other Embodiments
The above embodiment has been described based on the implementation in a digital camera, but the present invention is not limited to a digital camera. For example, the present invention may be implemented in a mobile device with a built-in image sensor, or in a network camera capable of capturing images.
なお、本発明は、上述の実施形態の1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し作動させる処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention can also be realized by supplying a program that realizes one or more of the functions of the above-mentioned embodiments to a system or device via a network or storage medium, and having one or more processors in the computer of the system or device read and run the program. It can also be realized by a circuit (e.g., an ASIC) that realizes one or more functions.
100 デジタルカメラ
101 シャッター
102 バリア
103 フォーカスレンズ
13 D/A変換器
15 メモリ制御部
18 記録媒体I/F
22 撮像部
23 AF評価値検出部
24 画像処理部
25 深度合成部
26 動き検知部
27 状態検出部
28 表示部
32 メモリ
40 電源部
50 システム制御部
52 システムメモリ
53 システムタイマー
56 不揮発性メモリ
60 モード切替スイッチ
61 シャッターボタン
62 第2シャッタースイッチ
64 第1シャッタースイッチ
70 操作部
72 電源スイッチ
80 電源制御部
90 ストロボ
200 記録媒体
100
22
Claims (26)
前記決定手段が決定した前記画角に基づいて、予め定められた複数の合成方法のうちの1つを選んで複数の画像に対して合成を行い、合成画像を生成する合成手段と、を有することを特徴とする画像処理装置。 A determination means for determining an angle of view;
a synthesis means for selecting one of a plurality of predetermined synthesis methods based on the angle of view determined by the determination means, and performing synthesis on a plurality of images to generate a synthetic image.
前記合成手段は、前記シーン判定の結果に基づいて、前記複数の合成方法のうちの1つを選ぶことを特徴とする請求項1または2に記載の画像処理装置。 A determination means for performing scene determination,
3. The image processing apparatus according to claim 1, wherein the combining means selects one of the plurality of combining methods based on a result of the scene determination.
前記複数の画像のうちのすくなくとも1つの画角が、前記決定手段が決定した画角と同じであることを特徴とする請求項5に記載の画像処理装置。 When the synthesis means does not perform the synthesis,
6. The image processing apparatus according to claim 5, wherein the angle of view of at least one of the plurality of images is the same as the angle of view determined by the determination means.
前記決定手段が決定した前記画角に基づいて、予め定められた複数の撮像方法のうちの1つを選んで撮像する撮像手段と、を有することを特徴とする撮像装置。 A determination means for determining an angle of view;
and imaging means for selecting one of a plurality of predetermined imaging methods based on the angle of view determined by the determination means and performing imaging using the selected imaging method.
前記撮像手段が複数の画像を撮像した場合、前記合成手段が前記複数の画像を用いて合成を行い、合成画像を生成することを特徴とする請求項12に記載の撮像装置。 Further comprising a synthesis means,
13. The imaging apparatus according to claim 12, wherein, when the imaging means captures a plurality of images, the synthesis means synthesizes the plurality of images to generate a synthetic image.
前記撮像手段が前記シーン判定の結果に基づいて、前記複数の撮像方法のうちの1つを選ぶことを特徴とする請求項12または13に記載の撮像装置。 A determination means for performing scene determination,
14. The image pickup apparatus according to claim 12, wherein the image pickup means selects one of the plurality of image pickup methods based on a result of the scene determination.
前記決定ステップにおいて決定した前記画角に基づいて、予め定められた複数の合成方法のうちの1つを選んで複数の画像に対して合成を行い、合成画像を生成する合成ステップと、を有することを特徴とする画像処理方法。 A determination step of determining an angle of view;
a synthesis step of selecting one of a plurality of predetermined synthesis methods based on the angle of view determined in the determination step, and performing synthesis on a plurality of images to generate a composite image.
前記決定ステップにおいて決定した前記画角に基づいて、予め定められた複数の撮像方法のうちの1つを選んで撮像する撮像ステップと、を有することを特徴とする撮像方法。 A determination step of determining an angle of view;
an imaging step of selecting one of a plurality of predetermined imaging methods based on the angle of view determined in the determination step and performing imaging using the selected imaging method.
画角を決定する決定ステップと、
前記決定ステップにおいて決定した前記画角に基づいて、予め定められた複数の合成方法のうちの1つを選んで複数の画像に対して合成を行い、合成画像を生成する合成ステップと、を行わせることを特徴とするプログラム。 A program for causing a computer to operate,
A determination step of determining an angle of view;
a synthesis step of selecting one of a plurality of predetermined synthesis methods based on the angle of view determined in the determination step, and performing synthesis on a plurality of images to generate a composite image.
画角を決定する決定ステップと、
前記決定ステップにおいて決定した前記画角に基づいて、予め定められた複数の撮像方法のうちの1つを選んで撮像する撮像ステップと、を行わせることを特徴とするプログラム。 A program for causing a computer to operate,
A determination step of determining an angle of view;
an imaging step of selecting one of a plurality of predetermined imaging methods based on the angle of view determined in the determination step and capturing an image using the selected imaging method,
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022169170A JP2024061309A (en) | 2022-10-21 | 2022-10-21 | Image processing device, imaging device, image processing method, imaging method, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022169170A JP2024061309A (en) | 2022-10-21 | 2022-10-21 | Image processing device, imaging device, image processing method, imaging method, program, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024061309A true JP2024061309A (en) | 2024-05-07 |
Family
ID=90925393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022169170A Pending JP2024061309A (en) | 2022-10-21 | 2022-10-21 | Image processing device, imaging device, image processing method, imaging method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024061309A (en) |
-
2022
- 2022-10-21 JP JP2022169170A patent/JP2024061309A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4904108B2 (en) | Imaging apparatus and image display control method | |
US8837864B2 (en) | Image synthesis and rotation processing apparatus and image synthesis processing method | |
US9838609B2 (en) | Image capturing apparatus, control apparatus and control method for controlling zooming function | |
JP2005086499A (en) | Imaging apparatus | |
JP2013013050A (en) | Imaging apparatus and display method using imaging apparatus | |
JP2007074031A (en) | Imaging device, and image processing apparatus and method therefor | |
JP5782813B2 (en) | Imaging apparatus and image display method | |
JP6833801B2 (en) | Imaging equipment, imaging methods, programs and recording media | |
JP5506589B2 (en) | Imaging apparatus, control method therefor, program, and recording medium | |
JP2007081732A (en) | Imaging apparatus | |
JP2011049685A (en) | Imaging apparatus, and method for controlling the same | |
JP2021021857A (en) | Imaging apparatus and control method thereof | |
JP2003051979A (en) | Electronic camera provided with image processing function and a computer-readable recording medium recording program enabling the electronic camera to realize the image processing function | |
JP7378999B2 (en) | Imaging device, imaging method, program and recording medium | |
JP2019087924A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2024061309A (en) | Image processing device, imaging device, image processing method, imaging method, program, and recording medium | |
JP6353585B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
JP7286451B2 (en) | Imaging device, imaging method and program | |
JP2023086270A (en) | Image processing device, image processing method, imaging apparatus, program, and recording medium | |
JP2019186831A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2012105016A (en) | Imaging apparatus and controlling method for the same | |
JP2012039178A (en) | Imaging apparatus, exposure control method and program | |
JP2022010685A (en) | Imaging device, imaging method, program, and recording medium | |
JP2022150647A (en) | Image processing device, image processing method, imaging apparatus, program, and recording medium | |
JP2013207531A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |