JP2016167774A - Image signal processor, image signal processing method, and program - Google Patents
Image signal processor, image signal processing method, and program Download PDFInfo
- Publication number
- JP2016167774A JP2016167774A JP2015047590A JP2015047590A JP2016167774A JP 2016167774 A JP2016167774 A JP 2016167774A JP 2015047590 A JP2015047590 A JP 2015047590A JP 2015047590 A JP2015047590 A JP 2015047590A JP 2016167774 A JP2016167774 A JP 2016167774A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- frame image
- filter
- synthesis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 5
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 86
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 86
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 43
- 238000000034 method Methods 0.000 claims description 114
- 239000000203 mixture Substances 0.000 claims description 57
- 238000003384 imaging method Methods 0.000 claims description 45
- 238000001914 filtration Methods 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 3
- 230000010485 coping Effects 0.000 abstract 1
- 230000003287 optical effect Effects 0.000 description 22
- 230000018109 developmental process Effects 0.000 description 16
- 239000002131 composite material Substances 0.000 description 15
- 230000033001 locomotion Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 239000000470 constituent Substances 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000001502 supplementing effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像信号等を処理する画像信号処理装置、画像信号処理方法、及びプログラムに関する。 The present invention relates to an image signal processing apparatus, an image signal processing method, and a program for processing an image signal and the like.
従来より、被写界深度を浅くして撮影することで、背景だけをぼかし、被写体をより目立たせる撮影方法がある。被写界深度は、例えば、F値を小さく、焦点距離を長く、撮影距離を近くなどすることで浅くできるが、口径の大きなレンズや焦点距離の長い光学系は高価であり、また光学系自体のサイズも大きくなる。このため、従来の安価で小型なコンパクトデジタルカメラや、携帯情報端末などに搭載されている撮像デバイスは、被写界深度を浅くし難いものが多い。 Conventionally, there is a photographing method in which only the background is blurred and the subject is more conspicuous by photographing with a shallow depth of field. The depth of field can be reduced by, for example, decreasing the F value, increasing the focal length, and reducing the shooting distance. However, a lens having a large aperture or an optical system having a long focal length is expensive, and the optical system itself. The size of the will also increase. For this reason, many conventional imaging devices mounted on inexpensive and compact compact digital cameras, portable information terminals, etc., do not easily reduce the depth of field.
このようなことから、コンパクトデジタルカメラや、携帯情報端末の撮像デバイスは、デジタルフィルタ処理により、被写界深度を浅くした撮影画像と同等のぼかし効果を得る技術を採用しているものがある。例えば、特許文献1には、縮小した画像に小さいサイズのフィルタ処理を施した後に元の画像サイズに拡大することで、小さいサイズのフィルタ処理でぼかし量が大きなボケ画像を生成する技術が開示されている。
For this reason, some compact digital cameras and imaging devices such as portable information terminals employ a technique that obtains a blurring effect equivalent to a captured image with a shallow depth of field by digital filter processing. For example,
しかしながら、特許文献1に開示された技術では、フィルタサイズが小さいため、被写界深度を浅くして撮影された画像のような美しいボケ画像を実現することは難しい。例えば、点光源を大きく丸くぼかした画像を得たいような場合、特許文献1に開示されている小さいサイズのフィルタ処理では、画像の縮小により高域成分が失われるため、丸ボケの形状のディテイルが十分に表現できない。また、画像を縮小せずにフィルタ処理を施すことも考えられるが、被写界深度を浅くして撮影された画像のようにぼかし量の大きなボケ画像を実現するには、例えば50タップ程度の多タップの2次元フィルタが必要となる。このような多タップの2次元フィルタは、回路規模が非常に大きくなってしまう。
However, with the technique disclosed in
一方、近年のコンパクトデジタルカメラや、携帯情報端末の撮像デバイスは、或る程度のズーム倍率を実現可能なズーム光学系を備えているものもある。このため、例えばズーム光学系により画角を変えた場合には、その画角に応じたボケ画像を実現することが望まれる。しかしながら、デジタルフィルタ処理で画角の変化に応じたボケ画像を生成することは難しい。 On the other hand, recent compact digital cameras and imaging devices of portable information terminals include a zoom optical system that can realize a certain zoom magnification. For this reason, for example, when the angle of view is changed by the zoom optical system, it is desired to realize a blurred image corresponding to the angle of view. However, it is difficult to generate a blurred image corresponding to a change in the angle of view by digital filter processing.
本発明はこのような問題点に鑑みてなされたものであり、フィルタの規模を抑えつつ、画角の変化にも対応したフィルタ処理を実現する画像信号処理装置、画像信号処理方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of such problems, and an image signal processing device, an image signal processing method, and a program for realizing filter processing corresponding to a change in angle of view while suppressing the scale of a filter are provided. The purpose is to provide.
本発明の画像信号処理装置は、撮像順に入力されるフレーム画像に対し、所定フレーム数ごとに、前記フレーム画像の撮像順にフィルタ係数を制御するフィルタ処理を行うフィルタ手段と、前記フィルタ手段によるフィルタ処理後のフレーム画像を、順次1フレームずつずらしながら前記所定フレーム数ごとに合成処理する合成手段と、前記フレーム画像が撮像された際の画角に基づいて、前記合成手段による前記フレーム画像の前記合成処理を制御する合成制御手段とを有することを特徴とする。 The image signal processing apparatus according to the present invention includes a filter unit that performs a filter process for controlling a filter coefficient in the imaging order of the frame image for each predetermined number of frames with respect to a frame image input in the imaging order, and a filter process performed by the filter unit A synthesizing unit that synthesizes the subsequent frame image for each predetermined number of frames while sequentially shifting the frame image by one frame, and the synthesis of the frame image by the synthesizing unit based on an angle of view when the frame image is captured. And a synthesis control means for controlling processing.
本発明によれば、フィルタの規模を抑えつつ、画角の変化にも対応したフィルタ処理を実現可能となる。 According to the present invention, it is possible to realize the filter processing corresponding to the change in the angle of view while suppressing the scale of the filter.
<第1の実施形態>
図1は、画像信号処理装置の一例である第1の実施形態の撮像装置の概略構成を示す図である。図1において、システム制御部11は、本実施形態の撮像装置全体を制御する。なお、図1では図示を省略しているが、撮像装置は、シャッターボタンなどのような一般的なカメラに設けられている各種操作部も有している。
<First Embodiment>
FIG. 1 is a diagram illustrating a schematic configuration of an imaging apparatus according to a first embodiment which is an example of an image signal processing apparatus. In FIG. 1, a
光学系1は、ズームレンズ、フォーカスレンズ、絞り等を有して構成されており、システム制御部11からの制御信号により、絞りとレンズを駆動して、適切な明るさに設定された被写体像を撮像素子2上に結像させる。なお、本実施形態において、システム制御部11は、ズームレンズを制御することで画角(光学ズーム倍率)を設定可能となされており、また、後述する合成比率生成部7へ画角に対応した光学ズーム情報を出力可能となされている。撮像素子2は、システム制御部11により制御される駆動パルスで駆動され、被写体像を光電変換により電気信号に変換して撮像信号として出力する。現像処理部3は、撮像素子2からの撮像信号を輝度と色差の信号に変換する現像処理を行い、その現像処理後の輝度と色差の画像信号を、フィルタ処理部4へ出力する。また、現像処理部3は、画像信号をメモリ6へも出力する。したがって、メモリ6は、フィルタ処理部4によるフィルタ処理後の画像信号の他、この現像処理部3からの画像信号も保持する。
The
フィルタ処理部4は、フィルタ係数制御部5から供給されるフィルタ係数を用い、現像処理部3からの画像信号に対してフィルタ処理を行う。フィルタ係数制御部5は、システム制御部11による制御の下、フィルタ処理の際に使用されるフィルタ係数をフィルタ処理部4へ出力する。
The
フィルタ処理部4によるフィルタ処理の詳細については後述する。フィルタ処理部4でフィルタ処理された画像信号は、メモリ6に保持された後、読み出されて合成部8へ出力される。
Details of the filter processing by the
合成部8は、システム制御部11による制御の下、後述するようにメモリ6から読み出す画素位置を制御し、そのメモリ6から読み出された画素を加算することにより画像を合成する。この加算による合成で形成された画像は、フィルタ処理部4でのフィルタ処理によるボケ画像となる。
The
主被写体判別部9は、現像処理部3から出力されてメモリ6に保持されている画像信号より、主被写体の画像部分(以下、主被写体画像とする。)を検出する。画像信号から主被写体画像を検出する手法については種々の手法が知られており、本実施形態ではそれらの何れを用いてもよい。そして、主被写体判別部9は、例えば、画像信号における画像の中央に近く、サイズが大きい被写体画像部分を、主被写体画像と判別して、その主被写体画像のサイズと画像信号の画像内における位置情報とを背景被写体合成部10へ出力する。
The main subject determination unit 9 detects an image portion of the main subject (hereinafter referred to as a main subject image) from the image signal output from the
背景被写体合成部10は、主被写体判別部9により検出された主被写体画像のサイズと位置情報に基づき、現像処理部3から出力されてメモリ6に保持された画像と合成部8からのボケ画像とを合成する。具体的には、背景被写体合成部10は、主被写体画像のサイズと位置情報に基づいて、メモリ6から読み出された画像信号より、主被写体画像を抜き出す。そして、背景被写体合成部10は、その抜き出した主被写体画像を、合成部8から供給される画像の同位置、すなわち主被写体画像の位置情報に応じた位置へ、上書きにより合成する。
Based on the size and position information of the main subject image detected by the main subject determination unit 9, the background
ここで、合成部8からの画像は、画像全体にぼかし処理が施された画像である。一方、背景被写体合成部10への入力画像は、現像処理部3の出力画像であり、ぼかし処理されていない鮮鋭な画像の信号である。そして、背景被写体合成部10は、その画像から被写体画像を抜き出して、合成部8からのぼかし画像へ上書きにより合成する。これにより、背景被写体合成部10から出力される画像は、背景がぼけている一方で被写体画像が鮮鋭で目立った画像となる。
Here, the image from the synthesizing
背景被写体合成部10による背景と被写体画像の合成処理後の画像信号は、例えば図示しない記録部へ送られて、例えばSDカードに代表される記録媒体等に記録され、また例えば図示しない表示部へ送られて画面上に表示等される。
The image signal after the background subject image combining process by the background
次に、フィルタ処理部4、メモリ6、合成部8によるボケ画像の生成処理の際の基本的な処理の流れについて説明する。一般に、ボケ画像を生成するためのフィルタ処理回路は、ぼかし量が少なくてよい場合には比較的小さい回路規模で実現できるが、ぼかし量を多くする場合には回路規模が大きくなる。本実施形態では、回路規模を大きくせずにぼかし量が多いボケ画像を形成するために、フィルタの畳み込み演算を分割処理(以下、分割フィルタ処理と呼ぶ。)する。
Next, a basic process flow in the blur image generation process performed by the
本実施形態の撮像装置は、フィルタ合成手段の一例として、分割フィルタ処理を行うフィルタ処理部4と、フィルタ処理部4によるフィルタ処理後の複数の画像を保持するメモリ6と、メモリ6に保持された各画像を画素加算にて合成する合成部8とを有している。そして、本実施形態の撮像装置は、これらの構成により、タップ数の少ない、小さい回路規模のフィルタで、タップ数の多い大規模なフィルタと等価なぼかし量が多いボケ画像を生成可能となっている。
The imaging apparatus according to the present embodiment is held in the
ここでは、一例として、図2、図3を用い、水平,垂直方向が複数タップ(例えば水平、垂直方向9タップ)の空間フィルタの場合の分割フィルタ処理について説明する。なお、フィルタ処理部4のタップ数は一例であり、9タップに限定されるものではない。
Here, as an example, the division filter processing in the case of a spatial filter having a plurality of taps in the horizontal and vertical directions (for example, 9 taps in the horizontal and vertical directions) will be described with reference to FIGS. The number of taps of the
図2は、水平方向9タップ、垂直方向9タップの空間フィルタのフィルタ係数の一例を示す図である。図2中のk0〜k8はフィルタ係数を示し、空間フィルタの水平方向と垂直方向をそれぞれ3タップずつに分離したときのそれぞれの位置のフィルタ係数を示している。図3は、画像内において(x,y)座標が(i,j)で表される、或る着目画素位置(i,j)における水平方向9タップ、垂直方向9タップの空間フィルタの参照範囲を示す図である。そして、フィルタ処理は、例えば式(1)に示すような演算式を用いて行われる。 FIG. 2 is a diagram illustrating an example of filter coefficients of a spatial filter having 9 taps in the horizontal direction and 9 taps in the vertical direction. K0 to k8 in FIG. 2 indicate filter coefficients, and indicate the filter coefficients at respective positions when the horizontal direction and the vertical direction of the spatial filter are separated into three taps. FIG. 3 shows a spatial filter reference range of 9 taps in the horizontal direction and 9 taps in the vertical direction at a certain pixel position (i, j) whose (x, y) coordinates are represented by (i, j) in the image. FIG. The filtering process is performed using an arithmetic expression as shown in, for example, Expression (1).
ここで、式(1)及び後述の各式中の「x」,「y」は図3に示す画像の各画素の座標、「i」は画像内の着目画素の水平アドレス(x座標)、「j」は画像内の着目画素の垂直アドレス(y座標)、「a」はフィルタ係数、「I」は画素値を示している。そして、式(1)の「p」は、図3に示すように着目画素位置(i,j)に対してフィルタをかけた結果の画像となる。 Here, “x” and “y” in the equation (1) and each equation described later are the coordinates of each pixel of the image shown in FIG. 3, “i” is the horizontal address (x coordinate) of the pixel of interest in the image, “J” represents the vertical address (y coordinate) of the pixel of interest in the image, “a” represents the filter coefficient, and “I” represents the pixel value. Then, “p” in Expression (1) is an image obtained as a result of filtering the target pixel position (i, j) as shown in FIG.
次に、図4のフローチャートを用いて、畳み込み演算を水平方向3タップ、垂直方向3タップずつに分割した分割フィルタ処理と、そのフィルタ処理後の画像の画素加算による合成処理の基本的な流れについて説明する。なお、詳細については後述するが、本実施形態の撮像装置は、動画像に対するフィルタ処理の際には、図4のフローチャートとは若干異なる処理を行っている。図4のフローチャートは、分割フィルタ処理と合成処理の基本的な流れ説明するために、一枚の画像を分割フィルタ処理する場合を例に挙げている。また、図4の説明では、システム制御部11が、フィルタ係数制御部5からフィルタ係数の出力制御によるフィルタ処理部4の制御、メモリ6の書き込みと読み出しの制御、合成部8における画素加算による合成の制御を行うことにした例を挙げている。
Next, with reference to the flowchart of FIG. 4, a basic flow of the division filter processing in which the convolution operation is divided into 3 taps in the horizontal direction and 3 taps in the vertical direction, and the synthesis processing by pixel addition of the image after the filter processing is performed. explain. Although details will be described later, the imaging apparatus of the present embodiment performs processing slightly different from the flowchart of FIG. 4 when performing filtering processing on a moving image. The flow chart of FIG. 4 exemplifies the case where one image is subjected to the division filter process in order to explain the basic flow of the division filter process and the synthesis process. In the description of FIG. 4, the
図4のフローチャートにおいて、システム制御部11は、先ずステップS100の処理として、変数nに初期値の「0」をセットする。変数nは、分割フィルタの分割数に対応している。本実施形態の場合、畳み込み演算を水平方向3タップ、垂直方向3タップずつに分割しており、フィルタ分割数が9分割となされているため、変数nは「0」〜「8」の値となる。ステップS100の後、システム制御部11は、処理をステップS101へ進める。
In the flowchart of FIG. 4, the
ステップS101では、システム制御部11は、現像処理部3からの画像信号をフィルタ処理部4へ入力させる。このステップS101の後、システム制御部11は、処理をステップS102へ進める。
In step S <b> 101, the
ステップS102では、システム制御部11は、フィルタ係数制御部5を制御してフィルタ処理部4へフィルタ係数を出力させる。このときのフィルタ処理部4は、例えば式(2)に示すようなフィルタ演算を行ってフィルタ処理後の第1の画像p0を生成する。ここで、式(2)の演算は、画像信号の画像全体に対して行われるものであり、したがって第1の画像p0は、図2における左上の各フィルタ係数k0を用いて画像全体にフィルタを掛けた画像信号ということになる。
In step S102, the
ステップS102の後、システム制御部11は、処理をステップS103へ進める。ステップS103では、システム制御部11は、第1の画像p0の信号をメモリ6に保持させる。ステップS103の後、システム制御部11は、処理をステップS104へ進める。
After step S102, the
ステップS104では、システム制御部11は、全分割数のフィルタ演算が完了したか否かを判断する。具体的には、本実施形態では、変数nが「0」〜「8」の値を取り得るため、システム制御部11は、変数nが「8」になっている場合に全分割数の演算が完了したと判断する。ステップS104において、システム制御部11は、全分割数のフィルタ演算が完了していないと判断した場合には処理をステップS105へ進め、一方、完了したと判断した場合には処理をステップS106へ進める。
In step S <b> 104, the
ステップS105では、システム制御部11は、次の分割位置のフィルタ演算に移るために、変数nに「n+1」をセットする。このときの変数nはステップS100で設定された初期値の「0」であるため、ステップS105では変数nが「1」に設定されることになる。ステップS105の後、システム制御部11は、ステップS101へ処理を戻す。
In step S <b> 105, the
ステップS101に戻ると、システム制御部11は、現像処理部3からの画像信号をフィルタ処理部4へ入力させる。ここでは、説明を簡略にするため、このときフィルタ処理部4へ入力される画像は、前回の入力画像と同じ画像であるとする。次のステップS102の処理に進むと、システム制御部11は、フィルタ係数制御部5を制御してフィルタ処理部4へフィルタ係数を出力させる。このときのフィルタ処理部4は、例えば式(3)に示すようなフィルタ演算を行って第2の画像p1を生成する。式(3)の演算は、画像信号の画像全体に対して行われるものであり、したがって第2の画像p1は、図2における中央上の各フィルタ係数k1を用いて画像全体にフィルタを掛けた画像信号ということになる。
Returning to step S <b> 101, the
次のステップS103の処理に進むと、システム制御部11は、第2の画像p1の信号をメモリ6に保持させる。次のステップS104において、システム制御部11は、全分割数のフィルタ演算が完了したか否かを判断する。ステップS104において、システム制御部11は、全分割数のフィルタ演算が完了していないと判断した場合には処理をステップS105へ進め、一方、完了したと判断した場合には処理をステップS106へ進める。このときのシステム制御部11は、ステップS105へ処理を進め、変数nを「2」に設定して、ステップS101へ処理を戻す。
When the processing proceeds to the next step S103, the
以下同様に、システム制御部11は、ステップS101からS104、さらにステップS104からステップS105を経てステップS101へ戻る処理を、ステップS104で全分割数のフィルタ演算が完了したと判断されるまで繰り返す。本実施形態では、前述のようにフィルタ分割数が9分割であるため、変数の「n」は「0」から「8」までインクリメントされていくことになる。ステップS105で変数nが「2」に設定された後、前述の処理が行われて順次変数nがインクリメントされた場合、ステップS102では、式(4)〜式(10)に示す演算がフィルタ処理部4で行われることになる。これら式(4)〜式(10)に示すフィルタ演算により、フィルタ処理部4からは、第3の画像p2〜第9の画像p8の信号が出力されることになる。また、ステップS103では、それら第3の画像p2〜第9の画像p8の信号がメモリ6に保持される。
Similarly, the
そして、ステップS104にて全分割数の演算が完了したと判断して処理をステップS106へ進めると、システム制御部11は、合成部8を制御して、ここまでで計算されてメモリ6に保持された第1の画像p0〜第9の画像p8の信号を読み出させる。このときの合成部8は、システム制御部11による制御の下、メモリ6から読み出す各画像の画素位置を制御して、そのメモリ6から所定の位置(後述する参照位置)の各画素を読み出す。ステップS106の後、システム制御部11は、処理をステップS107へ進める。
Then, when it is determined in step S104 that the calculation of the total number of divisions has been completed and the process proceeds to step S106, the
ステップS107では、システム制御部11は、合成部8を制御して、メモリ6から第1の画像p0〜第9の画像p8からそれぞれ画素を読み出させて加算により合成させる。すなわち、このときの合成部8は、システム制御部11による制御の下、メモリ6から後述するように第1の画像p0〜第9の画像p8の画素を読み出し、それら読み出した各画素を加算することで画像を合成する。合成部8での画素加算による合成で形成された画像信号は、分割フィルタ処理によるぼかし処理後のボケ画像の信号となる。このフィルタ処理後のボケ画像の信号は、後述する背景被写体合成部10へ送られる。
In step S107, the
図5(a)〜図5(j)を用いて、フィルタ処理部4による分割フィルタ処理と合成部8で行われる第1の画像p0〜第9の画像p8の画素加算による合成動作について説明する。図5(a)〜図5(j)において、位置(i,j)の画素が着目画素であり、領域1000は着目画素に対して水平方向9タップで垂直方向9タップの空間フィルタが参照する範囲を示している。図5(a)の領域1001内の中心画素の位置は着目画素に対する画像上の参照位置を示している。同様に、図5(b)〜図5(i)の各領域1002〜1009の各中心画素の位置は、それぞれ着目画素に対する画像上の参照位置を示している。そして、図5(a)は第1の画像p0における着目画素及び空間フィルタの参照範囲と着目画素に対する画像上の参照位置を示した図である。同様に、図5(b)は第2の画像p1、図5(c)は第3の画像p2、図5(d)は第4の画像p3、図5(e)は第5の画像p4についての図である。図5(f)は第6の画像p5、図5(g)は第7の画像p6、図5(h)は第8の画像p7、図5(i)は第9の画像p8についての図である。図5(j)は、例えば第5の画像p4を例に挙げ、他の第1〜第4,第6〜第9の画像p0〜p3,p4〜p8における各領域1001〜1009を、第5の画像p4上に並べた図である。この図5(j)のように、第1〜第9の画像p0〜p8においてフィルタ処理の際にそれぞれ参照される範囲の大きさは同じになっている。
With reference to FIG. 5A to FIG. 5J, a description will be given of a synthesis operation by pixel division of the first image p <b> 0 to the ninth image p <b> 8 performed by the division filter processing by the
ここで、水平,垂直方向9タップの空間フィルタと等価な効果を得るためには、着目画素位置(i,j)に対し、第1の画像p0からは位置(i−3,j−3)を中心とした水平,垂直方向3タップの空間フィルタをかけた画素が必要となる。また、第2の画像p1からは位置(i,j−3)、第3の画像p2からは位置(i+3,j−3)、第4の画像p3からは位置(i−3,j)をそれぞれ中心とした水平,垂直方向3タップの空間フィルタをかけた画素が必要となる。さらに、第5の画像p4からは位置(i,j)、第6の画像p5からは位置(i+3,j)、第7の画像p6からは位置(i−3,j+3)をそれぞれ中心とした水平,垂直方向3タップの空間フィルタをかけた画素が必要となる。同様に、第8の画像p7からは位置(i,j+3)、第9の画像p8からは位置(i+3,j+3)をそれぞれ中心とした水平方,垂直方向3タップの空間フィルタをかけた画素が必要となる。合成部8は、それら第1の画像p0〜第9の画像p8において着目画素位置に対応した位置を中心とした水平,垂直方向3タップの空間フィルタをかけた各画素値を取得して加算することによる合成処理を行う。
Here, in order to obtain an effect equivalent to a spatial filter of 9 taps in the horizontal and vertical directions, the position (i-3, j-3) from the first image p0 with respect to the target pixel position (i, j). A pixel with a spatial filter of 3 taps in the horizontal and vertical directions centered on is required. Further, the position (i, j-3) from the second image p1, the position (i + 3, j-3) from the third image p2, and the position (i-3, j) from the fourth image p3. Pixels with a 3-tap spatial filter centered in the horizontal and vertical directions, respectively, are required. Further, the position is (i, j) from the fifth image p4, the position (i + 3, j) from the sixth image p5, and the position (i-3, j + 3) from the seventh image p6. Pixels with a spatial filter with 3 taps in the horizontal and vertical directions are required. Similarly, from the eighth image p7, a pixel having been subjected to a spatial filter of 3 taps in the horizontal and vertical directions centered at the position (i, j + 3) and from the ninth image p8 at the position (i + 3, j + 3), respectively. Necessary. The synthesizing
以上のように、フィルタ処理部4は、畳み込み演算を水平,垂直方向3タップずつに分割してフィルタ処理して第1〜第9の画像p0〜p8を生成し、合成部8は、それら第1〜第9の画像p0〜p8においてそれぞれ着目画素に対応した各画素値を加算する。これにより、回路規模は小さいながらも水平方向9タップ、垂直方向9タップの空間フィルタをかけた場合と同じ画像信号が得られることになる。
As described above, the
ところで、図2〜図5では、1枚の画像に対して、フィルタ係数を変えながら分割数に対応した回数のフィルタ処理を施し、それら分割数に対応した各フィルタ処理後の第1〜第9の画像を加算して合成する例を挙げて分割フィルタの概要を説明している。このように、1枚の画像に対して分割数に対応した回数のフィルタ処理を行う場合、最終結果のボケ画像が得られるまでの処理時間が長くなる。したがって、例えば動画像に対して分割フィルタ処理を適用する場合には、コストと処理時間の問題を解決しなければならない。すなわち、動画像の1フレームの画像に対して分割数に対応した回数のフィルタ処理を行うためには、高速処理が可能な高価な演算装置が必要になり、一方、処理速度が遅い安価な演算装置では1フレームの時間内に処理が終わらない虞がある。 2 to 5, a single image is subjected to the filter processing corresponding to the number of divisions while changing the filter coefficient, and the first to ninth after the filter processing corresponding to the number of divisions. The outline of the division filter is described by giving an example of adding and synthesizing the images. In this way, when the number of times of filter processing corresponding to the number of divisions is performed on one image, the processing time until the final blurred image is obtained becomes long. Therefore, for example, when dividing filter processing is applied to a moving image, the problem of cost and processing time must be solved. In other words, in order to perform the filter processing corresponding to the number of divisions on one frame image of a moving image, an expensive arithmetic device capable of high-speed processing is required, while on the other hand, an inexpensive arithmetic operation with a low processing speed is required. In the apparatus, there is a possibility that the processing does not end within one frame time.
ここで、動画像に対する分割フィルタ処理の一例として、図6に示すように、動画像の撮像がなされてその撮像順に入力される各フレームに対して、それぞれ分割フィルタ処理の一つの係数を用いたフィルタ処理を順に施すことを考えてみることにする。図6において、入力画像N−4,N−3,・・・,N+5,N+6は、動画像の撮像順に現像処理部3から出力されてフィルタ処理部4へ入力される各フレーム画像であり、それら各画像が時間順に並べられている。フィルタ係数k0,k1,・・・,k8は、前述の図5における分割フィルタの各係数である。フレーム画像p0aは、入力画像N−4のフレーム画像に対してフィルタ係数k0によるフィルタ処理がなされた後の画像である。同様に、フレーム画像p1a,・・・,p7a,p8aは、それぞれ対応した入力画像N−3,・・・,N+3,N+4のフレーム画像に対して、それぞれ対応したフィルタ係数k1,・・・,k7,k8による各フィルタ処理がなされた後の画像である。フィルタ係数k8によるフィルタ処理が行われた場合、それ以降の各フレームに対しては、前述同様に、フィルタ係数k0〜k8の各フィルタ係数によるフィルタ処理が行われることになる。図6の例では、入力画像N+5は、フィルタ係数k0によるフィルタ処理がなされることでフレーム画像p9aとなり、入力画像N+6はフィルタ係数k1によるフィルタ処理がなされることでフレーム画像p10aとなる。
Here, as an example of the division filter processing for the moving image, as shown in FIG. 6, one coefficient of the division filter processing is used for each frame in which the moving image is captured and input in the imaging order. Let's consider applying filter processing in order. In FIG. 6, input images N-4, N-3,..., N + 5, N + 6 are frame images that are output from the
そして、分割数に対応した所定フレーム数(9フレーム分)のフレーム画像が順次1フレームずつずらされながら、合成部8において前述のような画素加算により合成される。合成部8は、フレーム画像p0a〜p8aの9フレームに対する合成処理が終わると、次はフレーム画像p1a〜p9aの9フレームを、さらに次はフレーム画像p2a〜p10aのように、順次1フレームずつずらされながら合成処理する。また、9フレームの画像のうち、合成の際に時間的に基準となるフレームを基準フレームと呼び、それ以外を合成側フレームと呼ぶとすると、合成部8は、基準フレーム画像の着目画素に対して、合成側フレーム画像から得られた画素を加算する。なお、基準フレームは、一例として、時間順に並んだ9フレームのうち時間的に中央のフレームにすることができる。図6の例の場合は、入力画像Nのフレーム画像が基準フレーム画像となる。この図6に示したように、動画像の各フレームに対して、それぞれ分割フィルタ処理の一つの係数を用いたフィルタ処理を行うことで、処理速度が遅い安価な演算装置を用いた場合でも、動画像のボケ画像を生成できるようになると考えられる。
Then, a frame image of a predetermined number of frames (9 frames) corresponding to the number of divisions is synthesized by pixel addition as described above in the
ところで、例えば、ズーム光学系により画角を変えながら動画像撮像が行われ、それぞれ異なる画角で撮像されたフレーム画像がフィルタ処理部4へ入力されたような場合、ぼかしが不十分になったり、逆にぼかし過ぎになったりすることがある。すなわち、異なった画角で撮像されたフレーム画像を用いて図6のようなフィルタ処理が行われた場合、例えば、合成側フレーム画像のフィルタ処理が、基準フレーム画像に対して広い又は狭い参照範囲によるフィルタ処理になってしまうことが考えられる。また、フレーム画像の画角が異なる場合、畳み込み演算の重心位置がずれてしまうことがある。これらの場合、ぼかしが不十分なボケ画像が生成されたり、逆に、ぼかし過ぎたボケ画像が生成されたりする虞がある。
By the way, for example, when moving image capturing is performed while changing the angle of view by the zoom optical system, and frame images captured at different angles of view are input to the
以下、図7を参照して、ズーム光学系により画角を変えながら撮像された動画像の各フレーム画像を用い、図6のようなフィルタ処理と合成処理が行われた場合の参照範囲と、畳み込み演算の重心位置のズレについて説明する。 Hereinafter, with reference to FIG. 7, using each frame image of the moving image captured while changing the angle of view by the zoom optical system, the reference range when the filtering process and the combining process as shown in FIG. 6 are performed, A shift in the center of gravity position of the convolution calculation will be described.
図7(a)から図7(i)は、画角を徐々に狭める(ズーム倍率を徐々に上げる)ズームインがなされながら撮像された動画像の各フレームの例を示している。図7(a)〜図7(i)において、位置(i,j)の画素が着目画素であり、領域2000は各画像上で着目画素に対して水平方向9タップ、垂直方向9タップの空間フィルタが参照する範囲を示している。領域2001〜2009の各中心画素の位置は、着目画素に対する画像上の参照位置を示している。また、図7(a)は、第1のフレーム画像p0aにおける着目画素及び空間フィルタの参照範囲と着目画素に対する画像上の参照位置を示した図である。以下同様に、図7(b)は第2のフレーム画像p1a、図7(c)は第3のフレーム画像p2a、図7(d)は第4のフレーム画像p3a、図7(e)は第5のフレーム画像p4aについての図である。図7(f)は第6のフレーム画像p5a、図7(g)は第7のフレーム画像p6a、図7(h)は第8のフレーム画像p7a、図7(i)は第9のフレーム画像p8aについての図である。図7(j)は、第5のフレーム画像p4aを基準フレーム画像とし、他の合成側フレーム画像p0a〜p3a,p5a〜p8aを基準フレーム画像の画角に合わせた場合の領域2001〜2009を、基準フレーム画像上に並べた図である。
FIG. 7A to FIG. 7I show examples of each frame of a moving image captured while zooming in while gradually narrowing the angle of view (gradually increasing the zoom magnification). 7A to 7I, the pixel at the position (i, j) is the target pixel, and the
この図7(j)のように、各フレーム画像の画角が異なっている場合、基準フレーム画像に対する合成側フレーム画像の各領域2001〜2009の大きさは、画角(ズーム倍率)によって変わっていることがわかる。言い換えると、基準フレームと合成側フレームが同画角である場合には、各領域の大きさと位置は、図5(j)の各領域1001〜1009のようになるが、各フレームの画角が異なっている場合には、図7(j)の領域2001〜2009ようになる。すなわち、この図7(j)のような場合、ぼかし具合が変わってしまうことになる。
As shown in FIG. 7J, when the angle of view of each frame image is different, the size of each
このようなことから、本実施形態の撮像装置においては、合成制御手段の一例である合成比率生成部7により、画角(ズーム倍率)に応じた合成比率を生成し、その合成比率に応じて合成部8での合成処理を制御する。これにより、本実施形態の撮像装置は、動画像の撮像の際に光学ズームの倍率変更により画角が異なった場合におけるぼかし具合の変動を少なくしている。
For this reason, in the imaging apparatus of the present embodiment, the composition
以下、合成比率生成部7による合成部8の合成処理の制御動作について説明する。例えば、基準フレーム画像に対して合成側フレーム画像の方の画角が狭い(ズーム倍率が高い)場合、図7(j)の領域2009のように、参照範囲が狭くなってしまうため、ぼかし量が少なくなってしまう。一方、基準フレームに対して合成側フレームの方の画角が広い(ズーム倍率が低い)場合には、図7(j)の領域2001のように、参照範囲が広くなってしまうため、ぼかし過ぎになってしまう。
Hereinafter, the control operation of the synthesis process of the
そこで、本実施形態では、システム制御部11は、合成部8において合成処理が行われるとき、各フレーム画像の画角(ズームレンズに設定したズーム倍率)に対応した光学ズーム情報を、合成比率生成部7へ送る。
Thus, in the present embodiment, the
合成比率生成部7は、各フレームにおける光学ズーム情報を参照し、基準フレームに対して合成側フレームの方の画角が狭い(ズーム倍率が高い)場合には、図8に示すように、合成側フレームの画素に対する重みを重くするような合成比率情報を合成部8へ送る。これにより、合成部8では、基準フレーム画像に合成側フレーム画像を合成する際に、合成側フレーム画像の画素に対する重みが重くなされた合成が行われる。すなわちこの場合、合成後のフレーム画像は、基準フレーム画像に対して合成側フレーム画像の画素の比率が高められることになり、ぼかし量が多くなる。
The composition
一方、合成比率生成部7は、基準フレームに対して合成側フレームの方の画角が広い(ズーム倍率が低い)場合には、図8に示すように、合成側フレーム画像の画素に対する重みを軽くするような合成比率情報を合成部8へ送る。これにより、合成部8では、基準フレーム画像に合成側フレーム画像を合成する際、合成側フレーム画像の画素に対する重みが軽くなされた合成が行われる。すなわちこの場合、合成後のフレーム画像は、合成側フレーム画像に対して基準フレーム画像の画素の比率が高められることになり、ぼかし過ぎを防ぐことができる。
On the other hand, when the angle of view of the compositing side frame is wider (low zoom magnification) than the reference frame, the compositing
このように、本実施形態の撮像装置においては、光学ズームの倍率変更により各フレームの画角が異なっている場合、合成比率(重み)が変えられることで、ぼかし具合のバランスがとれるようになり、ぼかし具合の変動を軽減することが可能となる。 As described above, in the imaging apparatus according to the present embodiment, when the angle of view of each frame is different due to the change in magnification of the optical zoom, the composition ratio (weight) is changed, so that the degree of blurring can be balanced. It is possible to reduce fluctuations in the degree of blurring.
次に、図9には、フィルタ処理部4において動画像の各フレーム画像に対して図6のようなフィルタ処理が行われ、合成部8において合成比率に応じた合成処理が行われる際のフローチャートを示す。図9のフローチャートは、システム制御部11が、フィルタ処理部4の制御、メモリ6の制御、合成比率生成部7における合成比率生成の制御、合成部8の合成制御を行うことにより実行される。
Next, FIG. 9 is a flowchart when the
図9において、システム制御部11は、先ずステップS200の処理として、変数nに初期値の「0」をセットする。変数nは、分割フィルタの分割数に対応しており、これは言い換えると図6で説明した所定フレーム数に対応している。図9の場合、フィルタ分割数は9分割で、9フレームの画像が合成されるため、変数nは「0」〜「8」の値となる。ステップS200の後、システム制御部11は、処理をステップS201へ進める。
In FIG. 9, the
ステップS201では、システム制御部11は、現像処理部3から例えば1フレーム目のフレーム画像の信号をフィルタ処理部4へ入力させる。このステップS201の後、システム制御部11は、処理をステップS202へ進める。
In step S <b> 201, the
ステップS202では、システム制御部11は、フィルタ係数制御部5を制御してフィルタ処理部4へフィルタ係数を出力させ、前述の式(2)のフィルタ演算を行って、1フレーム目の画像信号にフィルタ処理を施して第1のフレーム画像p0aを生成する。この場合の式(2)の演算は、フレーム画像全体に対して行われるものである。第1のフレーム画像p0aは、図6におけるフィルタ係数k0を用いてフレーム画像全体にフィルタが掛けられた画像となる。
In step S202, the
ステップS202の後、システム制御部11は、処理をステップS203へ進める。ステップS203では、システム制御部11は、第1のフレーム画像p0aの信号をメモリ6に保持させる。ステップS203の後、システム制御部11は、処理をステップS204へ進める。
After step S202, the
ステップS204では、システム制御部11は、全分割数に対応した所定フレーム数のフィルタ演算が完了したか否かを判断する。具体的には、本実施形態では、9分割に対応した9フレーム分のフィルタ演算が行われ、変数nが「0」〜「8」の値を取り得るため、システム制御部11は、変数nが「8」になっている場合に演算が完了したと判断する。ステップS204において、システム制御部11は、全分割数に対応した各フレーム画像のフィルタ演算が完了していないと判断した場合には処理をステップS205へ進め、一方、完了したと判断した場合には処理をステップS206へ進める。
In step S <b> 204, the
ステップS205では、システム制御部11は、次の2フレーム目のフィルタ演算に移るために、変数nに「n+1」をセットする。このときの変数nはステップS200で設定された初期値の「0」であるため、ステップS205では変数nが「1」に設定されることになる。ステップS205の後、システム制御部11は、ステップS201へ処理を戻す。
In step S <b> 205, the
ステップS201に戻ると、システム制御部11は、現像処理部3から出力された2フレーム目の画像信号をフィルタ処理部4へ入力させる。次のステップS202の処理に進むと、システム制御部11は、フィルタ係数制御部5を制御してフィルタ処理部4へフィルタ係数を出力させる。このときのフィルタ処理部4は、前述の式(3)に示すようなフィルタ演算を行って第2のフレーム画像p1aを生成する。この場合も式(3)の演算は、フレーム画像全体に対して行われるものであり、したがって第2のフレーム画像p1aは、図6のフィルタ係数k1を用いてフレーム画像全体にフィルタが掛けられた画像となる。
Returning to step S <b> 201, the
次のステップS203の処理に進むと、システム制御部11は、第2のフレーム画像p1aの信号をメモリ6に保持させる。次のステップS204において、システム制御部11は、全分割数に対応した各フレーム画像のフィルタ演算が完了したか否かを判断する。ステップS204において、システム制御部11は、全分割数に対応したフレーム画像のフィルタ演算が完了していないと判断した場合には処理をステップS205へ進め、一方、完了したと判断した場合には処理をステップS206へ進める。このときのシステム制御部11は、ステップS205へ処理を進め、変数nを「2」に設定して、ステップS201へ処理を戻す。
When the processing proceeds to the next step S203, the
以下同様に、システム制御部11は、ステップS201からS204、ステップS204からステップS205を経てステップS201へ戻る処理を、ステップS204で全分割数に対応した各フレーム画像のフィルタ演算が完了したと判断されるまで繰り返す。本実施形態では、前述のようにフィルタ分割数が9分割でフレーム数が9フレームであるため、変数の「n」は「0」から「8」までインクリメントされていくことになる。ステップS205で変数nが「2」に設定された後、前述の処理が行われて順次変数nがインクリメントされた場合、ステップS201では、3フレーム目〜9フレーム目までの各フレーム画像が順番に入力されることになる。また、ステップS202では、3フレーム目〜9フレーム目までの各フレームの順に、前述した式(4)〜式(10)に示す演算がフィルタ処理部4で順番に行われることになる。これら式(4)〜式(10)に示すフィルタ演算により、フィルタ処理部4からは、第3のフレーム画像p2a〜第9のフレーム画像p8aの信号が出力される。また、ステップS203では、それら第3のフレーム画像p2a〜第9のフレーム画像p8aの信号がメモリ6に保持される。
Similarly, the
そして、ステップS204にて全分割数に対応した各フレーム画像の演算が完了したと判断して処理をステップS206へ進めると、システム制御部11は、合成比率生成部7に対して各フレームにおける光学ズーム情報を送る。これにより、合成比率生成部7では、前述したような合成比率を生成し、その合成比率の情報を合成部8へ出力する。ステップS206の後、システム制御部11は、処理をステップS207へ進める。
Then, when it is determined in step S204 that the calculation of each frame image corresponding to the total number of divisions has been completed and the process proceeds to step S206, the
ステップS207では、システム制御部11は、合成部8を制御し、合成比率生成部7で生成された合成比率に基づいて、基準フレームと合成側フレームの画像を読み出させる。このときの合成部8は、システム制御部11による制御の下、メモリ6から読み出す各画像の画素位置を制御して、そのメモリ6から参照位置の各画素を読み出す。また、システム制御部11は、メモリ6に保持されている1フレーム目から9フレーム目の各フレーム画像から例えば動きベクトルなどの動き情報を算出し、その動き情報に基づいて、合成部8がメモリ6から画素を読み出す際の画素位置を補正する。すなわち、1フレーム目から9フレーム目の各フレーム画像は、それぞれ動画像のフレーム画像であり、撮影の際の被写体又は撮像装置の移動により、各フレーム画像内における被写体像等の位置が変わっている可能性がある。このため、システム制御部11は、動き情報に基づいて合成部8がメモリ6から画素を読み出す際の画素位置を補正することにより、被写体や撮像装置の動きによる各フレーム画像内の被写体像等の動きを補償させる。ステップS207の後、システム制御部11は、処理をステップS208へ進める。
In step S207, the
ステップS208では、システム制御部11は、合成部8を制御して、第1のフレーム画像p0a〜第9のフレーム画像p8aから読み出された各画素を加算して合成させる。すなわち、このときの合成部8は、システム制御部11による制御の下、メモリ6から読み出された各フレーム画像の各画素を加算により合成する。合成部8での画素加算による合成処理で形成されたフレーム画像の信号は、動画像に対する分割フィルタ処理によるボケ画像の信号となる。このフィルタ処理後のボケ画像は、前述した背景被写体合成部10へ送られ、前述したように主被写体判別部9からの主被写体情報に基づいて抜き出された主被写体画像が合成されることになる。
In step S208, the
ステップS208の後、システム制御部11は、処理をステップS209へ進める。ステップS209では、システム制御部11は、例えばユーザ等からの指示により動画像に対するぼかし処理を終了するか否か判断する。そして、システム制御部11は、ステップS209においてぼかし処理を終了すると判断した場合には、この図9のフローチャートの処理を終了させる。
After step S208, the
一方、ステップS209においてぼかし処理を終了しないと判断した場合、システム制御部11は、ステップS201へ処理を戻す。すなわち例えば、前述のように1フレーム目〜9フレーム目の処理が終わった後には、システム制御部11は、ステップS201で現像処理部3から出力された10フレーム目の画像信号をフィルタ処理部4へ入力させる。システム制御部11は、次のステップS202ではフィルタ処理部4に10フレーム目の画像信号のフィルタ処理を行わせて第10のフレーム画像p9aを生成させ、次のステップS203では第10のフレーム画像p9aをメモリ6に保持させる。このときのメモリ6には、第2のフレーム画像p1a〜第10のフレーム画像p9aの9フレーム分が保持されていることになる。次に、ステップS204では、システム制御部11は、9フレーム分の演算が完了していると判断して、ステップS206へ処理を進め、ステップS206で合成比率生成部7に光学ズーム情報に基づく合成比率を算出させて合成部8へ送らせる。そして、システム制御部11は、ステップS207でメモリ6から第2のフレーム画像p1a〜第10のフレーム画像p9aを読み出させて、ステップS208で合成部8の加算による合成を行わせる。以下、同様であり、ステップS209でぼかし処理を終了すると判断されるまで、順次1フレームずつずらされながら、フィルタ処理部4でのフィルタ処理と合成部8での加算による合成処理がなされる。
On the other hand, when determining in step S209 that the blurring process is not to be ended, the
<第2の実施形態>
次に、図10〜図12を参照しながら、第2の実施形態の撮像装置について説明する。第2の実施形態において、第1の実施形態で説明したものと同じ構成要素等にはそれぞれ第1の実施形態と同一の指示番号を付し、重複した説明は省略する。
<Second Embodiment>
Next, an imaging apparatus according to the second embodiment will be described with reference to FIGS. In the second embodiment, the same constituent elements as those described in the first embodiment are denoted by the same instruction numbers as those in the first embodiment, and redundant description is omitted.
第2の実施形態の撮像装置は、基準フレームに対し合成側フレームの方の画角が狭い(ズーム倍率が高い)場合に、違和感のある合成画像が生成される虞があるため、違和感のない合成画像の生成を可能とした画像信号処理装置の一例である。すなわち例えば、基準フレームに対し合成側フレームの方の画角が狭い場合、基準フレームより画角が狭い分だけ、合成側フレームにおける参照領域が不足してしまうことが起きる可能性がある。このように参照領域が不足したまま合成処理を行ってしまうと、その不足した参照領域には画素が無いので、合成処理後の画像は違和感のある画像になってしまう。このため、第2の実施形態の撮像装置は、不足してしまう参照領域を基準フレームより補うことで、違和感のない合成画像を生成可能としている。 The imaging apparatus according to the second embodiment has no sense of incongruity because a composite image with a sense of incongruity may be generated when the angle of view of the compositing side frame is narrower than the reference frame (the zoom magnification is high). It is an example of the image signal processing apparatus which enabled the production | generation of the synthesized image. That is, for example, when the angle of view of the compositing side frame is narrower than that of the base frame, there is a possibility that the reference area in the compositing side frame is insufficient due to the narrower angle of view than the base frame. In this way, if the synthesis process is performed with a shortage of reference areas, there are no pixels in the lacked reference area, so that the image after the synthesis process becomes an uncomfortable image. For this reason, the imaging apparatus according to the second embodiment can generate a composite image without a sense of incongruity by supplementing a reference area that is insufficient from the base frame.
図10を用い、基準フレームに対し合成側フレームの方の画角が狭い(ズーム倍率が高い)場合に、合成側フレームで参照領域が不足する具体例について説明する。図10(a)は、前述の図7の第5のフレーム画像p4aと同じ画像であり、着目画素位置が(k,j)であるときの空間フィルタの参照範囲2000と着目画素に対する領域2005を表す図である。この第5のフレーム画像p4aが基準フレームの画像であるとする。一方、図10(b)は、図7(i)の第9のフレーム画像p8aと同じ画像であり、着目画素位置が(k,j)であるときの空間フィルタの参照範囲2000と着目画素に対する領域2009を表す図である。この第9のフレーム画像p8aが合成側フレームの画像であるとする。また、図10(a)の領域3000は、第9のフレーム画像p8aの画角に対応した領域を示している。図10(a)における着目画素位置(k,j)は、図10(b)上では(m,j)の位置に該当し、(m,j)の位置を基準に領域2009が設定されるため、第9のフレーム画像p8aの領域2009における参照位置は、画像外となってしまう。すなわち、この図10(a)と図10(b)から判るように、基準フレーム(第5のフレーム画像p4a)に対し合成側フレーム(第9のフレーム画像p8a)の方の画角が狭い場合に、合成側フレームの参照領域が不足する。
A specific example in which the reference area is insufficient in the composition side frame when the angle of view of the composition side frame is narrower (the zoom magnification is high) with respect to the base frame will be described with reference to FIG. FIG. 10A is the same image as the fifth frame image p4a of FIG. 7 described above, and shows the
図11には、不足する参照領域を基準フレームより補って違和感のない合成画像を生成可能とする、第2の実施形態の撮像装置の概略構成を示す。以下、第1の実施形態と異なる構成要素について説明する。図11に示す第2の実施形態の撮像装置は、合成制御手段に含まれる拡大合成部12を備えている。
FIG. 11 shows a schematic configuration of an imaging apparatus according to the second embodiment that makes it possible to generate a composite image without a sense of incongruity by supplementing a deficient reference area with a reference frame. Hereinafter, components different from the first embodiment will be described. The imaging apparatus according to the second embodiment illustrated in FIG. 11 includes an enlargement /
拡大合成部12は、基準フレーム及び合成側フレームの画像信号をメモリ6より読み出して取得する。また、拡大合成部12は、システム制御部11からの光学ズーム情報に基づいて、基準フレームと合成側フレームの画角(ズーム倍率)を比較し、基準フレームに対し合成側フレームの方の画角が狭くなっているか判定する。拡大合成部12は、基準フレームよりも合成側フレームの画角が狭いと判定した場合、合成側フレームの参照位置が画像外になる可能性があると判断し、基準フレーム画像を合成側フレーム画像の画角(ズーム倍率)に合わせるように拡大する。具体的には、拡大合成部12は、基準フレームに対し合成側フレームの方の画角が狭いと判定した場合、基準フレームの画角と合成側フレームの画角との間の差分(画角差分)を求める。そして、拡大合成部12は、その画角差分に相当する倍率だけ、基準フレーム画像を拡大する。次に、拡大合成部12は、合成側フレームの画角に合わせて拡大した基準フレーム画像から、合成側フレーム画像より外側となる領域に相当する画像部分のみを取り出し、その取り出した画像部分を合成側フレーム画像の周囲に合成する。これにより、拡大した基準フレーム画像から取り出した画像部分が周囲に合成された後の合成側フレーム画像における画角は、拡大前の基準フレーム画像における画角と同じになる。
The enlargement /
図12は、拡大合成部12において、前述のように拡大した基準フレーム画像から取り出された画像部分が、合成側フレーム画像の周囲に合成された後の合成側フレーム画像p8bの一例を示す図である。この図12において、領域3001は元の第9のフレーム画像p8aに対応しており、領域3002は基準フレーム画像である第5のフレーム画像p4aを第9のフレーム画像p8aとの画角差分(倍率差)に合わせて拡大した画像に対応している。図12の例では、領域3001の外側の画像部分が、拡大された基準フレーム画像から取り出される画像部分であり、合成側フレーム画像(p8a)の周囲に合成される画像部分である。この図12のような合成後の合成側フレーム画像p8bは、領域2009の参照位置に画素が存在している。
FIG. 12 is a diagram illustrating an example of the synthesis-side frame image p8b after the image portion extracted from the enlarged reference frame image as described above is synthesized around the synthesis-side frame image in the enlargement /
拡大合成部12は、前述のようにして、拡大した基準フレーム画像から参照領域が補われた合成側フレーム(画像p8b)の画像信号を、合成部8へ出力する。これにより、合成部8では、参照位置が存在している合成側フレーム(画像p8b)を用いた画像合成が可能となる。したがって、第2の実施形態の撮像装置によれば、違和感のない合成画像が生成されることになる。
The enlargement /
<第3の実施形態>
次に、図13と図14を参照して、第3の実施形態の撮像装置について説明する。第3の実施形態において、第1の実施形態で説明したものと同じ構成要素等にはそれぞれ第1の実施形態と同一の指示番号を付し、重複した説明は省略する。
<Third Embodiment>
Next, an image pickup apparatus according to the third embodiment will be described with reference to FIGS. 13 and 14. In the third embodiment, the same constituent elements as those described in the first embodiment are denoted by the same instruction numbers as those in the first embodiment, and redundant description is omitted.
第3の実施形態の撮像装置は、基準フレームに対し合成側フレームの方の画角が狭い場合に、違和感のない合成画像の生成を可能とした画像信号処理装置の一例である。第3の実施形態は、基準フレームに対し合成側フレームの方の画角が狭い場合、基準フレーム自体を、画角が狭い(ズーム倍率が高い)フレーム画像へ切り替えることにより、合成側フレームで参照領域の不足が発生しないようにする。 The imaging apparatus according to the third embodiment is an example of an image signal processing apparatus that can generate a composite image without a sense of incongruity when the angle of view of the synthesis side frame is narrower than the reference frame. In the third embodiment, when the angle of view of the compositing side frame is narrower than the reference frame, the reference frame itself is referred to by the compositing side frame by switching to a frame image having a narrow angle of view (high zoom magnification). Avoid running out of space.
図13には、基準フレームを画角が狭い(ズーム倍率が高い)フレーム画像へ動的に切り替えることで、合成側フレームで参照領域の不足が発生しないようにして、違和感のない合成画像を生成可能とする、第3の実施形態の撮像装置の概略構成を示す。以下、第1の実施形態と異なる構成要素について説明する。図13に示す第3の実施形態の撮像装置は、合成制御手段に含まれる基準フレーム選択部13を備えている。
In FIG. 13, the base frame is dynamically switched to a frame image with a narrow angle of view (high zoom magnification), so that a composite image without a sense of incongruity is generated without causing a shortage of a reference area in the compositing side frame. The schematic structure of the imaging device of 3rd Embodiment which enables is shown. Hereinafter, components different from the first embodiment will be described. The imaging apparatus according to the third embodiment illustrated in FIG. 13 includes a reference
基準フレーム選択部13は、システム制御部11からの光学ズーム情報に基づいて、基準フレームと合成側フレームの画角を比較し、基準フレームに対し合成側フレームの方の画角が狭く(ズーム倍率が高く)なっているか判定する。基準フレーム選択部13は、基準フレームより合成側フレームの方の画角が狭いと判定した場合、合成側フレームの参照位置が画像外になる可能性があると判断し、最も画角が狭い(最もズーム倍率が高い)フレームを選択する。具体的には、拡大合成部12は、基準フレームより合成側フレームの方の画角が狭いと判定した場合、光学ズーム情報に基づいて、前述した9フレームのうち最も画角が狭いフレームを選択する。そして、基準フレーム選択部13は、選択したフレームを基準フレームに設定し、その基準フレームが前述の9フレームのうちの何れのフレームであるかを、合成部8へ知らせる。
The reference
図14を参照して、基準フレーム選択部13が基準フレームを動的に切り替える例について説明する。図14(a)〜図14(k)はそれぞれ時間順のフレーム画像p1c〜p11cの一例を示している。また、図14(a)〜図14(f)のフレーム画像p1c〜p6cは、画角を徐々に狭める(ズーム倍率を徐々に上げる)ズームインがなされた場合の各フレーム画像の一例を示している。一方、図14(g)〜図14(k)のフレーム画像p7c〜p11cは画角を徐々に広げる(ズーム倍率を徐々に下げる)ズームアウトがなされた場合の各フレーム画像の一例を示している。なお、図14(a)〜図14(k)において、領域4000は各画像上で着目画素に対して水平,垂直方向9タップの空間フィルタが参照する範囲を示している。領域4001〜4011の各中心画素の位置は、着目画素に対する画像上の参照位置を示している。また、図14(a)は、フレーム画像p0cにおける着目画素及び空間フィルタの参照範囲と着目画素に対する画像上の参照位置を示した図である。以下同様に、図14(b)〜図14(k)はフレーム画像p1c〜p11cについての図である。
An example in which the reference
合成部8における合成処理では、9枚のフレーム画像があればよいので、先ず図14(a)〜図14(i)の9枚のフレーム画像p1c〜p9cの合成処理がなされる場合を例に挙げる。これら図14(a)〜図14(i)のフレーム画像p1c〜p9cにおいて、画角が最も狭いのは、図14(a)のフレーム画像p1cである。したがってこの場合、基準フレーム選択部13は、このフレーム画像p1cを基準フレームとして選択する。
In the synthesis process in the
合成部8は、次のフレーム画像を合成処理する際には、図14(b)〜図14(j)の9枚のフレーム画像p2c〜p10cを用いた合成処理を行うことになる。これら図14(b)〜図14(j)のフレーム画像p2c〜p10cにおいて、画角が最も狭いのは、図14(b)のフレーム画像p2cと図14(j)のフレーム画像p10cである。このように、9枚のフレーム画像の中に、最も画角が狭いフレーム画像が複数存在する場合、基準フレーム選択部13は、動画像における時間の連続性を考慮して、時間的に前のフレーム画像である図14(b)のフレーム画像p2cを選択する。
When synthesizing the next frame image, the synthesizing
さらに、合成部8は、次のフレーム画像を合成処理する際には、図14(c)〜図14(k)の9枚のフレーム画像p3c〜p11cを用いた合成処理を行うことになる。これら図14(c)〜図14(k)のフレーム画像p3c〜p11cにおいて、画角が最も狭いのは、図14(k)のフレーム画像p11cである。したがって、基準フレーム選択部13は、このフレーム画像p11cを基準フレームとして選択する。
Furthermore, when synthesizing the next frame image, the synthesizing
なお、前述した図14(a)〜図14(k)のフレーム画像p1c〜p11cの例の場合、基準フレームは、先ず図14(a)のフレーム画像p1cが選択され、次に図14(c)のフレーム画像p2c、その後図14(k)のフレーム画像p11cが選択される。したがって、図14(k)のフレーム画像p11cよりも時間的に前の図14(c)〜図14(j)のフレーム画像p3c〜p10cは、何れも基準フレームとして選択されないことになる。すなわち、図14(c)〜図14(j)のフレーム画像p3c〜p10cが基準フレームとなされて合成された画像が抜けてしまうことになるので、時間方向の連続性は失われることになる。しかしながら、本実施形態の場合、合成側フレームで参照領域が不足することはないため、実際には違和感の無い合成画像を得ることができる。 In the case of the frame images p1c to p11c in FIGS. 14A to 14K described above, the frame image p1c in FIG. 14A is first selected as the reference frame, and then FIG. ) Frame image p2c, and then the frame image p11c of FIG. 14 (k) is selected. Accordingly, none of the frame images p3c to p10c of FIGS. 14C to 14J temporally prior to the frame image p11c of FIG. 14K is selected as the reference frame. That is, since the frame images p3c to p10c in FIGS. 14C to 14J are used as reference frames and the synthesized image is lost, the continuity in the time direction is lost. However, in the case of the present embodiment, since there is no shortage of the reference area in the compositing side frame, it is possible to obtain a composite image that does not actually feel strange.
以上のように、第3の実施形態によれば、基準フレームに対し合成側フレームの方の画角が狭い場合、基準フレームを画角が狭い(ズーム倍率が高い)フレーム画像へ動的に切り替えることで、違和感のない合成画像を生成可能となる。 As described above, according to the third embodiment, when the angle of view of the compositing frame is narrower than the reference frame, the reference frame is dynamically switched to a frame image with a narrow angle of view (high zoom magnification). Thus, it is possible to generate a composite image without a sense of incongruity.
<第4の実施形態>
次に、図15〜図17を参照して、第4の実施形態の撮像装置について説明する。第4の実施形態において、第1の実施形態で説明したものと同じ構成要素等にはそれぞれ第1の実施形態と同一の指示番号を付し、重複した説明は省略する。
<Fourth Embodiment>
Next, an imaging device according to a fourth embodiment will be described with reference to FIGS. In the fourth embodiment, the same constituent elements as those described in the first embodiment are denoted by the same instruction numbers as those in the first embodiment, and redundant description is omitted.
図15には、第4の実施形態の撮像装置の概略構成を示す。以下、第1の実施形態と異なる構成要素について説明する。図15に示す第4の実施形態の撮像装置は、図1に示した第1の実施形態の撮像装置の合成比率生成部7に代えて、合成制御手段の一例である読み出し制御部14を備えている。
FIG. 15 shows a schematic configuration of an imaging apparatus according to the fourth embodiment. Hereinafter, components different from the first embodiment will be described. An imaging apparatus according to the fourth embodiment illustrated in FIG. 15 includes a read
読み出し制御部14には、システム制御部11から光学ズーム情報が供給され、したがって、基準フレームに対する合成側フレームの画角(ズーム倍率)を知ることができる。そして、読み出し制御部14は、基準フレームに対する合成側フレームの画角(ズーム倍率)に基づいて、合成部8による読み出し位置を制御する。すなわち、読み出し制御部14は、参照領域の中心(参照位置)が、基準フレームと合成側フレームが同画角であるときの参照位置に重なるように、合成部8によるメモリ6の読み出し位置を制御する。
The
読み出し制御部14による読み出し位置制御について、前述の図7(a)〜図7(j)と、図16(a),図16(b)を用いて説明する。なお、図16(a)は基準フレームに対する合成側フレームの画角(ズーム倍率)と、読み出し制御部14が読み出し位置をずらすような制御を行う際のずらし量との関係を示す図である。なお、読み出し位置のずらし量とは、前述の図7(j)の各領域2001〜2009の場合の各参照位置に対応した読み出し位置に対して、読み出し制御部14が画角に応じて求める読み出し位置との差に相当する。言い換えると、読み出し制御部14は、図7(j)の各領域2001〜2009の場合の各参照位置に対応した読み出し位置を、画角に応じたずらし量だけずらすような読み出し位置制御を行う。図16(b)は、第5のフレーム画像p4aを基準フレームとし、他のフレーム画像p0a〜p3a,p5a〜p8aを基準フレームの画角に合わせた場合の各領域2001r〜2009rを、基準フレームの画像上に並べた図である。すなわち、図16(b)は、読み出し制御部14により画角に応じた読み出し制御がなされた場合の、基準フレーム画像(p4a)と、他の合成側フレーム画像(p0a〜p3a,p5a〜p8a)の各領域2001r〜2009rの位置関係を表している。
Read position control by the
ここで、前述した図7(j)で説明したように、各フレーム画像においてフィルタ処理の際に参照される範囲の大きさは、画角(ズーム倍率)によって変わっている。例えば、基準フレームが第5のフレーム画像p4aで、合成側フレームが第9のフレーム画像p8aの場合、基準フレームに対して合成側フレームの画角が狭いため、図7(j)の領域2009のように参照領域が狭くなってぼかし量は少なくなる。一方、例えば、基準フレームが第9のフレーム画像p8aで、合成側フレームが第1のフレーム画像p1aの場合、合成側フレームの画角が広いため、図7(j)の領域2001のように参照領域が広くなってぼかし過ぎになる。
Here, as described with reference to FIG. 7J described above, the size of the range referred to in the filtering process in each frame image varies depending on the angle of view (zoom magnification). For example, when the reference frame is the fifth frame image p4a and the compositing side frame is the ninth frame image p8a, the angle of view of the compositing side frame is narrower than the reference frame, so the
このようなことから、第4の実施形態において、読み出し制御部14は、参照領域の中心(参照位置)が、基準フレームと合成側フレームが同画角であるときの参照位置に重なるように、合成部8による読み出し位置を制御する。具体的には、基準フレームが第5のフレーム画像p4aで、合成側フレームが第9のフレーム画像p8aの場合、読み出し制御部14は、前述の図5(j)の領域1009と中心位置が重なる、図16(j)の領域2009rの中心を、参照位置とする。一方、基準フレームが第9のフレーム画像p8aで、合成側フレームが第5のフレーム画像p4aの場合、読み出し制御部14は、前述の図5(j)の参照領域1001と中心位置(参照位置)が重なる、図16(j)の領域2001rの中心を、参照位置とする。
For this reason, in the fourth embodiment, the
図16(b)と図7(j)を、図5(i)と対比させて説明すると、図7(j)の各領域2001r〜2009rの中心位置は、図5(j)の各領域1001〜1009の中心位置から離れている。一方、図16(b)の各領域2001r〜2009rの中心位置は、図5(j)の各領域1001〜1009の中心位置と一致している。すなわち、図16(b)のような領域2001r〜2009rの中心が参照位置となるような読み出し制御が行われた場合、合成部8による合成処理後の画像は、図7(j)の場合の合成処理後の画像よりも、ぼかし具合のバランスが良い画像となる。このように、第4の実施形態の撮像装置によれば、動画像の撮像において光学ズームの倍率が変更されて画角が異なった場合に、読み出し位置制御を行うことで、ぼかし具合のバランスをとることができ、ぼかし具合の変動を軽減することが可能である。
16 (b) and FIG. 7 (j) will be described in comparison with FIG. 5 (i). The central positions of the
次に、図17には、第4の実施形態におけるフィルタ処理から合成処理までのフローチャートを示す。図17のフローチャートは、システム制御部11が、フィルタ処理部4の制御、メモリ6の制御、読み出し制御部14における読み出し位置制御、合成部8の合成制御を行うことにより実行される。なお、図17において、前述の図9で説明した各ステップと同じ処理には同一の指示番号を付し、重複した説明は省略する。
Next, FIG. 17 shows a flowchart from filter processing to synthesis processing in the fourth embodiment. The flowchart of FIG. 17 is executed by the
図17において、前述の図9のフローチャートと異なる処理が行われるのはステップS306である。図17のフローチャートにおいて、ステップS204で全分割数に対応した所定フレーム数分の演算が完了したと判断すると、システム制御部11は、処理をステップS306へ進める。ステップS306では、システム制御部11は、読み出し制御部14に対して、各フレームにおける光学ズーム情報を送る。これにより、読み出し制御部14は、基準フレームと合成側フレームの画角(ズーム倍率)に基づいて、前述した図16(a)で説明したような読み出し位置のずらし量を生成し、そのずらし量の情報を合成部8へ出力する。ステップS306の後、システム制御部11は、処理をステップS207へ進める。したがって、ステップS207において、合成部8は、合成処理の際には、読み出し制御部14で求められたずらし量を加味した読み出し位置の画素の読み出しを行うことになる。
In FIG. 17, processing different from the flowchart of FIG. 9 described above is performed in step S306. In the flowchart of FIG. 17, when determining in step S204 that the calculation for the predetermined number of frames corresponding to the total number of divisions has been completed, the
<第5の実施形態>
次に、図18には、第5の実施形態の撮像装置の概略構成を示す。第5の実施形態において、第1,第2,第4の実施形態で説明したものと同じ構成要素等にはそれぞれ第1,第2,第4の実施形態と同一の指示番号を付し、重複した説明は省略する。
<Fifth Embodiment>
Next, FIG. 18 illustrates a schematic configuration of an imaging apparatus according to the fifth embodiment. In the fifth embodiment, the same components as those described in the first, second, and fourth embodiments are assigned the same instruction numbers as those in the first, second, and fourth embodiments, respectively. A duplicate description is omitted.
第5の実施形態は、前述した第2の実施形態と同様、基準フレームに対し合成側フレームの方の画角が狭い場合に、不足してしまう参照領域を基準フレームより補うことで、違和感のない合成画像を生成可能とする例である。すなわち、図18に示す第5の実施形態の撮像装置は、図11に示した第2の実施形態で説明したものと同じ拡大合成部12を備えている。
In the fifth embodiment, as in the second embodiment described above, when the angle of view of the compositing side frame is narrower than that of the base frame, the reference area that is insufficient is compensated for by the base frame, thereby making it uncomfortable. This is an example in which it is possible to generate a non-composite image. That is, the imaging apparatus of the fifth embodiment shown in FIG. 18 includes the same enlargement / synthesizing
第5の実施形態の撮像装置においても前述の第2の実施形態の場合と同様に、不足してしまう参照領域を基準フレームより補うことで、違和感のない合成画像を生成可能となる。 Also in the imaging apparatus of the fifth embodiment, as in the case of the second embodiment described above, it is possible to generate a composite image without a sense of incongruity by supplementing the reference region that is lacking with the reference frame.
<第6の実施形態>
図19には、第6の実施形態の撮像装置の概略構成を示す。第6実施形態において、第1,第3,第4の実施形態で説明したものと同じ構成要素等にはそれぞれ第1,第3,第4の実施形態と同一の指示番号を付し、重複した説明は省略する。
<Sixth Embodiment>
FIG. 19 shows a schematic configuration of an imaging apparatus according to the sixth embodiment. In the sixth embodiment, the same constituent elements as those described in the first, third, and fourth embodiments are denoted by the same instruction numbers as those in the first, third, and fourth embodiments, respectively. The explanations made are omitted.
第6の実施形態は、前述した第3の実施形態と同様、基準フレームに対し合成側フレームの方の画角が狭い場合に、基準フレームを動的に切り替えることにより、合成側フレームで参照領域の不足が発生しないようにする例である。すなわち、図19に示す第6の実施形態の撮像装置は、図13に示した第3の実施形態で説明したものと同じ基準フレーム選択部13を備えている。
In the sixth embodiment, as in the third embodiment described above, when the angle of view of the combining side frame is narrower than that of the reference frame, the reference frame is dynamically switched, so that the reference region is changed in the combining side frame. This is an example of preventing the shortage from occurring. That is, the imaging apparatus of the sixth embodiment shown in FIG. 19 includes the same reference
第6の実施形態の撮像装置においても前述の第3の実施形態の場合と同様、基準フレームに対し合成側フレームの方の画角が狭い場合、基準フレームを動的に切り替えることで、違和感のない合成画像を生成可能となる。 Also in the imaging device of the sixth embodiment, as in the case of the third embodiment described above, when the angle of view of the synthesis side frame is narrower than the reference frame, the reference frame is dynamically switched, so It is possible to generate a composite image that does not exist.
<その他の実施形態>
前述の各実施形態では、動画像のフレーム画像に対するフィルタ処理と合成処理を例に挙げているが、本発明は、動画像だけでなく例えば高速連写による各撮影画像に対するフィルタ処理と合成処理にも適用可能である。
<Other embodiments>
In each of the above-described embodiments, the filtering process and the synthesizing process for the frame image of the moving image are given as an example. However, the present invention is not limited to the moving image and the filtering process and the synthesizing process for each captured image by, for example, high-speed continuous shooting. Is also applicable.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
1 光学系、2 撮像素子、3 現像処理部、4 フィルタ処理部、5 フィルタ係数制御部、6 メモリ、7 合成比率生成部、8 合成部、9 主被写体判別部、10 背景被写体合成部、11 システム制御部、12 拡大合成部、13 基準フレーム選択部、14 読み出し制御部
DESCRIPTION OF
Claims (10)
前記フィルタ手段によるフィルタ処理後のフレーム画像を、順次1フレームずつずらしながら前記所定フレーム数ごとに合成処理する合成手段と、
前記フレーム画像が撮像された際の画角に基づいて、前記合成手段による前記フレーム画像の前記合成処理を制御する合成制御手段と
を有することを特徴とする画像信号処理装置。 Filter means for performing filter processing for controlling the filter coefficient in order of capturing the frame images for each predetermined number of frames with respect to the frame images input in the order of capturing;
A synthesizing unit for synthesizing the frame image after the filtering process by the filtering unit for each of the predetermined number of frames while sequentially shifting by one frame;
An image signal processing apparatus comprising: a synthesis control unit that controls the synthesis process of the frame image by the synthesis unit based on an angle of view when the frame image is captured.
前記フィルタ手段は、前記空間フィルタを前記複数に分割した分割フィルタごとのフィルタ係数を、前記所定フレーム数の前記フレーム画像の順に用いた、前記フィルタ処理を行い、
前記合成手段は、前記フィルタ処理後の前記所定フレーム数の各フレーム画像の画素を加算する合成処理を行うことを特徴とする請求項1に記載の画像信号処理装置。 The predetermined number of frames corresponds to the number of divisions obtained by dividing the spatial filter having a plurality of taps in the horizontal and vertical directions.
The filter means performs the filter processing using filter coefficients for each of the divided filters obtained by dividing the spatial filter into the plurality, in the order of the frame images of the predetermined number of frames,
The image signal processing apparatus according to claim 1, wherein the synthesizing unit performs a synthesizing process of adding pixels of each frame image of the predetermined number of frames after the filtering process.
前記合成制御手段は、前記フレーム画像が撮像された際の画角に基づいて、前記基準フレーム画像の画素に対して前記加算される前記合成側フレーム画像の前記画素に重みを付けて、前記基準フレーム画像と前記合成側フレーム画像の合成比率を制御することを特徴とする請求項1又は2に記載の画像信号処理装置。 The synthesizing unit is configured such that, out of the frame images of the predetermined number of frames after the filtering process, a pixel of a reference frame image serving as a reference at the time of the synthesizing process and a synthesizing frame serving as a synthesizing side with the reference frame image Performing the synthesis process of adding a pixel at a predetermined position of the image;
The combining control unit weights the pixels of the combining-side frame image to be added to the pixels of the reference frame image based on an angle of view when the frame image is captured, and The image signal processing apparatus according to claim 1, wherein a composition ratio between the frame image and the composition side frame image is controlled.
前記合成制御手段は、前記フレーム画像が撮像された際の画角に基づいて、前記合成手段で前記基準フレーム画像の画素に前記加算される前記合成側フレーム画像の前記画素に対する、前記所定の位置を制御することを特徴とする請求項1又は2に記載の画像信号処理装置。 The synthesizing unit is configured such that, out of the frame images of the predetermined number of frames after the filtering process, a pixel of a reference frame image serving as a reference at the time of the synthesizing process and a synthesizing frame serving as a synthesizing side with the reference frame image Performing the synthesis process of adding a pixel at a predetermined position of the image;
The synthesis control unit is configured to determine the predetermined position with respect to the pixel of the synthesis side frame image to be added to the pixel of the reference frame image by the synthesis unit based on an angle of view when the frame image is captured. The image signal processing device according to claim 1, wherein the image signal processing device is controlled.
前記合成手段は、前記画像部分が周囲に合成された前記合成側フレーム画像の前記画素と、基準フレーム画像の画素とを加算する前記合成処理を行うことを特徴とする請求項3乃至6のいずれか1項に記載の画像信号処理装置。 When the angle of view of the compositing side frame image is narrower than the reference frame image, the compositing control means enlarges the reference frame image according to the angle of view difference between the reference frame image and the compositing side frame image, Obtaining an image portion corresponding to the angle-of-view difference from the enlarged reference frame image, and synthesizing the acquired image portion around the synthesis side frame image;
7. The composition processing according to claim 3, wherein the composition unit performs the composition processing of adding the pixel of the composition side frame image in which the image portion is composed around and the pixel of the reference frame image. The image signal processing device according to claim 1.
撮像順に入力されるフレーム画像に対し、所定フレーム数ごとに、前記フレーム画像の撮像順にフィルタ係数を制御するフィルタ処理を行うフィルタステップと、
前記フィルタステップによるフィルタ処理後のフレーム画像を、順次1フレームずつずらしながら前記所定フレーム数ごとに合成処理する合成ステップと、
前記フレーム画像が撮像された際の画角に基づいて、前記合成ステップによる前記フレーム画像の前記合成処理を制御する合成制御ステップと
を含むことを特徴とする画像信号処理方法。 An image signal processing method executed by an image signal processing apparatus that performs a filtering process on frame images input in the order of imaging,
A filter step for performing a filter process for controlling a filter coefficient in the order of capturing the frame images for each predetermined number of frames with respect to the frame images input in the order of capturing;
A synthesizing step for synthesizing the frame image after the filtering process by the filtering step every predetermined number of frames while sequentially shifting by one frame;
An image signal processing method comprising: a synthesis control step for controlling the synthesis processing of the frame image by the synthesis step based on an angle of view when the frame image is captured.
撮像順に入力されるフレーム画像に対し、所定フレーム数ごとに、前記フレーム画像の撮像順にフィルタ係数を制御するフィルタ処理を行うフィルタ手段と、
前記フィルタ手段によるフィルタ処理後のフレーム画像を、順次1フレームずつずらしながら前記所定フレーム数ごとに合成処理する合成手段と、
前記フレーム画像が撮像された際の画角に基づいて、前記合成手段による前記フレーム画像の前記合成処理を制御する合成制御手段と
して機能させるプログラム。 Computer
Filter means for performing a filtering process for controlling a filter coefficient in the order of capturing the frame images for each predetermined number of frames with respect to the frame images input in the order of capturing;
A synthesizing unit for synthesizing the frame image after the filtering process by the filtering unit for each of the predetermined number of frames while sequentially shifting by one frame;
A program that functions as a synthesis control unit that controls the synthesis process of the frame image by the synthesis unit based on an angle of view when the frame image is captured.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015047590A JP6465703B2 (en) | 2015-03-10 | 2015-03-10 | Image signal processing apparatus, image signal processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015047590A JP6465703B2 (en) | 2015-03-10 | 2015-03-10 | Image signal processing apparatus, image signal processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016167774A true JP2016167774A (en) | 2016-09-15 |
JP6465703B2 JP6465703B2 (en) | 2019-02-06 |
Family
ID=56898856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015047590A Expired - Fee Related JP6465703B2 (en) | 2015-03-10 | 2015-03-10 | Image signal processing apparatus, image signal processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6465703B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62206682A (en) * | 1986-03-07 | 1987-09-11 | Hitachi Ltd | Image processing method by division spatial filter |
JP2004145615A (en) * | 2002-10-24 | 2004-05-20 | Mega Chips Corp | Image processor and image processing method |
JP2007124396A (en) * | 2005-10-28 | 2007-05-17 | Nikon Corp | Imaging device |
JP2014127964A (en) * | 2012-12-27 | 2014-07-07 | Canon Inc | Image processing device, image processing method, and program |
JP2015159375A (en) * | 2014-02-21 | 2015-09-03 | キヤノン株式会社 | image processing apparatus, image processing method and program |
-
2015
- 2015-03-10 JP JP2015047590A patent/JP6465703B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62206682A (en) * | 1986-03-07 | 1987-09-11 | Hitachi Ltd | Image processing method by division spatial filter |
JP2004145615A (en) * | 2002-10-24 | 2004-05-20 | Mega Chips Corp | Image processor and image processing method |
JP2007124396A (en) * | 2005-10-28 | 2007-05-17 | Nikon Corp | Imaging device |
JP2014127964A (en) * | 2012-12-27 | 2014-07-07 | Canon Inc | Image processing device, image processing method, and program |
JP2015159375A (en) * | 2014-02-21 | 2015-09-03 | キヤノン株式会社 | image processing apparatus, image processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JP6465703B2 (en) | 2019-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4524717B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
KR102365748B1 (en) | System and method for creating background blur in camera panning or motion | |
JP2013065280A (en) | Image processing method, image processing system and program | |
JP2018137648A (en) | Imaging device, control method of imaging device, and program | |
JP6405531B2 (en) | Imaging device | |
JP2016024489A (en) | Image processing apparatus, imaging device, image processing method, and program | |
US10469728B2 (en) | Imaging device having a lens array of micro lenses | |
JP2018508898A (en) | Digital zoom method and system | |
JP6261205B2 (en) | Image processing device | |
CN112655194A (en) | Electronic device and method for capturing views | |
JP6270413B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP2018037857A (en) | Image processing system, image processing method and program | |
JP2017005689A (en) | Image processing system and image processing method | |
JP6326631B2 (en) | Imaging device | |
JP2017038165A (en) | Image processing device, imaging device and image processing method | |
JP2009047734A (en) | Imaging apparatus and image processing program | |
JP6465703B2 (en) | Image signal processing apparatus, image signal processing method, and program | |
JP6961423B2 (en) | Image processing equipment, imaging equipment, control methods for image processing equipment, programs and recording media | |
JP5893426B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JP6728020B2 (en) | Image processing apparatus, image processing method and program | |
JP6639276B2 (en) | Image processing apparatus and control method thereof, imaging apparatus, and program | |
JP6016546B2 (en) | Imaging device, control method thereof, and control program | |
JP2017183983A (en) | Imaging apparatus, control method and control program of the same | |
JP2016208118A (en) | Image processing apparatus, image processing method, and program | |
JP2016039563A (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180306 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181211 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190108 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6465703 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |