JP2016167774A - Image signal processor, image signal processing method, and program - Google Patents

Image signal processor, image signal processing method, and program Download PDF

Info

Publication number
JP2016167774A
JP2016167774A JP2015047590A JP2015047590A JP2016167774A JP 2016167774 A JP2016167774 A JP 2016167774A JP 2015047590 A JP2015047590 A JP 2015047590A JP 2015047590 A JP2015047590 A JP 2015047590A JP 2016167774 A JP2016167774 A JP 2016167774A
Authority
JP
Japan
Prior art keywords
image
frame
frame image
filter
synthesis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015047590A
Other languages
Japanese (ja)
Other versions
JP6465703B2 (en
Inventor
和紀 ▲高▼山
和紀 ▲高▼山
Kazunori Takayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015047590A priority Critical patent/JP6465703B2/en
Publication of JP2016167774A publication Critical patent/JP2016167774A/en
Application granted granted Critical
Publication of JP6465703B2 publication Critical patent/JP6465703B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image signal processor capable of achieving filter processing coping with a change in a field angle while suppressing a scale of a filter processing circuit.SOLUTION: The image signal processor includes: a filter processing section 4 for performing filter processing by controlling a filter coefficient for every nine frames in an order of photographing frame images for frame images input in the order of photographing; a synthesis section 8 for synthesizing every nine frames by sequentially shifting frame images after the filter processing by the filter processing section 4 by one frame; and a synthesis ratio generating section 7 for controlling synthesis of frame images by the synthesis section 8 on the basis of a field angle when a frame image is photographed.SELECTED DRAWING: Figure 1

Description

本発明は、画像信号等を処理する画像信号処理装置、画像信号処理方法、及びプログラムに関する。   The present invention relates to an image signal processing apparatus, an image signal processing method, and a program for processing an image signal and the like.

従来より、被写界深度を浅くして撮影することで、背景だけをぼかし、被写体をより目立たせる撮影方法がある。被写界深度は、例えば、F値を小さく、焦点距離を長く、撮影距離を近くなどすることで浅くできるが、口径の大きなレンズや焦点距離の長い光学系は高価であり、また光学系自体のサイズも大きくなる。このため、従来の安価で小型なコンパクトデジタルカメラや、携帯情報端末などに搭載されている撮像デバイスは、被写界深度を浅くし難いものが多い。   Conventionally, there is a photographing method in which only the background is blurred and the subject is more conspicuous by photographing with a shallow depth of field. The depth of field can be reduced by, for example, decreasing the F value, increasing the focal length, and reducing the shooting distance. However, a lens having a large aperture or an optical system having a long focal length is expensive, and the optical system itself. The size of the will also increase. For this reason, many conventional imaging devices mounted on inexpensive and compact compact digital cameras, portable information terminals, etc., do not easily reduce the depth of field.

このようなことから、コンパクトデジタルカメラや、携帯情報端末の撮像デバイスは、デジタルフィルタ処理により、被写界深度を浅くした撮影画像と同等のぼかし効果を得る技術を採用しているものがある。例えば、特許文献1には、縮小した画像に小さいサイズのフィルタ処理を施した後に元の画像サイズに拡大することで、小さいサイズのフィルタ処理でぼかし量が大きなボケ画像を生成する技術が開示されている。   For this reason, some compact digital cameras and imaging devices such as portable information terminals employ a technique that obtains a blurring effect equivalent to a captured image with a shallow depth of field by digital filter processing. For example, Patent Document 1 discloses a technique for generating a blurred image with a large blur amount by a small size filter process by applying a small size filter process to a reduced image and then enlarging the reduced image to the original image size. ing.

特開2004−102904号公報JP 2004-102904 A

しかしながら、特許文献1に開示された技術では、フィルタサイズが小さいため、被写界深度を浅くして撮影された画像のような美しいボケ画像を実現することは難しい。例えば、点光源を大きく丸くぼかした画像を得たいような場合、特許文献1に開示されている小さいサイズのフィルタ処理では、画像の縮小により高域成分が失われるため、丸ボケの形状のディテイルが十分に表現できない。また、画像を縮小せずにフィルタ処理を施すことも考えられるが、被写界深度を浅くして撮影された画像のようにぼかし量の大きなボケ画像を実現するには、例えば50タップ程度の多タップの2次元フィルタが必要となる。このような多タップの2次元フィルタは、回路規模が非常に大きくなってしまう。   However, with the technique disclosed in Patent Document 1, since the filter size is small, it is difficult to realize a beautiful blurred image such as an image shot with a shallow depth of field. For example, when it is desired to obtain an image in which the point light source is greatly rounded and blurred, the high-frequency component is lost due to the reduction of the image in the small size filter processing disclosed in Patent Document 1, so that the details of the shape of the round blur are generated. I can't express enough. Although it is conceivable to perform filter processing without reducing the image, in order to realize a blurred image with a large blur amount, such as an image taken with a shallow depth of field, for example, about 50 taps. A multi-tap two-dimensional filter is required. Such a multi-tap two-dimensional filter has a very large circuit scale.

一方、近年のコンパクトデジタルカメラや、携帯情報端末の撮像デバイスは、或る程度のズーム倍率を実現可能なズーム光学系を備えているものもある。このため、例えばズーム光学系により画角を変えた場合には、その画角に応じたボケ画像を実現することが望まれる。しかしながら、デジタルフィルタ処理で画角の変化に応じたボケ画像を生成することは難しい。   On the other hand, recent compact digital cameras and imaging devices of portable information terminals include a zoom optical system that can realize a certain zoom magnification. For this reason, for example, when the angle of view is changed by the zoom optical system, it is desired to realize a blurred image corresponding to the angle of view. However, it is difficult to generate a blurred image corresponding to a change in the angle of view by digital filter processing.

本発明はこのような問題点に鑑みてなされたものであり、フィルタの規模を抑えつつ、画角の変化にも対応したフィルタ処理を実現する画像信号処理装置、画像信号処理方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of such problems, and an image signal processing device, an image signal processing method, and a program for realizing filter processing corresponding to a change in angle of view while suppressing the scale of a filter are provided. The purpose is to provide.

本発明の画像信号処理装置は、撮像順に入力されるフレーム画像に対し、所定フレーム数ごとに、前記フレーム画像の撮像順にフィルタ係数を制御するフィルタ処理を行うフィルタ手段と、前記フィルタ手段によるフィルタ処理後のフレーム画像を、順次1フレームずつずらしながら前記所定フレーム数ごとに合成処理する合成手段と、前記フレーム画像が撮像された際の画角に基づいて、前記合成手段による前記フレーム画像の前記合成処理を制御する合成制御手段とを有することを特徴とする。   The image signal processing apparatus according to the present invention includes a filter unit that performs a filter process for controlling a filter coefficient in the imaging order of the frame image for each predetermined number of frames with respect to a frame image input in the imaging order, and a filter process performed by the filter unit A synthesizing unit that synthesizes the subsequent frame image for each predetermined number of frames while sequentially shifting the frame image by one frame, and the synthesis of the frame image by the synthesizing unit based on an angle of view when the frame image is captured. And a synthesis control means for controlling processing.

本発明によれば、フィルタの規模を抑えつつ、画角の変化にも対応したフィルタ処理を実現可能となる。   According to the present invention, it is possible to realize the filter processing corresponding to the change in the angle of view while suppressing the scale of the filter.

第1の実施形態の撮像装置の概略構成を示す図である。It is a figure which shows schematic structure of the imaging device of 1st Embodiment. 分割フィルタのタップ数とフィルタ係数を説明する図である。It is a figure explaining the tap number and filter coefficient of a division | segmentation filter. 水平,垂直9タップの空間フィルタの参照範囲を説明する図である。It is a figure explaining the reference range of a horizontal and vertical 9 tap spatial filter. 分割フィルタ処理の概要説明に用いるフローチャートである。It is a flowchart used for outline | summary description of a division | segmentation filter process. 分割フィルタ処理と合成(加算)処理を説明する図である。It is a figure explaining a division | segmentation filter process and a synthetic | combination (addition) process. 動画像の各フレームに対する分割フィルタ処理を説明する図である。It is a figure explaining the division | segmentation filter process with respect to each flame | frame of a moving image. 画角変化による各フレームの画像の大きさの変化を説明する図である。It is a figure explaining the change of the magnitude | size of the image of each flame | frame by a view angle change. 合成比率とズーム倍率(画角)の関係を説明する図である。It is a figure explaining the relationship between a composition ratio and zoom magnification (view angle). 第1の実施形態のフィルタ処理と合成処理のフローチャートである。It is a flowchart of the filter process and the synthesis process of the first embodiment. 画角変化により参照範囲が不足する例を説明する図である。It is a figure explaining the example where a reference range is insufficient by a view angle change. 第2の実施形態の撮像装置の概略構成を示す図である。It is a figure which shows schematic structure of the imaging device of 2nd Embodiment. 第2の実施形態の画像拡大部の動作を説明する図である。It is a figure explaining operation | movement of the image expansion part of 2nd Embodiment. 第3の実施形態の撮像装置の概略構成を示す図である。It is a figure which shows schematic structure of the imaging device of 3rd Embodiment. 第3の実施形態の基準フレーム選択部の動作を説明する図である。It is a figure explaining operation | movement of the reference | standard frame selection part of 3rd Embodiment. 第4の実施形態の撮像装置の概略構成を示す図である。It is a figure which shows schematic structure of the imaging device of 4th Embodiment. 読み出し位置のずらし量と倍率(画角)の関係を説明する図である。It is a figure explaining the relationship between the shift amount of a reading position, and magnification (view angle). 第4の実施形態のフィルタ処理と合成処理のフローチャートである。It is a flowchart of the filter process and synthesis process of the fourth embodiment. 第5の実施形態の撮像装置の概略構成を示す図である。It is a figure which shows schematic structure of the imaging device of 5th Embodiment. 第6の実施形態の撮像装置の概略構成を示す図である。It is a figure which shows schematic structure of the imaging device of 6th Embodiment.

<第1の実施形態>
図1は、画像信号処理装置の一例である第1の実施形態の撮像装置の概略構成を示す図である。図1において、システム制御部11は、本実施形態の撮像装置全体を制御する。なお、図1では図示を省略しているが、撮像装置は、シャッターボタンなどのような一般的なカメラに設けられている各種操作部も有している。
<First Embodiment>
FIG. 1 is a diagram illustrating a schematic configuration of an imaging apparatus according to a first embodiment which is an example of an image signal processing apparatus. In FIG. 1, a system control unit 11 controls the entire imaging apparatus of the present embodiment. Although not shown in FIG. 1, the imaging apparatus also includes various operation units provided in a general camera such as a shutter button.

光学系1は、ズームレンズ、フォーカスレンズ、絞り等を有して構成されており、システム制御部11からの制御信号により、絞りとレンズを駆動して、適切な明るさに設定された被写体像を撮像素子2上に結像させる。なお、本実施形態において、システム制御部11は、ズームレンズを制御することで画角(光学ズーム倍率)を設定可能となされており、また、後述する合成比率生成部7へ画角に対応した光学ズーム情報を出力可能となされている。撮像素子2は、システム制御部11により制御される駆動パルスで駆動され、被写体像を光電変換により電気信号に変換して撮像信号として出力する。現像処理部3は、撮像素子2からの撮像信号を輝度と色差の信号に変換する現像処理を行い、その現像処理後の輝度と色差の画像信号を、フィルタ処理部4へ出力する。また、現像処理部3は、画像信号をメモリ6へも出力する。したがって、メモリ6は、フィルタ処理部4によるフィルタ処理後の画像信号の他、この現像処理部3からの画像信号も保持する。   The optical system 1 is configured to include a zoom lens, a focus lens, a diaphragm, and the like, and a subject image set to an appropriate brightness by driving the diaphragm and the lens by a control signal from the system control unit 11. Is imaged on the image sensor 2. In the present embodiment, the system control unit 11 can set the angle of view (optical zoom magnification) by controlling the zoom lens, and corresponds to the angle of view to the composition ratio generation unit 7 described later. Optical zoom information can be output. The image pickup device 2 is driven by a drive pulse controlled by the system control unit 11, converts the subject image into an electric signal by photoelectric conversion, and outputs it as an image pickup signal. The development processing unit 3 performs a development process for converting an image pickup signal from the image sensor 2 into a luminance and color difference signal, and outputs the image signal of the luminance and color difference after the development process to the filter processing unit 4. The development processing unit 3 also outputs an image signal to the memory 6. Therefore, the memory 6 holds the image signal from the development processing unit 3 in addition to the image signal after the filter processing by the filter processing unit 4.

フィルタ処理部4は、フィルタ係数制御部5から供給されるフィルタ係数を用い、現像処理部3からの画像信号に対してフィルタ処理を行う。フィルタ係数制御部5は、システム制御部11による制御の下、フィルタ処理の際に使用されるフィルタ係数をフィルタ処理部4へ出力する。   The filter processing unit 4 performs filter processing on the image signal from the development processing unit 3 using the filter coefficient supplied from the filter coefficient control unit 5. The filter coefficient control unit 5 outputs the filter coefficient used in the filter process to the filter processing unit 4 under the control of the system control unit 11.

フィルタ処理部4によるフィルタ処理の詳細については後述する。フィルタ処理部4でフィルタ処理された画像信号は、メモリ6に保持された後、読み出されて合成部8へ出力される。   Details of the filter processing by the filter processing unit 4 will be described later. The image signal filtered by the filter processing unit 4 is held in the memory 6, read out, and output to the synthesis unit 8.

合成部8は、システム制御部11による制御の下、後述するようにメモリ6から読み出す画素位置を制御し、そのメモリ6から読み出された画素を加算することにより画像を合成する。この加算による合成で形成された画像は、フィルタ処理部4でのフィルタ処理によるボケ画像となる。   The composition unit 8 controls the pixel position read from the memory 6 as described later under the control of the system control unit 11, and composes the image by adding the pixels read from the memory 6. The image formed by the synthesis by this addition becomes a blurred image by the filter processing in the filter processing unit 4.

主被写体判別部9は、現像処理部3から出力されてメモリ6に保持されている画像信号より、主被写体の画像部分(以下、主被写体画像とする。)を検出する。画像信号から主被写体画像を検出する手法については種々の手法が知られており、本実施形態ではそれらの何れを用いてもよい。そして、主被写体判別部9は、例えば、画像信号における画像の中央に近く、サイズが大きい被写体画像部分を、主被写体画像と判別して、その主被写体画像のサイズと画像信号の画像内における位置情報とを背景被写体合成部10へ出力する。   The main subject determination unit 9 detects an image portion of the main subject (hereinafter referred to as a main subject image) from the image signal output from the development processing unit 3 and held in the memory 6. Various methods are known for detecting the main subject image from the image signal, and any of them may be used in the present embodiment. The main subject determination unit 9 determines, for example, a subject image portion that is close to the center of the image in the image signal and has a large size as the main subject image, and determines the size of the main subject image and the position of the image signal in the image. The information is output to the background subject composition unit 10.

背景被写体合成部10は、主被写体判別部9により検出された主被写体画像のサイズと位置情報に基づき、現像処理部3から出力されてメモリ6に保持された画像と合成部8からのボケ画像とを合成する。具体的には、背景被写体合成部10は、主被写体画像のサイズと位置情報に基づいて、メモリ6から読み出された画像信号より、主被写体画像を抜き出す。そして、背景被写体合成部10は、その抜き出した主被写体画像を、合成部8から供給される画像の同位置、すなわち主被写体画像の位置情報に応じた位置へ、上書きにより合成する。   Based on the size and position information of the main subject image detected by the main subject determination unit 9, the background subject synthesis unit 10 and the image output from the development processing unit 3 and held in the memory 6 and the blurred image from the synthesis unit 8 And synthesize. Specifically, the background subject composition unit 10 extracts the main subject image from the image signal read from the memory 6 based on the size and position information of the main subject image. Then, the background subject composition unit 10 composes the extracted main subject image by overwriting the same position of the image supplied from the composition unit 8, that is, the position corresponding to the position information of the main subject image.

ここで、合成部8からの画像は、画像全体にぼかし処理が施された画像である。一方、背景被写体合成部10への入力画像は、現像処理部3の出力画像であり、ぼかし処理されていない鮮鋭な画像の信号である。そして、背景被写体合成部10は、その画像から被写体画像を抜き出して、合成部8からのぼかし画像へ上書きにより合成する。これにより、背景被写体合成部10から出力される画像は、背景がぼけている一方で被写体画像が鮮鋭で目立った画像となる。   Here, the image from the synthesizing unit 8 is an image obtained by performing blur processing on the entire image. On the other hand, the input image to the background subject composition unit 10 is an output image of the development processing unit 3 and is a sharp image signal that has not been subjected to the blurring process. Then, the background subject composition unit 10 extracts a subject image from the image and composes it by overwriting the blurred image from the composition unit 8. As a result, the image output from the background subject synthesizing unit 10 is a sharp and conspicuous image while the background is blurred.

背景被写体合成部10による背景と被写体画像の合成処理後の画像信号は、例えば図示しない記録部へ送られて、例えばSDカードに代表される記録媒体等に記録され、また例えば図示しない表示部へ送られて画面上に表示等される。   The image signal after the background subject image combining process by the background subject synthesizing unit 10 is sent to, for example, a recording unit (not shown), recorded on a recording medium represented by an SD card, for example, and to a display unit (not shown), for example. Sent and displayed on the screen.

次に、フィルタ処理部4、メモリ6、合成部8によるボケ画像の生成処理の際の基本的な処理の流れについて説明する。一般に、ボケ画像を生成するためのフィルタ処理回路は、ぼかし量が少なくてよい場合には比較的小さい回路規模で実現できるが、ぼかし量を多くする場合には回路規模が大きくなる。本実施形態では、回路規模を大きくせずにぼかし量が多いボケ画像を形成するために、フィルタの畳み込み演算を分割処理(以下、分割フィルタ処理と呼ぶ。)する。   Next, a basic process flow in the blur image generation process performed by the filter processing unit 4, the memory 6, and the synthesis unit 8 will be described. In general, a filter processing circuit for generating a blurred image can be realized with a relatively small circuit scale when the blur amount is small, but the circuit scale becomes large when the blur amount is large. In this embodiment, in order to form a blurred image with a large blurring amount without increasing the circuit scale, the filter convolution operation is divided (hereinafter referred to as divided filter processing).

本実施形態の撮像装置は、フィルタ合成手段の一例として、分割フィルタ処理を行うフィルタ処理部4と、フィルタ処理部4によるフィルタ処理後の複数の画像を保持するメモリ6と、メモリ6に保持された各画像を画素加算にて合成する合成部8とを有している。そして、本実施形態の撮像装置は、これらの構成により、タップ数の少ない、小さい回路規模のフィルタで、タップ数の多い大規模なフィルタと等価なぼかし量が多いボケ画像を生成可能となっている。   The imaging apparatus according to the present embodiment is held in the memory 6 as an example of a filter synthesis unit, a filter processing unit 4 that performs division filter processing, a memory 6 that holds a plurality of images after filtering by the filter processing unit 4, and the memory 6. And a combining unit 8 that combines the images by pixel addition. With this configuration, the imaging apparatus according to the present embodiment can generate a blurred image having a large amount of blur equivalent to a large filter having a large number of taps with a small circuit scale filter having a small number of taps. Yes.

ここでは、一例として、図2、図3を用い、水平,垂直方向が複数タップ(例えば水平、垂直方向9タップ)の空間フィルタの場合の分割フィルタ処理について説明する。なお、フィルタ処理部4のタップ数は一例であり、9タップに限定されるものではない。   Here, as an example, the division filter processing in the case of a spatial filter having a plurality of taps in the horizontal and vertical directions (for example, 9 taps in the horizontal and vertical directions) will be described with reference to FIGS. The number of taps of the filter processing unit 4 is an example, and is not limited to 9 taps.

図2は、水平方向9タップ、垂直方向9タップの空間フィルタのフィルタ係数の一例を示す図である。図2中のk0〜k8はフィルタ係数を示し、空間フィルタの水平方向と垂直方向をそれぞれ3タップずつに分離したときのそれぞれの位置のフィルタ係数を示している。図3は、画像内において(x,y)座標が(i,j)で表される、或る着目画素位置(i,j)における水平方向9タップ、垂直方向9タップの空間フィルタの参照範囲を示す図である。そして、フィルタ処理は、例えば式(1)に示すような演算式を用いて行われる。   FIG. 2 is a diagram illustrating an example of filter coefficients of a spatial filter having 9 taps in the horizontal direction and 9 taps in the vertical direction. K0 to k8 in FIG. 2 indicate filter coefficients, and indicate the filter coefficients at respective positions when the horizontal direction and the vertical direction of the spatial filter are separated into three taps. FIG. 3 shows a spatial filter reference range of 9 taps in the horizontal direction and 9 taps in the vertical direction at a certain pixel position (i, j) whose (x, y) coordinates are represented by (i, j) in the image. FIG. The filtering process is performed using an arithmetic expression as shown in, for example, Expression (1).

Figure 2016167774
Figure 2016167774

ここで、式(1)及び後述の各式中の「x」,「y」は図3に示す画像の各画素の座標、「i」は画像内の着目画素の水平アドレス(x座標)、「j」は画像内の着目画素の垂直アドレス(y座標)、「a」はフィルタ係数、「I」は画素値を示している。そして、式(1)の「p」は、図3に示すように着目画素位置(i,j)に対してフィルタをかけた結果の画像となる。   Here, “x” and “y” in the equation (1) and each equation described later are the coordinates of each pixel of the image shown in FIG. 3, “i” is the horizontal address (x coordinate) of the pixel of interest in the image, “J” represents the vertical address (y coordinate) of the pixel of interest in the image, “a” represents the filter coefficient, and “I” represents the pixel value. Then, “p” in Expression (1) is an image obtained as a result of filtering the target pixel position (i, j) as shown in FIG.

次に、図4のフローチャートを用いて、畳み込み演算を水平方向3タップ、垂直方向3タップずつに分割した分割フィルタ処理と、そのフィルタ処理後の画像の画素加算による合成処理の基本的な流れについて説明する。なお、詳細については後述するが、本実施形態の撮像装置は、動画像に対するフィルタ処理の際には、図4のフローチャートとは若干異なる処理を行っている。図4のフローチャートは、分割フィルタ処理と合成処理の基本的な流れ説明するために、一枚の画像を分割フィルタ処理する場合を例に挙げている。また、図4の説明では、システム制御部11が、フィルタ係数制御部5からフィルタ係数の出力制御によるフィルタ処理部4の制御、メモリ6の書き込みと読み出しの制御、合成部8における画素加算による合成の制御を行うことにした例を挙げている。   Next, with reference to the flowchart of FIG. 4, a basic flow of the division filter processing in which the convolution operation is divided into 3 taps in the horizontal direction and 3 taps in the vertical direction, and the synthesis processing by pixel addition of the image after the filter processing is performed. explain. Although details will be described later, the imaging apparatus of the present embodiment performs processing slightly different from the flowchart of FIG. 4 when performing filtering processing on a moving image. The flow chart of FIG. 4 exemplifies the case where one image is subjected to the division filter process in order to explain the basic flow of the division filter process and the synthesis process. In the description of FIG. 4, the system control unit 11 controls the filter processing unit 4 based on the filter coefficient output control from the filter coefficient control unit 5, controls writing and reading of the memory 6, and combines by pixel addition in the combining unit 8. The example which decided to perform control is given.

図4のフローチャートにおいて、システム制御部11は、先ずステップS100の処理として、変数nに初期値の「0」をセットする。変数nは、分割フィルタの分割数に対応している。本実施形態の場合、畳み込み演算を水平方向3タップ、垂直方向3タップずつに分割しており、フィルタ分割数が9分割となされているため、変数nは「0」〜「8」の値となる。ステップS100の後、システム制御部11は、処理をステップS101へ進める。   In the flowchart of FIG. 4, the system control unit 11 first sets an initial value “0” to a variable n as a process of step S <b> 100. The variable n corresponds to the number of divisions of the division filter. In the case of the present embodiment, the convolution operation is divided into 3 taps in the horizontal direction and 3 taps in the vertical direction, and the number of filter divisions is 9, so that the variable n is a value from “0” to “8”. Become. After step S100, the system control unit 11 advances the process to step S101.

ステップS101では、システム制御部11は、現像処理部3からの画像信号をフィルタ処理部4へ入力させる。このステップS101の後、システム制御部11は、処理をステップS102へ進める。   In step S <b> 101, the system control unit 11 inputs the image signal from the development processing unit 3 to the filter processing unit 4. After step S101, the system control unit 11 advances the process to step S102.

ステップS102では、システム制御部11は、フィルタ係数制御部5を制御してフィルタ処理部4へフィルタ係数を出力させる。このときのフィルタ処理部4は、例えば式(2)に示すようなフィルタ演算を行ってフィルタ処理後の第1の画像p0を生成する。ここで、式(2)の演算は、画像信号の画像全体に対して行われるものであり、したがって第1の画像p0は、図2における左上の各フィルタ係数k0を用いて画像全体にフィルタを掛けた画像信号ということになる。   In step S102, the system control unit 11 controls the filter coefficient control unit 5 to cause the filter processing unit 4 to output the filter coefficient. The filter processing unit 4 at this time generates a first image p0 after the filter processing by performing a filter operation as shown in, for example, Expression (2). Here, the calculation of the expression (2) is performed on the entire image of the image signal. Therefore, the first image p0 is filtered using the filter coefficients k0 on the upper left in FIG. This is a multiplied image signal.

Figure 2016167774
Figure 2016167774

ステップS102の後、システム制御部11は、処理をステップS103へ進める。ステップS103では、システム制御部11は、第1の画像p0の信号をメモリ6に保持させる。ステップS103の後、システム制御部11は、処理をステップS104へ進める。   After step S102, the system control unit 11 advances the process to step S103. In step S103, the system control unit 11 holds the signal of the first image p0 in the memory 6. After step S103, the system control unit 11 advances the process to step S104.

ステップS104では、システム制御部11は、全分割数のフィルタ演算が完了したか否かを判断する。具体的には、本実施形態では、変数nが「0」〜「8」の値を取り得るため、システム制御部11は、変数nが「8」になっている場合に全分割数の演算が完了したと判断する。ステップS104において、システム制御部11は、全分割数のフィルタ演算が完了していないと判断した場合には処理をステップS105へ進め、一方、完了したと判断した場合には処理をステップS106へ進める。   In step S <b> 104, the system control unit 11 determines whether the filter calculation for all the division numbers has been completed. Specifically, in this embodiment, since the variable n can take a value of “0” to “8”, the system control unit 11 calculates the total number of divisions when the variable n is “8”. Is determined to be complete. In step S104, the system control unit 11 advances the process to step S105 when it is determined that the filter calculation for all the division numbers has not been completed, and advances the process to step S106 when it is determined that the calculation has been completed. .

ステップS105では、システム制御部11は、次の分割位置のフィルタ演算に移るために、変数nに「n+1」をセットする。このときの変数nはステップS100で設定された初期値の「0」であるため、ステップS105では変数nが「1」に設定されることになる。ステップS105の後、システム制御部11は、ステップS101へ処理を戻す。   In step S <b> 105, the system control unit 11 sets “n + 1” to the variable n in order to move to the filter operation at the next division position. Since the variable n at this time is the initial value “0” set in step S100, the variable n is set to “1” in step S105. After step S105, the system control unit 11 returns the process to step S101.

ステップS101に戻ると、システム制御部11は、現像処理部3からの画像信号をフィルタ処理部4へ入力させる。ここでは、説明を簡略にするため、このときフィルタ処理部4へ入力される画像は、前回の入力画像と同じ画像であるとする。次のステップS102の処理に進むと、システム制御部11は、フィルタ係数制御部5を制御してフィルタ処理部4へフィルタ係数を出力させる。このときのフィルタ処理部4は、例えば式(3)に示すようなフィルタ演算を行って第2の画像p1を生成する。式(3)の演算は、画像信号の画像全体に対して行われるものであり、したがって第2の画像p1は、図2における中央上の各フィルタ係数k1を用いて画像全体にフィルタを掛けた画像信号ということになる。   Returning to step S <b> 101, the system control unit 11 inputs the image signal from the development processing unit 3 to the filter processing unit 4. Here, to simplify the description, it is assumed that the image input to the filter processing unit 4 at this time is the same image as the previous input image. When the processing proceeds to the next step S102, the system control unit 11 controls the filter coefficient control unit 5 to cause the filter processing unit 4 to output the filter coefficient. At this time, the filter processing unit 4 generates a second image p1 by performing a filter operation as shown in, for example, Expression (3). The calculation of Expression (3) is performed on the entire image of the image signal, and therefore the second image p1 is obtained by filtering the entire image using each filter coefficient k1 on the center in FIG. This is an image signal.

Figure 2016167774
Figure 2016167774

次のステップS103の処理に進むと、システム制御部11は、第2の画像p1の信号をメモリ6に保持させる。次のステップS104において、システム制御部11は、全分割数のフィルタ演算が完了したか否かを判断する。ステップS104において、システム制御部11は、全分割数のフィルタ演算が完了していないと判断した場合には処理をステップS105へ進め、一方、完了したと判断した場合には処理をステップS106へ進める。このときのシステム制御部11は、ステップS105へ処理を進め、変数nを「2」に設定して、ステップS101へ処理を戻す。   When the processing proceeds to the next step S103, the system control unit 11 causes the memory 6 to hold the signal of the second image p1. In the next step S104, the system control unit 11 determines whether or not the filter calculation for all the division numbers has been completed. In step S104, the system control unit 11 advances the process to step S105 when it is determined that the filter calculation for all the division numbers has not been completed, and advances the process to step S106 when it is determined that the calculation has been completed. . At this time, the system control unit 11 advances the process to step S105, sets the variable n to “2”, and returns the process to step S101.

以下同様に、システム制御部11は、ステップS101からS104、さらにステップS104からステップS105を経てステップS101へ戻る処理を、ステップS104で全分割数のフィルタ演算が完了したと判断されるまで繰り返す。本実施形態では、前述のようにフィルタ分割数が9分割であるため、変数の「n」は「0」から「8」までインクリメントされていくことになる。ステップS105で変数nが「2」に設定された後、前述の処理が行われて順次変数nがインクリメントされた場合、ステップS102では、式(4)〜式(10)に示す演算がフィルタ処理部4で行われることになる。これら式(4)〜式(10)に示すフィルタ演算により、フィルタ処理部4からは、第3の画像p2〜第9の画像p8の信号が出力されることになる。また、ステップS103では、それら第3の画像p2〜第9の画像p8の信号がメモリ6に保持される。   Similarly, the system control unit 11 repeats the process from step S101 to S104, and further returns from step S104 to step S105 and then returns to step S101 until it is determined in step S104 that the filter operation for all the division numbers has been completed. In the present embodiment, since the number of filter divisions is 9 as described above, the variable “n” is incremented from “0” to “8”. After the variable n is set to “2” in step S105, when the above-described processing is performed and the variable n is sequentially incremented, in step S102, the operations shown in the equations (4) to (10) are filtered. Part 4 will be performed. By the filter calculation shown in the equations (4) to (10), the filter processing unit 4 outputs the signals of the third image p2 to the ninth image p8. In step S103, the signals of the third image p2 to the ninth image p8 are held in the memory 6.

Figure 2016167774
Figure 2016167774
Figure 2016167774
Figure 2016167774
Figure 2016167774
Figure 2016167774
Figure 2016167774
Figure 2016167774
Figure 2016167774
Figure 2016167774
Figure 2016167774
Figure 2016167774
Figure 2016167774
Figure 2016167774

そして、ステップS104にて全分割数の演算が完了したと判断して処理をステップS106へ進めると、システム制御部11は、合成部8を制御して、ここまでで計算されてメモリ6に保持された第1の画像p0〜第9の画像p8の信号を読み出させる。このときの合成部8は、システム制御部11による制御の下、メモリ6から読み出す各画像の画素位置を制御して、そのメモリ6から所定の位置(後述する参照位置)の各画素を読み出す。ステップS106の後、システム制御部11は、処理をステップS107へ進める。   Then, when it is determined in step S104 that the calculation of the total number of divisions has been completed and the process proceeds to step S106, the system control unit 11 controls the synthesis unit 8 to calculate and store in the memory 6 so far. The signals of the first image p0 to the ninth image p8 are read out. At this time, the synthesis unit 8 controls the pixel position of each image read from the memory 6 under the control of the system control unit 11, and reads each pixel at a predetermined position (a reference position described later) from the memory 6. After step S106, the system control unit 11 advances the process to step S107.

ステップS107では、システム制御部11は、合成部8を制御して、メモリ6から第1の画像p0〜第9の画像p8からそれぞれ画素を読み出させて加算により合成させる。すなわち、このときの合成部8は、システム制御部11による制御の下、メモリ6から後述するように第1の画像p0〜第9の画像p8の画素を読み出し、それら読み出した各画素を加算することで画像を合成する。合成部8での画素加算による合成で形成された画像信号は、分割フィルタ処理によるぼかし処理後のボケ画像の信号となる。このフィルタ処理後のボケ画像の信号は、後述する背景被写体合成部10へ送られる。   In step S107, the system control unit 11 controls the combining unit 8 to read out pixels from the first image p0 to the ninth image p8 from the memory 6 and combine them by addition. That is, the synthesis unit 8 at this time reads out the pixels of the first image p0 to the ninth image p8 from the memory 6 under the control of the system control unit 11, and adds the read pixels. To compose the image. The image signal formed by the synthesis by the pixel addition in the synthesis unit 8 becomes a signal of the blurred image after the blurring process by the division filter process. The signal of the blurred image after the filter processing is sent to the background subject composition unit 10 described later.

図5(a)〜図5(j)を用いて、フィルタ処理部4による分割フィルタ処理と合成部8で行われる第1の画像p0〜第9の画像p8の画素加算による合成動作について説明する。図5(a)〜図5(j)において、位置(i,j)の画素が着目画素であり、領域1000は着目画素に対して水平方向9タップで垂直方向9タップの空間フィルタが参照する範囲を示している。図5(a)の領域1001内の中心画素の位置は着目画素に対する画像上の参照位置を示している。同様に、図5(b)〜図5(i)の各領域1002〜1009の各中心画素の位置は、それぞれ着目画素に対する画像上の参照位置を示している。そして、図5(a)は第1の画像p0における着目画素及び空間フィルタの参照範囲と着目画素に対する画像上の参照位置を示した図である。同様に、図5(b)は第2の画像p1、図5(c)は第3の画像p2、図5(d)は第4の画像p3、図5(e)は第5の画像p4についての図である。図5(f)は第6の画像p5、図5(g)は第7の画像p6、図5(h)は第8の画像p7、図5(i)は第9の画像p8についての図である。図5(j)は、例えば第5の画像p4を例に挙げ、他の第1〜第4,第6〜第9の画像p0〜p3,p4〜p8における各領域1001〜1009を、第5の画像p4上に並べた図である。この図5(j)のように、第1〜第9の画像p0〜p8においてフィルタ処理の際にそれぞれ参照される範囲の大きさは同じになっている。   With reference to FIG. 5A to FIG. 5J, a description will be given of a synthesis operation by pixel division of the first image p <b> 0 to the ninth image p <b> 8 performed by the division filter processing by the filter processing unit 4 and the synthesis unit 8. . 5A to 5J, the pixel at the position (i, j) is the target pixel, and the region 1000 is referred to by the spatial filter of 9 taps in the horizontal direction and 9 taps in the vertical direction with respect to the target pixel. The range is shown. The position of the center pixel in the area 1001 in FIG. 5A indicates the reference position on the image with respect to the target pixel. Similarly, the positions of the central pixels in the regions 1002 to 1009 in FIGS. 5B to 5I indicate the reference positions on the image with respect to the target pixel. FIG. 5A shows the reference range of the target pixel and the spatial filter in the first image p0 and the reference position on the image with respect to the target pixel. Similarly, FIG. 5B shows the second image p1, FIG. 5C shows the third image p2, FIG. 5D shows the fourth image p3, and FIG. 5E shows the fifth image p4. It is a figure about. FIG. 5 (f) shows the sixth image p5, FIG. 5 (g) shows the seventh image p6, FIG. 5 (h) shows the eighth image p7, and FIG. 5 (i) shows the ninth image p8. It is. FIG. 5J illustrates, for example, the fifth image p4, and the regions 1001 to 1009 in the other first to fourth, sixth to ninth images p0 to p3 and p4 to p8 are shown as fifth. It is the figure arranged on the image p4. As shown in FIG. 5J, the sizes of the ranges referred to in the filter processing in the first to ninth images p0 to p8 are the same.

ここで、水平,垂直方向9タップの空間フィルタと等価な効果を得るためには、着目画素位置(i,j)に対し、第1の画像p0からは位置(i−3,j−3)を中心とした水平,垂直方向3タップの空間フィルタをかけた画素が必要となる。また、第2の画像p1からは位置(i,j−3)、第3の画像p2からは位置(i+3,j−3)、第4の画像p3からは位置(i−3,j)をそれぞれ中心とした水平,垂直方向3タップの空間フィルタをかけた画素が必要となる。さらに、第5の画像p4からは位置(i,j)、第6の画像p5からは位置(i+3,j)、第7の画像p6からは位置(i−3,j+3)をそれぞれ中心とした水平,垂直方向3タップの空間フィルタをかけた画素が必要となる。同様に、第8の画像p7からは位置(i,j+3)、第9の画像p8からは位置(i+3,j+3)をそれぞれ中心とした水平方,垂直方向3タップの空間フィルタをかけた画素が必要となる。合成部8は、それら第1の画像p0〜第9の画像p8において着目画素位置に対応した位置を中心とした水平,垂直方向3タップの空間フィルタをかけた各画素値を取得して加算することによる合成処理を行う。   Here, in order to obtain an effect equivalent to a spatial filter of 9 taps in the horizontal and vertical directions, the position (i-3, j-3) from the first image p0 with respect to the target pixel position (i, j). A pixel with a spatial filter of 3 taps in the horizontal and vertical directions centered on is required. Further, the position (i, j-3) from the second image p1, the position (i + 3, j-3) from the third image p2, and the position (i-3, j) from the fourth image p3. Pixels with a 3-tap spatial filter centered in the horizontal and vertical directions, respectively, are required. Further, the position is (i, j) from the fifth image p4, the position (i + 3, j) from the sixth image p5, and the position (i-3, j + 3) from the seventh image p6. Pixels with a spatial filter with 3 taps in the horizontal and vertical directions are required. Similarly, from the eighth image p7, a pixel having been subjected to a spatial filter of 3 taps in the horizontal and vertical directions centered at the position (i, j + 3) and from the ninth image p8 at the position (i + 3, j + 3), respectively. Necessary. The synthesizing unit 8 acquires and adds each pixel value obtained by applying a spatial filter of three taps in the horizontal and vertical directions around the position corresponding to the target pixel position in the first image p0 to the ninth image p8. The synthesis process is performed.

以上のように、フィルタ処理部4は、畳み込み演算を水平,垂直方向3タップずつに分割してフィルタ処理して第1〜第9の画像p0〜p8を生成し、合成部8は、それら第1〜第9の画像p0〜p8においてそれぞれ着目画素に対応した各画素値を加算する。これにより、回路規模は小さいながらも水平方向9タップ、垂直方向9タップの空間フィルタをかけた場合と同じ画像信号が得られることになる。   As described above, the filter processing unit 4 divides the convolution operation into 3 taps in the horizontal and vertical directions and performs filter processing to generate the first to ninth images p0 to p8. In the first to ninth images p0 to p8, pixel values corresponding to the target pixel are added. As a result, although the circuit scale is small, the same image signal as when a spatial filter with 9 taps in the horizontal direction and 9 taps in the vertical direction is applied can be obtained.

ところで、図2〜図5では、1枚の画像に対して、フィルタ係数を変えながら分割数に対応した回数のフィルタ処理を施し、それら分割数に対応した各フィルタ処理後の第1〜第9の画像を加算して合成する例を挙げて分割フィルタの概要を説明している。このように、1枚の画像に対して分割数に対応した回数のフィルタ処理を行う場合、最終結果のボケ画像が得られるまでの処理時間が長くなる。したがって、例えば動画像に対して分割フィルタ処理を適用する場合には、コストと処理時間の問題を解決しなければならない。すなわち、動画像の1フレームの画像に対して分割数に対応した回数のフィルタ処理を行うためには、高速処理が可能な高価な演算装置が必要になり、一方、処理速度が遅い安価な演算装置では1フレームの時間内に処理が終わらない虞がある。   2 to 5, a single image is subjected to the filter processing corresponding to the number of divisions while changing the filter coefficient, and the first to ninth after the filter processing corresponding to the number of divisions. The outline of the division filter is described by giving an example of adding and synthesizing the images. In this way, when the number of times of filter processing corresponding to the number of divisions is performed on one image, the processing time until the final blurred image is obtained becomes long. Therefore, for example, when dividing filter processing is applied to a moving image, the problem of cost and processing time must be solved. In other words, in order to perform the filter processing corresponding to the number of divisions on one frame image of a moving image, an expensive arithmetic device capable of high-speed processing is required, while on the other hand, an inexpensive arithmetic operation with a low processing speed is required. In the apparatus, there is a possibility that the processing does not end within one frame time.

ここで、動画像に対する分割フィルタ処理の一例として、図6に示すように、動画像の撮像がなされてその撮像順に入力される各フレームに対して、それぞれ分割フィルタ処理の一つの係数を用いたフィルタ処理を順に施すことを考えてみることにする。図6において、入力画像N−4,N−3,・・・,N+5,N+6は、動画像の撮像順に現像処理部3から出力されてフィルタ処理部4へ入力される各フレーム画像であり、それら各画像が時間順に並べられている。フィルタ係数k0,k1,・・・,k8は、前述の図5における分割フィルタの各係数である。フレーム画像p0aは、入力画像N−4のフレーム画像に対してフィルタ係数k0によるフィルタ処理がなされた後の画像である。同様に、フレーム画像p1a,・・・,p7a,p8aは、それぞれ対応した入力画像N−3,・・・,N+3,N+4のフレーム画像に対して、それぞれ対応したフィルタ係数k1,・・・,k7,k8による各フィルタ処理がなされた後の画像である。フィルタ係数k8によるフィルタ処理が行われた場合、それ以降の各フレームに対しては、前述同様に、フィルタ係数k0〜k8の各フィルタ係数によるフィルタ処理が行われることになる。図6の例では、入力画像N+5は、フィルタ係数k0によるフィルタ処理がなされることでフレーム画像p9aとなり、入力画像N+6はフィルタ係数k1によるフィルタ処理がなされることでフレーム画像p10aとなる。   Here, as an example of the division filter processing for the moving image, as shown in FIG. 6, one coefficient of the division filter processing is used for each frame in which the moving image is captured and input in the imaging order. Let's consider applying filter processing in order. In FIG. 6, input images N-4, N-3,..., N + 5, N + 6 are frame images that are output from the development processing unit 3 and input to the filter processing unit 4 in the order in which moving images are captured. Each of these images is arranged in time order. The filter coefficients k0, k1,..., K8 are the coefficients of the division filter in FIG. The frame image p0a is an image after the filter processing with the filter coefficient k0 is performed on the frame image of the input image N-4. Similarly, the frame images p1a,..., P7a, p8a are respectively corresponding to the corresponding filter coefficients k1,. It is an image after each filter process by k7 and k8 is made. When the filter process using the filter coefficient k8 is performed, the subsequent frame is subjected to the filter process using the filter coefficients k0 to k8 as described above. In the example of FIG. 6, the input image N + 5 becomes a frame image p9a by being subjected to the filtering process by the filter coefficient k0, and the input image N + 6 becomes a frame image p10a by being subjected to the filtering process by the filter coefficient k1.

そして、分割数に対応した所定フレーム数(9フレーム分)のフレーム画像が順次1フレームずつずらされながら、合成部8において前述のような画素加算により合成される。合成部8は、フレーム画像p0a〜p8aの9フレームに対する合成処理が終わると、次はフレーム画像p1a〜p9aの9フレームを、さらに次はフレーム画像p2a〜p10aのように、順次1フレームずつずらされながら合成処理する。また、9フレームの画像のうち、合成の際に時間的に基準となるフレームを基準フレームと呼び、それ以外を合成側フレームと呼ぶとすると、合成部8は、基準フレーム画像の着目画素に対して、合成側フレーム画像から得られた画素を加算する。なお、基準フレームは、一例として、時間順に並んだ9フレームのうち時間的に中央のフレームにすることができる。図6の例の場合は、入力画像Nのフレーム画像が基準フレーム画像となる。この図6に示したように、動画像の各フレームに対して、それぞれ分割フィルタ処理の一つの係数を用いたフィルタ処理を行うことで、処理速度が遅い安価な演算装置を用いた場合でも、動画像のボケ画像を生成できるようになると考えられる。   Then, a frame image of a predetermined number of frames (9 frames) corresponding to the number of divisions is synthesized by pixel addition as described above in the synthesis unit 8 while being sequentially shifted by one frame. When the synthesizing unit 8 finishes synthesizing the nine frames of the frame images p0a to p8a, the next nine frames of the frame images p1a to p9a are shifted, and then the frame images p2a to p10a are sequentially shifted one frame at a time. While processing. Of the nine frames of images, if a frame that is temporally reference at the time of combining is called a reference frame, and other frames are called combining frames, the combining unit 8 applies the pixel of interest of the reference frame image to the target pixel. Then, the pixels obtained from the composite side frame image are added. As an example, the reference frame can be a temporally central frame among the nine frames arranged in time order. In the case of the example in FIG. 6, the frame image of the input image N is the reference frame image. As shown in FIG. 6, by performing a filter process using one coefficient of the division filter process for each frame of the moving image, even when using an inexpensive arithmetic device having a low processing speed, It is considered that a blurred image of a moving image can be generated.

ところで、例えば、ズーム光学系により画角を変えながら動画像撮像が行われ、それぞれ異なる画角で撮像されたフレーム画像がフィルタ処理部4へ入力されたような場合、ぼかしが不十分になったり、逆にぼかし過ぎになったりすることがある。すなわち、異なった画角で撮像されたフレーム画像を用いて図6のようなフィルタ処理が行われた場合、例えば、合成側フレーム画像のフィルタ処理が、基準フレーム画像に対して広い又は狭い参照範囲によるフィルタ処理になってしまうことが考えられる。また、フレーム画像の画角が異なる場合、畳み込み演算の重心位置がずれてしまうことがある。これらの場合、ぼかしが不十分なボケ画像が生成されたり、逆に、ぼかし過ぎたボケ画像が生成されたりする虞がある。   By the way, for example, when moving image capturing is performed while changing the angle of view by the zoom optical system, and frame images captured at different angles of view are input to the filter processing unit 4, blurring may be insufficient. On the contrary, it may become too blurry. That is, when the filter processing as illustrated in FIG. 6 is performed using frame images captured at different angles of view, for example, the reference frame image has a wider or narrow reference range in which the filtering processing of the synthesis-side frame image is performed. It is conceivable that the filtering process will be performed. Further, when the angle of view of the frame image is different, the position of the center of gravity of the convolution calculation may be shifted. In these cases, there is a possibility that a blurred image with insufficient blurring is generated, or conversely, a blurred image with excessive blurring is generated.

以下、図7を参照して、ズーム光学系により画角を変えながら撮像された動画像の各フレーム画像を用い、図6のようなフィルタ処理と合成処理が行われた場合の参照範囲と、畳み込み演算の重心位置のズレについて説明する。   Hereinafter, with reference to FIG. 7, using each frame image of the moving image captured while changing the angle of view by the zoom optical system, the reference range when the filtering process and the combining process as shown in FIG. 6 are performed, A shift in the center of gravity position of the convolution calculation will be described.

図7(a)から図7(i)は、画角を徐々に狭める(ズーム倍率を徐々に上げる)ズームインがなされながら撮像された動画像の各フレームの例を示している。図7(a)〜図7(i)において、位置(i,j)の画素が着目画素であり、領域2000は各画像上で着目画素に対して水平方向9タップ、垂直方向9タップの空間フィルタが参照する範囲を示している。領域2001〜2009の各中心画素の位置は、着目画素に対する画像上の参照位置を示している。また、図7(a)は、第1のフレーム画像p0aにおける着目画素及び空間フィルタの参照範囲と着目画素に対する画像上の参照位置を示した図である。以下同様に、図7(b)は第2のフレーム画像p1a、図7(c)は第3のフレーム画像p2a、図7(d)は第4のフレーム画像p3a、図7(e)は第5のフレーム画像p4aについての図である。図7(f)は第6のフレーム画像p5a、図7(g)は第7のフレーム画像p6a、図7(h)は第8のフレーム画像p7a、図7(i)は第9のフレーム画像p8aについての図である。図7(j)は、第5のフレーム画像p4aを基準フレーム画像とし、他の合成側フレーム画像p0a〜p3a,p5a〜p8aを基準フレーム画像の画角に合わせた場合の領域2001〜2009を、基準フレーム画像上に並べた図である。   FIG. 7A to FIG. 7I show examples of each frame of a moving image captured while zooming in while gradually narrowing the angle of view (gradually increasing the zoom magnification). 7A to 7I, the pixel at the position (i, j) is the target pixel, and the region 2000 is a space of 9 taps in the horizontal direction and 9 taps in the vertical direction with respect to the target pixel on each image. The range to which the filter refers is shown. The position of each central pixel in the areas 2001 to 2009 indicates the reference position on the image with respect to the target pixel. FIG. 7A is a diagram illustrating the reference range of the target pixel and the spatial filter in the first frame image p0a and the reference position on the image with respect to the target pixel. Similarly, FIG. 7B shows the second frame image p1a, FIG. 7C shows the third frame image p2a, FIG. 7D shows the fourth frame image p3a, and FIG. FIG. 5 is a diagram for a frame image p4a of FIG. Fig. 7 (f) shows the sixth frame image p5a, Fig. 7 (g) shows the seventh frame image p6a, Fig. 7 (h) shows the eighth frame image p7a, and Fig. 7 (i) shows the ninth frame image. It is a figure about p8a. FIG. 7 (j) shows regions 2001 to 2009 when the fifth frame image p4a is a reference frame image and the other composite side frame images p0a to p3a and p5a to p8a are matched to the angle of view of the reference frame image. It is the figure arranged on the reference frame image.

この図7(j)のように、各フレーム画像の画角が異なっている場合、基準フレーム画像に対する合成側フレーム画像の各領域2001〜2009の大きさは、画角(ズーム倍率)によって変わっていることがわかる。言い換えると、基準フレームと合成側フレームが同画角である場合には、各領域の大きさと位置は、図5(j)の各領域1001〜1009のようになるが、各フレームの画角が異なっている場合には、図7(j)の領域2001〜2009ようになる。すなわち、この図7(j)のような場合、ぼかし具合が変わってしまうことになる。   As shown in FIG. 7J, when the angle of view of each frame image is different, the size of each region 2001 to 2009 of the compositing side frame image with respect to the reference frame image varies depending on the angle of view (zoom magnification). I understand that. In other words, when the reference frame and the compositing side frame have the same angle of view, the size and position of each area are as shown in the areas 1001 to 1009 in FIG. If they are different, areas 2001 to 2009 in FIG. That is, in such a case as shown in FIG. 7J, the degree of blurring changes.

このようなことから、本実施形態の撮像装置においては、合成制御手段の一例である合成比率生成部7により、画角(ズーム倍率)に応じた合成比率を生成し、その合成比率に応じて合成部8での合成処理を制御する。これにより、本実施形態の撮像装置は、動画像の撮像の際に光学ズームの倍率変更により画角が異なった場合におけるぼかし具合の変動を少なくしている。   For this reason, in the imaging apparatus of the present embodiment, the composition ratio generation unit 7 which is an example of the composition control unit generates a composition ratio according to the angle of view (zoom magnification), and according to the composition ratio. The composition process in the composition unit 8 is controlled. Thereby, the imaging apparatus of this embodiment reduces the fluctuation | variation of the blurring condition when a field angle changes by the magnification change of an optical zoom at the time of imaging of a moving image.

以下、合成比率生成部7による合成部8の合成処理の制御動作について説明する。例えば、基準フレーム画像に対して合成側フレーム画像の方の画角が狭い(ズーム倍率が高い)場合、図7(j)の領域2009のように、参照範囲が狭くなってしまうため、ぼかし量が少なくなってしまう。一方、基準フレームに対して合成側フレームの方の画角が広い(ズーム倍率が低い)場合には、図7(j)の領域2001のように、参照範囲が広くなってしまうため、ぼかし過ぎになってしまう。   Hereinafter, the control operation of the synthesis process of the synthesis unit 8 by the synthesis ratio generation unit 7 will be described. For example, when the angle of view of the compositing side frame image is narrower than the base frame image (the zoom magnification is high), the reference range is narrowed as in the region 2009 in FIG. Will decrease. On the other hand, when the angle of view of the compositing side frame is wider than the base frame (the zoom magnification is low), the reference range becomes wide as in the region 2001 in FIG. Become.

そこで、本実施形態では、システム制御部11は、合成部8において合成処理が行われるとき、各フレーム画像の画角(ズームレンズに設定したズーム倍率)に対応した光学ズーム情報を、合成比率生成部7へ送る。   Thus, in the present embodiment, the system control unit 11 generates optical zoom information corresponding to the angle of view of each frame image (the zoom magnification set for the zoom lens) when the compositing unit 8 performs the compositing process. Send to part 7.

合成比率生成部7は、各フレームにおける光学ズーム情報を参照し、基準フレームに対して合成側フレームの方の画角が狭い(ズーム倍率が高い)場合には、図8に示すように、合成側フレームの画素に対する重みを重くするような合成比率情報を合成部8へ送る。これにより、合成部8では、基準フレーム画像に合成側フレーム画像を合成する際に、合成側フレーム画像の画素に対する重みが重くなされた合成が行われる。すなわちこの場合、合成後のフレーム画像は、基準フレーム画像に対して合成側フレーム画像の画素の比率が高められることになり、ぼかし量が多くなる。   The composition ratio generation unit 7 refers to the optical zoom information in each frame. If the angle of view of the composition side frame is narrower than the base frame (the zoom magnification is high), as illustrated in FIG. The composition ratio information that increases the weight for the pixels of the side frame is sent to the composition unit 8. As a result, the composition unit 8 performs composition in which the weights of the pixels of the composition side frame image are increased when the composition side frame image is composed with the reference frame image. That is, in this case, the ratio of the pixels of the combined frame image to the reference frame image is increased in the combined frame image, and the blur amount increases.

一方、合成比率生成部7は、基準フレームに対して合成側フレームの方の画角が広い(ズーム倍率が低い)場合には、図8に示すように、合成側フレーム画像の画素に対する重みを軽くするような合成比率情報を合成部8へ送る。これにより、合成部8では、基準フレーム画像に合成側フレーム画像を合成する際、合成側フレーム画像の画素に対する重みが軽くなされた合成が行われる。すなわちこの場合、合成後のフレーム画像は、合成側フレーム画像に対して基準フレーム画像の画素の比率が高められることになり、ぼかし過ぎを防ぐことができる。   On the other hand, when the angle of view of the compositing side frame is wider (low zoom magnification) than the reference frame, the compositing ratio generation unit 7 assigns weights to the pixels of the compositing side frame image as shown in FIG. The composition ratio information to be lightened is sent to the composition unit 8. As a result, when the combining unit 8 combines the combining-side frame image with the reference frame image, combining is performed with lighter weights for the pixels of the combining-side frame image. That is, in this case, the ratio of the pixels of the reference frame image to the combined frame image is increased in the combined frame image, and excessive blurring can be prevented.

このように、本実施形態の撮像装置においては、光学ズームの倍率変更により各フレームの画角が異なっている場合、合成比率(重み)が変えられることで、ぼかし具合のバランスがとれるようになり、ぼかし具合の変動を軽減することが可能となる。   As described above, in the imaging apparatus according to the present embodiment, when the angle of view of each frame is different due to the change in magnification of the optical zoom, the composition ratio (weight) is changed, so that the degree of blurring can be balanced. It is possible to reduce fluctuations in the degree of blurring.

次に、図9には、フィルタ処理部4において動画像の各フレーム画像に対して図6のようなフィルタ処理が行われ、合成部8において合成比率に応じた合成処理が行われる際のフローチャートを示す。図9のフローチャートは、システム制御部11が、フィルタ処理部4の制御、メモリ6の制御、合成比率生成部7における合成比率生成の制御、合成部8の合成制御を行うことにより実行される。   Next, FIG. 9 is a flowchart when the filter processing unit 4 performs the filter processing as shown in FIG. 6 on each frame image of the moving image, and the combining unit 8 performs the combining process according to the combining ratio. Indicates. The flowchart of FIG. 9 is executed by the system control unit 11 performing control of the filter processing unit 4, control of the memory 6, control of synthesis ratio generation in the synthesis ratio generation unit 7, and synthesis control of the synthesis unit 8.

図9において、システム制御部11は、先ずステップS200の処理として、変数nに初期値の「0」をセットする。変数nは、分割フィルタの分割数に対応しており、これは言い換えると図6で説明した所定フレーム数に対応している。図9の場合、フィルタ分割数は9分割で、9フレームの画像が合成されるため、変数nは「0」〜「8」の値となる。ステップS200の後、システム制御部11は、処理をステップS201へ進める。   In FIG. 9, the system control unit 11 first sets an initial value “0” to a variable n as a process of step S <b> 200. The variable n corresponds to the number of divisions of the division filter, which in other words corresponds to the predetermined number of frames described in FIG. In the case of FIG. 9, the number of filter divisions is 9, and 9 frames of images are synthesized, so the variable n takes values from “0” to “8”. After step S200, the system control unit 11 advances the process to step S201.

ステップS201では、システム制御部11は、現像処理部3から例えば1フレーム目のフレーム画像の信号をフィルタ処理部4へ入力させる。このステップS201の後、システム制御部11は、処理をステップS202へ進める。   In step S <b> 201, the system control unit 11 inputs a frame image signal of the first frame, for example, from the development processing unit 3 to the filter processing unit 4. After step S201, the system control unit 11 advances the process to step S202.

ステップS202では、システム制御部11は、フィルタ係数制御部5を制御してフィルタ処理部4へフィルタ係数を出力させ、前述の式(2)のフィルタ演算を行って、1フレーム目の画像信号にフィルタ処理を施して第1のフレーム画像p0aを生成する。この場合の式(2)の演算は、フレーム画像全体に対して行われるものである。第1のフレーム画像p0aは、図6におけるフィルタ係数k0を用いてフレーム画像全体にフィルタが掛けられた画像となる。   In step S202, the system control unit 11 controls the filter coefficient control unit 5 to output the filter coefficient to the filter processing unit 4, performs the filter operation of the above-described equation (2), and converts the filter signal into the first frame image signal. Filter processing is performed to generate a first frame image p0a. In this case, the calculation of Expression (2) is performed on the entire frame image. The first frame image p0a is an image obtained by filtering the entire frame image using the filter coefficient k0 in FIG.

ステップS202の後、システム制御部11は、処理をステップS203へ進める。ステップS203では、システム制御部11は、第1のフレーム画像p0aの信号をメモリ6に保持させる。ステップS203の後、システム制御部11は、処理をステップS204へ進める。   After step S202, the system control unit 11 advances the process to step S203. In step S203, the system control unit 11 holds the signal of the first frame image p0a in the memory 6. After step S203, the system control unit 11 advances the process to step S204.

ステップS204では、システム制御部11は、全分割数に対応した所定フレーム数のフィルタ演算が完了したか否かを判断する。具体的には、本実施形態では、9分割に対応した9フレーム分のフィルタ演算が行われ、変数nが「0」〜「8」の値を取り得るため、システム制御部11は、変数nが「8」になっている場合に演算が完了したと判断する。ステップS204において、システム制御部11は、全分割数に対応した各フレーム画像のフィルタ演算が完了していないと判断した場合には処理をステップS205へ進め、一方、完了したと判断した場合には処理をステップS206へ進める。   In step S <b> 204, the system control unit 11 determines whether or not a predetermined number of filter operations corresponding to the total number of divisions have been completed. Specifically, in this embodiment, the filter operation for 9 frames corresponding to 9 divisions is performed, and the variable n can take a value of “0” to “8”. Is determined to be complete when the value is “8”. In step S204, the system control unit 11 advances the process to step S205 when determining that the filter operation of each frame image corresponding to the total number of divisions is not completed, and when determining that the filter operation is completed. The process proceeds to step S206.

ステップS205では、システム制御部11は、次の2フレーム目のフィルタ演算に移るために、変数nに「n+1」をセットする。このときの変数nはステップS200で設定された初期値の「0」であるため、ステップS205では変数nが「1」に設定されることになる。ステップS205の後、システム制御部11は、ステップS201へ処理を戻す。   In step S <b> 205, the system control unit 11 sets “n + 1” to the variable n in order to move to the filter operation of the next second frame. Since the variable n at this time is the initial value “0” set in step S200, the variable n is set to “1” in step S205. After step S205, the system control unit 11 returns the process to step S201.

ステップS201に戻ると、システム制御部11は、現像処理部3から出力された2フレーム目の画像信号をフィルタ処理部4へ入力させる。次のステップS202の処理に進むと、システム制御部11は、フィルタ係数制御部5を制御してフィルタ処理部4へフィルタ係数を出力させる。このときのフィルタ処理部4は、前述の式(3)に示すようなフィルタ演算を行って第2のフレーム画像p1aを生成する。この場合も式(3)の演算は、フレーム画像全体に対して行われるものであり、したがって第2のフレーム画像p1aは、図6のフィルタ係数k1を用いてフレーム画像全体にフィルタが掛けられた画像となる。   Returning to step S <b> 201, the system control unit 11 inputs the image signal of the second frame output from the development processing unit 3 to the filter processing unit 4. When the processing proceeds to the next step S202, the system control unit 11 controls the filter coefficient control unit 5 to cause the filter processing unit 4 to output the filter coefficient. The filter processing unit 4 at this time performs a filter operation as shown in the above-described equation (3) to generate the second frame image p1a. In this case as well, the calculation of Equation (3) is performed on the entire frame image, and therefore the second frame image p1a is filtered on the entire frame image using the filter coefficient k1 of FIG. It becomes an image.

次のステップS203の処理に進むと、システム制御部11は、第2のフレーム画像p1aの信号をメモリ6に保持させる。次のステップS204において、システム制御部11は、全分割数に対応した各フレーム画像のフィルタ演算が完了したか否かを判断する。ステップS204において、システム制御部11は、全分割数に対応したフレーム画像のフィルタ演算が完了していないと判断した場合には処理をステップS205へ進め、一方、完了したと判断した場合には処理をステップS206へ進める。このときのシステム制御部11は、ステップS205へ処理を進め、変数nを「2」に設定して、ステップS201へ処理を戻す。   When the processing proceeds to the next step S203, the system control unit 11 causes the memory 6 to hold the signal of the second frame image p1a. In the next step S204, the system control unit 11 determines whether or not the filter calculation of each frame image corresponding to the total number of divisions has been completed. In step S204, the system control unit 11 proceeds to step S205 when determining that the filter operation of the frame image corresponding to the total number of divisions has not been completed, and performs processing when determining that it has been completed. Advances to step S206. At this time, the system control unit 11 advances the process to step S205, sets the variable n to “2”, and returns the process to step S201.

以下同様に、システム制御部11は、ステップS201からS204、ステップS204からステップS205を経てステップS201へ戻る処理を、ステップS204で全分割数に対応した各フレーム画像のフィルタ演算が完了したと判断されるまで繰り返す。本実施形態では、前述のようにフィルタ分割数が9分割でフレーム数が9フレームであるため、変数の「n」は「0」から「8」までインクリメントされていくことになる。ステップS205で変数nが「2」に設定された後、前述の処理が行われて順次変数nがインクリメントされた場合、ステップS201では、3フレーム目〜9フレーム目までの各フレーム画像が順番に入力されることになる。また、ステップS202では、3フレーム目〜9フレーム目までの各フレームの順に、前述した式(4)〜式(10)に示す演算がフィルタ処理部4で順番に行われることになる。これら式(4)〜式(10)に示すフィルタ演算により、フィルタ処理部4からは、第3のフレーム画像p2a〜第9のフレーム画像p8aの信号が出力される。また、ステップS203では、それら第3のフレーム画像p2a〜第9のフレーム画像p8aの信号がメモリ6に保持される。   Similarly, the system control unit 11 determines that the process of returning from step S201 to S204, step S204 to step S205, and returning to step S201 has been completed in step S204 for each frame image corresponding to the total number of divisions. Repeat until In this embodiment, since the number of filter divisions is 9 and the number of frames is 9 as described above, the variable “n” is incremented from “0” to “8”. If the variable n is sequentially incremented after the variable n is set to “2” in step S205, the frame images from the third frame to the ninth frame are sequentially displayed in step S201. Will be entered. In step S202, the filter processing unit 4 sequentially performs the operations shown in the equations (4) to (10) described above in the order of the third to ninth frames. The filter processing unit 4 outputs the signals of the third frame image p2a to the ninth frame image p8a by the filter operations shown in the equations (4) to (10). In step S203, the signals of the third frame image p2a to the ninth frame image p8a are held in the memory 6.

そして、ステップS204にて全分割数に対応した各フレーム画像の演算が完了したと判断して処理をステップS206へ進めると、システム制御部11は、合成比率生成部7に対して各フレームにおける光学ズーム情報を送る。これにより、合成比率生成部7では、前述したような合成比率を生成し、その合成比率の情報を合成部8へ出力する。ステップS206の後、システム制御部11は、処理をステップS207へ進める。   Then, when it is determined in step S204 that the calculation of each frame image corresponding to the total number of divisions has been completed and the process proceeds to step S206, the system control unit 11 instructs the synthesis ratio generation unit 7 to perform the optical in each frame. Send zoom information. As a result, the composition ratio generation unit 7 generates a composition ratio as described above, and outputs information on the composition ratio to the composition unit 8. After step S206, the system control unit 11 advances the process to step S207.

ステップS207では、システム制御部11は、合成部8を制御し、合成比率生成部7で生成された合成比率に基づいて、基準フレームと合成側フレームの画像を読み出させる。このときの合成部8は、システム制御部11による制御の下、メモリ6から読み出す各画像の画素位置を制御して、そのメモリ6から参照位置の各画素を読み出す。また、システム制御部11は、メモリ6に保持されている1フレーム目から9フレーム目の各フレーム画像から例えば動きベクトルなどの動き情報を算出し、その動き情報に基づいて、合成部8がメモリ6から画素を読み出す際の画素位置を補正する。すなわち、1フレーム目から9フレーム目の各フレーム画像は、それぞれ動画像のフレーム画像であり、撮影の際の被写体又は撮像装置の移動により、各フレーム画像内における被写体像等の位置が変わっている可能性がある。このため、システム制御部11は、動き情報に基づいて合成部8がメモリ6から画素を読み出す際の画素位置を補正することにより、被写体や撮像装置の動きによる各フレーム画像内の被写体像等の動きを補償させる。ステップS207の後、システム制御部11は、処理をステップS208へ進める。   In step S207, the system control unit 11 controls the combining unit 8 to read out the images of the reference frame and the combining side frame based on the combining ratio generated by the combining ratio generating unit 7. At this time, the synthesis unit 8 controls the pixel position of each image read from the memory 6 under the control of the system control unit 11, and reads each pixel at the reference position from the memory 6. Further, the system control unit 11 calculates motion information such as a motion vector from each frame image of the first frame to the ninth frame held in the memory 6, and based on the motion information, the synthesis unit 8 stores the memory information. 6 corrects the pixel position when the pixel is read out. That is, each frame image from the first frame to the ninth frame is a frame image of a moving image, and the position of the subject image or the like in each frame image changes due to the movement of the subject or the imaging device at the time of shooting. there is a possibility. For this reason, the system control unit 11 corrects the pixel position when the synthesizing unit 8 reads out the pixels from the memory 6 based on the motion information, so that the subject image or the like in each frame image due to the movement of the imaging device is corrected. Compensate for movement. After step S207, the system control unit 11 advances the process to step S208.

ステップS208では、システム制御部11は、合成部8を制御して、第1のフレーム画像p0a〜第9のフレーム画像p8aから読み出された各画素を加算して合成させる。すなわち、このときの合成部8は、システム制御部11による制御の下、メモリ6から読み出された各フレーム画像の各画素を加算により合成する。合成部8での画素加算による合成処理で形成されたフレーム画像の信号は、動画像に対する分割フィルタ処理によるボケ画像の信号となる。このフィルタ処理後のボケ画像は、前述した背景被写体合成部10へ送られ、前述したように主被写体判別部9からの主被写体情報に基づいて抜き出された主被写体画像が合成されることになる。   In step S208, the system control unit 11 controls the synthesizing unit 8 to add and synthesize each pixel read from the first frame image p0a to the ninth frame image p8a. That is, the synthesis unit 8 at this time synthesizes each pixel of each frame image read from the memory 6 by addition under the control of the system control unit 11. The signal of the frame image formed by the synthesis process by the pixel addition in the synthesis unit 8 becomes the signal of the blurred image by the division filter process for the moving image. The blurred image after the filtering process is sent to the background subject combining unit 10 described above, and the main subject image extracted based on the main subject information from the main subject determining unit 9 is combined as described above. Become.

ステップS208の後、システム制御部11は、処理をステップS209へ進める。ステップS209では、システム制御部11は、例えばユーザ等からの指示により動画像に対するぼかし処理を終了するか否か判断する。そして、システム制御部11は、ステップS209においてぼかし処理を終了すると判断した場合には、この図9のフローチャートの処理を終了させる。   After step S208, the system control unit 11 advances the process to step S209. In step S209, the system control unit 11 determines whether or not to end the blurring process on the moving image in accordance with an instruction from the user or the like, for example. If the system control unit 11 determines in step S209 to end the blurring process, the system control unit 11 ends the process of the flowchart of FIG.

一方、ステップS209においてぼかし処理を終了しないと判断した場合、システム制御部11は、ステップS201へ処理を戻す。すなわち例えば、前述のように1フレーム目〜9フレーム目の処理が終わった後には、システム制御部11は、ステップS201で現像処理部3から出力された10フレーム目の画像信号をフィルタ処理部4へ入力させる。システム制御部11は、次のステップS202ではフィルタ処理部4に10フレーム目の画像信号のフィルタ処理を行わせて第10のフレーム画像p9aを生成させ、次のステップS203では第10のフレーム画像p9aをメモリ6に保持させる。このときのメモリ6には、第2のフレーム画像p1a〜第10のフレーム画像p9aの9フレーム分が保持されていることになる。次に、ステップS204では、システム制御部11は、9フレーム分の演算が完了していると判断して、ステップS206へ処理を進め、ステップS206で合成比率生成部7に光学ズーム情報に基づく合成比率を算出させて合成部8へ送らせる。そして、システム制御部11は、ステップS207でメモリ6から第2のフレーム画像p1a〜第10のフレーム画像p9aを読み出させて、ステップS208で合成部8の加算による合成を行わせる。以下、同様であり、ステップS209でぼかし処理を終了すると判断されるまで、順次1フレームずつずらされながら、フィルタ処理部4でのフィルタ処理と合成部8での加算による合成処理がなされる。   On the other hand, when determining in step S209 that the blurring process is not to be ended, the system control unit 11 returns the process to step S201. That is, for example, after the processing of the first to ninth frames is completed as described above, the system control unit 11 converts the image signal of the tenth frame output from the development processing unit 3 in step S201 to the filter processing unit 4. To input. In the next step S202, the system control unit 11 causes the filter processing unit 4 to filter the image signal of the tenth frame to generate the tenth frame image p9a. In the next step S203, the tenth frame image p9a. Is held in the memory 6. The memory 6 at this time holds nine frames of the second frame image p1a to the tenth frame image p9a. Next, in step S204, the system control unit 11 determines that the calculation for nine frames has been completed, proceeds to step S206, and in step S206, the composition ratio generation unit 7 performs composition based on the optical zoom information. The ratio is calculated and sent to the combining unit 8. Then, the system control unit 11 reads the second frame image p1a to the tenth frame image p9a from the memory 6 in step S207, and performs synthesis by addition of the synthesis unit 8 in step S208. The same applies hereinafter, and the filter processing in the filter processing unit 4 and the synthesis processing by addition in the synthesis unit 8 are performed while sequentially shifting one frame at a time until it is determined in step S209 that the blurring processing is finished.

<第2の実施形態>
次に、図10〜図12を参照しながら、第2の実施形態の撮像装置について説明する。第2の実施形態において、第1の実施形態で説明したものと同じ構成要素等にはそれぞれ第1の実施形態と同一の指示番号を付し、重複した説明は省略する。
<Second Embodiment>
Next, an imaging apparatus according to the second embodiment will be described with reference to FIGS. In the second embodiment, the same constituent elements as those described in the first embodiment are denoted by the same instruction numbers as those in the first embodiment, and redundant description is omitted.

第2の実施形態の撮像装置は、基準フレームに対し合成側フレームの方の画角が狭い(ズーム倍率が高い)場合に、違和感のある合成画像が生成される虞があるため、違和感のない合成画像の生成を可能とした画像信号処理装置の一例である。すなわち例えば、基準フレームに対し合成側フレームの方の画角が狭い場合、基準フレームより画角が狭い分だけ、合成側フレームにおける参照領域が不足してしまうことが起きる可能性がある。このように参照領域が不足したまま合成処理を行ってしまうと、その不足した参照領域には画素が無いので、合成処理後の画像は違和感のある画像になってしまう。このため、第2の実施形態の撮像装置は、不足してしまう参照領域を基準フレームより補うことで、違和感のない合成画像を生成可能としている。   The imaging apparatus according to the second embodiment has no sense of incongruity because a composite image with a sense of incongruity may be generated when the angle of view of the compositing side frame is narrower than the reference frame (the zoom magnification is high). It is an example of the image signal processing apparatus which enabled the production | generation of the synthesized image. That is, for example, when the angle of view of the compositing side frame is narrower than that of the base frame, there is a possibility that the reference area in the compositing side frame is insufficient due to the narrower angle of view than the base frame. In this way, if the synthesis process is performed with a shortage of reference areas, there are no pixels in the lacked reference area, so that the image after the synthesis process becomes an uncomfortable image. For this reason, the imaging apparatus according to the second embodiment can generate a composite image without a sense of incongruity by supplementing a reference area that is insufficient from the base frame.

図10を用い、基準フレームに対し合成側フレームの方の画角が狭い(ズーム倍率が高い)場合に、合成側フレームで参照領域が不足する具体例について説明する。図10(a)は、前述の図7の第5のフレーム画像p4aと同じ画像であり、着目画素位置が(k,j)であるときの空間フィルタの参照範囲2000と着目画素に対する領域2005を表す図である。この第5のフレーム画像p4aが基準フレームの画像であるとする。一方、図10(b)は、図7(i)の第9のフレーム画像p8aと同じ画像であり、着目画素位置が(k,j)であるときの空間フィルタの参照範囲2000と着目画素に対する領域2009を表す図である。この第9のフレーム画像p8aが合成側フレームの画像であるとする。また、図10(a)の領域3000は、第9のフレーム画像p8aの画角に対応した領域を示している。図10(a)における着目画素位置(k,j)は、図10(b)上では(m,j)の位置に該当し、(m,j)の位置を基準に領域2009が設定されるため、第9のフレーム画像p8aの領域2009における参照位置は、画像外となってしまう。すなわち、この図10(a)と図10(b)から判るように、基準フレーム(第5のフレーム画像p4a)に対し合成側フレーム(第9のフレーム画像p8a)の方の画角が狭い場合に、合成側フレームの参照領域が不足する。   A specific example in which the reference area is insufficient in the composition side frame when the angle of view of the composition side frame is narrower (the zoom magnification is high) with respect to the base frame will be described with reference to FIG. FIG. 10A is the same image as the fifth frame image p4a of FIG. 7 described above, and shows the reference range 2000 of the spatial filter and the area 2005 for the target pixel when the target pixel position is (k, j). FIG. It is assumed that the fifth frame image p4a is a reference frame image. On the other hand, FIG. 10B is the same image as the ninth frame image p8a of FIG. 7I, and the spatial filter reference range 2000 and the target pixel when the target pixel position is (k, j). It is a figure showing the area | region 2009. FIG. Assume that the ninth frame image p8a is an image of the compositing side frame. An area 3000 in FIG. 10A indicates an area corresponding to the angle of view of the ninth frame image p8a. The pixel-of-interest position (k, j) in FIG. 10A corresponds to the position (m, j) in FIG. 10B, and the region 2009 is set based on the position (m, j). Therefore, the reference position in the area 2009 of the ninth frame image p8a is outside the image. That is, as can be seen from FIGS. 10A and 10B, when the angle of view of the compositing side frame (the ninth frame image p8a) is narrower than the reference frame (the fifth frame image p4a). In addition, the reference area of the synthesis side frame is insufficient.

図11には、不足する参照領域を基準フレームより補って違和感のない合成画像を生成可能とする、第2の実施形態の撮像装置の概略構成を示す。以下、第1の実施形態と異なる構成要素について説明する。図11に示す第2の実施形態の撮像装置は、合成制御手段に含まれる拡大合成部12を備えている。   FIG. 11 shows a schematic configuration of an imaging apparatus according to the second embodiment that makes it possible to generate a composite image without a sense of incongruity by supplementing a deficient reference area with a reference frame. Hereinafter, components different from the first embodiment will be described. The imaging apparatus according to the second embodiment illustrated in FIG. 11 includes an enlargement / synthesis unit 12 included in the synthesis control unit.

拡大合成部12は、基準フレーム及び合成側フレームの画像信号をメモリ6より読み出して取得する。また、拡大合成部12は、システム制御部11からの光学ズーム情報に基づいて、基準フレームと合成側フレームの画角(ズーム倍率)を比較し、基準フレームに対し合成側フレームの方の画角が狭くなっているか判定する。拡大合成部12は、基準フレームよりも合成側フレームの画角が狭いと判定した場合、合成側フレームの参照位置が画像外になる可能性があると判断し、基準フレーム画像を合成側フレーム画像の画角(ズーム倍率)に合わせるように拡大する。具体的には、拡大合成部12は、基準フレームに対し合成側フレームの方の画角が狭いと判定した場合、基準フレームの画角と合成側フレームの画角との間の差分(画角差分)を求める。そして、拡大合成部12は、その画角差分に相当する倍率だけ、基準フレーム画像を拡大する。次に、拡大合成部12は、合成側フレームの画角に合わせて拡大した基準フレーム画像から、合成側フレーム画像より外側となる領域に相当する画像部分のみを取り出し、その取り出した画像部分を合成側フレーム画像の周囲に合成する。これにより、拡大した基準フレーム画像から取り出した画像部分が周囲に合成された後の合成側フレーム画像における画角は、拡大前の基準フレーム画像における画角と同じになる。   The enlargement / synthesis unit 12 reads out and acquires the image signals of the reference frame and the synthesis side frame from the memory 6. Further, the enlargement / combination unit 12 compares the angle of view (zoom magnification) of the reference frame and the composition side frame based on the optical zoom information from the system control unit 11, and the angle of view of the composition side frame relative to the reference frame. Determine whether is narrow. If the enlargement / combination unit 12 determines that the angle of view of the compositing side frame is narrower than that of the reference frame, the enlargement / combination unit 12 determines that the reference position of the compositing side frame may be outside the image, and converts the reference frame image into the compositing side frame image. Enlarge to match the angle of view (zoom magnification). Specifically, when the enlargement / combination unit 12 determines that the angle of view of the compositing side frame is narrower than the reference frame, a difference (viewing angle) between the angle of view of the reference frame and the angle of view of the compositing side frame is determined. Difference). Then, the enlargement / combination unit 12 enlarges the reference frame image by a magnification corresponding to the field angle difference. Next, the enlargement / synthesizing unit 12 extracts only the image portion corresponding to the region outside the combining-side frame image from the reference frame image enlarged in accordance with the angle of view of the combining-side frame, and combines the extracted image portions. Composite around the side frame image. As a result, the angle of view in the combining-side frame image after the image portion extracted from the enlarged reference frame image is synthesized around the same is the same as the angle of view in the reference frame image before enlargement.

図12は、拡大合成部12において、前述のように拡大した基準フレーム画像から取り出された画像部分が、合成側フレーム画像の周囲に合成された後の合成側フレーム画像p8bの一例を示す図である。この図12において、領域3001は元の第9のフレーム画像p8aに対応しており、領域3002は基準フレーム画像である第5のフレーム画像p4aを第9のフレーム画像p8aとの画角差分(倍率差)に合わせて拡大した画像に対応している。図12の例では、領域3001の外側の画像部分が、拡大された基準フレーム画像から取り出される画像部分であり、合成側フレーム画像(p8a)の周囲に合成される画像部分である。この図12のような合成後の合成側フレーム画像p8bは、領域2009の参照位置に画素が存在している。   FIG. 12 is a diagram illustrating an example of the synthesis-side frame image p8b after the image portion extracted from the enlarged reference frame image as described above is synthesized around the synthesis-side frame image in the enlargement / synthesis unit 12. is there. In FIG. 12, an area 3001 corresponds to the original ninth frame image p8a, and an area 3002 is obtained by changing the fifth frame image p4a, which is a reference frame image, from the angle of view difference (magnification) to the ninth frame image p8a. It corresponds to the image enlarged to match (difference). In the example of FIG. 12, the image portion outside the region 3001 is an image portion extracted from the enlarged reference frame image, and is an image portion combined around the combining-side frame image (p8a). In the combined frame image p8b after combining as shown in FIG. 12, a pixel is present at the reference position of the region 2009.

拡大合成部12は、前述のようにして、拡大した基準フレーム画像から参照領域が補われた合成側フレーム(画像p8b)の画像信号を、合成部8へ出力する。これにより、合成部8では、参照位置が存在している合成側フレーム(画像p8b)を用いた画像合成が可能となる。したがって、第2の実施形態の撮像装置によれば、違和感のない合成画像が生成されることになる。   The enlargement / synthesis unit 12 outputs the image signal of the synthesis side frame (image p8b) in which the reference region is supplemented from the enlarged standard frame image as described above to the synthesis unit 8. As a result, the composition unit 8 can perform image composition using the composition side frame (image p8b) where the reference position exists. Therefore, according to the imaging apparatus of the second embodiment, a composite image without a sense of incongruity is generated.

<第3の実施形態>
次に、図13と図14を参照して、第3の実施形態の撮像装置について説明する。第3の実施形態において、第1の実施形態で説明したものと同じ構成要素等にはそれぞれ第1の実施形態と同一の指示番号を付し、重複した説明は省略する。
<Third Embodiment>
Next, an image pickup apparatus according to the third embodiment will be described with reference to FIGS. 13 and 14. In the third embodiment, the same constituent elements as those described in the first embodiment are denoted by the same instruction numbers as those in the first embodiment, and redundant description is omitted.

第3の実施形態の撮像装置は、基準フレームに対し合成側フレームの方の画角が狭い場合に、違和感のない合成画像の生成を可能とした画像信号処理装置の一例である。第3の実施形態は、基準フレームに対し合成側フレームの方の画角が狭い場合、基準フレーム自体を、画角が狭い(ズーム倍率が高い)フレーム画像へ切り替えることにより、合成側フレームで参照領域の不足が発生しないようにする。   The imaging apparatus according to the third embodiment is an example of an image signal processing apparatus that can generate a composite image without a sense of incongruity when the angle of view of the synthesis side frame is narrower than the reference frame. In the third embodiment, when the angle of view of the compositing side frame is narrower than the reference frame, the reference frame itself is referred to by the compositing side frame by switching to a frame image having a narrow angle of view (high zoom magnification). Avoid running out of space.

図13には、基準フレームを画角が狭い(ズーム倍率が高い)フレーム画像へ動的に切り替えることで、合成側フレームで参照領域の不足が発生しないようにして、違和感のない合成画像を生成可能とする、第3の実施形態の撮像装置の概略構成を示す。以下、第1の実施形態と異なる構成要素について説明する。図13に示す第3の実施形態の撮像装置は、合成制御手段に含まれる基準フレーム選択部13を備えている。   In FIG. 13, the base frame is dynamically switched to a frame image with a narrow angle of view (high zoom magnification), so that a composite image without a sense of incongruity is generated without causing a shortage of a reference area in the compositing side frame. The schematic structure of the imaging device of 3rd Embodiment which enables is shown. Hereinafter, components different from the first embodiment will be described. The imaging apparatus according to the third embodiment illustrated in FIG. 13 includes a reference frame selection unit 13 included in the synthesis control unit.

基準フレーム選択部13は、システム制御部11からの光学ズーム情報に基づいて、基準フレームと合成側フレームの画角を比較し、基準フレームに対し合成側フレームの方の画角が狭く(ズーム倍率が高く)なっているか判定する。基準フレーム選択部13は、基準フレームより合成側フレームの方の画角が狭いと判定した場合、合成側フレームの参照位置が画像外になる可能性があると判断し、最も画角が狭い(最もズーム倍率が高い)フレームを選択する。具体的には、拡大合成部12は、基準フレームより合成側フレームの方の画角が狭いと判定した場合、光学ズーム情報に基づいて、前述した9フレームのうち最も画角が狭いフレームを選択する。そして、基準フレーム選択部13は、選択したフレームを基準フレームに設定し、その基準フレームが前述の9フレームのうちの何れのフレームであるかを、合成部8へ知らせる。   The reference frame selection unit 13 compares the angle of view of the reference frame and the composition side frame based on the optical zoom information from the system control unit 11, and the angle of view of the composition side frame is narrower than the reference frame (zoom magnification). Is high). If the reference frame selection unit 13 determines that the angle of view of the compositing side frame is narrower than that of the base frame, the reference frame selecting unit 13 determines that the reference position of the compositing side frame may be outside the image, and has the narrowest angle of view ( Select the frame with the highest zoom magnification. Specifically, when it is determined that the angle of view of the compositing side frame is narrower than that of the reference frame, the enlargement / combination unit 12 selects the frame with the narrowest angle of view among the nine frames described above based on the optical zoom information. To do. Then, the reference frame selection unit 13 sets the selected frame as a reference frame, and notifies the synthesis unit 8 of which of the nine frames is the reference frame.

図14を参照して、基準フレーム選択部13が基準フレームを動的に切り替える例について説明する。図14(a)〜図14(k)はそれぞれ時間順のフレーム画像p1c〜p11cの一例を示している。また、図14(a)〜図14(f)のフレーム画像p1c〜p6cは、画角を徐々に狭める(ズーム倍率を徐々に上げる)ズームインがなされた場合の各フレーム画像の一例を示している。一方、図14(g)〜図14(k)のフレーム画像p7c〜p11cは画角を徐々に広げる(ズーム倍率を徐々に下げる)ズームアウトがなされた場合の各フレーム画像の一例を示している。なお、図14(a)〜図14(k)において、領域4000は各画像上で着目画素に対して水平,垂直方向9タップの空間フィルタが参照する範囲を示している。領域4001〜4011の各中心画素の位置は、着目画素に対する画像上の参照位置を示している。また、図14(a)は、フレーム画像p0cにおける着目画素及び空間フィルタの参照範囲と着目画素に対する画像上の参照位置を示した図である。以下同様に、図14(b)〜図14(k)はフレーム画像p1c〜p11cについての図である。   An example in which the reference frame selection unit 13 dynamically switches the reference frame will be described with reference to FIG. FIGS. 14A to 14K show examples of frame images p1c to p11c in time order, respectively. Also, the frame images p1c to p6c in FIGS. 14A to 14F show an example of each frame image when zooming in is performed by gradually narrowing the angle of view (gradually increasing the zoom magnification). . On the other hand, the frame images p7c to p11c in FIGS. 14G to 14K show an example of each frame image when zooming out is performed by gradually widening the angle of view (gradually lowering the zoom magnification). . 14A to 14K, a region 4000 indicates a range referred to by a spatial filter of 9 taps in the horizontal and vertical directions with respect to the pixel of interest on each image. The positions of the central pixels in the areas 4001 to 4011 indicate reference positions on the image with respect to the target pixel. FIG. 14A is a diagram illustrating a reference range of the target pixel and the spatial filter in the frame image p0c and a reference position on the image with respect to the target pixel. Similarly, FIGS. 14B to 14K are diagrams of the frame images p1c to p11c.

合成部8における合成処理では、9枚のフレーム画像があればよいので、先ず図14(a)〜図14(i)の9枚のフレーム画像p1c〜p9cの合成処理がなされる場合を例に挙げる。これら図14(a)〜図14(i)のフレーム画像p1c〜p9cにおいて、画角が最も狭いのは、図14(a)のフレーム画像p1cである。したがってこの場合、基準フレーム選択部13は、このフレーム画像p1cを基準フレームとして選択する。   In the synthesis process in the synthesis unit 8, it is only necessary to have nine frame images. First, an example in which the nine frame images p <b> 1 c to p <b> 9 c in FIG. 14A to FIG. I will give you. In these frame images p1c to p9c in FIGS. 14A to 14I, the frame image p1c in FIG. 14A has the narrowest angle of view. Therefore, in this case, the reference frame selection unit 13 selects the frame image p1c as a reference frame.

合成部8は、次のフレーム画像を合成処理する際には、図14(b)〜図14(j)の9枚のフレーム画像p2c〜p10cを用いた合成処理を行うことになる。これら図14(b)〜図14(j)のフレーム画像p2c〜p10cにおいて、画角が最も狭いのは、図14(b)のフレーム画像p2cと図14(j)のフレーム画像p10cである。このように、9枚のフレーム画像の中に、最も画角が狭いフレーム画像が複数存在する場合、基準フレーム選択部13は、動画像における時間の連続性を考慮して、時間的に前のフレーム画像である図14(b)のフレーム画像p2cを選択する。   When synthesizing the next frame image, the synthesizing unit 8 performs a synthesizing process using the nine frame images p2c to p10c of FIGS. 14B to 14J. In the frame images p2c to p10c of FIGS. 14B to 14J, the narrowest angle of view is the frame image p2c of FIG. 14B and the frame image p10c of FIG. 14J. As described above, when there are a plurality of frame images having the narrowest angle of view among the nine frame images, the reference frame selection unit 13 considers the continuity of time in the moving image, and temporally advances the time. The frame image p2c in FIG. 14B, which is a frame image, is selected.

さらに、合成部8は、次のフレーム画像を合成処理する際には、図14(c)〜図14(k)の9枚のフレーム画像p3c〜p11cを用いた合成処理を行うことになる。これら図14(c)〜図14(k)のフレーム画像p3c〜p11cにおいて、画角が最も狭いのは、図14(k)のフレーム画像p11cである。したがって、基準フレーム選択部13は、このフレーム画像p11cを基準フレームとして選択する。   Furthermore, when synthesizing the next frame image, the synthesizing unit 8 performs a synthesizing process using the nine frame images p3c to p11c of FIGS. 14 (c) to 14 (k). In the frame images p3c to p11c in FIGS. 14C to 14K, the frame image p11c in FIG. 14K has the narrowest angle of view. Therefore, the reference frame selection unit 13 selects this frame image p11c as a reference frame.

なお、前述した図14(a)〜図14(k)のフレーム画像p1c〜p11cの例の場合、基準フレームは、先ず図14(a)のフレーム画像p1cが選択され、次に図14(c)のフレーム画像p2c、その後図14(k)のフレーム画像p11cが選択される。したがって、図14(k)のフレーム画像p11cよりも時間的に前の図14(c)〜図14(j)のフレーム画像p3c〜p10cは、何れも基準フレームとして選択されないことになる。すなわち、図14(c)〜図14(j)のフレーム画像p3c〜p10cが基準フレームとなされて合成された画像が抜けてしまうことになるので、時間方向の連続性は失われることになる。しかしながら、本実施形態の場合、合成側フレームで参照領域が不足することはないため、実際には違和感の無い合成画像を得ることができる。   In the case of the frame images p1c to p11c in FIGS. 14A to 14K described above, the frame image p1c in FIG. 14A is first selected as the reference frame, and then FIG. ) Frame image p2c, and then the frame image p11c of FIG. 14 (k) is selected. Accordingly, none of the frame images p3c to p10c of FIGS. 14C to 14J temporally prior to the frame image p11c of FIG. 14K is selected as the reference frame. That is, since the frame images p3c to p10c in FIGS. 14C to 14J are used as reference frames and the synthesized image is lost, the continuity in the time direction is lost. However, in the case of the present embodiment, since there is no shortage of the reference area in the compositing side frame, it is possible to obtain a composite image that does not actually feel strange.

以上のように、第3の実施形態によれば、基準フレームに対し合成側フレームの方の画角が狭い場合、基準フレームを画角が狭い(ズーム倍率が高い)フレーム画像へ動的に切り替えることで、違和感のない合成画像を生成可能となる。   As described above, according to the third embodiment, when the angle of view of the compositing frame is narrower than the reference frame, the reference frame is dynamically switched to a frame image with a narrow angle of view (high zoom magnification). Thus, it is possible to generate a composite image without a sense of incongruity.

<第4の実施形態>
次に、図15〜図17を参照して、第4の実施形態の撮像装置について説明する。第4の実施形態において、第1の実施形態で説明したものと同じ構成要素等にはそれぞれ第1の実施形態と同一の指示番号を付し、重複した説明は省略する。
<Fourth Embodiment>
Next, an imaging device according to a fourth embodiment will be described with reference to FIGS. In the fourth embodiment, the same constituent elements as those described in the first embodiment are denoted by the same instruction numbers as those in the first embodiment, and redundant description is omitted.

図15には、第4の実施形態の撮像装置の概略構成を示す。以下、第1の実施形態と異なる構成要素について説明する。図15に示す第4の実施形態の撮像装置は、図1に示した第1の実施形態の撮像装置の合成比率生成部7に代えて、合成制御手段の一例である読み出し制御部14を備えている。   FIG. 15 shows a schematic configuration of an imaging apparatus according to the fourth embodiment. Hereinafter, components different from the first embodiment will be described. An imaging apparatus according to the fourth embodiment illustrated in FIG. 15 includes a read control unit 14 that is an example of a synthesis control unit, instead of the synthesis ratio generation unit 7 of the imaging apparatus according to the first embodiment illustrated in FIG. ing.

読み出し制御部14には、システム制御部11から光学ズーム情報が供給され、したがって、基準フレームに対する合成側フレームの画角(ズーム倍率)を知ることができる。そして、読み出し制御部14は、基準フレームに対する合成側フレームの画角(ズーム倍率)に基づいて、合成部8による読み出し位置を制御する。すなわち、読み出し制御部14は、参照領域の中心(参照位置)が、基準フレームと合成側フレームが同画角であるときの参照位置に重なるように、合成部8によるメモリ6の読み出し位置を制御する。   The read control unit 14 is supplied with optical zoom information from the system control unit 11, and thus can determine the angle of view (zoom magnification) of the compositing side frame with respect to the reference frame. Then, the read control unit 14 controls the read position by the combining unit 8 based on the angle of view (zoom magnification) of the combining side frame with respect to the reference frame. That is, the reading control unit 14 controls the reading position of the memory 6 by the combining unit 8 so that the center (reference position) of the reference region overlaps the reference position when the base frame and the combining side frame have the same angle of view. To do.

読み出し制御部14による読み出し位置制御について、前述の図7(a)〜図7(j)と、図16(a),図16(b)を用いて説明する。なお、図16(a)は基準フレームに対する合成側フレームの画角(ズーム倍率)と、読み出し制御部14が読み出し位置をずらすような制御を行う際のずらし量との関係を示す図である。なお、読み出し位置のずらし量とは、前述の図7(j)の各領域2001〜2009の場合の各参照位置に対応した読み出し位置に対して、読み出し制御部14が画角に応じて求める読み出し位置との差に相当する。言い換えると、読み出し制御部14は、図7(j)の各領域2001〜2009の場合の各参照位置に対応した読み出し位置を、画角に応じたずらし量だけずらすような読み出し位置制御を行う。図16(b)は、第5のフレーム画像p4aを基準フレームとし、他のフレーム画像p0a〜p3a,p5a〜p8aを基準フレームの画角に合わせた場合の各領域2001r〜2009rを、基準フレームの画像上に並べた図である。すなわち、図16(b)は、読み出し制御部14により画角に応じた読み出し制御がなされた場合の、基準フレーム画像(p4a)と、他の合成側フレーム画像(p0a〜p3a,p5a〜p8a)の各領域2001r〜2009rの位置関係を表している。   Read position control by the read control unit 14 will be described with reference to FIGS. 7A to 7J and FIGS. 16A and 16B. FIG. 16A is a diagram showing the relationship between the angle of view (zoom magnification) of the compositing frame with respect to the reference frame and the shift amount when the read control unit 14 performs control to shift the read position. Note that the reading position shift amount is a reading obtained by the reading control unit 14 in accordance with the angle of view with respect to the reading position corresponding to each reference position in each of the regions 2001 to 2009 in FIG. It corresponds to the difference from the position. In other words, the read control unit 14 performs read position control such that the read position corresponding to each reference position in the areas 2001 to 2009 in FIG. 7J is shifted by a shift amount corresponding to the angle of view. FIG. 16B shows the regions 2001r to 2009r when the fifth frame image p4a is a reference frame and the other frame images p0a to p3a and p5a to p8a are matched to the angle of view of the reference frame. It is the figure arranged on the image. That is, FIG. 16B shows a reference frame image (p4a) and other composite side frame images (p0a to p3a, p5a to p8a) when the reading control unit 14 performs reading control according to the angle of view. The positional relationship between the respective regions 2001r to 2009r is shown.

ここで、前述した図7(j)で説明したように、各フレーム画像においてフィルタ処理の際に参照される範囲の大きさは、画角(ズーム倍率)によって変わっている。例えば、基準フレームが第5のフレーム画像p4aで、合成側フレームが第9のフレーム画像p8aの場合、基準フレームに対して合成側フレームの画角が狭いため、図7(j)の領域2009のように参照領域が狭くなってぼかし量は少なくなる。一方、例えば、基準フレームが第9のフレーム画像p8aで、合成側フレームが第1のフレーム画像p1aの場合、合成側フレームの画角が広いため、図7(j)の領域2001のように参照領域が広くなってぼかし過ぎになる。   Here, as described with reference to FIG. 7J described above, the size of the range referred to in the filtering process in each frame image varies depending on the angle of view (zoom magnification). For example, when the reference frame is the fifth frame image p4a and the compositing side frame is the ninth frame image p8a, the angle of view of the compositing side frame is narrower than the reference frame, so the region 2009 in FIG. In this way, the reference area becomes narrower and the blurring amount becomes smaller. On the other hand, for example, when the reference frame is the ninth frame image p8a and the compositing side frame is the first frame image p1a, the angle of view of the compositing side frame is wide, so reference is made as in the area 2001 in FIG. The area becomes wider and too blurry.

このようなことから、第4の実施形態において、読み出し制御部14は、参照領域の中心(参照位置)が、基準フレームと合成側フレームが同画角であるときの参照位置に重なるように、合成部8による読み出し位置を制御する。具体的には、基準フレームが第5のフレーム画像p4aで、合成側フレームが第9のフレーム画像p8aの場合、読み出し制御部14は、前述の図5(j)の領域1009と中心位置が重なる、図16(j)の領域2009rの中心を、参照位置とする。一方、基準フレームが第9のフレーム画像p8aで、合成側フレームが第5のフレーム画像p4aの場合、読み出し制御部14は、前述の図5(j)の参照領域1001と中心位置(参照位置)が重なる、図16(j)の領域2001rの中心を、参照位置とする。   For this reason, in the fourth embodiment, the read control unit 14 causes the center (reference position) of the reference region to overlap the reference position when the base frame and the compositing side frame have the same angle of view. The reading position by the synthesis unit 8 is controlled. Specifically, when the reference frame is the fifth frame image p4a and the compositing side frame is the ninth frame image p8a, the reading control unit 14 overlaps the area 1009 of FIG. The center of the area 2009r in FIG. On the other hand, when the base frame is the ninth frame image p8a and the composition side frame is the fifth frame image p4a, the read control unit 14 determines the reference region 1001 and the center position (reference position) in FIG. The center of the region 2001r in FIG.

図16(b)と図7(j)を、図5(i)と対比させて説明すると、図7(j)の各領域2001r〜2009rの中心位置は、図5(j)の各領域1001〜1009の中心位置から離れている。一方、図16(b)の各領域2001r〜2009rの中心位置は、図5(j)の各領域1001〜1009の中心位置と一致している。すなわち、図16(b)のような領域2001r〜2009rの中心が参照位置となるような読み出し制御が行われた場合、合成部8による合成処理後の画像は、図7(j)の場合の合成処理後の画像よりも、ぼかし具合のバランスが良い画像となる。このように、第4の実施形態の撮像装置によれば、動画像の撮像において光学ズームの倍率が変更されて画角が異なった場合に、読み出し位置制御を行うことで、ぼかし具合のバランスをとることができ、ぼかし具合の変動を軽減することが可能である。   16 (b) and FIG. 7 (j) will be described in comparison with FIG. 5 (i). The central positions of the respective regions 2001r to 2009r in FIG. 7 (j) are the respective regions 1001 in FIG. 5 (j). It is away from the central position of ~ 1009. On the other hand, the center positions of the respective regions 2001r to 2009r in FIG. 16B coincide with the center positions of the respective regions 1001 to 1009 in FIG. That is, when readout control is performed such that the centers of the regions 2001r to 2009r as shown in FIG. 16B are the reference positions, the image after the synthesis processing by the synthesis unit 8 is the same as that in the case of FIG. The image has a better balance of blurring than the image after the composition processing. As described above, according to the imaging apparatus of the fourth embodiment, when the magnification of the optical zoom is changed and the angle of view is different in capturing a moving image, the readout position control is performed, so that the balance of the degree of blur is adjusted. It is possible to reduce fluctuations in the degree of blurring.

次に、図17には、第4の実施形態におけるフィルタ処理から合成処理までのフローチャートを示す。図17のフローチャートは、システム制御部11が、フィルタ処理部4の制御、メモリ6の制御、読み出し制御部14における読み出し位置制御、合成部8の合成制御を行うことにより実行される。なお、図17において、前述の図9で説明した各ステップと同じ処理には同一の指示番号を付し、重複した説明は省略する。   Next, FIG. 17 shows a flowchart from filter processing to synthesis processing in the fourth embodiment. The flowchart of FIG. 17 is executed by the system control unit 11 performing control of the filter processing unit 4, control of the memory 6, read position control in the read control unit 14, and synthesis control of the synthesis unit 8. In FIG. 17, the same processing as that in each step described in FIG. 9 is given the same instruction number, and redundant description is omitted.

図17において、前述の図9のフローチャートと異なる処理が行われるのはステップS306である。図17のフローチャートにおいて、ステップS204で全分割数に対応した所定フレーム数分の演算が完了したと判断すると、システム制御部11は、処理をステップS306へ進める。ステップS306では、システム制御部11は、読み出し制御部14に対して、各フレームにおける光学ズーム情報を送る。これにより、読み出し制御部14は、基準フレームと合成側フレームの画角(ズーム倍率)に基づいて、前述した図16(a)で説明したような読み出し位置のずらし量を生成し、そのずらし量の情報を合成部8へ出力する。ステップS306の後、システム制御部11は、処理をステップS207へ進める。したがって、ステップS207において、合成部8は、合成処理の際には、読み出し制御部14で求められたずらし量を加味した読み出し位置の画素の読み出しを行うことになる。   In FIG. 17, processing different from the flowchart of FIG. 9 described above is performed in step S306. In the flowchart of FIG. 17, when determining in step S204 that the calculation for the predetermined number of frames corresponding to the total number of divisions has been completed, the system control unit 11 advances the processing to step S306. In step S <b> 306, the system control unit 11 sends the optical zoom information in each frame to the read control unit 14. Thereby, the read control unit 14 generates the shift amount of the read position as described in FIG. 16A based on the angle of view (zoom magnification) of the reference frame and the compositing side frame, and the shift amount. Is output to the synthesis unit 8. After step S306, the system control unit 11 advances the process to step S207. Therefore, in step S207, the combining unit 8 reads out the pixel at the reading position in consideration of the shift amount obtained by the reading control unit 14 during the combining process.

<第5の実施形態>
次に、図18には、第5の実施形態の撮像装置の概略構成を示す。第5の実施形態において、第1,第2,第4の実施形態で説明したものと同じ構成要素等にはそれぞれ第1,第2,第4の実施形態と同一の指示番号を付し、重複した説明は省略する。
<Fifth Embodiment>
Next, FIG. 18 illustrates a schematic configuration of an imaging apparatus according to the fifth embodiment. In the fifth embodiment, the same components as those described in the first, second, and fourth embodiments are assigned the same instruction numbers as those in the first, second, and fourth embodiments, respectively. A duplicate description is omitted.

第5の実施形態は、前述した第2の実施形態と同様、基準フレームに対し合成側フレームの方の画角が狭い場合に、不足してしまう参照領域を基準フレームより補うことで、違和感のない合成画像を生成可能とする例である。すなわち、図18に示す第5の実施形態の撮像装置は、図11に示した第2の実施形態で説明したものと同じ拡大合成部12を備えている。   In the fifth embodiment, as in the second embodiment described above, when the angle of view of the compositing side frame is narrower than that of the base frame, the reference area that is insufficient is compensated for by the base frame, thereby making it uncomfortable. This is an example in which it is possible to generate a non-composite image. That is, the imaging apparatus of the fifth embodiment shown in FIG. 18 includes the same enlargement / synthesizing unit 12 as described in the second embodiment shown in FIG.

第5の実施形態の撮像装置においても前述の第2の実施形態の場合と同様に、不足してしまう参照領域を基準フレームより補うことで、違和感のない合成画像を生成可能となる。   Also in the imaging apparatus of the fifth embodiment, as in the case of the second embodiment described above, it is possible to generate a composite image without a sense of incongruity by supplementing the reference region that is lacking with the reference frame.

<第6の実施形態>
図19には、第6の実施形態の撮像装置の概略構成を示す。第6実施形態において、第1,第3,第4の実施形態で説明したものと同じ構成要素等にはそれぞれ第1,第3,第4の実施形態と同一の指示番号を付し、重複した説明は省略する。
<Sixth Embodiment>
FIG. 19 shows a schematic configuration of an imaging apparatus according to the sixth embodiment. In the sixth embodiment, the same constituent elements as those described in the first, third, and fourth embodiments are denoted by the same instruction numbers as those in the first, third, and fourth embodiments, respectively. The explanations made are omitted.

第6の実施形態は、前述した第3の実施形態と同様、基準フレームに対し合成側フレームの方の画角が狭い場合に、基準フレームを動的に切り替えることにより、合成側フレームで参照領域の不足が発生しないようにする例である。すなわち、図19に示す第6の実施形態の撮像装置は、図13に示した第3の実施形態で説明したものと同じ基準フレーム選択部13を備えている。   In the sixth embodiment, as in the third embodiment described above, when the angle of view of the combining side frame is narrower than that of the reference frame, the reference frame is dynamically switched, so that the reference region is changed in the combining side frame. This is an example of preventing the shortage from occurring. That is, the imaging apparatus of the sixth embodiment shown in FIG. 19 includes the same reference frame selection unit 13 as that described in the third embodiment shown in FIG.

第6の実施形態の撮像装置においても前述の第3の実施形態の場合と同様、基準フレームに対し合成側フレームの方の画角が狭い場合、基準フレームを動的に切り替えることで、違和感のない合成画像を生成可能となる。   Also in the imaging device of the sixth embodiment, as in the case of the third embodiment described above, when the angle of view of the synthesis side frame is narrower than the reference frame, the reference frame is dynamically switched, so It is possible to generate a composite image that does not exist.

<その他の実施形態>
前述の各実施形態では、動画像のフレーム画像に対するフィルタ処理と合成処理を例に挙げているが、本発明は、動画像だけでなく例えば高速連写による各撮影画像に対するフィルタ処理と合成処理にも適用可能である。
<Other embodiments>
In each of the above-described embodiments, the filtering process and the synthesizing process for the frame image of the moving image are given as an example. However, the present invention is not limited to the moving image and the filtering process and the synthesizing process for each captured image by, for example, high-speed continuous shooting. Is also applicable.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

1 光学系、2 撮像素子、3 現像処理部、4 フィルタ処理部、5 フィルタ係数制御部、6 メモリ、7 合成比率生成部、8 合成部、9 主被写体判別部、10 背景被写体合成部、11 システム制御部、12 拡大合成部、13 基準フレーム選択部、14 読み出し制御部   DESCRIPTION OF SYMBOLS 1 Optical system, 2 Image pick-up element, 3 Development process part, 4 Filter process part, 5 Filter coefficient control part, 6 Memory, 7 Composition ratio production | generation part, 8 Composition part, 9 Main subject discrimination part, 10 Background subject composition part, 11 System control unit, 12 enlargement / synthesis unit, 13 reference frame selection unit, 14 readout control unit

Claims (10)

撮像順に入力されるフレーム画像に対し、所定フレーム数ごとに、前記フレーム画像の撮像順にフィルタ係数を制御したフィルタ処理を行うフィルタ手段と、
前記フィルタ手段によるフィルタ処理後のフレーム画像を、順次1フレームずつずらしながら前記所定フレーム数ごとに合成処理する合成手段と、
前記フレーム画像が撮像された際の画角に基づいて、前記合成手段による前記フレーム画像の前記合成処理を制御する合成制御手段と
を有することを特徴とする画像信号処理装置。
Filter means for performing filter processing for controlling the filter coefficient in order of capturing the frame images for each predetermined number of frames with respect to the frame images input in the order of capturing;
A synthesizing unit for synthesizing the frame image after the filtering process by the filtering unit for each of the predetermined number of frames while sequentially shifting by one frame;
An image signal processing apparatus comprising: a synthesis control unit that controls the synthesis process of the frame image by the synthesis unit based on an angle of view when the frame image is captured.
前記所定フレーム数は、水平,垂直方向が複数タップの空間フィルタを複数に分割した分割数に対応しており、
前記フィルタ手段は、前記空間フィルタを前記複数に分割した分割フィルタごとのフィルタ係数を、前記所定フレーム数の前記フレーム画像の順に用いた、前記フィルタ処理を行い、
前記合成手段は、前記フィルタ処理後の前記所定フレーム数の各フレーム画像の画素を加算する合成処理を行うことを特徴とする請求項1に記載の画像信号処理装置。
The predetermined number of frames corresponds to the number of divisions obtained by dividing the spatial filter having a plurality of taps in the horizontal and vertical directions.
The filter means performs the filter processing using filter coefficients for each of the divided filters obtained by dividing the spatial filter into the plurality, in the order of the frame images of the predetermined number of frames,
The image signal processing apparatus according to claim 1, wherein the synthesizing unit performs a synthesizing process of adding pixels of each frame image of the predetermined number of frames after the filtering process.
前記合成手段は、前記フィルタ処理後の前記所定フレーム数の各フレーム画像のうち、前記合成処理の際に基準となる基準フレーム画像の画素と、前記基準フレーム画像に合成する側となる合成側フレーム画像の所定の位置の画素とを加算する前記合成処理を行い、
前記合成制御手段は、前記フレーム画像が撮像された際の画角に基づいて、前記基準フレーム画像の画素に対して前記加算される前記合成側フレーム画像の前記画素に重みを付けて、前記基準フレーム画像と前記合成側フレーム画像の合成比率を制御することを特徴とする請求項1又は2に記載の画像信号処理装置。
The synthesizing unit is configured such that, out of the frame images of the predetermined number of frames after the filtering process, a pixel of a reference frame image serving as a reference at the time of the synthesizing process and a synthesizing frame serving as a synthesizing side with the reference frame image Performing the synthesis process of adding a pixel at a predetermined position of the image;
The combining control unit weights the pixels of the combining-side frame image to be added to the pixels of the reference frame image based on an angle of view when the frame image is captured, and The image signal processing apparatus according to claim 1, wherein a composition ratio between the frame image and the composition side frame image is controlled.
前記合成制御手段は、前記基準フレーム画像に対する前記合成側フレーム画像の画角が狭くなるほど、前記合成側フレーム画像の前記画素の重みを重くして、前記基準フレーム画像に対する前記合成側フレーム画像の合成比率を高くすることを特徴とする請求項3に記載の画像信号処理装置。   The synthesizing control unit increases the weight of the pixel of the synthesizing frame image as the angle of view of the synthesizing frame image with respect to the reference frame image becomes narrower, and synthesizes the synthesizing frame image with the reference frame image. The image signal processing apparatus according to claim 3, wherein the ratio is increased. 前記合成手段は、前記フィルタ処理後の前記所定フレーム数の各フレーム画像のうち、前記合成処理の際に基準となる基準フレーム画像の画素と、前記基準フレーム画像に合成する側となる合成側フレーム画像の所定の位置の画素とを加算する前記合成処理を行い、
前記合成制御手段は、前記フレーム画像が撮像された際の画角に基づいて、前記合成手段で前記基準フレーム画像の画素に前記加算される前記合成側フレーム画像の前記画素に対する、前記所定の位置を制御することを特徴とする請求項1又は2に記載の画像信号処理装置。
The synthesizing unit is configured such that, out of the frame images of the predetermined number of frames after the filtering process, a pixel of a reference frame image serving as a reference at the time of the synthesizing process and a synthesizing frame serving as a synthesizing side with the reference frame image Performing the synthesis process of adding a pixel at a predetermined position of the image;
The synthesis control unit is configured to determine the predetermined position with respect to the pixel of the synthesis side frame image to be added to the pixel of the reference frame image by the synthesis unit based on an angle of view when the frame image is captured. The image signal processing device according to claim 1, wherein the image signal processing device is controlled.
前記合成制御手段は、前記基準フレーム画像の画角に対して前記合成側フレーム画像の画角が異なる場合、前記基準フレーム画像の画素に前記加算される合成側フレーム画像の前記画素に対する前記所定の位置を、前記基準フレームと前記合成側フレームが同画角であるときの所定の位置に合わせるように制御することを特徴とする請求項5に記載の画像信号処理装置。   When the angle of view of the composition side frame image is different from the angle of view of the reference frame image, the composition control unit is configured to add the predetermined frame to the pixel of the composition side frame image to be added to the pixel of the reference frame image. The image signal processing apparatus according to claim 5, wherein the position is controlled so as to match a predetermined position when the reference frame and the synthesis side frame have the same angle of view. 前記合成制御手段は、前記基準フレーム画像に対して前記合成側フレーム画像の画角が狭い場合、前記基準フレーム画像と前記合成側フレーム画像の画角差分に応じて前記基準フレーム画像を拡大し、前記拡大した基準フレーム画像から前記画角差分に対応した画像部分を取得し、前記取得した画像部分を前記合成側フレーム画像の周囲に合成し、
前記合成手段は、前記画像部分が周囲に合成された前記合成側フレーム画像の前記画素と、基準フレーム画像の画素とを加算する前記合成処理を行うことを特徴とする請求項3乃至6のいずれか1項に記載の画像信号処理装置。
When the angle of view of the compositing side frame image is narrower than the reference frame image, the compositing control means enlarges the reference frame image according to the angle of view difference between the reference frame image and the compositing side frame image, Obtaining an image portion corresponding to the angle-of-view difference from the enlarged reference frame image, and synthesizing the acquired image portion around the synthesis side frame image;
7. The composition processing according to claim 3, wherein the composition unit performs the composition processing of adding the pixel of the composition side frame image in which the image portion is composed around and the pixel of the reference frame image. The image signal processing device according to claim 1.
前記合成制御手段は、前記所定フレーム数のフレーム画像のうち、最も画角が狭いフレーム画像を前記基準フレーム画像とすることを特徴とする請求項3乃至6のいずれか1項に記載の画像信号処理装置。   The image signal according to any one of claims 3 to 6, wherein the synthesis control unit sets a frame image having a narrowest angle of view among the frame images of the predetermined number of frames as the reference frame image. Processing equipment. 撮像順に入力されるフレーム画像に対してフィルタ処理を施す画像信号処理装置が実行する画像信号処理方法であって、
撮像順に入力されるフレーム画像に対し、所定フレーム数ごとに、前記フレーム画像の撮像順にフィルタ係数を制御するフィルタ処理を行うフィルタステップと、
前記フィルタステップによるフィルタ処理後のフレーム画像を、順次1フレームずつずらしながら前記所定フレーム数ごとに合成処理する合成ステップと、
前記フレーム画像が撮像された際の画角に基づいて、前記合成ステップによる前記フレーム画像の前記合成処理を制御する合成制御ステップと
を含むことを特徴とする画像信号処理方法。
An image signal processing method executed by an image signal processing apparatus that performs a filtering process on frame images input in the order of imaging,
A filter step for performing a filter process for controlling a filter coefficient in the order of capturing the frame images for each predetermined number of frames with respect to the frame images input in the order of capturing;
A synthesizing step for synthesizing the frame image after the filtering process by the filtering step every predetermined number of frames while sequentially shifting by one frame;
An image signal processing method comprising: a synthesis control step for controlling the synthesis processing of the frame image by the synthesis step based on an angle of view when the frame image is captured.
コンピュータを、
撮像順に入力されるフレーム画像に対し、所定フレーム数ごとに、前記フレーム画像の撮像順にフィルタ係数を制御するフィルタ処理を行うフィルタ手段と、
前記フィルタ手段によるフィルタ処理後のフレーム画像を、順次1フレームずつずらしながら前記所定フレーム数ごとに合成処理する合成手段と、
前記フレーム画像が撮像された際の画角に基づいて、前記合成手段による前記フレーム画像の前記合成処理を制御する合成制御手段と
して機能させるプログラム。
Computer
Filter means for performing a filtering process for controlling a filter coefficient in the order of capturing the frame images for each predetermined number of frames with respect to the frame images input in the order of capturing;
A synthesizing unit for synthesizing the frame image after the filtering process by the filtering unit for each of the predetermined number of frames while sequentially shifting by one frame;
A program that functions as a synthesis control unit that controls the synthesis process of the frame image by the synthesis unit based on an angle of view when the frame image is captured.
JP2015047590A 2015-03-10 2015-03-10 Image signal processing apparatus, image signal processing method, and program Expired - Fee Related JP6465703B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015047590A JP6465703B2 (en) 2015-03-10 2015-03-10 Image signal processing apparatus, image signal processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015047590A JP6465703B2 (en) 2015-03-10 2015-03-10 Image signal processing apparatus, image signal processing method, and program

Publications (2)

Publication Number Publication Date
JP2016167774A true JP2016167774A (en) 2016-09-15
JP6465703B2 JP6465703B2 (en) 2019-02-06

Family

ID=56898856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015047590A Expired - Fee Related JP6465703B2 (en) 2015-03-10 2015-03-10 Image signal processing apparatus, image signal processing method, and program

Country Status (1)

Country Link
JP (1) JP6465703B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62206682A (en) * 1986-03-07 1987-09-11 Hitachi Ltd Image processing method by division spatial filter
JP2004145615A (en) * 2002-10-24 2004-05-20 Mega Chips Corp Image processor and image processing method
JP2007124396A (en) * 2005-10-28 2007-05-17 Nikon Corp Imaging device
JP2014127964A (en) * 2012-12-27 2014-07-07 Canon Inc Image processing device, image processing method, and program
JP2015159375A (en) * 2014-02-21 2015-09-03 キヤノン株式会社 image processing apparatus, image processing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62206682A (en) * 1986-03-07 1987-09-11 Hitachi Ltd Image processing method by division spatial filter
JP2004145615A (en) * 2002-10-24 2004-05-20 Mega Chips Corp Image processor and image processing method
JP2007124396A (en) * 2005-10-28 2007-05-17 Nikon Corp Imaging device
JP2014127964A (en) * 2012-12-27 2014-07-07 Canon Inc Image processing device, image processing method, and program
JP2015159375A (en) * 2014-02-21 2015-09-03 キヤノン株式会社 image processing apparatus, image processing method and program

Also Published As

Publication number Publication date
JP6465703B2 (en) 2019-02-06

Similar Documents

Publication Publication Date Title
JP4524717B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
KR102365748B1 (en) System and method for creating background blur in camera panning or motion
JP2013065280A (en) Image processing method, image processing system and program
JP2018137648A (en) Imaging device, control method of imaging device, and program
JP6405531B2 (en) Imaging device
JP2016024489A (en) Image processing apparatus, imaging device, image processing method, and program
US10469728B2 (en) Imaging device having a lens array of micro lenses
JP2018508898A (en) Digital zoom method and system
JP6261205B2 (en) Image processing device
CN112655194A (en) Electronic device and method for capturing views
JP6270413B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2018037857A (en) Image processing system, image processing method and program
JP2017005689A (en) Image processing system and image processing method
JP6326631B2 (en) Imaging device
JP2017038165A (en) Image processing device, imaging device and image processing method
JP2009047734A (en) Imaging apparatus and image processing program
JP6465703B2 (en) Image signal processing apparatus, image signal processing method, and program
JP6961423B2 (en) Image processing equipment, imaging equipment, control methods for image processing equipment, programs and recording media
JP5893426B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP6728020B2 (en) Image processing apparatus, image processing method and program
JP6639276B2 (en) Image processing apparatus and control method thereof, imaging apparatus, and program
JP6016546B2 (en) Imaging device, control method thereof, and control program
JP2017183983A (en) Imaging apparatus, control method and control program of the same
JP2016208118A (en) Image processing apparatus, image processing method, and program
JP2016039563A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190108

R151 Written notification of patent or utility model registration

Ref document number: 6465703

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees