JP2023160574A - Image processing device, control method thereof, and program - Google Patents

Image processing device, control method thereof, and program Download PDF

Info

Publication number
JP2023160574A
JP2023160574A JP2022071016A JP2022071016A JP2023160574A JP 2023160574 A JP2023160574 A JP 2023160574A JP 2022071016 A JP2022071016 A JP 2022071016A JP 2022071016 A JP2022071016 A JP 2022071016A JP 2023160574 A JP2023160574 A JP 2023160574A
Authority
JP
Japan
Prior art keywords
small area
small
image
area images
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022071016A
Other languages
Japanese (ja)
Inventor
弘基 沖野
Hiroki Okino
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022071016A priority Critical patent/JP2023160574A/en
Publication of JP2023160574A publication Critical patent/JP2023160574A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

To provide an image processing device, a control method thereof, and a program for making differences between small areas inconspicuous while suppressing an amount of calculation.SOLUTION: An imaging device includes a control unit, a ROM, a RAM, an optical system, an imaging unit, an A/D conversion unit, an image processing unit, a recording unit, a communication unit, a display unit, and an instruction input unit. The image processing unit includes: a first small-area extraction unit that extracts a plurality of first small-area images at a first position obtained by dividing a first input image according to a predetermined size at the first position, and a plurality of first small-area images at a second position obtained by dividing the first input image according to the predetermined size at the second position that is shifted by half the predetermined size in two mutually perpendicular directions from the first position; and a two-position small-area blending unit that combines a plurality of second small-area images at the first position and a plurality of second small-area images at the second position based on a combination rate that is set to become smaller as approaching vertices for the plurality of second small-area images in each of the first position and the second position.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、その制御方法、および、プログラムに関する。 The present invention relates to an image processing apparatus, a control method thereof, and a program.

デジタルカメラにより、ノイズの少ない画像を得るためには、十分な露光時間を確保することが有効である。だが、露光時間を長くすると、手振れによるカメラの動きや被写体の動き等により画像に「ぶれ」が生じる。このような「ぶれ」に対処する方式として、電子ぶれ補正方式が提案されている。電子ぶれ補正方式においては、「ぶれ」の少ない短い露光時間で撮像を複数回連続して行う。次いで、得られた複数枚の画像間の動きがキャンセルされるように、位置合わせ処理を行った後、合成処理を行う。これにより「ぶれ」が無く低ノイズの画像を得ることが可能となる。 In order to obtain images with less noise using a digital camera, it is effective to ensure sufficient exposure time. However, when the exposure time is increased, the image becomes blurred due to camera movement due to camera shake or movement of the subject. An electronic blur correction method has been proposed as a method for dealing with such "shake." In the electronic blur correction method, images are captured multiple times in succession using short exposure times with little "shake." Next, alignment processing is performed so that movement between the plurality of images obtained is canceled, and then compositing processing is performed. This makes it possible to obtain an image with no "blur" and low noise.

さらに、局所的な被写体の動きに対応する方法が特許文献1等に開示されている。特許文献1で開示されている方法では、合成対象となる画像を複数の小領域に分割し、分割された小領域毎に位置合わせの処理を行っている。また、小領域毎に合成率を適応的に変更することにより、被写体が合成により多重となることを抑制している。また、小領域毎に空間フィルタによるノイズ抑制の強さを適応的に変更することにより、合成率の違いによる小領域間のノイズレベルの差を抑制している。だが、小領域毎の処理では、小領域毎の位置合わせによる被写体の連続性の途切れや、小領域毎の適応的な処理によるノイズレベルや解像感の差などが目立ってしまうことがあった。そこで、特許文献2は、小領域の一部が重なる状態で小領域を抽出し、処理の後段で小領域の重なり部分に対してブレンド処理を行っている。これにより小領域間の解像感などの差を目立ちにくくする方法を開示していた。 Further, a method for responding to local movement of a subject is disclosed in Patent Document 1 and the like. In the method disclosed in Patent Document 1, an image to be combined is divided into a plurality of small regions, and alignment processing is performed for each of the divided small regions. Furthermore, by adaptively changing the compositing rate for each small region, it is possible to suppress the subject from becoming multiplexed due to compositing. Furthermore, by adaptively changing the strength of noise suppression by the spatial filter for each small region, differences in noise level between small regions due to differences in synthesis rate are suppressed. However, when processing each small area, the continuity of the subject may be interrupted due to the positioning of each small area, and differences in noise level and resolution may become noticeable due to adaptive processing for each small area. . Therefore, in Patent Document 2, small regions are extracted with parts of the small regions overlapping, and blend processing is performed on the overlapping portions of the small regions at a later stage of processing. This disclosed a method for making differences in resolution between small areas less noticeable.


特開2009-164857号公報Japanese Patent Application Publication No. 2009-164857 特開2005-115548号公報Japanese Patent Application Publication No. 2005-115548

しかしながら、小領域の水平方向および垂直方向に夫々、小領域のサイズの半分だけ重ねる方法にあっては、小領域の抽出に用いる画像に対して小領域の数が多くなる。この結果、小領域毎に行う計算の量が増大するという問題があった。また、小領域の水平方向および垂直方向に夫々、小幅だけ重ねる方法においては、計算の量の増大は抑制できるものの、小領域の中央部で重なりの無い領域が生じる。この結果、小領域の中央部において小領域間の差が目立ちやすいという問題があった。 However, in the method of overlapping each small area by half the size of the small area in the horizontal direction and the vertical direction, the number of small areas increases with respect to the image used for extracting the small area. As a result, there is a problem in that the amount of calculations performed for each small area increases. Furthermore, in the method of overlapping the small regions by a small width in the horizontal and vertical directions, although an increase in the amount of calculation can be suppressed, a region with no overlap occurs in the center of the small region. As a result, there has been a problem in that differences between small areas tend to be noticeable at the center of the small areas.

本発明の目的は、計算量を抑制しつつ、小領域間の差を目立たないようにする画像処理装置、その制御方法、および、プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing device, a control method thereof, and a program that make differences between small regions less noticeable while suppressing the amount of calculation.

上記目的を達成すために、本発明の画像処理装置は、第1の入力画像から互いの領域が部分的に重なる複数の第1の小領域画像を抽出する第1の小領域抽出部と、
前記第1の小領域画像または前記第1の小領域画像に基づいて得られる小領域画像の少なくとも一方の小領域画像である第2の小領域画像の重なり領域をブレンド処理する第1のブレンド部と、を備え、
前記第1の小領域抽出部は、前記第1の入力画像を第1の位置で所定サイズに分割して得られる当該第1の位置の複数の前記第1の小領域画像と、前記第1の入力画像を前記第1の位置から互いに垂直する2方向に前記所定サイズの半分ずらした第2の位置で前記所定サイズに分割して得られる当該第2の位置の複数の前記第1の小領域画像とを抽出し、
前記第1のブレンド部は、前記第1の位置および前記第2の位置の夫々の位置における、前記複数の前記第2の小領域画像についてその頂点に近づくに応じて小さくなるように設定された合成率に基づき、前記第1の位置の前記複数の前記第2の小領域画像と、前記第2の位置の前記複数の前記第2の小領域画像とを合成することを特徴とする。
In order to achieve the above object, the image processing device of the present invention includes a first small region extraction unit that extracts a plurality of first small region images whose regions partially overlap each other from a first input image;
a first blending unit that performs a blending process on an overlapping region of a second small area image that is at least one of the first small area image or a small area image obtained based on the first small area image; and,
The first small region extracting unit extracts the plurality of first small region images at the first position obtained by dividing the first input image into predetermined sizes at a first position, and the first small region image at the first position. A plurality of the first small portions at the second position obtained by dividing the input image into the predetermined size at a second position shifted by half the predetermined size in two directions perpendicular to each other from the first position. Extract the region image and
The first blending portion is set to become smaller as the plurality of second small area images approach the apex at each of the first position and the second position. The plurality of second small area images at the first position and the plurality of second small area images at the second position are combined based on a combination rate.

本発明によれば、計算量の増大を抑制しつつ、小領域間の差を目立たないようにする画像処理装置、その制御方法、および、プログラムを提供できるという効果が得られる。 According to the present invention, it is possible to provide an image processing device, a control method thereof, and a program that make differences between small regions inconspicuous while suppressing an increase in the amount of calculation.

本発明の第1実施形態の撮像装置の構成図である。FIG. 1 is a configuration diagram of an imaging device according to a first embodiment of the present invention. 本発明の第1実施形態の画像処理部の機能構成図である。FIG. 2 is a functional configuration diagram of an image processing section according to the first embodiment of the present invention. 本発明の第1形態の第1、第2の位置の小領域の説明図である。FIG. 3 is an explanatory diagram of small areas at first and second positions in the first embodiment of the present invention. 本発明の第1形態の重みの説明図である。FIG. 3 is an explanatory diagram of weights according to the first embodiment of the present invention. 本発明の第1形態の重みの説明図である。FIG. 3 is an explanatory diagram of weights according to the first embodiment of the present invention. 本発明の第1実施形態の重みの説明図である。FIG. 3 is an explanatory diagram of weights according to the first embodiment of the present invention. 本発明の第1実施形態の重みの説明図である。FIG. 3 is an explanatory diagram of weights according to the first embodiment of the present invention. 本発明の第2実施形態の画像処理部の機能構成図である。FIG. 3 is a functional configuration diagram of an image processing section according to a second embodiment of the present invention. 本発明の第2実施形態の第3、第4の位置の小領域の説明図である。FIG. 7 is an explanatory diagram of small areas at third and fourth positions in the second embodiment of the present invention. 本発明の第2実施形態の重みの説明図である。FIG. 7 is an explanatory diagram of weights according to the second embodiment of the present invention. 本発明の第2実施形態の重みの説明図である。FIG. 7 is an explanatory diagram of weights according to the second embodiment of the present invention. 本発明の第2実施形態のユーザー操作インターフェイスの説明図である。FIG. 7 is an explanatory diagram of a user operation interface according to a second embodiment of the present invention. 本発明の第2実施形態のオートモードの処理を説明するフローチャートである。It is a flow chart explaining processing of auto mode of a 2nd embodiment of the present invention.

以下、本発明の実施の形態について図面を参照しながら詳細に説明する。しかしながら、以下の実施の形態に記載される構成はあくまで例示に過ぎず、本発明の範囲は実施の形態に記載される構成によって限定されることはない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the configurations described in the embodiments below are merely examples, and the scope of the present invention is not limited by the configurations described in the embodiments.

なお、本明細書において「小領域画像」のことを単に「小領域」とも記す。また、本明細書において、「位置(第1の位置等)」とは、基準点(基準位置)からの「ずれ量」を示し、「基準点」は例えば小領域分割対象となるフレーム画像の左上の点である。また、「或る位置(第1の位置等)の小領域(小領域画像)」とは、この小領域(小領域画像)の左上の点が当該或る位置であることを指す。また、「入力画像を或る位置(第1の位置等)で所定サイズに分割する」とは、例えば「或る位置」を左上の点とする「小領域画像」を複数の四角形状のブロックに分けることである。また、この四角形状ブロックの各々のことも「小領域(画像)」と記載する。なお、各ブロックは「矩形状」に分割されると説明するが、本発明は「四角形状」に分割されることを含む。つまり、各ブロックは、正方形、長方形(矩形)等を含む広い概念である「四角形」に分割されることを含む。まず、本発明の第1実施形態について説明する。 Note that in this specification, a "small area image" is also simply referred to as a "small area." In addition, in this specification, a "position (first position, etc.)" indicates a "deviation amount" from a reference point (reference position), and a "reference point" is, for example, a frame image to be divided into small regions. This is the upper left point. Furthermore, "a small area (small area image) at a certain position (such as a first position)" indicates that the upper left point of this small area (small area image) is the certain position. Also, "dividing the input image into a predetermined size at a certain position (first position, etc.)" means, for example, dividing a "small area image" with the "certain position" as the upper left point into multiple rectangular blocks. It is divided into two parts. Furthermore, each of these square blocks will also be referred to as a "small area (image)". Although each block will be described as being divided into "rectangular shapes", the present invention includes dividing into "quadrangular shapes". In other words, each block is divided into "squares", which is a broad concept including squares, rectangles, and the like. First, a first embodiment of the present invention will be described.

<第1実施形態>
<基本構成>
図1は、本発明の第1実施形態の基本構成例を示す図である。以下、図1を参照して、本発明の第1実施形態の構成について説明する。なお、本発明の画像処理装置の適用例として撮像装置100を採用するが、本発明の適用例はこれに限定されない。例えば、パーソナルコンピュータ(PC)、アプリケーションサーバー等により、本発明の画像処理が実行されても良い。
<First embodiment>
<Basic configuration>
FIG. 1 is a diagram showing an example of the basic configuration of a first embodiment of the present invention. The configuration of the first embodiment of the present invention will be described below with reference to FIG. Note that although the imaging device 100 is employed as an application example of the image processing device of the present invention, the application example of the present invention is not limited to this. For example, the image processing of the present invention may be executed by a personal computer (PC), an application server, or the like.

撮像装置100は、101 制御部101、ROM102、RAM103、光学系104、撮像部105、A/D変換部106、画像処理部107、記録部108、通信部109、表示部110および指示入力部111を有する。各構成要素は、バス112に接続されており、互いに所要の情報を送受信可能に構成されている。 The imaging device 100 includes 101 control section 101, ROM 102, RAM 103, optical system 104, imaging section 105, A/D conversion section 106, image processing section 107, recording section 108, communication section 109, display section 110, and instruction input section 111. has. Each component is connected to a bus 112 and configured to be able to send and receive required information to and from each other.

制御部101は、撮像装置100が備える各構成要素に対する制御を行うための制御プログラムをROM102より読み出し、読みだしたプログラムをRAM103に展開して実行する。これにより、制御部101は、撮像装置100が備える各構成要素の動作を制御する。制御部101は、CPU、DSP等のプロセッサで構成される。ROM102は、電気的に消去・記録可能な不揮発性メモリであり、撮像装置100が備える各構成要素の動作プログラムに加え、各構成要素の動作に必要なパラメータ等を不揮発的に記憶する。RAM103は、書き換え可能な揮発性メモリであり、制御部101等が実行するプログラムの展開や、撮像装置100が備える各構成要素の動作で生成されたデータ等を一時的に記憶する。 The control unit 101 reads a control program for controlling each component included in the imaging apparatus 100 from the ROM 102, loads the read program into the RAM 103, and executes it. Thereby, the control unit 101 controls the operation of each component included in the imaging device 100. The control unit 101 is composed of a processor such as a CPU and a DSP. The ROM 102 is a nonvolatile memory that can be electrically erased and recorded, and nonvolatilely stores operation programs for each component included in the imaging device 100 as well as parameters necessary for the operation of each component. The RAM 103 is a rewritable volatile memory, and temporarily stores data generated by the development of programs executed by the control unit 101 and the like, the operations of each component included in the imaging apparatus 100, and the like.

光学系104は、ズームレンズ、フォーカスレンズ等を含むレンズ群で構成され、被写体像を撮像部105の撮像面上に結像する。撮像部105は、CCDセンサー、CMOSセンサー等の撮像素子であり、光学系104により撮像面上に結像された光学像を光電変換してアナログ画像信号を得る。得られたアナログ画像信号はA/D変換部106に出力される。A/D変換部106は、入力されたアナログ画像信号をデジタル画像データに変換する。A/D変換部106から出力されたデジタル画像データは、RAM103に一時的に記憶される。 The optical system 104 is composed of a lens group including a zoom lens, a focus lens, etc., and forms a subject image on the imaging surface of the imaging unit 105. The imaging unit 105 is an imaging device such as a CCD sensor or a CMOS sensor, and photoelectrically converts the optical image formed on the imaging surface by the optical system 104 to obtain an analog image signal. The obtained analog image signal is output to the A/D converter 106. The A/D converter 106 converts the input analog image signal into digital image data. Digital image data output from the A/D converter 106 is temporarily stored in the RAM 103.

画像処理部107は、RAM103に記憶されている画像データに対して、各種画像処理を行う。例えば、デモザイキング処理、ホワイトバランス補正処理、ガンマ処理などのデジタル画像データを現像し、表示・記録するための様々な画像処理を行う。また、空間フィルタや複数枚の画像データの合成によるノイズ抑制処理などデジタル画像データを高画質化するための様々な画像処理を実行する。記録部108は、内蔵する記録媒体にデジタル画像データを含むデータを記録する。通信部109は、無線により外部装置と接続し、画像データを通信する。 The image processing unit 107 performs various image processing on the image data stored in the RAM 103. For example, it develops digital image data and performs various image processing such as demosaicing processing, white balance correction processing, and gamma processing for displaying and recording. It also performs various image processing to improve the image quality of digital image data, such as spatial filtering and noise suppression processing by combining multiple pieces of image data. The recording unit 108 records data including digital image data on a built-in recording medium. The communication unit 109 wirelessly connects to an external device and communicates image data.

表示部110は、LCD等の表示デバイスで実現され、RAM103に記憶されている画像や記録部108に記録されている画像を表示する表示デバイスである。また、表示部110は、ユーザーからの指示を受け付けるための操作用のユーザーインターフェイスの表示等も行う。指示入力部111は、タッチパネル、シャッターボタン等の各種の操作部材を含む入力インターフェイスであり、ユーザーによる指示の入力を受け付ける。 The display unit 110 is realized by a display device such as an LCD, and is a display device that displays images stored in the RAM 103 and images recorded in the recording unit 108. The display unit 110 also displays an operational user interface for receiving instructions from the user. The instruction input unit 111 is an input interface that includes various operating members such as a touch panel and a shutter button, and accepts input of instructions from the user.

<特徴部の構成>
図2は、図1の画像処理部107が実行する各種の画像処理のうち、複数フレームの画像信号の合成処理を行う点に注目した画像処理部107の機能構成例である。以下、図2を参照して、第1実施形態における画像信号の合成処理を実行するための機能構成例について説明する。
<Configuration of characteristic parts>
FIG. 2 is an example of the functional configuration of the image processing unit 107, which focuses on the process of synthesizing image signals of a plurality of frames, among the various types of image processing performed by the image processing unit 107 in FIG. Hereinafter, with reference to FIG. 2, an example of a functional configuration for executing image signal synthesis processing in the first embodiment will be described.

画像処理部107は、小領域抽出部201、類似小領域抽出部202、合成部203、ノイズ抑制部204および二位置小領域ブレンド部205を有する。図2の画像処理部107は、入力画像信号「SIG_B」、入力画像信号「SIG_R」、二位置小領域座標データを入力し、「SIG_B」と「SIG_R」を合成した出力画像信号「SIG_O」を出力する。なお、第1実施形態実においては、「SIG_B」と「SIG_R」の計2フレームの画像を合成するものとして説明する。また、「SIG_B」と「SIG_R」は、連続撮影により得られた画像信号であり、被写体が類似しているものとする。 The image processing section 107 includes a small region extraction section 201 , a similar small region extraction section 202 , a composition section 203 , a noise suppression section 204 , and a two-position small region blending section 205 . The image processing unit 107 in FIG. 2 receives an input image signal "SIG_B", an input image signal "SIG_R", and two-position small area coordinate data, and outputs an output image signal "SIG_O" which is a combination of "SIG_B" and "SIG_R". Output. In the first embodiment, a total of two frames of images "SIG_B" and "SIG_R" will be synthesized. Furthermore, it is assumed that "SIG_B" and "SIG_R" are image signals obtained by continuous shooting, and that the subjects are similar.

<小領域抽出部201>
小領域抽出部201は、二位置小領域座標データを参照して、入力画像信号「SIG_B」から小領域画像信号「SIG_B_P」を抽出する。ここで、図3を参照して、二位置小領域座標データ、および、小領域抽出部201の具体的動作について説明する。
<Small area extraction unit 201>
The small area extraction unit 201 extracts the small area image signal "SIG_B_P" from the input image signal "SIG_B" with reference to the two-position small area coordinate data. Here, with reference to FIG. 3, the two-position small area coordinate data and the specific operation of the small area extraction unit 201 will be described.

図3は、小領域抽出部201によって入力画像信号「SIG_B」から抽出される複数の小領域の一部を示す。実線で表される符号301は「第1の位置の小領域」を示す。また、破線で表される符号302は「第2の位置の小領域」を示す。小領域301および小領域302は夫々、水平方向・垂直方向に複数並んだ状態にある。即ち、入力画像に対して、4個のブロックの各々である小領域301が水平方向と垂直方向に複数並ぶように抽出される。同様に、入力画像に対して、4個のブロックの各々である小領域302が水平方向と垂直方向に複数並ぶように抽出される。図3中の点「・」はこれらのことを示している。 FIG. 3 shows some of the plurality of small regions extracted from the input image signal “SIG_B” by the small region extraction unit 201. A symbol 301 represented by a solid line indicates a "small area at the first position." Further, a symbol 302 represented by a broken line indicates a "small area at the second position." A plurality of small regions 301 and a plurality of small regions 302 are arranged horizontally and vertically. That is, a plurality of small regions 301, which are each of four blocks, are extracted from the input image so that they are lined up in the horizontal and vertical directions. Similarly, a plurality of small regions 302, which are each of four blocks, are extracted from the input image so as to be lined up in the horizontal and vertical directions. The points "." in FIG. 3 indicate these points.

つまり、入力画像信号「SIG_B」からは、図3に示す「小領域301」と「小領域302」とが水平方向・垂直方向に多数抽出される。図3では説明の都合上、多数抽出された小領域301、302の内の一つずつを示している。説明の都合上、図3においては、第1の位置の小領域301と第2の位置の小領域302とを示している。 That is, from the input image signal "SIG_B", a large number of "small areas 301" and "small areas 302" shown in FIG. 3 are extracted in the horizontal and vertical directions. For convenience of explanation, FIG. 3 shows one each of a large number of extracted small areas 301 and 302. For convenience of explanation, FIG. 3 shows a small area 301 at a first position and a small area 302 at a second position.

このように、第1の位置の小領域301および第2の位置の小領域302は、夫々の位置において、入力画像信号「SIG_B」を所定サイズの矩形状のブロック分割した状態で抽出される。ここで、所定サイズの矩形とは例えば、水平方向「16画素」、垂直方向に「16画素」のサイズの矩形である。また、第1の位置の小領域301と第2の位置の小領域302とは互いに、水平方向および垂直方向に前述の所定サイズの半分だけブロック分割の位置がずれた状態で抽出される。例えば、4個の小領域(ブロック)の一つが水平方向に「16画素」、垂直方向に「16画素」の矩形サイズの場合は、水平方向に「8画素分」、垂直方向に「8画素分」だけブロック分割の位置がずれた状態で抽出される。つまり、小領域抽出部201は、複数の画素からなる入力画像信号「SIG_B」に基づいて、「256画素」の第1の位置の小領域(1ブロック分)と「256画素」の第2の小領域(1ブロック分)とを水平方向、垂直方向の各々において「8画素」ずらす。かくして、第1の位置の小領域301および第2の位置の小領域302の各々は、4個の小領域にブロック分割される。 In this way, the small area 301 at the first position and the small area 302 at the second position are extracted in a state in which the input image signal "SIG_B" is divided into rectangular blocks of a predetermined size at each position. Here, the rectangle with the predetermined size is, for example, a rectangle with a size of "16 pixels" in the horizontal direction and "16 pixels" in the vertical direction. Furthermore, the small area 301 at the first position and the small area 302 at the second position are extracted with their block division positions shifted from each other by half the predetermined size in the horizontal and vertical directions. For example, if one of the four small areas (blocks) has a rectangular size of "16 pixels" in the horizontal direction and "16 pixels" in the vertical direction, the rectangular size is "8 pixels" in the horizontal direction and "8 pixels" in the vertical direction. The block division position is extracted with a shift of 1 minute. In other words, the small region extracting unit 201 extracts a small region (for one block) at a first position of "256 pixels" and a second small region of "256 pixels" based on an input image signal "SIG_B" consisting of a plurality of pixels. The small area (one block) is shifted by 8 pixels in each of the horizontal and vertical directions. Thus, each of the small area 301 at the first position and the small area 302 at the second position is divided into four small areas.

これにより、入力画像信号「SIG_B」の各画素が、複数の第1の位置の小領域301のうちいずれか一つと、複数の第2の位置の小領域302のうちいずれか一つとに含まれる状態で小領域の抽出を行うことができる。また、第1の位置の小領域301の4個のブロックが共有する頂点が、第2の位置の複数の小領域302(ブロック)のうちのいずれかの小領域の中心と重なるように小領域(ブロック)の抽出を行うことができる。図3においては、第1の位置での4個の小領域(ブロック)が共有する頂点(4個のブロック単位での中心)が、第2の位置の4個の小領域(ブロック)のうちの左上の小領域(1個のブロック)の中心と重なる例を示している。 As a result, each pixel of the input image signal "SIG_B" is included in one of the plurality of small regions 301 at the first position and one of the plurality of small regions 302 at the second position. It is possible to extract small areas in the state. Furthermore, the small area is arranged so that the vertices shared by the four blocks of the small area 301 at the first position overlap with the center of any one of the plurality of small areas 302 (blocks) at the second position. (block) can be extracted. In FIG. 3, the vertex (the center of each of the four blocks) shared by the four small areas (blocks) at the first position is one of the four small areas (blocks) at the second position. An example of overlap with the center of a small area (one block) in the upper left of is shown.

ここで、二位置小領域座標データは、上述の第1の位置の小領域301と第2の位置の小領域302の左上の座標を示すデータである。二位置小領域座標データは、例えば、クロック回路により上述の座標となるように各小領域について順次算出され、小領域抽出部201に順次供給する。小領域抽出部201は、二位置小領域座標データに示される座標を小領域の左上として、順次前述の所定サイズで小領域を抽出する。これにより、小領域抽出部201は、図3に示す位置関係となって、第1の位置の小領域301と第2の位置の小領域302を抽出することができる。また、小領域抽出部201は、第1の位置の小領域301と第2の位置の小領域302との夫々から、上述のように4個のブロックに分割しない小領域を抽出する。以上が、二位置小領域座標データおよび小領域抽出部201の具体的な動作についての説明である。以降、図2の説明に戻る。 Here, the two-position small area coordinate data is data indicating the upper left coordinates of the small area 301 at the first position and the small area 302 at the second position. The two-position small area coordinate data is sequentially calculated for each small area by, for example, a clock circuit so as to have the above-mentioned coordinates, and is sequentially supplied to the small area extraction unit 201. The small region extracting unit 201 sequentially extracts small regions of the above-described predetermined size, with the coordinates indicated in the two-position small region coordinate data as the upper left of the small region. Thereby, the small area extracting unit 201 can extract the small area 301 at the first position and the small area 302 at the second position with the positional relationship shown in FIG. Furthermore, the small area extraction unit 201 extracts small areas that are not divided into four blocks as described above from each of the small area 301 at the first position and the small area 302 at the second position. The above is a description of the two-position small area coordinate data and the specific operation of the small area extraction unit 201. Hereinafter, the explanation will return to FIG. 2.

<類似小領域抽出部202>
類似小領域抽出部202は、小領域画像信号「SIG_B_P」と「二位置小領域座標データ」とに基づいて、入力画像信号「SIG_R」から、小領域画像信号「SIG_B_P」と類似の小領域画像信号「SIG_R_P」を抽出する。具体的動作は以下のようになる。類似小領域抽出部202は、まず、「二位置小領域座標データ」の示す座標を基準として、入力画像信号「SIG_R」における「類似の小領域」の探索範囲を決定する。ここで、「類似の小領域」とは例えば、或る小領域の縦と横の画素数と、他の小領域の縦、横の画像数の差が所定画素数内に収まる当該他の小領域を指す。あるいは、例えば、縦と横の画素数比率が所定比率内に収まる小領域同士は互いに類似する小領域である。次に、類似小領域抽出部202は、探索範囲の各座標について、入力画像信号「SIG_R」から前述の所定サイズで小領域を抽出し、小領域抽出部201から出力された小領域画像信号「SIG_B_P」との差分を算出する。
<Similar small region extraction unit 202>
The similar small region extraction unit 202 extracts a small region image similar to the small region image signal "SIG_B_P" from the input image signal "SIG_R" based on the small region image signal "SIG_B_P" and "two-position small region coordinate data". Extract the signal "SIG_R_P". The specific operation is as follows. The similar small region extracting unit 202 first determines the search range of the "similar small region" in the input image signal "SIG_R" using the coordinates indicated by the "two-position small region coordinate data" as a reference. Here, "similar small area" means, for example, a small area where the difference between the number of vertical and horizontal pixels of a certain small area and the number of vertical and horizontal images of another small area is within a predetermined number of pixels. Refers to an area. Alternatively, for example, small regions whose vertical and horizontal pixel number ratios fall within a predetermined ratio are similar small regions. Next, the similar small region extracting unit 202 extracts a small region of the aforementioned predetermined size from the input image signal “SIG_R” for each coordinate in the search range, and extracts a small region from the input image signal “SIG_R” with the small region image signal “SIG_R” output from the small region extracting unit 201. SIG_B_P".

次に、類似小領域抽出部202は、探索範囲の各座標のうち、前述の差分が最小の座標における入力画像信号「SIG_R」の小領域を小領域画像信号「SIG_R_P」と決定して出力する。これにより、類似小領域抽出部202は、入力画像信号「SIG_R」から、小領域抽出部201から出力された「SIG_B_P」と類似の小領域画像信号「SIG_R_P」を抽出することができる。つまり、類似小領域抽出部202は、小領域抽出部201が抽出した小領域画像に基づき、第2の入力画像(例えば2フレーム目の画像)から小領域画像に類似した小領域画像を抽出する。一方で、入力画像信号「SIG_R」における本来の座標と異なる位置から小領域画像信号「SIG_R_P」を抽出することで、小領域画像信号「SIG_R_P」間において被写体の連続性が途切れることがある。 Next, the similar small region extracting unit 202 determines the small region of the input image signal "SIG_R" at the coordinate with the minimum difference among the coordinates in the search range as the small region image signal "SIG_R_P" and outputs it. . Thereby, the similar small region extracting unit 202 can extract a small region image signal “SIG_R_P” similar to “SIG_B_P” output from the small region extracting unit 201 from the input image signal “SIG_R”. That is, the similar small region extraction unit 202 extracts a small region image similar to the small region image from the second input image (for example, the second frame image) based on the small region image extracted by the small region extraction unit 201. . On the other hand, by extracting the small region image signal "SIG_R_P" from a position different from the original coordinates in the input image signal "SIG_R", the continuity of the subject may be interrupted between the small region image signals "SIG_R_P".

<合成部203>
合成部203は、小領域抽出部201から出力された小領域画像信号「SIG_B_P」と類似小領域抽出部202から出力された小領域画像信号「SIG_R_P」を合成率に基づいて合成する。そして、合成部203は、合成した小領域画像信号「SIG_M_P」および合成率「SIG_M_RATIO」を出力する。なお、合成部203には、二位置小領域座標データが示す各座標の小領域画像信号「SIG_B_P」の夫々に対応する小領域画像信号「SIG_R_P」が入力されるものとする。例えば、遅延回路による制御により、小領域抽出部201から出力された小領域画像信号「SIG_B_P」に対応する、類似小領域抽出部202から出力された小領域画像信号「SIG_R_P」を入力することができる。
<Composition section 203>
The combining unit 203 combines the small area image signal “SIG_B_P” outputted from the small area extracting unit 201 and the small area image signal “SIG_R_P” outputted from the similar small area extracting unit 202 based on the combining rate. Then, the combining unit 203 outputs the combined small area image signal "SIG_M_P" and the combining rate "SIG_M_RATIO". It is assumed that the combining unit 203 receives a small area image signal "SIG_R_P" corresponding to each of the small area image signals "SIG_B_P" at each coordinate indicated by the two-position small area coordinate data. For example, under the control of the delay circuit, it is possible to input the small region image signal "SIG_R_P" output from the similar small region extracting section 202, which corresponds to the small region image signal "SIG_B_P" output from the small region extracting section 201. can.

合成部203が行う合成の具体的な動作について説明する。まず、合成部203は、小領域画像信号「SIG_B_P」と小領域画像信号「SIG_R_P」との差分に基づいて、合成率「SIG_M_RATIO」を算出する。具体的には、合成部203は、小領域画像信号「SIG_B_P」と小領域画像信号「SIG_R_P」の各画素の差の絶対値の総和(SAD)を差分値として算出する。 The specific operation of the synthesis performed by the synthesis unit 203 will be explained. First, the combining unit 203 calculates the combining rate "SIG_M_RATIO" based on the difference between the small area image signal "SIG_B_P" and the small area image signal "SIG_R_P". Specifically, the synthesis unit 203 calculates the sum of absolute values (SAD) of the differences between each pixel of the small area image signal "SIG_B_P" and the small area image signal "SIG_R_P" as a difference value.

次に、合成部203は、差分値と合成率との関係を表す不図示のテーブルを参照し、差分値が小さいほど合成率が高く、差分値が大きいほど合成率が小さくなるように合成率「SIG_M_RATIO」を設定する。次に、合成部203は、合成率「SIG_M_RATIO」に基づいて、小領域画像信号「SIG_B_P」と小領域画像信号「SIG_R_P」とを加重合成し、小領域画像信号「SIG_M_P」を生成する。具体的には、合成部203は、合成率「SIG_M_RATIO」が最大の場合、小領域画像信号「SIG_B_P」と小領域画像信号「SIG_R_P」の割合が「50(%)」ずつとなるように合成する。 Next, the synthesis unit 203 refers to a table (not shown) showing the relationship between the difference value and the synthesis rate, and sets the synthesis rate so that the smaller the difference value is, the higher the synthesis rate is, and the larger the difference value is, the lower the synthesis rate is. Set “SIG_M_RATIO”. Next, the synthesizing unit 203 performs weighted synthesis of the small area image signal "SIG_B_P" and the small area image signal "SIG_R_P" based on the synthesis rate "SIG_M_RATIO" to generate the small area image signal "SIG_M_P". Specifically, when the synthesis rate “SIG_M_RATIO” is the maximum, the synthesis unit 203 synthesizes the small area image signal “SIG_B_P” and the small area image signal “SIG_R_P” so that the ratio is “50 (%)” each. do.

また、合成率「SIG_M_RATIO」が最小の場合、小領域画像信号「SIG_B_P」の割合が「100(%)」、小領域画像信号「SIG_R_P」の割合が「0(%)」となるように合成する。また、合成率「SIG_M_RATIO」が、前述の間の値の場合には前述の割合から補間される割合によって、小領域画像信号「SIG_B_P」と小領域画像信号「SIG_R_P」とを合成する。以上の合成部203の動作により、小領域画像の被写体の差が大きい場合には合成が抑制されるため、小領域画像信号「SIG_M_P」によって、被写体が多重像状態となることを抑制することができる。一方で、合成率を適応的に変更させて合成することにより、小領域画像信号「SIG_M_P」間における合成ノイズの低減の度合いに差が生じることになる。 In addition, when the combination rate "SIG_M_RATIO" is the minimum, the ratio of the small area image signal "SIG_B_P" is "100 (%)" and the ratio of the small area image signal "SIG_R_P" is "0 (%)". do. Further, when the combination ratio "SIG_M_RATIO" is a value between the above-mentioned values, the small-area image signal "SIG_B_P" and the small-area image signal "SIG_R_P" are synthesized according to a ratio interpolated from the above-mentioned ratio. Due to the above-described operation of the compositing unit 203, compositing is suppressed when there is a large difference between the subjects of the small area images, so it is possible to suppress the subject from being in a multiple image state by the small area image signal "SIG_M_P". can. On the other hand, by adaptively changing the synthesis rate and synthesizing, a difference occurs in the degree of reduction of synthesis noise between the small area image signals "SIG_M_P".

<ノイズ抑制部204>
ノイズ抑制部204は、合成部203から出力された小領域画像信号「SIG_M_P」に対し、合成部203における合成率「SIG_M_RATIO」に応じて調整した強度で、空間フィルタによるノイズ抑制処理を施す。この結果、ノイズ抑制部204、ノイズが抑制された小領域画像信号「SIG_S_P」を出力する。具体的には、ノイズ抑制部204は、合成部203での適応的な合成率による合成処理で生じた小領域画像信号「SIG_M_P」間におけるノイズの標準偏差の差を抑制するように、適応的な強度でノイズ抑制を行う。この動作を行うために、まず、ノイズ抑制部204は、小領域画像信号「SIG_M_P」に対して、予め定められた強度の空間フィルタを施す。空間フィルタは例えば、ローパスフィルタ、バイラテラルフィルタ等を用いるが、ノイズによる高周波成分が抑制されるフィルタであればいずれのタイプの空間フィルタを用いても良い。
<Noise suppression unit 204>
The noise suppression unit 204 performs noise suppression processing using a spatial filter on the small area image signal “SIG_M_P” output from the synthesis unit 203 with the intensity adjusted according to the synthesis rate “SIG_M_RATIO” in the synthesis unit 203. As a result, the noise suppression unit 204 outputs a small area image signal "SIG_S_P" in which noise is suppressed. Specifically, the noise suppression unit 204 adaptively suppresses the difference in the standard deviation of noise between the small area image signals “SIG_M_P” generated by the synthesis processing using the adaptive synthesis rate in the synthesis unit 203. Noise suppression is performed with sufficient strength. In order to perform this operation, the noise suppression unit 204 first applies a spatial filter with a predetermined strength to the small area image signal "SIG_M_P". For example, a low-pass filter, a bilateral filter, or the like is used as the spatial filter, but any type of spatial filter may be used as long as it suppresses high frequency components due to noise.

次に、ノイズ抑制部204は、空間フィルタを施した後の信号に対して、空間フィルタを施す前の小領域画像信号「SIG_M_P」を、合成率「SIG_M_RATIO」から算出した合成率「SIG_S_RATIO」に基づいて加重加算合成する。なお、ここでノイズ抑制部204は、合成率「SIG_M_RATIO」と合成率「SIG_S_RATIO」との対応関係を示すテーブルを参照して、合成率「SIG_S_RATIO」の算出を行う。また、このテーブルは、ノイズ抑制部204の出力信号である「SIG_S_P」において、ノイズの標準偏差が入力信号である「SIG_M_P」のノイズの標準偏差によらず同程度となるように経験則的に従って調整して設定される。 Next, the noise suppression unit 204 converts the small area image signal “SIG_M_P” before applying the spatial filter to the signal after applying the spatial filter to the synthesis rate “SIG_S_RATIO” calculated from the synthesis rate “SIG_M_RATIO”. Perform weighted addition synthesis based on the Note that here, the noise suppression unit 204 calculates the combination rate "SIG_S_RATIO" with reference to a table showing the correspondence between the combination rate "SIG_M_RATIO" and the combination rate "SIG_S_RATIO". In addition, this table is based on empirical rules so that the standard deviation of noise in "SIG_S_P" which is the output signal of the noise suppression unit 204 is the same regardless of the standard deviation of noise of "SIG_M_P" which is the input signal. Adjusted and set.

具体的には、合成率「SIG_M_RATIO」が大きい場合、合成率「SIG_S_P」を大きくし、合成率「SIG_M_RATIO」が小さい場合、合成率「SIG_S_P」を小さくするように設定される。また、合成率「SIG_S_RATIO」に基づいた合成において、ノイズ抑制部204は合成率「SIG_S_RATIO」が最大の場合、次のように合成を行う。つまり、空間フィルタを施した後の信号の割合が0(%)、小領域画像信号「SIG_M_P」の割合が100(%)となるように合成する。また、合成率「SIG_S_RATIO」が最小の場合、空間フィルタを施した後の信号が100(%)、小領域画像信号「SIG_M_P」が0(%)の割合となるように合成する。また、合成率「SIG_S_RATIO」が、前述の間の値の場合には前述の割合から補間される割合に応じて、空間フィルタを施した後の信号と小領域画像信号「SIG_M_P」を合成する。 Specifically, when the synthesis rate "SIG_M_RATIO" is large, the synthesis rate "SIG_S_P" is set to be large, and when the synthesis rate "SIG_M_RATIO" is small, the synthesis rate "SIG_S_P" is set to be small. Furthermore, in the synthesis based on the synthesis rate "SIG_S_RATIO", the noise suppression unit 204 performs synthesis as follows when the synthesis rate "SIG_S_RATIO" is the maximum. That is, the signals are synthesized so that the ratio of the signal after applying the spatial filter is 0 (%), and the ratio of the small area image signal "SIG_M_P" is 100 (%). Furthermore, when the synthesis rate "SIG_S_RATIO" is the minimum, the signals are synthesized so that the signal after applying the spatial filter has a ratio of 100 (%) and the small area image signal "SIG_M_P" has a ratio of 0 (%). Further, when the synthesis rate "SIG_S_RATIO" is a value between the above-mentioned values, the signal after applying the spatial filter and the small area image signal "SIG_M_P" are synthesized according to the ratio interpolated from the above-mentioned ratio.

以上の説明したように、ノイズ抑制部204はその出力である小領域画像信号「SIG_S_P」間におけるノイズの標準偏差の差を、合成部203からの出力である小領域画像信号「SIG_M_P」間における差に比べて小さくすることができる。一方で、空間フィルタによるノイズ抑制の強度を適応的に変更することにより、ノイズ抑制部204の出力信号である小領域画像信号「SIG_S_P」間において解像感に差が生じる。 As explained above, the noise suppression unit 204 calculates the difference in the standard deviation of noise between the small area image signals “SIG_S_P” which are the outputs thereof, and the difference in the standard deviation of noise between the small area image signals “SIG_M_P” which is the output from the combining unit 203. It can be made smaller than the difference. On the other hand, by adaptively changing the strength of noise suppression by the spatial filter, a difference in resolution occurs between the small area image signals "SIG_S_P" that are the output signals of the noise suppression unit 204.

<二位置小領域ブレンド部205>
二位置小領域ブレンド部205(ブレンド部)は、ノイズ抑制部204から出力される小領域画像信号「SIG_S_P」に対し、二位置小領域座標データに基づいて、小領域の加重加算を行って「SIG_O」を出力する。具体的には、まず、二位置小領域ブレンド部205は、小領域画像信号「SIG_S_P」に対してブレンドを行うための重みを乗算し、小領域画像信号「SIG_W_P」を生成する。次に、二位置小領域ブレンド部205は、出力信号「SIG_O」中の二位置小領域座標データ(二つの位置の小領域の座標データ)の示す座標を左上とした領域に、小領域画像信号「SIG_W_P」を加算し、出力信号「SIG_O」を更新して出力する。
<Two-position small area blending unit 205>
The two-position small area blending unit 205 (blending unit) performs weighted addition of small areas on the small area image signal “SIG_S_P” output from the noise suppression unit 204 based on the two-position small area coordinate data. SIG_O" is output. Specifically, first, the two-position small area blending unit 205 multiplies the small area image signal "SIG_S_P" by a weight for performing blending to generate the small area image signal "SIG_W_P". Next, the two-position small area blending unit 205 applies the small-area image signal to an area whose upper left is the coordinate indicated by the two-position small area coordinate data (coordinate data of small areas at two positions) in the output signal "SIG_O". "SIG_W_P" is added and the output signal "SIG_O" is updated and output.

この処理を繰り返すことにより、図3を参照して説明した二位置の位置関係で、第1の位置の小領域画像信号「SIG_S_P」と第2の位置の小領域画像信号「SIG_S_P」が加重加算されることになる。なお、出力信号「SIG_O」は、初期状態においては、全領域で画素値が「0」であるものとする。また、二位置小領域ブレンド部205には、二位置小領域座標データが示す各座標の小領域画像信号「SIG_B_P」の夫々に対応する小領域画像信号「SIG_S_P」が入力されるものする。これにより、小領域抽出部201において、入力画像信号「SIG_B」から小領域画像信号「SIG_B_P」を抽出した領域と同じ領域に小領域画像信号「SIG_W_P」を配置するように合成できる。 By repeating this process, the small area image signal "SIG_S_P" at the first position and the small area image signal "SIG_S_P" at the second position are weighted and added in the positional relationship between the two positions explained with reference to FIG. will be done. It is assumed that the output signal "SIG_O" has a pixel value of "0" in the entire region in the initial state. Further, it is assumed that the two-position small-area blending unit 205 receives a small-area image signal “SIG_S_P” corresponding to each of the small-area image signals “SIG_B_P” at each coordinate indicated by the two-position small-area coordinate data. Thereby, the small area extraction unit 201 can synthesize the input image signal "SIG_B" so that the small area image signal "SIG_W_P" is placed in the same area as the area where the small area image signal "SIG_B_P" is extracted.

なお、二位置小領域ブレンド部205は、小領域抽出部201の出力である小領域画像信号「SIG_B_P」に基づいて得られる小領域の重なりの領域をブレンド処理する構成とすることもできる。また、二位置小領域ブレンド部205は、小領域抽出部201の出力である小領域画像信号「SIG_B_P」と、小領域画像信号「SIG_B_P」に基づいて得られる小領域の双方を入力してブレンド処理する構成とすることもできる。つまり、小領域画像(第1の位置の小領域301)またはこの小領域画像に基づいて得られる小領域画像の少なくとも一方の小領域画像である「第2の小領域画像」の重なり領域をブレンド処理する。 Note that the two-position small area blending unit 205 can also be configured to perform blending processing on overlapping areas of small areas obtained based on the small area image signal “SIG_B_P” that is the output of the small area extraction unit 201. Further, the two-position small region blending unit 205 inputs and blends both the small region image signal “SIG_B_P” which is the output of the small region extraction unit 201 and the small region obtained based on the small region image signal “SIG_B_P”. It is also possible to have a configuration in which the information is processed. In other words, the overlapping areas of the "second small area image" which is at least one of the small area image (the small area 301 at the first position) or the small area image obtained based on this small area image are blended. Process.

<二位置小領域ブレンド部205の小領域画像信号「SIG_W_P」の生成>
ここで、図4、図5、図6、図7を参照して、二位置小領域ブレンド部205が小領域画像信号「SIG_W_P」を生成するために小領域画像信号「SIG_S_P」に乗算する「重み」について説明する。
<Generation of small area image signal “SIG_W_P” by two-position small area blending unit 205>
Here, with reference to FIGS. 4, 5, 6, and 7, two-position small area blending unit 205 multiplies the small area image signal "SIG_S_P" to generate the small area image signal "SIG_W_P""Weight" will be explained.

図4は、二位置小領域ブレンド部205が小領域画像信号「SIG_S_P」に乗算する重みの説明図である。図4の矩形全体は図3に示した1つの「第1の位置の小領域301」、「第2の位置の小領域302」を示す。符号401a、符号401b、符号401c、符号401dは夫々、小領域の頂点である。また、符号402は、小領域の中心である。このとき、二位置小領域ブレンド部205が乗算する重みは、中心402で最も大きい。また、中心402から各頂点401a、401b、401c、401dへ空間的な距離が近づくに従って重みの値は小さくなる。図5を参照して重みの値の具体例について説明する。 FIG. 4 is an explanatory diagram of weights multiplied by the small area image signal "SIG_S_P" by the two-position small area blending unit 205. The entire rectangle in FIG. 4 represents one "small area 301 at the first position" and one "small area 302 at the second position" shown in FIG. 3. Symbols 401a, 401b, 401c, and 401d are the vertices of the small regions, respectively. Further, reference numeral 402 is the center of the small area. At this time, the weight multiplied by the two-position small area blending unit 205 is the largest at the center 402. Further, as the spatial distance from the center 402 to each vertex 401a, 401b, 401c, and 401d approaches, the weight value becomes smaller. A specific example of weight values will be described with reference to FIG.

<重み値の具体例>
図5は、図4の破線で分割される4つの領域のうち、左上の領域について抜き出した図である。このとき、二位置小領域ブレンド部205は、水平方向を第1の座標軸、垂直方向を第2の座標軸としたときの、頂点401aまでの市街地距離(別称「マンハッタン距離」、「L1距離」)に応じて異なる重みの値を乗算に用いる。例えば、中心402は、図4の左上の部分において、頂点401aまでの市街地距離が最も遠い座標である。説明のため、ここでは中心402から頂点401aまでの市街地距離を「100(%)」とする。このとき、中心402での重みの値は、例えば「100(%)」である。また、頂点401aは、頂点401aまでの市街地距離が「0(%)」の座標であり、重みの値は例えば「0(%)」である。
<Specific examples of weight values>
FIG. 5 is an extracted diagram of the upper left region among the four regions divided by the broken line in FIG. At this time, the two-position small area blending unit 205 calculates the urban area distance (also known as "Manhattan distance" or "L1 distance") to the vertex 401a when the horizontal direction is the first coordinate axis and the vertical direction is the second coordinate axis. Different weight values are used for multiplication depending on . For example, the center 402 is the coordinate that has the farthest urban distance to the vertex 401a in the upper left part of FIG. For the purpose of explanation, the city distance from the center 402 to the vertex 401a is assumed to be "100 (%)". At this time, the weight value at the center 402 is, for example, "100 (%)". Further, the vertex 401a is a coordinate whose urban distance to the vertex 401a is "0 (%)", and the weight value is, for example, "0 (%)".

破線501は、図4に示す小領域において隣り合う辺(頂点401aを一端とする2つの辺)の中点を結んでできる線を示す。破線501に示される座標の集合では、頂点401aまでの市街地距離が「50(%)」である。破線501での重みの値は、例えば中心402における重みの値と頂点401aにおける重みの値とを線形補間した値である「50(%)」である。同様にして、破線502に示される市街地距離が「75(%)」の座標の集合では、重みの値は「75(%)」である。また、破線503に示される市街地距離が「25(%)」の座標の集合では、重みの値は「25(%)」である。その他の座標でも同様に、二位置小領域ブレンド部205は、頂点401aまでの市街地距離に応じて異ならせた重みの値を用いる。なお、前述の説明における「小領域の頂点までの市街地距離に応じた重み」は、「小領域の中心までの市街地距離に応じた重み」と換言可能である。以上が図5の説明である。 A broken line 501 indicates a line formed by connecting the midpoints of adjacent sides (two sides having the vertex 401a as one end) in the small area shown in FIG. In the set of coordinates indicated by the broken line 501, the urban distance to the vertex 401a is "50(%)". The weight value at the broken line 501 is, for example, "50 (%)", which is a value obtained by linearly interpolating the weight value at the center 402 and the weight value at the vertex 401a. Similarly, in the set of coordinates where the city distance is "75 (%)", which is indicated by the broken line 502, the weight value is "75 (%)". Further, in the set of coordinates where the city distance is "25 (%)", which is indicated by the broken line 503, the weight value is "25 (%)". Similarly, for other coordinates, the two-position small area blending unit 205 uses different weight values depending on the urban distance to the vertex 401a. In addition, in the above description, "weight according to the urban distance to the apex of the small area" can be rephrased as "weight according to the urban area distance to the center of the small area". The above is the explanation of FIG. 5.

また、二位置小領域ブレンド部205は、図4の破線で分割される4つの領域のうち、図5に示す領域以外の領域においても、同様の方法で重みを設定することができる。このとき、右上の領域においては、頂点401b、左下の領域においては頂点401c、右下の領域においては、頂点401dまでの市街地距離に応じた重みを設定する。例えば、図6は、水平方向「16画素」、垂直方向に「16画素」の小領域の各座標に対して、二位置小領域ブレンド部205が乗算する重みの値の例を示したものである。なお、図6では前述の説明における重みの値の「100(%)」に相当する値を「16」としている。図6に示すように、中心402の近くで重みの値が大きく、頂点401a、401b、401c、401dに向かうにつれて重みの値が小さくなっていることが分かる。 Further, the two-position small area blending unit 205 can set weights in the same manner in areas other than the area shown in FIG. 5 among the four areas divided by the broken line in FIG. 4. At this time, weights are set according to the urban distance to the vertex 401b in the upper right region, the vertex 401c in the lower left region, and the vertex 401d in the lower right region. For example, FIG. 6 shows an example of weight values multiplied by the two-position small area blending unit 205 for each coordinate of a small area of "16 pixels" in the horizontal direction and "16 pixels" in the vertical direction. be. In addition, in FIG. 6, the value corresponding to "100 (%)" of the weight value in the above description is set to "16". As shown in FIG. 6, it can be seen that the weight value is large near the center 402 and becomes smaller toward the vertices 401a, 401b, 401c, and 401d.

これにより、二位置小領域ブレンド部205は、第1の位置の小領域画像信号「SIG_S_P」と第2の位置の小領域画像信号「SIG_S_P」の成分の強度が空間的に滑らかに推移するように、出力信号「SIG_O」を生成できる。したがって、類似小領域抽出部202、合成部203、ノイズ抑制部204等の各処理により生じた小領域画像信号間における差を出力信号「SIG_O」により目立ちにくくすることができる。加えて、二位置小領域ブレンド部205は、各小領域画像信号「SIG_S_P」の夫々に対して同じ重みを乗算することが望ましい。これにより、二位置小領域ブレンド部205の加重加算処理において、出力信号「SIG_O」にムラが生じることを抑制可能になる。この場合、二位置小領域ブレンド部205は例えば、各小領域画像信号「SIG_S_P」の夫々に対して図6に示す重みの値を乗算する。 Thereby, the two-position small area blending unit 205 allows the intensity of the components of the small area image signal "SIG_S_P" at the first position and the small area image signal "SIG_S_P" at the second position to change spatially smoothly. The output signal “SIG_O” can be generated. Therefore, the difference between the small area image signals caused by the processing of the similar small area extracting unit 202, the combining unit 203, the noise suppressing unit 204, etc. can be made less noticeable by the output signal “SIG_O”. In addition, the two-position small area blending unit 205 preferably multiplies each of the small area image signals "SIG_S_P" by the same weight. This makes it possible to suppress unevenness in the output signal "SIG_O" in the weighted addition process of the two-position small area blending unit 205. In this case, the two-position small area blending unit 205 multiplies each of the small area image signals "SIG_S_P" by the weight values shown in FIG. 6, for example.

加えて、二位置小領域ブレンド部205は、小領域画像信号「SIG_S_P」の加重加算の結果、重みの値の合計値が100(%)となるように、小領域画像信号「SIG_S_P」に重みを乗算することが好ましい。この場合、二位置小領域ブレンド部205が用いる重みの値は、小領域(4個のブロック)の中心でn(%)(100≧n>50)とする。そして、小領域(4個のブロック)の頂点で「100-n(%)」とし、その間の座標は、頂点までの市街地距離に応じて線形補間した値とすれば良い。他にも、二位置小領域ブレンド部205による小領域画像信号「SIG_S_P」の加重加算において、小領域の各座標の重みの値の合計値が100(%)となる重み付方法であれば、どのような重み付けを行っても良い。 In addition, the two-position small area blending unit 205 weights the small area image signal "SIG_S_P" so that as a result of the weighted addition of the small area image signal "SIG_S_P", the total value of the weight values becomes 100 (%). It is preferable to multiply . In this case, the weight value used by the two-position small area blending unit 205 is n (%) (100≧n>50) at the center of the small area (four blocks). Then, the vertices of the small area (four blocks) may be set to "100-n (%)", and the coordinates therebetween may be values linearly interpolated according to the urban distance to the vertices. In addition, in the weighted addition of the small area image signal "SIG_S_P" by the two-position small area blending unit 205, if the weighting method is such that the total value of the weight of each coordinate of the small area is 100 (%), Any weighting may be used.

<他の重みの例>
次に、図7を参照して他の重みの例を説明する。図7の横軸は、図5における頂点401aと中心402を結んだ直線上の各座標位置を示し、縦軸は重みの値を示す。実線701は、前述の方法で頂点401aと中心402との間の重みの値を線形補間により得られる値とした例を示す。図7に示すように、頂点401aから中心402まで線形的に重みが増加することが分かる。ここで、説明のため、頂点401aまでの市街地距離が「d(%)」(0≦d≦100)の座標位置における重みの値を「m(%):(0≦m≦100)」とする。このとき、頂点401aまでの距離が「100-d(%)」の座標位置における重みの値が「100-m(%)」となる条件を全ての座標位置で満たす重みであれば、実線701以外の重みであってもよい。
<Examples of other weights>
Next, examples of other weights will be explained with reference to FIG. The horizontal axis in FIG. 7 indicates each coordinate position on the straight line connecting the vertex 401a and the center 402 in FIG. 5, and the vertical axis indicates the weight value. A solid line 701 shows an example in which the weight value between the vertex 401a and the center 402 is a value obtained by linear interpolation using the method described above. As shown in FIG. 7, it can be seen that the weight increases linearly from the vertex 401a to the center 402. Here, for the sake of explanation, the weight value at the coordinate position where the city distance to the vertex 401a is "d (%)" (0≦d≦100) is expressed as "m (%): (0≦m≦100)". do. At this time, if the weight satisfies the condition that the weight value at the coordinate position where the distance to the vertex 401a is "100-d (%)" is "100-m (%)" at all coordinate positions, the solid line 701 Other weights may be used.

例えば、破線702は前述の条件を満たすように頂点401aと中心402との間の重みの値を曲線的に変化させた変形例である。前述の条件を満たす重みの場合、二位置小領域ブレンド部205は、各小領域画像信号「SIG_S_P」の各々に同じ重みで加重加算することにより、重みの値の合計値が100(%)となるように、出力信号「SIG_O」を生成することができる。なお、前述の条件では特にどのような重みの場合も図5に示される小領域の隣り合う辺の中点を結んだ直線(501)において、重みの値を「50(%)」とする必要がある。以上が、二位置小領域ブレンド部205が、小領域画像信号「SIG_S_P」に乗算する重みの説明である。以降、図2の説明に戻る。 For example, the broken line 702 is a modified example in which the weight value between the vertex 401a and the center 402 is changed in a curved manner so as to satisfy the above-mentioned conditions. In the case of weights that satisfy the above-mentioned conditions, the two-position small area blending unit 205 adds weights to each of the small area image signals "SIG_S_P" with the same weight, so that the total value of the weight values becomes 100 (%). The output signal "SIG_O" can be generated as follows. Note that under the above conditions, no matter what the weight is, it is necessary to set the weight value to ``50 (%)'' on the straight line (501) connecting the midpoints of adjacent sides of the small area shown in Figure 5. There is. The above is an explanation of the weight that the two-position small area blending unit 205 multiplies the small area image signal "SIG_S_P". Hereinafter, the explanation will return to FIG. 2.

二位置小領域ブレンド部205は、前述の重みを小領域画像信号「SIG_S_P」の各座標値に基づいた算出を行って求める。または、制御部101が、ROM102、RAM103に予め記憶されている前述の重みを二位置小領域ブレンド部205に与える構成としても良い。以上が二位置小領域ブレンド部205の説明である。 The two-position small area blending unit 205 calculates the weight described above based on each coordinate value of the small area image signal "SIG_S_P". Alternatively, a configuration may be adopted in which the control unit 101 gives the aforementioned weights stored in advance in the ROM 102 and RAM 103 to the two-position small area blending unit 205. The above is the explanation of the two-position small area blending unit 205.

図2に示す画像信号の合成処理を行う画像処理部は、全ての二位置小領域座標データに対して、小領域抽出部201、類似小領域抽出部202から二位置小領域ブレンド部205までの処理を行うことにより、最終的な出力信号「SIG_O」を生成できる。なお、「全ての二位置小領域座標データ」とは例えば、入力画像信号「SIG_B」や入力画像信号「SIG_R」の全域から小領域を抽出するための全ての座標を示す二位置小領域座標データである。以上が図2の画像信号の合成処理を行う画像処理部の説明である。 The image processing unit that performs the image signal synthesis process shown in FIG. By performing the processing, the final output signal "SIG_O" can be generated. Note that "all two-position small area coordinate data" is, for example, two-position small area coordinate data that indicates all coordinates for extracting a small area from the entire area of the input image signal "SIG_B" or the input image signal "SIG_R". It is. The above is a description of the image processing section that performs the image signal synthesis process in FIG. 2.

なお、図2は、本発明が適応される実施の形態の一例であり、小領域抽出部201および二位置小領域ブレンド部205の動作が行える構成であれば、その構成は図2に示すものに限られない。例えば、合成部203やノイズ抑制部204は無くてもよい。この場合、二位置小領域ブレンド部205には、小領域画像信号「SIG_S_P」の代わりに、類似小領域抽出部202が出力する小領域画像信号「SIG_R_P」を入力する。この場合であっても、本発明は、小領域画像信号「SIG_R_P」間において生じる被写体の連続性の途切れが、出力画像信号「SIG_O」において目立つことを抑制可能である。 Note that FIG. 2 is an example of an embodiment to which the present invention is applied, and as long as the structure allows the operations of the small region extracting section 201 and the two-position small region blending section 205, the structure can be as shown in FIG. Not limited to. For example, the combining section 203 and the noise suppressing section 204 may not be provided. In this case, the small area image signal “SIG_R_P” output from the similar small area extracting unit 202 is input to the two-position small area blending unit 205 instead of the small area image signal “SIG_S_P”. Even in this case, the present invention can prevent a break in the continuity of the subject occurring between the small area image signals "SIG_R_P" from becoming noticeable in the output image signal "SIG_O".

また、例えば、類似小領域抽出部202は無くてもよい。この場合、例えば、入力画像信号「SIG_R」から小領域画像信号「SIG_R_P」の抽出は、小領域抽出部201と同様の動作により行う。この場合であっても、本発明は、小領域画像信号「SIG_M_P」間において生じるノイズ低減度合の差や、小領域画像信号「SIG_S_P」間において生じる解像感の差が、出力画像信号「SIG_O」において目立つことを抑制可能である。 Further, for example, the similar small area extraction unit 202 may not be provided. In this case, for example, the small area image signal "SIG_R_P" is extracted from the input image signal "SIG_R" by the same operation as the small area extraction unit 201. Even in this case, the present invention allows the difference in the degree of noise reduction occurring between the small area image signals "SIG_M_P" and the difference in resolution occurring between the small area image signals "SIG_S_P" to be ” can be suppressed from becoming conspicuous.

また、実施形態1においては、入力画像信号「SIG_B」と入力画像信号「SIG_R」の2フレームを合成する例を示したが、本発明は合成するフレーム数に拘わらず適応可能である。例えば、3フレーム以上を合成する場合、次のようにする。つまり、類似小領域抽出部202が複数の入力画像信号「SIG_R」から複数の小領域画像信号「SIG_R_P」を抽出し、合成部203により、小領域画像信号「SIG_B_P」と複数の小領域画像信号「SIG_R_P」を合成する構成とすれば良い。 Further, in the first embodiment, an example was shown in which two frames of the input image signal "SIG_B" and the input image signal "SIG_R" are combined, but the present invention is applicable regardless of the number of frames to be combined. For example, when composing three or more frames, do as follows. That is, the similar small region extracting unit 202 extracts a plurality of small region image signals “SIG_R_P” from a plurality of input image signals “SIG_R”, and the combining unit 203 extracts a plurality of small region image signals “SIG_B_P” and a plurality of small region image signals A configuration may be adopted in which "SIG_R_P" is synthesized.

以上の説明から以下の構成を得る。即ち、入力画像から互いに領域が部分的に重なる複数の小領域画像(第1の小領域画像301等)を抽出する小領域抽出部201(第1の小領域抽出部)を備える。また、小領域画像(第1の小領域画像)または小領域画像に基づいて得られる小領域画像の少なくとも一方の小領域画像である第2の小領域画像(前述)の重なり領域をブレンド処理する二位置小領域ブレンド部205を備える。小領域抽出部201は、第1の位置で入力画像を所定サイズに分割して得られる複数の第1の位置の第1の小領域画像を抽出する。次に、第1の位置から、互いに垂直する2つの方向に所定のサイズの半分ずれた第2の位置で所定のサイズに分割して得られる複数の第2の位置の第1の小領域画像を抽出する。また、二位置小領域ブレンド部205は、第1の位置および第2の位置の夫々の位置における、複数の前記第2の小領域画像(301、302)毎にその頂点に近づくに応じて小さくなるように設定された合成率に基づき次の合成を行う。つまり、第1の位置の複数の第2の小領域画像(301)と、第2の位置の複数の前記第2の小領域画像(302)とを合成する。 The following configuration is obtained from the above explanation. That is, it includes a small area extraction unit 201 (first small area extraction unit) that extracts a plurality of small area images (first small area image 301, etc.) whose areas partially overlap each other from an input image. Further, the overlapping region of the second small area image (described above) which is at least one of the small area image (the first small area image) or the small area image obtained based on the small area image is blended. A two-position small area blending section 205 is provided. The small area extraction unit 201 extracts first small area images at a plurality of first positions obtained by dividing an input image into predetermined sizes at a first position. Next, first small area images at a plurality of second positions are obtained by dividing the image into predetermined sizes at second positions shifted by half a predetermined size in two directions perpendicular to each other from the first position. Extract. The two-position small area blending unit 205 also reduces the size of each of the plurality of second small area images (301, 302) at each of the first position and the second position as it approaches its apex. The next synthesis is performed based on the synthesis rate set so that. That is, the plurality of second small area images (301) at the first position and the plurality of second small area images (302) at the second position are combined.

また、二位置小領域ブレンド部205(第1のブレンド部)は以下のような態様で合成することもできる。二位置小領域ブレンド部205(第1のブレンド部)は、前述の合成率に基づき、第1の位置の複数の前記第2の小領域画像(301)と第2の位置の複数の第2の小領域画像(302)を加重加算して合成する構成とすることができる。また、複数の第2の小領域画像毎(301、302)に画像内の所定位置から頂点までの市街地距離に応じて変化するように設定された合成率に基づき次の合成を行う。つまり、第1の位置の複数の第2の小領域画像(301)と第2の位置の複数の第2の小領域画像(302)を合成する。また、複数の第2の小領域画像毎(301、302毎)の合成率の合計値が「100(%)」となるように、第1の位置の複数の第2の小領域画像(301)と、第2の位置の複数の第2の小領域画像(302)とを合成しても良い。複数の第2の小領域画像毎にその隣り合う辺の中点を結んだ直線部で合成率が「50(%)」となる合成率に基づき、第1の位置の複数の第2の小領域画像(301)と第2の位置の複数の第2の小領域画像(302)とを合成する構成とすることもできる。 Furthermore, the two-position small area blending section 205 (first blending section) can also be synthesized in the following manner. The two-position small area blending unit 205 (first blending unit) combines the plurality of second small area images (301) at the first position and the plurality of second small area images at the second position based on the above-mentioned synthesis rate. It is possible to adopt a configuration in which the small area images (302) of 2 are combined by weighted addition. Furthermore, the next synthesis is performed for each of the plurality of second small area images (301, 302) based on a synthesis rate that is set to vary depending on the urban area distance from a predetermined position in the image to the vertex. That is, the plurality of second small area images (301) at the first position and the plurality of second small area images (302) at the second position are combined. In addition, the plurality of second small area images (301, ) and a plurality of second small area images (302) at the second position may be combined. The plurality of second small area images at the first position are calculated based on the synthesis rate such that the synthesis rate is "50(%)" in the straight line connecting the midpoints of adjacent sides of each of the plurality of second small area images. It is also possible to adopt a configuration in which the regional image (301) and a plurality of second small region images (302) at the second position are combined.

また、複数の第2の小領域画像(301、302)に対して、2以上の第2の小領域画像の間(301間、302間)で互いに異なる(ノイズ抑制)強度によりノイズ調整を行う「適応的調整部」を備えた構成としても良い。また、複数の第2の小領域画像は、この適応的調整部による調整処理を含む工程により生成される。この「適応的調整部」は、前述の合成部203やノイズ抑制部204に対応する。また、ここで「強度」とは「画像処理の強度」や「ノイズ抑制強度」である。「適応的調整部」は、合成部203が出力する「合成率SIG_M_RATIO」やノイズ抑制部204に入力される「合成率SIG_S_RATIO」を変化させることで、画像処理の強度を変化させる。 Further, noise adjustment is performed on the plurality of second small area images (301, 302) using mutually different (noise suppression) strengths between two or more second small area images (between 301 and 302). A configuration including an "adaptive adjustment section" may also be used. Further, the plurality of second small area images are generated by a process including adjustment processing by the adaptive adjustment unit. This "adaptive adjustment section" corresponds to the above-mentioned synthesis section 203 and noise suppression section 204. Moreover, the "strength" here refers to "image processing strength" and "noise suppression strength." The “adaptive adjustment unit” changes the intensity of image processing by changing the “synthesis rate SIG_M_RATIO” output from the synthesis unit 203 and the “synthesis rate SIG_S_RATIO” input to the noise suppression unit 204.

また、この適応的調整部は更に、複数の第1の小領域画像(301、302)と、第3の入力画像から抽出した複数の第3の小領域画像とを画像間合成率に基づいて合成して複数の第4の小領域画像を得る合成処理を含む処理を実行する構成とすることもできる。この際、画像間合成率は、2以上の第1の小領域画像(301、302)間で互いに異なるようにする。ここで、第3の入力画像は、例えば図2における画像信号「SIG_R」である。また、この適応的調整部は更に、複数の第4の小領域画像に対して、所定抑制率に基づいてノイズ抑制を行うノイズ抑制処理を実行し、所定抑制率は2以上の第4の小領域画像間で互いに異なる構成とすることができる。 Further, the adaptive adjustment unit further adjusts the plurality of first small region images (301, 302) and the plurality of third small region images extracted from the third input image based on the inter-image synthesis rate. It is also possible to adopt a configuration in which a process including a compositing process to obtain a plurality of fourth small area images is executed. At this time, the inter-image synthesis rate is set to be different between the two or more first small area images (301, 302). Here, the third input image is, for example, the image signal "SIG_R" in FIG. 2. Further, the adaptive adjustment unit further executes noise suppression processing for suppressing noise based on a predetermined suppression rate on the plurality of fourth small area images, and the predetermined suppression rate is a fourth small area image of 2 or more. The regional images can have different configurations.

<第2実施形態>
実施形態例2においては、実施形態1の構成を変形し、実施形態1において説明した二位置小領域の抽出およびブレンド処理と、四位置小領域の抽出およびブレンド処理とを使い分ける例を示す。つまり、第2実施形態は2位置と4位置とを使い分けるようにした点に特徴がある。なお、特に説明が無い場合、第1実施形態と同一符号のものは、第1実施形態と同様の動作、処理を行うものとする。また、第2実施形態の基本的な構成例は、第1実施形態1と同様であり、説明を省略する。
<Second embodiment>
In Embodiment 2, the configuration of Embodiment 1 is modified, and an example is shown in which the two-position small area extraction and blending process and the four-position small area extraction and blending process described in Embodiment 1 are used. In other words, the second embodiment is characterized in that the second position and the fourth position are used selectively. Note that unless otherwise specified, components having the same reference numerals as in the first embodiment perform the same operations and processing as in the first embodiment. Further, the basic configuration example of the second embodiment is the same as that of the first embodiment, and the description thereof will be omitted.

<第2実施形態の特徴的な構成>
図8は、第2実施形態の画像処理部107の各種画像処理のうち、図2で説明した二位置の小領域を用いた複数フレームの画像信号の合成処理とは別途に備える、四位置の小領域を用いた合成処理を行う機能構成例である。以下、図8を参照して、四位置の小領域を用いた合成処理の機能構成例について説明する。なお、以下、「二位置の小領域を用いた複数フレームの画像信号の合成処理」を単に「二位置合成処理」と記す。また、「四位置の小領域を用いた複数フレームの画像信号の合成処理」を単に「四位置合成処理」と記す。
<Characteristic configuration of the second embodiment>
FIG. 8 shows, among various types of image processing performed by the image processing unit 107 of the second embodiment, four-position processing that is provided separately from the synthesis processing of multiple frames of image signals using small regions at two positions described in FIG. 2. This is an example of a functional configuration for performing compositing processing using a small area. Hereinafter, with reference to FIG. 8, an example of a functional configuration of a compositing process using small regions at four positions will be described. Note that, hereinafter, "combining processing of image signals of multiple frames using small regions at two positions" will be simply referred to as "two-position combining processing." Furthermore, "combining processing of image signals of multiple frames using small regions at four positions" is simply referred to as "four-position combining processing."

図8に示す画像処理部107は、小領域抽出部201、類似小領域抽出部202、合成部203、ノイズ抑制部204および四位置小領域ブレンド部801を有する。画像処理部107は、入力画像信号「SIG_B」、入力画像信号「SIG_R」、四位置小領域座標データを入力とし、「SIG_B」と「SIG_R」を合成した出力画像信号「SIG_O」を出力する。なお、第2実施形態においては説明のため「SIG_B」と「SIG_R」の2フレームの画像を合成するものとして説明する。図2と比較すれば分かるように、図8の画像信号の合成処理においては、小領域抽出部201および類似小領域抽出部202へ「二位置小領域座標データ」の代わりに、「四位置小領域座標データ」を入力する。図9を参照して、四位置小領域座標データについては説明する。 The image processing section 107 shown in FIG. 8 includes a small region extraction section 201, a similar small region extraction section 202, a composition section 203, a noise suppression section 204, and a four-position small region blending section 801. The image processing unit 107 inputs the input image signal "SIG_B", the input image signal "SIG_R", and the four-position small area coordinate data, and outputs an output image signal "SIG_O" which is a combination of "SIG_B" and "SIG_R". Note that in the second embodiment, for the sake of explanation, it is assumed that two frame images "SIG_B" and "SIG_R" are combined. As can be seen by comparing with FIG. 2, in the image signal synthesis process of FIG. Input the area coordinate data. The four-position small area coordinate data will be explained with reference to FIG.

図9は、実施形態2において小領域抽出部201により、入力画像信号「SIG_B」から抽出される複数の小領域の一部を示したものである。図9(a)において、実線で示される4個のブロック(小領域)の夫々が、図3の第1の位置の小領域301を示す。また、点線示される4個のブロック(小領域)が、第3の位置の小領域901を示す。また、図9(b)において、点線で示される4個のブロック(小領域)の夫々は、第4の位置の小領域902を示す。つまり、図9(a)において、実線で表される符号301は、図3と同様に第1の位置の小領域を示す。小領域901および小領域902は夫々、水平方向・垂直方向に複数並んだ状態にある。 FIG. 9 shows some of the plurality of small regions extracted from the input image signal “SIG_B” by the small region extraction unit 201 in the second embodiment. In FIG. 9A, each of the four blocks (small areas) indicated by solid lines indicates the small area 301 at the first position in FIG. Furthermore, four blocks (small areas) indicated by dotted lines indicate the small area 901 at the third position. Furthermore, in FIG. 9B, each of the four blocks (small areas) indicated by dotted lines indicates the small area 902 at the fourth position. That is, in FIG. 9(a), the reference numeral 301 represented by a solid line indicates a small area at the first position, as in FIG. A plurality of small areas 901 and 902 are arranged in parallel in the horizontal and vertical directions.

即ち、入力画像に対して、小領域901が水平方向と垂直方向に複数並ぶように抽出される。同様に、入力画像に対して、小領域902が水平方向と垂直方向に複数並ぶように抽出される。図9では夫々複数の内、小領域901のような小領域を4個、小領域902のような小領域を4個、を示しており、図9中の点「・」はこれら以外の小領域が図から省略されていることを示している。このように、これらの小領域901、902は、水平方向および垂直方向に夫々複数並んだ状態である。なお、小領域301も複数抽出されることは前述の通りであるが、説明の都合上、図9においては第1の位置の小領域301のような4個のみを示している。 That is, a plurality of small regions 901 are extracted from the input image so as to be lined up in the horizontal and vertical directions. Similarly, a plurality of small regions 902 are extracted from the input image so as to be lined up in the horizontal and vertical directions. In FIG. 9, four small areas such as small area 901 and four small areas such as small area 902 are shown among the plurality of small areas, and the dots "・" in FIG. Indicates that the region has been omitted from the diagram. In this way, a plurality of these small areas 901 and 902 are lined up horizontally and vertically, respectively. As described above, a plurality of small regions 301 are extracted, but for convenience of explanation, only four small regions 301 at the first position are shown in FIG.

小領域301および小領域302は夫々、水平方向・垂直方向に複数並んだ状態にある。即ち、入力画像に対して、小領域301が水平方向と垂直方向に複数並ぶように抽出される。同様に、入力画像に対して、小領域302が水平方向と垂直方向に複数並ぶように抽出される。図3中の3個の点「・」は図示する小領域以外の小領域が図から省略されていることを示している。 A plurality of small regions 301 and a plurality of small regions 302 are arranged horizontally and vertically. That is, a plurality of small areas 301 are extracted from the input image so that they are lined up in the horizontal and vertical directions. Similarly, a plurality of small regions 302 are extracted from the input image so as to be lined up in the horizontal and vertical directions. The three dots "." in FIG. 3 indicate that small areas other than the illustrated small areas are omitted from the diagram.

また、第3の位置の小領域901および第4の位置の小領域902は夫々の位置において、入力画像信号「SIG_B」を所定サイズの矩形ブロックに分割し生成される。所定サイズの矩形状のブロックは、図3に示す第1の位置の小領域301や第2の位置の小領域302と同サイズである。 Furthermore, the small area 901 at the third position and the small area 902 at the fourth position are generated by dividing the input image signal "SIG_B" into rectangular blocks of a predetermined size at the respective positions. The rectangular block of the predetermined size has the same size as the small area 301 at the first position and the small area 302 at the second position shown in FIG.

また、第1の位置の小領域301と第3の位置の小領域901は互いに水平方向に前述の所定サイズの半分だけブロック分割の位置がずれた状態にある。例えば、小領域が、水平方向「16画素」、垂直方向「16画素」のサイズの矩形である場合、水平方向に「8画素」だけブロック分割の位置がずれた状態にある。また、第1の位置の小領域301と、第4の位置の小領域902とは、互いに垂直方向に前述の所定サイズの半分だけブロック分割の位置がずれた状態にある。例えば、小領域が、水平方向「16画素」、垂直方向「16画素」のサイズの矩形である場合、垂直方向に「8画素分」だけブロック分割の位置がずれた状態にある。 Further, the small area 301 at the first position and the small area 901 at the third position are in a state where the block division positions are shifted from each other in the horizontal direction by half of the above-described predetermined size. For example, if the small area is a rectangle with a size of "16 pixels" in the horizontal direction and "16 pixels" in the vertical direction, the position of the block division is shifted by "8 pixels" in the horizontal direction. Further, the small area 301 at the first position and the small area 902 at the fourth position are in a state in which the block division positions are shifted from each other by half of the predetermined size in the vertical direction. For example, if the small area is a rectangle with a size of "16 pixels" in the horizontal direction and "16 pixels" in the vertical direction, the position of the block division is shifted by "8 pixels" in the vertical direction.

ここで、四位置小領域座標データは、図3および図9に示す第1の位置の小領域301と、第2の位置の小領域302と、第3の位置の小領域901と、第4の位置の小領域902の夫々の左上の座標を示すデータである。四位置小領域座標データ(四つの位置の小領域の座標データ)は、例えば、クロック回路により上述の座標となるように各小領域について順次、算出される。以上が、四位置小領域座標データの説明である。以降、図8の説明に戻る。 Here, the four-position small area coordinate data includes the small area 301 at the first position, the small area 302 at the second position, the small area 901 at the third position, and the fourth position shown in FIGS. This is data indicating the upper left coordinates of each small area 902 at the position. The four-position small area coordinate data (coordinate data of the small area at four positions) is sequentially calculated for each small area by, for example, a clock circuit so as to have the above-mentioned coordinates. The above is the explanation of the four-position small area coordinate data. Hereinafter, the explanation will return to FIG. 8.

このように、小領域抽出部201は、第1の位置乃至第4の位置の夫々の位置における小領域(301、302、901、902)の夫々について小領域の抽出を行うことができる。また、類似小領域抽出部202は、実施形態1の二位置小領域座標データの代わりに、四位置小領域座標データの示す座標を基準として、入力画像信号「SIG_R」における類似の小領域の探索範囲を決定する。 In this way, the small area extraction unit 201 can extract small areas for each of the small areas (301, 302, 901, 902) at each of the first to fourth positions. Further, the similar small region extraction unit 202 searches for a similar small region in the input image signal “SIG_R” using the coordinates indicated by the four-position small region coordinate data as a reference instead of the two-position small region coordinate data of the first embodiment. Determine the range.

四位置小領域ブレンド部801は、小領域画像信号「SIG_S_P」に対して、四位置小領域座標データに基づいて、小領域の加重加算を行って「SIG_O」を出力する。具体的には、まず、四位置小領域ブレンド部801は、小領域画像信号「SIG_S_P」に対してブレンドを行うための重みを乗算して、小領域画像信号「SIG_W_P」を生成する。次に、四位置小領域ブレンド部801は、出力信号「SIG_O」中の四位置小領域座標データの示す座標を左上とした領域に、小領域画像信号「SIG_W_P」を加算し、出力信号「SIG_O」を更新して出力する。 The four-position small region blending unit 801 performs weighted addition of small regions on the small region image signal "SIG_S_P" based on the four-position small region coordinate data, and outputs "SIG_O". Specifically, first, the four-position small area blending unit 801 multiplies the small area image signal "SIG_S_P" by a weight for performing blending to generate the small area image signal "SIG_W_P." Next, the four-position small-area blending unit 801 adds the small-area image signal "SIG_W_P" to the area whose coordinates indicated by the four-position small-area coordinate data in the output signal "SIG_O" are in the upper left corner, and adds the small-area image signal "SIG_W_P" to the output signal "SIG_O". ” is updated and output.

この処理を繰り返すことにより、図3、図9を参照して説明した四位置の位置関係で第1の位置、第2の位置、第3の位置、第4の位置の小領域画像信号SIG_S_Pが加重加算されることになる。なお、出力信号「SIG_O」は、初期状態では全領域で画素値が「0」とする。また、四位置小領域ブレンド部801には、四位置小領域座標データが示す各座標の小領域画像信号「SIG_B_P」の夫々に対応する小領域画像信号「SIG_S_P」が入力される。これにより、小領域抽出部201において、小領域画像信号「SIG_B」から小領域画像信号「SIG_B_P」を抽出した領域と同じ領域に小領域画像信号「SIG_W_P」を配置するように合成できる。ここで、図10、図11を参照して、四位置小領域ブレンド部801が小領域画像信号「SIG_W_P」を生成するために、小領域画像信号「SIG_S_P」に乗算する重みについて説明する。 By repeating this process, the small area image signal SIG_S_P at the first position, second position, third position, and fourth position is obtained in the positional relationship of the four positions explained with reference to FIGS. 3 and 9. It will be added weighted. Note that the output signal "SIG_O" has a pixel value of "0" in the entire region in the initial state. Further, the four-position small-area blending unit 801 receives a small-area image signal “SIG_S_P” corresponding to each of the small-area image signals “SIG_B_P” at each coordinate indicated by the four-position small-area coordinate data. Thereby, the small area extraction unit 201 can synthesize the small area image signal "SIG_W_P" so as to place it in the same area as the area where the small area image signal "SIG_B_P" is extracted from the small area image signal "SIG_B". Here, with reference to FIGS. 10 and 11, the weight multiplied by the small area image signal "SIG_S_P" in order for the four-position small area blending unit 801 to generate the small area image signal "SIG_W_P" will be described.

<第2実施形態の「重み」>
<水平方向の重み>
図10は、四位置小領域ブレンド部801が、小領域画像信号「SIG_S_P」に乗算する重みの説明図である。図10に示す矩形全体は、1つの小領域(301、302、901、902)を示す。四位置小領域ブレンド部801は、水平方向および垂直方向に対して夫々変化する重みを小領域画像信号「SIG_S_P」に乗算する。まず、水平方向に対する重みについて説明する。符号1001aと符号1001bの各々は、小領域の垂直方向に延びる辺である。また、符号1002は、小領域を垂直方向に分割するための中心線である。このとき、四位置小領域ブレンド部801が乗算する重みは、水平方向において中心線1002で最も大きい。また、中心線1002から、辺1001a、辺1001bへと空間的な距離が長くなるに従って、水平方向の重みの値は小さくなる。具体的には、四位置小領域ブレンド部801は、辺1001aまたは辺1001bのうち、近い方までのユークリッド距離に応じて異なる重みの値を乗算に用いる。例えば、中心線1002は、図10に示す領域の中で辺1001a、辺1001bまでのユークリッド距離が最も遠い座標の集合である。
<“Weight” of the second embodiment>
<Horizontal weight>
FIG. 10 is an explanatory diagram of weights multiplied by the small area image signal "SIG_S_P" by the four-position small area blending unit 801. The entire rectangle shown in FIG. 10 represents one small area (301, 302, 901, 902). The four-position small area blending unit 801 multiplies the small area image signal "SIG_S_P" by weights that change in the horizontal and vertical directions. First, the weight in the horizontal direction will be explained. Each of reference numeral 1001a and reference numeral 1001b is a side extending in the vertical direction of the small area. Further, reference numeral 1002 is a center line for dividing the small area in the vertical direction. At this time, the weight multiplied by the four-position small area blending unit 801 is the largest at the center line 1002 in the horizontal direction. Further, as the spatial distance from the center line 1002 to the sides 1001a and 1001b becomes longer, the value of the weight in the horizontal direction becomes smaller. Specifically, the four-position small area blending unit 801 uses different weight values for the multiplication depending on the Euclidean distance to the nearest side 1001a or 1001b. For example, the center line 1002 is a set of coordinates having the farthest Euclidean distance from sides 1001a and 1001b in the area shown in FIG.

ここで、説明のために、中心線1002から辺1001a、辺1001bまでのユークリッド距離を「100(%)」とする。このとき、中心線1002での水平方向に対する重みの値は、例えば「100(%)」である。また、辺1001a、1001bは、辺1001aまたは辺1001bの内で近い方までのユークリッド距離が「0(%)」の座標の集合であり、水平方向に対する重みの値は例えば「0(%)」である。垂直方向に延びる破線1003aと破線1003bは、辺1001aまたは辺1001bのうち近い方までのユークリッド距離が「50(%)」の座標の集合を示す。破線1003a、1003bにおける水平方向に対する重みの値は例えば、中心線1002における重みの値と辺1001a、1001bにおける重みの値とを線形補間した値である「50(%)」である。その他の座標でも同様に、四位置小領域ブレンド部801は、辺1001aまたは辺1001bのうち近い方までのユークリッド距離に応じて異ならせた水平方向に対する重みの値を用いる。図11(a)は、水平方向「16画素」、垂直方向「16画素」の小領域の各座標における、水平方向に対する重みの値の例を示す。なお、図11(a)においては、前述の説明における重みの値の「100(%)」に相当する値を「9」としている。以上が水平方向に対する重みの説明である。 Here, for the sake of explanation, the Euclidean distance from the center line 1002 to the sides 1001a and 1001b is assumed to be "100 (%)". At this time, the weight value for the horizontal direction at the center line 1002 is, for example, "100 (%)". Furthermore, the sides 1001a and 1001b are a set of coordinates whose Euclidean distance to the nearest side 1001a or 1001b is "0 (%)", and the weight value in the horizontal direction is, for example, "0 (%)". It is. A broken line 1003a and a broken line 1003b extending in the vertical direction indicate a set of coordinates whose Euclidean distance to the nearest side 1001a or 1001b is "50(%)". The value of the weight in the horizontal direction on the broken lines 1003a and 1003b is, for example, "50 (%)", which is a value obtained by linearly interpolating the weight value on the center line 1002 and the weight value on the sides 1001a and 1001b. Similarly, for other coordinates, the four-position small area blending unit 801 uses values of weights in the horizontal direction that are varied depending on the Euclidean distance to the nearest side 1001a or 1001b. FIG. 11A shows an example of the weight value in the horizontal direction at each coordinate of a small region of "16 pixels" in the horizontal direction and "16 pixels" in the vertical direction. Note that in FIG. 11A, the value corresponding to the weight value "100 (%)" in the above description is "9". The above is an explanation of the weight in the horizontal direction.

<垂直方向の重み>
次に、垂直方向に対する重みについて説明する。図10の符号1004aと符号1004bは、小領域の水平方向に延びる辺である。また、符号1005は、小領域を水平方向に分割するための中心線である。このとき、四位置小領域ブレンド部801が乗算する重みは、垂直方向において中心線1005において最も大きい。また、中心線1005から、辺1004a、辺1004bへ空間的な距離が遠くになるに従って垂直方向の重みの値は小さくなる。具体的には、四位置小領域ブレンド部801は、辺1004aまたは辺1004bのうちの近い方までのユークリッド距離に応じて異なる重みの値を乗算に用いる。例えば、中心線1005は、図10に示す領域の中で辺1004aおよび辺1004bまでのユークリッド距離が最も遠い座標の集合である。説明のため、ここでは、中心線1005から、辺1004aおよび辺1004bまでのユークリッド距離を「100(%)」とする。このとき、中心線1005での垂直方向に対する重みの値は例えば「100(%)」である。
<Vertical weight>
Next, weights in the vertical direction will be explained. Reference numerals 1004a and 1004b in FIG. 10 are sides extending in the horizontal direction of the small area. Further, reference numeral 1005 is a center line for dividing the small area in the horizontal direction. At this time, the weight multiplied by the four-position small area blending unit 801 is the largest at the center line 1005 in the vertical direction. Further, as the spatial distance from the center line 1005 to the sides 1004a and 1004b becomes greater, the value of the weight in the vertical direction becomes smaller. Specifically, the four-position small area blending unit 801 uses different weight values for multiplication depending on the Euclidean distance to the closer of the sides 1004a or 1004b. For example, the center line 1005 is a set of coordinates having the farthest Euclidean distance to sides 1004a and 1004b in the area shown in FIG. For the sake of explanation, here, the Euclidean distance from the center line 1005 to the sides 1004a and 1004b is assumed to be "100 (%)". At this time, the value of the weight in the vertical direction at the center line 1005 is, for example, "100 (%)".

また、辺1004a、1004bは、辺1004aまたは辺1004bのうちで近い方までのユークリッド距離が「0(%)」の座標の集合であり、垂直方向に対する重みの値は例えば「0(%)」である。また、破線1006a、破線1006bは、辺1004aまたは辺1004bのうちの近い方までのユークリッド距離が「50(%)」の座標の集合を示す。破線1006a、破線1006bでの垂直方向に対する重みの値は、例えば中心線1005における重みの値と、辺1004a、1004bにおける重みの値とを線形補間した値である「50(%)」である。その他の座標に対しても同様に、四位置小領域ブレンド部801は、辺1004aまたは辺1004bのうちの近い方までのユークリッド距離に応じて異ならせた垂直方向に対する重みの値を用いる。図11(b)は、水平方向「16画素」、垂直方向「16画素」の小領域の各座標における、垂直方向に対する重みの値の例を示している。なお、図11(b)においては、前述の説明における重みの値の「100(%)」に相当する値を「9」としている。以上が垂直方向に対する重みの説明である。 Furthermore, the sides 1004a and 1004b are a set of coordinates whose Euclidean distance to the nearest side 1004a or 1004b is "0 (%)", and the weight value in the vertical direction is, for example, "0 (%)". It is. Further, the broken line 1006a and the broken line 1006b indicate a set of coordinates whose Euclidean distance to the nearest side 1004a or 1004b is "50 (%)". The value of the weight in the vertical direction on the broken line 1006a and the broken line 1006b is, for example, "50 (%)", which is a value obtained by linearly interpolating the weight value on the center line 1005 and the weight value on the sides 1004a and 1004b. Similarly, for other coordinates, the four-position small area blending unit 801 uses weight values in the vertical direction that are varied depending on the Euclidean distance to the closer of the sides 1004a or 1004b. FIG. 11B shows an example of weight values in the vertical direction at each coordinate of a small region of "16 pixels" in the horizontal direction and "16 pixels" in the vertical direction. Note that in FIG. 11(b), the value corresponding to "100 (%)" of the weight value in the above description is "9". The above is an explanation of the weight in the vertical direction.

四位置小領域ブレンド部801は、前述の「水平方向に対する重み」と「垂直方向に対する重み」とを組み合わせた重みを小領域画像信号「SIG_S_P」に乗算して小領域画像信号「SIG_W_P」を生成する。「水平方向に対する重み」と「垂直方向に対する重み」とを組み合わせた重みとは、例えば、各座標における「水平方向に対する重み」と「垂直方向に対する重み」とを乗算した重みである。図11(c)は、水平方向「16画素」、垂直方向「16画素」の小領域(4個のブロック単位)の各座標における、「水平方向に対する重み」と「垂直方向に対する重み」とを組み合わせた重みの例を示す。図11(c)に示す重みは、各座標において図11(a)に示す「水平方向に対する重み」と、図11(b)に示す「垂直方向に対する重み」とを乗算して得られたものである。なお、図11(c)においては、前述の説明における重みの値の「100(%)」に相当する値を「81」としている。また、四位置小領域ブレンド部801は、「水平方向に対する重み」と「垂直方向に対する重み」を順次、小領域画像信号「SIG_S_P」に乗算することによっても、同様の小領域画像信号「SIG_W_P」を生成できる。 The four-position small region blending unit 801 multiplies the small region image signal "SIG_S_P" by a weight that is a combination of the "horizontal direction weight" and "vertical direction weight" described above to generate a small region image signal "SIG_W_P". do. The weight that is a combination of the "weight in the horizontal direction" and the "weight in the vertical direction" is, for example, the weight obtained by multiplying the "weight in the horizontal direction" and the "weight in the vertical direction" at each coordinate. FIG. 11(c) shows the "weight in the horizontal direction" and "weight in the vertical direction" at each coordinate of a small area (four blocks) of "16 pixels" in the horizontal direction and "16 pixels" in the vertical direction. An example of combined weights is shown. The weights shown in FIG. 11(c) are obtained by multiplying the "horizontal weight" shown in FIG. 11(a) and the "vertical weight" shown in FIG. 11(b) at each coordinate. It is. Note that in FIG. 11(c), the value corresponding to the weight value "100 (%)" in the above description is "81". The four-position small area blending unit 801 also generates a similar small area image signal ``SIG_W_P'' by sequentially multiplying the small area image signal ``SIG_S_P'' by the ``weight for the horizontal direction'' and the ``weight for the vertical direction.'' can be generated.

これにより、四位置小領域ブレンド部801は、その出力信号「SIG_O」に含まれる第1の位置~第4の位置の小領域画像信号「SIG_S_P」間における成分の強度が空間的に滑らかに推移するように、出力信号「SIG_O」を生成できる。特に、四位置小領域ブレンド部801は、二位置小領域ブレンド部205と比較して小領域画像信号「SIG_S_P」の辺の中点付近で小領域画像信号「SIG_S_P」間における成分強度が空間的に滑らかになるように出力信号「SIG_O」を生成できる。すなわち、図8に示す四位置合成処理においては、図2で説明した二位置合成処理よりも品位な画質の出力信号「SIG_O」を生成し易い。一方、図8に示す四位置合成処理においては、図2に示す二位置合成処理と比較して計算量が増加する。具体的には処理する小領域の位置数が2倍になると計算量も2倍になる。これにより、合成処理による処理時間や消費電力が増大する。以上が、図8の機能構成による、四位置合成処理の説明である。 As a result, the four-position small-area blending unit 801 spatially smoothly transitions the intensity of the component between the small-area image signal "SIG_S_P" at the first position to the fourth position included in the output signal "SIG_O". The output signal "SIG_O" can be generated as follows. In particular, compared to the two-position small-area blending unit 205, the four-position small-area blending unit 801 spatially increases the component intensity between the small-area image signals “SIG_S_P” near the midpoint of the side of the small-area image signal “SIG_S_P”. The output signal "SIG_O" can be generated so as to be smooth. That is, in the four-position synthesis process shown in FIG. 8, it is easier to generate the output signal "SIG_O" with higher image quality than in the two-position synthesis process described in FIG. On the other hand, in the four-position synthesis process shown in FIG. 8, the amount of calculation increases compared to the two-position synthesis process shown in FIG. Specifically, when the number of small area positions to be processed doubles, the amount of calculation also doubles. This increases the processing time and power consumption due to the compositing process. The above is an explanation of the four-position synthesis process using the functional configuration shown in FIG.

なお、図8においては、入力画像信号「SIG_B」と入力画像信号「SIG_R」の2フレームを合成する例を示したが、四位置合成処理はフレーム数によらず適応可能である。例えば、3フレーム以上合成する場合、次のようにする。つまり、類似小領域抽出部202が、複数の入力画像信号「SIG_R」から複数の小領域画像信号「SIG_R_P」を抽出する。そして、図8の合成部203により、小領域画像信号「SIG_B_P」と複数の小領域画像信号「SIG_R_P」を合成する構成とすることもできる。これにより、3フレーム以上の合成においても、第1乃至第4の位置の夫々における小領域を合成することができる。 Although FIG. 8 shows an example in which two frames of the input image signal "SIG_B" and the input image signal "SIG_R" are combined, the four-position combining process is applicable regardless of the number of frames. For example, when compositing three or more frames, do the following. That is, the similar small region extraction unit 202 extracts a plurality of small region image signals "SIG_R_P" from a plurality of input image signals "SIG_R". Then, the composition unit 203 in FIG. 8 can be configured to compose the small area image signal "SIG_B_P" and the plurality of small area image signals "SIG_R_P". Thereby, even when compositing three or more frames, small regions at each of the first to fourth positions can be composited.

<二位置合成処理と四位置合成処理との切り替え>
次に、図1の制御部101が行う二位置合成処理と、四位置合成処理とを切り替える動作について説明する。前述のように、四位置合成処理においては、二位置合成処理よりも画質が比較的高品位になり易い。その一方で、計算量が比較的多いことで処理時間や消費電力が増大する。換言すると、二位置合成処理では、四位置合成処理よりも画質が比較的低品位になり易い一方で、計算量が比較的少ないことで処理時間や消費電力を抑制できる。このようにいずれもメリット、デメリットを有するため、二位置合成処理と、四位置合成処理とは切り替え可能であることが望ましい。以降、制御部101の具体的な合成処理の切り替え動作について説明する。
<Switching between two-position compositing processing and four-position compositing processing>
Next, the operation of switching between the two-position synthesis process and the four-position synthesis process performed by the control unit 101 in FIG. 1 will be described. As described above, in four-position compositing processing, image quality tends to be relatively high compared to two-position compositing processing. On the other hand, the relatively large amount of calculation increases processing time and power consumption. In other words, in two-position compositing processing, the image quality tends to be relatively lower than in four-position compositing processing, but processing time and power consumption can be suppressed because the amount of calculation is relatively small. As described above, both have advantages and disadvantages, so it is desirable that the two-position synthesis process and the four-position synthesis process be switchable. Hereinafter, a specific synthesis processing switching operation of the control unit 101 will be described.

制御部101は、指示入力部111を介したユーザーの指示に基づいて、二位置合成処理モードと四位置合成処理モードとを切り替える。図12を参照して、ユーザーの指示の受け付けについて説明する。図12は、制御部101がユーザーの指示受け付けるときに表示部110に表示するユーザー操作インターフェイスの例である。制御部101は、指示入力部111を介して「速度優先モード」、「画質優先モード」、「オートモード」のいずれかのユーザーの選択指示を受け付けることができる。「速度優先モード」の選択を受け付けた場合、制御部101は、合成処理時に図2に示す二位置合成処理を行うよう画像処理部107に設定する。また、「画質優先モード」の選択を受け付けた場合、制御部101は、合成処理時に図8に示す四位置合成処理を行うよう画像処理部107に設定する。また、「オートモード」の選択を受け付けた場合、制御部101は、図2に示す二位置合成処理と、図8に示す四位置合成処理のいずれかを所定の条件に応じて逐次切り替える。 The control unit 101 switches between the two-position synthesis processing mode and the four-position synthesis processing mode based on a user's instruction via the instruction input unit 111. With reference to FIG. 12, reception of user instructions will be described. FIG. 12 is an example of a user operation interface displayed on the display unit 110 when the control unit 101 receives a user's instruction. The control unit 101 can receive a user's instruction to select one of “speed priority mode,” “image quality priority mode,” and “auto mode” via the instruction input unit 111. If the selection of the "speed priority mode" is accepted, the control unit 101 sets the image processing unit 107 to perform the two-position compositing process shown in FIG. 2 during the compositing process. Further, when the selection of the "image quality priority mode" is accepted, the control unit 101 sets the image processing unit 107 to perform the four-position compositing process shown in FIG. 8 during the compositing process. Further, when receiving the selection of "auto mode", the control unit 101 sequentially switches between the two-position synthesis process shown in FIG. 2 and the four-position synthesis process shown in FIG. 8 according to predetermined conditions.

これにより、制御部101は、ユーザーの指示に基づいて合成処理のモードを切り替えることができる。なお、図12に示したユーザー操作インターフェイスは一例である。二位置合成処理と、四位置合成処理とを切り替えるためのユーザーの指示を制御部101が受け付けることができればどのような方法を使用しても良い。なお、合成処理のモードに基づいた合成処理はどのようなタイミングで実行してもよく、例えば、制御部101は、合成処理を行うユーザーの指示を受け付けたタイミングや連続撮影画像が取得されたタイミングで合成処理を実行してもよい。 Thereby, the control unit 101 can switch the synthesis processing mode based on the user's instructions. Note that the user operation interface shown in FIG. 12 is an example. Any method may be used as long as the control unit 101 can accept a user's instruction for switching between two-position synthesis processing and four-position synthesis processing. Note that the compositing process based on the compositing process mode may be executed at any timing; for example, the control unit 101 may perform the compositing process at the timing at which a user's instruction to perform the compositing process is received or at the timing at which continuous shooting images are acquired. You may also perform the compositing process using

<「オートモード」>
次に、図13を参照して、「オートモード」である時に、制御部101が所定の条件により二位置合成処理と四位置合成処理とを切り替える動作について図13を用いて説明する。制御部101は、「オートモード」時、複数フレームの画像信号の合成処理を行う直前に、図13に示すフローにて図2に示す二位置合成処理と、図8に示す四位置合成処理とのいずれかを実行するかを選択する。
<“Auto mode”>
Next, with reference to FIG. 13, an operation in which the control unit 101 switches between two-position compositing processing and four-position compositing processing according to predetermined conditions when in the "auto mode" will be described using FIG. 13. In the "auto mode", the control unit 101 performs the two-position combining process shown in FIG. 2 and the four-position combining process shown in FIG. 8 in the flow shown in FIG. Select which one to perform.

まず、S1301において、制御部101は、合成に用いる入力画像信号のフレーム数が閾値以上であるか否か判定する。なお、合成に用いる入力画像信号のフレーム数は、ユーザーの指示の受け付けや連続撮影された画像のフレーム数に基づいて制御部101が事前に決定する。合成に用いる入力画像信号のフレーム数が閾値以上である場合(yes)、S1303へ移行する。 First, in S1301, the control unit 101 determines whether the number of frames of input image signals used for synthesis is equal to or greater than a threshold value. Note that the number of frames of input image signals used for synthesis is determined in advance by the control unit 101 based on the reception of user instructions and the number of frames of continuously captured images. If the number of frames of the input image signal used for synthesis is equal to or greater than the threshold value (yes), the process moves to S1303.

一方、合成に用いる入力画像信号のフレーム数が閾値以上でない場合(no)、S1302へ移行する。次に、S1302において、制御部101は、合成に用いる入力画像信号の画素数が閾値以上であるか否かを判定する。なお、合成に用いる入力画像信号の画素数はユーザーの指示の受け付けや連続撮影された画像の画素数に基づいて制御部101が事前に決定する。合成に用いる入力画像信号の画素数が閾値以上であると判定された場合(yes)、S1303へ移行する。一方、合成に用いる入力画像信号の画素数が閾値以上でないと判定された場合(no)、S1304へ移行する。 On the other hand, if the number of frames of the input image signal used for synthesis is not equal to or greater than the threshold (no), the process moves to S1302. Next, in S1302, the control unit 101 determines whether the number of pixels of the input image signal used for synthesis is equal to or greater than a threshold value. Note that the number of pixels of the input image signal used for synthesis is determined in advance by the control unit 101 based on the reception of a user's instruction and the number of pixels of continuously captured images. If it is determined that the number of pixels of the input image signal used for synthesis is equal to or greater than the threshold value (yes), the process moves to S1303. On the other hand, if it is determined that the number of pixels of the input image signal used for synthesis is not equal to or greater than the threshold value (no), the process moves to S1304.

次に、S1303に移行した場合、S1303において、制御部101は、図2に示す二位置合成処理により合成処理を行うよう画像処理部107を設定する。S1303における処理が完了したら、制御部101は図13に示すフローを終了する。また、S1304に移行した場合、S1304において、制御部101は、図8に示す四位置合成処理により合成処理を行うよう画像処理部107を設定する。S1304における処理が完了したら、制御部101は図13のフローを終了する。以上が「オートモード」が選択された場合、所定の条件により、二位置合成処理と四位置合成処理とを切り替える制御部101の動作フローである。 Next, when the process moves to S1303, in S1303, the control unit 101 sets the image processing unit 107 to perform the compositing process by the two-position compositing process shown in FIG. When the process in S1303 is completed, the control unit 101 ends the flow shown in FIG. 13. Further, when the process moves to S1304, in S1304, the control unit 101 sets the image processing unit 107 to perform the compositing process using the four-position compositing process shown in FIG. When the process in S1304 is completed, the control unit 101 ends the flow of FIG. 13. The above is the operation flow of the control unit 101 that switches between the two-position synthesis process and the four-position synthesis process according to predetermined conditions when the "auto mode" is selected.

これにより、合成に用いる入力画像信号のフレームが多い場合や、画素数が多い場合等の計算量が増大する条件時に、制御部101は計算量の抑制を優先して二位置合成処理を選択することができる。また、計算量が増大する条件でない場合は、制御部101は、合成結果の画像信号の品位を優先して四位置合成処理を選択することができる。なお、図13に示した処理フローは一例であり、計算量に関わる条件に基づいて合成処理態様を選択するのであれば、制御部101はどのような方法で合成処理を選択してもよい。また、制御部101は、S1301やS1302のように計算量に関わる個別の条件で合成処理の選択の判定を行うのではなく、条件の組み合わせにより判定してもよい。例えば、合成に用いる入力画像信号のフレーム数と画素数との乗算で得られる総画素数に基づいて合成処理の選択を行う構成としても良い。条件として入力画像、第2の入力画像および第3の内の少なくとも一つのフレーム数や画素数とすることができる。また、ユーザーの「オートモード」の選択無しに装置が自動的に条件判断して、「オートモード」を実行する構成としても良い。 As a result, under conditions where the amount of calculation increases, such as when there are many frames of input image signals used for synthesis or when the number of pixels is large, the control unit 101 selects two-position synthesis processing with priority given to suppressing the amount of calculation. be able to. Further, if the condition does not increase the amount of calculation, the control unit 101 can select the four-position synthesis process with priority given to the quality of the image signal of the synthesis result. Note that the processing flow shown in FIG. 13 is an example, and the control unit 101 may select the combining process using any method as long as the combining process mode is selected based on conditions related to the amount of calculation. Further, the control unit 101 may make the determination based on a combination of conditions, instead of determining the selection of the synthesis process based on individual conditions related to the amount of calculation as in S1301 and S1302. For example, the composition process may be selected based on the total number of pixels obtained by multiplying the number of frames of input image signals used for composition by the number of pixels. The condition may be the number of frames or the number of pixels of at least one of the input image, the second input image, and the third input image. Alternatively, the apparatus may be configured to automatically determine the conditions and execute the "auto mode" without the user selecting the "auto mode".

また、第2実施形態を踏まえて以下の構成としても良い。即ち、小領域抽出部201(図8参照:第2の小領域抽出部)は、第1の位置の複数の第1の小領域画像(301)と、第2の位置の複数の第1の小領域画像(302)とを抽出する。また、入力画像(第1の入力画像)を第1の位置から互いに垂直する2方向のうちの第1方向に所定サイズの半分ずれた第3の位置で当該所定サイズに分割して得られる第3の位置の複数の第1の小領域画像(901)を抽出する。更に、入力画像を第1の位置から当該2方向のうちの第2方向に当該所定サイズの半分ずれた第4の位置で当該所定サイズに分割して得られる第4の位置の複数の第1の小領域画像(902)を抽出する。 Furthermore, the following configuration may be adopted based on the second embodiment. That is, the small area extraction unit 201 (see FIG. 8: second small area extraction unit) extracts a plurality of first small area images (301) at a first position and a plurality of first small area images (301) at a second position. A small area image (302) is extracted. Further, the input image (first input image) is divided into the predetermined size obtained by dividing the input image (first input image) at a third position shifted by half the predetermined size in the first direction of two directions perpendicular to each other from the first position. A plurality of first small area images (901) at position No. 3 are extracted. Furthermore, a plurality of first images at a fourth position obtained by dividing the input image into the predetermined size at a fourth position shifted by half the predetermined size in the second direction of the two directions from the first position. A small area image (902) is extracted.

また、四位置小領域ブレンド部801(第2のブレンド部)は、第1乃至第4の位置の夫々の位置における、複数の第2の小領域画像毎(301、302、901、902)にその辺に近づくに応じて小さくなるように設定された合成率に基づき合成を行う。つまり、第1の位置の複数の第2の小領域画像(301)と第2の位置の複数の第2の小領域画像(302)と第3の位置の複数の第2の小領域画像(901)と第4の位置の複数の第2の小領域画像(902)とを合成する構成としも良い。 In addition, the four-position small area blending unit 801 (second blending unit) performs each of the plurality of second small area images (301, 302, 901, 902) at each of the first to fourth positions. Composition is performed based on a composition rate that is set to decrease as the distance approaches that side. That is, a plurality of second small area images (301) at a first position, a plurality of second small area images (302) at a second position, and a plurality of second small area images (302) at a third position. 901) and a plurality of second small area images (902) at the fourth position may be combined.

<変形例>
なお、本発明は例えば、画像合成による手ぶれ処理において被写体の影響を受けない合成画像を得るため等に用いられるが、本発明の適用例はこれに限られない。また、ブレンド処理した重なり部分に対して更に平滑用カーネル(平滑用空間フィルタ)を用いて小領域間の画像平滑化処理を行って小領域間の段差を一層に目立たないようにすることもできる。また、3フレーム目以上の入力画像を入力する類似小領域抽出部202を複数備えた構成とすることもできる。また、本発明は、撮像装置(カメラ等)に対して適用可能であるとともに、撮像部を備えるモバイル端末により撮像された撮像画像に対しても適用可能である。モバイル端末としてはスマートフォン、タブレット型端末、携帯可能なノート型パソコン等が挙げられる。なお、モバイル端末の通信規格はいかなるものであっても良い。
<Modified example>
Note that, although the present invention is used, for example, to obtain a composite image that is not affected by a subject in camera shake processing through image composition, the application example of the present invention is not limited to this. In addition, it is also possible to perform image smoothing processing between small regions using a smoothing kernel (smoothing spatial filter) on the overlapped portions that have been blended, thereby making the steps between small regions even less noticeable. . Further, it is also possible to have a configuration including a plurality of similar small region extracting units 202 that input input images of the third frame or higher. Further, the present invention is applicable to an imaging device (such as a camera), and is also applicable to a captured image captured by a mobile terminal including an imaging unit. Examples of mobile terminals include smartphones, tablet terminals, and portable notebook computers. Note that the communication standard of the mobile terminal may be of any type.

<追記>
本実施形態の開示は、以下の構成を含む。
(構成1)
第1の入力画像から互いの領域が部分的に重なる複数の第1の小領域画像を抽出する第1の小領域抽出部と、
前記第1の小領域画像または前記第1の小領域画像に基づいて得られる小領域画像の少なくとも一方の小領域画像である第2の小領域画像の重なり領域をブレンド処理する第1のブレンド部と、を備え、
前記第1の小領域抽出部は、
前記第1の入力画像を第1の位置で所定サイズに分割して得られる当該第1の位置の複数の前記第1の小領域画像と、前記第1の入力画像を前記第1の位置から互いに垂直する2方向に前記所定サイズの半分ずらした第2の位置で前記所定サイズに分割して得られる当該第2の位置の複数の前記第1の小領域画像とを抽出し、
前記第1のブレンド部は、
前記第1の位置および前記第2の位置の夫々の位置における、前記複数の前記第2の小領域画像についてその頂点に近づくに応じて小さくなるように設定された合成率に基づき、前記第1の位置の前記複数の前記第2の小領域画像と、前記第2の位置の前記複数の前記第2の小領域画像とを合成することを特徴とする画像処理装置。
(構成2)
前記第1のブレンド部は、
前記合成率に基づき、前記第1の位置の前記複数の前記第2の小領域画像と前記第2の位置の前記複数の前記第2の小領域画像を加重加算して合成することを特徴とする構成1に記載の画像処理装置。
(構成3)
前記第1のブレンド部は、
前記複数の第2の小領域画像についてその画像内の所定位置から頂点までの距離に応じて変化するように設定された合成率に基づき、前記第1の位置の前記複数の前記第2の小領域画像と前記第2の位置の前記複数の前記第2の小領域画像とを合成することを特徴とする構成1乃至構成2のいずれか一項に記載の画像処理装置。
(構成4)
前記距離は、市街地距離であることを特徴とする構成3に記載の画像処理装置。
(構成5)
前記第1のブレンド部は、
前記複数の前記第2の小領域画像について合成率の合計値が100(%)となるように、前記第1の位置の前記複数の前記第2の小領域画像と、前記第2の位置の前記複数の前記第2の小領域画像とを合成することを特徴とする構成1乃至構成2のいずれか一項に記載の画像処理装置。
(構成6)
前記第1のブレンド部は、
前記複数の前記第2の小領域画像についてその隣り合う辺の中点を結んだ直線部で前記合成率が50(%)となる当該合成率に基づき、前記第1の位置の前記複数の第2の小領域画像と前記第2の位置の前記複数の前記第2の小領域画像とを合成することを特徴とする構成1乃構成2のいずれか一項に記載の画像処理装置。
(構成7)
前記第1の小領域画像に基づき、第2の入力画像から前記第1の小領域画像に類似した小領域画像を抽出する類似小領域抽出手段を更に備え、前記第2の小領域画像は前記類似小領域抽出部により抽出されることを特徴とする構成1乃至構成6のいずれか一項に記載の画像処理装置。
(構成8)
前記複数の前記第2の小領域画像に対して、2以上の前記第2の小領域画像の間で互いに異なるノイズ抑制強度によりノイズ調整を行う調整部を備え、
前記複数の前記第2の小領域画像は、前記調整部によるノイズ調整処理を含む工程により生成されることを特徴とする構成1乃至構成7のいずれか一項に記載の画像処理装置。
(構成9)
前記調整部は更に、
前記複数の前記第1の小領域画像と、第3の入力画像から抽出した第3の小領域画像とを画像間合成率に基づいて合成して複数の第4の小領域画像を得る合成処理を含む処理を実行し、
前記画像間合成率は、前記複数の第1の小領域画像と前記第3の小領域画像との2以上の画像間で互いに異なることを特徴とする構成8に記載の画像処理装置。
(構成10)
前記調整部は更に、
前記複数の第4の小領域画像に対して、所定抑制率に基づいてノイズ抑制を行うノイズ抑制処理を実行し、
前記所定抑制率は2以上の前記第4の小領域画像の画像間で互いに異なることを特徴とする構成9に記載の画像処理装置。このノイズ抑制は、例えば空間フィルタを用いて行われる。
(構成11)
前記第1の入力画像から互いに領域が部分的に重複する複数の前記第1の小領域画像を抽出する第2の小領域抽出部と、
前記第2の小領域画像の重なり領域をブレンド処理する第2のブレンド部と、を更に備え、
前記第2の小領域抽出部は、
前記第1の位置の複数の前記第1の小領域画像と、前記第2の位置の複数の前記第1の小領域画像と、前記第1の入力画像を前記第1の位置から前記互いに垂直する2方向のうちの第1方向に前記所定サイズの半分ずれた第3の位置で前記所定サイズに分割して得られる当該第3の位置の複数の前記第1の小領域画像と、前記第1の入力画像を前記第1の位置から前記2方向のうちの第2方向に前記所定サイズの半分ずれた第4の位置で前記所定サイズに分割して得られる当該第4の位置の複数の前記第1の小領域画像とを抽出し、
前記第2のブレンド部は、
前記第1の位置、前記第2の位置、前記第3の位置および前記第4の位置の夫々の位置における、前記複数の第2の小領域画像についてその辺に近づくに応じて小さくなるように設定された合成率に基づき、前記第1の位置の前記複数の第2の小領域画像と前記第2の位置の前記複数の前記第2の小領域画像と前記第3の位置の前記複数の前記第2の小領域画像と前記第4の位置の前記複数の前記第2の小領域画像とを合成することを特徴とする構成1乃至構成10のいずれか一項に記載の画像処理装置。
(構成12)
前記第1の小領域抽出部および前記第1のブレンド部、または、前記第2の小領域抽出部および前記第2のブレンド部のいずれにより処理を実行するかをユーザーが選択可能とする選択部を更に備えたことを特徴とする構成11に記載の画像処理装置。
(構成13)
前記第1の小領域抽出部および前記第1のブレンド部、または、前記第2の小領域抽出部および前記第2のブレンド部のいずれにより処理を実行するかを所定の条件に基づいて自動で切り替える自動切り替えモードをユーザーが選択可能とする第2選択部を更に備えたことを特徴とする構成11に記載の画像処理装置。
(構成14)
前記所定の条件は、前記第1の小領域抽出部による処理、または、前記第2の小領域抽出部による処理を含む一連の処理の計算量であることを特徴とする構成13に記載の画像処理装置。
(構成15)
前記所定の条件は、入力画像のフレーム数または画素数であることを特徴とする構成13に記載の画像処理装置。
(構成16)
自動切り替えモードは、
入力画像のフレーム枚数が所定枚数以上の場合、前記第1の小領域抽出部および前記第1のブレンド部を選択し、前記フレーム枚数が前記所定枚数に満たない場合、前記第2の小領域抽出部および前記第2のブレンド部を自動で選択するモードであることを特徴とする構成13に記載の画像処理装置。
(構成17)
前記自動切り替えモードは、
入力画像の画素数が所定数以上の場合、前記第1の小領域抽出部および前記第2のブレンド部を選択し、前記画素数が所定数より少ない場合、前記第2の小領域抽出部および前記第2のブレンド部を自動で選択するモードであることを特徴とする構成13に記載の画像処理装置。
(構成18)
前記第1の小領域抽出部および前記第1のブレンド部、または、前記第2の小領域抽出部および前記第2のブレンド部のいずれにより処理を実行するかを装置が自動選択する構成としたことを特徴とする構成11に記載の画像処理装置。
<Additional notes>
The disclosure of this embodiment includes the following configurations.
(Configuration 1)
a first small region extraction unit that extracts a plurality of first small region images whose regions partially overlap each other from the first input image;
a first blending unit that performs a blending process on an overlapping region of a second small area image that is at least one of the first small area image or a small area image obtained based on the first small area image; and,
The first small area extraction unit is
a plurality of first small area images at the first position obtained by dividing the first input image into predetermined sizes at a first position; extracting a plurality of first small area images at the second position obtained by dividing into the predetermined size at a second position shifted by half the predetermined size in two directions perpendicular to each other;
The first blending section is
Based on a combination rate that is set to decrease as the plurality of second small area images approach the apex of the plurality of second small area images at each of the first position and the second position, the first An image processing device characterized in that the plurality of second small area images at the position and the plurality of second small area images at the second position are combined.
(Configuration 2)
The first blending section is
Based on the synthesis rate, the plurality of second small area images at the first position and the plurality of second small area images at the second position are combined by weighted addition. The image processing device according to configuration 1.
(Configuration 3)
The first blending section is
The plurality of second small area images at the first position are based on a synthesis rate that is set to vary depending on the distance from a predetermined position in the image to the vertex for the plurality of second small area images. The image processing device according to any one of Structures 1 to 2, wherein a region image and the plurality of second small region images at the second position are combined.
(Configuration 4)
The image processing device according to configuration 3, wherein the distance is an urban distance.
(Configuration 5)
The first blending section is
The plurality of second small area images at the first position and the second small area images at the second position such that the total value of the synthesis rate for the plurality of second small area images is 100 (%). The image processing device according to any one of Configurations 1 to 2, wherein the plurality of second small area images are combined.
(Configuration 6)
The first blending section is
The plurality of second small area images at the first position are based on the synthesis rate such that the synthesis rate is 50 (%) in a straight line connecting the midpoints of adjacent sides of the plurality of second small area images. The image processing device according to any one of Configurations 1 and 2, wherein the second small area image and the plurality of second small area images at the second position are combined.
(Configuration 7)
The apparatus further includes similar small area extraction means for extracting a small area image similar to the first small area image from a second input image based on the first small area image, and the second small area image is based on the first small area image. The image processing device according to any one of configurations 1 to 6, wherein the image processing device is extracted by a similar small region extraction unit.
(Configuration 8)
comprising an adjustment unit that performs noise adjustment on the plurality of second small area images using noise suppression strengths that are different from each other between two or more of the second small area images;
The image processing device according to any one of configurations 1 to 7, wherein the plurality of second small area images are generated by a process including noise adjustment processing by the adjustment unit.
(Configuration 9)
The adjustment section further includes:
compositing processing to obtain a plurality of fourth small area images by composing the plurality of first small area images and a third small area image extracted from a third input image based on an inter-image synthesis rate; Execute processing including
9. The image processing device according to configuration 8, wherein the inter-image synthesis rate is different between two or more images of the plurality of first small area images and the third small area image.
(Configuration 10)
The adjustment section further includes:
performing noise suppression processing on the plurality of fourth small region images based on a predetermined suppression rate;
10. The image processing device according to configuration 9, wherein the predetermined suppression rate is different between two or more of the fourth small area images. This noise suppression is performed using, for example, a spatial filter.
(Configuration 11)
a second small area extraction unit that extracts a plurality of first small area images whose areas partially overlap each other from the first input image;
further comprising a second blending unit that performs blending processing on an overlapping region of the second small region image,
The second small area extraction unit
The plurality of first small area images at the first position, the plurality of first small area images at the second position, and the first input image are arranged perpendicularly to each other from the first position. the plurality of first small area images at the third position obtained by dividing into the predetermined size at a third position shifted by half the predetermined size in the first direction of the two directions; A plurality of input images at the fourth position obtained by dividing one input image into the predetermined size at a fourth position shifted by half the predetermined size in the second direction of the two directions from the first position. extracting the first small area image;
The second blending section is
The plurality of second small area images at each of the first position, the second position, the third position, and the fourth position become smaller as they approach the side thereof. Based on the set synthesis rate, the plurality of second small area images in the first position, the plurality of second small area images in the second position, and the plurality of second small area images in the third position are The image processing device according to any one of Configurations 1 to 10, wherein the second small area image and the plurality of second small area images at the fourth position are combined.
(Configuration 12)
a selection unit that allows a user to select which of the first small area extraction unit and the first blending unit, or the second small area extraction unit and the second blending unit to execute the process; The image processing device according to configuration 11, further comprising:
(Configuration 13)
Automatically determining which of the first small region extracting section and the first blending section or the second small region extracting section and the second blending section executes the process based on predetermined conditions. 12. The image processing apparatus according to configuration 11, further comprising a second selection section that allows a user to select an automatic switching mode to be switched.
(Configuration 14)
The image according to configuration 13, wherein the predetermined condition is a calculation amount of a series of processes including processing by the first small area extraction unit or processing by the second small area extraction unit. Processing equipment.
(Configuration 15)
14. The image processing apparatus according to configuration 13, wherein the predetermined condition is the number of frames or the number of pixels of the input image.
(Configuration 16)
Automatic switching mode is
When the number of frames of the input image is a predetermined number or more, the first small region extraction section and the first blending section are selected, and when the number of frames is less than the predetermined number, the second small region extraction is performed. 14. The image processing apparatus according to configuration 13, wherein the image processing apparatus is in a mode of automatically selecting the second blending section and the second blending section.
(Configuration 17)
The automatic switching mode is
When the number of pixels of the input image is greater than or equal to a predetermined number, the first small region extraction section and the second blending section are selected, and when the number of pixels is less than the predetermined number, the second small region extraction section and the second blending section are selected. 14. The image processing apparatus according to configuration 13, wherein the image processing apparatus is in a mode in which the second blending section is automatically selected.
(Configuration 18)
The apparatus is configured to automatically select which of the first small region extraction section and the first blending section, or the second small region extraction section and the second blending section, to execute the process. The image processing device according to configuration 11, characterized in that:

以上、本発明の好ましい実施形態について説明したが、本発明は上述した実施の形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。例えば、本発明は、上述の実施の形態の1以上の機能を実現するプログラムを、ネットワークや記録媒体を介してシステムや装置に供給し、そのシステムまたは装置のコンピュータのプロセッサがプログラムを読みだして実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the embodiments described above, and various modifications and changes can be made within the scope of the gist thereof. For example, the present invention provides a program that implements one or more of the functions of the embodiments described above to a system or device via a network or a recording medium, and a processor of a computer in the system or device reads the program. It can also be realized by executing processing. The present invention can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

100 撮像装置
101 制御部
102 ROM
103 RAM
104 光学系
105 撮像部
106 A/D変換部
107 画像処理部
108 記録部
109 通信部
110 表示部
111 指示入力部
112 バス
201 小領域抽出部
202 類似小領域抽出部
203 合成部
204 ノイズ抑制部
205 二位置小領域ブレンド部
801 四位置小領域ブレンド部
100 Imaging device 101 Control unit 102 ROM
103 RAM
104 Optical system 105 Imaging unit 106 A/D conversion unit 107 Image processing unit 108 Recording unit 109 Communication unit 110 Display unit 111 Instruction input unit 112 Bus 201 Small area extraction unit 202 Similar small area extraction unit 203 Combining unit 204 Noise suppression unit 205 Two-position small area blending section 801 Four-position small area blending section

Claims (20)

第1の入力画像から互いの領域が部分的に重なる複数の第1の小領域画像を抽出する第1の小領域抽出部と、
前記第1の小領域画像または前記第1の小領域画像に基づいて得られる小領域画像の少なくとも一方の小領域画像である第2の小領域画像の重なり領域をブレンド処理する第1のブレンド部と、を備え、
前記第1の小領域抽出部は、
前記第1の入力画像を第1の位置で所定サイズに分割して得られる当該第1の位置の複数の前記第1の小領域画像と、前記第1の入力画像を前記第1の位置から互いに垂直する2方向に前記所定サイズの半分ずらした第2の位置で前記所定サイズに分割して得られる当該第2の位置の複数の前記第1の小領域画像とを抽出し、
前記第1のブレンド部は、
前記第1の位置および前記第2の位置の夫々の位置における、前記複数の前記第2の小領域画像についてその頂点に近づくに応じて小さくなるように設定された合成率に基づき、前記第1の位置の前記複数の前記第2の小領域画像と前記第2の位置の前記複数の前記第2の小領域画像とを合成することを特徴とする画像処理装置。
a first small region extraction unit that extracts a plurality of first small region images whose regions partially overlap each other from the first input image;
a first blending unit that performs a blending process on an overlapping region of a second small area image that is at least one of the first small area image or a small area image obtained based on the first small area image; and,
The first small area extraction unit is
a plurality of first small area images at the first position obtained by dividing the first input image into predetermined sizes at a first position; extracting a plurality of first small area images at the second position obtained by dividing into the predetermined size at a second position shifted by half the predetermined size in two directions perpendicular to each other;
The first blending section is
Based on a combination rate that is set to decrease as the plurality of second small area images approach the apex of the plurality of second small area images at each of the first position and the second position, the first An image processing apparatus characterized in that the plurality of second small area images at the position and the plurality of second small area images at the second position are combined.
前記第1のブレンド部は、
前記合成率に基づき、前記第1の位置の前記複数の前記第2の小領域画像と、前記第2の位置の前記複数の前記第2の小領域画像を加重加算して合成することを特徴とする請求項1に記載の画像処理装置。
The first blending section is
Based on the synthesis rate, the plurality of second small area images at the first position and the plurality of second small area images at the second position are combined by weighted addition. The image processing device according to claim 1.
前記第1のブレンド部は、
前記複数の第2の小領域画像についてその画像内の所定位置から頂点までの距離に応じて変化するように設定された合成率に基づき、前記第1の位置の前記複数の前記第2の小領域画像と前記第2の位置の前記複数の前記第2の小領域画像とを合成することを特徴とする請求項1乃至2のいずれか一項に記載の画像処理装置。
The first blending section is
The plurality of second small area images at the first position are based on a synthesis rate that is set to vary depending on the distance from a predetermined position in the image to the vertex for the plurality of second small area images. The image processing device according to any one of claims 1 to 2, wherein a region image and the plurality of second small region images at the second position are combined.
前記距離は市街地距離であることを特徴とする請求項3に記載の画像処理装置。 4. The image processing apparatus according to claim 3, wherein the distance is an urban distance. 前記第1のブレンド部は、
前記複数の前記第2の小領域画像について合成率の合計値が100(%)となるように、前記第1の位置の前記複数の前記第2の小領域画像と、前記第2の位置の前記複数の前記第2の小領域画像とを合成することを特徴とする請求項1乃至2のいずれか一項に記載の画像処理装置。
The first blending section is
The plurality of second small area images at the first position and the second small area images at the second position such that the total value of the synthesis rate for the plurality of second small area images is 100 (%). The image processing apparatus according to claim 1 , wherein the plurality of second small area images are combined.
前記第1のブレンド部は、
前記複数の前記第2の小領域画像についてその隣り合う辺の中点を結んだ直線部で前記合成率が50(%)となる当該合成率に基づき、前記第1の位置の前記複数の第2の小領域画像と前記第2の位置の前記複数の前記第2の小領域画像とを合成することを特徴とする請求項1乃2のいずれか一項に記載の画像処理装置。
The first blending section is
The plurality of second small area images at the first position are based on the synthesis rate such that the synthesis rate is 50 (%) in a straight line connecting the midpoints of adjacent sides of the plurality of second small area images. 3. The image processing apparatus according to claim 1, wherein the second small area image and the plurality of second small area images at the second position are combined.
前記第1の小領域画像に基づき、第2の入力画像から前記第1の小領域画像に類似した前記第2の小領域画像を抽出する類似小領域抽出部を更に備え、
前記第2の小領域画像は前記類似小領域抽出部により抽出されることを特徴とする請求項1乃至2のいずれか一項に記載の画像処理装置。
further comprising a similar small region extraction unit that extracts the second small region image similar to the first small region image from a second input image based on the first small region image,
3. The image processing device according to claim 1, wherein the second small region image is extracted by the similar small region extracting section.
前記複数の前記第2の小領域画像に対して、2以上の前記第2の小領域画像の間で互いに異なるノイズ抑制強度によりノイズ調整を行う調整部を備え、
前記複数の前記第2の小領域画像は、前記調整部によるノイズ調整処理を含む工程により生成されることを特徴とする請求項1乃至2のいずれか一項に記載の画像処理装置。
comprising an adjustment unit that performs noise adjustment on the plurality of second small area images using noise suppression strengths that are different from each other between two or more of the second small area images;
The image processing apparatus according to any one of claims 1 to 2, wherein the plurality of second small area images are generated by a process including noise adjustment processing by the adjustment unit.
前記調整部は更に、
前記複数の前記第1の小領域画像と、第3の入力画像から抽出した第3の小領域画像とを画像間合成率に基づいて合成して複数の第4の小領域画像を得る合成処理を含む処理を実行し、
前記画像間合成率は、前記複数の第1の小領域画像と前記第3の小領域画像との2以上の画像間で互いに異なることを特徴とする請求項8のいずれか一項に記載の画像処理装置。
The adjustment section further includes:
compositing processing to obtain a plurality of fourth small area images by composing the plurality of first small area images and a third small area image extracted from a third input image based on an inter-image synthesis rate; Execute processing including
9. The inter-image synthesis rate is different between two or more images of the plurality of first small area images and the third small area image. Image processing device.
前記調整部は更に、
前記複数の第4の小領域画像に対して、所定抑制率に基づいてノイズ抑制を行うノイズ抑制処理を実行し、
前記所定抑制率は2以上の前記第4の小領域画像の画像間で互いに異なることを特徴とする請求項9に記載の画像処理装置。
The adjustment section further includes:
performing noise suppression processing on the plurality of fourth small region images based on a predetermined suppression rate;
The image processing apparatus according to claim 9, wherein the predetermined suppression rate is different between two or more of the fourth small area images.
前記第1の入力画像から互いに領域が部分的に重複する複数の前記第1の小領域画像を抽出する第2の小領域抽出部と、
前記第2の小領域画像の重なり領域をブレンド処理する第2のブレンド部と、を更に備え、
前記第2の小領域抽出部は、
前記第1の位置の複数の前記第1の小領域画像と、前記第2の位置の複数の前記第1の小領域画像と、前記第1の入力画像を前記第1の位置から前記互いに垂直する2方向のうちの第1方向に前記所定サイズの半分ずれた第3の位置で前記所定サイズに分割して得られる当該第3の位置の複数の前記第1の小領域画像と、前記第1の入力画像を前記第1の位置から前記2方向のうちの第2方向に前記所定サイズの半分ずれた第4の位置で前記所定サイズに分割して得られる当該第4の位置の複数の前記第1の小領域画像とを抽出し、
前記第2のブレンド部は、
前記第1の位置、前記第2の位置、前記第3の位置および前記第4の位置の夫々の位置における、前記複数の第2の小領域画像についてその辺に近づくに応じて小さくなるように設定された合成率に基づき、前記第1の位置の前記複数の第2の小領域画像と前記第2の位置の前記複数の前記第2の小領域画像と前記第3の位置の前記複数の前記第2の小領域画像と前記第4の位置の前記複数の前記第2の小領域画像とを合成することを特徴とする請求項1乃至2のいずれか一項に記載の画像処理装置。
a second small area extraction unit that extracts a plurality of first small area images whose areas partially overlap each other from the first input image;
further comprising a second blending unit that performs blending processing on an overlapping region of the second small region image,
The second small area extraction unit
The plurality of first small area images at the first position, the plurality of first small area images at the second position, and the first input image are arranged perpendicularly to each other from the first position. the plurality of first small area images at the third position obtained by dividing into the predetermined size at a third position shifted by half the predetermined size in the first direction of the two directions; A plurality of input images at the fourth position obtained by dividing one input image into the predetermined size at a fourth position shifted by half the predetermined size in the second direction of the two directions from the first position. extracting the first small area image;
The second blending section is
The plurality of second small area images at each of the first position, the second position, the third position, and the fourth position become smaller as they approach the side thereof. Based on the set synthesis rate, the plurality of second small area images in the first position, the plurality of second small area images in the second position, and the plurality of second small area images in the third position are The image processing apparatus according to claim 1 , wherein the second small area image and the plurality of second small area images at the fourth position are combined.
前記第1の小領域抽出部および前記第1のブレンド部、または、前記第2の小領域抽出部および前記第2のブレンド部のいずれにより処理を実行するかをユーザーが選択可能とする選択部を更に備えたことを特徴とする請求項11に記載の画像処理装置。 a selection unit that allows a user to select which of the first small area extraction unit and the first blending unit, or the second small area extraction unit and the second blending unit to execute the process; The image processing device according to claim 11, further comprising: 前記第1の小領域抽出部および前記第1のブレンド部、または、前記第2の小領域抽出部および前記第2のブレンド部のいずれにより処理を実行するかを所定の条件に基づいて自動で切り替える自動切り替えモードをユーザーが選択可能とする第2選択部を更に備えたことを特徴とする請求項11に記載の画像処理装置。 Automatically determining which of the first small region extracting section and the first blending section or the second small region extracting section and the second blending section executes the process based on predetermined conditions. The image processing apparatus according to claim 11, further comprising a second selection section that allows a user to select an automatic switching mode to be switched. 前記所定の条件は、前記第1の小領域抽出部による処理、または、前記第2の小領域抽出部による処理を含む一連の処理の計算量であることを特徴とする請求項13に記載の画像処理装置。 14. The predetermined condition is the amount of calculation for a series of processes including processing by the first small region extracting section or processing by the second small region extracting section. Image processing device. 前記所定の条件は、入力画像のフレーム数または画素数であることを特徴とする請求項13に記載の画像処理装置。 The image processing apparatus according to claim 13, wherein the predetermined condition is the number of frames or the number of pixels of the input image. 自動切り替えモードは、
入力画像のフレーム枚数が所定枚数、以上の場合、前記第1の小領域抽出部および前記第1のブレンド部を選択し、前記フレーム枚数が前記所定枚数に満たない場合、前記第2の小領域抽出部および前記第2のブレンド部を自動で選択するモードであることを特徴とする請求項13に記載の画像処理装置。
Automatic switching mode is
When the number of frames of the input image is a predetermined number or more, the first small region extraction section and the first blending section are selected, and when the number of frames is less than the predetermined number, the second small region is selected. 14. The image processing apparatus according to claim 13, wherein the image processing apparatus is in a mode in which the extraction section and the second blending section are automatically selected.
前記自動切り替えモードは、
入力画像の画素数が所定数以上の場合、前記第1の小領域抽出部および前記第2のブレンド部を選択し、前記画素数が所定数より少ない場合、前記第2の小領域抽出部および前記第2のブレンド部を自動で選択するモードであることを特徴とする請求項13に記載の画像処理装置。
The automatic switching mode is
When the number of pixels of the input image is greater than or equal to a predetermined number, the first small region extraction section and the second blending section are selected, and when the number of pixels is less than the predetermined number, the second small region extraction section and the second blending section are selected. 14. The image processing apparatus according to claim 13, wherein the image processing apparatus is in a mode in which the second blending section is automatically selected.
前記第1の小領域抽出部および前記第1のブレンド部、または、前記第2の小領域抽出部および前記第2のブレンド部のいずれにより処理を実行するかを装置が自動選択する構成としたことを特徴とする請求項11に記載の画像処理装置。 The apparatus is configured to automatically select which of the first small region extraction section and the first blending section, or the second small region extraction section and the second blending section, to execute the process. The image processing device according to claim 11. 画像処理装置の制御方法であって、
入力画像から互いの領域が部分的に重なる複数の第1の小領域画像を抽出する小領域抽出工程と、
前記第1の小領域画像または前記第1の小領域画像に基づいて得られる小領域画像の少なくとも一方の小領域画像である第2の小領域画像の重なり領域をブレンド処理するブレンド工程と、を有し、
前記小領域抽出工程は、
前記入力画像を第1の位置で所定サイズに分割して得られる当該第1の位置の複数の前記第1の小領域画像と、前記入力画像を前記第1の位置から互いに垂直する2方向に前記所定サイズの半分ずらした第2の位置で前記所定サイズに分割して得られる当該第2の位置の複数の前記第1の小領域画像とを抽出する工程であり、
前記ブレンド工程は、
前記第1の位置および前記第2の位置の夫々の位置における、前記複数の前記第2の小領域画像に対してその頂点に近づくに応じて小さくなるように設定された合成率に基づき、前記第1の位置の前記複数の前記第2の小領域画像と前記第2の位置の前記複数の前記第2の小領域画像とを合成する工程であることを特徴とする画像処理装置の制御方法。
A method for controlling an image processing device, the method comprising:
a small region extraction step of extracting a plurality of first small region images whose regions partially overlap each other from the input image;
a blending step of performing a blending process on an overlapping region of a second small region image that is at least one of the first small region image or a small region image obtained based on the first small region image; have,
The small region extraction step includes:
a plurality of first small area images at the first position obtained by dividing the input image into predetermined sizes at a first position; a step of extracting a plurality of first small area images at the second position obtained by dividing into the predetermined size at a second position shifted by half the predetermined size;
The blending step includes:
Based on a combination rate that is set to decrease as the number approaches the apex of the plurality of second small area images at each of the first position and the second position, A method for controlling an image processing apparatus, characterized in that the method is a step of composing the plurality of second small area images at a first position and the plurality of second small area images at the second position. .
画像処理装置の制御方法をコンピュータに実行させるプログラムであって、
前記制御方法は、
入力画像から互いの領域が部分的に重なる複数の第1の小領域画像を抽出する小領域抽出工程と、
前記第1の小領域画像または前記第1の小領域画像に基づいて得られる小領域画像の少なくとも一方の小領域画像である第2の小領域画像の重なり領域をブレンド処理するブレンド工程と、を有し、
前記小領域抽出工程は、
前記入力画像を第1の位置で所定サイズに分割して得られる当該第1の位置の複数の前記第1の小領域画像と、前記入力画像を前記第1の位置から互いに垂直する2方向に前記所定サイズの半分ずらした第2の位置で前記所定サイズに分割して得られる当該第2の位置の複数の前記第1の小領域画像とを抽出する工程であり、
前記ブレンド工程は、
前記第1の位置および前記第2の位置の夫々の位置における、前記複数の前記第2の小領域画像に対してその頂点に近づくに応じて小さくなるように設定された合成率に基づき、前記第1の位置の前記複数の前記第2の小領域画像と前記第2の位置の前記複数の前記第2の小領域画像とを合成する工程であることを特徴とするプログラム。
A program that causes a computer to execute a control method for an image processing device,
The control method includes:
a small region extraction step of extracting a plurality of first small region images whose regions partially overlap each other from the input image;
a blending step of performing a blending process on an overlapping region of a second small region image that is at least one of the first small region image or a small region image obtained based on the first small region image; have,
The small region extraction step includes:
a plurality of first small area images at the first position obtained by dividing the input image into predetermined sizes at a first position; a step of extracting a plurality of first small area images at the second position obtained by dividing into the predetermined size at a second position shifted by half the predetermined size;
The blending step includes:
Based on a combination rate that is set to decrease as the number approaches the apex of the plurality of second small area images at each of the first position and the second position, A program characterized in that the program is a step of composing the plurality of second small area images at a first position and the plurality of second small area images at the second position.
JP2022071016A 2022-04-22 2022-04-22 Image processing device, control method thereof, and program Pending JP2023160574A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022071016A JP2023160574A (en) 2022-04-22 2022-04-22 Image processing device, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022071016A JP2023160574A (en) 2022-04-22 2022-04-22 Image processing device, control method thereof, and program

Publications (1)

Publication Number Publication Date
JP2023160574A true JP2023160574A (en) 2023-11-02

Family

ID=88516050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022071016A Pending JP2023160574A (en) 2022-04-22 2022-04-22 Image processing device, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2023160574A (en)

Similar Documents

Publication Publication Date Title
JP4553942B2 (en) Image processing method and image processing apparatus
JP4720859B2 (en) Image processing apparatus, image processing method, and program
JP4655991B2 (en) Imaging apparatus, electronic zoom method, and program
KR101352730B1 (en) System and method to selectively combine video frame image data
JP6343200B2 (en) Imaging apparatus, control method therefor, and program
JP5043635B2 (en) Imaging device
JP2016208307A (en) Image processing apparatus, control method therefor, and program
JP2009251839A (en) Image signal processing circuit, image display apparatus, and image signal processing method
RU2432614C2 (en) Image processing device, image processing method and programme
JP2014021928A (en) Image processor, image processing method and program
WO2019146418A1 (en) Image processing device, image processing method, and program
JP2008077501A (en) Image processing device and image processing control program
JP5212046B2 (en) Digital camera, image processing apparatus, and image processing program
JP2018182376A (en) Image processing apparatus
JP2023160574A (en) Image processing device, control method thereof, and program
JP2004287794A (en) Image processor
JP2007306083A (en) Imaging apparatus and signal processing apparatus
JP6408884B2 (en) Image processing apparatus, image processing method, and program
JP2008219230A (en) Imaging apparatus, and image processing method
JP7183015B2 (en) Image processing device, image processing method, and program
JP2020149589A (en) Image processing device, imaging apparatus, image processing method, and program
JP3748446B2 (en) Image processing circuit of image input device
JP6087720B2 (en) Imaging apparatus and control method thereof
JP7248042B2 (en) Image processing device, image processing method and image processing program
JP2024058184A (en) Image processing device, imaging apparatus, image processing method, program, and storage medium