JP2010068093A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2010068093A
JP2010068093A JP2008230825A JP2008230825A JP2010068093A JP 2010068093 A JP2010068093 A JP 2010068093A JP 2008230825 A JP2008230825 A JP 2008230825A JP 2008230825 A JP2008230825 A JP 2008230825A JP 2010068093 A JP2010068093 A JP 2010068093A
Authority
JP
Japan
Prior art keywords
image
images
resolution
evaluation
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008230825A
Other languages
Japanese (ja)
Inventor
Norikazu Tsunekawa
法和 恒川
Satoru Takeuchi
悟 竹内
Akihiro Maenaka
章弘 前中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008230825A priority Critical patent/JP2010068093A/en
Publication of JP2010068093A publication Critical patent/JP2010068093A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To select suitable low resolution images for improvement in image quality of a high-resolution image. <P>SOLUTION: Mutually different low-resolution images F<SB>1</SB>to F<SB>4</SB>have position shifts corrected based upon movement amounts of the low-resolution images F<SB>1</SB>to F<SB>4</SB>, and pixels of the low-resolution images F<SB>1</SB>to F<SB>4</SB>after the position shift correction are arranged on a common coordinate system. Two low-resolution images are selected out of the four low-resolution images. Assuming<SB>4</SB>C<SB>2</SB>(=6) combinations each obtained by selecting two of the four low-resolution images, a distance between pixel positions of two low-resolution images is obtained for each combination. A pixel position distance which is close to a half of a distance between adjacent pixels of a low-resolution image is specified among six distances between pixel positions obtained for first to sixth combinations, and two low-resolution images corresponding to the specified distance between pixel positions are selected. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像に対して画像処理を施す画像処理装置に関する。また、本発明は、画像処理装置を有する電子機器に関する。   The present invention relates to an image processing apparatus that performs image processing on an image. The present invention also relates to an electronic apparatus having an image processing apparatus.

複数の低解像度画像から1枚の高解像度画像を生成する高解像度化処理(超解像処理)が提案されている。超解像処理の中で、繰り返し演算(反復演算)を利用した再構成型の超解像処理が代表的な処理として知られている。繰り返し演算を利用した再構成型の超解像処理方法は、超解像処理方法の中で現在最も有効な方法であるが、多くの反復演算を必要とする最適化計算方法であるため、処理に比較的多くの時間がかかる。   High resolution processing (super-resolution processing) for generating one high resolution image from a plurality of low resolution images has been proposed. Among the super-resolution processes, a reconfiguration-type super-resolution process using repetitive calculations (repetitive calculations) is known as a typical process. The reconfiguration-type super-resolution processing method using iterative computation is the most effective method among the super-resolution processing methods at present, but it is an optimization computation method that requires many iterative computations. It takes a relatively long time.

処理時間を削減するための方法として、画像処理装置に入力されるn枚の低解像度画像の中から超解像処理に利用するm枚の低解像度画像を選択する方法が存在する(n>m)。超解像処理に利用する画像の枚数が選択処理を介して削減されれば、超解像処理の演算負荷が減少し、処理時間が削減されるからである。   As a method for reducing the processing time, there is a method of selecting m low-resolution images to be used for super-resolution processing from n low-resolution images input to the image processing apparatus (n> m). ). This is because if the number of images used for the super-resolution processing is reduced through the selection processing, the calculation load of the super-resolution processing is reduced and the processing time is reduced.

通常、このような選択を行う場合は、動画像の中から1枚の基準フレームを決めた後、基準フレームと(n−1)枚の非基準フレームとから成るn枚の画像を取得する。一方で、基準フレームと非基準フレームとの間の位置ずれを表す動き量を検出し、検出動き量に基づいて、基準フレームを含むn枚の画像の中から基準フレームを含むm枚の画像を選択する。   In general, when such a selection is performed, after determining one reference frame from the moving images, n images including the reference frame and (n-1) non-reference frames are acquired. On the other hand, a motion amount representing a positional deviation between the reference frame and the non-reference frame is detected, and m images including the reference frame are selected from n images including the reference frame based on the detected motion amount. select.

例えば、下記特許文献1では、動画像の中から1枚の基準フレームを決めた後、基準フレーム及び(n−1)枚の調査対象フレームから成るn枚のフレームを取得する。そして、基準フレームとの位置ずれ量(動き量)が比較的小さい調査対象フレームを選択し、基準フレームと選択した調査対象フレームとに基づいて高解像度画像を生成するようにしている。   For example, in Patent Document 1 described below, after determining one reference frame from a moving image, n frames including a reference frame and (n−1) investigation target frames are acquired. Then, a survey target frame having a relatively small amount of positional deviation (motion amount) from the reference frame is selected, and a high resolution image is generated based on the reference frame and the selected survey target frame.

特開2006−41603号公報JP 2006-41603 A

選択されるべきm枚の画像は、高解像度画像の画質向上にとって最適な画像であることが望ましい。しかしながら、上述したような方法では、選択処理前に基準フレームが設定され、選択されるm枚の画像に必ず基準フレームが含まれることになる。これは、最適な画像の選択を妨げうる。   The m images to be selected are desirably images that are optimal for improving the image quality of high-resolution images. However, in the method as described above, the reference frame is set before the selection process, and the reference frame is always included in the m images to be selected. This can hinder the selection of the optimal image.

例えば、第1〜第4の画像の中から3枚の画像を選択する場合において、第1の画像が基準フレームとして設定されたと想定する。この場合において、仮に、第2〜第4の画像を選択することが高解像度画像の画質向上にとって最適であったとしても、第1の画像が基準フレームとして設定されている以上、そのような選択は成し得ない。即ち、選択される3枚の画像は、第1、第2及び第3の画像、第1、第2及び第4の画像、又は、第1、第3及び第4の画像にしかなり得ない。   For example, when three images are selected from the first to fourth images, it is assumed that the first image is set as the reference frame. In this case, even if the selection of the second to fourth images is optimal for improving the image quality of the high resolution image, such selection is possible as long as the first image is set as the reference frame. Is not possible. That is, the three images to be selected cannot be obtained as the first, second and third images, the first, second and fourth images, or the first, third and fourth images.

尚、特許文献1の手法のような、位置ずれ量の大小関係のみに基づく選択処理では、高解像度画像の実質的な解像度向上(画質向上)にとって最適な画像が選択されるとは限らない。尚、高解像度画像の実質的な解像度向上にとって最適な画像が、如何なる画像であるかは、後述の、本発明の実施形態の説明からも明らかとなる。   Note that in the selection process based only on the positional relationship between the amounts of misalignment as in the technique of Patent Document 1, an image that is optimal for substantial resolution improvement (image quality improvement) of a high-resolution image is not always selected. Note that what kind of image is most suitable for substantial resolution improvement of a high-resolution image will be apparent from the description of embodiments of the present invention described later.

そこで本発明は、複数の低解像度画像から高画質な高解像度画像を低処理負荷で生成する画像処理装置及び電子機器を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus and an electronic apparatus that generate a high-quality high-resolution image from a plurality of low-resolution images with a low processing load.

本発明に係る画像処理装置は、n枚の低解像度画像を受ける画像入力部と(nは3以上の整数)、前記n枚の低解像度画像に含まれる互いに異なる低解像度画像間の動き量を検出する動き量検出部と、前記動き量検出部の検出結果に基づいて、前記n枚の低解像度画像の内のm枚をm枚の演算対象画像として選択する画像選択部(mは2以上の整数であって、n>mが成立)と、前記m枚の演算対象画像と前記動き量検出部の検出結果に基づいて、前記低解像度画像の解像度よりも高い解像度を有する高解像度画像を生成する高解像度処理部と、を備えた画像処理装置であって、前記画像選択部は、前記n枚の低解像度画像からm枚をとってできるnm通りの組み合わせの夫々に対して、前記動き量検出部の検出結果に基づく評価を行い、その評価結果から1つの組み合わせを選択することにより前記m枚の演算対象画像を選択することを特徴とする。 An image processing apparatus according to the present invention includes an image input unit that receives n low-resolution images (n is an integer of 3 or more), and a motion amount between different low-resolution images included in the n low-resolution images. A motion amount detection unit to detect, and an image selection unit that selects m of the n low resolution images as m calculation target images based on the detection result of the motion amount detection unit (m is 2 or more) A high resolution image having a resolution higher than the resolution of the low resolution image based on the m calculation target images and the detection result of the motion amount detection unit. A high-resolution processing unit for generating the image processing unit, wherein the image selection unit is configured for each of n C m combinations obtained by taking m images from the n low-resolution images. An evaluation is performed based on the detection result of the motion amount detection unit. The m calculation target images are selected by selecting one combination from the evaluation results.

これにより、高解像度画像の高画質化にとって最適な低解像度画像を選択することが可能となる。また、選択によって高解像度画像生成用の演算に利用される低解像度画像の枚数が削減されるので、処理負荷の低減も図られる。   This makes it possible to select a low-resolution image that is optimal for improving the image quality of a high-resolution image. In addition, since the number of low-resolution images used for computation for generating a high-resolution image is reduced by selection, the processing load can be reduced.

具体的には例えば、夫々の組み合わせについてのm枚の低解像度画像をm枚の評価画像と呼んだ場合、前記画像選択部は、前記m枚の評価画像間の検出動き量に基づき各評価画像を共通座標系に配置して考えたときの、前記m枚の評価画像間の画素位置関係を、各組み合わせに対して評価し、その評価結果から1つの組み合わせを選択することにより前記m枚の演算対象画像を選択する。   Specifically, for example, when m low-resolution images for each combination are called m evaluation images, the image selection unit determines each evaluation image based on the detected motion amount between the m evaluation images. Are evaluated in the common coordinate system, and the pixel positional relationship between the m evaluation images is evaluated for each combination. Select a calculation target image.

より具体的には例えば、前記m枚の評価画像は、第1及び第2の評価画像を含み、各組み合わせにおいて、前記第2の評価画像上の注目画素位置は、前記第2の評価画像上の画素位置群の内の、第1の評価画像上の注目画素位置の最近傍に配置される画素位置であり、前記画像選択部は、前記第1の評価画像上の注目画素位置と第2の評価画像上の注目画素位置との間の距離を導出する距離導出処理を、各組み合わせに対して実行し、各組み合わせに対して導出された距離の内、前記低解像度画像の隣接画素間距離に基づく所定距離に最も近い距離を判定して、その最も近い距離に対応する前記m枚の評価画像を前記m枚の演算対象画像として選択する。   More specifically, for example, the m evaluation images include first and second evaluation images, and in each combination, the target pixel position on the second evaluation image is on the second evaluation image. In the pixel position group, the pixel position arranged in the nearest vicinity of the target pixel position on the first evaluation image, and the image selection unit includes the target pixel position on the first evaluation image and the second A distance deriving process for deriving a distance between the target pixel position on the evaluation image is performed for each combination, and among the distances derived for each combination, the distance between adjacent pixels of the low resolution image The distance closest to the predetermined distance based on the above is determined, and the m evaluation images corresponding to the closest distance are selected as the m calculation target images.

或いは例えば、mは3以上であって、前記m枚の評価画像は第1〜第mの評価画像から成り、各組み合わせにおいて、第iの評価画像上の注目画素位置は、前記第iの評価画像上の画素位置群の内の、第1の評価画像上の注目画素位置の最近傍に配置される画素位置であり(iは2以上m以下の整数)、前記画像選択部は、前記m枚の評価画像についてのm個の注目画素位置を結んで形成される多角形の面積を導出する面積導出処理を、各組み合わせに対して実行し、各組み合わせに対して導出された前記面積の大小関係に基づいて1つの組み合わせを選択することにより前記m枚の演算対象画像を選択する。   Alternatively, for example, m is 3 or more, and the m evaluation images include first to m-th evaluation images, and in each combination, the target pixel position on the i-th evaluation image is the i-th evaluation image. It is a pixel position arranged in the nearest vicinity of the target pixel position on the first evaluation image in the pixel position group on the image (i is an integer of 2 or more and m or less), and the image selection unit An area deriving process for deriving an area of a polygon formed by connecting m target pixel positions for one evaluation image is executed for each combination, and the size of the area derived for each combination is determined. The m calculation target images are selected by selecting one combination based on the relationship.

或いは例えば、mは3以上であり、前記m枚の評価画像は第1〜第mの評価画像から成り、各組み合わせにおいて、第iの評価画像上の注目画素位置は、前記第iの評価画像上の画素位置群の内の、第1の評価画像上の注目画素位置の最近傍に配置される画素位置であり(iは2以上m以下の整数)、前記画像選択部は、前記m枚の評価画像についてのm個の注目画素位置に含まれる2つの注目画素位置の組を複数組注目して夫々の組に対して2つの注目画素位置間の距離を求め、求めた距離の総和を導出する総和導出処理を、各組み合わせに対して実行し、各組み合わせに対して導出された前記総和の大小関係に基づいて1つの組み合わせを選択することにより前記m枚の演算対象画像を選択する。   Alternatively, for example, m is 3 or more, the m evaluation images are composed of the first to m-th evaluation images, and in each combination, the target pixel position on the i-th evaluation image is the i-th evaluation image. In the upper pixel position group, the pixel position is arranged closest to the target pixel position on the first evaluation image (i is an integer not smaller than 2 and not larger than m). A plurality of sets of two target pixel positions included in the m target pixel positions for the evaluation image of, and a distance between the two target pixel positions is obtained for each set, and a sum of the obtained distances is obtained. The derived total sum derivation process is executed for each combination, and the m calculation target images are selected by selecting one combination based on the magnitude relation of the sum derived for each combination.

本発明に係る電子機器は、前記画像処理装置を備え、n枚の画像を撮影によって又は外部からの入力によって取得して、前記n枚の画像の画像信号を前記画像処理装置に与える電子機器である。前記画像処理装置は、前記n枚の画像を前記n枚の低解像度画像として受ける。   An electronic apparatus according to the present invention is an electronic apparatus that includes the image processing apparatus, acquires n images by photographing or input from the outside, and supplies image signals of the n images to the image processing apparatus. is there. The image processing apparatus receives the n images as the n low-resolution images.

本発明によれば、複数の低解像度画像から高画質な高解像度画像を低処理負荷で生成する画像処理装置及び電子機器を提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the image processing apparatus and electronic device which produce | generate a high-resolution high-resolution image from several low-resolution images with low processing load.

本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。   The significance or effect of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. .

以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第10実施例を説明するが、まず、各実施例に共通する事項又は各実施例にて参照される事項について説明する。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle. The first to tenth embodiments will be described later. First, matters common to each embodiment or items referred to in each embodiment will be described.

図1は、本発明の実施形態に係る撮像装置1の全体ブロック図である。撮像装置1は、例えば、デジタルビデオカメラである。撮像装置1は、動画像及び静止画像を撮影可能となっていると共に、動画像撮影中に静止画像を同時に撮影することも可能となっている。   FIG. 1 is an overall block diagram of an imaging apparatus 1 according to an embodiment of the present invention. The imaging device 1 is a digital video camera, for example. The imaging device 1 can capture a moving image and a still image, and can also capture a still image simultaneously during moving image capturing.

[基本的な構成の説明]
撮像装置1は、撮像部11と、AFE(Analog Front End)12と、映像信号処理部13と、マイク14と、音声信号処理部15と、圧縮処理部16と、DRAM(Dynamic Random Access Memory)などの内部メモリ17と、SD(Secure Digital)カードや磁気ディスクなどの外部メモリ18と、伸張処理部19と、VRAM(Video Random Access Memory)20と、音声出力回路21と、TG(タイミングジェネレータ)22と、CPU(Central Processing Unit)23と、バス24と、バス25と、操作部26と、表示部27と、スピーカ28と、を備えている。操作部26は、録画ボタン26a、シャッタボタン26b及び操作キー26c等を有している。撮像装置1内の各部位は、バス24又は25を介して、各部位間の信号(データ)のやり取りを行う。
[Description of basic configuration]
The imaging apparatus 1 includes an imaging unit 11, an AFE (Analog Front End) 12, a video signal processing unit 13, a microphone 14, an audio signal processing unit 15, a compression processing unit 16, and a DRAM (Dynamic Random Access Memory). An internal memory 17 such as an SD (Secure Digital) card or a magnetic disk, an expansion processing unit 19, a VRAM (Video Random Access Memory) 20, an audio output circuit 21, and a TG (timing generator). 22, a CPU (Central Processing Unit) 23, a bus 24, a bus 25, an operation unit 26, a display unit 27, and a speaker 28. The operation unit 26 includes a recording button 26a, a shutter button 26b, an operation key 26c, and the like. Each part in the imaging apparatus 1 exchanges signals (data) between the parts via the bus 24 or 25.

TG22は、撮像装置1全体における各動作のタイミングを制御するためのタイミング制御信号を生成し、生成したタイミング制御信号を撮像装置1内の各部に与える。タイミング制御信号は、垂直同期信号Vsyncと水平同期信号Hsyncを含む。CPU23は、撮像装置1内の各部の動作を統括的に制御する。操作部26は、ユーザによる操作を受け付ける。操作部26に与えられた操作内容は、CPU23に伝達される。撮像装置1内の各部は、必要に応じ、信号処理時に一時的に各種のデータ(デジタル信号)を内部メモリ17に記録する。   The TG 22 generates a timing control signal for controlling the timing of each operation in the entire imaging apparatus 1, and provides the generated timing control signal to each unit in the imaging apparatus 1. The timing control signal includes a vertical synchronization signal Vsync and a horizontal synchronization signal Hsync. The CPU 23 comprehensively controls the operation of each unit in the imaging apparatus 1. The operation unit 26 receives an operation by a user. The operation content given to the operation unit 26 is transmitted to the CPU 23. Each unit in the imaging apparatus 1 temporarily records various data (digital signals) in the internal memory 17 during signal processing as necessary.

撮像部11は、撮像素子(イメージセンサ)33の他、図示されない光学系、絞り及びドライバを備える。被写体からの入射光は、光学系及び絞りを介して、撮像素子33に入射する。光学系を構成する各レンズは、被写体の光学像を撮像素子33上に結像させる。TG22は、上記タイミング制御信号に同期した、撮像素子33を駆動するための駆動パルスを生成し、該駆動パルスを撮像素子33に与える。   The imaging unit 11 includes an imaging system (image sensor) 33, an optical system (not shown), a diaphragm, and a driver. Incident light from the subject enters the image sensor 33 via the optical system and the stop. Each lens constituting the optical system forms an optical image of the subject on the image sensor 33. The TG 22 generates a drive pulse for driving the image sensor 33 in synchronization with the timing control signal, and applies the drive pulse to the image sensor 33.

撮像素子33は、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等からなる固体撮像素子である。撮像素子33は、光学系及び絞りを介して入射した光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の受光画素(図1において不図示)を備え、各撮影において、各受光画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各受光画素からの電気信号は、TG22からの駆動パルスに従って、後段のAFE12に順次出力される。   The image sensor 33 is a solid-state image sensor composed of a CCD (Charge Coupled Devices), a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like. The image sensor 33 photoelectrically converts an optical image incident through the optical system and the diaphragm, and outputs an electrical signal obtained by the photoelectric conversion to the AFE 12. More specifically, the image sensor 33 includes a plurality of light receiving pixels (not shown in FIG. 1) that are two-dimensionally arranged in a matrix, and in each photographing, each light receiving pixel has a charge amount signal corresponding to the exposure time. Stores charge. The electrical signal from each light receiving pixel having a magnitude proportional to the amount of the stored signal charge is sequentially output to the subsequent AFE 12 in accordance with the drive pulse from the TG 22.

AFE12は、撮像素子33(各受光画素)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換してから映像信号処理部13に出力する。AFE12における信号増幅の増幅度はCPU23によって制御される。映像信号処理部13は、AFE12の出力信号によって表される画像に対して各種画像処理を施し、画像処理後の画像についての映像信号を生成する。映像信号は、通常、画像の輝度を表す輝度信号Yと、画像の色を表す色差信号U及びVと、から構成される。   The AFE 12 amplifies the analog signal output from the image sensor 33 (each light receiving pixel), converts the amplified analog signal into a digital signal, and outputs the digital signal to the video signal processing unit 13. The degree of amplification of signal amplification in the AFE 12 is controlled by the CPU 23. The video signal processing unit 13 performs various types of image processing on the image represented by the output signal of the AFE 12, and generates a video signal for the image after the image processing. The video signal is generally composed of a luminance signal Y representing the luminance of the image and color difference signals U and V representing the color of the image.

マイク14は撮像装置1の周辺音をアナログの音声信号に変換し、音声信号処理部15は、このアナログの音声信号をデジタルの音声信号に変換する。   The microphone 14 converts the peripheral sound of the imaging device 1 into an analog audio signal, and the audio signal processing unit 15 converts the analog audio signal into a digital audio signal.

圧縮処理部16は、映像信号処理部13からの映像信号を、所定の圧縮方式を用いて圧縮する。動画像または静止画像の撮影及び記録時において、圧縮された映像信号は外部メモリ18に記録される。また、圧縮処理部16は、音声信号処理部15からの音声信号を、所定の圧縮方式を用いて圧縮する。動画像撮影及び記録時において、映像信号処理部13からの映像信号と音声信号処理部15からの音声信号は、圧縮処理部16にて時間的に互いに関連付けられつつ圧縮され、圧縮後のそれらは外部メモリ18に記録される。   The compression processing unit 16 compresses the video signal from the video signal processing unit 13 using a predetermined compression method. The compressed video signal is recorded in the external memory 18 at the time of capturing and recording a moving image or a still image. The compression processing unit 16 compresses the audio signal from the audio signal processing unit 15 using a predetermined compression method. At the time of moving image shooting and recording, the video signal from the video signal processing unit 13 and the audio signal from the audio signal processing unit 15 are compressed while being correlated with each other in time by the compression processing unit 16, and after compression, Recorded in the external memory 18.

録画ボタン26aは、動画像の撮影及び記録の開始/終了を指示するための押しボタンスイッチであり、シャッタボタン26bは、静止画像の撮影及び記録を指示するための押しボタンスイッチである。   The recording button 26a is a push button switch for instructing start / end of moving image shooting and recording, and the shutter button 26b is a push button switch for instructing shooting and recording of a still image.

撮像装置1の動作モードには、動画像及び静止画像の撮影が可能な撮影モードと、外部メモリ18に格納された動画像及び静止画像を表示部27に再生表示する再生モードと、が含まれる。操作キー26cに対する操作に応じて、各モード間の遷移は実施される。   The operation mode of the imaging apparatus 1 includes a shooting mode capable of shooting a moving image and a still image, and a playback mode for reproducing and displaying the moving image and the still image stored in the external memory 18 on the display unit 27. . Transition between the modes is performed according to the operation on the operation key 26c.

撮影モードでは、所定のフレーム周期にて順次撮影が行われ、撮像素子33から撮影画像列が取得される。撮影画像列に代表される画像列とは、時系列で並ぶ画像の集まりを指す。また、画像を表すデータを画像データと呼ぶ。画像データも、映像信号の一種と考えることができる。1つのフレーム周期分の画像データによって1枚分の画像が表現される。1つのフレーム周期分の画像データによって表現される1枚分の画像を、フレーム画像とも呼ぶ。   In the shooting mode, shooting is sequentially performed at a predetermined frame period, and a shot image sequence is acquired from the image sensor 33. An image sequence typified by a captured image sequence refers to a collection of images arranged in time series. Data representing an image is called image data. Image data can also be considered as a kind of video signal. One image is represented by image data for one frame period. One image represented by image data for one frame period is also called a frame image.

撮影モードにおいて、ユーザが録画ボタン26aを押下すると、CPU23の制御の下、その押下後に得られる映像信号及びそれに対応する音声信号が、順次、圧縮処理部16を介して外部メモリ18に記録される。動画像撮影の開始後、再度ユーザが録画ボタン26aを押下すると、映像信号及び音声信号の外部メモリ18への記録は終了し、1つの動画像の撮影は完了する。また、撮影モードにおいて、ユーザがシャッタボタン26bを押下すると、静止画像の撮影及び記録が行われる。   When the user presses the recording button 26a in the shooting mode, under the control of the CPU 23, the video signal obtained after the pressing and the corresponding audio signal are sequentially recorded in the external memory 18 via the compression processing unit 16. . When the user presses the recording button 26a again after starting the moving image shooting, the recording of the video signal and the audio signal to the external memory 18 is completed, and the shooting of one moving image is completed. In the shooting mode, when the user presses the shutter button 26b, a still image is shot and recorded.

再生モードにおいて、ユーザが操作キー26cに所定の操作を施すと、外部メモリ18に記録された動画像又は静止画像を表す圧縮された映像信号は、伸張処理部19にて伸張されVRAM20に書き込まれる。尚、撮影モードにおいては、通常、録画ボタン26a及びシャッタボタン26bに対する操作内容に関係なく、映像信号処理13による映像信号の生成が逐次行われており、その映像信号はVRAM20に書き込まれる。   In the playback mode, when the user performs a predetermined operation on the operation key 26c, a compressed video signal representing a moving image or a still image recorded in the external memory 18 is expanded by the expansion processing unit 19 and written to the VRAM 20. . In the shooting mode, the video signal is normally generated by the video signal processing 13 regardless of the operation contents of the recording button 26a and the shutter button 26b, and the video signal is written in the VRAM 20.

表示部27は、液晶ディスプレイなどの表示装置であり、VRAM20に書き込まれている映像信号に応じた画像を表示する。また、再生モードにおいて動画像を再生する際、外部メモリ18に記録された動画像に対応する圧縮された音声信号も、伸張処理部19に送られる。伸張処理部19は、受け取った音声信号を伸張して音声出力回路21に送る。音声出力回路21は、与えられたデジタルの音声信号をスピーカ28にて出力可能な形式の音声信号(例えば、アナログの音声信号)に変換してスピーカ28に出力する。スピーカ28は、音声出力回路21からの音声信号を音声(音)として外部に出力する。   The display unit 27 is a display device such as a liquid crystal display, and displays an image corresponding to the video signal written in the VRAM 20. In addition, when a moving image is reproduced in the reproduction mode, a compressed audio signal corresponding to the moving image recorded in the external memory 18 is also sent to the expansion processing unit 19. The decompression processing unit 19 decompresses the received audio signal and sends it to the audio output circuit 21. The audio output circuit 21 converts a given digital audio signal into an audio signal in a format that can be output by the speaker 28 (for example, an analog audio signal) and outputs the audio signal to the speaker 28. The speaker 28 outputs the sound signal from the sound output circuit 21 to the outside as sound (sound).

映像信号処理部13は、CPU23と協働しつつ、超解像処理を実施することが可能に形成されている。超解像処理によって、複数の低解像度画像から1枚の高解像度画像が生成される。この高解像度画像の映像信号を、圧縮処理部16を介して外部メモリ18に記録することができる。高解像度画像の解像度は、低解像度画像のそれよりも高く、高解像度画像の水平方向及び垂直方向の画素数は、低解像度画像のそれよりも多い。例えば、静止画の撮影指示がなされた時に、複数の低解像度画像としての複数のフレーム画像を取得し、それらに対して超解像処理を実施することにより高解像度画像を生成する。或いは例えば、動画撮影時に得られた複数の低解像度画像としての複数のフレーム画像に対して、超解像処理は実施される。   The video signal processing unit 13 is configured to be able to perform super-resolution processing in cooperation with the CPU 23. Through the super-resolution processing, one high-resolution image is generated from a plurality of low-resolution images. The video signal of the high resolution image can be recorded in the external memory 18 via the compression processing unit 16. The resolution of the high resolution image is higher than that of the low resolution image, and the number of pixels in the horizontal and vertical directions of the high resolution image is larger than that of the low resolution image. For example, when an instruction to capture a still image is given, a plurality of frame images as a plurality of low resolution images are acquired, and a high resolution image is generated by performing super-resolution processing on them. Alternatively, for example, the super-resolution processing is performed on a plurality of frame images as a plurality of low resolution images obtained at the time of moving image shooting.

[超解像処理の基本概念]
超解像処理の基本概念について簡単に説明する。超解像処理の方式の一種として再構成型と呼ばれる方式が存在する。一方で、超解像処理を繰り返し演算(繰り返し型の計算アルゴリズム)にて実現する方式が存在し、この繰り返し演算を再構成型の超解像処理に適用することもできる。本実施形態では、繰り返し演算にて実現できる超解像処理の一種である、繰り返し演算を利用したMAP(Maximum A Posterior)法に基づく再構成型の超解像処理を主たる例にとる。
[Basic concept of super-resolution processing]
The basic concept of super-resolution processing will be briefly described. There is a method called a reconstruction type as a type of super-resolution processing. On the other hand, there is a method for realizing super-resolution processing by repetitive calculation (repetitive calculation algorithm), and this repetitive calculation can also be applied to reconstruction-type super-resolution processing. In the present embodiment, a main example is a reconstruction type super-resolution process based on a MAP (Maximum A Posterior) method using a repetitive calculation, which is a kind of super-resolution process that can be realized by a repetitive calculation.

図2に、繰り返し演算を利用したMAP法に基づく再構成型の超解像処理の概念図を示す。この超解像処理では、実際の撮影によって得られた複数の低解像度画像から1枚の高解像度画像を推定し、この推定した高解像度画像を劣化させることによって元の複数の低解像度画像を推定する。実際の撮影によって得られた低解像度画像を特に「実低解像度画像」と呼び、推定された低解像度画像を特に「推定低解像度画像」と呼ぶ。その後、実低解像度画像と推定低解像度画像との誤差が最小化されるように、高解像度画像と低解像度画像を反復推定し、最終的に取得される高解像度画像を出力する。   FIG. 2 shows a conceptual diagram of a reconstruction type super-resolution process based on the MAP method using repetitive operations. In this super-resolution processing, one high-resolution image is estimated from a plurality of low-resolution images obtained by actual shooting, and the original plurality of low-resolution images are estimated by degrading the estimated high-resolution image. To do. A low resolution image obtained by actual photographing is particularly called an “real low resolution image”, and an estimated low resolution image is particularly called an “estimated low resolution image”. Thereafter, the high resolution image and the low resolution image are repeatedly estimated so that the error between the actual low resolution image and the estimated low resolution image is minimized, and the finally acquired high resolution image is output.

図3に、図2に対応する超解像処理の流れをフローチャートにて表す。まず、ステップS11にて、実低解像度画像から初期高解像度画像を生成する。続くステップS12にて、現時点の高解像度画像を構築する元の実低解像度画像を推定する。推定された画像を、上述したように推定低解像度画像と呼ぶ。続くステップS13では、実低解像度画像と推定低解像度画像との差分(差分画像)に基づいて現時点の高解像度画像に対する更新量を導出する。この更新量は、ステップS12〜S14の各処理の反復実行によって実低解像度画像と推定低解像度画像との誤差が最小化されるように導出される。そして、続くステップS14にて、その更新量を用いて現時点の高解像度画像を更新し、新たな高解像度画像を生成する。この後、ステップS12に戻り、新たに生成された高解像度画像を現時点の高解像度画像と捉えて、ステップS12〜S14の各処理が反復実行される。基本的に、ステップS12〜S14の各処理の反復回数が増大するほど、得られる高解像度画像の解像度が実質的に向上し(解像力が向上し)、理想に近い高解像度画像が得られる。   FIG. 3 is a flowchart showing the flow of super-resolution processing corresponding to FIG. First, in step S11, an initial high resolution image is generated from an actual low resolution image. In subsequent step S12, the original actual low resolution image for constructing the current high resolution image is estimated. The estimated image is referred to as an estimated low resolution image as described above. In the subsequent step S13, an update amount for the current high resolution image is derived based on the difference (difference image) between the actual low resolution image and the estimated low resolution image. This update amount is derived so that the error between the actual low-resolution image and the estimated low-resolution image is minimized by repeatedly executing the processes in steps S12 to S14. In the subsequent step S14, the current high resolution image is updated using the updated amount, and a new high resolution image is generated. Thereafter, the process returns to step S12, and the newly generated high resolution image is regarded as the current high resolution image, and the processes of steps S12 to S14 are repeatedly executed. Basically, as the number of repetitions of each of the processes in steps S12 to S14 increases, the resolution of the obtained high resolution image is substantially improved (resolution is improved), and an ideal high resolution image can be obtained.

上述した動作の流れを基本とする超解像処理が、撮像装置1内にて実施される。MAP法に基づく超解像処理以外に、ML(Maximum-Likelihood)法、POCS(Projection Onto Convex Set)法、または、IBP(Iterative Back Projection)法に基づく超解像処理を利用することも可能である。   Super-resolution processing based on the above-described operation flow is performed in the imaging apparatus 1. In addition to super-resolution processing based on the MAP method, it is also possible to use super-resolution processing based on the ML (Maximum-Likelihood) method, the POCS (Projection Onto Convex Set) method, or the IBP (Iterative Back Projection) method. is there.

MAP法に代表される再構成型の超解像処理では、初期高解像度画像を生成した後、更新量の算出及び該更新量による高解像度画像の更新を含む演算処理(超解像演算処理)が反復実行されるが、この演算処理の反復実行は必須ではない。即ち、複数の低解像度画像から初期高解像度画像を生成し、この初期高解像度画像を、更新することなく、最終的に得られるべき高解像度画像として取り扱うようにしてもよい。   In reconstruction-type super-resolution processing represented by the MAP method, after generating an initial high-resolution image, calculation processing (super-resolution calculation processing) including calculation of an update amount and update of a high-resolution image based on the update amount Are repeatedly executed, but it is not essential to repeatedly execute this arithmetic processing. That is, an initial high resolution image may be generated from a plurality of low resolution images, and the initial high resolution image may be handled as a high resolution image to be finally obtained without being updated.

[低解像度画像の選択指針:選択最適化処理]
超解像処理を行う際、高解像度画像の推定に用いられる複数の実低解像度画像がフレーム画像列から選択されるが、この選択された実低解像度画像が高解像度画像の推定に適したものでないと、高い解像感を有する良好な高解像度画像を生成しがたい。映像信号処理部13は、良好な高解像度画像の生成にとって最適な実低解像度画像を選択する機能を有する。この機能を実現する処理を以下「選択最適化処理」と呼ぶと共に、選択最適化処理によって選択された低解像度画像の夫々を「演算対象画像」と呼ぶ。
[Low-resolution image selection guideline: Selection optimization process]
When performing super-resolution processing, multiple real low-resolution images used for high-resolution image estimation are selected from the frame image sequence, and the selected real low-resolution images are suitable for high-resolution image estimation. Otherwise, it is difficult to generate a good high-resolution image having high resolution. The video signal processing unit 13 has a function of selecting an actual low resolution image that is optimal for generating a good high resolution image. Processing for realizing this function is hereinafter referred to as “selection optimization processing”, and each of the low resolution images selected by the selection optimization processing is referred to as “calculation target image”.

この選択最適化処理により、良好な高解像度画像の生成が可能となる。また、この選択を行うことは、高解像度画像の生成に用いられる実低解像度画像の枚数を制限することに対応する。従って、この選択の実行により、映像信号処理部13での超解像処理の演算負荷が軽減されると共に高解像度画像の取得速度の高速化が図られる。   By this selection optimization process, a good high-resolution image can be generated. Also, making this selection corresponds to limiting the number of actual low resolution images used to generate a high resolution image. Therefore, by executing this selection, the calculation load of the super-resolution processing in the video signal processing unit 13 is reduced, and the acquisition speed of the high-resolution image is increased.

選択最適化処理による演算対象画像の基本選択指針を説明する。この基本選択指針の説明では、説明の簡略化上、各画像が1次元の画像であるものとし、且つ、互いに異なる時刻の撮影によって得られた3枚の実低解像度画像の内の2枚が、2枚の演算対象画像として選択されるものとする。3枚の実低解像度画像が第1〜第3の実低解像度画像から形成されるものとし、また、高解像度画像は低解像度画像の2倍の解像度を有しているものとする。   The basic selection guideline for the calculation target image by the selection optimization process will be described. In the description of this basic selection guideline, for simplification of explanation, it is assumed that each image is a one-dimensional image, and two of the three actual low resolution images obtained by photographing at different times are displayed. Assume that two calculation target images are selected. Assume that three real low-resolution images are formed from the first to third real low-resolution images, and that the high-resolution image has twice the resolution of the low-resolution image.

第1〜第3の実低解像度画像の撮影間において撮像装置1が手ぶれ等によって動いたことを想定する。第1〜第3の実低解像度画像の撮影間において被写体が静止していたとすれば、第2及び第3の実低解像度画像の夫々は、第1の実低解像度画像を位置ずれさせた画像とみなすことができる。第1の実低解像度画像を基準とした、第2及び第3の実低解像度画像の位置ずれ量を、夫々、D12及びD13にて表す。 It is assumed that the imaging device 1 has moved due to camera shake or the like between the first to third real low-resolution images. If the subject is stationary during the shooting of the first to third actual low resolution images, each of the second and third actual low resolution images is an image obtained by shifting the position of the first actual low resolution image. Can be considered. The positional deviation amounts of the second and third actual low resolution images with reference to the first actual low resolution image are represented by D 12 and D 13, respectively.

図4は、第1〜第3の実低解像度画像上の画素を、共通座標系に配置して示した図である。但し、この共通座標系への配置の際、位置ずれ量D12及びD13に相当する分だけ、第1の実低解像度画像の画素を基準として、第2及び第3の実低解像度画像の画素をずらして配置する。図4において、黒三角、黒四角、黒丸は、夫々、共通座標系上における第1〜3の実低解像度画像の画素(及び画素位置)を示している。画素が配置される位置を、画素位置と呼ぶ。図4には、第1の低解像度画像の画素位置を基準に配置された、高解像度画像の画素も白丸にて示されている。また、低解像度画像の隣接画素間隔をppLにて表す。今、高解像度画像が低解像度画像の2倍の解像度を有していることを想定しているため、高解像度画像の隣接画素間隔はppL/2である。 FIG. 4 is a diagram showing pixels on the first to third real low-resolution images arranged in a common coordinate system. However, at the time of arrangement in the common coordinate system, the second and third real low-resolution images are referenced based on the pixels of the first real low-resolution image by an amount corresponding to the displacements D 12 and D 13 . The pixels are shifted and arranged. In FIG. 4, black triangles, black squares, and black circles indicate the pixels (and pixel positions) of the first to third real low-resolution images on the common coordinate system, respectively. The position where the pixel is arranged is called a pixel position. In FIG. 4, pixels of the high-resolution image arranged with reference to the pixel positions of the first low-resolution image are also indicated by white circles. Also, the adjacent pixel interval of the low resolution image is represented by pp L. Since it is assumed that the high resolution image has twice the resolution of the low resolution image, the adjacent pixel interval of the high resolution image is pp L / 2.

図4の曲線301は、第1の実低解像度画像の撮影時における撮像素子33の撮像面上のアナログ輝度信号を表している。このアナログ輝度信号は、撮像装置1の被写体の輝度分布に応じた信号である。撮像素子33がこのアナログ輝度信号301をサンプリング間隔ppLにてサンプリングすることによって、実低解像度画像の各画素の輝度値が得られる。 A curve 301 in FIG. 4 represents an analog luminance signal on the imaging surface of the imaging element 33 when the first actual low-resolution image is captured. This analog luminance signal is a signal corresponding to the luminance distribution of the subject of the imaging apparatus 1. The imaging element 33 samples the analog luminance signal 301 at the sampling interval pp L , thereby obtaining the luminance value of each pixel of the actual low resolution image.

高解像度画像の画素位置が第1の実低解像度画像の画素位置を基準にして定められている場合、第1の実低解像度画像上の隣接画素311及び312の画素位置と同じ画素位置に、高解像度画像上の2つの画素321及び322が配置され、その画素321及び322の中間に、補間画素とも言うべき高解像度画像の画素323が更に配置される。画素321及び322の輝度値は画素311及び312の輝度値から生成することができるが、画素311及び312の輝度値だけでは画素323の輝度値を理想値(画素323の位置における実際の被写体の輝度値)に近づけることは困難である。そこで、画素323の輝度値の生成に、第2又は第3の実低解像度画像を利用する。この際、図4に示す如く、D12<D13≒ppL/2であれば、第2の実低解像度画像の輝度値よりも、第3の実低解像度画像の輝度値の方が、より理想値に近い値を有している。 When the pixel position of the high resolution image is determined with reference to the pixel position of the first actual low resolution image, the pixel position of the adjacent pixels 311 and 312 on the first actual low resolution image is the same as the pixel position. Two pixels 321 and 322 on the high-resolution image are arranged, and a pixel 323 of the high-resolution image that should be called an interpolation pixel is further arranged between the pixels 321 and 322. Although the luminance values of the pixels 321 and 322 can be generated from the luminance values of the pixels 311 and 312, the luminance value of the pixel 323 can be set to the ideal value (the actual object at the position of the pixel 323 only with the luminance values of the pixels 311 and 312. It is difficult to approach the (luminance value). Therefore, the second or third real low-resolution image is used to generate the luminance value of the pixel 323. At this time, as shown in FIG. 4, if D 12 <D 13 ≈pp L / 2, the luminance value of the third actual low-resolution image is greater than the luminance value of the second actual low-resolution image. It has a value closer to the ideal value.

従って、2枚の演算対象画像の内の一方が第1の実低解像度画像として定まっているならば、第3の実低解像度画像を、他方の演算対象画像として選択する。結果、理想値(実際の被写体の輝度値)により近い値に基づいて補間画素の画素値を取得することができるようになり、高解像度画像における実質的な解像度向上が見込める。   Therefore, if one of the two calculation target images is determined as the first actual low resolution image, the third actual low resolution image is selected as the other calculation target image. As a result, the pixel value of the interpolated pixel can be acquired based on a value closer to the ideal value (actual subject luminance value), and a substantial resolution improvement in a high-resolution image can be expected.

また、以下のような考え方もできる。仮に、D12≒0であるならば、第1及び第2の実低解像度画像は高解像度画像の生成にとって実質的に同じ画像であり、第2の実低解像度画像の存在は、高解像度画像の解像感向上に殆ど或いは全く寄与しない。よって、第1の実低解像度画像との間の位置ずれ量がなるだけppL/2に近い実低解像度画像を演算対象画像に含めるべきである。 The following way of thinking can also be made. If D 12 ≈0, then the first and second real low resolution images are substantially the same image for the generation of the high resolution image, and the presence of the second real low resolution image is the high resolution image. Hardly or not at all. Therefore, an actual low-resolution image that is as close to pp L / 2 as possible with respect to the first actual low-resolution image should be included in the calculation target image.

上述のような基本選択指針に基づいて選択最適化処理は実行される。上述の例では、第1の実低解像度画像が演算対象画像に含まれることを前提としているが、仮に、第2の実低解像度画像が一方の演算対象画像として定まっていたならば、第1及び第2の実低解像度画像又は第2及び第3の実低解像度画像が2枚の演算対象画像として選択されることとなり、最も理想的な2枚の実低解像度画像(即ち、第1及び第3の実低解像度画像)を2枚の演算対象画像として選択することができなくなる。これを考慮し、実際の選択最適化処理では、何れかの実低解像度画像が演算対象画像に含まれることを前提とすることなく、最適な演算対象画像の組み合わせを、いわゆる総当り式に探索する。   The selection optimization process is executed based on the basic selection guideline as described above. In the above example, it is assumed that the first actual low-resolution image is included in the calculation target image. However, if the second actual low-resolution image is determined as one calculation target image, the first actual low-resolution image is determined as the first calculation target image. And the second actual low-resolution image or the second and third actual low-resolution images are selected as the two calculation target images, and the two most ideal real low-resolution images (that is, the first and second actual low-resolution images) The third actual low-resolution image) cannot be selected as two calculation target images. In consideration of this, in the actual selection optimization process, an optimal combination of images to be calculated is searched for in a so-called brute force formula without assuming that any actual low-resolution image is included in the image to be calculated. To do.

以下、選択最適化処理の具体的実現方法、超解像処理の内容、及び/又は、それらに関連する技術的事項を、第1〜第10実施例にて説明する。矛盾が生じない限り、或る実施例にて述べた事項を他の実施例に適用することも可能である。特に、第1実施例内で説明した事項は、矛盾が生じない限り、第1実施例以外の各実施例に適用される。   Hereinafter, specific implementation methods of the selection optimization process, contents of the super-resolution process, and / or technical matters related thereto will be described in the first to tenth embodiments. As long as no contradiction arises, the matters described in one embodiment can be applied to other embodiments. In particular, the matters described in the first embodiment are applied to each embodiment other than the first embodiment unless there is a contradiction.

以下の説明では、特に記述しない限り、撮影によって得られたフレーム画像が実低解像度画像として取り扱われ、低解像度画像及び高解像度画像に代表される任意の画像は、水平及び垂直方向の夫々に複数の画素がマトリクス状に配列された二次元画像であるとする。また、時刻tkの撮影によって得られた実低解像度画像(フレーム画像)をFkにて表す。ここで、kは自然数である。時刻tkと時刻tk+1との間の時間長さは、例えば、フレーム周期に相当する。また、時刻tkについてのフレームを特に第kフレームと呼ぶ。 In the following description, a frame image obtained by shooting is treated as an actual low-resolution image unless otherwise specified, and a plurality of arbitrary images represented by a low-resolution image and a high-resolution image are provided in both the horizontal and vertical directions. Is a two-dimensional image in which the pixels are arranged in a matrix. An actual low resolution image (frame image) obtained by photographing at time t k is represented by F k . Here, k is a natural number. The time length between the time t k and the time t k + 1 corresponds to, for example, a frame period. In addition, a frame at time t k is particularly referred to as a k-th frame.

また、本明細書では、記述の簡略化上、記号を用いることによって、その記号に対応する名称を略記又は省略することがある。例えば、本明細書において、実低解像度画像F1を単に「画像F1」又は「F1」と表現することもあるが、前者と後者は同じものを指す。 Further, in this specification, for the sake of simplification of description, a name corresponding to the symbol may be abbreviated or omitted by using the symbol. For example, in this specification, the actual low-resolution image F 1 may be simply expressed as “image F 1 ” or “F 1 ”, but the former and the latter indicate the same thing.

<<第1実施例>>
本発明の第1実施例を説明する。図5は、撮像装置1内の、超解像処理に関与する部位のブロック図を示している。図5の映像信号処理部13は、符号41〜49にて参照される各部位を含む。
<< First Example >>
A first embodiment of the present invention will be described. FIG. 5 shows a block diagram of a part related to the super-resolution processing in the imaging apparatus 1. The video signal processing unit 13 in FIG. 5 includes each part referred to by reference numerals 41 to 49.

フレームメモリ41は、AFE12からのデジタル信号によって表される、1フレーム分の実低解像度画像の画像データを一時的に記憶する。フレームメモリ42は、フレームメモリ41に記憶された1フレーム分の実低解像度画像の画像データを一時的に記憶する。フレームメモリ43は、フレームメモリ42に記憶された1フレーム分の実低解像度画像の画像データを一時的に記憶する。フレームメモリ44は、フレームメモリ43に記憶された1フレーム分の実低解像度画像の画像データを一時的に記憶する。フレームメモリ41の記憶内容は、1フレームが経過する毎に、順次、フレームメモリ42、43及び44に転送される。これにより、第4フレームの終了時点においては、フレームメモリ44、43、42及び41に、夫々、実低解像度画像F1、F2、F3及びF4の画像データが記録される。 The frame memory 41 temporarily stores image data of an actual low resolution image for one frame represented by the digital signal from the AFE 12. The frame memory 42 temporarily stores image data of an actual low resolution image for one frame stored in the frame memory 41. The frame memory 43 temporarily stores image data of an actual low resolution image for one frame stored in the frame memory 42. The frame memory 44 temporarily stores image data of an actual low resolution image for one frame stored in the frame memory 43. The contents stored in the frame memory 41 are sequentially transferred to the frame memories 42, 43 and 44 every time one frame elapses. Thereby, at the end of the fourth frame, the image data of the actual low resolution images F 1 , F 2 , F 3 and F 4 are recorded in the frame memories 44, 43, 42 and 41, respectively.

動き量算出部45には、AFE12より現フレームの実低解像度画像の画像データと、フレームメモリ41より前回フレームの実低解像度画像の画像データとが与えられる。動き量算出部45は、与えられた両画像データを比較することにより、与えられた2枚の実低解像度画像間の位置ずれ量を表す動き量を算出する。この動き量は、水平成分及び垂直成分を含む二次元量であり、所謂動きベクトルとして表現される。現フレームが第2、第3、第4フレームと変化していくことにより、図6に示す如く、動き算出部45では、画像F1及びF2間についての動き量MV12と、画像F2及びF3間についての動き量MV23と、画像F3及びF4間についての動き量MV34と、が求められる。求められた各動き量は、動き量記憶部46に記憶される。また、動き量MV12、MV23及びMV34から、画像F1及びF3間についての動き量MV13、画像F2及びF4間についての動き量MV24及び画像F1及びF4間についての動き量MV14も算出され、これらも動き量記憶部46に記憶される。 The motion amount calculation unit 45 is supplied with the image data of the actual low resolution image of the current frame from the AFE 12 and the image data of the actual low resolution image of the previous frame from the frame memory 41. The motion amount calculation unit 45 calculates a motion amount representing the amount of positional deviation between the two given real low-resolution images by comparing the two given image data. This motion amount is a two-dimensional amount including a horizontal component and a vertical component, and is expressed as a so-called motion vector. As the current frame changes to the second, third, and fourth frames, as shown in FIG. 6, in the motion calculation unit 45, the motion amount MV 12 between the images F 1 and F 2 and the image F 2 are displayed. and a motion amount MV 23 for between F 3, the motion amount MV 34 for between images F 3 and F 4, is obtained. Each obtained motion amount is stored in the motion amount storage unit 46. Further, from the motion amounts MV 12 , MV 23 and MV 34 , the motion amount MV 13 between the images F 1 and F 3 , the motion amount MV 24 between the images F 2 and F 4 and between the images F 1 and F 4 . Motion amount MV 14 is also calculated, and these are also stored in the motion amount storage unit 46.

動き量算出部45は、代表点マッチング法やブロックマッチング法、勾配法などを用いて、2枚の実低解像度画像間の動き量を算出する。ここで算出される動き量は、実低解像度画像の画素間隔よりも分解能の高い、所謂サブピクセルの分解能を有している。つまり、実低解像度画像内の、水平又は垂直方向に隣接する2つの画素の間隔ppLよりも短い距離を最小単位として動き量が算出される。サブピクセルの分解能を有する位置ずれ量の算出方法として、公知の算出方法を用いることができる。例えば、特開平11-345315号公報に記載された方法や、“奥富,「ディジタル画像処理」,第二版,CG−ARTS協会,2007年3月1日発行”に記載された方法(p.205参照)を用いればよい。 The motion amount calculation unit 45 calculates a motion amount between two actual low-resolution images using a representative point matching method, a block matching method, a gradient method, or the like. The motion amount calculated here has a so-called sub-pixel resolution having a resolution higher than the pixel interval of the actual low-resolution image. That is, the amount of motion is calculated with a distance shorter than the interval pp L between two pixels adjacent in the horizontal or vertical direction in the actual low-resolution image as a minimum unit. A known calculation method can be used as a method for calculating a positional deviation amount having sub-pixel resolution. For example, the method described in Japanese Patent Application Laid-Open No. 11-345315 and the method described in “Okutomi,“ Digital Image Processing ”, Second Edition, CG-ARTS Association, issued on March 1, 2007” (p. 31). 205).

画像選択部47には、フレームメモリ41〜44を含むメモリ40から、n枚の実低解像度画像の画像データが与えられる。そして、動き量記憶部46に記憶された各動き量に基づき、選択最適化処理によってn枚の実低解像度画像の中からm枚の実低解像度画像を選択し、選択したm枚の実低解像度画像をm枚の演算対象画像として超解像処理部48に出力する。図5に示す例の場合、n=4であるが、nは3以上の任意の整数とされる。n≠4の場合、メモリ40を形成するフレームメモリの個数を、適宜、図5に示すものから変形すればよい。mは、不等式「n>m」を満たす、2以上の任意の整数である。   Image data of n actual low-resolution images is given to the image selection unit 47 from the memory 40 including the frame memories 41 to 44. Then, based on each motion amount stored in the motion amount storage unit 46, m actual low resolution images are selected from the n actual low resolution images by the selection optimization process, and the selected m actual low resolution images are selected. The resolution image is output to the super-resolution processing unit 48 as m calculation target images. In the example shown in FIG. 5, n = 4, but n is an arbitrary integer of 3 or more. In the case of n ≠ 4, the number of frame memories forming the memory 40 may be appropriately modified from that shown in FIG. m is an arbitrary integer of 2 or more that satisfies the inequality “n> m”.

超解像処理部48は、m枚の演算対象画像に含まれる、互いに異なる演算対象画像間の動き量を動き量記憶部46から受け、その動き量と画像選択部47からのm枚の演算対象画像(m枚の実低解像度画像)とを用いた超解像処理によって1枚の高解像度画像を生成する。超解像処理部48にて実行される超解像処理の方法として、上述の方法を含む、任意の方法を採用可能である。高解像度画像は、例えば、低解像度画像の2倍の解像度を有するように生成される。この場合、高解像度画像上の、水平又は垂直方向に沿った隣接画素の間隔はppL/2である。 The super-resolution processing unit 48 receives a motion amount between different calculation target images included in the m calculation target images from the motion amount storage unit 46, and calculates the motion amount and m images from the image selection unit 47. One high-resolution image is generated by super-resolution processing using the target image (m actual low-resolution images). As a super-resolution processing method executed by the super-resolution processing unit 48, any method including the above-described method can be adopted. The high resolution image is generated so as to have twice the resolution of the low resolution image, for example. In this case, the interval between adjacent pixels along the horizontal or vertical direction on the high-resolution image is pp L / 2.

信号処理部49は、超解像処理部48にて生成された高解像度画像の画像データに基づき、その高解像度画像の映像信号(輝度信号及び色差信号)を生成する。尚、超解像処理が行われない場合は、AFE12から出力される実低解像度画像の画像データに基づく映像信号を信号処理部49にて生成することも可能である。信号処理部49にて生成された映像信号を、圧縮処理部16による圧縮処理を介して外部メモリ18に記憶することができる。   The signal processing unit 49 generates a video signal (luminance signal and color difference signal) of the high resolution image based on the image data of the high resolution image generated by the super-resolution processing unit 48. When the super-resolution processing is not performed, the signal processing unit 49 can generate a video signal based on the image data of the actual low-resolution image output from the AFE 12. The video signal generated by the signal processing unit 49 can be stored in the external memory 18 through the compression processing by the compression processing unit 16.

画像選択部47の選択最適化処理による演算対象画像の選択方法を詳細に説明する。第1実施例では、n=4且つm=2である場合を想定する。   A method of selecting the calculation target image by the selection optimization process of the image selection unit 47 will be described in detail. In the first embodiment, it is assumed that n = 4 and m = 2.

メモリ40から画像選択部47に入力されたn枚の実低解像度画像F1〜Fnは、二次元の共通の座標系(以下、共通座標系という)上に配置して考えられる。図7に、共通座標系に配置された各実低解像度画像の格子及び画素を示す。符号401が付された黒三角形は画像F1の画素を表すと共に画像F1の画素が配置される位置を表し、符号402が付された黒四角形は画像F2の画素を表すと共に画像F2の画素が配置される位置を表し、符号403が付された黒丸は画像F3の画素を表すと共に画像F3の画素が配置される位置を表し、符号404が付された星型図形(十角形)は画像F4の画素を表すと共に画像F4の画素が配置される位置を表している。尚、図7(及び後述する図8等)では、画像F1を形成する画素群を表す三角形群の一部に対してのみ符号401が付されている。符号402〜404についても同様である。 The n actual low-resolution images F 1 to F n input from the memory 40 to the image selection unit 47 are considered to be arranged on a two-dimensional common coordinate system (hereinafter referred to as a common coordinate system). FIG. 7 shows a grid and pixels of each real low-resolution image arranged in the common coordinate system. Code 401 is affixed black triangle indicates the position at which the pixel image F 1 with representative of the pixels of the image F 1 are disposed, the image F 2 with black code 402 is attached rectangle represents a pixel of the image F 2 indicates the position at which the pixels are arranged, a black circle sign 403 is attached represents a position where a pixel of the image F 3 are arranged with representing a pixel of the image F 3, star sign 404 is attached type shapes (ten square) represents a position where a pixel of the image F 4 are arranged with representing a pixel of the image F 4. In FIG. 7 (and FIG. 8 and the like described later), reference numeral 401 is given only to a part of the triangle group representing the pixel group forming the image F 1 . The same applies to reference numerals 402 to 404.

画像Fk上の画素は共通座標系の水平方向及び垂直方向に等間隔で格子状に配列される(k=1,2,3,4)。画像Fkを形成する画素が共通座標系において二次元配列される格子を画像Fkの格子と呼ぶ。 The pixels on the image F k are arranged in a grid pattern at equal intervals in the horizontal and vertical directions of the common coordinate system (k = 1, 2, 3, 4). A grid in which the pixels forming the image F k are two-dimensionally arranged in the common coordinate system is called a grid of the image F k .

画像F2は、画像F1を動き量MV12に相当する分だけ位置ずれさせた画像であるとみなすことができる。画像選択部47は、画像F1を基準とした画像F2の位置ずれが打ち消されるように、共通座標系上に画像F1及びF2の格子を設定する。例えば、画像F1から見た画像F2の動き量の方向が右方向であって且つ該動き量の大きさがppL/2である場合、画像F1の格子から、左方向にppL/2だけずらした位置に画像F2の格子を設定する。同様に、画像F1の格子を基準として、画像F3及びF4の格子が共通座標系上に設定される。画像F1の格子を基準に考える場合、動き量MV12、MV13及びMV14に基づいて画像F1〜F4の格子位置が定まる。尚、画像F2、F3又はF4を基準にして、共通座標系上における画像F1〜F4の格子位置の設定を行うようにしても良い。 The image F 2 can be regarded as an image obtained by shifting the position of the image F 1 by an amount corresponding to the movement amount MV 12 . The image selection unit 47 sets the grids of the images F 1 and F 2 on the common coordinate system so that the positional deviation of the image F 2 with respect to the image F 1 is cancelled. For example, when the size of the movement amount of the image F 2 as viewed from the image F 1 is and a right direction the movement amount is pp L / 2, the grid of the image F 1, pp leftward L The grid of the image F 2 is set at a position shifted by / 2. Similarly, the grids of the images F 3 and F 4 are set on the common coordinate system with the grid of the image F 1 as a reference. When considering the grid of the image F 1 as a reference, the grid positions of the images F 1 to F 4 are determined based on the motion amounts MV 12 , MV 13, and MV 14 . Note that the grid positions of the images F 1 to F 4 on the common coordinate system may be set on the basis of the image F 2 , F 3, or F 4 .

画像選択部47は、4枚の画像F1〜F4の中から2枚の画像(演算対象画像)を選択するべく、画像F1〜F4に含まれる2枚の画像についての、画素位置間距離を算出する。この算出は、4枚の画像F1〜F4から2枚の画像を選ぶ組み合わせの数だけ行われる。n個のものからm個のものをとってできる組み合わせの個数は、nmである。今の例では、n=4且つm=2を想定しているため、nm42=6であり、4枚の画像F1〜F4から2枚の画像を選ぶ組み合わせには、第1〜第6の組み合わせがある。 Image selecting section 47 to select two images (operation target image) from among the four images F 1 to F 4, the two images included in the image F 1 to F 4 of the pixel position Calculate the distance. This calculation is performed by the number of combinations for selecting two images from the four images F 1 to F 4 . The number of combinations that can be taken from n to m is n C m . In this example, since n = 4 and m = 2 are assumed, n C m = 4 C 2 = 6, and a combination of selecting two images from four images F 1 to F 4 is used. There are first to sixth combinations.

画素位置間距離の算出対象となる2枚の画像の夫々を評価画像と呼び、2枚の評価画像を記号FA及びFBにて表す。そうすると、第1、第2、第3、第4、第5、第6の組み合わせにおいて、夫々、(A,B)=(1,2)、(1,3)、(1,4)、(2,3),(2,4)及び(3,4)である。評価画像は、動き量に基づいて共通座標系に配置された、何れかの実低解像度画像である(後述の他の実施例においても同様)。 Each of the two images for calculation of the distance between the pixel positions is called an evaluation image, and the two evaluation images are represented by symbols F A and F B. Then, in the first, second, third, fourth, fifth, and sixth combinations, (A, B) = (1,2), (1,3), (1,4), ( 2, 3), (2, 4) and (3,4). The evaluation image is any real low-resolution image arranged in the common coordinate system based on the amount of motion (the same applies to other examples described later).

第1の組み合わせについての画素位置間距離の算出方法を説明する。画素位置間距離は、共通座標系上における距離である。第1の組み合わせについての画素位置間距離を算出する際、(A,B)=(1,2)より画像F1及びF2が評価画像FA及びFBとして取り扱われ、画像F1の注目画素位置と画像F2の注目画素位置との、共通座標系上における距離d12が算出される。 A method for calculating the distance between pixel positions for the first combination will be described. The distance between pixel positions is a distance on the common coordinate system. When calculating the inter-pixel position distance for the first combination, the images F 1 and F 2 are treated as the evaluation images F A and F B from (A, B) = (1, 2), and attention is paid to the image F 1 . A distance d 12 on the common coordinate system between the pixel position and the target pixel position of the image F 2 is calculated.

距離d12を算出する際において、画像F1の注目画素位置は、画像F1上の任意の1つの画素位置である。図8の符号401aが付された黒三角形の配置位置が、画像F1の注目画素位置であった場合を考える。 In time of calculating the distance d 12, the target pixel position of the image F 1 is any one pixel location on the image F 1. Position of the black triangle symbols 401a is attached in FIG. 8, a case was the target pixel position of the image F 1.

画像選択部47は、評価画像FAの注目画素位置を中心とする基準矩形領域を設定する。基準矩形領域は正方形形状の領域であって、その正方形の一辺の長さはppLである。第1の組み合わせについて考える場合、評価画像FAは画像F1であって且つ評価画像FAの注目画素位置は画素位置401aであるから、図8に示す、画素位置401aを中心とする、一辺の長さがppLの正方形領域410が基準矩形領域として設定される。 The image selection unit 47 sets a reference rectangular area centered on the target pixel position of the evaluation image F A. The reference rectangular area is a square area, and the length of one side of the square is pp L. When considering the first combination, since the evaluation image F A is the image F 1 and the target pixel position of the evaluation image F A is the pixel position 401a, one side centered on the pixel position 401a shown in FIG. A square region 410 having a length of pp L is set as the reference rectangular region.

そして、第1の組み合わせについての画素位置間距離を算出する際、画像F2の注目画素位置は、基準矩形領域410内に位置する、画像F2の画素位置402aである。ここで、基準矩形領域410の内と外との境界線上に位置する画素位置も、基準矩形領域410内に位置する画素位置と取り扱われる(基準矩形領域410以外の基準矩形領域についても同様)。画素位置402aは、画像F2の画素位置群の内、画像F1の注目画素位置401aの最近傍に位置する画素位置である。第1の組み合わせについての画素位置間距離に相当する距離d12は、画素位置401aと画素位置402aとの間の距離である。 Then, when calculating the pixel position distance between the first combination, the target pixel position of the image F 2 is located at the reference rectangular region 410 is a pixel position 402a of the image F 2. Here, a pixel position located on the boundary line between the inside and outside of the reference rectangular area 410 is also treated as a pixel position located in the reference rectangular area 410 (the same applies to the reference rectangular areas other than the reference rectangular area 410). Pixel position 402a, of the pixel position group image F 2, a pixel position that is located closest to the target pixel position 401a of the image F 1. The distance d 12 corresponding to the pixel position distance between the first combination is the distance between the pixel position 401a and the pixel position 402a.

第2及び第3の組み合わせについての画素位置間距離も同様にして算出される。第2の組み合わせについての画素位置間距離に相当する距離d13は、画像F1の画素位置401aと、基準矩形領域410内に位置する、画像F3の画素位置403aとの間の距離であり、第3の組み合わせについての画素位置間距離に相当する距離d14は、画像F1の画素位置401aと、基準矩形領域410内に位置する、画像F4の画素位置404aとの間の距離である。 The distance between pixel positions for the second and third combinations is calculated in the same manner. The distance d 13 corresponding to the inter-pixel position distance for the second combination is the distance between the pixel position 401 a of the image F 1 and the pixel position 403 a of the image F 3 located in the reference rectangular area 410. The distance d 14 corresponding to the inter-pixel position distance for the third combination is the distance between the pixel position 401 a of the image F 1 and the pixel position 404 a of the image F 4 located in the reference rectangular area 410. is there.

第4の組み合わせについての画素位置間距離を算出する際は、(A,B)=(2,3)より画像F2及びF3が評価画像FA及びFBとして取り扱われ、第5の組み合わせについての画素位置間距離を算出する際は、(A,B)=(2,4)より画像F2及びF4が評価画像FA及びFBとして取り扱われる。このため、図9に示す如く、画像F2上の任意の1つの画素位置である注目画素位置402bを中心として、基準矩形領域420が設定される。この基準矩形領域420も、上述したように、一辺の長さがppLの正方形領域である。 When calculating the inter-pixel position distance for the fourth combination, the images F 2 and F 3 are treated as the evaluation images F A and F B from (A, B) = (2, 3), and the fifth combination When calculating the distance between pixel positions for, the images F 2 and F 4 are treated as the evaluation images F A and F B from (A, B) = (2, 4). Therefore, as shown in FIG. 9, around the pixel-of-interest position 402b is any one pixel location on the image F 2, reference rectangular region 420 is set. This reference rectangular area 420 is also a square area having a side length of pp L as described above.

そして、第4及び第5の組み合わせに関し、評価画像FBの注目画素位置は、夫々、基準矩形領域420内に位置する、画像F3の画素位置403b及び画像F4の画素位置404bとされる。このため、第4の組み合わせについての画素位置間距離に相当する距離d23は、画素位置402bと画素位置403bとの間の距離であり、第5の組み合わせについての画素位置間距離に相当する距離d24は、画素位置402bと画素位置404bとの間の距離である。 Then relates a combination of the fourth and fifth, the target pixel position of the evaluation image F B, respectively, located in the reference rectangular region 420 is a pixel position 404b of the pixel position 403b and the image F 4 image F 3 . Therefore, the distance d 23 corresponding to the distance between pixel positions for the fourth combination is the distance between the pixel position 402b and the pixel position 403b, and the distance corresponding to the distance between the pixel positions for the fifth combination. d 24 is a distance between the pixel position 402b and the pixel position 404b.

第6の組み合わせについての画素位置間距離に相当する距離d34も、同様にして算出される。図9に示される画素位置403b及び404b間の距離が、基準距離dREF以下であるならば、画素位置403b及び404b間の距離が距離d34である。ここで、基準距離dREFは、基準矩形領域の対角線の長さの半分に相当する。即ち、基準距離dREFは、ppL/2に、2の平方根を乗じたものである。 A distance d 34 corresponding to the inter-pixel position distance for the sixth combination is calculated in the same manner. The distance between the pixel positions 403b and 404b shown in FIG. 9, if it is the reference distance d REF less, the distance between pixel locations 403b and 404b are the distance d 34. Here, the reference distance d REF corresponds to half the length of the diagonal line of the reference rectangular area. That is, the reference distance d REF is obtained by multiplying pp L / 2 by the square root of 2.

上述の如く、画像選択部47は、評価画像FAの注目画素位置と評価画像FBの注目画素位置との距離を求める距離導出処理を第1〜第6の組み合わせの夫々に対して実行することにより、6つの距離d12、d13、d14、d23、d24及びd34を求める。そして、その6つの距離の内、最大の距離を特定する。距離導出処理によって求められる距離は、常に基準距離dREF以下であるから、ここで特定される最大の距離は、6つの距離の内の、基準距離dREFに最も近い距離である。そして、画像選択部47は、特定した距離に対応する2枚の実低解像度画像を2枚の演算対象画像として選択する。図8及び図9に示す例では、6つの距離の内、距離d24が最も大きいため、距離d24に対応する実低解像度画像F2及びF4が2枚の演算対象画像として選択される。 As described above, the image selection unit 47 executes the distance derivation process for obtaining the distance between the target pixel position of the evaluation image F A and the target pixel position of the evaluation image F B for each of the first to sixth combinations. Thus, the six distances d 12 , d 13 , d 14 , d 23 , d 24 and d 34 are obtained. Then, the maximum distance among the six distances is specified. Since the distance obtained by the distance deriving process is always less than or equal to the reference distance d REF , the maximum distance specified here is the distance closest to the reference distance d REF among the six distances. Then, the image selection unit 47 selects two actual low resolution images corresponding to the specified distance as two calculation target images. In the example shown in FIGS. 8 and 9, since the distance d 24 is the largest of the six distances, the actual low resolution images F 2 and F 4 corresponding to the distance d 24 are selected as two calculation target images. .

4枚の画像F1〜F4の内の何れかを基準画像として固定的に設定した後、その基準画像の画素位置と他の画像の画素位置との関係に基づいて、基準画像を含む2枚の演算対象画像を選択するという方法も考えられる。この方法を採用した場合において、基準画像が図8及び図9に示す例における画像F2又はF4であったならば、画像F2及びF4を2枚の演算対象画像として選択することも可能であるが、基準画像が画像F1又はF3であったならば、画像F2及びF4を2枚の演算対象画像として選択することができない。このように、基準画像を決めた後に、基準画像を含むm枚の演算対象画像を選択する方法では、基準画像の設定の仕方によって、最適な演算対象画像を選択することができなくなる。 After fixedly setting any one of the four images F 1 to F 4 as a reference image, 2 including the reference image based on the relationship between the pixel position of the reference image and the pixel position of another image. A method of selecting one calculation target image is also conceivable. When this method is employed, if the reference image is the image F 2 or F 4 in the example shown in FIGS. 8 and 9, the images F 2 and F 4 may be selected as two calculation target images. Although it is possible, if the reference image is the image F 1 or F 3 , the images F 2 and F 4 cannot be selected as two calculation target images. As described above, in the method of selecting m calculation target images including the reference image after determining the reference image, the optimal calculation target image cannot be selected depending on how the reference image is set.

一方、上述の選択最適化処理では、基準画像を定めることなく、n枚の実低解像度画像の中から、超解像処理にとって最適なm枚の演算対象画像を選択することが可能である。即ち、演算対象画像の基本選択指針の説明で述べたように、高解像度画像の実質的な解像度向上に最適な演算対象画像を選択することが可能となり、高解像度画像の実質的な解像度(解像力)の最大化が図られる。   On the other hand, in the selection optimization process described above, it is possible to select m calculation target images that are optimal for super-resolution processing from n actual low-resolution images without defining a reference image. That is, as described in the description of the basic selection guideline for the calculation target image, it becomes possible to select the calculation target image that is most suitable for the substantial resolution improvement of the high resolution image, and the substantial resolution (resolution) of the high resolution image can be selected. ) Is maximized.

<<第2実施例>>
本発明の第2実施例を説明する。第2実施例に係る映像信号処理部13は、図5に示すそれと同様であり、第1実施例に記載した事項が第2実施例にも適用される。但し、第2実施例では、m=3であるものとする。nは4以上であれば幾つでも良いが、説明の具体化のため、n=4であると想定する。
<< Second Example >>
A second embodiment of the present invention will be described. The video signal processing unit 13 according to the second embodiment is the same as that shown in FIG. 5, and the items described in the first embodiment are also applied to the second embodiment. However, in the second embodiment, m = 3. Although n may be any number as long as it is 4 or more, it is assumed that n = 4 for the sake of concrete description.

この場合、画像選択部47は、動き量記憶部46に記憶された各動き量に基づき、選択最適化処理によって4枚の実低解像度画像F1〜F4の中から3枚の実低解像度画像を選択し、選択した3枚の実低解像度画像を3枚の演算対象画像として超解像処理部48に出力する。 In this case, the image selection unit 47 selects three actual low resolutions from among the four actual low resolution images F 1 to F 4 through the selection optimization process based on each motion amount stored in the motion amount storage unit 46. An image is selected, and the selected three real low-resolution images are output to the super-resolution processor 48 as three calculation target images.

第2実施例では、4枚の画像F1〜F4の中から3枚の画像(演算対象画像)を選択するべく、画像F1〜F4に含まれる3枚の画像を3枚の評価画像として抽出し、3枚の評価画像に対して、超解像処理に対する適性を評価する。n個のものからm個のものをとってできる組み合わせの個数は、nmである。今の例では、n=4且つm=3を想定しているため、nm43=4であり、4枚の画像F1〜F4から3枚の画像を選ぶ組み合わせには、第1〜第4の組み合わせがある。 In the second embodiment, in order to select the three images (operation target image) from among the four images F 1 to F 4, evaluation of three, three images included in the image F 1 to F 4 Extracted as images, the suitability for super-resolution processing is evaluated for the three evaluation images. The number of combinations that can be taken from n to m is n C m . In this example, since n = 4 and m = 3 are assumed, n C m = 4 C 3 = 4, and a combination of selecting three images from the four images F 1 to F 4 is used. There are first to fourth combinations.

3枚の評価画像を記号FA、FB及びFCにて表す。そうすると、第1、第2、第3、第4の組み合わせにおいて、夫々、(A,B,C)=(1,2,3)、(1,2,4)、(1,3,4)、(2,3,4)である。 Three evaluation images are represented by symbols F A , F B and F C. Then, in the first, second, third, and fourth combinations, (A, B, C) = (1, 2, 3), (1, 2, 4), (1, 3, 4), respectively. , (2, 3, 4).

画像選択部47は、評価画像FAの注目画素位置と評価画像FBの注目画素位置と評価画像FCの注目画素位置とを結ぶ三角形の面積を導出する三角形面積導出処理を、第1〜第4の組み合わせの夫々に対して実行し、第1〜第4の組み合わせに対して導出された4つの面積の内、最大の面積に対応する3枚の実低解像度画像を3枚の演算対象画像として選択する。 Image selecting unit 47, a triangle area derivation process of deriving the area of a triangle connecting the target pixel position of the evaluation image F evaluation target pixel position in image A F evaluation image F C and the position of the pixel of interest B, first to Three real low-resolution images corresponding to the largest area among the four areas derived for the first to fourth combinations are executed for each of the fourth combinations. Select as an image.

三角形面積導出処理について説明する。まず、評価画像FAの注目画素位置は、評価画像FA上の任意の1つの画素位置である。第1実施例と同様、画像選択部47は、評価画像FAの注目画素位置を中心とする基準矩形領域を設定する。その基準矩形領域内に位置する、評価画像FB及びFCの画素位置が、評価画像FB及びFCの注目画素位置である。よって、評価画像FBの注目画素位置は、評価画像FBの画素位置群の内、評価画像FAの注目画素位置の最近傍に位置する画素位置であり、評価画像FCの注目画素位置は、評価画像FCの画素位置群の内、評価画像FAの注目画素位置の最近傍に位置する画素位置である。 The triangle area derivation process will be described. First, the target pixel position of the evaluation image F A is an arbitrary one pixel positions on the evaluation image F A. As in the first embodiment, the image selection unit 47 sets a reference rectangular area centered on the target pixel position of the evaluation image F A. Its located reference rectangular region, the pixel position of the evaluation images F B and F C is the pixel of interest position of the evaluation images F B and F C. Thus, the target pixel position of the evaluation image F B, the evaluation of the pixel position groups of images F B, a pixel position that is located closest to the target pixel position of the evaluation image F A, the target pixel position of the evaluation image F C Is a pixel position located closest to the target pixel position of the evaluation image F A in the pixel position group of the evaluation image F C.

従って、図8及び図9に示す例では、第1の組み合わせに対して画素位置401a、402a及び403aを結ぶ三角形の面積ST1が算出され、第2の組み合わせに対して画素位置401a、402a及び404aを結ぶ三角形の面積ST2が算出され、第3の組み合わせに対して画素位置401a、403a及び404aを結ぶ三角形の面積ST3が算出され、第4の組み合わせに対して画素位置402b、403b及び404bを結ぶ三角形の面積ST4が算出される。 Accordingly, in the example shown in FIGS. 8 and 9, the area S T1 of the triangle connecting the pixel positions 401a, 402a, and 403a is calculated for the first combination, and the pixel positions 401a, 402a, and 402 are calculated for the second combination. The area S T2 of the triangle connecting 404a is calculated, the area S T3 of the triangle connecting the pixel positions 401a, 403a, and 404a is calculated for the third combination, and the pixel positions 402b, 403b, and 404 for the fourth combination are calculated. area S T4 of a triangle connecting the 404b are calculated.

そして、画像選択部47は、面積ST1〜ST4の内、最大の面積を特定し、最大の面積に対応する3枚の実低解像度画像を3枚の演算対象画像として選択する。例えば、面積ST1〜ST4の内、面積ST1が最大であるのならば、面積ST1に対応する画像F1、F2及びF3が3枚の演算対象画像として選択され、面積ST4が最大であるのならば、面積ST4に対応する画像F2、F3及びF4が3枚の演算対象画像として選択される。 Then, the image selection unit 47 specifies the maximum area among the areas S T1 to S T4 , and selects three actual low resolution images corresponding to the maximum area as three calculation target images. For example, among the area S T1 to S T4, if the area S T1 is at a maximum, the image F 1, F 2 and F 3 corresponding to the area S T1 is selected as the three calculation target image, the area S If T4 is the maximum, the images F 2 , F 3 and F 4 corresponding to the area S T4 are selected as three calculation target images.

図10は、画像F1〜F3が3枚の演算対象画像として選択される時の、共通座標系上における画像F1〜F4の画素位置関係を示している。図10の例では、画像F1〜F3の注目画素位置によって形成される三角形が、底辺及び高さがppL/2の二等辺三角形となっている。この二等辺三角形が形成されるとき、三角形の面積は最大化される。この二等辺三角形になるだけ近い(即ち、面積がなるだけ大きい)三角形に対応する3枚の実低解像度画像を3枚の演算対象画像として選択することにより、高解像度画像の実質的な解像度の最大化が図られる。 FIG. 10 shows the pixel positional relationship of the images F 1 to F 4 on the common coordinate system when the images F 1 to F 3 are selected as three calculation target images. In the example of FIG. 10, the triangle formed by the target pixel positions of the images F 1 to F 3 is an isosceles triangle having a base and a height of pp L / 2. When this isosceles triangle is formed, the area of the triangle is maximized. By selecting three real low-resolution images corresponding to the triangle as close as possible to the isosceles triangle (that is, the area as large as possible) as three calculation target images, the substantial resolution of the high-resolution image can be reduced. Maximize.

仮に、共通座標系上における画像F1〜F4の画素位置関係が図11に示すような状況にある時において、画像F1〜F3を3枚の演算対象画像として選択しても、画像F2及びF3の存在は、高解像度画像の実質的な解像度向上に殆ど寄与しない。この点からも、面積に基づく選択最適化処理の意義が理解される。 If the pixel positions of the images F 1 to F 4 on the common coordinate system are in the situation as shown in FIG. 11, even if the images F 1 to F 3 are selected as three calculation target images, the image The presence of F 2 and F 3 hardly contributes to a substantial resolution improvement of the high resolution image. From this point, the significance of the area-based selection optimization process is understood.

<<第3実施例>>
本発明の第3実施例を説明する。第3実施例に係る映像信号処理部13は、図5に示すそれと同様であり、第1実施例に記載した事項が第3実施例にも適用される。但し、第3実施例では、m=4であるものとする。これに伴い、nは5以上の整数とされ、5枚以上の実低解像度画像がメモリ40を介して画像選択部47に入力される。説明の具体化のため、今、n=5であるものとする。この場合、動き量算出部45によって、動き量MV12、MV23及びMV34に加えて、実低解像度画像F4及びF5間の動き量MV45も算出される。動き量記憶部46に記憶されたそれらの動き量に基づいて、共通座標系上における画像F1〜F5の画素位置関係が決定される。
<< Third Example >>
A third embodiment of the present invention will be described. The video signal processing unit 13 according to the third embodiment is the same as that shown in FIG. 5, and the items described in the first embodiment are also applied to the third embodiment. However, in the third embodiment, m = 4. Accordingly, n is an integer of 5 or more, and 5 or more actual low resolution images are input to the image selection unit 47 via the memory 40. For the sake of concrete explanation, it is assumed that n = 5. In this case, the motion amount calculation unit 45 calculates the motion amount MV 45 between the actual low-resolution images F 4 and F 5 in addition to the motion amounts MV 12 , MV 23, and MV 34 . Based on the motion amounts stored in the motion amount storage unit 46, the pixel positional relationship of the images F 1 to F 5 on the common coordinate system is determined.

画像選択部47は、動き量記憶部46に記憶された各動き量に基づき、選択最適化処理によって5枚の実低解像度画像F1〜F5の中から4枚の実低解像度画像を選択し、選択した4枚の実低解像度画像を4枚の演算対象画像として超解像処理部48に出力する。 The image selection unit 47 selects four actual low-resolution images from the five actual low-resolution images F 1 to F 5 through the selection optimization process based on each motion amount stored in the motion amount storage unit 46. Then, the selected four real low-resolution images are output to the super-resolution processor 48 as four calculation target images.

第3実施例では、5枚の画像F1〜F5の中から4枚の画像(演算対象画像)を選択するべく、画像F1〜F5に含まれる4枚の画像を4枚の評価画像として抽出し、4枚の評価画像に対して、超解像処理に対する適性を評価する。n個のものからm個のものをとってできる組み合わせの個数は、nmである。今の例では、n=5且つm=4を想定しているため、nm54=5であり、5枚の画像F1〜F5から4枚の画像を選ぶ組み合わせには、第1〜第5の組み合わせがある。 In the third embodiment, in order to select the five four images from the image F 1 to F 5 (calculation target image), the evaluation of four four images included in the image F 1 to F 5 The images are extracted and the suitability for the super-resolution processing is evaluated for the four evaluation images. The number of combinations that can be taken from n to m is n C m . In this example, since n = 5 and m = 4 are assumed, n C m = 5 C 4 = 5, and a combination of selecting four images from five images F 1 to F 5 is used. There are first to fifth combinations.

4枚の評価画像を記号FA、FB、FC及びFDにて表す。そうすると、第1、第2、第3、第4、第5の組み合わせにおいて、夫々、(A,B,C,D)=(1,2,3,4)、(1,2,3,5)、(1,2,4,5)、(1,3,4,5)、(2,3,4,5)である。 Four evaluation images are represented by symbols F A , F B , F C and F D. Then, in the first, second, third, fourth, and fifth combinations, (A, B, C, D) = (1, 2, 3, 4), (1, 2, 3, 5), respectively. ), (1,2,4,5), (1,3,4,5), (2,3,4,5).

画像選択部47は、評価画像FAの注目画素位置と評価画像FBの注目画素位置と評価画像FCの注目画素位置と評価画像FDの注目画素位置とを結ぶ四角形の面積を導出する四角形面積導出処理を、第1〜第5の組み合わせの夫々に対して実行し、第1〜第5の組み合わせに対して導出された5つの面積の内、最大の面積に対応する4枚の実低解像度画像を4枚の演算対象画像として選択する。 Image selecting unit 47 derives the area of the rectangle connecting the target pixel position of the evaluation image F evaluation target pixel position in image A F evaluation image F D between the target pixel position and the pixel-of-interest position of the evaluation image F C of B The square area derivation process is executed for each of the first to fifth combinations, and the four actual areas corresponding to the maximum area among the five areas derived for the first to fifth combinations are processed. The low resolution image is selected as four calculation target images.

四角形面積導出処理について説明する。まず、評価画像FAの注目画素位置は、評価画像FA上の任意の1つの画素位置である。第1実施例と同様、画像選択部47は、評価画像FAの注目画素位置を中心とする基準矩形領域を設定する。その基準矩形領域内に位置する、評価画像FB、FC及びFDの画素位置が、評価画像FB、FC及びFDの注目画素位置である。よって、評価画像FBの注目画素位置は、評価画像FBの画素位置群の内、評価画像FAの注目画素位置の最近傍に位置する画素位置であり、評価画像FCの注目画素位置は、評価画像FCの画素位置群の内、評価画像FAの注目画素位置の最近傍に位置する画素位置であり、評価画像FDの注目画素位置は、評価画像FDの画素位置群の内、評価画像FAの注目画素位置の最近傍に位置する画素位置である。 The square area derivation process will be described. First, the target pixel position of the evaluation image F A is an arbitrary one pixel positions on the evaluation image F A. As in the first embodiment, the image selection unit 47 sets a reference rectangular area centered on the target pixel position of the evaluation image F A. Its located reference rectangular region, the evaluation image F B, the pixel positions of F C and F D, is a target pixel position of the evaluation image F B, F C and F D. Thus, the target pixel position of the evaluation image F B, the evaluation of the pixel position groups of images F B, a pixel position that is located closest to the target pixel position of the evaluation image F A, the target pixel position of the evaluation image F C the evaluation of the pixel position group image F C, a recently pixel positions located near the target pixel position of the evaluation image F a, the target pixel position of the evaluation image F D is the pixel position group evaluation image F D Among these, the pixel position is located closest to the target pixel position of the evaluation image F A.

従って、仮に共通座標系上において画像F1〜F4の画素が図8に示すような位置に配置されているならば、第1の組み合わせに対して画素位置401a、402a、403a及び404aを結ぶ四角形の面積SR1が算出される。同様にして、第2〜第5の組み合わせに対して、夫々、四角形の面積SR2〜SR5が算出される。 Therefore, if the pixels of the images F 1 to F 4 are arranged at the positions shown in FIG. 8 on the common coordinate system, the pixel positions 401a, 402a, 403a, and 404a are connected to the first combination. A square area S R1 is calculated. Similarly, square areas S R2 to S R5 are calculated for the second to fifth combinations, respectively.

画像選択部47は、面積SR1〜SR5の内、最大の面積を特定し、最大の面積に対応する4枚の実低解像度画像を4枚の演算対象画像として選択する。例えば、面積SR1〜SR5の内、面積SR1が最大であるのならば、面積SR1に対応する画像F1〜F4が4枚の演算対象画像として選択され、面積SR5が最大であるのならば、面積SR5に対応する画像F2〜F5が4枚の演算対象画像として選択される。 The image selection unit 47 specifies the maximum area among the areas S R1 to S R5 , and selects four actual low-resolution images corresponding to the maximum area as four calculation target images. Maximum example, among the area S R1 to S R5, if the area S R1 is maximum, the image F 1 to F 4 corresponding to the area S R1 is selected as four calculation target image, the area S R5 is If so, the images F 2 to F 5 corresponding to the area S R5 are selected as four calculation target images.

図12は、画像F1〜F4が4枚の演算対象画像として選択される時の、共通座標系上における画像F1〜F4の画素位置関係を示している。図12の例では、画像F1〜F4の注目画素位置によって形成される四角形が、一辺の長さがppL/2の正方形となっている。この正方形が形成されるとき、四角形の面積は最大化される。この正方形になるだけ近い(即ち、面積がなるだけ大きい)四角形に対応する4枚の実低解像度画像を4枚の演算対象画像として選択することにより、高解像度画像の実質的な解像度の最大化が図られる。 FIG. 12 shows the pixel positional relationship of the images F 1 to F 4 on the common coordinate system when the images F 1 to F 4 are selected as four calculation target images. In the example of FIG. 12, the quadrangle formed by the target pixel positions of the images F 1 to F 4 is a square having a side length of pp L / 2. When this square is formed, the square area is maximized. By selecting four actual low-resolution images corresponding to the square as close as possible to the square (that is, as large as possible) as four calculation target images, the substantial resolution of the high-resolution image is maximized. Is planned.

<<第4実施例>>
本発明の第4実施例を説明する。第2及び第3実施例では、m=3及びm=4であることを想定し、三角形及び四角形の面積の導出を介して演算対象画像の選択を行っているが、第4実施例では、mが3以上の任意の整数であることを想定して、選択最適化処理を一般化する。n>mであるため、第4実施例では、nは4以上の整数である。n=4且つm=3であるならば第4実施例に係る選択最適化処理は第2実施例のそれと同じであり、n=5且つm=4であるならば、第4実施例に係る選択最適化処理は第3実施例のそれと同じである。
<< 4th Example >>
A fourth embodiment of the present invention will be described. In the second and third embodiments, assuming that m = 3 and m = 4, the calculation target image is selected through the derivation of the area of the triangle and the quadrangle. In the fourth embodiment, Assuming that m is an arbitrary integer equal to or greater than 3, the selection optimization process is generalized. Since n> m, n is an integer of 4 or more in the fourth embodiment. If n = 4 and m = 3, the selection optimization process according to the fourth embodiment is the same as that of the second embodiment. If n = 5 and m = 4, the selection optimization process according to the fourth embodiment is performed. The selection optimization process is the same as that of the third embodiment.

第4実施例に係る画像選択部47には、n枚の実低解像度画像がメモリ40を介して画像選択部47に入力される。動き量算出部45は、画像Fiと画像Fj間の動き量を算出し、動き量算出部45によって算出された動き量は動き量記憶部46に記憶される。ここで、i及びjは、1以上n以下の整数である。但し、i≠jである。動き量記憶部46に記憶された各動き量に基づいて、共通座標系上における画像F1〜Fnの画素位置関係が決定される。 In the image selection unit 47 according to the fourth embodiment, n actual low-resolution images are input to the image selection unit 47 via the memory 40. The motion amount calculation unit 45 calculates a motion amount between the images F i and F j, and the motion amount calculated by the motion amount calculation unit 45 is stored in the motion amount storage unit 46. Here, i and j are integers of 1 or more and n or less. However, i ≠ j. Based on each motion amount stored in the motion amount storage unit 46, the pixel positional relationship of the images F 1 to F n on the common coordinate system is determined.

画像選択部47は、動き量記憶部46に記憶された各動き量に基づき、選択最適化処理によってn枚の実低解像度画像F1〜Fnの中からm枚の実低解像度画像を選択し、選択したm枚の実低解像度画像をm枚の演算対象画像として超解像処理部48に出力する。 The image selection unit 47 selects m actual low resolution images from the n actual low resolution images F 1 to F n by the selection optimization process based on each motion amount stored in the motion amount storage unit 46. Then, the selected m actual low-resolution images are output to the super-resolution processing unit 48 as m calculation target images.

画像選択部47は、n枚の画像F1〜Fnの中からm枚の画像(演算対象画像)を選択するべく、画像F1〜Fnに含まれるm枚の画像をm枚の評価画像として抽出し、m枚の評価画像に対して、超解像処理に対する適性を評価する。n個のものからm個のものをとってできる組み合わせの個数は、nmである。従って、評価画像の組み合わせには、第1〜第nmの組み合わせがある。各組み合わせにおいて、m枚の評価画像は第1〜第mの評価画像から形成される。 Image selecting section 47 to select the m images (operation target image) from among the n images F 1 to F n, evaluate the m images contained in the image F 1 to F n of the m sheets An image is extracted, and the suitability for super-resolution processing is evaluated for m evaluation images. The number of combinations that can be taken from n to m is n C m . Therefore, the combination of the evaluation image, a combination of the first to n C m. In each combination, m evaluation images are formed from the first to mth evaluation images.

画像選択部47は、第1〜第mの評価画像の注目画素位置を結んで形成されるm角形の面積を導出する多角形面積導出処理を、第1〜第nmの組み合わせの夫々に対して実行し、第1〜第nmの組み合わせに対して導出されたnm個の面積の内、最大の面積に対応するm枚の実低解像度画像をm枚の演算対象画像として選択する。 The image selection unit 47 performs a polygonal area deriving process for deriving an m-gonal area formed by connecting the target pixel positions of the first to mth evaluation images to each of the combinations of the first to nth m m. The m actual low resolution images corresponding to the largest area among the n C m areas derived for the first to n C m combinations are executed as m calculation target images. select.

多角形面積導出処理について説明する。まず、第1の評価画像の注目画素位置は、第1の評価画像上の任意の1つの画素位置である。第1実施例と同様、画像選択部47は、第1の評価画像の注目画素位置を中心とする基準矩形領域を設定する。その基準矩形領域内に位置する、第2〜第mの評価画像の画素位置が、第2〜第mの評価画像の注目画素位置である。よって、iを2以上m以下の整数として考えたならば、第iの評価画像の注目画素位置は、第iの評価画像の画素位置群の内、第1の評価画像の注目画素位置の最近傍に位置する画素位置である。   The polygon area derivation process will be described. First, the target pixel position of the first evaluation image is any one pixel position on the first evaluation image. Similar to the first embodiment, the image selection unit 47 sets a reference rectangular area centered on the target pixel position of the first evaluation image. The pixel positions of the second to mth evaluation images located in the reference rectangular area are the target pixel positions of the second to mth evaluation images. Therefore, if i is considered as an integer of 2 or more and m or less, the target pixel position of the i-th evaluation image is the latest of the target pixel position of the first evaluation image in the pixel position group of the i-th evaluation image. This is a pixel position located nearby.

<<第5実施例>>
本発明の第5実施例を説明する。第5実施例に係る映像信号処理部13は、図5に示すそれと同様であり、第1実施例に記載した事項が第5実施例にも適用される。第2〜第4実施例では、m≧3の時、多角形の面積を導出することによって選択最適化処理を実現しているが、第5実施例では、面積を導出するのではなく、多角形の頂点間距離の総和を導出することによって選択最適化処理を実現する。基本的に、多角形の面積が増大するにつれて多角形の頂点間距離の総和も増大するので、第5実施例によっても第2〜第4実施例と同様の効果が得られる。
<< 5th Example >>
A fifth embodiment of the present invention will be described. The video signal processing unit 13 according to the fifth embodiment is the same as that shown in FIG. 5, and the items described in the first embodiment are also applied to the fifth embodiment. In the second to fourth embodiments, when m ≧ 3, the selection optimization process is realized by deriving the polygonal area. However, in the fifth embodiment, the area is not derived, The selection optimization process is realized by deriving the sum of the distances between the vertexes of the squares. Basically, as the area of the polygon increases, the sum of the distances between the vertices of the polygon also increases. Therefore, the fifth embodiment can provide the same effects as those of the second to fourth embodiments.

第5実施例において、mは3以上の任意の整数であってよいが、説明の具体化のため、第5実施例では、m=3であるとする。更に、n=4であるとする。   In the fifth embodiment, m may be an arbitrary integer equal to or greater than 3, but in the fifth embodiment, it is assumed that m = 3 for the sake of concrete description. Furthermore, it is assumed that n = 4.

この場合、画像選択部47は、動き量記憶部46に記憶された各動き量に基づき、選択最適化処理によって4枚の実低解像度画像F1〜F4の中から3枚の実低解像度画像を選択し、選択した3枚の実低解像度画像を3枚の演算対象画像として超解像処理部48に出力する。 In this case, the image selection unit 47 selects three actual low resolutions from among the four actual low resolution images F 1 to F 4 through the selection optimization process based on each motion amount stored in the motion amount storage unit 46. An image is selected, and the selected three real low-resolution images are output to the super-resolution processor 48 as three calculation target images.

画像選択部47は、4枚の画像F1〜F4の中から3枚の画像(演算対象画像)を選択するべく、画像F1〜F4に含まれる3枚の画像を3枚の評価画像として抽出し、3枚の評価画像に対して、超解像処理に対する適性を評価する。n個のものからm個のものをとってできる組み合わせの個数は、nmである。今の例では、n=4且つm=3を想定しているため、nm43=4であり、4枚の画像F1〜F4から3枚の画像を選ぶ組み合わせには、第1〜第4の組み合わせがある。 Image selecting section 47 to select the three images (operation target image) from among the four images F 1 to F 4, evaluation of three, three images included in the image F 1 to F 4 Extracted as images, the suitability for super-resolution processing is evaluated for the three evaluation images. The number of combinations that can be taken from n to m is n C m . In this example, since n = 4 and m = 3 are assumed, n C m = 4 C 3 = 4, and a combination of selecting three images from the four images F 1 to F 4 is used. There are first to fourth combinations.

第2実施例と同様、3枚の評価画像を記号FA、FB及びFCにて表す。そうすると、第1、第2、第3、第4の組み合わせにおいて、夫々、(A,B,C)=(1,2,3)、(1,2,4)、(1,3,4)、(2,3,4)である。 Similar to the second embodiment, the three evaluation images are represented by symbols F A , F B and F C. Then, in the first, second, third, and fourth combinations, (A, B, C) = (1, 2, 3), (1, 2, 4), (1, 3, 4), respectively. , (2, 3, 4).

画像選択部47は、評価画像FAの注目画素位置と評価画像FBの注目画素位置と評価画像FCの注目画素位置とを結ぶ三角形の頂点間距離の総和を導出する総和導出処理を、第1〜第4の組み合わせの夫々に対して実行し、第1〜第4の組み合わせに対して導出された4つの総和の内、最大の総和に対応する3枚の実低解像度画像を3枚の演算対象画像として選択する。第1〜第4の組み合わせに対して導出される総和を、夫々、SUM1〜SUM4にて表す。 The image selection unit 47 performs a sum derivation process for deriving the sum of the distances between the vertices of the triangles connecting the target pixel position of the evaluation image F A , the target pixel position of the evaluation image F B , and the target pixel position of the evaluation image F C. Three real low-resolution images corresponding to the maximum sum among the four sums derived for the first to fourth combinations are executed for each of the first to fourth combinations. Is selected as the calculation target image. Sums derived for the first to fourth combinations are represented by SUM 1 to SUM 4, respectively.

総和導出処理について説明する。評価画像FA〜FCの注目画素位置の意義は、第2実施例で述べたものと同じである。iが1、2、3又は4である場合、第iの組み合わせに対する総和導出処理では、評価画像FA及びFBの注目画素位置間の距離と、評価画像FB及びFCの注目画素位置間の距離と、評価画像FA及びFCの注目画素位置間の距離との総和SUMiが求められる。従って、図8及び図9に示す例では、第1の組み合わせに対して、画素位置401a及び402a間の距離d12と画素位置402a及び403a間の距離d23と画素位置401a及び403a間の距離d13との総和(d12+d23+d13)が求められ、その総和(d12+d23+d13)がSUM1とされる。同様に、第2の組み合わせに対して、画素位置401a及び402a間の距離d12と画素位置402a及び404a間の距離d24と画素位置401a及び404a間の距離d14との総和(d12+d24+d14)が求められ、その総和(d12+d24+d14)がSUM2とされる。第3及び第4の組み合わせについても同様である。 The sum derivation process will be described. The significance of the target pixel position of the evaluation images F A to F C is the same as that described in the second embodiment. When i is 1, 2, 3 or 4, in the sum derivation process for the i-th combination, the distance between the target pixel positions of the evaluation images F A and F B and the target pixel position of the evaluation images F B and F C And the sum SUM i of the distance between the target pixel positions of the evaluation images F A and F C is obtained. Thus, in the example shown in FIGS. 8 and 9, the first combination, the distance between the pixel positions 401a and distance d 23 and the pixel position of the distance d 12 and pixel positions 402a and 403a between 402a 401a and 403a the sum of the d 13 (d 12 + d 23 + d 13) is obtained, the sum (d 12 + d 23 + d 13) is the sUM 1. Similarly, for the second combination, the sum (d 12 + d) of the distance d 12 between the pixel positions 401a and 402a, the distance d 24 between the pixel positions 402a and 404a, and the distance d 14 between the pixel positions 401a and 404a. 24 + d 14 ) is obtained, and the sum (d 12 + d 24 + d 14 ) is defined as SUM 2 . The same applies to the third and fourth combinations.

そして、画像選択部47は、総和SUM1〜SUM4の内、最大の総和を特定し、最大の総和に対応する3枚の実低解像度画像を3枚の演算対象画像として選択する。例えば、総和SUM1〜SUM4の内、総和SUM1が最大であるのならば、総和SUM1に対応する画像F1、F2及びF3が3枚の演算対象画像として選択され、総和SUM4が最大であるのならば、総和SUM4に対応する画像F2、F3及びF4が3枚の演算対象画像として選択される。 Then, the image selection unit 47 specifies the maximum sum among the sums SUM 1 to SUM 4 and selects three actual low-resolution images corresponding to the maximum sum as three calculation target images. For example, if the sum SUM 1 is the largest among the sums SUM 1 to SUM 4 , the images F 1 , F 2 and F 3 corresponding to the sum SUM 1 are selected as three calculation target images, and the sum SUM If 4 is the maximum, the images F 2 , F 3 and F 4 corresponding to the sum SUM 4 are selected as three calculation target images.

尚、図8に示す状況と異なるが、仮に画素位置401a、402a及び403aが一直線上に並ぶ場合、総和(d12+d23+d13)として算出されるSUM1は、三角形の頂点間距離の総和とは呼べない。総和SUM2〜SUM4についても同様のことが言える。このような場合においても、総和SUMiの算出方法及び総和SUMiに基づく3枚の演算対象画像の選択方法は、上述したものと同様である(上述の説明では、図8に示す状況との整合を考慮して、総和(d12+d23+d13)を三角形の頂点間距離の総和と呼んだに過ぎない)。 Although different from the situation shown in FIG. 8, if the pixel positions 401a, 402a, and 403a are aligned on a straight line, SUM 1 calculated as the sum (d 12 + d 23 + d 13 ) is the sum of the distances between the vertices of the triangle. I can't call it. The same can be said for the sums SUM 2 to SUM 4 . In such a case, the selection method of the sum SUM i 3 pieces of arithmetic target image based on the calculation method and the sum SUM i of are similar to those described above (in the above description, the situation shown in FIG. 8 In consideration of matching, the sum (d 12 + d 23 + d 13 ) is simply called the sum of the distances between the vertices of the triangle).

また、以下のように、多角形の頂点間の水平及び垂直方向距離を個別に求め、水平及び垂直方向距離の総和を求めるようにしてもよい。このような総和を求める処理を変形総和導出処理と呼ぶ。iが1、2、3又は4である場合、第iの組み合わせに対する変形総和導出処理では、図13に示す如く、評価画像FA及びFBの注目画素位置間の水平方向距離dABH、評価画像FB及びFCの注目画素位置間の水平方向距離dBCH、評価画像FA及びFCの注目画素位置間の水平方向距離dACH、評価画像FA及びFBの注目画素位置間の垂直方向距離dABV、評価画像FB及びFCの注目画素位置間の垂直方向距離dBCV、並びに、評価画像FA及びFCの注目画素位置間の垂直方向距離dACVが求められ、それらの距離の総和(dABH+dBCH+dACH+dABV+dBCV+dACV)が、総和SUMiとして算出される。総和SUMiが算出された後の動作は、上述したものと同じである。図13において、位置450A、450B及び450Cは、夫々、評価画像FA、FB及びFCの注目画素位置を表している。 Further, as described below, the horizontal and vertical distances between the vertices of the polygon may be obtained individually, and the sum of the horizontal and vertical distances may be obtained. Such a process for obtaining the sum is referred to as a modified sum derivation process. When i is 1, 2, 3 or 4, in the deformation sum derivation process for the i-th combination, as shown in FIG. 13, the horizontal distance d ABH between the target pixel positions of the evaluation images F A and F B , evaluation The horizontal distance d BCH between the target pixel positions of the images F B and F C , the horizontal distance d ACH between the target pixel positions of the evaluation images F A and F C , and the target pixel positions of the evaluation images F A and F B. The vertical distance d ABV , the vertical distance d BCV between the target pixel positions of the evaluation images F B and F C , and the vertical distance d ACV between the target pixel positions of the evaluation images F A and F C are obtained. Of the distances (d ABH + d BCH + d ACH + d ABV + d BCV + d ACV ) is calculated as the total sum SUM i . The operation after the sum SUM i is calculated is the same as described above. In FIG. 13, positions 450A, 450B, and 450C represent the target pixel positions of the evaluation images F A , F B, and F C , respectively.

尚、図13に示す状況と異なるが、仮に位置450A、450B及び450Cが一直線上に並ぶ場合は、総和(dABH+dBCH+dACH+dABV+dBCV+dACV)として算出されるSUMiは三角形の頂点間の水平及び垂直方向距離とは呼べない。但し、このような場合においても、水平及び垂直方向距離に基づく総和SUMiの算出方法は、上述したものと同様である。 Note that, unlike the situation shown in FIG. 13, if the positions 450A, 450B, and 450C are arranged in a straight line, SUM i calculated as the sum (d ABH + d BCH + d ACH + d ABV + d BCV + d ACV ) is a triangle. It cannot be called the horizontal and vertical distance between vertices. However, even in such a case, the method for calculating the sum SUM i based on the horizontal and vertical distances is the same as that described above.

<<第6実施例>>
本発明の第6実施例を説明する。第6実施例では、mが3以上の任意の整数であることを想定して、第5実施例における総和導出処理を用いた選択最適化処理を一般化する。n>mであるため、第6実施例では、nは4以上の整数である。n=4且つm=3であるならば第6実施例に係る選択最適化処理は第5実施例にて具体的に示したものと同じである。
<< Sixth Example >>
A sixth embodiment of the present invention will be described. In the sixth embodiment, assuming that m is an arbitrary integer equal to or greater than 3, the selection optimization process using the sum derivation process in the fifth embodiment is generalized. Since n> m, n is an integer of 4 or more in the sixth embodiment. If n = 4 and m = 3, the selective optimization process according to the sixth embodiment is the same as that specifically shown in the fifth embodiment.

第6実施例に係る画像選択部47には、n枚の実低解像度画像がメモリ40を介して入力される。動き量算出部45は、画像Fiと画像Fj間の動き量を算出し、動き量算出部45によって算出された動き量は動き量記憶部46に記憶される。ここで、i及びjは、1以上n以下の整数である。但し、i≠jである。動き量記憶部46に記憶された各動き量に基づいて、共通座標系上における画像F1〜Fnの画素位置関係が決定される。 The image selection unit 47 according to the sixth example receives n actual low resolution images via the memory 40. The motion amount calculation unit 45 calculates a motion amount between the images F i and F j, and the motion amount calculated by the motion amount calculation unit 45 is stored in the motion amount storage unit 46. Here, i and j are integers of 1 or more and n or less. However, i ≠ j. Based on each motion amount stored in the motion amount storage unit 46, the pixel positional relationship of the images F 1 to F n on the common coordinate system is determined.

画像選択部47は、動き量記憶部46に記憶された各動き量に基づき、選択最適化処理によってn枚の実低解像度画像F1〜Fnの中からm枚の実低解像度画像を選択し、選択したm枚の実低解像度画像をm枚の演算対象画像として超解像処理部48に出力する。 The image selection unit 47 selects m actual low resolution images from the n actual low resolution images F 1 to F n by the selection optimization process based on each motion amount stored in the motion amount storage unit 46. Then, the selected m actual low-resolution images are output to the super-resolution processing unit 48 as m calculation target images.

画像選択部47は、n枚の画像F1〜Fnの中からm枚の画像(演算対象画像)を選択するべく、画像F1〜Fnに含まれるm枚の画像をm枚の評価画像として抽出し、m枚の評価画像に対して、超解像処理に対する適性を評価する。n個のものからm個のものをとってできる組み合わせの個数は、nmである。従って、評価画像の組み合わせには、第1〜第nmの組み合わせがある。各組み合わせにおいて、m枚の評価画像は第1〜第mの評価画像から形成される。 Image selecting section 47 to select the m images (operation target image) from among the n images F 1 to F n, evaluate the m images contained in the image F 1 to F n of the m sheets An image is extracted, and the suitability for super-resolution processing is evaluated for m evaluation images. The number of combinations that can be taken from n to m is n C m . Therefore, the combination of the evaluation image, a combination of the first to n C m. In each combination, m evaluation images are formed from the first to mth evaluation images.

画像選択部47は、第1〜第mの評価画像の注目画素位置を結んで形成されるm角形の頂点間距離の総和を導出する総和導出処理を、第1〜第nmの組み合わせの夫々に対して実行し、第1〜第nmの組み合わせに対して導出されたnm個の総和の内、最大の総和に対応するm枚の実低解像度画像をm枚の演算対象画像として選択する。 The image selection unit 47 performs summation derivation processing for deriving the summation of distances between m-vertex vertices formed by connecting the target pixel positions of the first to m-th evaluation images, as a combination of the first to n-th C m combinations. The m low resolution images corresponding to the maximum sum among the n C m sums derived for the first to n C m combinations are executed for each of the first to n C m combinations. Select as an image.

総和導出処理について説明する。第1〜第mの評価画像の注目画素位置の意義は、第4実施例で述べたものと同じである。iを1以上であって且つnm以下の整数とし且つ変数p及びqを1以上m以下の整数とした場合(但し、p≠q)、第iの組み合わせに対する総和導出処理では、第p及び第qの評価画像の注目画素位置間の距離を、変数pとqの全ての組み合わせに対して求め、求めた全距離の合算値を、第iの組み合わせに対して求められるべき総和とする。尚、第5実施例で述べた変形総和導出処理によって総和を求めることも可能である。 The sum derivation process will be described. The significance of the target pixel position of the first to mth evaluation images is the same as that described in the fourth embodiment. When i is an integer greater than or equal to 1 and less than or equal to n C m and variables p and q are integers greater than or equal to 1 and less than or equal to m (where p ≠ q), in the summation derivation process for the i-th combination, And the distance between the target pixel positions of the q-th evaluation image are obtained for all combinations of the variables p and q, and the sum of the obtained total distances is the sum to be obtained for the i-th combination. . It is also possible to obtain the sum by the modified sum derivation process described in the fifth embodiment.

また、第5実施例でも述べたのと同様、第1〜第mの評価画像の注目画素位置の位置関係によっては(例えば、それらが一直線上に並ぶ場合においては)、上記の全距離の合算値はm角形の頂点間距離の総和とは呼べないが、このような場合においても、総和の算出方法及び該総和に基づくm枚の演算対象画像の選択方法は、上述したものと同様である。   Further, as described in the fifth embodiment, depending on the positional relationship of the target pixel positions of the first to m-th evaluation images (for example, when they are aligned on a straight line), the total of the above total distances is added. Although the value cannot be called the sum of the distances between the apexes of the m-gon, even in such a case, the method for calculating the sum and the method for selecting m calculation target images based on the sum are the same as those described above. .

<<第7実施例>>
本発明の第7実施例を説明する。第7実施例では、共通座標系上におけるn枚の実低解像度画像の画素位置関係だけでなく、動き量の方向にも基づいて選択最適化処理が行われる。第7実施例に係る映像信号処理部13は、図5に示すそれと同様であり、第1実施例に記載した事項が第7実施例にも適用される。nは4以上であれば幾つでも良いが、説明の具体化のため、n=4であると想定する。mは2以上n未満であれば幾つでも良いが、説明の具体化のため、m=3であると想定する。この場合、画像選択部47は、動き量記憶部46に記憶された各動き量に基づき、選択最適化処理によって4枚の実低解像度画像F1〜F4の中から3枚の実低解像度画像を選択し、選択した3枚の実低解像度画像を3枚の演算対象画像として超解像処理部48に出力する。
<< Seventh Embodiment >>
A seventh embodiment of the present invention will be described. In the seventh embodiment, the selection optimization process is performed based not only on the pixel positional relationship of the n actual low resolution images on the common coordinate system but also on the direction of the motion amount. The video signal processing unit 13 according to the seventh embodiment is the same as that shown in FIG. 5, and the items described in the first embodiment are also applied to the seventh embodiment. Although n may be any number as long as it is 4 or more, it is assumed that n = 4 for the sake of concrete description. m may be any number as long as it is greater than or equal to 2 and less than n, but for the sake of concrete explanation, it is assumed that m = 3. In this case, the image selection unit 47 selects three actual low resolutions from among the four actual low resolution images F 1 to F 4 through the selection optimization process based on each motion amount stored in the motion amount storage unit 46. An image is selected, and the selected three real low-resolution images are output to the super-resolution processor 48 as three calculation target images.

画像選択部47は、4枚の画像F1〜F4の中から3枚の画像(演算対象画像)を選択するべく、画像F1〜F4に含まれる3枚の画像を3枚の評価画像FA、FB及びFCとして抽出し、3枚の評価画像に対して、超解像処理に対する適性を評価する。4枚の画像F1〜F4から3枚の評価画像を選ぶ組み合わせには、第1〜第4の組み合わせがある。第1、第2、第3、第4の組み合わせにおいて、夫々、(A,B,C)=(1,2,3)、(1,2,4)、(1,3,4)、(2,3,4)である。 Image selecting section 47 to select the three images (operation target image) from among the four images F 1 to F 4, evaluation of three, three images included in the image F 1 to F 4 Images F A , F B and F C are extracted and the suitability for the super-resolution processing is evaluated for the three evaluation images. There are first to fourth combinations for selecting three evaluation images from the four images F 1 to F 4 . In the first, second, third, and fourth combinations, (A, B, C) = (1, 2, 3), (1, 2, 4), (1, 3, 4), ( 2, 3, 4).

画像選択部47は、超解像処理に対する適性に応じた評価値を導出する評価値算出処理を、第1〜第4の組み合わせの夫々に対して実行し、第1〜第4の組み合わせに対して導出された4つの評価値の内、最大の評価値に対応する3枚の実低解像度画像を3枚の演算対象画像として選択する。第1〜第4の組み合わせに対して導出される評価値を、夫々、EV1〜EV4にて表す。 The image selection unit 47 executes an evaluation value calculation process for deriving an evaluation value according to suitability for the super-resolution process for each of the first to fourth combinations, and for the first to fourth combinations. Among the four evaluation values derived in this way, three actual low resolution images corresponding to the maximum evaluation value are selected as three calculation target images. Evaluation values derived for the first to fourth combinations are represented by EV 1 to EV 4, respectively.

評価値算出処理を説明する。画像選択部47は、動き記憶部46に記憶された動き量に基づき、評価画像FA及びFB間の動き量と画像FB及びFC間の動き量の平均動き量を基準動き量として算出する。また、図14に示す如く、画像の左下と右上を結ぶ方向を右斜め方向と呼び、画像の右下と左上を結ぶ方向を左斜め方向と呼ぶ。画像の垂直方向は上下方向に対応し、画像の水平方向は左右方向に対応する。 The evaluation value calculation process will be described. The image selection unit 47 uses, based on the motion amount stored in the motion storage unit 46, the average motion amount between the evaluation images F A and F B and the motion amount between the images F B and F C as a reference motion amount. calculate. Further, as shown in FIG. 14, the direction connecting the lower left and the upper right of the image is referred to as a diagonal right direction, and the direction connecting the lower right and the upper left of the image is referred to as a diagonal left direction. The vertical direction of the image corresponds to the up and down direction, and the horizontal direction of the image corresponds to the left and right direction.

算出された基準動き量の方向に最も近い方向が、右斜め方向、左斜め方向、上下方向及び左右方向の中から選択される。
選択された方向が右斜め方向である場合、右斜め方向が第1方向に設定され、それに直交する左斜め方向が第2方向に設定される。
選択された方向が左斜め方向である場合、左斜め方向が第1方向に設定され、それに直交する右斜め方向が第2方向に設定される。
選択された方向が上下方向である場合、上下方向が第1方向に設定され、それに直交する左右方向が第2方向に設定される。
選択された方向が左右方向である場合、左右方向が第1方向に設定され、それに直交する上下方向が第2方向に設定される。
The direction closest to the calculated reference motion amount direction is selected from the right diagonal direction, left diagonal direction, vertical direction, and horizontal direction.
When the selected direction is the right diagonal direction, the right diagonal direction is set as the first direction, and the left diagonal direction orthogonal thereto is set as the second direction.
When the selected direction is the left diagonal direction, the left diagonal direction is set as the first direction, and the right diagonal direction orthogonal to the selected direction is set as the second direction.
When the selected direction is the up-down direction, the up-down direction is set as the first direction, and the left-right direction orthogonal thereto is set as the second direction.
When the selected direction is the left-right direction, the left-right direction is set as the first direction, and the up-down direction perpendicular thereto is set as the second direction.

第1及び第2方向を定めた後、画像選択部47は、評価画像FA及びFBの注目画素位置間の第2方向に沿った距離と、評価画像FA及びFCの注目画素位置間の第2方向に沿った距離との総和を求める。第iの組み合わせに対して求められた総和が評価値EViとして取り扱われる。評価画像FA〜FCの注目画素位置の意義は、第2実施例で述べたものと同じである。 After determining the first and second directions, the image selection unit 47 determines the distance along the second direction between the target pixel positions of the evaluation images F A and F B and the target pixel position of the evaluation images F A and F C. The sum total with the distance along the second direction is obtained. The sum obtained for the i-th combination is treated as the evaluation value EV i . The significance of the target pixel position of the evaluation images F A to F C is the same as that described in the second embodiment.

例として、第1方向が右斜め方向に設定された場合における、第1の組み合わせに対する評価値算出処理を説明する。画像の動きの支配的方向、即ち第1方向が右斜め方向である場合、右斜め方向に比較的大きな画像の動きが存在するため、図15(a)に示すような、濃淡が右斜め方向に沿って変化するようなエッジ(以下、右斜めエッジという)はぼける。従って、このような場合に、右斜めエッジの解像度(解像力)増大を目指すような超解像処理を行っても効果は薄い。従って、第1方向が右斜め方向である場合は、図15(b)に示すような、濃淡が左斜め方向に沿って変化するようなエッジ(以下、左斜めエッジという)の高解像度化を目指す。   As an example, the evaluation value calculation process for the first combination when the first direction is set to the right diagonal direction will be described. When the dominant direction of image movement, that is, the first direction is the right diagonal direction, since there is a relatively large image movement in the right diagonal direction, the shading as shown in FIG. An edge that changes along the line (hereinafter referred to as a right diagonal edge) is blurred. Therefore, in such a case, even if super-resolution processing is performed so as to increase the resolution (resolution) of the right oblique edge, the effect is small. Accordingly, when the first direction is the right diagonal direction, the resolution of the edge whose shading changes along the left diagonal direction (hereinafter referred to as the left diagonal edge) as shown in FIG. aim.

第1方向が右斜め方向である場合、距離の導出に関与する第2方向は、上述したように左斜め方向である。従って、画像F1及びF2の注目画素位置間の左斜め方向に沿った距離dAB2と画像F1及びF3の注目画素位置間の左斜め方向に沿った距離dAC2との総和が求められ、その総和(dAB2+dAC2)を評価値EV1として取り扱う。この総和(dAB2+dAC2)の増大は、画像F1〜F3の画像情報に含まれる左斜め方向の情報量の増加につながり、この総和が増大すればするほど、画像F1〜F3を用いて得た高解像度画像上の左斜めエッジが理想的なものに近づく。 When the first direction is the right oblique direction, the second direction involved in the derivation of the distance is the left oblique direction as described above. Therefore, the sum of the distance d AC2 along the left oblique direction between the target pixel position of the distance d AB2 image F 1 and F 3 along the left oblique direction between the target pixel position of the image F 1 and F 2 is determined The sum (d AB2 + d AC2 ) is treated as the evaluation value EV 1 . This increase in total (d AB2 + d AC2) leads to an increase in the left oblique direction of the amount of information included in the image information of the image F 1 to F 3, the more the total sum to be increased, the image F 1 to F 3 The left diagonal edge on the high-resolution image obtained by using approaches the ideal one.

第2〜第4の組み合わせに対しても同様の評価値算出処理がなされ、上述したように、最大の評価値に対応する3枚の実低解像度画像が3枚の演算対象画像として選択される。これにより、画像の動きの方向に応じた最適な実低解像度画像が演算対象画像として選択され、高解像度画像の実質的な解像度の最大化が図られる。   Similar evaluation value calculation processing is performed for the second to fourth combinations, and as described above, three actual low-resolution images corresponding to the maximum evaluation value are selected as three calculation target images. . As a result, an optimum actual low-resolution image corresponding to the direction of motion of the image is selected as the calculation target image, and the substantial resolution of the high-resolution image is maximized.

上述の説明では、m=3である場合を想定したが、m=2である場合は、以下のようにすればよい。m=2である場合、画像選択部47は、画像F1〜F4に含まれる2枚の画像を2枚の評価画像FA及びFBとして抽出し、2枚の評価画像に対して、超解像処理に対する適性を評価する。4枚の画像F1〜F4から2枚の評価画像を選ぶ組み合わせには、第1〜第6の組み合わせがある。第1、第2、第3、第4、第5、第6の組み合わせにおいて、夫々、(A,B)=(1,2)、(1,3)、(1,4)、(2,3),(2,4)及び(3,4)である。 In the above description, it is assumed that m = 3. However, when m = 2, the following may be performed. When m = 2, the image selection unit 47 extracts two images included in the images F 1 to F 4 as two evaluation images F A and F B , and for the two evaluation images, Evaluate suitability for super-resolution processing. There are first to sixth combinations for selecting two evaluation images from the four images F 1 to F 4 . In the first, second, third, fourth, fifth and sixth combinations, (A, B) = (1,2), (1,3), (1,4), (2, 3), (2, 4) and (3,4).

画像選択部47は、超解像処理に対する適性に応じた評価値を導出する評価値算出処理を、第1〜第6の組み合わせの夫々に対して実行する。第1〜第6の組み合わせに対して導出される評価値を、夫々、EV1〜EV6にて表す。 The image selection unit 47 performs an evaluation value calculation process for deriving an evaluation value according to the suitability for the super-resolution process for each of the first to sixth combinations. Evaluation values derived for the first to sixth combinations are represented by EV 1 to EV 6, respectively.

m=2の場合は、評価画像FA及びFB間の動き量を基準動き量として取り扱った上で、上述した方法に従って第1及び第2方向を設定する。そして、画像選択部47は、評価画像FA及びFBの注目画素位置間の第2方向に沿った距離を求める。第iの組み合わせに対して求められた距離が評価値EViとして取り扱われる。そして、画像選択部47は、評価値EV1〜EV6の内、最大の評価値に対応する2枚の実低解像度画像を2枚の演算対象画像として選択する。これにより、画像の動きの支配的方向の直交方向に沿って濃淡変化が表れるようなエッジの高解像度化が促進される。 In the case of m = 2, the first and second directions are set according to the method described above after handling the motion amount between the evaluation images F A and F B as the reference motion amount. Then, the image selection unit 47 obtains a distance along the second direction between the target pixel positions of the evaluation images F A and F B. The distance obtained for the i-th combination is treated as the evaluation value EV i . Then, the image selection unit 47 selects two actual low-resolution images corresponding to the maximum evaluation value among the evaluation values EV 1 to EV 6 as two calculation target images. As a result, it is possible to increase the resolution of the edge so that a change in shading appears along a direction orthogonal to the dominant direction of the image motion.

<<第8実施例>>
本発明の第8実施例を説明する。第8実施例では、上述の各実施例にて説明された選択最適化処理の変形例を説明する。従って、第1〜第7実施例にて説明された事項は、適宜、第8実施例に取り込まれる。
<< Eighth Example >>
An eighth embodiment of the present invention will be described. In the eighth embodiment, a modified example of the selection optimization process described in each of the above embodiments will be described. Therefore, the matters described in the first to seventh embodiments are appropriately incorporated into the eighth embodiment.

第1実施例では、m枚の評価画像に対して、注目画素位置間の距離を1つだけ算出することを想定しているが、第1実施例における距離の算出処理を以下のように変形することもできる。この変形された算出処理を、変形算出処理と呼ぶ。   In the first embodiment, it is assumed that only one distance between target pixel positions is calculated for m evaluation images, but the distance calculation process in the first embodiment is modified as follows. You can also This modified calculation process is called a deformation calculation process.

まず、第8実施例では、動き量算出部45により2枚の実低解像度画像間に対して算出される動き量が、画像座標系上の様々な位置に対して求められた動きベクトル(動き量)の束から形成されることを前提とする。図16(b)の画像501及び502は、動き量算出用に対比される2枚の実低解像度画像を表しており、図16(a)の画像500は、画像501又は502である。今、図16(a)に示す如く、画像500の全体画像領域が9つの一部画像領域AR1〜AR9に分割され、一部画像領域AR1〜AR9の夫々に対して1つの動きベクトルが求められる場合を想定する。但し、一部画像領域の個数を9以外にすることも可能である。そして、図16(b)に示す如く、一部画像領域AR1〜AR9に対して求められた、画像501及び502間の動きベクトルを、それぞれ記号M1〜M9によって表す。動きベクトルM1〜M9の夫々は、第1実施例で述べた動き量と同様、実低解像度画像の画素間隔よりも分解能の高い、いわゆるサブピクセルの分解能を有している。求められた各動きベクトルは、動き量記億部46に記憶される。 First, in the eighth embodiment, the motion amount calculated between the two actual low-resolution images by the motion amount calculation unit 45 is the motion vector (motion) calculated for various positions on the image coordinate system. It is assumed that it is formed from a bundle of (quantity). Images 501 and 502 in FIG. 16B represent two actual low-resolution images to be compared for motion amount calculation, and an image 500 in FIG. 16A is an image 501 or 502. Now, as shown in FIG. 16 (a), divided the entire image area is nine part of the image 500 in the image area AR 1 to Ar 9, 1 single motion with respect to each of the partial image regions AR 1 to Ar 9 Assume that a vector is required. However, the number of partial image areas can be other than nine. Then, as shown in FIG. 16 (b), were determined for partial image regions AR 1 to Ar 9, the motion vector between the images 501 and 502, respectively represented by the symbol M 1 ~M 9. Each of the motion vectors M 1 to M 9 has a so-called sub-pixel resolution that is higher in resolution than the pixel interval of the actual low-resolution image, like the amount of motion described in the first embodiment. Each obtained motion vector is stored in the motion amount storage unit 46.

第1実施例では、動き量MV12に基づいて画像F1及びF2の全体の格子位置を決定したが、変形算出処理では、これを、一部画像領域ごとに行う。即ち、一部画像領域AR1に対する画像F1及びF2間の動きベクトルM1に基づき、一部画像領域AR1において画像F1の基準とした画像F2の位置ずれが打ち消されるように、一部画像領域AR1における画像F1及びF2の格子を共通座標系上に設定する。一部画像領域AR2〜AR9に対しても同様の格子設定処理を行う。更に、画像F1及びF2以外の、2枚の実低解像度画像に対しても同様の格子設定処理を行う。このような、一部画像領域ごとの格子設定処理を、便宜上、変形格子設定処理と呼ぶ。 In the first embodiment, the entire lattice positions of the images F 1 and F 2 are determined based on the motion amount MV 12. However, in the deformation calculation process, this is performed for each partial image region. That is, based on the motion vector M 1 between the image F 1 and F 2 for the partial image area AR 1, so that the position deviation of the image F 2 on the basis of the image F 1 is canceled in some image areas AR 1, The grids of the images F 1 and F 2 in the partial image area AR 1 are set on the common coordinate system. The same lattice setting process is also performed for the partial image areas AR 2 to AR 9 . Further, the same lattice setting process is performed for two real low-resolution images other than the images F 1 and F 2 . Such a grid setting process for each partial image region is referred to as a modified grid setting process for convenience.

その後、評価画像FAの注目画素位置と評価画像FBの注目画素位置との距離を求める処理を一部画像領域AR1〜AR9の夫々に対して個別に行い、求められた9つの距離の合計距離を求める。この合計距離を求める演算は、第1〜第6の組み合わせの夫々に対して実行される。そして、画像選択部47は、第1〜第6の組み合わせに対して求められた6つの合計距離の内、最大の合計距離に対応する2枚の実低解像度画像を2枚の演算対象画像として選択する。 Thereafter, a process for obtaining the distance between the target pixel position of the evaluation image F A and the target pixel position of the evaluation image F B is individually performed for each of the partial image areas AR 1 to AR 9 , and the nine distances thus determined are obtained. Find the total distance. The calculation for obtaining the total distance is executed for each of the first to sixth combinations. Then, the image selection unit 47 sets two actual low-resolution images corresponding to the maximum total distance among the six total distances obtained for the first to sixth combinations as two calculation target images. select.

尚、評価画像FAの注目画素位置と評価画像FBの注目画素位置との距離を求める処理を一部画像領域AR1〜AR9の夫々に対して個別に行い、一部画像領域ごとに、演算対象画像の選択を行うことも可能である。この、一部画像領域ごとに演算対象画像の選択を行う処理を、変形選択処理と呼ぶ。 Note that the processing for obtaining the distance between the target pixel position of the evaluation image F A and the target pixel position of the evaluation image F B is performed individually for each of the partial image areas AR 1 to AR 9 , and for each partial image area. It is also possible to select a calculation target image. This process of selecting a calculation target image for each partial image area is referred to as a deformation selection process.

変形選択処理では、変形格子設定処理の実行後、評価画像FAの注目画素位置と評価画像FBの注目画素位置との距離を求める処理を一部画像領域AR1〜AR9の夫々に対して且つ第1〜第6の組み合わせの夫々に対して実行する。その後、一部画像領域AR1に関して、第1〜第6の組み合わせに対して求められた6つの距離の内の最大距離を特定し、最大距離に対応する2枚の実低解像度画像を、一部画像領域AR1に対する2枚の演算対象画像として選択する。同様にして、一部画像領域AR2〜AR9に対する2枚の演算対象画像を選択する。結果、或る一部画像領域に対する2枚の演算対象画像と、他の一部画像領域に対する2枚の演算対象画像は異なりうる。 In the deformation selection process, after executing the deformation grid setting process, a process for obtaining the distance between the target pixel position of the evaluation image F A and the target pixel position of the evaluation image F B is performed for each of the partial image areas AR 1 to AR 9. And for each of the first to sixth combinations. After that, regarding the partial image area AR 1 , the maximum distance among the six distances obtained for the first to sixth combinations is specified, and two actual low-resolution images corresponding to the maximum distance are identified. selected as two operation target image relative to parts image area AR 1. Similarly, two calculation target images for the partial image areas AR 2 to AR 9 are selected. As a result, two calculation target images for a certain partial image area may be different from two calculation target images for another partial image area.

例えば、一部画像領域AR1に対する演算対象画像として画像F1及びF2が選択され、一部画像領域AR2〜AR9に対する演算対象画像として画像F3及びF4が選択された場合、画像F1及びF2の一部画像領域AR1内の画像データと、画像F3及びF4の一部画像領域AR2〜AR9内の画像データとが、超解像処理部48に出力され、超解像処理部48は、一部画像領域ごとに超解像処理を行うことによって高解像度画像の全体の画像データを生成する。この場合、一部画像領域AR1に対応する高解像度画像の部分領域は、画像F1及びF2の一部画像領域AR1内の画像データに基づいて生成され、一部画像領域AR2〜AR9に対応する高解像度画像の部分領域は、画像F3及びF4の一部画像領域AR2〜AR9内の画像データに基づいて生成されることになる。 For example, when the images F 1 and F 2 are selected as the calculation target images for the partial image area AR 1 and the images F 3 and F 4 are selected as the calculation target images for the partial image areas AR 2 to AR 9 , The image data in the partial image area AR 1 of F 1 and F 2 and the image data in the partial image areas AR 2 to AR 9 of the images F 3 and F 4 are output to the super-resolution processor 48. The super-resolution processing unit 48 generates the entire image data of the high-resolution image by performing the super-resolution processing for each partial image region. In this case, the partial area of the high-resolution image corresponding to the partial image area AR 1 is generated based on the image data of the portion of the image F 1 and F 2 image regions AR 1, partial image areas AR 2 ~ partial region of the high-resolution image corresponding to AR 9 will be generated based on the image data of the partial image F 3 and F 4 image area AR 2 to Ar 9.

上述の変形算出処理は、第1実施例以外の他の実施例に適用することも可能である。例えば、第4実施例に変形算出処理を適用する場合、変形格子設定処理の実行後、第1〜第mの評価画像の注目画素位置を結んで形成されるm角形の面積を導出する処理を一部画像領域AR1〜AR9の夫々に対して個別に行い、求められた9つの面積の合計面積を求める。この合計面積を求める演算は、第1〜第nmの組み合わせの夫々に対して実行される。そして、画像選択部47は、第1〜第nmの組み合わせに対して求められたnm個の合計面積の内、最大の合計面積に対応するm枚の実低解像度画像をm枚の演算対象画像として選択する。 The deformation calculation process described above can also be applied to other embodiments other than the first embodiment. For example, when the deformation calculation process is applied to the fourth embodiment, the process of deriving the area of the m-gon formed by connecting the target pixel positions of the first to m-th evaluation images after executing the deformation grid setting process. This is performed individually for each of the partial image areas AR 1 to AR 9 , and the total area of the nine areas obtained is obtained. The calculation for obtaining the total area is executed for each of the first to n th C m combinations. The image selection unit 47 then selects m actual low-resolution images corresponding to the maximum total area among the n C m total areas obtained for the first to n-th n C m combinations. Is selected as the calculation target image.

また、第6実施例に変形算出処理を適用する場合、変形格子設定処理の実行後、第1〜第mの評価画像の注目画素位置を結んで形成されるm角形の頂点間距離の総和を導出する処理を一部画像領域AR1〜AR9の夫々に対して個別に行い、求められた9つの総和の合計値を求める。この合計値を求める演算は、第1〜第nmの組み合わせの夫々に対して実行される。そして、画像選択部47は、第1〜第nmの組み合わせに対して求められたnm個の合計値の内、最大の合計値に対応するm枚の実低解像度画像をm枚の演算対象画像として選択する。 In addition, when the deformation calculation process is applied to the sixth embodiment, the sum of the m-vertex inter-vertex distances formed by connecting the target pixel positions of the first to m-th evaluation images after the deformation grid setting process is executed. The derivation process is performed individually for each of the partial image areas AR 1 to AR 9 , and the total value of the nine sums obtained is obtained. The calculation for obtaining the total value is executed for each of the first to n th C m combinations. The image selection unit 47 then selects m actual low-resolution images corresponding to the maximum total value among the n C m total values obtained for the first to n-th n C m combinations. Is selected as the calculation target image.

上述の変形選択処理は、第1実施例以外の他の実施例に適用することも可能である。例えば、第4実施例に変形選択処理を適用する場合、変形格子設定処理の実行後、第1〜第mの評価画像の注目画素位置を結んで形成されるm角形の面積を導出する処理を一部画像領域AR1〜AR9の夫々に対して且つ第1〜第nmの組み合わせの夫々に対して実行する。その後、一部画像領域ARiに関して、第1〜第nmの組み合わせに対して求められたnm個の面積の内の最大面積を特定し、最大面積に対応するm枚の実低解像度画像を、一部画像領域ARiに対するm枚の演算対象画像として選択する。この選択は、i=1、2、3、4、5、6、7、8、9の夫々に対して実行される。一部画像領域ごとに選択された演算対象画像の画像データが超解像処理部48に出力され、その画像データに基づく高解像度画像が超解像処理によって生成される。 The deformation selection process described above can be applied to other embodiments other than the first embodiment. For example, when the deformation selection process is applied to the fourth embodiment, the process of deriving the area of the m-gon formed by connecting the target pixel positions of the first to m-th evaluation images after executing the deformation grid setting process. some image areas AR 1 and with respect to each of the to Ar 9 people run for the combination of each of the first to n C m. Thereafter, for the partial image area AR i , the maximum area among the n C m areas obtained for the first to n th n m m combinations is specified, and m actual lows corresponding to the maximum area are identified. The resolution image is selected as m calculation target images for the partial image area AR i . This selection is performed for i = 1, 2, 3, 4, 5, 6, 7, 8, and 9, respectively. Image data of the calculation target image selected for each partial image area is output to the super-resolution processing unit 48, and a high-resolution image based on the image data is generated by the super-resolution processing.

また、第6実施例に変形選択処理を適用する場合、変形格子設定処理の実行後、第1〜第mの評価画像の注目画素位置を結んで形成されるm角形の頂点間距離の総和を導出する処理を一部画像領域AR1〜AR9の夫々に対して且つ第1〜第nmの組み合わせの夫々に対して実行する。その後、一部画像領域ARiに関して、第1〜第nmの組み合わせに対して求められたnm個の総和の内の最大値を特定し、最大値に対応するm枚の実低解像度画像を、一部画像領域ARiに対するm枚の演算対象画像として選択する。この選択は、i=1、2、3、4、5、6、7、8、9の夫々に対して実行される。一部画像領域ごとに選択された演算対象画像の画像データが超解像処理部48に出力され、その画像データに基づく高解像度画像が超解像処理によって生成される。 When the deformation selection process is applied to the sixth embodiment, the sum of the m-vertex inter-vertex distances formed by connecting the target pixel positions of the first to m-th evaluation images after the deformation grid setting process is executed. The derivation process is executed for each of the partial image areas AR 1 to AR 9 and for each of the first to n th C m combinations. After that, regarding the partial image area AR i , the maximum value among the n C m totals obtained for the first to n-th n C m combinations is specified, and m actual lows corresponding to the maximum value are identified. The resolution image is selected as m calculation target images for the partial image area AR i . This selection is performed for i = 1, 2, 3, 4, 5, 6, 7, 8, and 9, respectively. Image data of the calculation target image selected for each partial image area is output to the super-resolution processing unit 48, and a high-resolution image based on the image data is generated by the super-resolution processing.

<<第9実施例>>
本発明の第9実施例を説明する。第9実施例では、図5の超解像処理部48の構成例を説明する。図17は、第9実施例に係る超解像処理部48の内部ブロック図である。図17の超解像処理部48は、符号61〜65によって参照される部位を備える。
<< Ninth Embodiment >>
A ninth embodiment of the present invention will be described. In the ninth embodiment, a configuration example of the super-resolution processing unit 48 in FIG. 5 will be described. FIG. 17 is an internal block diagram of the super-resolution processor 48 according to the ninth embodiment. The super-resolution processing unit 48 of FIG. 17 includes a part referred to by reference numerals 61 to 65.

初期高解像度推定部61は、図5の画像選択部47から出力されるm枚の演算対象画像としてのm枚の実低解像度画像と動き量記憶部46に記憶された動き量とに基づいて、初期高解像度画像を生成する。超解像処理部48では、m枚の演算対象画像としてのm枚の実低解像度画像の内、1枚が基準フレームとして且つ残りの(m−1)枚の夫々が参照フレームとして設定される。   The initial high-resolution estimation unit 61 is based on the m actual low-resolution images as the m calculation target images output from the image selection unit 47 in FIG. 5 and the motion amount stored in the motion amount storage unit 46. Generate an initial high resolution image. The super-resolution processing unit 48 sets one of m actual low-resolution images as m calculation target images as a reference frame and each of the remaining (m−1) images as a reference frame. .

初期高解像度推定部61は、動き量記憶部46に記憶された動き量に基づいて基準フレームに対する各参照フレームの位置ずれを検出し、それらの位置ずれを打ち消すための位置ずれ補正を行う。そして、位置ずれ補正後の基準フレーム及び参照フレームを組み合わせることによって、初期高解像度画像を生成する。初期高解像度画像の生成方法として、特開2006−41603号公報にも記載されているような、補間処理を用いた方法を利用可能である。   The initial high resolution estimator 61 detects a positional shift of each reference frame with respect to the base frame based on the motion amount stored in the motion amount storage unit 46, and performs a positional shift correction for canceling the positional shift. Then, an initial high-resolution image is generated by combining the base frame and the reference frame after the positional deviation correction. As a method for generating an initial high-resolution image, a method using an interpolation process as described in JP-A-2006-41603 can be used.

超解像処理部48にて生成される高解像度画像の画素位置は、基準フレームの画素位置を基準に設定される。図18に、共通座標系上における基準フレームの画素と高解像度画像の画素との位置関係を示す。この位置関係は、水平及び垂直方向において高解像度画像が低解像度画像の2倍の解像度を有している場合の位置関係である。図18において、4つの白丸は基準フレーム上の4つの画素を表し、9つの白三角は高解像度画像上の9つの画素を表している。図18に示す例では、基準フレーム上における4つの画素の配置位置と、高解像度画像上における4つの画素の配置位置とが一致している。つまり、高解像度画像は第1種類の画素と第2種類の画素とを備え、共通座標系において、第1種類の画素は、基準フレームの画素が配置される位置と同じ位置に配置される。そして、水平方向に隣接する第1種類の画素の中間位置、垂直方向に隣接する第1種類の画素の中間位置、及び、斜め方向に隣接する第1種類の画素の中間位置に、夫々、補間画素である第2種類の画素が配置される。   The pixel position of the high resolution image generated by the super-resolution processing unit 48 is set based on the pixel position of the reference frame. FIG. 18 shows the positional relationship between the pixels of the reference frame and the pixels of the high resolution image on the common coordinate system. This positional relationship is a positional relationship when the high-resolution image has twice the resolution of the low-resolution image in the horizontal and vertical directions. In FIG. 18, four white circles represent four pixels on the reference frame, and nine white triangles represent nine pixels on the high resolution image. In the example illustrated in FIG. 18, the arrangement positions of the four pixels on the reference frame coincide with the arrangement positions of the four pixels on the high resolution image. That is, the high-resolution image includes the first type pixel and the second type pixel, and the first type pixel is arranged at the same position as the position where the pixel of the reference frame is arranged in the common coordinate system. Then, interpolation is performed at the intermediate position of the first type pixel adjacent in the horizontal direction, the intermediate position of the first type pixel adjacent in the vertical direction, and the intermediate position of the first type pixel adjacent in the oblique direction, respectively. A second type of pixel that is a pixel is arranged.

選択部62は、初期高解像度推定部61にて生成された高解像度画像(初期高解像度画像)とフレームメモリ65に一時的に記憶された高解像度画像の何れか1つを選択して出力する。選択部62では、1回目の選択動作において、初期高解像度推定部61で推定された初期高解像度画像を選択し、2回目以降の各選択動作において、フレームメモリ65に一時記憶された高解像度画像を選択する。   The selection unit 62 selects and outputs either the high resolution image (initial high resolution image) generated by the initial high resolution estimation unit 61 or the high resolution image temporarily stored in the frame memory 65. . The selection unit 62 selects the initial high resolution image estimated by the initial high resolution estimation unit 61 in the first selection operation, and the high resolution image temporarily stored in the frame memory 65 in the second and subsequent selection operations. Select.

高解像度更新量算出部63(以下、更新量算出部63と略記する)は、選択部62にて選択された高解像度画像と、m枚の演算対象画像と、動き量記憶部46に記憶された動き量に基づいて、高解像度画像に対する更新量を求める。より具体的には、選択部62にて選択された高解像度画像の画素値を書き並べた行列Xに対して、動き量記憶部46に記憶された動き量に基づくm個のカメラパラメータ行列を乗じることにより、m枚の演算対象画像の推定画像に相当するm枚の推定低解像度画像を生成する。そして、例えば、MAP法に従い、そのm枚の推定低解像度画像とm枚の演算対象画像(m枚の実低解像度画像)との誤差に応じた評価関数Iを定義し、その評価関数Iが最小化されるように高解像度画像に対する更新量を求める。   The high-resolution update amount calculation unit 63 (hereinafter abbreviated as the update amount calculation unit 63) is stored in the high-resolution image selected by the selection unit 62, m calculation target images, and the motion amount storage unit 46. An update amount for the high-resolution image is obtained based on the amount of movement. More specifically, m camera parameter matrices based on the motion amount stored in the motion amount storage unit 46 are assigned to the matrix X in which the pixel values of the high-resolution image selected by the selection unit 62 are arranged. By multiplying, m estimated low-resolution images corresponding to estimated images of m calculation target images are generated. Then, for example, according to the MAP method, an evaluation function I corresponding to an error between the m estimated low-resolution images and m calculation target images (m actual low-resolution images) is defined. The update amount for the high resolution image is obtained so as to be minimized.

減算部64は、選択部62にて選択された高解像度画像の画素値の行列Xから、更新量算出部63にて算出された更新量を減算することにより、高解像度画像を更新する。更新後の高解像度画像は、行列Xから更新量を減算した行列X’の要素を画素値として有する。更新後の高解像度画像は、フレームメモリ65に与えられる。フレームメモリ65は、減算部64から与えられた、更新量による画像更新後の高解像度画像を一時的に記憶し、これを選択部62に与える。これにより、減算部64から出力された高解像度画像が、更新量算出部63及び減算部64によって再度更新される。   The subtracting unit 64 updates the high resolution image by subtracting the update amount calculated by the update amount calculating unit 63 from the matrix X of the pixel values of the high resolution image selected by the selecting unit 62. The updated high resolution image has, as a pixel value, an element of a matrix X ′ obtained by subtracting the update amount from the matrix X. The updated high resolution image is given to the frame memory 65. The frame memory 65 temporarily stores the high-resolution image after the image update according to the update amount given from the subtraction unit 64, and gives this to the selection unit 62. Thereby, the high-resolution image output from the subtraction unit 64 is updated again by the update amount calculation unit 63 and the subtraction unit 64.

更新量算出部63等による高解像度画像の更新処理を含む超解像演算処理は繰り返し実行されるが、この繰り返しの回数に上限回数を設定しておくことができる。超解像演算処理の繰り返し回数が上限回数に達した場合、その時点で減算部64にて得られている最新の高解像度画像を減算部64から図5の信号処理部49に出力する。また、超解像演算処理の繰り返し回数に関わらず、高解像度画像に対する更新量が十分に小さくなったと判断される場合には、その時点で減算部64にて得られている最新の高解像度画像を減算部64から信号処理部49に出力するようにしても構わない。   The super-resolution calculation process including the high-resolution image update process by the update amount calculation unit 63 and the like is repeatedly executed. An upper limit number can be set for the number of repetitions. When the number of repetitions of the super-resolution calculation process reaches the upper limit, the latest high-resolution image obtained by the subtracting unit 64 at that time is output from the subtracting unit 64 to the signal processing unit 49 in FIG. If it is determined that the update amount for the high-resolution image has become sufficiently small regardless of the number of times the super-resolution calculation process is repeated, the latest high-resolution image obtained by the subtracting unit 64 at that time. May be output from the subtracting unit 64 to the signal processing unit 49.

超解像演算処理を反復実行する超解像処理部の構成例を説明したが、既に述べたように、この反復を行うことなく、初期高解像度画像を、最終的に得られるべき高解像度画像として信号処理部49に出力することも可能である。   The configuration example of the super-resolution processing unit that repeatedly executes the super-resolution calculation processing has been described. As described above, the initial high-resolution image should be finally obtained without performing this iteration. Can be output to the signal processing unit 49 as well.

<<第10実施例>>
本発明の第10実施例を説明する。上述の説明では、超解像処理を含む画像処理を、電子機器の一種である撮像装置1内にて行っているが、その画像処理を撮像装置1と異なる電子機器にて実現することも可能である。この電子機器は、例えば、図19に示すような、画像を再生可能な画像再生装置101である。画像再生装置101は、図5の映像信号処理部13と同じ構成及び機能を有する映像信号処理部(画像処理部)102と、液晶ディスプレイパネルなどから成る表示部103と、を備える。画像再生装置101の外部から映像信号処理部102に実低解像度画像列の画像データが供給される。例えば、撮像装置1又は他の撮像装置にて取得されたn枚の実低解像度画像の画像データが、無線又は有線にて或いは記録媒体を介して映像信号処理部102に供給される。このn枚の実低解像度画像に対して、映像信号処理部102にて選択最適化処理及び超解像処理を実行することにより、高解像度画像が生成される。この高解像度画像を表示部103にて再生表示することが可能である。
<< Tenth Embodiment >>
A tenth embodiment of the present invention will be described. In the above description, image processing including super-resolution processing is performed in the imaging apparatus 1 which is a kind of electronic apparatus. However, the image processing can be realized by an electronic apparatus different from the imaging apparatus 1. It is. This electronic apparatus is, for example, an image reproduction apparatus 101 that can reproduce an image as shown in FIG. The image reproduction apparatus 101 includes a video signal processing unit (image processing unit) 102 having the same configuration and functions as the video signal processing unit 13 in FIG. 5 and a display unit 103 including a liquid crystal display panel. Image data of an actual low-resolution image sequence is supplied from the outside of the image reproduction apparatus 101 to the video signal processing unit 102. For example, image data of n actual low-resolution images acquired by the imaging device 1 or another imaging device is supplied to the video signal processing unit 102 wirelessly or via a wire or via a recording medium. The video signal processing unit 102 executes selection optimization processing and super-resolution processing on the n actual low-resolution images, thereby generating a high-resolution image. This high resolution image can be reproduced and displayed on the display unit 103.

<<変形等>>
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈3を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As modifications or annotations of the above-described embodiment, notes 1 to 3 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.

[注釈1]
高解像度画像が低解像度画像の2倍の解像度を有している例、即ち、低解像度画像に対する高解像度画像の解像度拡大率を2倍にする例を上述したが、その解像度拡大率は2倍以外であってもよい。
[Note 1]
The example in which the high-resolution image has twice the resolution of the low-resolution image, that is, the example in which the resolution enlargement ratio of the high-resolution image with respect to the low-resolution image is doubled is described above. It may be other than.

[注釈2]
上述の説明では、画像データに基づく演算によって実低解像度画像間の動き量を導出しているが、実空間上における撮像装置1の動きを検出するセンサ(不図示)の検出結果に基づいて、実低解像度画像間の動き量を導出するようにしてもよい。撮像装置1の動きを検出するセンサは、例えば、撮像装置1の角速度を検出する角速度センサ、撮像装置1の角加速度を検出する角加速度センサ、若しくは、撮像装置1の加速度を検出する加速度センサ、又は、それらの組み合わせである。また、そのようなセンサの検出結果と画像データの双方に基づいて、実低解像度画像間の動き量を導出してもよい。
[Note 2]
In the above description, the amount of motion between real low-resolution images is derived by computation based on image data, but based on the detection result of a sensor (not shown) that detects the motion of the imaging device 1 in real space, You may make it derive | lead-out the motion amount between real low-resolution images. The sensor that detects the movement of the imaging device 1 is, for example, an angular velocity sensor that detects an angular velocity of the imaging device 1, an angular acceleration sensor that detects angular acceleration of the imaging device 1, or an acceleration sensor that detects acceleration of the imaging device 1, Or a combination thereof. Further, the amount of motion between actual low-resolution images may be derived based on both the detection result of such a sensor and the image data.

[注釈3]
図1の撮像装置1及び図19の画像再生装置101の夫々は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、映像信号処理部13又は102内で実行される処理の一部を、ソフトウェアを用いて実現することも可能である。勿論、映像信号処理部13又は102をハードウェアのみで形成することも可能である。ソフトウェアを用いて撮像装置1又は画像再生装置101を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。
[Note 3]
Each of the imaging device 1 in FIG. 1 and the image reproduction device 101 in FIG. 19 can be realized by hardware or a combination of hardware and software. In particular, a part of the processing executed in the video signal processing unit 13 or 102 can be realized using software. Of course, the video signal processing unit 13 or 102 can be formed only by hardware. When the imaging apparatus 1 or the image playback apparatus 101 is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part.

本発明の実施形態に係る撮像装置の全体ブロック図である。1 is an overall block diagram of an imaging apparatus according to an embodiment of the present invention. 繰り返し演算を利用したMAP法に基づく再構成型の超解像処理の概念図である。It is a conceptual diagram of the reconstruction type super-resolution process based on the MAP method using an iterative operation. 図2に対応する超解像処理の流れを表すフローチャートである。3 is a flowchart showing a flow of super-resolution processing corresponding to FIG. 2. 本発明の実施形態に係る選択最適化処理の基本選択指針を説明するための図であって、第1〜第3の実低解像度画像上の画素を共通座標系に配置して示した図である。It is a figure for demonstrating the basic selection guideline of the selection optimization process which concerns on embodiment of this invention, Comprising: The figure on the 1st-3rd real low-resolution image arrange | positioned and showed in the common coordinate system. is there. 本発明の実施形態に係り、図1の撮像装置内の、超解像処理に関与する部位のブロック図である。FIG. 2 is a block diagram of a portion related to super-resolution processing in the imaging apparatus of FIG. 1 according to the embodiment of the present invention. 本発明の実施形態に係り、4枚の実低解像度画像に対して求められる動き量を示した図である。It is the figure which showed the amount of motion calculated | required with respect to four real low-resolution images concerning embodiment of this invention. 本発明の第1実施例に係り、検出動き量に基づき4枚の実低解像度画像の画素が共通座標系上に配置される様子を示した図である。FIG. 6 is a diagram illustrating a state where four pixels of an actual low resolution image are arranged on a common coordinate system based on a detected motion amount according to the first embodiment of the present invention. 本発明の第1実施例に係り、画素位置間の距離を説明するための図である。FIG. 6 is a diagram for explaining a distance between pixel positions according to the first embodiment of the present invention. 本発明の第1実施例に係り、画素位置間の距離を説明するための図である。FIG. 6 is a diagram for explaining a distance between pixel positions according to the first embodiment of the present invention. 本発明の第2実施例に係り、3つの注目画素位置に3頂点を有する三角形の面積が最大化される様子を示した図である。It is the figure which showed a mode that the area of the triangle which has 3 vertices in three attention pixel positions was maximized concerning 2nd Example of this invention. 本発明の第2実施例に係り、共通座標系上の画素位置関係の例を示す図である。It is a figure which concerns on 2nd Example of this invention and shows the example of the pixel positional relationship on a common coordinate system. 本発明の第3実施例に係り、4つの注目画素位置に4頂点を有する四角形の面積が最大化される様子を示した図である。FIG. 10 is a diagram illustrating a state in which the area of a quadrangle having four vertices at four target pixel positions is maximized according to the third embodiment of the present invention. 本発明の第5実施例に係る水平方向距離及び垂直方向距離の意義を説明するための図である。It is a figure for demonstrating the meaning of the horizontal direction distance and the vertical direction distance which concerns on 5th Example of this invention. 本発明の第7実施例に係り、共通座標系上の画素位置関係の例を示す図である。It is a figure which concerns on 7th Example of this invention and shows the example of the pixel positional relationship on a common coordinate system. 画像上に存在しうる右斜めエッジ(a)及び左斜めエッジ(b)を表す図である。It is a figure showing the right diagonal edge (a) and left diagonal edge (b) which may exist on an image. 本発明の第8実施例に係り、1枚の実低解像度画像の全体画像領域が9つの一部画像領域に分割される様子を示す図(a)と、2枚の実低解像度画像に対して一部画像領域ごとに動きベクトルが算出される様子を示す図(b)である。FIG. 14A is a diagram illustrating a state in which an entire image area of one real low-resolution image is divided into nine partial image areas according to the eighth embodiment of the present invention, and two real low-resolution images. FIG. 8B is a diagram illustrating a state in which a motion vector is calculated for each partial image region. 本発明の第9実施例に係る超解像処理部の内部ブロック図である。It is an internal block diagram of the super-resolution processing part which concerns on 9th Example of this invention. 本発明の第9実施例に係り、基準フレームの画素と高解像度画像の画素との位置関係を示す図である。FIG. 30 is a diagram illustrating a positional relationship between a pixel of a reference frame and a pixel of a high resolution image according to the ninth embodiment of the present invention. 本発明の第10実施例に係る画像再生装置の内部ブロック図である。It is an internal block diagram of the image reproduction apparatus which concerns on 10th Example of this invention.

符号の説明Explanation of symbols

1 撮像装置
11 撮像部
13 映像信号処理部
33 撮像素子
45 動き量算出部
46 動き量記憶部
47 画像選択部
48 超解像処理部
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Imaging part 13 Image | video signal processing part 33 Image pick-up element 45 Motion amount calculation part 46 Motion amount memory | storage part 47 Image selection part 48 Super-resolution processing part

Claims (6)

n枚の低解像度画像を受ける画像入力部と(nは3以上の整数)、
前記n枚の低解像度画像に含まれる互いに異なる低解像度画像間の動き量を検出する動き量検出部と、
前記動き量検出部の検出結果に基づいて、前記n枚の低解像度画像の内のm枚をm枚の演算対象画像として選択する画像選択部(mは2以上の整数であって、n>mが成立)と、
前記m枚の演算対象画像と前記動き量検出部の検出結果に基づいて、前記低解像度画像の解像度よりも高い解像度を有する高解像度画像を生成する高解像度処理部と、を備えた画像処理装置であって、
前記画像選択部は、前記n枚の低解像度画像からm枚をとってできるnm通りの組み合わせの夫々に対して、前記動き量検出部の検出結果に基づく評価を行い、その評価結果から1つの組み合わせを選択することにより前記m枚の演算対象画像を選択する
ことを特徴とする画像処理装置。
an image input unit for receiving n low-resolution images (n is an integer of 3 or more);
A motion amount detection unit for detecting a motion amount between different low resolution images included in the n low resolution images;
Based on the detection result of the motion amount detection unit, an image selection unit that selects m of the n low resolution images as m calculation target images (m is an integer of 2 or more, and n> m is established)
An image processing apparatus comprising: a high-resolution processing unit that generates a high-resolution image having a resolution higher than the resolution of the low-resolution image based on the m calculation target images and the detection result of the motion amount detection unit. Because
The image selection unit performs an evaluation based on a detection result of the motion amount detection unit for each of n C m combinations obtained by taking m images from the n low-resolution images. An image processing apparatus, wherein the m calculation target images are selected by selecting one combination.
夫々の組み合わせについてのm枚の低解像度画像をm枚の評価画像と呼んだ場合、
前記画像選択部は、前記m枚の評価画像間の検出動き量に基づき各評価画像を共通座標系に配置して考えたときの、前記m枚の評価画像間の画素位置関係を、各組み合わせに対して評価し、その評価結果から1つの組み合わせを選択することにより前記m枚の演算対象画像を選択する
ことを特徴とする請求項1に記載の画像処理装置。
When m low-resolution images for each combination are called m evaluation images,
The image selection unit is configured to combine pixel positional relationships between the m evaluation images when the evaluation images are arranged in a common coordinate system based on the detected motion amount between the m evaluation images. The image processing apparatus according to claim 1, wherein the m calculation target images are selected by evaluating the image and selecting one combination from the evaluation result.
前記m枚の評価画像は、第1及び第2の評価画像を含み、
各組み合わせにおいて、前記第2の評価画像上の注目画素位置は、前記第2の評価画像上の画素位置群の内の、第1の評価画像上の注目画素位置の最近傍に配置される画素位置であり、
前記画像選択部は、前記第1の評価画像上の注目画素位置と第2の評価画像上の注目画素位置との間の距離を導出する距離導出処理を、各組み合わせに対して実行し、各組み合わせに対して導出された距離の内、前記低解像度画像の隣接画素間距離に基づく所定距離に最も近い距離を判定して、その最も近い距離に対応する前記m枚の評価画像を前記m枚の演算対象画像として選択する
ことを特徴とする請求項2に記載の画像処理装置。
The m evaluation images include first and second evaluation images,
In each combination, the target pixel position on the second evaluation image is a pixel arranged in the nearest vicinity of the target pixel position on the first evaluation image in the pixel position group on the second evaluation image. Position,
The image selection unit performs distance derivation processing for deriving a distance between a target pixel position on the first evaluation image and a target pixel position on the second evaluation image for each combination, Among the distances derived for the combination, the distance closest to the predetermined distance based on the distance between adjacent pixels of the low-resolution image is determined, and the m evaluation images corresponding to the closest distance are determined. The image processing device according to claim 2, wherein the image processing device is selected as a calculation target image.
mは3以上であって、前記m枚の評価画像は第1〜第mの評価画像から成り、
各組み合わせにおいて、第iの評価画像上の注目画素位置は、前記第iの評価画像上の画素位置群の内の、第1の評価画像上の注目画素位置の最近傍に配置される画素位置であり(iは2以上m以下の整数)、
前記画像選択部は、前記m枚の評価画像についてのm個の注目画素位置を結んで形成される多角形の面積を導出する面積導出処理を、各組み合わせに対して実行し、各組み合わせに対して導出された前記面積の大小関係に基づいて1つの組み合わせを選択することにより前記m枚の演算対象画像を選択する
ことを特徴とする請求項2に記載の画像処理装置。
m is 3 or more, and the m evaluation images include first to m-th evaluation images,
In each combination, the pixel position of interest on the i-th evaluation image is a pixel position arranged in the nearest vicinity of the pixel position of interest on the first evaluation image in the pixel position group on the i-th evaluation image. (I is an integer from 2 to m),
The image selection unit executes an area derivation process for deriving an area of a polygon formed by connecting m target pixel positions for the m evaluation images with respect to each combination. The image processing apparatus according to claim 2, wherein the m calculation target images are selected by selecting one combination based on the size relationship of the areas derived in this way.
mは3以上であり、前記m枚の評価画像は第1〜第mの評価画像から成り、
各組み合わせにおいて、第iの評価画像上の注目画素位置は、前記第iの評価画像上の画素位置群の内の、第1の評価画像上の注目画素位置の最近傍に配置される画素位置であり(iは2以上m以下の整数)、
前記画像選択部は、前記m枚の評価画像についてのm個の注目画素位置に含まれる2つの注目画素位置の組を複数組注目して夫々の組に対して2つの注目画素位置間の距離を求め、求めた距離の総和を導出する総和導出処理を、各組み合わせに対して実行し、各組み合わせに対して導出された前記総和の大小関係に基づいて1つの組み合わせを選択することにより前記m枚の演算対象画像を選択する
ことを特徴とする請求項2に記載の画像処理装置。
m is 3 or more, and the m evaluation images include first to m-th evaluation images,
In each combination, the pixel position of interest on the i-th evaluation image is a pixel position arranged in the nearest vicinity of the pixel position of interest on the first evaluation image in the pixel position group on the i-th evaluation image. (I is an integer from 2 to m),
The image selection unit pays attention to a plurality of sets of two target pixel positions included in the m target pixel positions for the m evaluation images, and a distance between the two target pixel positions for each set. And a sum derivation process for deriving the sum of the obtained distances is performed for each combination, and one combination is selected based on the magnitude relation of the sum derived for each combination. The image processing apparatus according to claim 2, wherein one calculation target image is selected.
画像処理装置を備え、
n枚の画像を撮影によって又は外部からの入力によって取得して、前記n枚の画像の画像信号を前記画像処理装置に与える電子機器であって、
前記画像処理装置として請求項1〜請求項5の何れかに記載の画像処理装置を用い、
前記画像処理装置は、前記n枚の画像を前記n枚の低解像度画像として受ける
ことを特徴とする電子機器。
An image processing device,
An electronic device that obtains n images by photographing or input from the outside, and supplies an image signal of the n images to the image processing device,
Using the image processing device according to any one of claims 1 to 5 as the image processing device,
The image processing apparatus receives the n images as the n low-resolution images.
JP2008230825A 2008-09-09 2008-09-09 Image processing apparatus Pending JP2010068093A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008230825A JP2010068093A (en) 2008-09-09 2008-09-09 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008230825A JP2010068093A (en) 2008-09-09 2008-09-09 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2010068093A true JP2010068093A (en) 2010-03-25

Family

ID=42193314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008230825A Pending JP2010068093A (en) 2008-09-09 2008-09-09 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2010068093A (en)

Similar Documents

Publication Publication Date Title
JP5263753B2 (en) Super-resolution processing apparatus and method, and imaging apparatus
JP4509925B2 (en) Image processing apparatus, camera system, image processing method, and moving image display method
JP2989364B2 (en) Image processing apparatus and image processing method
US20090033792A1 (en) Image Processing Apparatus And Method, And Electronic Appliance
US9282253B2 (en) System and method for multiple-frame based super resolution interpolation for digital cameras
EP2560375B1 (en) Image processing device, image capture device, program, and image processing method
JP5238220B2 (en) Resolution conversion apparatus, method and program
JP2009194896A (en) Image processing device and method, and imaging apparatus
JP2000188680A (en) Method and system for producing high resolution image
JP2007135056A (en) Image processor and method, and program
EP2579206A1 (en) Image processing device, image capturing device, program and image processing method
WO2005122554A1 (en) Imaging device
JP2005123667A (en) Generation of still picture data from a plurality of image data
KR20060083978A (en) Motion vector field re-timing
JP2010072092A (en) Image display device and imaging device
JP5566199B2 (en) Image processing apparatus, control method therefor, and program
JP2009237650A (en) Image processor and imaging device
JP2013126123A (en) Image processing device, imaging apparatus, and image processing method
JP2010068093A (en) Image processing apparatus
JP2014131177A (en) Image processing device, camera, image processing method, and image processing program
JP4499686B2 (en) Image processing apparatus and method, recording medium, and program
JP2006311544A (en) Image processing apparatus and method therefor, record medium as well as program
JP2007028208A (en) Image processing apparatus and imaging apparatus
JP2008235958A (en) Imaging apparatus
JP2005275765A (en) Image processor, image processing method, image processing program and recording medium recording the program