JP2009026026A - Image processor, method for processing image, and program - Google Patents

Image processor, method for processing image, and program Download PDF

Info

Publication number
JP2009026026A
JP2009026026A JP2007187880A JP2007187880A JP2009026026A JP 2009026026 A JP2009026026 A JP 2009026026A JP 2007187880 A JP2007187880 A JP 2007187880A JP 2007187880 A JP2007187880 A JP 2007187880A JP 2009026026 A JP2009026026 A JP 2009026026A
Authority
JP
Japan
Prior art keywords
image
tap
unit
class
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007187880A
Other languages
Japanese (ja)
Inventor
Tetsujiro Kondo
哲二郎 近藤
Tetsushi Kokubo
哲志 小久保
Masaru Inoue
賢 井上
Hiroto Kimura
裕人 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007187880A priority Critical patent/JP2009026026A/en
Publication of JP2009026026A publication Critical patent/JP2009026026A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To effectively use a plurality of image processing units. <P>SOLUTION: In an image comparison mode, the image processor 200 uses image processing units 213-1 to 213-3 to apply a plurality of processes each having different parameters to received input images, and then displays the processed images on a single screen concurrently. A user selects a most suitable processed image among the plurality of processed images. In a full screen mode, the image processor 200 applies an image process using a most suitable parameter selected by the user in the image comparison mode, to the input images, wherein a higher-quality image process is executed by using a broader tap range than the image comparison mode. This invention is, for example, applicable to an image processor. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法、およびプログラムに関し、特に、複数の画像処理部を備える場合に好適な画像処理装置、画像処理方法、およびプログラムに関する。   The present invention relates to an image processing device, an image processing method, and a program, and more particularly, to an image processing device, an image processing method, and a program that are suitable when a plurality of image processing units are provided.

ある画像に対して、複数の異なる画像処理を施し、その画像処理結果どうしを比較検討する場合、複数の画像処理後の処理後画像を1つのモニタに交互に表示させ比較する手法が簡単には考えられる。また、複数の処理後画像を同時にモニタに表示させ比較するといった手法も存在する(例えば、特許文献1,2参照)。   When performing a plurality of different image processing on an image and comparing the results of the image processing, it is easy to compare the processed images after the plurality of image processing by alternately displaying them on one monitor. Conceivable. In addition, there is a method in which a plurality of processed images are simultaneously displayed on a monitor and compared (for example, see Patent Documents 1 and 2).

複数の静止画像に対して、複数の異なる画像処理を施し、その画像処理結果どうしを比較検討する場合には、比較検討対象の静止画像を1つの画像処理部に順番に供給し、その結果得られる複数の処理後画像をモニタに同時に並べることができる。   When a plurality of different image processes are performed on a plurality of still images and the image processing results are compared and examined, the still images to be compared are sequentially supplied to one image processing unit, and the result obtained is obtained. A plurality of processed images can be arranged on the monitor at the same time.

特開2000−305193号公報JP 2000-305193 A 特開2006−67155号公報JP 2006-67155 A

しかしながら、比較検討対象の画像が動画像である場合、処理後画像を同時に見るためには、複数の画像処理部を備え、それらに同時並列的に処理を行わせるようにする必要がある。   However, when the image to be compared is a moving image, in order to view the processed image at the same time, it is necessary to provide a plurality of image processing units and allow them to perform processing simultaneously in parallel.

ところが、比較検討後、複数の画像処理のうちのいずれかの方式またはパラメータに決定した後は、1つの画像処理部があればよく、それ以外の画像処理部が有効に活用されないという問題があった。   However, after a comparative study, after deciding to one of a plurality of image processing methods or parameters, there is a problem that only one image processing unit is required, and other image processing units cannot be effectively used. It was.

本発明は、このような状況に鑑みてなされたものであり、複数の画像処理部を有効に活用することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to effectively utilize a plurality of image processing units.

本発明の一側面の画像処理装置は、第1の画像としての、動画像を構成する画像であって順次入力される1以上の入力画像を、第2の画像に変換する画像変換処理をそれぞれ行う複数の画像変換処理手段と、複数の前記画像変換処理手段それぞれによる処理後の画像である複数の処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替える制御手段とを備え、前記複数の画像変換処理手段のそれぞれは、前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択するクラスタップ選択手段と、前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類手段と、前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択する予測タップ選択手段と、前記注目画素のクラスのタップ係数を出力するタップ係数出力手段と、前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める演算手段とを有し、前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える。   An image processing apparatus according to an aspect of the present invention performs an image conversion process for converting one or more input images that are images constituting a moving image and sequentially input as a first image into a second image. By selecting one post-processing image from among a plurality of image conversion processing means to be performed and a plurality of post-processing images that are images processed by each of the plurality of image conversion processing means, a plurality of different image conversion processing A plurality of image conversion processing means, comprising: a first mode for selecting one of the image conversion processes; and a control means for switching a second mode for executing the image conversion process selected in the first mode. Each of the first image using, as a class tap, a pixel used to classify a target pixel of interest in the second image into any one of the plurality of classes. Class tap selection means for selecting from, class classification means for classifying the pixel of interest based on the class tap, and a pixel used for calculation of the tap coefficient when obtaining the pixel of interest as a prediction tap Predictive tap selection means for selecting from the first image, tap coefficient output means for outputting the tap coefficient of the class of the target pixel, tap coefficient of the class of the target pixel, and the selected for the target pixel A calculation unit for calculating the target pixel by performing a calculation using a prediction tap, and the class tap, the prediction tap, and the tap coefficient in the first mode and the second mode. Switch at least one of

前記クラスタップまたは前記予測タップとして選択した画素の範囲であるタップ範囲は、前記第1のモードでは、複数の前記画像変換処理手段それぞれで同一であり、前記第2のモードでは、複数の前記画像変換処理手段それぞれで異なり、複数の前記画像変換処理手段それぞれのタップ範囲を合わせた範囲が前記第1のモードにおけるタップ範囲よりも拡大した範囲となるようにさせることができる。   The tap range, which is the range of pixels selected as the class tap or the prediction tap, is the same in each of the plurality of image conversion processing means in the first mode, and in the second mode, the plurality of images. Different in each conversion processing unit, the range obtained by combining the tap ranges of each of the plurality of image conversion processing units can be set to be a range that is larger than the tap range in the first mode.

前記複数の画像変換処理手段のそれぞれには、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替えることにより、前記第1のモードでは、前記第1の画像の所定の領域を拡大する拡大処理を行い、前記第2のモードでは、前記第1の画像の所定の領域を拡大し、かつ、時間解像度を向上させる時間解像度および拡大処理を行うようにさせることができる。   In each of the plurality of image conversion processing means, by switching at least one of the class tap, the prediction tap, and the tap coefficient, a predetermined region of the first image is set in the first mode. An enlargement process for enlarging is performed, and in the second mode, a predetermined area of the first image is enlarged, and a time resolution and an enlargement process for improving the time resolution can be performed.

前記入力画像の特徴量を抽出し、前記入力画像が前記動画像中のどのシーンの画像であるかを表すタイムコードを検出する同期特徴量抽出手段と、前記同期特徴量抽出手段によって検出された前記タイムコードに対応して、複数の前記画像変換処理手段それぞれが拡大する前記所定の領域を特定する領域特定情報を出力する複数の領域特定手段とをさらに設け、複数の前記画像変換処理手段のそれぞれには、前記第1のモードにおいて、前記領域特定情報に基づいて、前記第1の画像を拡大する拡大処理を行うようにさせることができる。   A feature amount of the input image is extracted, and a synchronization feature amount extraction unit that detects a time code indicating which scene in the moving image the input image is, and detected by the synchronization feature amount extraction unit A plurality of area specifying means for outputting area specifying information for specifying the predetermined area that each of the plurality of image conversion processing means expands in correspondence with the time code; In each of the first mode, an enlargement process for enlarging the first image may be performed based on the region specifying information.

前記第1のモードにおいて複数の前記画像変換処理手段が前記第1の画像を拡大して得られる複数の前記拡大画像のなかからユーザが選択した拡大画像を表す情報である選択情報を、前記タイムコードと対応付けて記憶するユーザ選択情報記憶手段と、前記第2のモードにおいて、前記ユーザ選択情報記憶手段に記憶されている前記選択情報に基づいて、前記複数の領域特定手段から供給される複数の前記領域特定情報のなかから1つの領域特定情報を選択し、複数の前記画像変換処理手段に供給する選択手段とをさらに設け、複数の前記画像変換処理手段のそれぞれには、前記第2のモードにおいて、前記領域特定情報に基づいて、前記第1の画像を拡大し、かつ、時間解像度を向上させる時間解像度および拡大処理を行うようにさせることができる。   In the first mode, selection information that is information representing an enlarged image selected by the user from among the plurality of enlarged images obtained by enlarging the first image by the plurality of image conversion processing means, A plurality of user selection information storage means stored in association with the code; and a plurality of areas supplied from the plurality of area specifying means based on the selection information stored in the user selection information storage means in the second mode. Selection means for selecting one area specifying information from the area specifying information and supplying the area specifying information to a plurality of the image conversion processing means, and each of the plurality of image conversion processing means includes the second In the mode, the first image is enlarged based on the region specifying information, and the time resolution and enlargement processing for improving the time resolution are performed. Can.

本発明の一側面の画像処理方法は、第1の画像としての、動画像を構成する画像であって順次入力される1以上の入力画像を、第2の画像に変換する画像変換処理を行う画像処理装置の画像処理方法において、前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択し、前記クラスタップに基づいて、前記注目画素をクラス分類し、前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択し、前記注目画素のクラスのタップ係数を出力し、前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める画像変換処理を複数同時に行い、複数の画像変換処理による処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替えるステップを含み、前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える。   An image processing method according to an aspect of the present invention performs an image conversion process of converting one or more input images that are sequentially input as images forming a moving image as a first image into a second image. In the image processing method of the image processing apparatus, a pixel used to classify a target pixel of interest in the second image into any one of the plurality of classes is defined as a class tap. Select from one image, classify the target pixel based on the class tap, and select a pixel to be used for calculation with the tap coefficient when obtaining the target pixel from the first image as a prediction tap And outputting the tap coefficient of the class of the target pixel, and performing an operation using the tap coefficient of the class of the target pixel and the prediction tap selected for the target pixel, A plurality of image conversion processes for obtaining the target pixel are simultaneously performed, and one post-processing image is selected from among the post-processing images obtained by the plurality of image conversion processes. And switching between the first mode and the second mode, and switching between the first mode and the second mode for executing the image conversion process selected in the first mode. Switch at least one of the tap, the prediction tap, and the tap coefficient.

本発明の一側面のプログラムは、第1の画像としての、動画像を構成する画像であって順次入力される1以上の入力画像を、第2の画像に変換する画像変換処理を、コンピュータに実行させるプログラムにおいて、前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択し、前記クラスタップに基づいて、前記注目画素をクラス分類し、前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択し、前記注目画素のクラスのタップ係数を出力し、前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める画像変換処理を複数同時に行い、複数の画像変換処理による処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替えるステップを含み、前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える画像変換処理をコンピュータに実行させるプログラム。   A program according to one aspect of the present invention is a computer that performs image conversion processing for converting one or more input images that are images that constitute a moving image and are sequentially input into a second image, as a first image. In the program to be executed, a pixel used to classify a target pixel of interest in the second image into any one of the plurality of classes is used as a class tap from the first image. Selecting, classifying the target pixel based on the class tap, selecting a pixel used for calculation with the tap coefficient when obtaining the target pixel from the first image as a prediction tap, and selecting the target By outputting the tap coefficient of the pixel class, and performing the calculation using the tap coefficient of the pixel of interest class and the prediction tap selected for the pixel of interest. A plurality of different image conversion processes are performed by simultaneously performing a plurality of image conversion processes for obtaining the pixel of interest and selecting one processed image from the processed images obtained by the plurality of image conversion processes. A step of switching between a first mode for selecting a process and a second mode for executing the image conversion process selected in the first mode, the first mode and the second mode, A program that causes a computer to execute image conversion processing for switching at least one of a class tap, the prediction tap, and the tap coefficient.

本発明の一側面においては、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、第1のモードで選択された画像変換処理を実行する第2のモードが切り替えられ、第1のモードと第2のモードとで、クラスタップ、予測タップ、およびタップ係数の少なくとも1つが切り替えられる。   In one aspect of the present invention, there are a first mode for selecting one image conversion process from a plurality of different image conversion processes, and a second mode for executing the image conversion process selected in the first mode. Switching is performed, and at least one of a class tap, a prediction tap, and a tap coefficient is switched between the first mode and the second mode.

画像処理装置は、独立した装置であっても良いし、所定の装置の画像処理を行うブロックであっても良い。   The image processing apparatus may be an independent apparatus or a block that performs image processing of a predetermined apparatus.

本発明の一側面によれば、複数の画像処理部を有効に活用することができる。   According to one aspect of the present invention, a plurality of image processing units can be effectively utilized.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面の画像処理装置は、第1の画像としての、動画像を構成する画像であって順次入力される1以上の入力画像を、第2の画像に変換する画像変換処理をそれぞれ行う複数の画像変換処理手段(例えば、図14の画像処理部213−1乃至213−3)と、複数の前記画像変換処理手段それぞれによる処理後の画像である複数の処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替える制御手段(例えば、図14の制御部217)とを備え、前記複数の画像変換処理手段のそれぞれは、前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択するクラスタップ選択手段(例えば、図7のタップ選択部13)と、前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類手段(例えば、図7のクラス分類部14)と、前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択する予測タップ選択手段(例えば、図7のタップ選択部12)と、前記注目画素のクラスのタップ係数を出力するタップ係数出力手段(例えば、図7の係数出力部55)と、前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める演算手段(例えば、図7の予測演算部16)とを有し、前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える。   An image processing apparatus according to an aspect of the present invention performs an image conversion process for converting one or more input images that are images constituting a moving image and sequentially input as a first image into a second image. A plurality of image conversion processing means (for example, the image processing units 213-1 to 213-3 in FIG. 14) and one of a plurality of processed images that are images after processing by each of the plurality of image conversion processing means. By selecting one processed image, a first mode for selecting one image conversion process from among a plurality of different image conversion processes, and a second mode for executing the image conversion process selected in the first mode Control means (for example, the control unit 217 in FIG. 14) for switching the mode, and each of the plurality of image conversion processing means sets a target pixel of interest in the second image to the plurality of classes. No Based on the class tap, a class tap selection means (for example, the tap selection unit 13 in FIG. 7) that selects pixels used for classifying into any one of the classes from the first image as a class tap, From the first image, a pixel used for calculation of class classification means for classifying the pixel of interest (for example, the class classification unit 14 in FIG. 7) and the tap coefficient when obtaining the pixel of interest is used as a prediction tap. Prediction tap selection means (for example, tap selection section 12 in FIG. 7) to select, tap coefficient output means (for example, coefficient output section 55 in FIG. 7) for outputting tap coefficients of the class of the target pixel, and the target pixel Computing means for obtaining the target pixel by performing a calculation using the tap coefficient of the class and the prediction tap selected for the target pixel (example) If, and a prediction computation unit 16) of Figure 7, between the first mode and the second mode, the class tap, the prediction taps, and switching the at least one of said tap coefficients.

前記入力画像の特徴量を抽出し、前記入力画像が前記動画像中のどのシーンの画像であるかを表すタイムコードを検出する同期特徴量抽出手段(例えば、図18の同期特徴量抽出部471)と、前記同期特徴量抽出手段によって検出された前記タイムコードに対応して、複数の前記画像変換処理手段それぞれが拡大する前記所定の領域を特定する領域特定情報を出力する複数の領域特定手段(例えば、図18のシーケンス再西武472A乃至472C)とをさらに設け、複数の前記画像変換処理手段のそれぞれには、前記第1のモードにおいて、前記領域特定情報に基づいて、前記第1の画像を拡大する拡大処理を行うようにさせることができる。   The feature amount of the input image is extracted, and a synchronization feature amount extraction unit (for example, the synchronization feature amount extraction unit 471 in FIG. 18) that detects a time code indicating which scene in the moving image the input image is. And a plurality of area specifying means for outputting area specifying information for specifying the predetermined area that each of the plurality of image conversion processing means expands corresponding to the time code detected by the synchronization feature amount extracting means (For example, the sequence re-Seibu 472A to 472C in FIG. 18), and each of the plurality of image conversion processing means includes the first image based on the region specifying information in the first mode. Can be enlarged.

前記第1のモードにおいて複数の前記画像変換処理手段が前記第1の画像を拡大して得られる複数の前記拡大画像のなかからユーザが選択した拡大画像を表す情報である選択情報を、前記タイムコードと対応付けて記憶するユーザ選択情報記憶手段(例えば、図18の記録再生部474)と、前記第2のモードにおいて、前記ユーザ選択情報記憶手段に記憶されている前記選択情報に基づいて、前記複数の領域特定手段から供給される複数の前記領域特定情報のなかから1つの領域特定情報を選択し、複数の前記画像変換処理手段に供給する選択手段(例えば、図18のスイッチャ部473)とをさらに設け、複数の前記画像変換処理手段のそれぞれには、前記第2のモードにおいて、前記領域特定情報に基づいて、前記第1の画像を拡大し、かつ、時間解像度を向上させる時間解像度および拡大処理を行うようにさせることができる。   In the first mode, selection information that is information representing an enlarged image selected by the user from among the plurality of enlarged images obtained by enlarging the first image by the plurality of image conversion processing means, Based on the selection information stored in the user selection information storage means in the second mode in the user selection information storage means (for example, the recording / reproducing unit 474 of FIG. 18) that stores the code in association with the code, Selection means (for example, switcher unit 473 in FIG. 18) that selects one area specifying information from among the plurality of area specifying information supplied from the plurality of area specifying means and supplies the area specifying information to the plurality of image conversion processing means. In each of the plurality of image conversion processing means, the first image is enlarged based on the region specifying information in the second mode. And it can be configured to perform time resolution and enlargement processing to improve the time resolution.

本発明の一側面の画像処理方法またはプログラムは、第1の画像としての、動画像を構成する画像であって順次入力される1以上の入力画像を、第2の画像に変換する画像変換処理を行う画像処理装置の画像処理方法、または、前記画像変換処理をコンピュータに実行させるプログラムにおいて、前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択し、前記クラスタップに基づいて、前記注目画素をクラス分類し、前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択し、前記注目画素のクラスのタップ係数を出力し、前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める画像変換処理を複数同時に行い、複数の画像変換処理による処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替えるステップ(例えば、図17のステップS83)を含み、前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える。   An image processing method or program according to one aspect of the present invention is an image conversion process for converting one or more input images sequentially constituting a moving image as a first image into a second image. In the image processing method of the image processing apparatus or the program for causing the computer to execute the image conversion process, the target pixel of interest in the second image is selected from any of the plurality of classes. The pixel used for classifying is selected from the first image as a class tap from the first image, the pixel of interest is classified based on the class tap, and the calculation with the tap coefficient when obtaining the pixel of interest Are selected from the first image as prediction taps, output the tap coefficients of the class of the target pixel, and the tap coefficients of the class of the target pixel By performing a calculation using the prediction tap selected for the target pixel, a plurality of image conversion processes for obtaining the target pixel are simultaneously performed, and one process is performed from among the processed images by the plurality of image conversion processes. A first mode in which one image conversion process is selected from a plurality of different image conversion processes by selecting a subsequent image, and a second mode in which the image conversion process selected in the first mode is executed. , And switching at least one of the class tap, the prediction tap, and the tap coefficient between the first mode and the second mode.

以下、本発明を適用した画像処理装置(システム)の実施の形態について説明するが、その前に、その画像処理装置が行う信号処理に利用するクラス分類適応処理について説明する。なお、クラス分類適応処理は、画像処理装置が行う信号処理に利用する処理の一例であり、画像処理装置が行う信号処理は、クラス分類適応処理を利用しないものであってもかまわない。   Hereinafter, an embodiment of an image processing apparatus (system) to which the present invention is applied will be described. Before that, a class classification adaptive process used for signal processing performed by the image processing apparatus will be described. The class classification adaptive processing is an example of processing used for signal processing performed by the image processing apparatus, and the signal processing performed by the image processing apparatus may not use the class classification adaptive processing.

また、ここでは、第1の画像データ(画像信号)を第2の画像データ(画像信号)に変換する画像変換処理を例に、クラス分類適応処理について説明する。   Here, the class classification adaptation process will be described by taking an image conversion process for converting the first image data (image signal) to the second image data (image signal) as an example.

第1の画像データを第2の画像データに変換する画像変換処理は、その第1と第2の画像データの定義によって様々な信号処理となる。   The image conversion processing for converting the first image data into the second image data is various signal processing depending on the definition of the first and second image data.

即ち、例えば、第1の画像データを低空間解像度の画像データとするとともに、第2の画像データを高空間解像度の画像データとすれば、画像変換処理は、空間解像度を向上させる空間解像度創造(向上)処理ということができる。   That is, for example, if the first image data is image data with low spatial resolution and the second image data is image data with high spatial resolution, the image conversion process creates a spatial resolution that improves the spatial resolution ( (Improved) processing.

また、例えば、第1の画像データを低S/N(Signal/Noise)の画像データとするとともに、第2の画像データを高S/Nの画像データとすれば、画像変換処理は、ノイズを除去するノイズ除去処理ということができる。   Also, for example, if the first image data is low S / N (Signal / Noise) image data and the second image data is high S / N image data, the image conversion process may reduce noise. It can be referred to as noise removal processing to be removed.

さらに、例えば、第1の画像データを所定の画素数(サイズ)の画像データとするとともに、第2の画像データを、第1の画像データの画素数を多くまたは少なくした画像データとすれば、画像変換処理は、画像のリサイズ(拡大または縮小)を行うリサイズ処理ということができる。   Further, for example, if the first image data is image data having a predetermined number of pixels (size) and the second image data is image data in which the number of pixels of the first image data is increased or decreased, The image conversion process can be referred to as a resizing process for resizing (enlarging or reducing) an image.

また、例えば、第1の画像データを低時間解像度の画像データとするとともに、第2の画像データを高時間解像度の画像データとすれば、画像変換処理は、時間解像度を向上させる時間解像度創造(向上)処理ということができる。   In addition, for example, if the first image data is image data with low time resolution and the second image data is image data with high time resolution, the image conversion process creates time resolution that improves the time resolution ( (Improved) processing.

さらに、例えば、第1の画像データを、MPEG(Moving Picture Experts Group)符号化などのブロック単位で符号化された画像データを復号することによって得られる復号画像データとするとともに、第2の画像データを、符号化前の画像データとすれば、画像変換処理は、MPEG符号化および復号によって生じるブロック歪み等の各種の歪みを除去する歪み除去処理ということができる。   Further, for example, the first image data is set as decoded image data obtained by decoding image data encoded in units of blocks such as MPEG (Moving Picture Experts Group) encoding, and the second image data. Is image data before encoding, it can be said that the image conversion process is a distortion removal process for removing various distortions such as block distortion caused by MPEG encoding and decoding.

なお、空間解像度創造処理において、低空間解像度の画像データである第1の画像データを、高空間解像度の画像データである第2の画像データに変換するにあたっては、第2の画像データを、第1の画像データと同一の画素数の画像データとすることもできるし、第1の画像データよりも画素数が多い画像データとすることもできる。第2の画像データを、第1の画像データよりも画素数が多い画像データとする場合、空間解像度創造処理は、空間解像度を向上させる処理であるとともに、画像サイズ(画素数)を拡大するリサイズ処理でもある。   In the spatial resolution creation process, when converting the first image data that is image data with low spatial resolution into the second image data that is image data with high spatial resolution, the second image data is converted into the second image data. The image data can have the same number of pixels as the one image data, or the image data can have more pixels than the first image data. When the second image data is image data having a larger number of pixels than the first image data, the spatial resolution creation process is a process for improving the spatial resolution and resizing to increase the image size (number of pixels). It is also a process.

以上のように、画像変換処理によれば、第1および第2の画像データをどのように定義するかによって、様々な信号処理を実現することができる。   As described above, according to the image conversion process, various signal processes can be realized depending on how the first and second image data are defined.

以上のような画像変換処理としてのクラス分類適応処理では、第2の画像データのうちの注目している注目画素(の画素値)を複数のクラスのうちのいずれかのクラスにクラス分類することにより得られるクラスのタップ係数と、注目画素に対して選択される第1の画像データの画素(の画素値)とを用いた演算により、注目画素(の画素値)が求められる。   In the class classification adaptive processing as the image conversion processing as described above, the target pixel of interest (pixel value) in the second image data is classified into one of a plurality of classes. The pixel of interest (pixel value) is obtained by calculation using the tap coefficient of the class obtained by the above and the pixel (pixel value) of the first image data selected for the pixel of interest.

即ち、図1は、クラス分類適応処理による画像変換処理を行う画像変換装置1の構成例を示している。   That is, FIG. 1 shows a configuration example of an image conversion apparatus 1 that performs image conversion processing by class classification adaptation processing.

画像変換装置1では、そこに供給される画像データが、第1の画像データとして、タップ選択部12および13に供給される。   In the image conversion apparatus 1, the image data supplied thereto is supplied to the tap selection units 12 and 13 as the first image data.

注目画素選択部11は、第2の画像データを構成する画素を、順次、注目画素とし、その注目画素を表す情報を、必要なブロックに供給する。   The pixel-of-interest selection unit 11 sequentially sets pixels constituting the second image data as the pixel of interest, and supplies information representing the pixel of interest to a necessary block.

タップ選択部12は、注目画素(の画素値)を予測するのに用いる第1の画像データを構成する画素(の画素値)の幾つかを、予測タップとして選択する。   The tap selection unit 12 selects some of the pixels (the pixel values) constituting the first image data used to predict the target pixel (the pixel values thereof) as prediction taps.

具体的には、タップ選択部12は、注目画素の時空間の位置から空間的または時間的に近い位置にある第1の画像データの複数の画素を、予測タップとして選択する。   Specifically, the tap selection unit 12 selects, as prediction taps, a plurality of pixels of the first image data that are spatially or temporally close to the temporal and spatial positions of the target pixel.

タップ選択部13は、注目画素を、幾つかのクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いる第1の画像データを構成する画素の幾つかを、クラスタップとして選択する。即ち、タップ選択部13は、タップ選択部12が予測タップを選択するのと同様にして、クラスタップを選択する。   The tap selection unit 13 selects some of the pixels constituting the first image data used for classifying the target pixel into any of several classes as class taps. That is, the tap selection unit 13 selects a class tap in the same manner as the tap selection unit 12 selects a prediction tap.

なお、予測タップとクラスタップは、同一のタップ構造を有するものであっても良いし、異なるタップ構造を有するものであっても良い。   Note that the prediction tap and the class tap may have the same tap structure or may have different tap structures.

タップ選択部12で得られた予測タップは、予測演算部16に供給され、タップ選択部13で得られたクラスタップは、クラス分類部14に供給される。   The prediction tap obtained by the tap selection unit 12 is supplied to the prediction calculation unit 16, and the class tap obtained by the tap selection unit 13 is supplied to the class classification unit 14.

クラス分類部14は、タップ選択部13からのクラスタップに基づき、注目画素をクラス分類し、その結果得られるクラスに対応するクラスコードを、係数出力部15に供給する。   The class classification unit 14 classifies the target pixel based on the class tap from the tap selection unit 13 and supplies a class code corresponding to the resulting class to the coefficient output unit 15.

ここで、クラス分類を行う方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を採用することができる。   Here, as a method of classifying, for example, ADRC (Adaptive Dynamic Range Coding) or the like can be employed.

ADRCを用いる方法では、クラスタップを構成する画素(の画素値)が、ADRC処理され、その結果得られるADRCコードにしたがって、注目画素のクラスが決定される。   In the method using ADRC, the pixels constituting the class tap are subjected to ADRC processing, and the class of the pixel of interest is determined according to the ADRC code obtained as a result.

なお、KビットADRCにおいては、例えば、クラスタップを構成する画素の画素値の最大値MAXと最小値MINが検出され、DR=MAX-MINを、集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する各画素の画素値がKビットに再量子化される。即ち、クラスタップを構成する各画素の画素値から、最小値MINが減算され、その減算値がDR/2Kで除算(再量子化)される。そして、以上のようにして得られる、クラスタップを構成するKビットの各画素の画素値を、所定の順番で並べたビット列が、ADRCコードとして出力される。従って、クラスタップが、例えば、1ビットADRC処理された場合には、そのクラスタップを構成する各画素の画素値は、最大値MAXと最小値MINとの平均値で除算され(小数点以下切り捨て)、これにより、各画素の画素値が1ビットとされる(2値化される)。そして、その1ビットの画素値を所定の順番で並べたビット列が、ADRCコードとして出力される。 In the K-bit ADRC, for example, the maximum value MAX and the minimum value MIN of the pixels constituting the class tap are detected, and DR = MAX-MIN is set as the local dynamic range of the set, and this dynamic range Based on DR, the pixel value of each pixel constituting the class tap is requantized to K bits. That is, the pixel value of each pixel forming the class taps, the minimum value MIN is subtracted, and the subtracted value is divided by DR / 2 K (requantization). A bit string obtained by arranging the pixel values of the K-bit pixels constituting the class tap in a predetermined order is output as an ADRC code. Therefore, for example, when the class tap is subjected to 1-bit ADRC processing, the pixel value of each pixel constituting the class tap is divided by the average value of the maximum value MAX and the minimum value MIN (rounded down). Thereby, the pixel value of each pixel is set to 1 bit (binarized). Then, a bit string in which the 1-bit pixel values are arranged in a predetermined order is output as an ADRC code.

なお、クラス分類部14には、例えば、クラスタップを構成する画素の画素値のレベル分布のパターンを、そのままクラスコードとして出力させることも可能である。しかしながら、この場合、クラスタップが、N個の画素の画素値で構成され、各画素の画素値に、Kビットが割り当てられているとすると、クラス分類部14が出力するクラスコードの場合の数は、(2NK通りとなり、画素の画素値のビット数Kに指数的に比例した膨大な数となる。 Note that, for example, the level distribution pattern of the pixel values of the pixels constituting the class tap may be output to the class classification unit 14 as it is as a class code. However, in this case, if the class tap is composed of pixel values of N pixels and K bits are assigned to the pixel values of each pixel, the number of class codes output by the class classification unit 14 Is (2 N ) K , which is a huge number that is exponentially proportional to the number K of bits of the pixel value of the pixel.

従って、クラス分類部14においては、クラスタップの情報量を、上述のADRC処理や、あるいはベクトル量子化等によって圧縮することにより、クラス分類を行うのが好ましい。   Accordingly, the class classification unit 14 preferably performs class classification by compressing the information amount of the class tap by the above-described ADRC processing or vector quantization.

係数出力部15は、後述する学習によって求められたクラスごとのタップ係数を記憶し、さらに、その記憶したタップ係数のうちの、クラス分類部14から供給されるクラスコードに対応するアドレスに記憶されているタップ係数(クラス分類部14から供給されるクラスコードが表すクラスのタップ係数)を出力する。このタップ係数は、予測演算部16に供給される。   The coefficient output unit 15 stores tap coefficients for each class obtained by learning described later, and is further stored in an address corresponding to the class code supplied from the class classification unit 14 among the stored tap coefficients. The tap coefficient (the tap coefficient of the class represented by the class code supplied from the class classification unit 14) is output. This tap coefficient is supplied to the prediction calculation unit 16.

ここで、タップ係数とは、ディジタルフィルタにおける、いわゆるタップにおいて入力データと乗算される係数に相当するものである。   Here, the tap coefficient corresponds to a coefficient that is multiplied with input data in a so-called tap in the digital filter.

予測演算部16は、タップ選択部12が出力する予測タップと、係数出力部15が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、注目画素の真値の予測値を求める所定の予測演算を行う。これにより、予測演算部16は、注目画素の画素値(の予測値)、即ち、第2の画像データを構成する画素の画素値を求めて出力する。   The prediction calculation unit 16 acquires the prediction tap output from the tap selection unit 12 and the tap coefficient output from the coefficient output unit 15, and uses the prediction tap and the tap coefficient to predict the true value of the target pixel. Predetermined calculation for obtaining is performed. Thereby, the prediction calculation unit 16 obtains and outputs the pixel value (predicted value) of the pixel of interest, that is, the pixel value of the pixels constituting the second image data.

次に、図2のフローチャートを参照して、図1の画像変換装置1による画像変換処理について説明する。   Next, image conversion processing by the image conversion apparatus 1 in FIG. 1 will be described with reference to the flowchart in FIG.

ステップS11において、注目画素選択部11は、画像変換装置1に入力される第1の画像データに対する第2の画像データを構成する画素のうち、まだ、注目画素とされていないものの1つを、注目画素として選択する。例えば、第2の画像データを構成する画素のうち、ラスタスキャン順で、まだ、注目画素とされていないものが、注目画素として選択される。   In step S11, the pixel-of-interest selecting unit 11 selects one of the pixels constituting the second image data for the first image data input to the image conversion device 1 that has not yet been set as the pixel of interest. Select as the pixel of interest. For example, among the pixels constituting the second image data, those not yet set as the target pixel in the raster scan order are selected as the target pixel.

ステップS12において、タップ選択部12とタップ選択部13が、そこに供給される第1の画像データから、注目画素についての予測タップとクラスタップとするものを、それぞれ選択する。そして、予測タップは、タップ選択部12から予測演算部16に供給され、クラスタップは、タップ選択部13からクラス分類部14に供給される。   In step S12, the tap selection unit 12 and the tap selection unit 13 respectively select a prediction tap and a class tap for the target pixel from the first image data supplied thereto. The prediction tap is supplied from the tap selection unit 12 to the prediction calculation unit 16, and the class tap is supplied from the tap selection unit 13 to the class classification unit 14.

クラス分類部14は、タップ選択部13から、注目画素についてのクラスタップを受信し、ステップS13において、そのクラスタップに基づき、注目画素をクラス分類する。さらに、クラス分類部14は、そのクラス分類の結果得られる注目画素のクラスを表すクラスコードを、係数出力部15に出力する。   The class classification unit 14 receives the class tap for the target pixel from the tap selection unit 13, and classifies the target pixel based on the class tap in step S13. Further, the class classification unit 14 outputs a class code representing the class of the target pixel obtained as a result of the class classification to the coefficient output unit 15.

ステップS14では、係数出力部15が、クラス分類部14から供給されるクラスコードに対応するアドレスに記憶されているタップ係数を取得して出力する。さらに、ステップS14では、予測演算部16が、係数出力部15が出力するタップ係数を取得する。   In step S14, the coefficient output unit 15 acquires and outputs the tap coefficient stored at the address corresponding to the class code supplied from the class classification unit 14. Furthermore, in step S14, the prediction calculation unit 16 acquires the tap coefficient output by the coefficient output unit 15.

ステップS15では、予測演算部16が、タップ選択部12が出力する予測タップと、係数出力部15から取得したタップ係数とを用いて、所定の予測演算を行う。これにより、予測演算部16は、注目画素の画素値を求めて出力する。   In step S <b> 15, the prediction calculation unit 16 performs a predetermined prediction calculation using the prediction tap output from the tap selection unit 12 and the tap coefficient acquired from the coefficient output unit 15. Thereby, the prediction calculation part 16 calculates | requires and outputs the pixel value of an attention pixel.

ステップS16では、注目画素選択部11が、まだ、注目画素としていない第2の画像データがあるかどうかを判定する。ステップS16において、まだ、注目画素としていない第2の画像データがあると判定された場合、処理はステップS11に戻り、以下、同様の処理が繰り返される。   In step S <b> 16, the target pixel selection unit 11 determines whether there is second image data that has not yet been set as the target pixel. If it is determined in step S16 that there is still the second image data that is not the pixel of interest, the process returns to step S11, and the same process is repeated thereafter.

また、ステップS16において、まだ、注目画素とされていない第2の画像データがないと判定された場合、処理は終了する。   If it is determined in step S16 that there is no second image data that has not yet been set as the target pixel, the process ends.

次に、図1の予測演算部16における予測演算と、係数出力部15に記憶されたタップ係数の学習について説明する。   Next, the prediction calculation in the prediction calculation unit 16 of FIG. 1 and the learning of the tap coefficient stored in the coefficient output unit 15 will be described.

いま、例えば、高画質の画像データ(高画質画像データ)を第2の画像データとするとともに、その高画質画像データをLPF(Low Pass Filter)によってフィルタリングする等してその画質(解像度)を低下させた低画質の画像データ(低画質画像データ)を第1の画像データとして、低画質画像データから予測タップを選択し、その予測タップとタップ係数を用いて、高画質画像データの画素(高画質画素)の画素値を、所定の予測演算によって求める(予測する)ことを考える。   Now, for example, the high-quality image data (high-quality image data) is used as the second image data, and the high-quality image data is filtered by an LPF (Low Pass Filter) to reduce the image quality (resolution). Using the low-quality image data (low-quality image data) as the first image data, a prediction tap is selected from the low-quality image data, and using the prediction tap and the tap coefficient, pixels (high-quality image data) Consider that the pixel value of (image quality pixel) is obtained (predicted) by a predetermined prediction calculation.

所定の予測演算として、例えば、線形1次予測演算を採用することとすると、高画質画素の画素値yは、次の線形1次式によって求められることになる。   For example, when a linear primary prediction calculation is adopted as the predetermined prediction calculation, the pixel value y of the high-quality pixel is obtained by the following linear linear expression.

Figure 2009026026
Figure 2009026026

但し、式(1)において、xnは、高画質画素yについての予測タップを構成する、n番目の低画質画像データの画素(以下、適宜、低画質画素という)の画素値を表し、wnは、n番目の低画質画素(の画素値)と乗算されるn番目のタップ係数を表す。なお、式(1)では、予測タップが、N個の低画質画素x1,x2,・・・,xNで構成されるものとしてある。 In Equation (1), x n represents a pixel value of an nth low-quality image data pixel (hereinafter referred to as a low-quality pixel as appropriate) that constitutes a prediction tap for the high-quality pixel y, and w n represents the nth tap coefficient multiplied by the nth low image quality pixel (its pixel value). In equation (1), the prediction tap is assumed to be composed of N low image quality pixels x 1 , x 2 ,..., X N.

ここで、高画質画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。   Here, the pixel value y of the high-quality pixel can be obtained not by the linear primary expression shown in Expression (1) but by a higher-order expression of the second or higher order.

いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk'と表すと、その予測誤差ekは、次式で表される。 Now, when the true value of the pixel value of the high-quality pixel of the k-th sample is expressed as y k and the predicted value of the true value y k obtained by the equation (1) is expressed as y k ′, the prediction error e k Is expressed by the following equation.

Figure 2009026026
Figure 2009026026

いま、式(2)の予測値yk'は、式(1)にしたがって求められるため、式(2)のyk'を、式(1)にしたがって置き換えると、次式が得られる。 Now, since the predicted value y k ′ of Equation (2) is obtained according to Equation (1), the following equation is obtained by replacing y k ′ of Equation (2) according to Equation (1).

Figure 2009026026
Figure 2009026026

但し、式(3)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の低画質画素を表す。 In Equation (3), x n, k represents the nth low-quality pixel that constitutes the prediction tap for the high-quality pixel of the k-th sample.

式(3)(または式(2))の予測誤差ekを0とするタップ係数wnが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのようなタップ係数wnを求めることは、一般には困難である。 Tap coefficient w n for the prediction error e k 0 of the formula (3) (or Equation (2)) is, is the optimal for predicting the high-quality pixel, for all the high-quality pixel, such In general, it is difficult to obtain a large tap coefficient w n .

そこで、タップ係数wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適なタップ係数wnは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as the standard for indicating that the tap coefficient w n is optimal, for example, when adopting the method of least squares, optimal tap coefficient w n, the sum E of square errors expressed by the following formula It can be obtained by minimizing.

Figure 2009026026
Figure 2009026026

但し、式(4)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。 However, in Equation (4), K is the high image quality pixel y k and the low image quality pixels x 1, k , x 2, k ,..., X N constituting the prediction tap for the high image quality pixel y k. , k represents the number of samples (the number of learning samples).

式(4)の自乗誤差の総和Eの最小値(極小値)は、式(5)に示すように、総和Eをタップ係数wnで偏微分したものを0とするwnによって与えられる。 The minimum value of the sum E of square errors of Equation (4) (minimum value), as shown in Equation (5), given that by partially differentiating the sum E with the tap coefficient w n by w n to 0.

Figure 2009026026
Figure 2009026026

そこで、上述の式(3)をタップ係数wnで偏微分すると、次式が得られる。 Therefore, when partial differentiation of above equation (3) with the tap coefficient w n, the following equation is obtained.

Figure 2009026026
Figure 2009026026

式(5)と(6)から、次式が得られる。   From the equations (5) and (6), the following equation is obtained.

Figure 2009026026
Figure 2009026026

式(7)のekに、式(3)を代入することにより、式(7)は、式(8)に示す正規方程式で表すことができる。 By substituting equation (3) into e k in equation (7), equation (7) can be expressed by the normal equation shown in equation (8).

Figure 2009026026
Figure 2009026026

式(8)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、タップ係数wnについて解くことができる。 Normal equation of Equation (8), for example, by using a like sweeping-out method (Gauss-Jordan elimination method) can be solved for the tap coefficient w n.

式(8)の正規方程式を、クラスごとにたてて解くことにより、最適なタップ係数(ここでは、自乗誤差の総和Eを最小にするタップ係数)wnを、クラスごとに求めることができる。 The normal equation of Equation (8), by solving for each class, the optimal tap coefficient (here, the tap coefficient that minimizes the sum E of square errors) to w n, can be found for each class .

図3は、式(8)の正規方程式をたてて解くことによりタップ係数wnを求める学習を行う学習装置21の構成例を示している。 Figure 3 shows an example of the configuration of a learning apparatus 21 performs learning for determining the tap coefficient w n by solving the normal equations in equation (8).

学習用画像記憶部31は、タップ係数wnの学習に用いられる学習用画像データを記憶している。ここで、学習用画像データとしては、例えば、解像度の高い高画質画像データを用いることができる。 Learning image storage unit 31 stores the learning image data used for learning of the tap coefficient w n. Here, as the learning image data, for example, high-resolution image data with high resolution can be used.

教師データ生成部32は、学習用画像記憶部31から学習用画像データを読み出す。さらに、教師データ生成部32は、学習用画像データから、タップ係数の学習の教師(真値)、即ち、式(1)による予測演算としての写像の写像先の画素値となる教師データを生成し、教師データ記憶部33に供給する。ここでは、教師データ生成部32は、例えば、学習用画像データとしての高画質画像データを、そのまま教師データとして、教師データ記憶部33に供給する。   The teacher data generation unit 32 reads learning image data from the learning image storage unit 31. Further, the teacher data generation unit 32 generates, from the learning image data, teacher data for the tap coefficient learning (true value), that is, teacher data that becomes a pixel value of a mapping destination as a prediction calculation according to the equation (1). And supplied to the teacher data storage unit 33. Here, for example, the teacher data generation unit 32 supplies high-quality image data as learning image data to the teacher data storage unit 33 as teacher data as it is.

教師データ記憶部33は、教師データ生成部32から供給される教師データとしての高画質画像データを記憶する。   The teacher data storage unit 33 stores high-quality image data as teacher data supplied from the teacher data generation unit 32.

生徒データ生成部34は、学習用画像記憶部31から学習用画像データを読み出す。さらに、生徒データ生成部34は、学習用画像データから、タップ係数の学習の生徒、即ち、式(1)による予測演算としての写像による変換対象の画素値となる生徒データを生成し、生徒データ記憶部174に供給する。ここでは、生徒データ生成部34は、例えば、学習用画像データとしての高画質画像データをフィルタリングすることにより、その解像度を低下させることで、低画質画像データを生成し、この低画質画像データを、生徒データとして、生徒データ記憶部35に供給する。   The student data generation unit 34 reads learning image data from the learning image storage unit 31. Further, the student data generation unit 34 generates, from the learning image data, a student who learns the tap coefficient, that is, student data that is a pixel value to be converted by mapping as a prediction calculation according to Expression (1). The data is supplied to the storage unit 174. Here, the student data generation unit 34 generates low-quality image data by filtering the high-quality image data as the learning image data, for example, to reduce the resolution, and this low-quality image data is converted into the low-quality image data. , And supplied to the student data storage unit 35 as student data.

生徒データ記憶部35は、生徒データ生成部34から供給される生徒データを記憶する。   The student data storage unit 35 stores the student data supplied from the student data generation unit 34.

学習部36は、教師データ記憶部33に記憶された教師データとしての高画質画像データを構成する画素を、順次、注目画素とし、その注目画素について、生徒データ記憶部35に記憶された生徒データとしての低画質画像データを構成する低画質画素のうちの、図1のタップ選択部12が選択するのと同一のタップ構造の低画質画素を、予測タップとして選択する。さらに、学習部36は、教師データを構成する各画素と、その画素が注目画素とされたときに選択された予測タップとを用い、クラスごとに、式(8)の正規方程式をたてて解くことにより、クラスごとのタップ係数を求める。   The learning unit 36 sequentially sets pixels constituting the high-quality image data as the teacher data stored in the teacher data storage unit 33 as the target pixel, and the student data stored in the student data storage unit 35 for the target pixel. Among the low image quality pixels constituting the low image quality image data, a low image quality pixel having the same tap structure as that selected by the tap selection unit 12 in FIG. 1 is selected as a prediction tap. Further, the learning unit 36 uses each pixel constituting the teacher data and the prediction tap selected when the pixel is the target pixel, and establishes a normal equation of Expression (8) for each class. By solving, the tap coefficient for each class is obtained.

即ち、図4は、図3の学習部36の構成例を示している。   That is, FIG. 4 shows a configuration example of the learning unit 36 of FIG.

注目画素選択部41は、教師データ記憶部33に記憶されている教師データを構成する画素を、順次、注目画素として選択し、その注目画素を表す情報を、必要なブロックに供給する。   The target pixel selection unit 41 sequentially selects pixels constituting the teacher data stored in the teacher data storage unit 33 as the target pixel, and supplies information representing the target pixel to a necessary block.

タップ選択部42は、注目画素について、生徒データ記憶部35に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図1のタップ選択部12が選択するのと同一の画素を選択し、これにより、タップ選択部12で得られるのと同一のタップ構造の予測タップを得て、足し込み部45に供給する。   The tap selection unit 42 is the same pixel as the pixel of interest selected by the tap selection unit 12 in FIG. 1 from the low image quality pixels constituting the low image quality image data as the student data stored in the student data storage unit 35. As a result, a prediction tap having the same tap structure as that obtained by the tap selection unit 12 is obtained and supplied to the adding unit 45.

タップ選択部43は、注目画素について、生徒データ記憶部35に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図1のタップ選択部13が選択するのと同一の画素を選択し、これにより、タップ選択部13で得られるのと同一のタップ構造のクラスタップを得て、クラス分類部44に供給する。   The tap selection unit 43 is the same pixel as the pixel of interest selected by the tap selection unit 13 in FIG. 1 from the low image quality pixels constituting the low image quality image data as the student data stored in the student data storage unit 35. Thus, a class tap having the same tap structure as that obtained by the tap selection unit 13 is obtained and supplied to the class classification unit 44.

クラス分類部44は、タップ選択部43が出力するクラスタップに基づき、図1のクラス分類部14と同一のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部45に出力する。   The class classification unit 44 performs the same class classification as the class classification unit 14 of FIG. 1 based on the class tap output from the tap selection unit 43, and adds the class code corresponding to the resulting class to the addition unit 45. Output.

足し込み部45は、教師データ記憶部33から、注目画素となっている教師データ(画素)を読み出し、その注目画素と、タップ選択部42から供給される注目画素についての予測タップを構成する生徒データ(画素)とを対象とした足し込みを、クラス分類部44から供給されるクラスコードごとに行う。   The adding unit 45 reads the teacher data (pixels) that are the target pixel from the teacher data storage unit 33, and configures the target pixel and the prediction tap for the target pixel supplied from the tap selection unit 42. Addition for data (pixels) is performed for each class code supplied from the class classification unit 44.

即ち、足し込み部45には、教師データ記憶部33に記憶された教師データyk、タップ選択部42が出力する予測タップxn,k、クラス分類部44が出力するクラスコードが供給される。 That is, the addition unit 45 is supplied with the teacher data y k stored in the teacher data storage unit 33, the prediction tap x n, k output from the tap selection unit 42, and the class code output from the class classification unit 44. .

そして、足し込み部45は、クラス分類部44から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xn,kを用い、式(8)の左辺の行列における生徒データどうしの乗算(xn,kn',k)と、サメーション(Σ)に相当する演算を行う。 Then, the adding unit 45 uses the prediction tap (student data) x n, k for each class corresponding to the class code supplied from the class classifying unit 44 , and uses the prediction data (student data) x n, k for the student data in the matrix on the left side of equation (8). (X n, k x n ′, k ) and computation corresponding to summation (Σ).

さらに、足し込み部45は、やはり、クラス分類部44から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xn,kと教師データykを用い、式(8)の右辺のベクトルにおける生徒データxn,kおよび教師データykの乗算(xn,kk)と、サメーション(Σ)に相当する演算を行う。 Furthermore, the adding unit 45 also uses the prediction tap (student data) x n, k and the teacher data y k for each class corresponding to the class code supplied from the class classification unit 44, and the equation (8) Multiplication (x n, k y k ) of student data x n, k and teacher data y k in the vector on the right side and calculation corresponding to summation (Σ) are performed.

即ち、足し込み部45は、前回、注目画素とされた教師データについて求められた式(8)における左辺の行列のコンポーネント(Σxn,kn',k)と、右辺のベクトルのコンポーネント(Σxn,kk)を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネント(Σxn,kn',k)またはベクトルのコンポーネント(Σxn,kk)に対して、新たに注目画素とされた教師データについて、その教師データyk+1および生徒データxn,k+1を用いて計算される、対応するコンポーネントxn,k+1n',k+1またはxn,k+1k+1を足し込む(式(8)のサメーションで表される加算を行う)。 That is, the adding unit 45 performs the left-side matrix component (Σx n, k x n ′, k ) and the right-side vector component ( Σx n, k y k ) is stored in its built-in memory (not shown), and the matrix component (Σx n, k x n ′, k ) or vector component (Σx n, k y k) ), The corresponding component x n, k + 1 x n calculated using the teacher data y k + 1 and the student data x n, k + 1 for the teacher data newly set as the pixel of interest. ', k + 1 or x n, k + 1 y k + 1 is added (addition represented by the summation of equation (8) is performed).

そして、足し込み部45は、教師データ記憶部33(図3)に記憶された教師データすべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、式(8)に示した正規方程式をたてると、その正規方程式を、タップ係数算出部46に供給する。   Then, the addition unit 45 performs the above-described addition using all the teacher data stored in the teacher data storage unit 33 (FIG. 3) as the target pixel, so that the normality shown in Expression (8) is obtained for each class. When the equation is established, the normal equation is supplied to the tap coefficient calculation unit 46.

タップ係数算出部46は、足し込み部45から供給される各クラスについての正規方程式を解くことにより、各クラスについて、最適なタップ係数wnを求めて出力する。 Tap coefficient calculating section 46 solves the normal equations for each class supplied from the adder 45, for each class, and outputs the determined optimal tap coefficient w n.

図1の画像変換装置1における係数出力部15には、以上のようにして求められたクラスごとのタップ係数wnが記憶されている。 The coefficient output unit 15 in the image conversion apparatus 1 in FIG. 1, the tap coefficient w n for each class determined as described above is stored.

ここで、第1の画像データに対応する生徒データとする画像データと、第2の画像データに対応する教師データとする画像データの選択の仕方によって、タップ係数としては、上述したように、各種の画像変換処理を行うものを得ることができる。   Here, as described above, various tap coefficients may be used depending on how image data to be used as student data corresponding to the first image data and image data to be used as teacher data corresponding to the second image data are selected. What performs the image conversion process of this can be obtained.

即ち、上述のように、高画質画像データを、第2の画像データに対応する教師データとするとともに、その高画質画像データの空間解像度を劣化させた低画質画像データを、第1の画像データに対応する生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図5上から1番目に示すように、低画質画像データ(SD(Standard Definition)画像)である第1の画像データを、その空間解像度を向上させた高画質画像データ(HD(High Definition)画像データ)である第2の画像データに変換する空間解像度創造処理としての画像変換処理を行うものを得ることができる。   That is, as described above, the high-quality image data is used as teacher data corresponding to the second image data, and the low-quality image data obtained by degrading the spatial resolution of the high-quality image data is used as the first image data. As a tap coefficient, the first image which is low-quality image data (SD (Standard Definition) image) is shown as the first tap coefficient from the top of FIG. It is possible to obtain what performs image conversion processing as spatial resolution creation processing for converting data into second image data that is high-quality image data (HD (High Definition) image data) with improved spatial resolution. .

なお、この場合、第1の画像データ(生徒データ)は、第2の画像データ(教師データ)と画素数が同一であっても良いし、少なくても良い。   In this case, the first image data (student data) may have the same or less number of pixels as the second image data (teacher data).

また、例えば、高画質画像データを教師データとするとともに、その教師データとしての高画質画像データに対して、ノイズを重畳した画像データを生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図5上から2番目に示すように、低S/Nの画像データである第1の画像データを、そこに含まれるノイズを除去(低減)した高S/Nの画像データである第2の画像データに変換するノイズ除去処理としての画像変換処理を行うものを得ることができる。   Also, for example, the high-quality image data is used as teacher data, and the tap coefficient is learned by using, as the student data, image data on which noise is superimposed on the high-quality image data as the teacher data. As shown second from the top in FIG. 5, the first image data, which is low S / N image data, is high S / N image data obtained by removing (reducing) noise contained therein. What performs an image conversion process as a noise removal process converted into 2nd image data can be obtained.

さらに、例えば、ある画像データを教師データとするとともに、その教師データとしての画像データの画素数を間引いた画像データを生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図5上から3番目に示すように、画像データの一部である第1の画像データを、その第1の画像データを拡大した拡大画像データである第2の画像データに変換する拡大処理(リサイズ処理)としての画像変換処理を行うものを得ることができる。   Further, for example, by performing tap coefficient learning by using a certain piece of image data as teacher data and learning the tap coefficient using image data obtained by thinning out the number of pixels of the image data as the teacher data as the tap data, FIG. As shown in the third from the top, enlargement processing (resizing processing) for converting first image data that is a part of image data into second image data that is enlarged image data obtained by enlarging the first image data ) For performing the image conversion process.

なお、拡大処理を行うタップ係数は、高画質画像データを教師データとするとともに、その高画質画像データの空間解像度を、画素数を間引くことにより劣化させた低画質画像データを生徒データとして、タップ係数の学習を行うことによっても得ることができる。   Note that the tap coefficient for performing the enlargement processing is a tap using high-quality image data as teacher data and low-quality image data obtained by degrading the spatial resolution of the high-quality image data by thinning out the number of pixels as student data. It can also be obtained by learning coefficients.

また、例えば、高フレームレートの画像データを教師データとするとともに、その教師データとしての高フレームレートの画像データのフレームを間引いた画像データを生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図5上から4番目(1番下)に示すように、所定のフレームレートの第1の画像データを、高フレームレートの第2の画像データに変換する時間解像度創造処理としての画像変換処理を行うものを得ることができる。   In addition, for example, by using the high frame rate image data as the teacher data and learning the tap coefficient using the image data obtained by thinning out the frames of the high frame rate image data as the teacher data as the student data, taps are performed. As a coefficient, as shown in the fourth (first bottom) from the top in FIG. 5, as a time resolution creation process for converting the first image data having a predetermined frame rate into the second image data having a high frame rate. What performs an image conversion process can be obtained.

次に、図6のフローチャートを参照して、図3の学習装置21の処理(学習処理)について、説明する。   Next, processing (learning processing) of the learning device 21 in FIG. 3 will be described with reference to the flowchart in FIG.

最初に、ステップS21において、教師データ生成部32と生徒データ生成部34が、学習用画像記憶部31に記憶された学習用画像データから、教師データと生徒データを生成し、教師データ記憶部33と生徒データ生成部34にそれぞれ供給して記憶させる。   First, in step S 21, the teacher data generation unit 32 and the student data generation unit 34 generate teacher data and student data from the learning image data stored in the learning image storage unit 31, and the teacher data storage unit 33. Are supplied to and stored in the student data generation unit.

なお、教師データ生成部32と生徒データ生成部34において、それぞれ、どのような生徒データと教師データを生成するかは、上述したような種類の画像変換処理のうちのいずれの処理用のタップ係数の学習を行うかによって異なる。   Note that what kind of student data and teacher data are generated in the teacher data generation unit 32 and the student data generation unit 34, respectively, is a tap coefficient for which of the types of image conversion processing as described above. It depends on what you learn.

その後、処理はステップS22に進み、学習部36(図4)において、注目画素選択部41は、教師データ記憶部33に記憶された教師データのうち、まだ、注目画素としていないものを、注目画素として選択する。ステップS23では、タップ選択部42が、注目画素について、生徒データ記憶部35に記憶された生徒データから予測タップとする生徒データとしての画素を選択し、足し込み部45に供給するとともに、タップ選択部43が、やはり、注目画素について、生徒データ記憶部35に記憶された生徒データからクラスタップとする生徒データを選択し、クラス分類部44に供給する。   Thereafter, the process proceeds to step S22, and in the learning unit 36 (FIG. 4), the target pixel selection unit 41 sets the target pixel of the teacher data stored in the teacher data storage unit 33 that has not yet been set as the target pixel. Choose as. In step S23, the tap selection unit 42 selects a pixel as student data to be a prediction tap from the student data stored in the student data storage unit 35 for the target pixel, and supplies the selected pixel to the addition unit 45 and tap selection. Again, the unit 43 selects student data as class taps from the student data stored in the student data storage unit 35 for the pixel of interest, and supplies the selected class data to the class classification unit 44.

ステップS24において、クラス分類部44は、注目画素についてのクラスタップに基づき、注目画素のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部45に出力する。   In step S <b> 24, the class classification unit 44 performs class classification of the pixel of interest based on the class tap for the pixel of interest, and outputs a class code corresponding to the class obtained as a result to the adding unit 45.

ステップS25では、足し込み部45は、教師データ記憶部33から、注目画素を読み出し、その注目画素と、タップ選択部42から供給される注目画素について選択された予測タップを構成する生徒データとを対象とした式(8)の足し込みを、クラス分類部44から供給されるクラスコードごとに行う。   In step S <b> 25, the adding unit 45 reads the target pixel from the teacher data storage unit 33, and obtains the target pixel and student data constituting the prediction tap selected for the target pixel supplied from the tap selection unit 42. The addition of the target expression (8) is performed for each class code supplied from the class classification unit 44.

ステップS26では、注目画素選択部41が、教師データ記憶部33に、まだ、注目画素としていない教師データが記憶されているかどうかを判定する。ステップS26において、注目画素としていない教師データが、まだ、教師データ記憶部33に記憶されていると判定された場合、処理はステップS22に戻り、以下、同様の処理が繰り返される。   In step S <b> 26, the pixel-of-interest selection unit 41 determines whether teacher data that is not yet a pixel of interest is stored in the teacher data storage unit 33. If it is determined in step S26 that teacher data that is not a pixel of interest is still stored in the teacher data storage unit 33, the process returns to step S22, and the same process is repeated thereafter.

また、ステップS26において、注目画素としていない教師データが、教師データ記憶部33に記憶されていないと判定された場合、処理はステップS27に進み、足し込み部45は、いままでのステップS22乃至S26の処理によって得られたクラスごとの式(8)における左辺の行列と、右辺のベクトルを、タップ係数算出部46に供給する。   If it is determined in step S26 that teacher data that is not a pixel of interest is not stored in the teacher data storage unit 33, the process proceeds to step S27, and the adding unit 45 performs steps S22 to S26 so far. The matrix on the left side and the vector on the right side in the equation (8) for each class obtained by the above process are supplied to the tap coefficient calculation unit 46.

さらに、ステップS27では、タップ係数算出部46は、足し込み部45から供給されるクラスごとの式(8)における左辺の行列と右辺のベクトルによって構成されるクラスごとの正規方程式を解くことにより、クラスごとに、タップ係数wnを求めて出力し、処理を終了する。 Furthermore, in step S27, the tap coefficient calculation unit 46 solves the normal equation for each class constituted by the matrix on the left side and the vector on the right side in the equation (8) for each class supplied from the addition unit 45, for each class, and determines and outputs the tap coefficient w n, the process ends.

なお、学習用画像データの数が十分でないこと等に起因して、タップ係数を求めるのに必要な数の正規方程式が得られないクラスが生じることがあり得るが、そのようなクラスについては、タップ係数算出部46は、例えば、デフォルトのタップ係数を出力するようになっている。   It should be noted that due to the number of learning image data being insufficient, etc., there may occur a class in which the number of normal equations necessary for obtaining the tap coefficient cannot be obtained. The tap coefficient calculation unit 46 outputs a default tap coefficient, for example.

図7は、クラス分類適応処理による画像変換処理を行う他の画像変換装置である画像変換装置51の構成例を示している。   FIG. 7 shows a configuration example of an image conversion device 51 that is another image conversion device that performs image conversion processing by class classification adaptation processing.

なお、図中、図1における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、画像変換装置51は、係数出力部15に代えて、係数出力部55が設けられている他は、図1の画像変換装置1と同様に構成されている。   In the figure, portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the image conversion apparatus 51 is configured in the same manner as the image conversion apparatus 1 in FIG. 1 except that a coefficient output unit 55 is provided instead of the coefficient output unit 15.

係数出力部55には、クラス分類部14からクラス(クラスコード)が供給される他、例えば、ユーザの操作に応じて外部から入力されるパラメータzが供給されるようになっている。係数出力部55は、後述するようにして、パラメータzに対応するクラスごとのタップ係数を生成し、そのクラスごとのタップ係数のうちの、クラス分類部14からのクラスのタップ係数を、予測演算部16に出力する。   In addition to the class (class code) supplied from the class classification unit 14, the coefficient output unit 55 is supplied with, for example, a parameter z input from the outside in response to a user operation. The coefficient output unit 55 generates a tap coefficient for each class corresponding to the parameter z as will be described later, and predicts the tap coefficient of the class from the class classification unit 14 out of the tap coefficients for each class. To the unit 16.

図8は、図7の係数出力部55の構成例を示している。   FIG. 8 shows a configuration example of the coefficient output unit 55 of FIG.

係数生成部61は、係数種メモリ62に記憶されている係数種データと、パラメータメモリ63に記憶されたパラメータzとに基づいて、クラスごとのタップ係数を生成し、係数メモリ64に供給して上書きする形で記憶させる。   The coefficient generator 61 generates a tap coefficient for each class based on the coefficient seed data stored in the coefficient seed memory 62 and the parameter z stored in the parameter memory 63, and supplies the tap coefficient to the coefficient memory 64. Remember to overwrite.

係数種メモリ62は、後述する係数種データの学習によって得られるクラスごとの係数種データを記憶している。ここで、係数種データは、タップ係数を生成する、いわば種になるデータである。   The coefficient seed memory 62 stores coefficient seed data for each class obtained by learning of coefficient seed data described later. Here, the coefficient seed data is so-called seed data that generates tap coefficients.

パラメータメモリ63は、ユーザの操作等に応じて外部から入力されるパラメータzを上書きする形で記憶する。   The parameter memory 63 stores the parameter z input from the outside in accordance with a user operation or the like in an overwritten form.

係数メモリ64は、係数生成部61から供給されるクラスごとのタップ係数(パラメータzに対応するクラスごとのタップ係数)を記憶する。そして、係数メモリ64は、クラス分類部14(図7)から供給されるクラスのタップ係数を読み出し、予測演算部16(図7)に出力する。   The coefficient memory 64 stores the tap coefficient for each class supplied from the coefficient generation unit 61 (the tap coefficient for each class corresponding to the parameter z). And the coefficient memory 64 reads the tap coefficient of the class supplied from the class classification | category part 14 (FIG. 7), and outputs it to the prediction calculating part 16 (FIG. 7).

図7の画像変換装置51では、外部から係数出力部55に対して、パラメータzが入力されると、係数出力部55(図8)のパラメータメモリ63において、そのパラメータzが、上書きする形で記憶される。   In the image conversion apparatus 51 of FIG. 7, when the parameter z is input from the outside to the coefficient output unit 55, the parameter z is overwritten in the parameter memory 63 of the coefficient output unit 55 (FIG. 8). Remembered.

パラメータメモリ63にパラメータzが記憶されると(パラメータメモリ63の記憶内容が更新されると)、係数生成部61は、係数種メモリ62からクラスごとの係数種データを読み出すとともに、パラメータメモリ63からパラメータzを読み出し、その係数種データとパラメータzに基づいて、クラスごとのタップ係数を求める。そして、係数生成部61は、そのクラスごとのタップ係数を、係数メモリ64に供給し、上書きする形で記憶させる。   When the parameter z is stored in the parameter memory 63 (when the storage content of the parameter memory 63 is updated), the coefficient generation unit 61 reads out the coefficient seed data for each class from the coefficient seed memory 62 and from the parameter memory 63. The parameter z is read, and the tap coefficient for each class is obtained based on the coefficient seed data and the parameter z. Then, the coefficient generation unit 61 supplies the tap coefficient for each class to the coefficient memory 64 and stores it in the form of overwriting.

画像変換装置51では、タップ係数を記憶しており、そのタップ係数を出力する係数出力部15に代えて設けられている係数出力部55において、パラメータzに対応するタップ係数を生成して出力することを除いて、図1の画像変換装置1が行う図2のフローチャートにしたがった処理と同様の処理が行われる。   The image conversion device 51 stores tap coefficients, and generates and outputs tap coefficients corresponding to the parameter z in a coefficient output unit 55 provided in place of the coefficient output unit 15 that outputs the tap coefficients. Except for this, processing similar to the processing according to the flowchart of FIG. 2 performed by the image conversion apparatus 1 of FIG. 1 is performed.

次に、図7の予測演算部16における予測演算、並びに図8の係数生成部61におけるタップ係数の生成および係数種メモリ62に記憶させる係数種データの学習について説明する。   Next, prediction calculation in the prediction calculation unit 16 in FIG. 7, generation of tap coefficients in the coefficient generation unit 61 in FIG. 8, and learning of coefficient seed data stored in the coefficient seed memory 62 will be described.

図1の実施の形態における場合のように、高画質の画像データ(高画質画像データ)を第2の画像データとするとともに、その高画質画像データの空間解像度を低下させた低画質の画像データ(低画質画像データ)を第1の画像データとして、低画質画像データから予測タップを選択し、その予測タップとタップ係数を用いて、高画質画像データの画素である高画質画素の画素値を、例えば、式(1)の線形1次予測演算によって求める(予測する)ことを考える。   As in the embodiment of FIG. 1, low-quality image data in which high-quality image data (high-quality image data) is used as second image data and the spatial resolution of the high-quality image data is reduced. (Low-quality image data) is the first image data, a prediction tap is selected from the low-quality image data, and the pixel value of the high-quality pixel that is a pixel of the high-quality image data is selected using the prediction tap and the tap coefficient. For example, consider obtaining (predicting) by linear primary prediction calculation of equation (1).

ここで、高画質画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。   Here, the pixel value y of the high-quality pixel can be obtained not by the linear primary expression shown in Expression (1) but by a higher-order expression of the second or higher order.

図8の実施の形態では、係数生成部61において、タップ係数wnが、係数種メモリ62に記憶された係数種データと、パラメータメモリ63に記憶されたパラメータzとから生成されるが、この係数生成部61におけるタップ係数wnの生成が、例えば、係数種データとパラメータzを用いた次式によって行われることとする。 In the embodiment of FIG. 8, the coefficient generation unit 61 generates the tap coefficient w n from the coefficient seed data stored in the coefficient seed memory 62 and the parameter z stored in the parameter memory 63. generating the tap coefficient w n in the coefficient generating unit 61, for example, to be performed by the following equation using the coefficient seed data and the parameter z.

Figure 2009026026
Figure 2009026026

但し、式(9)において、βm,nは、n番目のタップ係数wnを求めるのに用いられるm番目の係数種データを表す。なお、式(9)では、タップ係数wnが、M個の係数種データβ1,n,β2,n,・・・,βM,nを用いて求められるようになっている。 However, in the equation (9), beta m, n denotes the m-th coefficient seed data used for determining the n-th tap coefficient w n. In the equation (9), the tap coefficient w n is obtained using M coefficient seed data β 1, n , β 2, n ,..., Β M, n .

ここで、係数種データβm,nとパラメータzから、タップ係数wnを求める式は、式(9)に限定されるものではない。 Here, the formula for obtaining the tap coefficient w n from the coefficient seed data β m, n and the parameter z is not limited to the formula (9).

いま、式(9)におけるパラメータzによって決まる値zm-1を、新たな変数tmを導入して、次式で定義する。 Now, a value z m−1 determined by the parameter z in equation (9) is defined by the following equation by introducing a new variable t m .

Figure 2009026026
Figure 2009026026

式(10)を、式(9)に代入することにより、次式が得られる。   By substituting equation (10) into equation (9), the following equation is obtained.

Figure 2009026026
Figure 2009026026

式(11)によれば、タップ係数wnは、係数種データβm,nと変数tmとの線形1次式によって求められることになる。 According to equation (11), the tap coefficient w n will be asked by the linear first-order equation of the coefficient seed data beta m, n and the variable t m.

ところで、いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk'と表すと、その予測誤差ekは、次式で表される。 Now, when the true value of the pixel value of the high-quality pixel of the k-th sample is expressed as y k and the predicted value of the true value y k obtained by the equation (1) is expressed as y k ′, the prediction error e k is expressed by the following equation.

Figure 2009026026
Figure 2009026026

いま、式(12)の予測値yk'は、式(1)にしたがって求められるため、式(12)のyk'を、式(1)にしたがって置き換えると、次式が得られる。 Now, since the predicted value y k ′ of Expression (12) is obtained according to Expression (1), when y k ′ of Expression (12) is replaced according to Expression (1), the following expression is obtained.

Figure 2009026026
Figure 2009026026

但し、式(13)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の低画質画素を表す。 In Equation (13), x n, k represents the n-th low-quality pixel that constitutes the prediction tap for the high-quality pixel of the k-th sample.

式(13)のwnに、式(11)を代入することにより、次式が得られる。 To w n of formula (13), by substituting equation (11), the following equation is obtained.

Figure 2009026026
Figure 2009026026

式(14)の予測誤差ekを0とする係数種データβm,nが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのような係数種データβm,nを求めることは、一般には困難である。 Prediction error e k coefficient seed data beta m, n to 0 in Equation (14), is the optimal for predicting the high-quality pixel, for all the high-quality pixel, such coefficient seed data It is generally difficult to obtain β m, n .

そこで、係数種データβm,nが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適な係数種データβm,nは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as a standard indicating that the coefficient seed data β m, n is optimal, for example, when the least square method is adopted, the optimal coefficient seed data β m, n is expressed by the following equation. It can be obtained by minimizing the sum E of square errors.

Figure 2009026026
Figure 2009026026

但し、式(15)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。 However, in Expression (15), K is a high-quality pixel y k and low-quality pixels x 1, k , x 2, k ,..., X N that constitute a prediction tap for the high-quality pixel y k. , k represents the number of samples (the number of learning samples).

式(15)の自乗誤差の総和Eの最小値(極小値)は、式(16)に示すように、総和Eを係数種データβm,nで偏微分したものを0とするβm,nによって与えられる。 The minimum value (minimum value) of the sum E of squared errors in Equation (15) is β m, where 0 is a partial differentiation of the sum E with coefficient seed data β m, n as shown in Equation (16) . given by n .

Figure 2009026026
Figure 2009026026

式(13)を、式(16)に代入することにより、次式が得られる。   By substituting equation (13) into equation (16), the following equation is obtained.

Figure 2009026026
Figure 2009026026

いま、Xi,p,j,qとYi,pを、式(18)と(19)に示すように定義する。 Now, X i, p, j, q and Y i, p are defined as shown in equations (18) and (19).

Figure 2009026026
Figure 2009026026

Figure 2009026026
Figure 2009026026

この場合、式(17)は、Xi,p,j,qとYi,pを用いた式(20)に示す正規方程式で表すことができる。 In this case, Expression (17) can be expressed by a normal equation shown in Expression (20) using X i, p, j, q and Y i, p .

Figure 2009026026
Figure 2009026026

式(20)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、係数種データβm,nについて解くことができる。 The normal equation of Expression (20) can be solved for the coefficient seed data β m, n by using, for example, a sweeping method (Gauss-Jordan elimination method) or the like.

図7の画像変換装置51においては、多数の高画質画素y1,y2,・・・,yKを学習の教師となる教師データとするとともに、各高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kを学習の生徒となる生徒データとして、クラスごとに式(20)の正規方程式をたてて解く学習を行うことにより求められたクラスごとの係数種データβm,nが、係数出力部55(図8)の係数種メモリ62に記憶されており、係数生成部61では、その係数種データβm,nと、パラメータメモリ63に記憶されたパラメータzから、式(9)にしたがって、クラスごとのタップ係数wnが生成される。そして、予測演算部16において、そのタップ係数wnと、高画質画素としての注目画素についての予測タップを構成する低画質画素(第1の画像データの画素)xnを用いて、式(1)が計算されることにより、高画質画素としての注目画素の画素値(に近い予測値)が求められる。 In the image conversion device 51 of FIG. 7, a large number of high-quality pixels y 1 , y 2 ,..., Y K are used as teacher data for learning, and prediction taps for the respective high-quality pixels y k are used. low quality pixels x 1, k that constitute, x 2, k, ···, x N, as student data serving as a student learning k, the vertical and solves learning normal equation of formula (20) for each class The coefficient seed data β m, n for each class obtained by performing is stored in the coefficient seed memory 62 of the coefficient output unit 55 (FIG. 8), and the coefficient generation unit 61 stores the coefficient seed data β m, n. and n, from the stored parameter z in the parameter memory 63, according to equation (9), the tap coefficient w n for each class is generated. Then, the prediction calculation unit 16 uses the tap coefficient w n and the low image quality pixel (the pixel of the first image data) x n constituting the prediction tap for the pixel of interest as the high image quality pixel, and the equation (1) ) Is calculated, the pixel value of the target pixel as a high-quality pixel (predicted value close to it) is obtained.

図9は、式(20)の正規方程式をクラスごとにたてて解くことにより、クラスごとの係数種データβm,nを求める学習を行う学習装置71の構成例を示している。 FIG. 9 shows a configuration example of a learning device 71 that performs learning for obtaining coefficient seed data β m, n for each class by solving the normal equation of Expression (20) for each class.

なお、図中、図3の学習装置21における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、学習装置71は、生徒データ生成部34と学習部36に代えて、生徒データ生成部74と学習部76がそれぞれ設けられているとともに、パラメータ生成部81が新たに設けられている他は、図3の学習装置21と同様に構成されている。   In the figure, portions corresponding to those in the learning device 21 of FIG. 3 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the learning device 71 is provided with a student data generation unit 74 and a learning unit 76 instead of the student data generation unit 34 and the learning unit 36, respectively, and a parameter generation unit 81 is newly provided. 3 is configured in the same manner as the learning device 21 in FIG.

生徒データ生成部74は、図3の生徒データ生成部34と同様に、学習用画像データから生徒データを生成し、生徒データ記憶部35に供給して記憶させる。   The student data generation unit 74 generates student data from the learning image data, and supplies the student data to the student data storage unit 35 to store the same as in the student data generation unit 34 of FIG.

但し、生徒データ生成部74には、学習用画像データの他、図8のパラメータメモリ63に供給されるパラメータzが取り得る範囲の幾つかの値が、パラメータ生成部81から供給されるようになっている。即ち、いま、パラメータzが取り得る値が0乃至Zの範囲の実数であるとすると、生徒データ生成部74には、例えば、z=0,1,2,・・・,Zが、パラメータ生成部81から供給されるようになっている。   However, in addition to the learning image data, the student data generation unit 74 is supplied with some values in the range that can be taken by the parameter z supplied to the parameter memory 63 of FIG. It has become. That is, assuming that the value that can be taken by the parameter z is a real number in the range of 0 to Z, the student data generation unit 74 has, for example, z = 0, 1, 2,. It is supplied from the section 81.

生徒データ生成部74は、学習用画像データとしての高画質画像データを、例えば、そこに供給されるパラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより、生徒データとしての低画質画像データを生成する。   The student data generation unit 74 filters low-quality image data as student data by filtering high-quality image data as learning image data using, for example, an LPF having a cutoff frequency corresponding to the parameter z supplied thereto. Is generated.

従って、生徒データ生成部74では、学習用画像データとしての高画質画像データについて、Z+1種類の、空間解像度の異なる生徒データとしての低画質画像データが生成される。   Accordingly, the student data generation unit 74 generates Z + 1 types of low-quality image data as student data having different spatial resolutions for the high-quality image data as the learning image data.

なお、ここでは、例えば、パラメータzの値が大きくなるほど、カットオフ周波数の高いLPFを用いて、高画質画像データをフィルタリングし、生徒データとしての低画質画像データを生成するものとする。従って、ここでは、値の大きいパラメータzに対応する低画質画像データほど、空間解像度が高い。   Note that, here, for example, as the value of the parameter z increases, the high-quality image data is filtered by using an LPF with a high cutoff frequency, and low-quality image data as student data is generated. Therefore, here, the lower the image quality data corresponding to the larger parameter z, the higher the spatial resolution.

また、本実施の形態では、説明を簡単にするために、生徒データ生成部74において、高画質画像データの水平方向および垂直方向の両方向の空間解像度を、パラメータzに対応する分だけ低下させた低画質画像データを生成するものとする。   In the present embodiment, in order to simplify the explanation, the student data generation unit 74 reduces the spatial resolution of the high-quality image data in both the horizontal and vertical directions by an amount corresponding to the parameter z. Assume that low-quality image data is generated.

学習部76は、教師データ記憶部33に記憶された教師データ、生徒データ記憶部35に記憶された生徒データ、およびパラメータ生成部81から供給されるパラメータzを用いて、クラスごとの係数種データを求めて出力する。   The learning unit 76 uses the teacher data stored in the teacher data storage unit 33, the student data stored in the student data storage unit 35, and the parameter z supplied from the parameter generation unit 81, so that the coefficient seed data for each class. Is output.

パラメータ生成部81は、パラメータzが取り得る範囲の幾つかの値としての、例えば、上述したようなz=0,1,2,・・・,Zを生成し、生徒データ生成部74と学習部76に供給する。   The parameter generation unit 81 generates, for example, z = 0, 1, 2,..., Z as described above as several values in the range that the parameter z can take, and learns with the student data generation unit 74. To the unit 76.

図10は、図9の学習部76の構成例を示している。なお、図中、図4の学習部36における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。   FIG. 10 shows a configuration example of the learning unit 76 of FIG. In the figure, portions corresponding to those in the learning unit 36 in FIG. 4 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.

タップ選択部92は、図4のタップ選択部42と同様に、注目画素について、生徒データ記憶部35に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図7のタップ選択部12が選択するのと同一のタップ構造の予測タップを選択し、足し込み部95に供給する。   As with the tap selection unit 42 in FIG. 4, the tap selection unit 92 performs the tap in FIG. 7 from the low quality pixels that constitute the low quality image data as the student data stored in the student data storage unit 35 for the target pixel. A prediction tap having the same tap structure as that selected by the selection unit 12 is selected and supplied to the addition unit 95.

タップ選択部93も、図4のタップ選択部43と同様に、注目画素について、生徒データ記憶部35に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図7のタップ選択部13が選択するのと同一のタップ構造のクラスタップを選択し、クラス分類部44に供給する。   As with the tap selection unit 43 in FIG. 4, the tap selection unit 93 also taps the pixel of interest from the low-quality pixels constituting the low-quality image data as the student data stored in the student data storage unit 35 with respect to the target pixel. A class tap having the same tap structure as the selection unit 13 selects is selected and supplied to the class classification unit 44.

但し、図10では、タップ選択部42と43に、図9のパラメータ生成部81が生成するパラメータzが供給されるようになっており、タップ選択部42と43は、パラメータ生成部81から供給されるパラメータzに対応して生成された生徒データ(ここでは、パラメータzに対応するカットオフ周波数のLPFを用いて生成された生徒データとしての低画質画像データ)から、予測タップとクラスタップをそれぞれ選択する。   However, in FIG. 10, the parameter z generated by the parameter generation unit 81 in FIG. 9 is supplied to the tap selection units 42 and 43, and the tap selection units 42 and 43 are supplied from the parameter generation unit 81. Prediction taps and class taps are generated from student data generated corresponding to the parameter z to be generated (here, low-quality image data as student data generated using the LPF of the cutoff frequency corresponding to the parameter z). Select each one.

足し込み部95は、図9の教師データ記憶部33から、注目画素を読み出し、その注目画素、タップ選択部42から供給される注目画素について構成された予測タップを構成する生徒データ、およびその生徒データを生成したときのパラメータzを対象とした足し込みを、クラス分類部44から供給されるクラスごとに行う。   The adding unit 95 reads out the target pixel from the teacher data storage unit 33 in FIG. 9, student data constituting the target pixel, the prediction tap configured for the target pixel supplied from the tap selection unit 42, and the student The addition for the parameter z when the data is generated is performed for each class supplied from the class classification unit 44.

即ち、足し込み部95には、教師データ記憶部33に記憶された注目画素としての教師データyk、タップ選択部42が出力する注目画素についての予測タップxi,k(xj,k)、およびクラス分類部44が出力する注目画素のクラスが供給されるとともに、注目画素についての予測タップを構成する生徒データを生成したときのパラメータzが、パラメータ生成部81から供給される。 In other words, the addition unit 95 includes the teacher data y k as the target pixel stored in the teacher data storage unit 33 and the prediction tap x i, k (x j, k ) for the target pixel output from the tap selection unit 42. The class of the pixel of interest output from the class classification unit 44 is supplied, and the parameter z when the student data constituting the prediction tap for the pixel of interest is generated is supplied from the parameter generation unit 81.

そして、足し込み部95は、クラス分類部44から供給されるクラスごとに、予測タップ(生徒データ)xi,k(xj,k)とパラメータzを用い、式(20)の左辺の行列における、式(18)で定義されるコンポーネントXi,p,j,qを求めるための生徒データおよびパラメータzの乗算(xi,kpj,kq)と、サメーション(Σ)に相当する演算を行う。なお、式(18)のtpは、式(10)にしたがって、パラメータzから計算される。式(18)のtqも同様である。 Then, the adding unit 95 uses the prediction tap (student data) x i, k (x j, k ) and the parameter z for each class supplied from the class classification unit 44 , and the matrix on the left side of Expression (20). Of the student data and the parameter z for obtaining the component X i, p, j, q defined by the equation (18) (x i, k t p x j, k t q ) and summation (Σ ) Is performed. Incidentally, t p of formula (18), according to equation (10), is calculated from the parameter z. The same applies to tq in equation (18).

さらに、足し込み部95は、やはり、クラス分類部44から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xi,k、教師データyk、およびパラメータzを用い、式(20)の右辺のベクトルにおける、式(19)で定義されるコンポーネントYi,pを求めるための生徒データxi,k、教師データyk、およびパラメータzの乗算(xi,kpk)と、サメーション(Σ)に相当する演算を行う。なお、式(19)のtpは、式(10)にしたがって、パラメータzから計算される。 Further, the adding unit 95 also uses the prediction tap (student data) x i, k , the teacher data y k , and the parameter z for each class corresponding to the class code supplied from the class classification unit 44, and uses the formula z Multiplication (x i, k t p ) of student data x i, k , teacher data y k , and parameter z for obtaining the component Y i, p defined by equation (19) in the vector on the right side of (20) y k ) and a calculation corresponding to summation (Σ). Incidentally, t p of formula (19), according to equation (10), is calculated from the parameter z.

即ち、足し込み部95は、前回、注目画素とされた教師データについて求められた式(20)における左辺の行列のコンポーネントXi,p,j,qと、右辺のベクトルのコンポーネントYi,pを、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネントXi,p,j,qまたはベクトルのコンポーネントYi,pに対して、新たに注目画素とされた教師データについて、その教師データyk、生徒データxi,k(xj,k)、およびパラメータzを用いて計算される、対応するコンポーネントxi,kpj,kqまたはxi,kpkを足し込む(式(18)のコンポーネントXi,p,j,qまたは式(19)のコンポーネントYi,pにおけるサメーションで表される加算を行う)。 That is, the adding unit 95 performs the left-side matrix component X i, p, j, q and the right-side vector component Y i, p in Expression (20) previously obtained for the teacher data set as the target pixel. Is stored in its built-in memory (not shown), and the teacher data newly set as the pixel of interest for the matrix component X i, p, j, q or the vector component Y i, p , The corresponding component x i, k t p x j, k t q or x i, calculated using the teacher data y k , student data x i, k (x j, k ), and parameter z k t p y k is added (addition represented by summation in the component X i, p, j, q in the equation (18) or the component Y i, p in the equation (19) is performed).

そして、足し込み部95は、0,1,・・・,Zのすべての値のパラメータzにつき、教師データ記憶部33に記憶された教師データすべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、式(20)に示した正規方程式をたてると、その正規方程式を、係数種算出部96に供給する。   Then, the addition unit 95 performs the above-described addition for all the parameter data z of 0, 1,..., Z, using all the teacher data stored in the teacher data storage unit 33 as the target pixel. Thus, when the normal equation shown in the equation (20) is established for each class, the normal equation is supplied to the coefficient seed calculating unit 96.

係数種算出部96は、足し込み部95から供給されるクラスごとの正規方程式を解くことにより、各クラスごとの係数種データβm,nを求めて出力する。 The coefficient seed calculator 96 obtains and outputs coefficient seed data β m, n for each class by solving the normal equation for each class supplied from the adder 95.

次に、図11のフローチャートを参照して、図9の学習装置71の処理(学習処理)について、説明する。   Next, processing (learning processing) of the learning device 71 in FIG. 9 will be described with reference to the flowchart in FIG.

最初に、ステップS31において、教師データ生成部32と生徒データ生成部74が、学習用画像記憶部31に記憶された学習用画像データから、教師データと生徒データを、それぞれ生成して出力する。即ち、教師データ生成部32は、学習用画像データを、例えば、そのまま、教師データとして出力する。また、生徒データ生成部74には、パラメータ生成部81が生成するZ+1個の値のパラメータzが供給される。生徒データ生成部74は、例えば、学習用画像データを、パラメータ生成部81からのZ+1個の値(0,1,・・・,Z)のパラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより、各フレームの教師データ(学習用画像データ)について、Z+1フレームの生徒データを生成して出力する。   First, in step S31, the teacher data generation unit 32 and the student data generation unit 74 generate and output teacher data and student data from the learning image data stored in the learning image storage unit 31, respectively. That is, the teacher data generation unit 32 outputs the learning image data as it is, for example, as teacher data. In addition, the student data generation unit 74 is supplied with a parameter z of Z + 1 values generated by the parameter generation unit 81. For example, the student data generation unit 74 filters the learning image data with an LPF having a cutoff frequency corresponding to the parameter z of Z + 1 values (0, 1,..., Z) from the parameter generation unit 81. Thus, the Z + 1 frame student data is generated and output for the teacher data (learning image data) of each frame.

教師データ生成部32が出力する教師データは、教師データ記憶部33に供給されて記憶され、生徒データ生成部74が出力する生徒データは、生徒データ記憶部35に供給されて記憶される。   The teacher data output from the teacher data generation unit 32 is supplied to and stored in the teacher data storage unit 33, and the student data output from the student data generation unit 74 is supplied to and stored in the student data storage unit 35.

その後、ステップS32において、パラメータ生成部81は、パラメータzを、初期値としての、例えば0にセットし、学習部76(図10)のタップ選択部42および43、並びに足し込み部95に供給する。ステップS33では、注目画素選択部41は、教師データ記憶部33に記憶された教師データのうち、まだ、注目画素としていないものを、注目画素として選択する。   Thereafter, in step S32, the parameter generation unit 81 sets the parameter z to, for example, 0 as an initial value, and supplies the parameter z to the tap selection units 42 and 43 and the addition unit 95 of the learning unit 76 (FIG. 10). . In step S <b> 33, the target pixel selection unit 41 selects, as the target pixel, the teacher data stored in the teacher data storage unit 33 that has not yet been set as the target pixel.

ステップS34では、タップ選択部42が、注目画素について、生徒データ記憶部35に記憶された、パラメータ生成部81が出力するパラメータzに対する生徒データ(注目画素となっている教師データに対応する学習用画像データを、パラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより生成された生徒データ)から予測タップを選択し、足し込み部95に供給する。さらに、ステップS34では、タップ選択部43が、やはり、注目画素について、生徒データ記憶部35に記憶された、パラメータ生成部81が出力するパラメータzに対する生徒データからクラスタップを選択し、クラス分類部44に供給する。   In step S34, the tap selection unit 42 stores the student data corresponding to the parameter z output from the parameter generation unit 81 and stored in the student data storage unit 35 for the target pixel (for learning corresponding to the teacher data serving as the target pixel). A prediction tap is selected from the student data generated by filtering the image data with the LPF having the cutoff frequency corresponding to the parameter z, and supplied to the adding unit 95. Furthermore, in step S34, the tap selection unit 43 selects a class tap from the student data corresponding to the parameter z output from the parameter generation unit 81 and stored in the student data storage unit 35 for the target pixel, and the class classification unit. 44.

そして、ステップS35において、クラス分類部44は、注目画素についてのクラスタップに基づき、注目画素のクラス分類を行い、その結果得られる注目画素のクラスを、足し込み部95に出力する。   In step S 35, the class classification unit 44 classifies the target pixel based on the class tap for the target pixel, and outputs the class of the target pixel obtained as a result to the adding unit 95.

ステップS36では、足し込み部95は、教師データ記憶部33から注目画素を読み出し、その注目画素、タップ選択部42から供給される予測タップ、パラメータ生成部81が出力するパラメータzを用い、式(20)における左辺の行列のコンポーネントxi,Kpj,Kqと、右辺のベクトルのコンポーネントxi,KpKを計算する。さらに、足し込み部95は、既に得られている行列のコンポーネントとベクトルのコンポーネントのうち、クラス分類部44からの注目画素のクラスに対応するものに対して、注目画素、予測タップ、およびパラメータzから求められた行列のコンポーネントxi,Kpj,Kqとベクトルのコンポーネントxi,KpKの足し込みを行う。 In step S <b> 36, the adding unit 95 reads the target pixel from the teacher data storage unit 33, uses the target pixel, the prediction tap supplied from the tap selection unit 42, and the parameter z output from the parameter generation unit 81. In step 20), the left side matrix component x i, K t p xj, K t q and the right side vector component x i, K t p y K are calculated. Further, the addition unit 95 applies the target pixel, the prediction tap, and the parameter z to the matrix component and the vector component that have already been obtained, corresponding to the class of the target pixel from the class classification unit 44. The matrix components x i, K t p x j, K t q obtained from the above are added to the vector components x i, K t p y K.

ステップS37では、パラメータ生成部81が、自身が出力しているパラメータzが、その取り得る値の最大値であるZに等しいかどうかを判定する。ステップS37において、パラメータ生成部81が出力しているパラメータzが最大値Zに等しくない(最大値Z未満である)と判定された場合、処理はステップS38に進み、パラメータ生成部81は、パラメータzに1を加算し、その加算値を新たなパラメータzとして、学習部76(図10)のタップ選択部42および43、並びに足し込み部95に出力する。そして、処理はステップS34に戻り、以下、同様の処理が繰り返される。   In step S37, the parameter generation unit 81 determines whether or not the parameter z output by itself is equal to Z which is the maximum value that can be taken. In step S37, when it is determined that the parameter z output from the parameter generation unit 81 is not equal to the maximum value Z (less than the maximum value Z), the process proceeds to step S38, and the parameter generation unit 81 1 is added to z, and the added value is output as a new parameter z to the tap selection units 42 and 43 and the addition unit 95 of the learning unit 76 (FIG. 10). Then, the process returns to step S34, and the same process is repeated thereafter.

また、ステップS37において、パラメータzが最大値Zに等しいと判定された場合、処理はステップS39に進み、注目画素選択部41が、教師データ記憶部33に、まだ、注目画素としていない教師データが記憶されているかどうかを判定する。ステップS38において、注目画素としていない教師データが、まだ、教師データ記憶部33に記憶されていると判定された場合、処理はステップS32に戻り、以下、同様の処理が繰り返される。   If it is determined in step S37 that the parameter z is equal to the maximum value Z, the process proceeds to step S39, and the pixel-of-interest selection unit 41 stores in the teacher data storage unit 33 teacher data that is not yet a pixel of interest. Determine if it is stored. If it is determined in step S38 that teacher data that is not a pixel of interest is still stored in the teacher data storage unit 33, the process returns to step S32, and the same process is repeated thereafter.

また、ステップS39において、注目画素としていない教師データが、教師データ記憶部33に記憶されていないと判定された場合、処理はステップS40に進み、足し込み部95は、いままでの処理によって得られたクラスごとの式(20)における左辺の行列と、右辺のベクトルを、係数種算出部96に供給する。   If it is determined in step S39 that the teacher data that is not the pixel of interest is not stored in the teacher data storage unit 33, the process proceeds to step S40, and the adding unit 95 is obtained by the processing so far. The matrix on the left side and the vector on the right side in the equation (20) for each class are supplied to the coefficient seed calculation unit 96.

さらに、ステップS40において、係数種算出部96は、足し込み部95から供給されるクラスごとの式(20)における左辺の行列と右辺のベクトルによって構成されるクラスごとの正規方程式を解くことにより、クラスごとに、係数種データβm,nを求めて出力し、処理を終了する。 Further, in step S40, the coefficient seed calculating unit 96 solves the normal equation for each class constituted by the matrix on the left side and the vector on the right side in the equation (20) for each class supplied from the adding unit 95, The coefficient seed data β m, n is obtained and output for each class, and the process is terminated.

なお、学習用画像データの数が十分でないこと等に起因して、係数種データを求めるのに必要な数の正規方程式が得られないクラスが生じることがあり得るが、そのようなクラスについては、係数種算出部96は、例えば、デフォルトの係数種データを出力するようになっている。   In addition, due to the number of learning image data being insufficient, etc., there may occur a class in which the number of normal equations necessary for obtaining coefficient seed data cannot be obtained. The coefficient seed calculation unit 96 outputs default coefficient seed data, for example.

ところで、図9の学習装置71では、学習用画像データとしての高画質画像データを教師データとするとともに、その高画質画像データの空間解像度を、パラメータzに対応して劣化させた低画質画像データを生徒データとして、タップ係数wnおよび生徒データxnから式(1)の線形1次式で予測される教師データの予測値yの自乗誤差の総和を最小にする係数種データβm,nを直接求める学習を行うようにしたが、係数種データβm,nの学習は、その他、例えば、次のようにして行うことが可能である。 By the way, in the learning device 71 of FIG. 9, the high-quality image data as the learning image data is used as the teacher data, and the low-quality image data in which the spatial resolution of the high-quality image data is degraded in accordance with the parameter z. Is the coefficient seed data β m, n that minimizes the sum of the square error of the predicted value y of the teacher data predicted from the tap coefficient w n and the student data x n by the linear linear expression of Expression (1). However, the learning of the coefficient seed data β m, n can be performed as follows, for example.

即ち、学習装置71は、学習用画像データとしての高画質画像データを教師データとするとともに、その高画質画像データを、パラメータzに対応したカットオフ周波数のLPFによってフィルタリングすることにより、その水平解像度および垂直解像度を低下させた低画質画像データを生徒データとして、まず最初に、タップ係数wnおよび生徒データxnを用いて式(1)の線形1次予測式で予測される教師データの予測値yの自乗誤差の総和を最小にするタップ係数wnを、パラメータzの値(ここでは、z=0,1,・・・,Z)ごとに求める。そして、学習装置71は、そのパラメータzの値ごとに求められたタップ係数wnを教師データとするとともに、パラメータzを生徒データとして、式(11)によって係数種データβm,nおよび生徒データであるパラメータzに対応する変数tmから予測される教師データとしてのタップ係数wnの予測値の自乗誤差の総和を最小にする係数種データβm,nを求める。 That is, the learning device 71 uses the high-quality image data as the learning image data as the teacher data, and filters the high-quality image data with the LPF having the cutoff frequency corresponding to the parameter z, thereby obtaining the horizontal resolution. and a low-quality image data with a reduced vertical resolution as student data, first, the prediction of the teacher data to be predicted by using the tap coefficient w n and the student data x n in the linear first-order prediction equation of the formula (1) A tap coefficient w n that minimizes the sum of square errors of the value y is obtained for each value of the parameter z (here, z = 0, 1,..., Z). Then, the learning apparatus 71, as well as the tap coefficient w n which is determined for each value of the parameter z and the teacher data, the parameter z as the learner data, the coefficient seed data beta m, n and student data by equation (11) obtaining coefficient seed data beta m, n that minimizes the sum of square errors of the prediction value of the tap coefficient w n of the parameter z as the teacher data is predicted from the corresponding variable t m is.

ここで、式(1)の線形1次予測式で予測される教師データの予測値yの自乗誤差の総和Eを最小(極小)にするタップ係数wnは、図3の学習装置21における場合と同様に、式(8)の正規方程式をたてて解くことにより、各クラスについて、パラメータzの値(z=0,1,・・・,Z)ごとに求めることができる。 Here, the tap coefficient w n that minimizes the sum E of the squared errors of the predicted values y of the teacher data predicted by the linear primary prediction expression of Expression (1) is the case in the learning device 21 of FIG. Similarly to the above, by solving and solving the normal equation of the equation (8), each class can be obtained for each value of the parameter z (z = 0, 1,..., Z).

ところで、タップ係数は、式(11)に示したように、係数種データβm,nと、パラメータzに対応する変数tmとから求められる。そして、いま、この式(11)によって求められるタップ係数を、wn'と表すこととすると、次の式(21)で表される、最適なタップ係数wnと式(11)により求められるタップ係数wn'との誤差enを0とする係数種データβm,nが、最適なタップ係数wnを求めるのに最適な係数種データとなるが、すべてのタップ係数wnについて、そのような係数種データβm,nを求めることは、一般には困難である。 Incidentally, the tap coefficient is obtained from the coefficient seed data β m, n and the variable t m corresponding to the parameter z, as shown in the equation (11). Now, assuming that the tap coefficient obtained by this equation (11) is represented as w n ′, the optimum tap coefficient w n represented by the following equation (21) and equation (11) are obtained. coefficient seed data β m, n of the error e n of the tap coefficient w n 'and 0, becomes the optimum coefficient seed data for determining the optimal tap coefficient w n, for all the tap coefficients w n, It is generally difficult to obtain such coefficient seed data β m, n .

Figure 2009026026
Figure 2009026026

なお、式(21)は、式(11)によって、次式のように変形することができる。   Equation (21) can be transformed into the following equation by Equation (11).

Figure 2009026026
Figure 2009026026

そこで、係数種データβm,nが最適なものであることを表す規範として、例えば、やはり、最小自乗法を採用することとすると、最適な係数種データβm,nは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as a standard indicating that the coefficient seed data β m, n is optimal, for example, if the least square method is adopted, the optimal coefficient seed data β m, n is expressed by the following equation. This can be obtained by minimizing the sum E of squared errors.

Figure 2009026026
Figure 2009026026

式(23)の自乗誤差の総和Eの最小値(極小値)は、式(24)に示すように、総和Eを係数種データβm,nで偏微分したものを0とするβm,nによって与えられる。 The minimum value (minimum value) of the sum E of square errors in equation (23) is β m, where 0 is a partial differentiation of the sum E with coefficient seed data β m, n , as shown in equation (24) . given by n .

Figure 2009026026
Figure 2009026026

式(22)を、式(24)に代入することにより、次式が得られる。   By substituting equation (22) into equation (24), the following equation is obtained.

Figure 2009026026
Figure 2009026026

いま、Xi,j,とYiを、式(26)と(27)に示すように定義する。 Now, X i, j, and Y i are defined as shown in equations (26) and (27).

Figure 2009026026
Figure 2009026026

Figure 2009026026
Figure 2009026026

この場合、式(25)は、Xi,jとYiを用いた式(28)に示す正規方程式で表すことができる。 In this case, Expression (25) can be expressed by a normal equation shown in Expression (28) using X i, j and Y i .

Figure 2009026026
Figure 2009026026

式(28)の正規方程式も、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、係数種データβm,nについて解くことができる。 The normal equation of Expression (28) can also be solved for the coefficient seed data β m, n by using, for example, a sweeping method (Gauss-Jordan elimination method).

図12は、式(28)の正規方程式をたてて解くことにより係数種データβm,nを求める学習を行う学習装置101の構成例を示している。 FIG. 12 shows a configuration example of the learning apparatus 101 that performs learning for obtaining the coefficient seed data β m, n by solving the normal equation of Expression (28).

なお、図中、図3の学習装置21または図9の学習装置71における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は適宜省略する。即ち、学習装置101は、学習部76に代えて、学習部106が設けられている他は、図9の学習装置71と同様に構成されている。   In the figure, portions corresponding to those in the learning device 21 of FIG. 3 or the learning device 71 of FIG. 9 are denoted by the same reference numerals, and description thereof will be omitted as appropriate. That is, the learning device 101 is configured in the same manner as the learning device 71 in FIG. 9 except that a learning unit 106 is provided instead of the learning unit 76.

図13は、図12の学習部106の構成例を示している。なお、図中、図4の学習部36または図10の学習部76における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は適宜省略する。   FIG. 13 shows a configuration example of the learning unit 106 of FIG. In the figure, portions corresponding to those in the learning unit 36 of FIG. 4 or the learning unit 76 of FIG. 10 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

足し込み部115には、クラス分類部44が出力する注目画素のクラスと、パラメータ生成部81が出力するパラメータzが供給されるようになっている。そして、足し込み部115は、教師データ記憶部33から、注目画素を読み出し、その注目画素と、タップ選択部42から供給される注目画素についての予測タップを構成する生徒データとを対象とした足し込みを、クラス分類部44から供給されるクラスごとに、かつパラメータ生成部81が出力するパラメータzの値ごとに行う。   The adding unit 115 is supplied with the class of the pixel of interest output from the class classification unit 44 and the parameter z output from the parameter generation unit 81. Then, the adding unit 115 reads out the target pixel from the teacher data storage unit 33, and adds the target pixel and the student data constituting the prediction tap for the target pixel supplied from the tap selection unit 42 as targets. Is performed for each class supplied from the class classification unit 44 and for each value of the parameter z output from the parameter generation unit 81.

即ち、足し込み部115には、教師データ記憶部33(図12)に記憶された教師データyk、タップ選択部42が出力する予測タップxn,k、クラス分類部44が出力するクラス、およびパラメータ生成部81(図12)が出力する、予測タップxn,kを構成する生徒データを生成したときのパラメータzが供給される。 That is, the adding unit 115 includes the teacher data y k stored in the teacher data storage unit 33 (FIG. 12), the prediction tap x n, k output from the tap selection unit 42, the class output from the class classification unit 44, And the parameter z when the student data which comprises the prediction tap xn, k which the parameter production | generation part 81 (FIG. 12) outputs is produced | generated is supplied.

そして、足し込み部115は、クラス分類部44から供給されるクラスごとに、かつパラメータ生成部81が出力するパラメータzの値ごとに、予測タップ(生徒データ)xn,kを用い、式(8)の左辺の行列における生徒データどうしの乗算(xn,kn',k)と、サメーション(Σ)に相当する演算を行う。 Then, the adding unit 115 uses the prediction tap (student data) x n, k for each class supplied from the class classification unit 44 and for each value of the parameter z output from the parameter generation unit 81, 8) Multiply (x n, k x n ′, k ) between student data in the left-side matrix and an operation corresponding to summation (Σ).

さらに、足し込み部115は、やはり、クラス分類部44から供給されるクラスごとに、かつパラメータ生成部81が出力するパラメータzの値ごとに、予測タップ(生徒データ)xn,kと教師データykを用い、式(8)の右辺のベクトルにおける生徒データxn,kおよび教師データykの乗算(xn,kk)と、サメーション(Σ)に相当する演算を行う。 Furthermore, the addition unit 115 also uses the prediction tap (student data) x n, k and the teacher data for each class supplied from the class classification unit 44 and for each value of the parameter z output from the parameter generation unit 81. with y k, performed student data x n in the vector of the right side of equation (8), k and multiplication of teacher data y k (x n, k y k) and, a calculation corresponding to summation (sigma).

即ち、足し込み部115は、前回、注目画素とされた教師データについて求められた式(8)における左辺の行列のコンポーネント(Σxn,kn',k)と、右辺のベクトルのコンポーネント(Σxn,kk)を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネント(Σxn,kn',k)またはベクトルのコンポーネント(Σxn,kk)に対して、新たに注目画素とされた教師データについて、その教師データyk+1および生徒データxn,k+1を用いて計算される、対応するコンポーネントxn,k+1n',k+1またはxn,k+1k+1を足し込む(式(8)のサメーションで表される加算を行う)。 That is, the adding unit 115 lastly calculates the left-side matrix component (Σx n, k x n ′, k ) and the right-side vector component ( Σx n, k y k ) is stored in its built-in memory (not shown), and the matrix component (Σx n, k x n ′, k ) or vector component (Σx n, k y k) ), The corresponding component x n, k + 1 x n calculated using the teacher data y k + 1 and the student data x n, k + 1 for the teacher data newly set as the pixel of interest. ', k + 1 or x n, k + 1 y k + 1 is added (addition represented by the summation of equation (8) is performed).

そして、足し込み部115は、教師データ記憶部33に記憶された教師データすべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、パラメータzの各値ごとに、式(8)に示した正規方程式をたてると、その正規方程式を、タップ係数算出部46に供給する。   Then, the adding unit 115 performs the above-described addition using all the teacher data stored in the teacher data storage unit 33 as the target pixel, thereby obtaining the equation (8) for each value of the parameter z for each class. When the normal equation shown in (2) is established, the normal equation is supplied to the tap coefficient calculation unit 46.

従って、足し込み部115は、図4の足し込み部45と同様に、各クラスについて、式(8)の正規方程式をたてる。但し、足し込み部115は、さらに、パラメータzの各値ごとにも、式(8)の正規方程式をたてる点で、図4の足し込み部45と異なる。   Therefore, the adding unit 115 forms the normal equation of the equation (8) for each class, similarly to the adding unit 45 of FIG. However, the addition unit 115 is further different from the addition unit 45 of FIG. 4 in that a normal equation of Expression (8) is established for each value of the parameter z.

タップ係数算出部46は、足し込み部115から供給される各クラスについての、パラメータzの値ごとの正規方程式を解くことにより、各クラスについて、パラメータzの値ごとの最適なタップ係数wnを求め、足し込み部121に供給する。 The tap coefficient calculation unit 46 solves a normal equation for each value of the parameter z for each class supplied from the adding unit 115, thereby obtaining an optimum tap coefficient w n for each value of the parameter z for each class. Obtained and supplied to the add-in unit 121.

足し込み部121は、パラメータ生成部81(図12)から供給されるパラメータz(に対応する変数tm)と、タップ係数算出部46から供給される最適なタップ係数wnを対象とした足し込みを、クラスごとに行う。 Adder 121 adds as a parameter generating unit 81 (variable t m corresponding to) the parameter z supplied from (12), directed to the optimum tap coefficients w n supplied from the tap coefficient calculating section 46 For each class.

即ち、足し込み部121は、パラメータ生成部81(図12)から供給されるパラメータzから式(10)によって求められる変数ti(tj)を用い、式(28)の左辺の行列における、式(26)で定義されるコンポーネントXi,jを求めるためのパラメータzに対応する変数ti(tj)どうしの乗算(tij)と、サメーション(Σ)に相当する演算を、クラスごとに行う。 That is, the adding unit 121 uses the variable t i (t j ) obtained by the equation (10) from the parameter z supplied from the parameter generating unit 81 (FIG. 12), and in the matrix on the left side of the equation (28), Multiplication (t i t j ) between variables t i (t j ) corresponding to the parameter z for obtaining the component X i, j defined by the equation (26), and an operation corresponding to summation (Σ) , For each class.

ここで、コンポーネントXi,jは、パラメータzによってのみ決まるものであり、クラスとは関係がないので、コンポーネントXi,jの計算は、実際には、クラスごとに行う必要はなく、1回行うだけで済む。 Here, since the component X i, j is determined only by the parameter z and has no relation to the class , the calculation of the component X i, j does not actually need to be performed for each class, and is performed once. Just do it.

さらに、足し込み部121は、パラメータ生成部81から供給されるパラメータzから式(10)によって求められる変数tiと、タップ係数算出部46から供給される最適なタップ係数wnとを用い、式(28)の右辺のベクトルにおける、式(27)で定義されるコンポーネントYiを求めるためのパラメータzに対応する変数tiおよび最適なタップ係数wnの乗算(tin)と、サメーション(Σ)に相当する演算を、クラスごとに行う。 Further, the adding unit 121 uses the variable t i obtained from the parameter z supplied from the parameter generating unit 81 by the equation (10) and the optimum tap coefficient w n supplied from the tap coefficient calculating unit 46, Multiplication (t i w n ) of the variable t i corresponding to the parameter z for obtaining the component Y i defined in the expression (27) and the optimum tap coefficient w n in the vector on the right side of the expression (28); An operation corresponding to summation (Σ) is performed for each class.

足し込み部121は、各クラスごとに、式(26)で表されるコンポーネントXi,jと、式(27)で表されるコンポーネントYiを求めることにより、各クラスについて、式(28)の正規方程式をたてると、その正規方程式を、係数種算出部122に供給する。 The adding unit 121 obtains the component X i, j represented by the equation (26) and the component Y i represented by the equation (27) for each class, thereby obtaining the equation (28) for each class. The normal equation is supplied to the coefficient seed calculation unit 122.

係数種算出部122は、足し込み部121から供給されるクラスごとの式(28)の正規方程式を解くことにより、各クラスごとの係数種データβm,nを求めて出力する。 The coefficient seed calculating unit 122 calculates and outputs coefficient seed data β m, n for each class by solving the normal equation of the equation (28) for each class supplied from the adding unit 121.

図8の係数出力部55における係数種メモリ62には、以上のようにして求められたクラスごとの係数種データβm,nを記憶させておくようにすることもできる。 The coefficient seed memory 62 in the coefficient output unit 55 of FIG. 8 may store the coefficient seed data β m, n for each class obtained as described above.

なお、係数種データの学習においても、図5で説明したタップ係数の学習における場合と同様に、第1の画像データに対応する生徒データと、第2の画像データに対応する教師データとする画像データの選択の仕方によって、係数種データとしては、各種の画像変換処理を行うものを得ることができる。   In the learning of the coefficient seed data, the student data corresponding to the first image data and the teacher data corresponding to the second image data are the same as in the tap coefficient learning described with reference to FIG. Depending on how the data is selected, the coefficient seed data can be obtained by performing various image conversion processes.

即ち、上述の場合には、学習用画像データを、そのまま第2の画像データに対応する教師データとするとともに、その学習用画像データの空間解像度を劣化させた低画質画像データを、第1の画像データに対応する生徒データとして、係数種データの学習を行うようにしたことから、係数種データとしては、第1の画像データを、その空間解像度を向上させた第2の画像データに変換する空間解像度創造処理としての画像変換処理を行うものを得ることができる。   That is, in the above-described case, the learning image data is directly used as teacher data corresponding to the second image data, and the low-quality image data in which the spatial resolution of the learning image data is deteriorated is the first image data. Since the coefficient seed data is learned as the student data corresponding to the image data, the first image data is converted into the second image data with improved spatial resolution as the coefficient seed data. What can perform image conversion processing as spatial resolution creation processing can be obtained.

この場合、図7の画像変換装置51では、画像データの水平解像度および垂直解像度を、パラメータzに対応する解像度に向上させることができる。   In this case, the image conversion apparatus 51 in FIG. 7 can improve the horizontal resolution and vertical resolution of the image data to a resolution corresponding to the parameter z.

また、例えば、高画質画像データを教師データとするとともに、その教師データとしての高画質画像データに対して、パラメータzに対応するレベルのノイズを重畳した画像データを生徒データとして、係数種データの学習を行うことにより、係数種データとしては、第1の画像データを、そこに含まれるノイズを除去(低減)した第2の画像データに変換するノイズ除去処理としての画像変換処理を行うものを得ることができる。この場合、図7の画像変換装置51では、パラメータzに対応するS/Nの画像データを得ることができる。   Further, for example, the high-quality image data is used as the teacher data, and the image data obtained by superimposing the noise corresponding to the parameter z on the high-quality image data as the teacher data is used as the student data. By performing learning, the coefficient seed data is one that performs image conversion processing as noise removal processing that converts the first image data into second image data from which the noise contained therein has been removed (reduced). Obtainable. In this case, the image conversion apparatus 51 in FIG. 7 can obtain S / N image data corresponding to the parameter z.

また、例えば、ある画像データを教師データとするとともに、その教師データとしての画像データの画素数を、パラメータzに対応して間引いた画像データを生徒データとして、または、所定のサイズの画像データを生徒データとするとともに、その生徒データとしての画像データの画素をパラメータzに対応する間引き率で間引いた画像データを教師データとして、係数種データの学習を行うことにより、係数種データとしては、第1の画像データを、そのサイズを拡大または縮小した第2の画像データに変換するリサイズ処理としての画像変換処理を行うものを得ることができる。この場合、図7の画像変換装置51では、パラメータzに対応するサイズに拡大または縮小した画像データを得ることができる。   Further, for example, certain image data is used as teacher data, and image data obtained by thinning out the number of pixels of the image data as the teacher data in accordance with the parameter z is used as student data, or image data of a predetermined size is used. The coefficient seed data is obtained by performing the learning of the coefficient seed data by using the image data obtained by thinning out the pixels of the image data as the student data at the thinning rate corresponding to the parameter z as the teacher data. It is possible to obtain one that performs image conversion processing as resizing processing for converting one image data into second image data whose size is enlarged or reduced. In this case, the image conversion apparatus 51 in FIG. 7 can obtain image data enlarged or reduced to a size corresponding to the parameter z.

なお、上述の場合には、タップ係数wnを、式(9)に示したように、β1,n0+β2,n1+・・・+βM,nM-1で定義し、この式(9)によって、水平および垂直方向の空間解像度を、いずれも、パラメータzに対応して向上させるためのタップ係数wnを求めるようにしたが、タップ係数wnとしては、水平解像度と垂直解像度を、独立のパラメータzxとzyに対応して、それぞれ独立に向上させるものを求めるようにすることも可能である。 Incidentally, in the above case, defines the tap coefficient w n, in as shown in Equation (9), β 1, n z 0 + β 2, n z 1 + ··· + β M, n z M-1 and, by the equation (9), the spatial resolution in the horizontal and vertical directions, both have been to obtain the tap coefficient w n for improving corresponding to the parameter z, the tap coefficient w n is horizontal It is also possible to obtain a resolution and a vertical resolution that are independently improved corresponding to the independent parameters z x and z y .

即ち、タップ係数wnを、式(9)に代えて、例えば、3次式β1,nx 0y 0+β2,nx 1y 0+β3,nx 2y 0+β4,nx 3y 0+β5,nx 0y 1+β6,nx 0y 2+β7,nx 0y 3+β8,nx 1y 1+β9,nx 2y 1+β10,nx 1y 2で定義するとともに、式(10)で定義した変数tmを、式(10)に代えて、例えば、t1=zx 0y 0,t2=zx 1y 0,t3=zx 2y 0,t4=zx 3y 0,t5=zx 0y 1,t6=zx 0y 2,t7=zx 0y 3,t8=zx 1y 1,t9=zx 2y 1,t10=zx 1y 2で定義する。この場合も、タップ係数wnは、最終的には、式(11)で表すことができ、従って、図9の学習装置71や、図12の学習装置101において、パラメータzxとzyに対応して、教師データの水平解像度と垂直解像度をそれぞれ劣化させた画像データを、生徒データとして用いて学習を行って、係数種データβm,nを求めることにより、水平解像度と垂直解像度を、独立のパラメータzxとzyに対応して、それぞれ独立に向上させるタップ係数wnを求めることができる。 That is, the tap coefficients w n, instead of the equation (9), for example, cubic polynomial β 1, n z x 0 z y 0 + β 2, n z x 1 z y 0 + β 3, n z x 2 z y 0 + β 4, n z x 3 z y 0 + β 5, n z x 0 z y 1 + β 6, n z x 0 z y 2 + β 7, n z x 0 z y 3 + β 8, n z x 1 z y with defined 1 + β 9, n z x 2 z y 1 + β 10, n z x 1 z y 2, the variable t m defined in formula (10), in place of the equation (10), for example, t 1 = Z x 0 z y 0 , t 2 = z x 1 z y 0 , t 3 = z x 2 z y 0 , t 4 = z x 3 z y 0 , t 5 = z x 0 z y 1 , t 6 = Z x 0 z y 2 , t 7 = z x 0 z y 3 , t 8 = z x 1 z y 1 , t 9 = z x 2 z y 1 , t 10 = z x 1 z y 2 . Again, the tap coefficient w n is finally can be represented by the formula (11), therefore, and the learning device 71 in FIG. 9, in the learning apparatus 101 of FIG. 12, a parameter z x and z y Correspondingly, the horizontal resolution and the vertical resolution are obtained by performing learning using the image data obtained by degrading the horizontal resolution and the vertical resolution of the teacher data as student data, and obtaining the coefficient seed data β m, n . in response to independent parameters z x and z y, it can be determined tap coefficients w n to improve independently.

その他、例えば、水平解像度と垂直解像度それぞれに対応するパラメータzxとzyに加えて、さらに、時間方向の解像度に対応するパラメータztを導入することにより、水平解像度、垂直解像度、時間解像度を、独立のパラメータzx,zy,ztに対応して、それぞれ独立に向上させるタップ係数wnを求めることが可能となる。 In addition, for example, in addition to the parameters z x and z y corresponding to the horizontal resolution and the vertical resolution, respectively, by introducing a parameter z t corresponding to the resolution in the time direction, the horizontal resolution, the vertical resolution, and the time resolution are independent parameters z x, z y, corresponding to the z t, it is possible to determine the tap coefficient w n to improve independently.

また、リサイズ処理についても、空間解像度創造処理における場合と同様に、水平および垂直方向を、いずれもパラメータzに対応する拡大率(または縮小率)でリサイズするタップ係数wnの他、水平と垂直方向を、それぞれパラメータzxとzyに対応する拡大率で、独立にリサイズするタップ係数wnを求めることが可能である。 As for the resizing process, as in the spatial resolution creation processing, the horizontal and vertical directions, other tap coefficients w n to resize magnification of both corresponding to the parameter z (or reduction ratio), the horizontal and vertical It is possible to obtain a tap coefficient w n whose size is independently resized with an enlargement factor corresponding to the parameters z x and z y , respectively.

さらに、図9の学習装置71や、図12の学習装置101において、パラメータzxに対応して教師データの水平解像度および垂直解像度を劣化させるとともに、パラメータzyに対応して教師データにノイズを付加した画像データを、生徒データとして用いて学習を行って、係数種データβm,nを求めることにより、パラメータzxに対応して水平解像度および垂直解像度を向上させるとともに、パラメータzyに対応してノイズ除去を行うタップ係数wnを求めることができる。 Furthermore, and the learning device 71 in FIG. 9, in the learning apparatus 101 of FIG. 12, with deteriorating the horizontal resolution and vertical resolution of the teacher data corresponding to the parameter z x, the noise to the teacher data corresponding to the parameter z y the additional image data by performing learning by using as the student data, by obtaining the coefficient seed data beta m, n, improves the horizontal resolution and vertical resolution corresponding to the parameter z x, corresponding to the parameter z y it can be obtained tap coefficients w n to perform noise removal and.

以上のようなクラス分類適応処理を行う処理部を備える画像処理装置であって、本発明を適用した画像処理装置の実施の形態について、以下説明する。換言すれば、以下に説明する画像処理装置(画像処理システム)は、上述の画像変換装置を画像処理部(図14の画像処理部213−1乃至213−3および図18の画像処理部475−1乃至475−3)として備える装置である。   An embodiment of an image processing apparatus that includes a processing unit that performs the class classification adaptive processing as described above and to which the present invention is applied will be described below. In other words, the image processing apparatus (image processing system) described below is different from the image conversion apparatus described above in the image processing units (the image processing units 213-1 to 213-3 in FIG. 14 and the image processing unit 475 in FIG. 18). 1 to 475-3).

図14は、本発明を適用した画像処理装置の第1実施の形態の構成例を示している。   FIG. 14 shows a configuration example of the first embodiment of an image processing apparatus to which the present invention is applied.

図14の画像処理装置200は、画像入力部211、画像分配部212、画像処理部213−1乃至213−3、画像合成部214、画像提示部215、記憶部216、および制御部217により構成されている。   14 includes an image input unit 211, an image distribution unit 212, image processing units 213-1 to 213-3, an image composition unit 214, an image presentation unit 215, a storage unit 216, and a control unit 217. Has been.

画像処理装置200は、入力画像と、画像処理部213−1乃至213−3で処理された3種類の処理後画像を同時に表示して、3種類の処理後画像の中から、最適な画像処理設定を選択(決定)する画像比較モードと、入力画像に対し、画像比較モードで決定された画像処理設定で画像処理を施し、処理後の画像を全画面で表示する全画面モードの2つの表示モードを有している。   The image processing apparatus 200 simultaneously displays the input image and the three types of processed images processed by the image processing units 213-1 to 213-3, and performs optimal image processing from the three types of processed images. Two display modes: image comparison mode for selecting (determining) settings and full-screen mode for performing input image processing with the image processing settings determined in the image comparison mode and displaying the processed image in full screen Has a mode.

画像処理装置200には、動画像が入力される。動画像を構成する複数の画像は、画像入力部211で取得され、入力画像として画像分配部212に順次供給される。   A moving image is input to the image processing apparatus 200. A plurality of images constituting the moving image are acquired by the image input unit 211 and sequentially supplied to the image distribution unit 212 as input images.

画像分配部212は、画像入力部211から供給された入力画像を、画像処理部213−1乃至213−3および画像合成部214に供給する。   The image distribution unit 212 supplies the input image supplied from the image input unit 211 to the image processing units 213-1 to 213-3 and the image composition unit 214.

画像処理部213−1乃至213−3それぞれは、上述したクラス分類適応処理を行うことにより、画像分配部212から供給される入力画像に対して所定の画像処理を同時に(並列に)実行し、処理後の画像である処理後画像を画像合成部214に供給する。ここで、画像処理部213−1乃至213−3が行う所定の画像処理とは、例えば、空間解像度を向上させたり、ノイズを除去することなどにより、画質を高画質にする高画質化処理である。   Each of the image processing units 213-1 to 213-3 performs predetermined image processing on the input image supplied from the image distribution unit 212 simultaneously (in parallel) by performing the above-described class classification adaptive processing, A processed image, which is a processed image, is supplied to the image composition unit 214. Here, the predetermined image processing performed by the image processing units 213-1 to 213-3 is, for example, an image quality improvement process for improving image quality by improving spatial resolution or removing noise. is there.

より具体的には、表示モードが画像比較モードである場合には、画像処理部213−1乃至213−3それぞれは、ユーザがリモートコマンダ等を操作して設定したボリューム値に従ったクラス分類適応処理を実行する。ここで、ボリューム値とは、例えば、上述したクラス分類処理のパラメータzに対応し、0乃至100の範囲で設定することができるようになっている。画像処理部213−1乃至213−3それぞれには、異なるボリューム値が設定され、画像処理部213−1乃至213−3では、異なる画質に変換する処理が行われる。なお、画像処理部213−1乃至213−3において、クラスタップまたは予測タップとして設定される画素の範囲(以下、タップ範囲と称する)は同一である。   More specifically, when the display mode is the image comparison mode, each of the image processing units 213-1 to 213-3 is adapted to class classification according to the volume value set by the user operating the remote commander or the like. Execute the process. Here, the volume value corresponds to, for example, the parameter z of the class classification process described above, and can be set in the range of 0 to 100. Different volume values are set for the image processing units 213-1 to 213-3, and the image processing units 213-1 to 213-3 perform processing for converting to different image quality. In the image processing units 213-1 to 213-3, the pixel ranges set as class taps or prediction taps (hereinafter referred to as tap ranges) are the same.

一方、表示モードが全画面モードである場合には、画像処理部213−1乃至213−3それぞれは、画像比較モードにおける複数の処理後画像を比較した結果からユーザが選択したボリューム値でクラス分類適応処理を実行する。このとき、画像処理部213−1乃至213−3で設定されるタップ範囲は、画像処理部213−1乃至213−3それぞれで異なる。   On the other hand, when the display mode is the full screen mode, each of the image processing units 213-1 to 213-3 performs classification according to the volume value selected by the user from the result of comparing a plurality of processed images in the image comparison mode. Perform adaptive processing. At this time, the tap ranges set by the image processing units 213-1 to 213-3 are different for the image processing units 213-1 to 213-3.

なお、現在の表示モードが画像比較モードであるかまたは全画面モードであるかは、モード情報として、制御部217から画像処理部213−1乃至213−3に供給される。また、画像処理部213−1乃至213−3が全画面モード時に設定するボリューム値も制御部217から供給される。   Whether the current display mode is the image comparison mode or the full screen mode is supplied from the control unit 217 to the image processing units 213-1 to 213-3 as mode information. Further, a volume value set by the image processing units 213-1 to 213-3 in the full screen mode is also supplied from the control unit 217.

画像合成部214には、画像分配部212から入力画像が供給されるとともに、画像処理部213−1乃至213−3のそれぞれから処理後画像が供給される。   The image composition unit 214 is supplied with the input image from the image distribution unit 212 and the processed image from each of the image processing units 213-1 to 213-3.

画像合成部214は、現在の表示モードが画像比較モードであるかまたは全画面モードであるかに応じて異なる画像の合成を行い、その結果得られる合成画像を画像提示部215に供給する。より具体的には、現在の表示モードが画像比較モードである場合には、画像合成部214は、画面を4分割した各領域に、入力画像と3種類の処理後画像を配置した合成画像を生成し、画像提示部215に供給する。一方、現在の表示モードが全画面モードである場合には、画像合成部214は、画像処理部213−1乃至213−3から供給される3つの処理後画像を加算し、その結果得られる画像を、合成画像として画像提示部215に供給する。   The image combining unit 214 combines different images depending on whether the current display mode is the image comparison mode or the full screen mode, and supplies the resultant combined image to the image presenting unit 215. More specifically, when the current display mode is the image comparison mode, the image composition unit 214 displays a composite image in which an input image and three types of processed images are arranged in each area obtained by dividing the screen into four. It is generated and supplied to the image presentation unit 215. On the other hand, when the current display mode is the full screen mode, the image composition unit 214 adds the three processed images supplied from the image processing units 213-1 to 213-3, and an image obtained as a result Are supplied to the image presentation unit 215 as a composite image.

なお、現在の表示モードが画像比較モードであるかまたは全画面モードであるかは、モード情報として、制御部217から供給される。また、画像合成部214には、画像比較モード時に画像処理部213−1乃至213−3それぞれに設定されるボリューム値を設定する設定画面の表示を指令する画面制御情報も制御部217から供給される。   Whether the current display mode is the image comparison mode or the full screen mode is supplied from the control unit 217 as mode information. The image composition unit 214 is also supplied with screen control information for instructing display of a setting screen for setting a volume value set in each of the image processing units 213-1 to 213-3 in the image comparison mode. The

画像提示部215は、画像合成部214から供給される合成画像を所定の表示部に表示することにより、合成画像をユーザに提示する。   The image presentation unit 215 presents the composite image to the user by displaying the composite image supplied from the image composition unit 214 on a predetermined display unit.

記憶部216は、制御部217から供給される所定の情報を記憶する。例えば、記憶部216は、ユーザが画像比較モードにおいて複数の処理後画像を比較した結果から決定した、全画面モード時に画像処理部213−1乃至213−3に設定されるボリューム値を記憶する。   The storage unit 216 stores predetermined information supplied from the control unit 217. For example, the storage unit 216 stores a volume value set in the image processing units 213-1 to 213-3 in the full screen mode, which is determined by a user comparing a plurality of processed images in the image comparison mode.

制御部217は、ユーザが図示せぬリモートコマンダ等で操作した表示モードを設定(変更)する情報を取得し、モード情報として、画像処理部213−1乃至213−3に供給する。また、制御部217は、ユーザが画像処理部213−1乃至213−3それぞれに設定されるボリューム値を設定する場合には、その設定画面の表示を指令する画面制御情報を画像合成部214に供給する。   The control unit 217 acquires information for setting (changing) the display mode operated by the user using a remote commander (not shown) and supplies the information to the image processing units 213-1 to 213-3 as mode information. In addition, when the user sets the volume value set in each of the image processing units 213-1 to 213-3, the control unit 217 sends screen control information for instructing display of the setting screen to the image composition unit 214. Supply.

図14では、画像処理装置200が3個の画像処理部213−1乃至213−3を備える例を示しているが、画像処理装置200が備える画像処理部213は、2個でもよいし、4個以上でもよい。   FIG. 14 shows an example in which the image processing device 200 includes three image processing units 213-1 to 213-3. However, the image processing device 200 may include two image processing units 213 or four. It may be more than one.

図15は、画像比較モードと全画面モードの画面例を示している。   FIG. 15 shows screen examples of the image comparison mode and the full screen mode.

画像比較モードにおいては、画像合成部214は、画像分配部212から供給された入力画像241と、画像処理部213−1乃至213−3で処理された3種類の処理後画像242−1乃至242−3を、画面を4分割した各領域に配置した合成画像250を生成する。   In the image comparison mode, the image composition unit 214 includes the input image 241 supplied from the image distribution unit 212 and the three types of post-processing images 242-1 to 242 processed by the image processing units 213-1 to 213-3. 3 is generated in each area obtained by dividing the screen into four.

図15に示される例では、画像処理部213−1で処理された処理後画像242−1は、ボリューム値が20(vol=20)に設定されて処理された画像であり、画像処理部213−2で処理された処理後画像242−2は、ボリューム値が40(vol=40)に設定されて処理された画像である。また、画像処理部213−3で処理された処理後画像242−3は、ボリューム値が60(vol=60)に設定されて処理された画像である。   In the example illustrated in FIG. 15, the post-processing image 242-1 processed by the image processing unit 213-1 is an image processed with the volume value set to 20 (vol = 20), and the image processing unit 213 -Processed image 242-2 processed by -2 is an image processed with the volume value set to 40 (vol = 40). Further, the post-processing image 242-3 processed by the image processing unit 213-3 is an image processed with the volume value set to 60 (vol = 60).

そして、ユーザは、処理後画像242−1乃至242−3を比較した結果、最適なボリューム値として20を選択したとする。この場合、決定されたボリューム値(20)が、全画面モード時におけるボリューム値として、記憶部216に供給され、記憶される。   Then, it is assumed that the user has selected 20 as the optimal volume value as a result of comparing the processed images 242-1 to 242-2. In this case, the determined volume value (20) is supplied to and stored in the storage unit 216 as a volume value in the full screen mode.

全画面モード時には、画像合成部214は、それぞれのボリューム値が20に設定されている画像処理部213−1乃至213−3から供給された3つの処理後画像を加算し、その結果得られる合成画像251を画像提示部215に供給する。   In the full screen mode, the image composition unit 214 adds the three processed images supplied from the image processing units 213-1 to 213-3 whose volume values are set to 20, and obtains the resultant composition The image 251 is supplied to the image presentation unit 215.

図16は、画像比較モードおよび全画面モードにおけるタップ範囲(タップ構造)の例を示している。   FIG. 16 shows an example of the tap range (tap structure) in the image comparison mode and the full screen mode.

画像比較モードでは、タップ範囲は、画像処理部213−1乃至213−3のそれぞれで同一である。例えば、画像処理部213−1乃至213−3のいずれにおいても、注目画素に対応する画素に対して、その画素と、その画素から右方向に2画素、左方向に2画素、上方向に1画素、および下方向に1画素の計7画素がタップ範囲として設定される。   In the image comparison mode, the tap range is the same for each of the image processing units 213-1 to 213-3. For example, in any of the image processing units 213-1 to 213-3, for the pixel corresponding to the target pixel, the pixel, two pixels rightward from the pixel, two pixels leftward, and one upward A total of seven pixels, one pixel in the downward direction and one pixel, is set as the tap range.

また、画像比較モードにおけるボリューム値は、例えば、画像処理部231−1が20(vol=20)、画像処理部231−2が40(vol=40)、画像処理部213−3が60(vol=60)というように、画像処理部213−1乃至213−3それぞれで異なる。   The volume values in the image comparison mode are, for example, 20 (vol = 20) for the image processing unit 231-1, 40 (vol = 40) for the image processing unit 231-2, and 60 (vol) for the image processing unit 213-3. = 60), the image processing units 213-1 to 213-3 are different.

一方、全画面モードにおいては、タップ範囲は、画像処理部213−1乃至213−3それぞれで異なり、画像処理部213−1乃至213−3それぞれのタップ範囲を合わせた範囲が画像比較モードにおけるタップ範囲よりも拡大した範囲となるように設定される。例えば、画像処理部231−1では、注目画素に対応する画素の2行上の3画素と1行上の4画素の計7画素がタップ範囲として設定され、画像処理部231−2では、注目画素に対応する画素を中心とする同一行の5画素と、その5画素のうちの一番右の画素の上下に配置された2画素の計7画素がタップ範囲として設定される。また、画像処理部231−3では、注目画素に対応する画素の2行下の3画素と1行下の4画素の計7画素がタップ範囲として設定される。このように画像処理部213−1乃至213−3のそれぞれでタップ範囲が設定された場合には、画像合成部214が生成する合成画像251は、図16に示すように、注目画素に対応する画素に対して、その画素を含む周辺の21画素をタップ範囲として設定したのと等価な画像を得ることができる。これは、クラス分類適応処理が個々の画素に注目したときには、係数群と予測タップとの積和演算で表現することができることによる。   On the other hand, in the full screen mode, the tap range is different for each of the image processing units 213-1 to 213-3, and the range obtained by combining the tap ranges of the image processing units 213-1 to 213-3 is the tap in the image comparison mode. The range is set to be larger than the range. For example, in the image processing unit 231-1, a total of 7 pixels of 3 pixels on the 2nd row and 4 pixels on the 1st row corresponding to the target pixel are set as the tap range. A total of 7 pixels including 5 pixels in the same row centered on the pixel corresponding to the pixel and 2 pixels arranged above and below the rightmost pixel among the 5 pixels are set as the tap range. In the image processing unit 231-3, a total of 7 pixels, that is, 3 pixels 2 rows below and 4 pixels 1 row below the pixels corresponding to the target pixel are set as the tap range. As described above, when the tap range is set in each of the image processing units 213-1 to 213-3, the synthesized image 251 generated by the image synthesizing unit 214 corresponds to the target pixel as illustrated in FIG. For a pixel, an image equivalent to setting the surrounding 21 pixels including the pixel as a tap range can be obtained. This is because when the class classification adaptive process focuses on individual pixels, it can be expressed by a product-sum operation of a coefficient group and a prediction tap.

また、全画面モードにおけるボリューム値は、画像処理部213−1乃至213−3いずれにおいても、記憶部216に供給され、記憶された値である20(vol=20)で同一である。   Further, the volume value in the full screen mode is the same as 20 (vol = 20) which is supplied to and stored in the storage unit 216 in any of the image processing units 213-1 to 213-3.

次に、図17のフローチャートを参照して、図14の画像処理装置200による第1の画像処理について説明する。   Next, the first image processing by the image processing apparatus 200 of FIG. 14 will be described with reference to the flowchart of FIG.

初めに、ステップS81において、画像分配部212は、画像入力部211から入力画像が供給されたかを判定する。ステップS81で、入力画像が供給されないと判定された場合、処理は終了する。   First, in step S <b> 81, the image distribution unit 212 determines whether an input image is supplied from the image input unit 211. If it is determined in step S81 that the input image is not supplied, the process ends.

一方、ステップS81で、画像入力部211から入力画像が供給されたと判定された場合、処理はステップS82に進み、画像分配部212は、画像入力部211から供給された入力画像を分配する。即ち、画像分配部212は、入力画像を画像処理部213−1乃至213−3および画像合成部214に供給する。   On the other hand, if it is determined in step S81 that an input image has been supplied from the image input unit 211, the process proceeds to step S82, and the image distribution unit 212 distributes the input image supplied from the image input unit 211. That is, the image distribution unit 212 supplies the input image to the image processing units 213-1 to 213-3 and the image composition unit 214.

ステップS83において、制御部217は、現在の表示モードが画像比較モードであるかを判定する。ステップS83で、現在の表示モードが画像比較モードであると判定された場合、処理はステップS84に進み、制御部217は、画像比較モードである旨のモード情報を画像処理部213−1乃至213−3に供給する。   In step S83, the control unit 217 determines whether the current display mode is the image comparison mode. If it is determined in step S83 that the current display mode is the image comparison mode, the process proceeds to step S84, and the control unit 217 displays mode information indicating that the image comparison mode is in the image processing units 213-1 to 213. -3.

そして、ステップS85において、画像処理部213−1乃至213−3は、クラス分類適応処理を行うことにより、入力画像に対して画質を高画質化する高画質化処理を実行する。ここでのクラス分類適応処理におけるボリューム値は、図16を参照して説明したように、画像処理部213−1乃至213−3それぞれで異なる。また、タップ範囲は、画像処理部213−1乃至213−3で同一である。   In step S <b> 85, the image processing units 213-1 to 213-3 perform the image quality improvement process for improving the image quality of the input image by performing the class classification adaptation process. As described with reference to FIG. 16, the volume value in the class classification adaptive processing here is different for each of the image processing units 213-1 to 213-3. The tap range is the same in the image processing units 213-1 to 213-3.

ステップS86において、画像合成部214は、画面を4分割した各領域に、入力画像と3種類の処理後画像とを配置した合成画像を生成し、画像提示部215に供給する。   In step S <b> 86, the image composition unit 214 generates a composite image in which the input image and the three types of processed images are arranged in each region obtained by dividing the screen into four parts, and supplies the composite image to the image presentation unit 215.

ステップS87において、制御部217は、ユーザがリモートコマンダ等を操作することにより、画像処理部213−1乃至213−3の処理後画像のいずれかが選択されたかを判定する。   In step S87, the control unit 217 determines whether any of the processed images of the image processing units 213-1 to 213-3 is selected by the user operating the remote commander or the like.

ステップS87で、画像処理部213−1乃至213−3の処理後画像のいずれかが選択されたと判定された場合、処理はステップS88に進み、制御部217は、選択された処理後画像に対応するボリューム値を記憶部216に供給し記憶させる。一方、ステップS87で、画像処理部213−1乃至213−3の処理後画像のいずれも選択されていないと判定された場合には、処理はステップS88をスキップして、ステップS92に進む。   If it is determined in step S87 that any of the processed images of the image processing units 213-1 to 213-3 has been selected, the process proceeds to step S88, and the control unit 217 corresponds to the selected processed image. The volume value to be supplied is supplied to the storage unit 216 and stored. On the other hand, if it is determined in step S87 that none of the processed images of the image processing units 213-1 to 213-3 has been selected, the process skips step S88 and proceeds to step S92.

また、上述したステップS83で、現在の表示モードが画像比較モードではないと判定された場合、即ち、現在の表示モードが全画面モードである場合、処理はステップS89に進み、制御部217は、全画面モードである旨のモード情報を画像処理部213−1乃至213−3に供給する。また、制御部217は、記憶部216に記憶されているボリューム値を読み出し、画像処理部213−1乃至213−3に供給する。   If it is determined in step S83 described above that the current display mode is not the image comparison mode, that is, if the current display mode is the full screen mode, the process proceeds to step S89, and the control unit 217 Mode information indicating the full screen mode is supplied to the image processing units 213-1 to 213-3. In addition, the control unit 217 reads the volume value stored in the storage unit 216 and supplies the volume value to the image processing units 213-1 to 213-3.

そして、ステップS90において、画像処理部213−1乃至213−3は、クラス分類適応処理を行うことにより、入力画像に対して画質を高画質化する高画質化処理を実行する。ここでのクラス分類適応処理におけるボリューム値は、図16を参照して説明したように、画像処理部213−1乃至213−3で同一である。一方、タップ範囲は、画像処理部213−1乃至213−3それぞれで異なる。   In step S <b> 90, the image processing units 213-1 to 213-3 perform the image quality improvement processing for improving the image quality of the input image by performing the class classification adaptive processing. The volume value in the class classification adaptive processing here is the same in the image processing units 213-1 to 213-3 as described with reference to FIG. On the other hand, the tap range is different for each of the image processing units 213-1 to 213-3.

ステップS91において、画像合成部214は、画像処理部213−1乃至213−3から供給される3種類の処理後画像を加算することにより、3種類の処理後画像から1つの合成画像を生成し、画像提示部215に供給する。   In step S91, the image composition unit 214 generates one composite image from the three types of post-processing images by adding the three types of post-processing images supplied from the image processing units 213-1 to 213-3. And supplied to the image presentation unit 215.

ステップS92において、画像提示部215は、画像合成部214から供給される合成画像を所定の表示部に表示することにより、合成画像をユーザに提示する。ステップS92の処理後、処理はステップS81に戻り、それ以降の処理が繰り返し実行される。   In step S92, the image presentation unit 215 presents the composite image to the user by displaying the composite image supplied from the image composition unit 214 on a predetermined display unit. After the process of step S92, the process returns to step S81, and the subsequent processes are repeatedly executed.

以上のように、第1の画像処理によれば、画像比較モードにおいては、入力された入力画像に対して、パラメータ(ボリューム値)の異なる複数の画像処理を施し、その画像処理結果(処理後画像)を1画面で同時に表示するので、ユーザは、複数のパラメータのなかで入力画像に対して最適なパラメータを選択することができる。   As described above, according to the first image processing, in the image comparison mode, a plurality of image processing with different parameters (volume values) are performed on the input image that has been input, and the image processing result (after processing) Image) are simultaneously displayed on one screen, the user can select an optimum parameter for the input image from among a plurality of parameters.

また、全画面モードにおいては、ユーザが選択した最適なパラメータで入力画像に対する画像処理を行うことができることは勿論であるが、画像処理後の処理後画像が1画面の画面全体のサイズ(大画面)で表示されることを考慮して、画像比較モードのときよりもタップ範囲を広くした、より高画質な処理を行うことができる。この全画面モード時に生成される大画面の合成画像は、画像処理部213−1乃至213−3それぞれがタップ範囲を分担して生成したものであり、画像処理部213−1乃至213−3のいずれか1つに、単純に21画素のタップ範囲で行わせるより、3つの画像処理部213−1乃至213−3を有効に活用することができる他、処理も高速にすることができる。   In the full screen mode, the input image can be subjected to image processing with the optimum parameters selected by the user, but the processed image after the image processing is the size of the entire screen (large screen). ), It is possible to perform processing with higher image quality with a wider tap range than in the image comparison mode. The large screen composite image generated in the full screen mode is generated by the image processing units 213-1 to 213-3 sharing the tap range. If one of them is simply performed in a tap range of 21 pixels, the three image processing units 213-1 to 213-3 can be used effectively, and the processing can be performed at high speed.

図18は、本発明を適用した画像処理装置の第2実施の形態の構成例を示している。   FIG. 18 shows a configuration example of the second embodiment of the image processing apparatus to which the present invention is applied.

なお、図14の画像処理装置200と対応する部分については同一の符号を付してあり、その説明は適宜省略する。   Note that portions corresponding to those of the image processing apparatus 200 in FIG. 14 are denoted by the same reference numerals, and description thereof is omitted as appropriate.

図18の画像処理装置200は、画像入力部211、画像分配部212、画像提示部215、同期特徴量抽出部471、シーケンス再生部472A乃至472C、スイッチャ部473、画像処理部475−1乃至475−3、画像合成部476、記憶部477、および制御部478により構成されている。   18 includes an image input unit 211, an image distribution unit 212, an image presentation unit 215, a synchronization feature amount extraction unit 471, sequence playback units 472A to 472C, a switcher unit 473, and image processing units 475-1 to 475. -3, an image composition unit 476, a storage unit 477, and a control unit 478.

図18の画像処理装置200も、図14における場合と同様に、入力画像と、画像処理部475−1乃至475−3で処理された3種類の処理後画像を同時に表示して、3種類の処理後画像の中から、最適な画像処理設定を選択(決定)する画像比較モードと、画像比較モードで決定された画像処理設定による画像処理を施した画像を全画面で表示する全画面モードの2つの表示モードを有している。   The image processing apparatus 200 in FIG. 18 also displays the input image and the three types of processed images processed by the image processing units 475-1 to 475-3 at the same time as in the case of FIG. An image comparison mode for selecting (determining) the optimum image processing setting from the processed images, and a full screen mode for displaying an image subjected to image processing according to the image processing setting determined in the image comparison mode on a full screen. There are two display modes.

同期特徴量抽出部471は、図19に示されるように、各入力画像が動画像中のどのシーンの画像であるかを表すタイムコードと、入力画像の同期特徴量とを対応付けた同期特徴量のタイムテーブル461を記憶する。ここで、同期特徴量とは、入力画像の同期をとるために用いられる画像の特徴量であり、16ビットで表される、入力画像の輝度値の平均値(平均輝度値)と、入力画像の全画素の輝度値の合計値(合計輝度値)の下位16ビットとからなる計32ビットのデータである。2時間程度の映画などの、再現性のある入力画像では、上述の2つの特徴量を用いることにより、入力画像のシーンをほぼ確実に判定することができる。   As shown in FIG. 19, the synchronization feature amount extraction unit 471 associates a time code indicating which scene in the moving image each input image is with a synchronization feature amount of the input image. A quantity timetable 461 is stored. Here, the synchronization feature amount is a feature amount of an image used to synchronize the input image, and represents an average value (average luminance value) of the luminance values of the input image represented by 16 bits, and the input image. Is a total of 32 bits of data consisting of the lower 16 bits of the total luminance value (total luminance value) of all pixels. In a reproducible input image such as a movie of about 2 hours, the scene of the input image can be almost certainly determined by using the above-described two feature amounts.

最初に、同期特徴量抽出部471は、画像分配部212から供給された入力画像の同期特徴量を算出する。図19は、算出された同期特徴量が、平均輝度値“24564”および合計輝度値の下位16ビット“32155”である例を示している。   First, the synchronization feature amount extraction unit 471 calculates the synchronization feature amount of the input image supplied from the image distribution unit 212. FIG. 19 shows an example in which the calculated synchronization feature amount is the average luminance value “24564” and the lower 16 bits “32155” of the total luminance value.

そして、同期特徴量抽出部471は、同期特徴量のタイムテーブル461から、同一の同期特徴量を持つタイムコードを検出し、シーケンス再生部472A乃至472Cに供給する。図19のタイムテーブル461では、タイムコード“2”に対応する同期特徴量が、算出された同期特徴量と一致している。従って、同期特徴量抽出部471は、タイムコード“2”をシーケンス再生部472A乃至472Cに供給する。また、検出されたタイムコードは、記録再生部474にも供給される。   Then, the synchronization feature amount extraction unit 471 detects a time code having the same synchronization feature amount from the synchronization feature amount time table 461 and supplies the time code to the sequence reproduction units 472A to 472C. In the time table 461 in FIG. 19, the synchronization feature amount corresponding to the time code “2” matches the calculated synchronization feature amount. Therefore, the synchronization feature amount extraction unit 471 supplies the time code “2” to the sequence reproduction units 472A to 472C. The detected time code is also supplied to the recording / reproducing unit 474.

なお、同期特徴量として、その他の画像の特徴量を採用することも勿論可能である。   Of course, other image feature amounts may be employed as the synchronization feature amount.

図18に戻り、シーケンス再生部472A乃至472Cは、それぞれ、タイムコードとズームパラメータとを対応付けたパラメータテーブルを記憶している。シーケンス再生部472A乃至472Cは、同期特徴量抽出部471から供給されたタイムコードに対応するズームパラメータをスイッチャ部473に供給する。このズームパラメータにより、画像処理部475−1乃至475−3が拡大処理を行うときの処理領域が特定される。従って、シーケンス再生部472A乃至472Cは、画像処理部475−1乃至475−3が拡大処理を行うときの処理領域を特定する領域特定情報を出力すると言える。   Returning to FIG. 18, each of the sequence playback units 472A to 472C stores a parameter table in which a time code and a zoom parameter are associated with each other. The sequence reproduction units 472A to 472C supply the zoom parameter corresponding to the time code supplied from the synchronization feature amount extraction unit 471 to the switcher unit 473. With this zoom parameter, the processing area when the image processing units 475-1 to 475-3 perform the enlargement process is specified. Therefore, it can be said that the sequence reproduction units 472A to 472C output region specifying information for specifying a processing region when the image processing units 475-1 to 475-3 perform enlargement processing.

シーケンス再生部472A乃至472Cがパラメータテーブルとして記憶しているズームパラメータは、それぞれ異なるものである。したがって、同期特徴量抽出部471から同一のタイムコードがシーケンス再生部472A乃至472Cに供給されるが、スイッチャ部473には、シーケンス再生部472A乃至472Cそれぞれから異なるズームパラメータが供給される。   The zoom parameters stored as sequence parameter sections 472A to 472C are different from each other. Accordingly, the same time code is supplied from the synchronization feature amount extraction unit 471 to the sequence reproduction units 472A to 472C, but different zoom parameters are supplied to the switcher unit 473 from each of the sequence reproduction units 472A to 472C.

より具体的には、シーケンス再生部472Aは、同期特徴量抽出部471から供給されるタイムコードに対応して、ズームパラメータ(xa,ya,za)をスイッチャ部473に供給する。シーケンス再生部472Bは、同期特徴量抽出部471から供給されるタイムコードに対応して、ズームパラメータ(xb,yb,zb)をスイッチャ部473に供給する。シーケンス再生部472Cは、同期特徴量抽出部471から供給されるタイムコードに対応して、ズームパラメータ(xc,yc,zc)をスイッチャ部473に供給する。 More specifically, the sequence playback unit 472A supplies zoom parameters (x a , y a , z a ) to the switcher unit 473 corresponding to the time code supplied from the synchronization feature amount extraction unit 471. The sequence playback unit 472B supplies the zoom parameters (x b , y b , z b ) to the switcher unit 473 corresponding to the time code supplied from the synchronization feature amount extraction unit 471. The sequence playback unit 472C supplies zoom parameters (x c , y c , z c ) to the switcher unit 473 corresponding to the time code supplied from the synchronization feature amount extraction unit 471.

ズームパラメータ(xa,ya,za)は、拡大処理を行うときの中心位置(xa,ya)とズーム倍率zaを表す。ズームパラメータ(xb,yb,zb)および(xc,yc,zc)についても同様である。以下では、説明を簡単にするため、ズームパラメータ(xa,ya,z)、(xb,yb,zb)、および(xc,yc,zc)を、それぞれ、ズームパラメータA,B、およびCとも称する。 The zoom parameters (x a , y a , z a ) represent the center position (x a , y a ) and the zoom magnification z a when performing the enlargement process. The same applies to the zoom parameters (x b , y b , z b ) and (x c , y c , z c ). In the following, in order to simplify the explanation, the zoom parameters (x a , y a , z), (x b , y b , z b ), and (x c , y c , z c ) are respectively referred to as zoom parameters. Also referred to as A, B, and C.

スイッチャ部473は、画像比較モードにおいては、シーケンス再生部472A乃至472Cから供給されるズームパラメータA乃至Cを、画像処理部475−1乃至475−3に1対1に供給する。より詳しくは、スイッチャ部473は、ズームパラメータAを画像処理部475−1に供給し、ズームパラメータBを画像処理部475−2に供給し、ズームパラメータBを画像処理部475−3に供給する。   In the image comparison mode, the switcher unit 473 supplies the zoom parameters A to C supplied from the sequence reproduction units 472A to 472C to the image processing units 475-1 to 475-3 on a one-to-one basis. More specifically, the switcher unit 473 supplies the zoom parameter A to the image processing unit 475-1, supplies the zoom parameter B to the image processing unit 475-2, and supplies the zoom parameter B to the image processing unit 475-3. .

スイッチャ部473は、全画面モードにおいては、記録再生部474から供給される選択情報に従って、シーケンス再生部472A乃至472Cから供給されるズームパラメータA乃至Cのうちのいずれか1つを、画像処理部475−1乃至475−3のすべてに供給する。   In the full screen mode, the switcher unit 473 converts any one of the zoom parameters A to C supplied from the sequence playback units 472A to 472C into the image processing unit according to the selection information supplied from the recording / playback unit 474. Supply to all 475-1 through 475-3.

選択情報とは、画像比較モードのときにユーザが選択したズームパラメータを表す情報である。従って、選択情報は、具体的には、ズームパラメータA乃至Cのいずれかとなる。   The selection information is information representing the zoom parameter selected by the user in the image comparison mode. Therefore, the selection information is specifically one of the zoom parameters A to C.

記録再生部474は、画像比較モードにおいては、同期特徴量抽出部471から、入力画像のタイムコードが供給されるとともに、制御部478から、ユーザがリモートコマンダ等を操作して選択した拡大画像A乃至Cに対応するズームパラメータA乃至Cについての情報(選択情報)が供給される。記録再生部474は、同期特徴量抽出部471から供給されるタイムコードと選択情報とを対応付けて記憶する。このタイムコードと選択情報の組を時系列に連続して記憶したデータが記録シーケンスとなる。従って、全画面モードで、スイッチャ部473が、記録再生部474からの選択情報に従って、3種類のズームパラメータA乃至Cから1つを選択して、画像処理部475−1乃至475−3に供給することを時系列に繰り返すことにより、画像提示部215において、画像比較モード時にユーザが選択した拡大画像を再現することができる。   In the image comparison mode, the recording / playback unit 474 is supplied with the time code of the input image from the synchronization feature amount extraction unit 471, and from the control unit 478, the enlarged image A selected by the user by operating the remote commander or the like. Information (selection information) about zoom parameters A to C corresponding to C is supplied. The recording / playback unit 474 stores the time code supplied from the synchronization feature amount extraction unit 471 and the selection information in association with each other. Data in which a set of the time code and selection information is stored in time series is a recording sequence. Accordingly, in the full screen mode, the switcher unit 473 selects one of the three types of zoom parameters A to C according to the selection information from the recording / reproducing unit 474 and supplies the selected one to the image processing units 475-1 to 475-3. By repeating this in time series, the image presentation unit 215 can reproduce the enlarged image selected by the user in the image comparison mode.

一方、全画面モードにおいては、同期特徴量抽出部471から、入力画像のタイムコードが供給され、記録再生部474は、内部に記憶している記録シーケンスに基づいて、供給されたタイムコードに対応するズームパラメータをスイッチャ部473に供給する。   On the other hand, in the full screen mode, the time code of the input image is supplied from the synchronization feature amount extraction unit 471, and the recording / playback unit 474 supports the supplied time code based on the recording sequence stored therein. The zoom parameter to be supplied is supplied to the switcher unit 473.

画像処理部475−1乃至475−3は、上述したクラス分類適応処理を行うことにより、スイッチャ部473から供給されるズームパラメータに基づく入力画像の拡大処理(リサイズ処理)を行う。また、全画面モードにおいては、画像処理部475−1乃至475−3は、拡大処理に加えて、時間解像度を創造する時間解像度創造処理も行う。   The image processing units 475-1 to 475-3 perform the input image enlargement process (resizing process) based on the zoom parameters supplied from the switcher unit 473 by performing the above-described class classification adaptation process. In the full screen mode, the image processing units 475-1 to 475-3 perform time resolution creation processing for creating time resolution in addition to the enlargement processing.

画像比較モードにおいては、画像処理部475−1乃至475−3それぞれには、上述したように、シーケンス再生部472A乃至472Cから、それぞれ異なるズームパラメータA乃至Cが1対1で供給される。従って、画像処理部475−1乃至475−3は、入力画像に対して異なる領域を拡大処理し、画像合成部476に供給する。   In the image comparison mode, different zoom parameters A to C are supplied to the image processing units 475-1 to 475-3 on a one-to-one basis from the sequence reproduction units 472A to 472C as described above. Accordingly, the image processing units 475-1 to 475-3 perform enlargement processing on different regions on the input image, and supplies the enlarged regions to the image composition unit 476.

一方、全画面モードでは、パラメータA乃至Cのうちのいずれか1つが、画像処理部475−1乃至475−3のすべてに供給される。従って、画像処理部475−1乃至475−3が拡大処理する対象の領域は同一の領域である。ただし、画像処理部475−1乃至475−3は、同一の入力画像から、時間軸方向に対して異なる位置(時刻)の拡大画像を生成する。これにより、所定の領域を拡大した拡大画像であって、時間解像度を創造(向上)した画像を提示することができる。なお、画像処理部475−1乃至475−3の詳細な処理については、図21乃至図25を参照して後述する。   On the other hand, in the full screen mode, any one of the parameters A to C is supplied to all of the image processing units 475-1 to 475-3. Accordingly, the areas to be enlarged by the image processing units 475-1 to 475-3 are the same area. However, the image processing units 475-1 to 475-3 generate enlarged images at different positions (time) in the time axis direction from the same input image. Thereby, it is possible to present an enlarged image obtained by enlarging a predetermined area and creating (improving) time resolution. Detailed processing of the image processing units 475-1 to 475-3 will be described later with reference to FIGS.

画像合成部476は、画像比較モードにおいては、画像処理部475−1乃至475−3から供給される拡大画像A乃至Cと画像分配部212から供給される入力画像を合成した合成画像を生成し、画像提示部215に供給する。一方、全画面モードにおいては、画像合成部476は、画像処理部475−1乃至475−3で生成された異なる時刻の拡大画像を、時刻の早い順に画像提示部215に供給する。従って、全画面モードでは、入力画像の3倍のフレームレートで拡大画像が表示される。   In the image comparison mode, the image composition unit 476 generates a composite image obtained by combining the enlarged images A to C supplied from the image processing units 475-1 to 475-3 and the input image supplied from the image distribution unit 212. And supplied to the image presentation unit 215. On the other hand, in the full screen mode, the image composition unit 476 supplies the enlarged images generated at the different times generated by the image processing units 475-1 to 475-3 to the image presentation unit 215 in order of time. Therefore, in the full screen mode, an enlarged image is displayed at a frame rate three times that of the input image.

記憶部477は、クラス分類適応処理に用いるタップ係数を生成するための係数種データを記憶する。具体的には、記憶部477は、画像比較モードにおいて拡大処理を行う場合の係数種データである拡大係数と、全画面モードにおいて拡大処理および時間解像度創造処理を行う場合の係数種データである時間係数を記憶する。記憶部477に記憶される各種の係数は、必要に応じて、画像処理部475−1乃至475−3に供給される。   The storage unit 477 stores coefficient seed data for generating tap coefficients used for the class classification adaptation process. Specifically, the storage unit 477 is an enlargement coefficient that is coefficient seed data when performing enlargement processing in the image comparison mode, and time that is coefficient seed data when performing enlargement processing and time resolution creation processing in the full screen mode. Store the coefficients. Various coefficients stored in the storage unit 477 are supplied to the image processing units 475-1 to 475-3 as necessary.

制御部478は、ユーザがリモートコマンダ等を操作したときの操作情報を取得し、ユーザの操作に基づいて、記録再生部474、画像処理部475−1乃至475−3、および画像合成部476を適宜制御する。例えば、制御部478は、画像比較モード時に、ユーザが画像提示部215で提示されている拡大画像A乃至Cのうちのどの拡大画像を選択したかを表す選択情報を記録再生部474および画像合成部476に供給する。また、制御部478は、ユーザによって表示モードが切り替えられた場合に、切り替え後の表示モードをモード情報として画像処理部475−1乃至475−3に供給する。   The control unit 478 acquires operation information when the user operates a remote commander or the like, and based on the user's operation, the recording / playback unit 474, the image processing units 475-1 to 475-3, and the image composition unit 476 are displayed. Control appropriately. For example, the control unit 478 displays selection information indicating which enlarged image among the enlarged images A to C presented by the user in the image presentation unit 215 in the image comparison mode, the recording / reproducing unit 474 and the image composition. Part 476. In addition, when the display mode is switched by the user, the control unit 478 supplies the display mode after switching to the image processing units 475-1 to 475-3 as mode information.

以上のように構成される画像処理装置200は、表示モードが画像比較モードである場合には、入力画像と、画像処理部475−1乃至475−3で処理された3種類の拡大画像A乃至Cを同時に表示して、3種類の拡大画像A乃至Cの中から、最適な拡大画像をユーザに選択(決定)させ、表示モードが全画面モードである場合には、画像比較モードで決定された拡大画像を再現するとともに、時間解像度を創造し、入力画像の3倍のフレームレートで表示する。   When the display mode is the image comparison mode, the image processing apparatus 200 configured as described above has an input image and three types of enlarged images A to A processed by the image processing units 475-1 to 475-3. When C is displayed at the same time and the user selects (determines) the optimum enlarged image from the three types of enlarged images A to C, and the display mode is the full screen mode, the image comparison mode is selected. In addition to reproducing the enlarged image, it creates a temporal resolution and displays it at a frame rate three times that of the input image.

図20は、画像比較モードにおいて画像提示部215で表示される表示画面400の例を示している。   FIG. 20 shows an example of the display screen 400 displayed on the image presentation unit 215 in the image comparison mode.

表示画面400では、その領域が均等に4分割されており、その左上が主画面領域281、その他の3領域が副画面領域282−1乃至282−3となっている。   In the display screen 400, the area is equally divided into four, the upper left of which is a main screen area 281 and the other three areas are sub-screen areas 282-1 to 282-3.

画像合成部476は、主画面領域281に画像分配部212から供給される入力画像が配置され、副画面領域282−1乃至282−3に画像処理部475−1乃至475−3から供給される拡大画像A乃至Cがそれぞれ配置される合成画像を生成する。また、画像合成部476は、制御部478から供給される選択情報に応じて、ハイライト表示291を副画面領域282−1乃至282−3のいずれかに表示させる。換言すれば、画像合成部476は、入力画像と拡大画像A乃至Cとを合成した合成画像にハイライト表示291を重畳させた画像を生成し、画像提示部215に供給する。   The image composition unit 476 arranges the input image supplied from the image distribution unit 212 in the main screen area 281 and supplies the input image from the image processing units 475-1 to 475-3 to the sub screen areas 282-1 to 282-3. A composite image in which the enlarged images A to C are respectively arranged is generated. In addition, the image composition unit 476 causes the highlight display 291 to be displayed in any of the sub-screen areas 282-1 to 282-3 according to the selection information supplied from the control unit 478. In other words, the image composition unit 476 generates an image in which the highlight display 291 is superimposed on a composite image obtained by compositing the input image and the enlarged images A to C, and supplies the generated image to the image presentation unit 215.

次に、図21と図22を参照して、表示モードが画像比較モードである場合の図18の画像処理装置200の処理について説明する。   Next, with reference to FIGS. 21 and 22, the processing of the image processing apparatus 200 in FIG. 18 when the display mode is the image comparison mode will be described.

また、その後、図23と図24を参照して、表示モードが全画面モードである場合の図18の画像処理装置200の処理について説明する。   Then, with reference to FIGS. 23 and 24, the processing of the image processing apparatus 200 in FIG. 18 when the display mode is the full screen mode will be described.

図21は、表示モードが画像比較モードである場合の図18の画像処理装置200の機能ブロック図である。   FIG. 21 is a functional block diagram of the image processing apparatus 200 in FIG. 18 when the display mode is the image comparison mode.

表示モードが画像比較モードである場合には、画像処理部475−1乃至475−3は、上述したように、入力画像に対して異なる領域を拡大する処理を行うので、図21では、画像処理部475−1乃至475−3を拡大処理部475A乃至475Cとしている。   When the display mode is the image comparison mode, the image processing units 475-1 to 475-3 perform the process of enlarging different areas on the input image as described above. The units 475-1 to 475-3 are enlarged processing units 475A to 475C.

画像比較モードにおいては、スイッチャ部473は、図21に示されるように、シーケンス再生部472Aから供給されるズームパラメータ(xa,ya,za)を拡大処理部475Aに供給する。また、スイッチャ部473は、シーケンス再生部472Bから供給されるズームパラメータ(xb,yb,zb)を拡大処理部475Bに供給し、シーケンス再生部472Cから供給されるズームパラメータ(xc,yc,zc)を拡大処理部475Cに供給する。 In the image comparison mode, as shown in FIG. 21, the switcher unit 473 supplies the zoom parameters (x a , y a , z a ) supplied from the sequence playback unit 472A to the enlargement processing unit 475A. Further, the switcher unit 473 supplies the zoom parameters (x b , y b , z b ) supplied from the sequence playback unit 472B to the enlargement processing unit 475B, and the zoom parameters (x c , y c , z c ) is supplied to the enlargement processing unit 475C.

最初に、拡大処理部475Aは、ズーム倍率zaに対応する拡大係数を記憶部477から取得する。このズーム倍率zaと拡大係数との関係は、例えば、上述した図7の画像変換装置51におけるパラメータzと係数種データとの関係と同様である。すなわち、図7の画像変換装置51では、パラメータzと係数種データとに基づいてクラスごとのタップ係数を生成することができるが、ズーム倍率zaが画像変換装置51のパラメータzに対応し、拡大係数が画像変換装置51の係数種データに対応する。ズーム倍率zaと記憶部477から取得された拡大係数を用いて生成されたタップ係数を用いてクラス分類適応処理を実行することにより、入力画像の位置(xa,ya)を中心位置として所定のズーム倍率の拡大処理が行われる。ズーム倍率zbまたはzcと拡大係数との関係も同様である。 First, the enlargement processing unit 475A acquires an enlargement coefficient corresponding to the zoom magnification z a from the storage unit 477. The relationship between the zoom magnification z a and the enlargement coefficient is the same as, for example, the relationship between the parameter z and the coefficient seed data in the image conversion apparatus 51 in FIG. 7 described above. That is, in the image conversion apparatus 51 of FIG. 7, the tap coefficient for each class can be generated based on the parameter z and the coefficient seed data, but the zoom magnification z a corresponds to the parameter z of the image conversion apparatus 51, The enlargement coefficient corresponds to the coefficient seed data of the image conversion device 51. By executing the classification adaptation process using the zoom factor z a and the tap coefficient generated using the enlargement coefficient acquired from the storage unit 477, the position (x a , y a ) of the input image is set as the center position. An enlargement process with a predetermined zoom magnification is performed. The same applies to the relationship between the zoom magnification z b or z c and the magnification factor.

従って、拡大処理部475Aは、入力画像の位置(xa,ya)を中心位置とし、ズーム倍率zaで特定される領域に対して拡大処理を実行し、その結果得られる拡大画像Aを画像合成部476に供給する。 Accordingly, the enlargement processing unit 475A performs the enlargement process on the area specified by the zoom magnification z a with the position (x a , y a ) of the input image as the center position, and the enlarged image A obtained as a result is obtained. This is supplied to the image composition unit 476.

同様に、拡大処理部475Bは、ズーム倍率zbに対応する拡大係数を記憶部477から取得し、入力画像の位置(xb,yb)を中心位置とし、ズーム倍率zbで特定される領域に対して拡大処理を実行し、その結果得られる拡大画像Bを画像合成部476に供給する。拡大処理部475Cは、ズーム倍率zcに対応する拡大係数を記憶部477から取得し、入力画像の位置(xc,yc)を中心位置とし、ズーム倍率zcで特定される領域に対して拡大処理を実行し、その結果得られる拡大画像Cを画像合成部476に供給する。 Similarly, the enlargement processing unit 475B acquires an enlargement coefficient corresponding to the zoom magnification z b from the storage unit 477, and is specified by the zoom magnification z b with the position (x b , y b ) of the input image as the center position. Enlargement processing is executed on the area, and an enlarged image B obtained as a result is supplied to the image composition unit 476. The enlargement processing unit 475C obtains an enlargement coefficient corresponding to the zoom magnification z c from the storage unit 477, and uses the position (x c , y c ) of the input image as the center position for the region specified by the zoom magnification z c. The enlargement process is executed, and the enlarged image C obtained as a result is supplied to the image composition unit 476.

図22は、四角(菱形)と丸が対象物として撮像されている入力画像が供給された場合の、拡大処理部475A乃至475Cによる拡大処理の例を示している。   FIG. 22 illustrates an example of enlargement processing by the enlargement processing units 475A to 475C when an input image in which squares (diamonds) and circles are captured as objects is supplied.

拡大処理部475Aには、四角を囲む範囲をほぼ全範囲とするズームパラメータ(xa,ya,za)が供給され、それに対応して、拡大処理部475Aは、拡大画像Aを生成する。 The enlargement processing unit 475A is supplied with zoom parameters (x a , y a , z a ) that substantially cover the range surrounding the square, and the enlargement processing unit 475A generates the enlarged image A correspondingly. .

拡大処理部475Bには、四角と丸の両方を囲む範囲をほぼ全範囲とするズームパラメータ(xb,yb,zb)が供給され、それに対応して、拡大処理部475Bは、拡大画像Bを生成する。 The enlargement processing unit 475B is supplied with zoom parameters (x b , y b , z b ) that substantially cover the range surrounding both the square and the circle, and in response thereto, the enlargement processing unit 475B B is generated.

拡大処理部475Cには、丸を囲む範囲をほぼ全範囲とするズームパラメータ(xc,yc,zc)が供給され、それに対応して、拡大処理部475Cは、拡大画像Cを生成する。 The enlargement processing unit 475C is supplied with zoom parameters (x c , y c , z c ) that make the range surrounding the circle almost the entire range. Correspondingly, the enlargement processing unit 475C generates the enlarged image C. .

そして、拡大画像A乃至Cが入力画像とともに画像合成部476に供給され、画像合成部476は、図22に示されるように、主画面領域281に入力画像が、副画面領域282−1に拡大画像Aが、副画面領域282−2に拡大画像Bが、副画面領域282−3に拡大画像Cが、それぞれ配置されるような合成画像を生成する。   The enlarged images A to C are supplied to the image composition unit 476 together with the input image. The image composition unit 476 enlarges the input image to the main screen region 281 and the sub screen region 282-1 as shown in FIG. Image A generates a composite image in which enlarged image B is arranged in sub-screen area 282-2 and enlarged image C is arranged in sub-screen area 282-3.

図23は、表示モードが全画面モードである場合の図18の画像処理装置200の機能ブロック図である。   FIG. 23 is a functional block diagram of the image processing apparatus 200 in FIG. 18 when the display mode is the full screen mode.

表示モードが全画面モードである場合には、画像処理部475−1乃至475−3は、上述したように、拡大処理に加えて、時間解像度を創造する時間解像度創造処理も行うので、図23では、画像処理部475−1乃至475−3を時間処理部475A’乃至475C’としている。   When the display mode is the full screen mode, the image processing units 475-1 to 475-3 perform the time resolution creation process for creating the time resolution in addition to the enlargement process as described above. The image processing units 475-1 to 475-3 are time processing units 475A ′ to 475C ′.

また、図23の例では、ユーザが拡大画像Bを選択したことを表す選択情報が、記録再生部474からスイッチャ部473に供給されているものとする。   In the example of FIG. 23, it is assumed that selection information indicating that the user has selected the enlarged image B is supplied from the recording / playback unit 474 to the switcher unit 473.

スイッチャ部473には、記録再生部474からズームパラメータBを表す選択情報が供給されているので、スイッチャ部473は、シーケンス再生部472A乃至472Cから供給されるズームパラメータA乃至CのうちのズームパラメータBを選択し、時間処理部475A’乃至475C’のすべてに供給する。   Since the switcher unit 473 is supplied with the selection information representing the zoom parameter B from the recording / reproducing unit 474, the switcher unit 473 performs the zoom parameter among the zoom parameters A to C supplied from the sequence reproducing units 472A to 472C. B is selected and supplied to all of the time processing units 475A ′ to 475C ′.

時間処理部475A’乃至475C’は、ズーム倍率zbに対応する時間係数を記憶部477から取得し、ズーム倍率zbと時間係数とから生成されるタップ係数を用いたクラス分類適応処理を行うことで、入力画像の位置(xb,yb)を中心位置とする所定の領域を拡大した拡大画像であって、ある入力画像が供給されてから次の入力画像が供給されるまでの時間を1フレーム時間Tとしたとき、時間処理部475A’乃至475C’それぞれが生成する拡大画像が、1/3T時間だけずれた時刻の拡大画像B1乃至475B3を生成する。 Time processing unit 475A 'to 475C' obtains a time coefficient corresponding to the zoom magnification z b from the storage unit 477, performs the class classification adaptive processing using tap coefficients generated from the zoom magnification z b and time factor Thus, it is an enlarged image obtained by enlarging a predetermined area centered on the position (x b , y b ) of the input image, and the time from when one input image is supplied until the next input image is supplied Is one frame time T, the magnified images generated by the time processing units 475A ′ to 475C ′ respectively generate magnified images B 1 to 475B 3 that are shifted by 1 / 3T time.

より具体的には、図24に示すように、時刻(タイムコード)tにおいて、図22における場合と同一の、四角と丸が対象物として撮像されている入力画像が時間処理部475A’乃至475C’に供給されたとすると、時間処理部475A’は、画像比較モードで生成した拡大画像と同一の拡大画像である、入力画像の同時刻の時刻tと、位置(xb,yb)を中心に拡大した拡大画像B1を生成する。 More specifically, as shown in FIG. 24, at time (time code) t, the same input image in which squares and circles are captured as objects as in FIG. 22 is processed by time processing units 475A ′ to 475C. Suppose that the time processing unit 475A 'is centered on the time t at the same time of the input image and the position (x b , y b ), which is the same enlarged image as the enlarged image generated in the image comparison mode. An enlarged image B 1 enlarged to is generated.

時間処理部475B’は、入力画像の時刻tよりT/3時間後の時刻t+T/3の、位置(xb,yb)を中心に拡大した拡大画像B2を生成する。時間処理部475C’は、入力画像の時刻tより2T/3時間後の時刻t+2T/3の、位置(xb,yb)を中心に拡大した拡大画像B3を生成する。 The time processing unit 475B ′ generates an enlarged image B 2 that is enlarged around the position (x b , y b ) at time t + T / 3, which is T / 3 hours after the time t of the input image. Time processing unit 475C 'is the time t + 2T / 3 of 2T / 3 hours after the time t of the input image, the position (x b, y b) to generate an enlarged image B 3 obtained by enlarging mainly.

画像合成部476は、時間処理部475A’乃至475C’から供給される拡大画像B1乃至475B3を、その順で画像提示部215に供給する。その結果、画像提示部215では、入力画像の3倍のフレームレートで拡大画像が表示される。 The image composition unit 476 supplies the enlarged images B 1 to 475B 3 supplied from the time processing units 475A ′ to 475C ′ to the image presentation unit 215 in that order. As a result, the image presentation unit 215 displays an enlarged image at a frame rate three times that of the input image.

所定の連続時間における画像比較モードと全画面モードの違いを、概念的に示すと図25に示すようになる。   FIG. 25 conceptually shows the difference between the image comparison mode and the full-screen mode in a predetermined continuous time.

画像比較モードにおいて、例えば、ユーザが、時刻t(1)からt(20)までは、ハイライト表示291を拡大画像Cに移動させ、拡大画像Cを選択しており、時刻t(20)からt(35)までは、ハイライト表示291を拡大画像Bに移動させ、拡大画像Bを選択したとする。同様に、ユーザは、時刻t(35)からt(45)までは、拡大画像Cを選択し、時刻t(45)からt(60)までは、拡大画像Aを選択したとする。   In the image comparison mode, for example, from time t (1) to t (20), the user moves the highlight display 291 to the enlarged image C, selects the enlarged image C, and starts from time t (20). It is assumed that the highlight display 291 is moved to the enlarged image B and the enlarged image B is selected until t (35). Similarly, it is assumed that the user selects the enlarged image C from time t (35) to t (45), and selects the enlarged image A from time t (45) to t (60).

この場合、時刻(タイムコード)とそのとき選択されている拡大画像(ズームパラメータ)が記録シーケンスとして記録される。即ち、時刻t(1)からt(20)まではズームパラメータC、時刻t(20)からt(35)まではズームパラメータB、時刻t(35)からt(45)まではズームパラメータC、時刻t(45)からt(60)まではズームパラメータA、という記録シーケンスが記録再生部474に記憶される。   In this case, the time (time code) and the enlarged image (zoom parameter) selected at that time are recorded as a recording sequence. That is, zoom parameter C from time t (1) to t (20), zoom parameter B from time t (20) to t (35), zoom parameter C from time t (35) to t (45), From time t (45) to t (60), a recording sequence of zoom parameter A is stored in the recording / reproducing unit 474.

そして、全画面モードにおいては、記録再生部474に記憶された記録シーケンスに従って、表示画面400の全画面に拡大された拡大画像が表示される。ただし、全画面モードのときに画像提示部215に提示される動画像のフレームレートは、入力される動画像の3倍のフレームレートである。   In the full screen mode, the enlarged image is displayed on the full screen of the display screen 400 in accordance with the recording sequence stored in the recording / playback unit 474. However, the frame rate of the moving image presented to the image presentation unit 215 in the full screen mode is three times the frame rate of the input moving image.

次に、図26及び図27のフローチャートを参照して図18の画像処理装置200による第2の画像処理について説明する。図26は、第2の画像処理のうちの、表示モードが画像比較モードである場合の処理(画像比較表示処理)のフローチャートであり、図27は、第2の画像処理のうちの、表示モードが全画面モードである場合の処理(選択画像表示処理)のフローチャートである。   Next, the second image processing by the image processing apparatus 200 in FIG. 18 will be described with reference to the flowcharts in FIGS. 26 and 27. FIG. 26 is a flowchart of processing (image comparison display processing) when the display mode is the image comparison mode in the second image processing, and FIG. 27 is a display mode in the second image processing. 7 is a flowchart of processing (selected image display processing) in a case where the is a full screen mode.

なお、図26および図27に示す処理の前には、表示モードが画像比較モードまたは全画面モードであることを表すモード情報が、制御部478から画像処理部475−1乃至475−3に供給されている。   Before the processing shown in FIGS. 26 and 27, mode information indicating that the display mode is the image comparison mode or the full screen mode is supplied from the control unit 478 to the image processing units 475-1 to 475-3. Has been.

図26の画像比較表示処理では、初めに、ステップS101において、画像分配部212は、画像入力部211から入力画像が供給されたかを判定する。ステップS101で、入力画像が供給されないと判定された場合、処理は終了する。   In the image comparison display process of FIG. 26, first, in step S101, the image distribution unit 212 determines whether an input image is supplied from the image input unit 211. If it is determined in step S101 that no input image is supplied, the process ends.

一方、ステップS101で、画像入力部211から入力画像が供給されたと判定された場合、処理はステップS102に進み、画像分配部212は、画像入力部211から供給された入力画像を分配する。即ち、画像分配部212は、入力画像を拡大処理部475A乃至475Cおよび画像合成部214に供給する。   On the other hand, if it is determined in step S101 that an input image has been supplied from the image input unit 211, the process proceeds to step S102, and the image distribution unit 212 distributes the input image supplied from the image input unit 211. That is, the image distribution unit 212 supplies the input image to the enlargement processing units 475A to 475C and the image composition unit 214.

ステップS103において、同期特徴量抽出部471は、画像分配部212から供給された入力画像の同期特徴量を算出し、ステップS104において、タイムテーブル461を参照することにより、算出された同期特徴量に対応するタイムコードを検出する。検出されたタイムコードは、シーケンス再生部472A乃至472Cと記録再生部474に供給される。   In step S103, the synchronization feature amount extraction unit 471 calculates the synchronization feature amount of the input image supplied from the image distribution unit 212, and in step S104, refers to the time table 461 to obtain the calculated synchronization feature amount. Detect the corresponding time code. The detected time code is supplied to the sequence playback units 472A to 472C and the recording / playback unit 474.

ステップS105において、記録再生部474は、同期特徴量抽出部471から供給されたタイムコードと、制御部478から供給されるズームパラメータA乃至Cのいずれかを表す選択情報とを対応付けたデータを記録シーケンスとして記憶する。   In step S <b> 105, the recording / playback unit 474 associates data in which the time code supplied from the synchronization feature amount extraction unit 471 and the selection information representing any one of the zoom parameters A to C supplied from the control unit 478 are associated with each other. Store as a recording sequence.

ステップS106において、シーケンス再生部472A乃至472Cは、タイムコードとズームパラメータとを対応付けたパラメータテーブルを参照し、供給されたタイムコードに対応するズームパラメータをスイッチャ部473に供給する。即ち、シーケンス再生部472Aは、ズームパラメータAをスイッチャ部473に供給し、シーケンス再生部472Bは、ズームパラメータBをスイッチャ部473に供給する。シーケンス再生部472Cは、ズームパラメータCをスイッチャ部473に供給する。   In step S106, the sequence reproduction units 472A to 472C refer to the parameter table in which the time code and the zoom parameter are associated with each other, and supply the zoom parameter corresponding to the supplied time code to the switcher unit 473. That is, the sequence playback unit 472A supplies the zoom parameter A to the switcher unit 473, and the sequence playback unit 472B supplies the zoom parameter B to the switcher unit 473. The sequence playback unit 472C supplies the zoom parameter C to the switcher unit 473.

ステップS107において、スイッチャ部473は、ズームパラメータA乃至Cを、拡大処理部475A乃至475Cに1対1に供給する。即ち、スイッチャ部473は、ズームパラメータAを拡大処理部475Aに供給し、ズームパラメータBを拡大処理部475Bに供給し、ズームパラメータCを拡大処理部475Cに供給する。   In step S107, the switcher unit 473 supplies the zoom parameters A to C to the enlargement processing units 475A to 475C on a one-to-one basis. That is, the switcher unit 473 supplies the zoom parameter A to the enlargement processing unit 475A, supplies the zoom parameter B to the enlargement processing unit 475B, and supplies the zoom parameter C to the enlargement processing unit 475C.

ステップS108において、拡大処理部475A乃至475Cは、それぞれ、拡大処理を実行し、処理後の拡大画像A乃至Cを画像合成部476に供給する。   In step S <b> 108, the enlargement processing units 475 </ b> A to 475 </ b> C respectively execute enlargement processing and supply the processed enlarged images A to C to the image composition unit 476.

ステップS109において、画像合成部476は、画像分配部212から供給された入力画像と、拡大処理部475A乃至475Cから供給された拡大画像A乃至Cを用いて合成画像を生成し、画像提示部215に供給する。   In step S109, the image composition unit 476 generates a composite image using the input image supplied from the image distribution unit 212 and the enlarged images A to C supplied from the enlargement processing units 475A to 475C, and the image presentation unit 215. To supply.

ステップS110において、画像提示部215は、画像合成部476から供給される合成画像を所定の表示部に表示することにより、合成画像をユーザに提示する。ステップS110の処理後、処理はステップS101に戻り、それ以降の処理が繰り返し実行される。   In step S110, the image presentation unit 215 presents the composite image to the user by displaying the composite image supplied from the image composition unit 476 on a predetermined display unit. After the process of step S110, the process returns to step S101, and the subsequent processes are repeatedly executed.

図27の選択画像表示処理では、初めに、ステップS121において、画像分配部212は、画像入力部211から入力画像が供給されたかを判定する。ステップS121で、入力画像が供給されないと判定された場合、処理は終了する。   In the selected image display process of FIG. 27, first, in step S121, the image distribution unit 212 determines whether an input image is supplied from the image input unit 211. If it is determined in step S121 that the input image is not supplied, the process ends.

一方、ステップS121で、画像入力部211から入力画像が供給されたと判定された場合、処理はステップS122に進み、画像分配部212は、画像入力部211から供給された入力画像を分配する。即ち、画像分配部212は、入力画像を時間処理部475A’乃至475C’に供給する。   On the other hand, if it is determined in step S121 that an input image has been supplied from the image input unit 211, the process proceeds to step S122, and the image distribution unit 212 distributes the input image supplied from the image input unit 211. That is, the image distribution unit 212 supplies the input image to the time processing units 475A ′ to 475C ′.

ステップS123において、同期特徴量抽出部471は、画像分配部212から供給された入力画像の同期特徴量を算出し、ステップS124において、タイムテーブル461を参照することにより、算出された同期特徴量に対応するタイムコードを検出する。検出されたタイムコードは、シーケンス再生部472A乃至472Cと記録再生部474に供給される。   In step S123, the synchronization feature amount extraction unit 471 calculates the synchronization feature amount of the input image supplied from the image distribution unit 212. In step S124, the synchronization feature amount extraction unit 471 calculates the synchronization feature amount by referring to the time table 461. Detect the corresponding time code. The detected time code is supplied to the sequence playback units 472A to 472C and the recording / playback unit 474.

ステップS125において、記録再生部474は、同期特徴量抽出部471から供給されたタイムコードに対応する選択情報を記録シーケンスから取得し、スイッチャ部473に供給する。   In step S <b> 125, the recording / playback unit 474 acquires selection information corresponding to the time code supplied from the synchronization feature amount extraction unit 471 from the recording sequence, and supplies the selection information to the switcher unit 473.

ステップS126において、シーケンス再生部472A乃至472Cは、タイムコードとズームパラメータとを対応付けたパラメータテーブルを参照し、供給されたタイムコードに対応するズームパラメータをスイッチャ部473に供給する。即ち、シーケンス再生部472Aは、ズームパラメータAをスイッチャ部473に供給し、シーケンス再生部472Bは、ズームパラメータBをスイッチャ部473に供給する。シーケンス再生部472Cは、ズームパラメータCをスイッチャ部473に供給する。   In step S126, the sequence reproduction units 472A to 472C refer to the parameter table in which the time code and the zoom parameter are associated with each other, and supply the zoom parameter corresponding to the supplied time code to the switcher unit 473. That is, the sequence playback unit 472A supplies the zoom parameter A to the switcher unit 473, and the sequence playback unit 472B supplies the zoom parameter B to the switcher unit 473. The sequence playback unit 472C supplies the zoom parameter C to the switcher unit 473.

ステップS127において、スイッチャ部473は、記録再生部474から供給される選択情報に基づいて、シーケンス再生部472A乃至472Cから供給されるズームパラメータA乃至Cのうちのいずれか1つを、時間処理部475A’乃至475C’のすべてに供給する。   In step S127, based on the selection information supplied from the recording / reproducing unit 474, the switcher unit 473 converts any one of the zoom parameters A to C supplied from the sequence reproducing units 472A to 472C to the time processing unit. Supply to all of 475A 'to 475C'.

ステップS128において、時間処理部475A’乃至475C’は、ズーム倍率(za,zb,zcのいずれか)と時間係数とから生成されたタップ係数を用いたクラス分類適応処理を行うことにより、拡大処理と、時間解像度を3倍に創造した時間解像度創造処理を同時に実行し、その結果得られる拡大画像を画像合成部476に供給する。例えば、図24を参照して説明したように、選択情報としてズームパラメータBが供給された場合には、入力画像と同時刻tの拡大画像B1、時刻t+T/3の拡大画像B2、および時刻t+2T/3の拡大画像B3が画像合成部476に供給される。 In step S128, the time processing units 475A ′ to 475C ′ perform the class classification adaptive process using the tap coefficient generated from the zoom magnification (any one of z a , z b , and z c ) and the time coefficient. The enlargement process and the time resolution creation process in which the time resolution is tripled are executed at the same time, and the enlarged image obtained as a result is supplied to the image composition unit 476. For example, as described with reference to FIG. 24, when the zoom parameter B as the selected information is supplied, expanded image B 1 of the input image at the same time t, expanded image B 2 at time t + T / 3, and The enlarged image B 3 at time t + 2T / 3 is supplied to the image composition unit 476.

ステップS129において、画像合成部476は、画像分配部212から供給された3枚の拡大画像を時系列に順次画像提示部215に供給する。ステップS129の処理後、処理はステップS121に戻り、それ以降の処理が繰り返し実行される。   In step S129, the image composition unit 476 sequentially supplies the three enlarged images supplied from the image distribution unit 212 to the image presentation unit 215 in time series. After the process of step S129, the process returns to step S121, and the subsequent processes are repeatedly executed.

全画面モードでは、以上の処理が行われることにより、入力画像の3倍のフレームレートで、画像比較モード時にユーザが選択した拡大画像が表示される。   In the full screen mode, the above processing is performed, so that an enlarged image selected by the user in the image comparison mode is displayed at a frame rate three times that of the input image.

以上のように、図18の画像処理装置200によれば、画像比較モードにおいては、画像分配部212から供給された入力画像と、拡大処理された拡大画像A乃至Cとが同時に画像提示部215において表示されるので、ユーザは、入力画像を確認しながら、拡大画像A乃至Cのなかから所望の拡大画像を選択することができる。   As described above, according to the image processing apparatus 200 of FIG. 18, in the image comparison mode, the input image supplied from the image distribution unit 212 and the enlarged images A to C that have been enlarged are simultaneously displayed on the image presentation unit 215. Therefore, the user can select a desired enlarged image from the enlarged images A to C while confirming the input image.

また、ユーザがどの拡大画像A乃至Cを選択したかを表す選択情報が記録シーケンスとして記録再生部474に記録されるので、全画面モードでは、その記録シーケンスに基づいて、ユーザが選択したとおりの構図の拡大画像を再生(再現)することができる。   In addition, since selection information indicating which enlarged images A to C are selected by the user is recorded in the recording / playback unit 474 as a recording sequence, in the full-screen mode, as selected by the user based on the recording sequence. An enlarged image of the composition can be reproduced (reproduced).

記録再生部474に記録されている記録シーケンスに基づいて、ユーザが選択したとおりの構図を再現して表示するだけであれば、全画面モードでは、画像処理部475−1乃至475−3のいずれか1つだけを用いればよいので、残りの2つが利用されないことになるが、上述した例では、画像処理部475−1乃至475−3が、同一の領域であって、時刻を少しずらした拡大画像を生成するので、時間解像度が向上した高画質な拡大画像を生成することができ、さらに画像処理部475−1乃至475−3のすべてを使用することになるので、画像処理部475−1乃至475−3を有効に活用することができる。   In the full screen mode, any one of the image processing units 475-1 to 475-3 is required as long as the composition as selected by the user is reproduced and displayed based on the recording sequence recorded in the recording / reproducing unit 474. However, in the above example, the image processing units 475-1 to 475-3 are in the same area and are slightly shifted in time. Since the enlarged image is generated, it is possible to generate a high-quality enlarged image with improved time resolution, and furthermore, since all of the image processing units 475-1 to 475-3 are used, the image processing unit 475- 1 to 475-3 can be used effectively.

なお、上述した例では、1つの動画像(入力画像)に対して、ユーザの選択情報を時系列に記録して再現する例について説明したが、複数の動画像(入力画像)に対して適用することも可能である。例えば、画像比較モードにおいて、2種類の動画像に対して2種類の拡大処理を実行し、入力画像と4種類の拡大画像を合成した合成画像を表示して、ユーザが4種類の拡大画像のなかからいずれの拡大画像を選択したかを表す情報を選択情報として記録することができる。   In the example described above, an example in which user selection information is recorded and reproduced in time series for one moving image (input image) has been described. However, the present invention is applicable to a plurality of moving images (input images). It is also possible to do. For example, in the image comparison mode, two types of enlargement processing are executed on two types of moving images, a composite image obtained by combining the input image and four types of enlarged images is displayed, and the user can select four types of enlarged images. Information indicating which enlarged image is selected from among them can be recorded as selection information.

上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図28は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。   FIG. 28 is a block diagram illustrating an example of a hardware configuration of a computer that executes the above-described series of processes using a program.

コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。   In a computer, a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, and a RAM (Random Access Memory) 503 are connected to each other by a bus 504.

バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、キーボード、マウス、マイクロホンなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507、ハードディスクや不揮発性のメモリなどよりなる記憶部508、ネットワークインタフェースなどよりなる通信部509、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア511を駆動するドライブ510が接続されている。   An input / output interface 505 is further connected to the bus 504. The input / output interface 505 includes an input unit 506 made up of a keyboard, mouse, microphone, etc., an output unit 507 made up of a display, a speaker, etc., a storage unit 508 made up of a hard disk or nonvolatile memory, and a communication unit 509 made up of a network interface. A drive 510 for driving a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is connected.

以上のように構成されるコンピュータでは、CPU501が、例えば、記憶部508に記憶されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した第1または第2の画像処理が行われる。   In the computer configured as described above, the CPU 501 loads the program stored in the storage unit 508 to the RAM 503 via the input / output interface 505 and the bus 504 and executes the program, for example. First or second image processing is performed.

コンピュータ(CPU501)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア511に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。   The program executed by the computer (CPU 501) is, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, or a semiconductor. The program is recorded on a removable medium 511 that is a package medium including a memory or the like, or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

そして、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。   The program can be installed in the storage unit 508 via the input / output interface 505 by attaching the removable medium 511 to the drive 510. The program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the storage unit 508. In addition, the program can be installed in the ROM 502 or the storage unit 508 in advance.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

また、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In addition, in the present specification, the steps described in the flowcharts are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes performed in time series in the described order. It also includes processing.

なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   In the present specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

クラス分類適応処理による画像変換処理を行う画像変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image conversion apparatus which performs the image conversion process by a class classification adaptive process. 画像変換装置による画像変換処理を説明するフローチャートである。It is a flowchart explaining the image conversion process by an image converter. タップ係数を学習する学習装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning apparatus which learns a tap coefficient. 学習装置の学習部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning part of a learning apparatus. 各種の画像変換処理を説明するための図である。It is a figure for demonstrating various image conversion processes. 学習装置による学習処理を説明するフローチャートである。It is a flowchart explaining the learning process by a learning apparatus. クラス分類適応処理による画像変換処理を行う画像変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image conversion apparatus which performs the image conversion process by a class classification adaptive process. 画像変換装置の係数出力部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the coefficient output part of an image converter. 係数種データを学習する学習装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning apparatus which learns coefficient seed data. 学習装置の学習部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning part of a learning apparatus. 学習装置による学習処理を説明するフローチャートである。It is a flowchart explaining the learning process by a learning apparatus. 係数種データを学習する学習装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning apparatus which learns coefficient seed data. 学習装置の学習部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning part of a learning apparatus. 本発明を適用した画像処理装置の第1実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of 1st Embodiment of the image processing apparatus to which this invention is applied. 画像比較モードと全画面モードの画面例を示す図である。It is a figure which shows the example of a screen of image comparison mode and full screen mode. 画像比較モードおよび全画面モードにおけるタップ範囲の例を示す図である。It is a figure which shows the example of the tap range in image comparison mode and full screen mode. 第1の画像処理を説明するフローチャートである。It is a flowchart explaining a 1st image process. 本発明を適用した画像処理装置の第2実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of 2nd Embodiment of the image processing apparatus to which this invention is applied. タイムコードの検出を説明する図である。It is a figure explaining the detection of a time code. 画像比較モードにおいて表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in image comparison mode. 表示モードが画像比較モードである場合の画像処理装置の機能ブロック図である。It is a functional block diagram of an image processing device when a display mode is an image comparison mode. 表示モードが画像比較モードである場合の処理例を示す図である。It is a figure which shows the example of a process in case display mode is image comparison mode. 表示モードが全画面モードである場合の画像処理装置の機能ブロック図である。It is a functional block diagram of an image processing device when a display mode is a full screen mode. 表示モードが全画面モードである場合の処理例を示す図である。It is a figure which shows the process example in case display mode is full screen mode. 画像比較モードと全画面モードの違いを概念的に示す図である。It is a figure which shows notionally the difference between image comparison mode and full screen mode. 画像比較表示処理を説明するフローチャートである。It is a flowchart explaining an image comparison display process. 選択画像表示処理を説明するフローチャートである。It is a flowchart explaining a selection image display process. 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the computer to which this invention is applied.

符号の説明Explanation of symbols

200 画像処理装置, 213−1乃至213−3 画像処理部, 214 画像合成部, 215 画像提示部, 216 記憶部, 217 制御部, 471 同期特徴量抽出部, 472A乃至472C シーケンス再生部, 473 スイッチャ部, 474 記録再生部, 475−1乃至475−3 画像処理部, 476 画像合成部, 477 記憶部, 478 制御部   200 image processing device, 213-1 to 213-3 image processing unit, 214 image composition unit, 215 image presentation unit, 216 storage unit, 217 control unit, 471 synchronization feature amount extraction unit, 472A to 472C sequence reproduction unit, 473 switcher Unit, 474 recording / reproducing unit, 475-1 to 475-3 image processing unit, 476 image synthesizing unit, 477 storage unit, 478 control unit

Claims (7)

第1の画像としての、動画像を構成する画像であって順次入力される1以上の入力画像を、第2の画像に変換する画像変換処理をそれぞれ行う複数の画像変換処理手段と、
複数の前記画像変換処理手段それぞれによる処理後の画像である複数の処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替える制御手段と
を備え、
前記複数の画像変換処理手段のそれぞれは、
前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択するクラスタップ選択手段と、
前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類手段と、
前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択する予測タップ選択手段と、
前記注目画素のクラスのタップ係数を出力するタップ係数出力手段と、
前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める演算手段と
を有し、前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える
画像処理装置。
A plurality of image conversion processing means for respectively performing image conversion processing for converting one or more input images sequentially constituting a moving image as a first image into a second image;
One image conversion process is selected from a plurality of different image conversion processes by selecting one post-process image from among a plurality of post-process images that are images processed by each of the plurality of image conversion processing means. And a control means for switching the second mode for executing the image conversion process selected in the first mode,
Each of the plurality of image conversion processing means includes:
Class tap selection for selecting a pixel used for classifying a target pixel of interest in the second image into one of the plurality of classes as a class tap from the first image Means,
Class classification means for classifying the pixel of interest based on the class tap;
Prediction tap selection means for selecting, as a prediction tap, a pixel used for calculation with the tap coefficient when obtaining the target pixel from the first image;
Tap coefficient output means for outputting a tap coefficient of the class of the target pixel;
Computing means for obtaining the pixel of interest by performing computation using the tap coefficient of the class of the pixel of interest and the prediction tap selected for the pixel of interest; and the first mode, An image processing apparatus that switches at least one of the class tap, the prediction tap, and the tap coefficient in the second mode.
前記クラスタップまたは前記予測タップとして選択した画素の範囲であるタップ範囲は、前記第1のモードでは、複数の前記画像変換処理手段それぞれで同一であり、前記第2のモードでは、複数の前記画像変換処理手段それぞれで異なり、複数の前記画像変換処理手段それぞれのタップ範囲を合わせた範囲が前記第1のモードにおけるタップ範囲よりも拡大した範囲となる
請求項1に記載の画像処理装置。
The tap range, which is the range of pixels selected as the class tap or the prediction tap, is the same in each of the plurality of image conversion processing means in the first mode, and in the second mode, the plurality of images. The image processing apparatus according to claim 1, wherein each of the conversion processing units is different, and a range obtained by combining tap ranges of the plurality of image conversion processing units is a range that is larger than the tap range in the first mode.
前記複数の画像変換処理手段のそれぞれは、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替えることにより、前記第1のモードでは、前記第1の画像の所定の領域を拡大する拡大処理を行い、前記第2のモードでは、前記第1の画像の所定の領域を拡大し、かつ、時間解像度を向上させる時間解像度および拡大処理を行う
請求項1に記載の画像処理装置。
Each of the plurality of image conversion processing means expands a predetermined region of the first image in the first mode by switching at least one of the class tap, the prediction tap, and the tap coefficient. The image processing apparatus according to claim 1, wherein an enlargement process is performed, and in the second mode, a predetermined area of the first image is enlarged and a time resolution and an enlargement process are performed to improve the time resolution.
前記入力画像の特徴量を抽出し、前記入力画像が前記動画像中のどのシーンの画像であるかを表すタイムコードを検出する同期特徴量抽出手段と、
前記同期特徴量抽出手段によって検出された前記タイムコードに対応して、複数の前記画像変換処理手段それぞれが拡大する前記所定の領域を特定する領域特定情報を出力する複数の領域特定手段と
をさらに備え、
複数の前記画像変換処理手段のそれぞれは、前記第1のモードにおいて、前記領域特定情報に基づいて、前記第1の画像を拡大する拡大処理を行う
請求項3に記載の画像処理装置。
Synchronous feature amount extraction means for extracting a feature amount of the input image and detecting a time code indicating which scene in the moving image the input image is,
A plurality of area specifying means for outputting area specifying information for specifying the predetermined area that each of the plurality of image conversion processing means expands corresponding to the time code detected by the synchronization feature amount extracting means; Prepared,
The image processing apparatus according to claim 3, wherein each of the plurality of image conversion processing units performs an enlargement process for enlarging the first image based on the region specifying information in the first mode.
前記第1のモードにおいて複数の前記画像変換処理手段が前記第1の画像を拡大して得られる複数の前記拡大画像のなかからユーザが選択した拡大画像を表す情報である選択情報を、前記タイムコードと対応付けて記憶するユーザ選択情報記憶手段と、
前記第2のモードにおいて、前記ユーザ選択情報記憶手段に記憶されている前記選択情報に基づいて、前記複数の領域特定手段から供給される複数の前記領域特定情報のなかから1つの領域特定情報を選択し、複数の前記画像変換処理手段に供給する選択手段と
をさらに備え、
複数の前記画像変換処理手段のそれぞれは、前記第2のモードにおいて、前記領域特定情報に基づいて、前記第1の画像を拡大し、かつ、時間解像度を向上させる時間解像度および拡大処理を行う
請求項4に記載の画像処理装置。
In the first mode, selection information that is information representing an enlarged image selected by the user from among the plurality of enlarged images obtained by enlarging the first image by the plurality of image conversion processing means, User selection information storage means for storing the code in association with the code;
In the second mode, based on the selection information stored in the user selection information storage means, one area specifying information is selected from the plurality of area specifying information supplied from the plurality of area specifying means. Selecting means for selecting and supplying to a plurality of said image conversion processing means,
Each of the plurality of image conversion processing means performs time resolution and enlargement processing for enlarging the first image and improving the time resolution based on the region specifying information in the second mode. Item 5. The image processing apparatus according to Item 4.
第1の画像としての、動画像を構成する画像であって順次入力される1以上の入力画像を、第2の画像に変換する画像変換処理を行う画像処理装置の画像処理方法において、
前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択し、前記クラスタップに基づいて、前記注目画素をクラス分類し、前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択し、前記注目画素のクラスのタップ係数を出力し、前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める画像変換処理を複数同時に行い、複数の画像変換処理による処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替えるステップを含み、
前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える
画像処理方法。
In an image processing method of an image processing apparatus for performing an image conversion process for converting one or more input images sequentially constituting a moving image as a first image into a second image,
A pixel used for classifying a target pixel of interest in the second image into any one of the plurality of classes is selected from the first image as a class tap, and the class Based on the tap, classify the pixel of interest, select a pixel to be used for calculation with the tap coefficient when obtaining the pixel of interest from the first image as a prediction tap, and tap the class of the pixel of interest A coefficient, and by performing a calculation using the tap coefficient of the class of the target pixel and the prediction tap selected for the target pixel, a plurality of image conversion processes for obtaining the target pixel are performed simultaneously, By selecting one post-processing image from among multiple post-processing images, a single image conversion process can be selected from a plurality of different image conversion processes. Wherein for a first mode, a second step of switching the mode for executing the first mode in the selected image conversion process,
An image processing method for switching at least one of the class tap, the prediction tap, and the tap coefficient between the first mode and the second mode.
第1の画像としての、動画像を構成する画像であって順次入力される1以上の入力画像を、第2の画像に変換する画像変換処理を、コンピュータに実行させるプログラムにおいて、
前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択し、前記クラスタップに基づいて、前記注目画素をクラス分類し、前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択し、前記注目画素のクラスのタップ係数を出力し、前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める画像変換処理を複数同時に行い、複数の画像変換処理による処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替えるステップを含み、
前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える
画像変換処理をコンピュータに実行させるプログラム。
In a program for causing a computer to execute an image conversion process for converting one or more input images sequentially constituting a moving image as a first image into a second image.
A pixel used for classifying a target pixel of interest in the second image into any one of the plurality of classes is selected from the first image as a class tap, and the class Based on the tap, classify the pixel of interest, select a pixel to be used for calculation with the tap coefficient when obtaining the pixel of interest from the first image as a prediction tap, and tap the class of the pixel of interest A coefficient, and by performing a calculation using the tap coefficient of the class of the target pixel and the prediction tap selected for the target pixel, a plurality of image conversion processes for obtaining the target pixel are performed simultaneously, By selecting one post-processing image from among multiple post-processing images, a single image conversion process can be selected from a plurality of different image conversion processes. Wherein for a first mode, a second step of switching the mode for executing the first mode in the selected image conversion process,
A program that causes a computer to execute an image conversion process for switching at least one of the class tap, the prediction tap, and the tap coefficient between the first mode and the second mode.
JP2007187880A 2007-07-19 2007-07-19 Image processor, method for processing image, and program Withdrawn JP2009026026A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007187880A JP2009026026A (en) 2007-07-19 2007-07-19 Image processor, method for processing image, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007187880A JP2009026026A (en) 2007-07-19 2007-07-19 Image processor, method for processing image, and program

Publications (1)

Publication Number Publication Date
JP2009026026A true JP2009026026A (en) 2009-02-05

Family

ID=40397784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007187880A Withdrawn JP2009026026A (en) 2007-07-19 2007-07-19 Image processor, method for processing image, and program

Country Status (1)

Country Link
JP (1) JP2009026026A (en)

Similar Documents

Publication Publication Date Title
JP5152559B2 (en) Image processing apparatus, image processing method, and program
JP5093557B2 (en) Image processing apparatus, image processing method, and program
JP5263565B2 (en) Image processing apparatus, image processing method, and program
JP5288214B2 (en) Data processing apparatus, data processing method, and program
US20070159661A1 (en) Display apparatus and display method, learning apparatus and learning method, and programs therefor
JP4193871B2 (en) Image processing apparatus, image processing method, and program
JP4650123B2 (en) Image processing apparatus, image processing method, and program
EP1501296A1 (en) Data converting apparatus, data converting method, learning apparatus, leaning method, program, and recording medium
JP4552691B2 (en) Moving picture conversion apparatus, moving picture restoration apparatus and method, and computer program
JP4310689B2 (en) Signal processing apparatus and method, recording medium, and program
KR101110209B1 (en) Signal processing apparatus and signal processing method
JP5066041B2 (en) Image signal processing apparatus and image signal processing method
JP2009026026A (en) Image processor, method for processing image, and program
JP4507639B2 (en) Image signal processing device
JP4803279B2 (en) Image signal processing apparatus and method, recording medium, and program
JP4457276B2 (en) Image processing apparatus, image processing method, and recording medium
JP4770704B2 (en) Image processing apparatus, image processing method, and program
JP2007129647A (en) Recording and reproducing device and recording and reproducing method, recording device and recording method, reproducing device and reproducing method, and program
JP2007081773A (en) Information processing apparatus and method, providing apparatus and method, and program
JP2005236634A (en) Image processor, image processing method, program, and recording medium
US20090226145A1 (en) Data processing device, data processing method, and program
JP2008118519A (en) Image conversion apparatus and method, learning apparatus and method, and program
JP4512956B2 (en) Data processing apparatus, data processing method, and recording medium
JP4674439B2 (en) Signal processing apparatus, signal processing method, and information recording medium
JP4310691B2 (en) Image processing apparatus and method, learning apparatus and method, recording medium, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101005