JP2009026026A - Image processor, method for processing image, and program - Google Patents
Image processor, method for processing image, and program Download PDFInfo
- Publication number
- JP2009026026A JP2009026026A JP2007187880A JP2007187880A JP2009026026A JP 2009026026 A JP2009026026 A JP 2009026026A JP 2007187880 A JP2007187880 A JP 2007187880A JP 2007187880 A JP2007187880 A JP 2007187880A JP 2009026026 A JP2009026026 A JP 2009026026A
- Authority
- JP
- Japan
- Prior art keywords
- image
- tap
- unit
- class
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 title claims abstract description 322
- 238000000034 method Methods 0.000 title claims abstract description 166
- 230000008569 process Effects 0.000 claims abstract description 151
- 238000006243 chemical reaction Methods 0.000 claims description 123
- 238000004364 calculation method Methods 0.000 claims description 50
- 238000003860 storage Methods 0.000 claims description 36
- 238000000605 extraction Methods 0.000 claims description 24
- 238000012805 post-processing Methods 0.000 claims description 13
- 238000003672 processing method Methods 0.000 claims description 9
- 230000001360 synchronised effect Effects 0.000 claims 1
- 238000013500 data storage Methods 0.000 description 41
- 239000000203 mixture Substances 0.000 description 41
- 238000009826 distribution Methods 0.000 description 25
- 239000002131 composite material Substances 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 239000011159 matrix material Substances 0.000 description 17
- 230000003044 adaptive effect Effects 0.000 description 16
- 230000006978 adaptation Effects 0.000 description 7
- 239000000470 constituent Substances 0.000 description 3
- 230000000593 degrading effect Effects 0.000 description 3
- 230000004069 differentiation Effects 0.000 description 3
- 230000008030 elimination Effects 0.000 description 3
- 238000003379 elimination reaction Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Abstract
Description
本発明は、画像処理装置、画像処理方法、およびプログラムに関し、特に、複数の画像処理部を備える場合に好適な画像処理装置、画像処理方法、およびプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program, and more particularly, to an image processing device, an image processing method, and a program that are suitable when a plurality of image processing units are provided.
ある画像に対して、複数の異なる画像処理を施し、その画像処理結果どうしを比較検討する場合、複数の画像処理後の処理後画像を1つのモニタに交互に表示させ比較する手法が簡単には考えられる。また、複数の処理後画像を同時にモニタに表示させ比較するといった手法も存在する(例えば、特許文献1,2参照)。
When performing a plurality of different image processing on an image and comparing the results of the image processing, it is easy to compare the processed images after the plurality of image processing by alternately displaying them on one monitor. Conceivable. In addition, there is a method in which a plurality of processed images are simultaneously displayed on a monitor and compared (for example, see
複数の静止画像に対して、複数の異なる画像処理を施し、その画像処理結果どうしを比較検討する場合には、比較検討対象の静止画像を1つの画像処理部に順番に供給し、その結果得られる複数の処理後画像をモニタに同時に並べることができる。 When a plurality of different image processes are performed on a plurality of still images and the image processing results are compared and examined, the still images to be compared are sequentially supplied to one image processing unit, and the result obtained is obtained. A plurality of processed images can be arranged on the monitor at the same time.
しかしながら、比較検討対象の画像が動画像である場合、処理後画像を同時に見るためには、複数の画像処理部を備え、それらに同時並列的に処理を行わせるようにする必要がある。 However, when the image to be compared is a moving image, in order to view the processed image at the same time, it is necessary to provide a plurality of image processing units and allow them to perform processing simultaneously in parallel.
ところが、比較検討後、複数の画像処理のうちのいずれかの方式またはパラメータに決定した後は、1つの画像処理部があればよく、それ以外の画像処理部が有効に活用されないという問題があった。 However, after a comparative study, after deciding to one of a plurality of image processing methods or parameters, there is a problem that only one image processing unit is required, and other image processing units cannot be effectively used. It was.
本発明は、このような状況に鑑みてなされたものであり、複数の画像処理部を有効に活用することができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to effectively utilize a plurality of image processing units.
本発明の一側面の画像処理装置は、第1の画像としての、動画像を構成する画像であって順次入力される1以上の入力画像を、第2の画像に変換する画像変換処理をそれぞれ行う複数の画像変換処理手段と、複数の前記画像変換処理手段それぞれによる処理後の画像である複数の処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替える制御手段とを備え、前記複数の画像変換処理手段のそれぞれは、前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択するクラスタップ選択手段と、前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類手段と、前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択する予測タップ選択手段と、前記注目画素のクラスのタップ係数を出力するタップ係数出力手段と、前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める演算手段とを有し、前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える。 An image processing apparatus according to an aspect of the present invention performs an image conversion process for converting one or more input images that are images constituting a moving image and sequentially input as a first image into a second image. By selecting one post-processing image from among a plurality of image conversion processing means to be performed and a plurality of post-processing images that are images processed by each of the plurality of image conversion processing means, a plurality of different image conversion processing A plurality of image conversion processing means, comprising: a first mode for selecting one of the image conversion processes; and a control means for switching a second mode for executing the image conversion process selected in the first mode. Each of the first image using, as a class tap, a pixel used to classify a target pixel of interest in the second image into any one of the plurality of classes. Class tap selection means for selecting from, class classification means for classifying the pixel of interest based on the class tap, and a pixel used for calculation of the tap coefficient when obtaining the pixel of interest as a prediction tap Predictive tap selection means for selecting from the first image, tap coefficient output means for outputting the tap coefficient of the class of the target pixel, tap coefficient of the class of the target pixel, and the selected for the target pixel A calculation unit for calculating the target pixel by performing a calculation using a prediction tap, and the class tap, the prediction tap, and the tap coefficient in the first mode and the second mode. Switch at least one of
前記クラスタップまたは前記予測タップとして選択した画素の範囲であるタップ範囲は、前記第1のモードでは、複数の前記画像変換処理手段それぞれで同一であり、前記第2のモードでは、複数の前記画像変換処理手段それぞれで異なり、複数の前記画像変換処理手段それぞれのタップ範囲を合わせた範囲が前記第1のモードにおけるタップ範囲よりも拡大した範囲となるようにさせることができる。 The tap range, which is the range of pixels selected as the class tap or the prediction tap, is the same in each of the plurality of image conversion processing means in the first mode, and in the second mode, the plurality of images. Different in each conversion processing unit, the range obtained by combining the tap ranges of each of the plurality of image conversion processing units can be set to be a range that is larger than the tap range in the first mode.
前記複数の画像変換処理手段のそれぞれには、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替えることにより、前記第1のモードでは、前記第1の画像の所定の領域を拡大する拡大処理を行い、前記第2のモードでは、前記第1の画像の所定の領域を拡大し、かつ、時間解像度を向上させる時間解像度および拡大処理を行うようにさせることができる。 In each of the plurality of image conversion processing means, by switching at least one of the class tap, the prediction tap, and the tap coefficient, a predetermined region of the first image is set in the first mode. An enlargement process for enlarging is performed, and in the second mode, a predetermined area of the first image is enlarged, and a time resolution and an enlargement process for improving the time resolution can be performed.
前記入力画像の特徴量を抽出し、前記入力画像が前記動画像中のどのシーンの画像であるかを表すタイムコードを検出する同期特徴量抽出手段と、前記同期特徴量抽出手段によって検出された前記タイムコードに対応して、複数の前記画像変換処理手段それぞれが拡大する前記所定の領域を特定する領域特定情報を出力する複数の領域特定手段とをさらに設け、複数の前記画像変換処理手段のそれぞれには、前記第1のモードにおいて、前記領域特定情報に基づいて、前記第1の画像を拡大する拡大処理を行うようにさせることができる。 A feature amount of the input image is extracted, and a synchronization feature amount extraction unit that detects a time code indicating which scene in the moving image the input image is, and detected by the synchronization feature amount extraction unit A plurality of area specifying means for outputting area specifying information for specifying the predetermined area that each of the plurality of image conversion processing means expands in correspondence with the time code; In each of the first mode, an enlargement process for enlarging the first image may be performed based on the region specifying information.
前記第1のモードにおいて複数の前記画像変換処理手段が前記第1の画像を拡大して得られる複数の前記拡大画像のなかからユーザが選択した拡大画像を表す情報である選択情報を、前記タイムコードと対応付けて記憶するユーザ選択情報記憶手段と、前記第2のモードにおいて、前記ユーザ選択情報記憶手段に記憶されている前記選択情報に基づいて、前記複数の領域特定手段から供給される複数の前記領域特定情報のなかから1つの領域特定情報を選択し、複数の前記画像変換処理手段に供給する選択手段とをさらに設け、複数の前記画像変換処理手段のそれぞれには、前記第2のモードにおいて、前記領域特定情報に基づいて、前記第1の画像を拡大し、かつ、時間解像度を向上させる時間解像度および拡大処理を行うようにさせることができる。 In the first mode, selection information that is information representing an enlarged image selected by the user from among the plurality of enlarged images obtained by enlarging the first image by the plurality of image conversion processing means, A plurality of user selection information storage means stored in association with the code; and a plurality of areas supplied from the plurality of area specifying means based on the selection information stored in the user selection information storage means in the second mode. Selection means for selecting one area specifying information from the area specifying information and supplying the area specifying information to a plurality of the image conversion processing means, and each of the plurality of image conversion processing means includes the second In the mode, the first image is enlarged based on the region specifying information, and the time resolution and enlargement processing for improving the time resolution are performed. Can.
本発明の一側面の画像処理方法は、第1の画像としての、動画像を構成する画像であって順次入力される1以上の入力画像を、第2の画像に変換する画像変換処理を行う画像処理装置の画像処理方法において、前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択し、前記クラスタップに基づいて、前記注目画素をクラス分類し、前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択し、前記注目画素のクラスのタップ係数を出力し、前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める画像変換処理を複数同時に行い、複数の画像変換処理による処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替えるステップを含み、前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える。 An image processing method according to an aspect of the present invention performs an image conversion process of converting one or more input images that are sequentially input as images forming a moving image as a first image into a second image. In the image processing method of the image processing apparatus, a pixel used to classify a target pixel of interest in the second image into any one of the plurality of classes is defined as a class tap. Select from one image, classify the target pixel based on the class tap, and select a pixel to be used for calculation with the tap coefficient when obtaining the target pixel from the first image as a prediction tap And outputting the tap coefficient of the class of the target pixel, and performing an operation using the tap coefficient of the class of the target pixel and the prediction tap selected for the target pixel, A plurality of image conversion processes for obtaining the target pixel are simultaneously performed, and one post-processing image is selected from among the post-processing images obtained by the plurality of image conversion processes. And switching between the first mode and the second mode, and switching between the first mode and the second mode for executing the image conversion process selected in the first mode. Switch at least one of the tap, the prediction tap, and the tap coefficient.
本発明の一側面のプログラムは、第1の画像としての、動画像を構成する画像であって順次入力される1以上の入力画像を、第2の画像に変換する画像変換処理を、コンピュータに実行させるプログラムにおいて、前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択し、前記クラスタップに基づいて、前記注目画素をクラス分類し、前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択し、前記注目画素のクラスのタップ係数を出力し、前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める画像変換処理を複数同時に行い、複数の画像変換処理による処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替えるステップを含み、前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える画像変換処理をコンピュータに実行させるプログラム。 A program according to one aspect of the present invention is a computer that performs image conversion processing for converting one or more input images that are images that constitute a moving image and are sequentially input into a second image, as a first image. In the program to be executed, a pixel used to classify a target pixel of interest in the second image into any one of the plurality of classes is used as a class tap from the first image. Selecting, classifying the target pixel based on the class tap, selecting a pixel used for calculation with the tap coefficient when obtaining the target pixel from the first image as a prediction tap, and selecting the target By outputting the tap coefficient of the pixel class, and performing the calculation using the tap coefficient of the pixel of interest class and the prediction tap selected for the pixel of interest. A plurality of different image conversion processes are performed by simultaneously performing a plurality of image conversion processes for obtaining the pixel of interest and selecting one processed image from the processed images obtained by the plurality of image conversion processes. A step of switching between a first mode for selecting a process and a second mode for executing the image conversion process selected in the first mode, the first mode and the second mode, A program that causes a computer to execute image conversion processing for switching at least one of a class tap, the prediction tap, and the tap coefficient.
本発明の一側面においては、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、第1のモードで選択された画像変換処理を実行する第2のモードが切り替えられ、第1のモードと第2のモードとで、クラスタップ、予測タップ、およびタップ係数の少なくとも1つが切り替えられる。 In one aspect of the present invention, there are a first mode for selecting one image conversion process from a plurality of different image conversion processes, and a second mode for executing the image conversion process selected in the first mode. Switching is performed, and at least one of a class tap, a prediction tap, and a tap coefficient is switched between the first mode and the second mode.
画像処理装置は、独立した装置であっても良いし、所定の装置の画像処理を行うブロックであっても良い。 The image processing apparatus may be an independent apparatus or a block that performs image processing of a predetermined apparatus.
本発明の一側面によれば、複数の画像処理部を有効に活用することができる。 According to one aspect of the present invention, a plurality of image processing units can be effectively utilized.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.
本発明の一側面の画像処理装置は、第1の画像としての、動画像を構成する画像であって順次入力される1以上の入力画像を、第2の画像に変換する画像変換処理をそれぞれ行う複数の画像変換処理手段(例えば、図14の画像処理部213−1乃至213−3)と、複数の前記画像変換処理手段それぞれによる処理後の画像である複数の処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替える制御手段(例えば、図14の制御部217)とを備え、前記複数の画像変換処理手段のそれぞれは、前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択するクラスタップ選択手段(例えば、図7のタップ選択部13)と、前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類手段(例えば、図7のクラス分類部14)と、前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択する予測タップ選択手段(例えば、図7のタップ選択部12)と、前記注目画素のクラスのタップ係数を出力するタップ係数出力手段(例えば、図7の係数出力部55)と、前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める演算手段(例えば、図7の予測演算部16)とを有し、前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える。
An image processing apparatus according to an aspect of the present invention performs an image conversion process for converting one or more input images that are images constituting a moving image and sequentially input as a first image into a second image. A plurality of image conversion processing means (for example, the image processing units 213-1 to 213-3 in FIG. 14) and one of a plurality of processed images that are images after processing by each of the plurality of image conversion processing means. By selecting one processed image, a first mode for selecting one image conversion process from among a plurality of different image conversion processes, and a second mode for executing the image conversion process selected in the first mode Control means (for example, the
前記入力画像の特徴量を抽出し、前記入力画像が前記動画像中のどのシーンの画像であるかを表すタイムコードを検出する同期特徴量抽出手段(例えば、図18の同期特徴量抽出部471)と、前記同期特徴量抽出手段によって検出された前記タイムコードに対応して、複数の前記画像変換処理手段それぞれが拡大する前記所定の領域を特定する領域特定情報を出力する複数の領域特定手段(例えば、図18のシーケンス再西武472A乃至472C)とをさらに設け、複数の前記画像変換処理手段のそれぞれには、前記第1のモードにおいて、前記領域特定情報に基づいて、前記第1の画像を拡大する拡大処理を行うようにさせることができる。
The feature amount of the input image is extracted, and a synchronization feature amount extraction unit (for example, the synchronization feature
前記第1のモードにおいて複数の前記画像変換処理手段が前記第1の画像を拡大して得られる複数の前記拡大画像のなかからユーザが選択した拡大画像を表す情報である選択情報を、前記タイムコードと対応付けて記憶するユーザ選択情報記憶手段(例えば、図18の記録再生部474)と、前記第2のモードにおいて、前記ユーザ選択情報記憶手段に記憶されている前記選択情報に基づいて、前記複数の領域特定手段から供給される複数の前記領域特定情報のなかから1つの領域特定情報を選択し、複数の前記画像変換処理手段に供給する選択手段(例えば、図18のスイッチャ部473)とをさらに設け、複数の前記画像変換処理手段のそれぞれには、前記第2のモードにおいて、前記領域特定情報に基づいて、前記第1の画像を拡大し、かつ、時間解像度を向上させる時間解像度および拡大処理を行うようにさせることができる。
In the first mode, selection information that is information representing an enlarged image selected by the user from among the plurality of enlarged images obtained by enlarging the first image by the plurality of image conversion processing means, Based on the selection information stored in the user selection information storage means in the second mode in the user selection information storage means (for example, the recording / reproducing
本発明の一側面の画像処理方法またはプログラムは、第1の画像としての、動画像を構成する画像であって順次入力される1以上の入力画像を、第2の画像に変換する画像変換処理を行う画像処理装置の画像処理方法、または、前記画像変換処理をコンピュータに実行させるプログラムにおいて、前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択し、前記クラスタップに基づいて、前記注目画素をクラス分類し、前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択し、前記注目画素のクラスのタップ係数を出力し、前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める画像変換処理を複数同時に行い、複数の画像変換処理による処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替えるステップ(例えば、図17のステップS83)を含み、前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える。 An image processing method or program according to one aspect of the present invention is an image conversion process for converting one or more input images sequentially constituting a moving image as a first image into a second image. In the image processing method of the image processing apparatus or the program for causing the computer to execute the image conversion process, the target pixel of interest in the second image is selected from any of the plurality of classes. The pixel used for classifying is selected from the first image as a class tap from the first image, the pixel of interest is classified based on the class tap, and the calculation with the tap coefficient when obtaining the pixel of interest Are selected from the first image as prediction taps, output the tap coefficients of the class of the target pixel, and the tap coefficients of the class of the target pixel By performing a calculation using the prediction tap selected for the target pixel, a plurality of image conversion processes for obtaining the target pixel are simultaneously performed, and one process is performed from among the processed images by the plurality of image conversion processes. A first mode in which one image conversion process is selected from a plurality of different image conversion processes by selecting a subsequent image, and a second mode in which the image conversion process selected in the first mode is executed. , And switching at least one of the class tap, the prediction tap, and the tap coefficient between the first mode and the second mode.
以下、本発明を適用した画像処理装置(システム)の実施の形態について説明するが、その前に、その画像処理装置が行う信号処理に利用するクラス分類適応処理について説明する。なお、クラス分類適応処理は、画像処理装置が行う信号処理に利用する処理の一例であり、画像処理装置が行う信号処理は、クラス分類適応処理を利用しないものであってもかまわない。 Hereinafter, an embodiment of an image processing apparatus (system) to which the present invention is applied will be described. Before that, a class classification adaptive process used for signal processing performed by the image processing apparatus will be described. The class classification adaptive processing is an example of processing used for signal processing performed by the image processing apparatus, and the signal processing performed by the image processing apparatus may not use the class classification adaptive processing.
また、ここでは、第1の画像データ(画像信号)を第2の画像データ(画像信号)に変換する画像変換処理を例に、クラス分類適応処理について説明する。 Here, the class classification adaptation process will be described by taking an image conversion process for converting the first image data (image signal) to the second image data (image signal) as an example.
第1の画像データを第2の画像データに変換する画像変換処理は、その第1と第2の画像データの定義によって様々な信号処理となる。 The image conversion processing for converting the first image data into the second image data is various signal processing depending on the definition of the first and second image data.
即ち、例えば、第1の画像データを低空間解像度の画像データとするとともに、第2の画像データを高空間解像度の画像データとすれば、画像変換処理は、空間解像度を向上させる空間解像度創造(向上)処理ということができる。 That is, for example, if the first image data is image data with low spatial resolution and the second image data is image data with high spatial resolution, the image conversion process creates a spatial resolution that improves the spatial resolution ( (Improved) processing.
また、例えば、第1の画像データを低S/N(Signal/Noise)の画像データとするとともに、第2の画像データを高S/Nの画像データとすれば、画像変換処理は、ノイズを除去するノイズ除去処理ということができる。 Also, for example, if the first image data is low S / N (Signal / Noise) image data and the second image data is high S / N image data, the image conversion process may reduce noise. It can be referred to as noise removal processing to be removed.
さらに、例えば、第1の画像データを所定の画素数(サイズ)の画像データとするとともに、第2の画像データを、第1の画像データの画素数を多くまたは少なくした画像データとすれば、画像変換処理は、画像のリサイズ(拡大または縮小)を行うリサイズ処理ということができる。 Further, for example, if the first image data is image data having a predetermined number of pixels (size) and the second image data is image data in which the number of pixels of the first image data is increased or decreased, The image conversion process can be referred to as a resizing process for resizing (enlarging or reducing) an image.
また、例えば、第1の画像データを低時間解像度の画像データとするとともに、第2の画像データを高時間解像度の画像データとすれば、画像変換処理は、時間解像度を向上させる時間解像度創造(向上)処理ということができる。 In addition, for example, if the first image data is image data with low time resolution and the second image data is image data with high time resolution, the image conversion process creates time resolution that improves the time resolution ( (Improved) processing.
さらに、例えば、第1の画像データを、MPEG(Moving Picture Experts Group)符号化などのブロック単位で符号化された画像データを復号することによって得られる復号画像データとするとともに、第2の画像データを、符号化前の画像データとすれば、画像変換処理は、MPEG符号化および復号によって生じるブロック歪み等の各種の歪みを除去する歪み除去処理ということができる。 Further, for example, the first image data is set as decoded image data obtained by decoding image data encoded in units of blocks such as MPEG (Moving Picture Experts Group) encoding, and the second image data. Is image data before encoding, it can be said that the image conversion process is a distortion removal process for removing various distortions such as block distortion caused by MPEG encoding and decoding.
なお、空間解像度創造処理において、低空間解像度の画像データである第1の画像データを、高空間解像度の画像データである第2の画像データに変換するにあたっては、第2の画像データを、第1の画像データと同一の画素数の画像データとすることもできるし、第1の画像データよりも画素数が多い画像データとすることもできる。第2の画像データを、第1の画像データよりも画素数が多い画像データとする場合、空間解像度創造処理は、空間解像度を向上させる処理であるとともに、画像サイズ(画素数)を拡大するリサイズ処理でもある。 In the spatial resolution creation process, when converting the first image data that is image data with low spatial resolution into the second image data that is image data with high spatial resolution, the second image data is converted into the second image data. The image data can have the same number of pixels as the one image data, or the image data can have more pixels than the first image data. When the second image data is image data having a larger number of pixels than the first image data, the spatial resolution creation process is a process for improving the spatial resolution and resizing to increase the image size (number of pixels). It is also a process.
以上のように、画像変換処理によれば、第1および第2の画像データをどのように定義するかによって、様々な信号処理を実現することができる。 As described above, according to the image conversion process, various signal processes can be realized depending on how the first and second image data are defined.
以上のような画像変換処理としてのクラス分類適応処理では、第2の画像データのうちの注目している注目画素(の画素値)を複数のクラスのうちのいずれかのクラスにクラス分類することにより得られるクラスのタップ係数と、注目画素に対して選択される第1の画像データの画素(の画素値)とを用いた演算により、注目画素(の画素値)が求められる。 In the class classification adaptive processing as the image conversion processing as described above, the target pixel of interest (pixel value) in the second image data is classified into one of a plurality of classes. The pixel of interest (pixel value) is obtained by calculation using the tap coefficient of the class obtained by the above and the pixel (pixel value) of the first image data selected for the pixel of interest.
即ち、図1は、クラス分類適応処理による画像変換処理を行う画像変換装置1の構成例を示している。
That is, FIG. 1 shows a configuration example of an
画像変換装置1では、そこに供給される画像データが、第1の画像データとして、タップ選択部12および13に供給される。
In the
注目画素選択部11は、第2の画像データを構成する画素を、順次、注目画素とし、その注目画素を表す情報を、必要なブロックに供給する。
The pixel-of-
タップ選択部12は、注目画素(の画素値)を予測するのに用いる第1の画像データを構成する画素(の画素値)の幾つかを、予測タップとして選択する。
The
具体的には、タップ選択部12は、注目画素の時空間の位置から空間的または時間的に近い位置にある第1の画像データの複数の画素を、予測タップとして選択する。
Specifically, the
タップ選択部13は、注目画素を、幾つかのクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いる第1の画像データを構成する画素の幾つかを、クラスタップとして選択する。即ち、タップ選択部13は、タップ選択部12が予測タップを選択するのと同様にして、クラスタップを選択する。
The
なお、予測タップとクラスタップは、同一のタップ構造を有するものであっても良いし、異なるタップ構造を有するものであっても良い。 Note that the prediction tap and the class tap may have the same tap structure or may have different tap structures.
タップ選択部12で得られた予測タップは、予測演算部16に供給され、タップ選択部13で得られたクラスタップは、クラス分類部14に供給される。
The prediction tap obtained by the
クラス分類部14は、タップ選択部13からのクラスタップに基づき、注目画素をクラス分類し、その結果得られるクラスに対応するクラスコードを、係数出力部15に供給する。
The
ここで、クラス分類を行う方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を採用することができる。 Here, as a method of classifying, for example, ADRC (Adaptive Dynamic Range Coding) or the like can be employed.
ADRCを用いる方法では、クラスタップを構成する画素(の画素値)が、ADRC処理され、その結果得られるADRCコードにしたがって、注目画素のクラスが決定される。 In the method using ADRC, the pixels constituting the class tap are subjected to ADRC processing, and the class of the pixel of interest is determined according to the ADRC code obtained as a result.
なお、KビットADRCにおいては、例えば、クラスタップを構成する画素の画素値の最大値MAXと最小値MINが検出され、DR=MAX-MINを、集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する各画素の画素値がKビットに再量子化される。即ち、クラスタップを構成する各画素の画素値から、最小値MINが減算され、その減算値がDR/2Kで除算(再量子化)される。そして、以上のようにして得られる、クラスタップを構成するKビットの各画素の画素値を、所定の順番で並べたビット列が、ADRCコードとして出力される。従って、クラスタップが、例えば、1ビットADRC処理された場合には、そのクラスタップを構成する各画素の画素値は、最大値MAXと最小値MINとの平均値で除算され(小数点以下切り捨て)、これにより、各画素の画素値が1ビットとされる(2値化される)。そして、その1ビットの画素値を所定の順番で並べたビット列が、ADRCコードとして出力される。 In the K-bit ADRC, for example, the maximum value MAX and the minimum value MIN of the pixels constituting the class tap are detected, and DR = MAX-MIN is set as the local dynamic range of the set, and this dynamic range Based on DR, the pixel value of each pixel constituting the class tap is requantized to K bits. That is, the pixel value of each pixel forming the class taps, the minimum value MIN is subtracted, and the subtracted value is divided by DR / 2 K (requantization). A bit string obtained by arranging the pixel values of the K-bit pixels constituting the class tap in a predetermined order is output as an ADRC code. Therefore, for example, when the class tap is subjected to 1-bit ADRC processing, the pixel value of each pixel constituting the class tap is divided by the average value of the maximum value MAX and the minimum value MIN (rounded down). Thereby, the pixel value of each pixel is set to 1 bit (binarized). Then, a bit string in which the 1-bit pixel values are arranged in a predetermined order is output as an ADRC code.
なお、クラス分類部14には、例えば、クラスタップを構成する画素の画素値のレベル分布のパターンを、そのままクラスコードとして出力させることも可能である。しかしながら、この場合、クラスタップが、N個の画素の画素値で構成され、各画素の画素値に、Kビットが割り当てられているとすると、クラス分類部14が出力するクラスコードの場合の数は、(2N)K通りとなり、画素の画素値のビット数Kに指数的に比例した膨大な数となる。
Note that, for example, the level distribution pattern of the pixel values of the pixels constituting the class tap may be output to the
従って、クラス分類部14においては、クラスタップの情報量を、上述のADRC処理や、あるいはベクトル量子化等によって圧縮することにより、クラス分類を行うのが好ましい。
Accordingly, the
係数出力部15は、後述する学習によって求められたクラスごとのタップ係数を記憶し、さらに、その記憶したタップ係数のうちの、クラス分類部14から供給されるクラスコードに対応するアドレスに記憶されているタップ係数(クラス分類部14から供給されるクラスコードが表すクラスのタップ係数)を出力する。このタップ係数は、予測演算部16に供給される。
The
ここで、タップ係数とは、ディジタルフィルタにおける、いわゆるタップにおいて入力データと乗算される係数に相当するものである。 Here, the tap coefficient corresponds to a coefficient that is multiplied with input data in a so-called tap in the digital filter.
予測演算部16は、タップ選択部12が出力する予測タップと、係数出力部15が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、注目画素の真値の予測値を求める所定の予測演算を行う。これにより、予測演算部16は、注目画素の画素値(の予測値)、即ち、第2の画像データを構成する画素の画素値を求めて出力する。
The
次に、図2のフローチャートを参照して、図1の画像変換装置1による画像変換処理について説明する。
Next, image conversion processing by the
ステップS11において、注目画素選択部11は、画像変換装置1に入力される第1の画像データに対する第2の画像データを構成する画素のうち、まだ、注目画素とされていないものの1つを、注目画素として選択する。例えば、第2の画像データを構成する画素のうち、ラスタスキャン順で、まだ、注目画素とされていないものが、注目画素として選択される。
In step S11, the pixel-of-
ステップS12において、タップ選択部12とタップ選択部13が、そこに供給される第1の画像データから、注目画素についての予測タップとクラスタップとするものを、それぞれ選択する。そして、予測タップは、タップ選択部12から予測演算部16に供給され、クラスタップは、タップ選択部13からクラス分類部14に供給される。
In step S12, the
クラス分類部14は、タップ選択部13から、注目画素についてのクラスタップを受信し、ステップS13において、そのクラスタップに基づき、注目画素をクラス分類する。さらに、クラス分類部14は、そのクラス分類の結果得られる注目画素のクラスを表すクラスコードを、係数出力部15に出力する。
The
ステップS14では、係数出力部15が、クラス分類部14から供給されるクラスコードに対応するアドレスに記憶されているタップ係数を取得して出力する。さらに、ステップS14では、予測演算部16が、係数出力部15が出力するタップ係数を取得する。
In step S14, the
ステップS15では、予測演算部16が、タップ選択部12が出力する予測タップと、係数出力部15から取得したタップ係数とを用いて、所定の予測演算を行う。これにより、予測演算部16は、注目画素の画素値を求めて出力する。
In step S <b> 15, the
ステップS16では、注目画素選択部11が、まだ、注目画素としていない第2の画像データがあるかどうかを判定する。ステップS16において、まだ、注目画素としていない第2の画像データがあると判定された場合、処理はステップS11に戻り、以下、同様の処理が繰り返される。
In step S <b> 16, the target
また、ステップS16において、まだ、注目画素とされていない第2の画像データがないと判定された場合、処理は終了する。 If it is determined in step S16 that there is no second image data that has not yet been set as the target pixel, the process ends.
次に、図1の予測演算部16における予測演算と、係数出力部15に記憶されたタップ係数の学習について説明する。
Next, the prediction calculation in the
いま、例えば、高画質の画像データ(高画質画像データ)を第2の画像データとするとともに、その高画質画像データをLPF(Low Pass Filter)によってフィルタリングする等してその画質(解像度)を低下させた低画質の画像データ(低画質画像データ)を第1の画像データとして、低画質画像データから予測タップを選択し、その予測タップとタップ係数を用いて、高画質画像データの画素(高画質画素)の画素値を、所定の予測演算によって求める(予測する)ことを考える。 Now, for example, the high-quality image data (high-quality image data) is used as the second image data, and the high-quality image data is filtered by an LPF (Low Pass Filter) to reduce the image quality (resolution). Using the low-quality image data (low-quality image data) as the first image data, a prediction tap is selected from the low-quality image data, and using the prediction tap and the tap coefficient, pixels (high-quality image data) Consider that the pixel value of (image quality pixel) is obtained (predicted) by a predetermined prediction calculation.
所定の予測演算として、例えば、線形1次予測演算を採用することとすると、高画質画素の画素値yは、次の線形1次式によって求められることになる。 For example, when a linear primary prediction calculation is adopted as the predetermined prediction calculation, the pixel value y of the high-quality pixel is obtained by the following linear linear expression.
但し、式(1)において、xnは、高画質画素yについての予測タップを構成する、n番目の低画質画像データの画素(以下、適宜、低画質画素という)の画素値を表し、wnは、n番目の低画質画素(の画素値)と乗算されるn番目のタップ係数を表す。なお、式(1)では、予測タップが、N個の低画質画素x1,x2,・・・,xNで構成されるものとしてある。 In Equation (1), x n represents a pixel value of an nth low-quality image data pixel (hereinafter referred to as a low-quality pixel as appropriate) that constitutes a prediction tap for the high-quality pixel y, and w n represents the nth tap coefficient multiplied by the nth low image quality pixel (its pixel value). In equation (1), the prediction tap is assumed to be composed of N low image quality pixels x 1 , x 2 ,..., X N.
ここで、高画質画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。 Here, the pixel value y of the high-quality pixel can be obtained not by the linear primary expression shown in Expression (1) but by a higher-order expression of the second or higher order.
いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk'と表すと、その予測誤差ekは、次式で表される。 Now, when the true value of the pixel value of the high-quality pixel of the k-th sample is expressed as y k and the predicted value of the true value y k obtained by the equation (1) is expressed as y k ′, the prediction error e k Is expressed by the following equation.
いま、式(2)の予測値yk'は、式(1)にしたがって求められるため、式(2)のyk'を、式(1)にしたがって置き換えると、次式が得られる。 Now, since the predicted value y k ′ of Equation (2) is obtained according to Equation (1), the following equation is obtained by replacing y k ′ of Equation (2) according to Equation (1).
但し、式(3)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の低画質画素を表す。 In Equation (3), x n, k represents the nth low-quality pixel that constitutes the prediction tap for the high-quality pixel of the k-th sample.
式(3)(または式(2))の予測誤差ekを0とするタップ係数wnが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのようなタップ係数wnを求めることは、一般には困難である。
Tap coefficient w n for the
そこで、タップ係数wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適なタップ係数wnは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as the standard for indicating that the tap coefficient w n is optimal, for example, when adopting the method of least squares, optimal tap coefficient w n, the sum E of square errors expressed by the following formula It can be obtained by minimizing.
但し、式(4)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。 However, in Equation (4), K is the high image quality pixel y k and the low image quality pixels x 1, k , x 2, k ,..., X N constituting the prediction tap for the high image quality pixel y k. , k represents the number of samples (the number of learning samples).
式(4)の自乗誤差の総和Eの最小値(極小値)は、式(5)に示すように、総和Eをタップ係数wnで偏微分したものを0とするwnによって与えられる。 The minimum value of the sum E of square errors of Equation (4) (minimum value), as shown in Equation (5), given that by partially differentiating the sum E with the tap coefficient w n by w n to 0.
そこで、上述の式(3)をタップ係数wnで偏微分すると、次式が得られる。 Therefore, when partial differentiation of above equation (3) with the tap coefficient w n, the following equation is obtained.
式(5)と(6)から、次式が得られる。 From the equations (5) and (6), the following equation is obtained.
式(7)のekに、式(3)を代入することにより、式(7)は、式(8)に示す正規方程式で表すことができる。 By substituting equation (3) into e k in equation (7), equation (7) can be expressed by the normal equation shown in equation (8).
式(8)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、タップ係数wnについて解くことができる。 Normal equation of Equation (8), for example, by using a like sweeping-out method (Gauss-Jordan elimination method) can be solved for the tap coefficient w n.
式(8)の正規方程式を、クラスごとにたてて解くことにより、最適なタップ係数(ここでは、自乗誤差の総和Eを最小にするタップ係数)wnを、クラスごとに求めることができる。 The normal equation of Equation (8), by solving for each class, the optimal tap coefficient (here, the tap coefficient that minimizes the sum E of square errors) to w n, can be found for each class .
図3は、式(8)の正規方程式をたてて解くことによりタップ係数wnを求める学習を行う学習装置21の構成例を示している。 Figure 3 shows an example of the configuration of a learning apparatus 21 performs learning for determining the tap coefficient w n by solving the normal equations in equation (8).
学習用画像記憶部31は、タップ係数wnの学習に用いられる学習用画像データを記憶している。ここで、学習用画像データとしては、例えば、解像度の高い高画質画像データを用いることができる。
Learning
教師データ生成部32は、学習用画像記憶部31から学習用画像データを読み出す。さらに、教師データ生成部32は、学習用画像データから、タップ係数の学習の教師(真値)、即ち、式(1)による予測演算としての写像の写像先の画素値となる教師データを生成し、教師データ記憶部33に供給する。ここでは、教師データ生成部32は、例えば、学習用画像データとしての高画質画像データを、そのまま教師データとして、教師データ記憶部33に供給する。
The teacher
教師データ記憶部33は、教師データ生成部32から供給される教師データとしての高画質画像データを記憶する。
The teacher
生徒データ生成部34は、学習用画像記憶部31から学習用画像データを読み出す。さらに、生徒データ生成部34は、学習用画像データから、タップ係数の学習の生徒、即ち、式(1)による予測演算としての写像による変換対象の画素値となる生徒データを生成し、生徒データ記憶部174に供給する。ここでは、生徒データ生成部34は、例えば、学習用画像データとしての高画質画像データをフィルタリングすることにより、その解像度を低下させることで、低画質画像データを生成し、この低画質画像データを、生徒データとして、生徒データ記憶部35に供給する。
The student
生徒データ記憶部35は、生徒データ生成部34から供給される生徒データを記憶する。
The student
学習部36は、教師データ記憶部33に記憶された教師データとしての高画質画像データを構成する画素を、順次、注目画素とし、その注目画素について、生徒データ記憶部35に記憶された生徒データとしての低画質画像データを構成する低画質画素のうちの、図1のタップ選択部12が選択するのと同一のタップ構造の低画質画素を、予測タップとして選択する。さらに、学習部36は、教師データを構成する各画素と、その画素が注目画素とされたときに選択された予測タップとを用い、クラスごとに、式(8)の正規方程式をたてて解くことにより、クラスごとのタップ係数を求める。
The
即ち、図4は、図3の学習部36の構成例を示している。
That is, FIG. 4 shows a configuration example of the
注目画素選択部41は、教師データ記憶部33に記憶されている教師データを構成する画素を、順次、注目画素として選択し、その注目画素を表す情報を、必要なブロックに供給する。
The target
タップ選択部42は、注目画素について、生徒データ記憶部35に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図1のタップ選択部12が選択するのと同一の画素を選択し、これにより、タップ選択部12で得られるのと同一のタップ構造の予測タップを得て、足し込み部45に供給する。
The
タップ選択部43は、注目画素について、生徒データ記憶部35に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図1のタップ選択部13が選択するのと同一の画素を選択し、これにより、タップ選択部13で得られるのと同一のタップ構造のクラスタップを得て、クラス分類部44に供給する。
The
クラス分類部44は、タップ選択部43が出力するクラスタップに基づき、図1のクラス分類部14と同一のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部45に出力する。
The
足し込み部45は、教師データ記憶部33から、注目画素となっている教師データ(画素)を読み出し、その注目画素と、タップ選択部42から供給される注目画素についての予測タップを構成する生徒データ(画素)とを対象とした足し込みを、クラス分類部44から供給されるクラスコードごとに行う。
The adding
即ち、足し込み部45には、教師データ記憶部33に記憶された教師データyk、タップ選択部42が出力する予測タップxn,k、クラス分類部44が出力するクラスコードが供給される。
That is, the
そして、足し込み部45は、クラス分類部44から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xn,kを用い、式(8)の左辺の行列における生徒データどうしの乗算(xn,kxn',k)と、サメーション(Σ)に相当する演算を行う。
Then, the adding
さらに、足し込み部45は、やはり、クラス分類部44から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xn,kと教師データykを用い、式(8)の右辺のベクトルにおける生徒データxn,kおよび教師データykの乗算(xn,kyk)と、サメーション(Σ)に相当する演算を行う。
Furthermore, the adding
即ち、足し込み部45は、前回、注目画素とされた教師データについて求められた式(8)における左辺の行列のコンポーネント(Σxn,kxn',k)と、右辺のベクトルのコンポーネント(Σxn,kyk)を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネント(Σxn,kxn',k)またはベクトルのコンポーネント(Σxn,kyk)に対して、新たに注目画素とされた教師データについて、その教師データyk+1および生徒データxn,k+1を用いて計算される、対応するコンポーネントxn,k+1xn',k+1またはxn,k+1yk+1を足し込む(式(8)のサメーションで表される加算を行う)。
That is, the adding
そして、足し込み部45は、教師データ記憶部33(図3)に記憶された教師データすべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、式(8)に示した正規方程式をたてると、その正規方程式を、タップ係数算出部46に供給する。
Then, the
タップ係数算出部46は、足し込み部45から供給される各クラスについての正規方程式を解くことにより、各クラスについて、最適なタップ係数wnを求めて出力する。
Tap
図1の画像変換装置1における係数出力部15には、以上のようにして求められたクラスごとのタップ係数wnが記憶されている。
The
ここで、第1の画像データに対応する生徒データとする画像データと、第2の画像データに対応する教師データとする画像データの選択の仕方によって、タップ係数としては、上述したように、各種の画像変換処理を行うものを得ることができる。 Here, as described above, various tap coefficients may be used depending on how image data to be used as student data corresponding to the first image data and image data to be used as teacher data corresponding to the second image data are selected. What performs the image conversion process of this can be obtained.
即ち、上述のように、高画質画像データを、第2の画像データに対応する教師データとするとともに、その高画質画像データの空間解像度を劣化させた低画質画像データを、第1の画像データに対応する生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図5上から1番目に示すように、低画質画像データ(SD(Standard Definition)画像)である第1の画像データを、その空間解像度を向上させた高画質画像データ(HD(High Definition)画像データ)である第2の画像データに変換する空間解像度創造処理としての画像変換処理を行うものを得ることができる。 That is, as described above, the high-quality image data is used as teacher data corresponding to the second image data, and the low-quality image data obtained by degrading the spatial resolution of the high-quality image data is used as the first image data. As a tap coefficient, the first image which is low-quality image data (SD (Standard Definition) image) is shown as the first tap coefficient from the top of FIG. It is possible to obtain what performs image conversion processing as spatial resolution creation processing for converting data into second image data that is high-quality image data (HD (High Definition) image data) with improved spatial resolution. .
なお、この場合、第1の画像データ(生徒データ)は、第2の画像データ(教師データ)と画素数が同一であっても良いし、少なくても良い。 In this case, the first image data (student data) may have the same or less number of pixels as the second image data (teacher data).
また、例えば、高画質画像データを教師データとするとともに、その教師データとしての高画質画像データに対して、ノイズを重畳した画像データを生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図5上から2番目に示すように、低S/Nの画像データである第1の画像データを、そこに含まれるノイズを除去(低減)した高S/Nの画像データである第2の画像データに変換するノイズ除去処理としての画像変換処理を行うものを得ることができる。 Also, for example, the high-quality image data is used as teacher data, and the tap coefficient is learned by using, as the student data, image data on which noise is superimposed on the high-quality image data as the teacher data. As shown second from the top in FIG. 5, the first image data, which is low S / N image data, is high S / N image data obtained by removing (reducing) noise contained therein. What performs an image conversion process as a noise removal process converted into 2nd image data can be obtained.
さらに、例えば、ある画像データを教師データとするとともに、その教師データとしての画像データの画素数を間引いた画像データを生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図5上から3番目に示すように、画像データの一部である第1の画像データを、その第1の画像データを拡大した拡大画像データである第2の画像データに変換する拡大処理(リサイズ処理)としての画像変換処理を行うものを得ることができる。 Further, for example, by performing tap coefficient learning by using a certain piece of image data as teacher data and learning the tap coefficient using image data obtained by thinning out the number of pixels of the image data as the teacher data as the tap data, FIG. As shown in the third from the top, enlargement processing (resizing processing) for converting first image data that is a part of image data into second image data that is enlarged image data obtained by enlarging the first image data ) For performing the image conversion process.
なお、拡大処理を行うタップ係数は、高画質画像データを教師データとするとともに、その高画質画像データの空間解像度を、画素数を間引くことにより劣化させた低画質画像データを生徒データとして、タップ係数の学習を行うことによっても得ることができる。 Note that the tap coefficient for performing the enlargement processing is a tap using high-quality image data as teacher data and low-quality image data obtained by degrading the spatial resolution of the high-quality image data by thinning out the number of pixels as student data. It can also be obtained by learning coefficients.
また、例えば、高フレームレートの画像データを教師データとするとともに、その教師データとしての高フレームレートの画像データのフレームを間引いた画像データを生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図5上から4番目(1番下)に示すように、所定のフレームレートの第1の画像データを、高フレームレートの第2の画像データに変換する時間解像度創造処理としての画像変換処理を行うものを得ることができる。 In addition, for example, by using the high frame rate image data as the teacher data and learning the tap coefficient using the image data obtained by thinning out the frames of the high frame rate image data as the teacher data as the student data, taps are performed. As a coefficient, as shown in the fourth (first bottom) from the top in FIG. 5, as a time resolution creation process for converting the first image data having a predetermined frame rate into the second image data having a high frame rate. What performs an image conversion process can be obtained.
次に、図6のフローチャートを参照して、図3の学習装置21の処理(学習処理)について、説明する。 Next, processing (learning processing) of the learning device 21 in FIG. 3 will be described with reference to the flowchart in FIG.
最初に、ステップS21において、教師データ生成部32と生徒データ生成部34が、学習用画像記憶部31に記憶された学習用画像データから、教師データと生徒データを生成し、教師データ記憶部33と生徒データ生成部34にそれぞれ供給して記憶させる。
First, in step S 21, the teacher
なお、教師データ生成部32と生徒データ生成部34において、それぞれ、どのような生徒データと教師データを生成するかは、上述したような種類の画像変換処理のうちのいずれの処理用のタップ係数の学習を行うかによって異なる。
Note that what kind of student data and teacher data are generated in the teacher
その後、処理はステップS22に進み、学習部36(図4)において、注目画素選択部41は、教師データ記憶部33に記憶された教師データのうち、まだ、注目画素としていないものを、注目画素として選択する。ステップS23では、タップ選択部42が、注目画素について、生徒データ記憶部35に記憶された生徒データから予測タップとする生徒データとしての画素を選択し、足し込み部45に供給するとともに、タップ選択部43が、やはり、注目画素について、生徒データ記憶部35に記憶された生徒データからクラスタップとする生徒データを選択し、クラス分類部44に供給する。
Thereafter, the process proceeds to step S22, and in the learning unit 36 (FIG. 4), the target
ステップS24において、クラス分類部44は、注目画素についてのクラスタップに基づき、注目画素のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部45に出力する。
In step S <b> 24, the
ステップS25では、足し込み部45は、教師データ記憶部33から、注目画素を読み出し、その注目画素と、タップ選択部42から供給される注目画素について選択された予測タップを構成する生徒データとを対象とした式(8)の足し込みを、クラス分類部44から供給されるクラスコードごとに行う。
In step S <b> 25, the adding
ステップS26では、注目画素選択部41が、教師データ記憶部33に、まだ、注目画素としていない教師データが記憶されているかどうかを判定する。ステップS26において、注目画素としていない教師データが、まだ、教師データ記憶部33に記憶されていると判定された場合、処理はステップS22に戻り、以下、同様の処理が繰り返される。
In step S <b> 26, the pixel-of-
また、ステップS26において、注目画素としていない教師データが、教師データ記憶部33に記憶されていないと判定された場合、処理はステップS27に進み、足し込み部45は、いままでのステップS22乃至S26の処理によって得られたクラスごとの式(8)における左辺の行列と、右辺のベクトルを、タップ係数算出部46に供給する。
If it is determined in step S26 that teacher data that is not a pixel of interest is not stored in the teacher
さらに、ステップS27では、タップ係数算出部46は、足し込み部45から供給されるクラスごとの式(8)における左辺の行列と右辺のベクトルによって構成されるクラスごとの正規方程式を解くことにより、クラスごとに、タップ係数wnを求めて出力し、処理を終了する。
Furthermore, in step S27, the tap
なお、学習用画像データの数が十分でないこと等に起因して、タップ係数を求めるのに必要な数の正規方程式が得られないクラスが生じることがあり得るが、そのようなクラスについては、タップ係数算出部46は、例えば、デフォルトのタップ係数を出力するようになっている。
It should be noted that due to the number of learning image data being insufficient, etc., there may occur a class in which the number of normal equations necessary for obtaining the tap coefficient cannot be obtained. The tap
図7は、クラス分類適応処理による画像変換処理を行う他の画像変換装置である画像変換装置51の構成例を示している。 FIG. 7 shows a configuration example of an image conversion device 51 that is another image conversion device that performs image conversion processing by class classification adaptation processing.
なお、図中、図1における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、画像変換装置51は、係数出力部15に代えて、係数出力部55が設けられている他は、図1の画像変換装置1と同様に構成されている。
In the figure, portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the image conversion apparatus 51 is configured in the same manner as the
係数出力部55には、クラス分類部14からクラス(クラスコード)が供給される他、例えば、ユーザの操作に応じて外部から入力されるパラメータzが供給されるようになっている。係数出力部55は、後述するようにして、パラメータzに対応するクラスごとのタップ係数を生成し、そのクラスごとのタップ係数のうちの、クラス分類部14からのクラスのタップ係数を、予測演算部16に出力する。
In addition to the class (class code) supplied from the
図8は、図7の係数出力部55の構成例を示している。 FIG. 8 shows a configuration example of the coefficient output unit 55 of FIG.
係数生成部61は、係数種メモリ62に記憶されている係数種データと、パラメータメモリ63に記憶されたパラメータzとに基づいて、クラスごとのタップ係数を生成し、係数メモリ64に供給して上書きする形で記憶させる。
The coefficient generator 61 generates a tap coefficient for each class based on the coefficient seed data stored in the
係数種メモリ62は、後述する係数種データの学習によって得られるクラスごとの係数種データを記憶している。ここで、係数種データは、タップ係数を生成する、いわば種になるデータである。
The
パラメータメモリ63は、ユーザの操作等に応じて外部から入力されるパラメータzを上書きする形で記憶する。
The
係数メモリ64は、係数生成部61から供給されるクラスごとのタップ係数(パラメータzに対応するクラスごとのタップ係数)を記憶する。そして、係数メモリ64は、クラス分類部14(図7)から供給されるクラスのタップ係数を読み出し、予測演算部16(図7)に出力する。 The coefficient memory 64 stores the tap coefficient for each class supplied from the coefficient generation unit 61 (the tap coefficient for each class corresponding to the parameter z). And the coefficient memory 64 reads the tap coefficient of the class supplied from the class classification | category part 14 (FIG. 7), and outputs it to the prediction calculating part 16 (FIG. 7).
図7の画像変換装置51では、外部から係数出力部55に対して、パラメータzが入力されると、係数出力部55(図8)のパラメータメモリ63において、そのパラメータzが、上書きする形で記憶される。
In the image conversion apparatus 51 of FIG. 7, when the parameter z is input from the outside to the coefficient output unit 55, the parameter z is overwritten in the
パラメータメモリ63にパラメータzが記憶されると(パラメータメモリ63の記憶内容が更新されると)、係数生成部61は、係数種メモリ62からクラスごとの係数種データを読み出すとともに、パラメータメモリ63からパラメータzを読み出し、その係数種データとパラメータzに基づいて、クラスごとのタップ係数を求める。そして、係数生成部61は、そのクラスごとのタップ係数を、係数メモリ64に供給し、上書きする形で記憶させる。
When the parameter z is stored in the parameter memory 63 (when the storage content of the
画像変換装置51では、タップ係数を記憶しており、そのタップ係数を出力する係数出力部15に代えて設けられている係数出力部55において、パラメータzに対応するタップ係数を生成して出力することを除いて、図1の画像変換装置1が行う図2のフローチャートにしたがった処理と同様の処理が行われる。
The image conversion device 51 stores tap coefficients, and generates and outputs tap coefficients corresponding to the parameter z in a coefficient output unit 55 provided in place of the
次に、図7の予測演算部16における予測演算、並びに図8の係数生成部61におけるタップ係数の生成および係数種メモリ62に記憶させる係数種データの学習について説明する。
Next, prediction calculation in the
図1の実施の形態における場合のように、高画質の画像データ(高画質画像データ)を第2の画像データとするとともに、その高画質画像データの空間解像度を低下させた低画質の画像データ(低画質画像データ)を第1の画像データとして、低画質画像データから予測タップを選択し、その予測タップとタップ係数を用いて、高画質画像データの画素である高画質画素の画素値を、例えば、式(1)の線形1次予測演算によって求める(予測する)ことを考える。 As in the embodiment of FIG. 1, low-quality image data in which high-quality image data (high-quality image data) is used as second image data and the spatial resolution of the high-quality image data is reduced. (Low-quality image data) is the first image data, a prediction tap is selected from the low-quality image data, and the pixel value of the high-quality pixel that is a pixel of the high-quality image data is selected using the prediction tap and the tap coefficient. For example, consider obtaining (predicting) by linear primary prediction calculation of equation (1).
ここで、高画質画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。 Here, the pixel value y of the high-quality pixel can be obtained not by the linear primary expression shown in Expression (1) but by a higher-order expression of the second or higher order.
図8の実施の形態では、係数生成部61において、タップ係数wnが、係数種メモリ62に記憶された係数種データと、パラメータメモリ63に記憶されたパラメータzとから生成されるが、この係数生成部61におけるタップ係数wnの生成が、例えば、係数種データとパラメータzを用いた次式によって行われることとする。
In the embodiment of FIG. 8, the coefficient generation unit 61 generates the tap coefficient w n from the coefficient seed data stored in the
但し、式(9)において、βm,nは、n番目のタップ係数wnを求めるのに用いられるm番目の係数種データを表す。なお、式(9)では、タップ係数wnが、M個の係数種データβ1,n,β2,n,・・・,βM,nを用いて求められるようになっている。 However, in the equation (9), beta m, n denotes the m-th coefficient seed data used for determining the n-th tap coefficient w n. In the equation (9), the tap coefficient w n is obtained using M coefficient seed data β 1, n , β 2, n ,..., Β M, n .
ここで、係数種データβm,nとパラメータzから、タップ係数wnを求める式は、式(9)に限定されるものではない。 Here, the formula for obtaining the tap coefficient w n from the coefficient seed data β m, n and the parameter z is not limited to the formula (9).
いま、式(9)におけるパラメータzによって決まる値zm-1を、新たな変数tmを導入して、次式で定義する。 Now, a value z m−1 determined by the parameter z in equation (9) is defined by the following equation by introducing a new variable t m .
式(10)を、式(9)に代入することにより、次式が得られる。 By substituting equation (10) into equation (9), the following equation is obtained.
式(11)によれば、タップ係数wnは、係数種データβm,nと変数tmとの線形1次式によって求められることになる。 According to equation (11), the tap coefficient w n will be asked by the linear first-order equation of the coefficient seed data beta m, n and the variable t m.
ところで、いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk'と表すと、その予測誤差ekは、次式で表される。 Now, when the true value of the pixel value of the high-quality pixel of the k-th sample is expressed as y k and the predicted value of the true value y k obtained by the equation (1) is expressed as y k ′, the prediction error e k is expressed by the following equation.
いま、式(12)の予測値yk'は、式(1)にしたがって求められるため、式(12)のyk'を、式(1)にしたがって置き換えると、次式が得られる。 Now, since the predicted value y k ′ of Expression (12) is obtained according to Expression (1), when y k ′ of Expression (12) is replaced according to Expression (1), the following expression is obtained.
但し、式(13)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の低画質画素を表す。 In Equation (13), x n, k represents the n-th low-quality pixel that constitutes the prediction tap for the high-quality pixel of the k-th sample.
式(13)のwnに、式(11)を代入することにより、次式が得られる。 To w n of formula (13), by substituting equation (11), the following equation is obtained.
式(14)の予測誤差ekを0とする係数種データβm,nが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのような係数種データβm,nを求めることは、一般には困難である。 Prediction error e k coefficient seed data beta m, n to 0 in Equation (14), is the optimal for predicting the high-quality pixel, for all the high-quality pixel, such coefficient seed data It is generally difficult to obtain β m, n .
そこで、係数種データβm,nが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適な係数種データβm,nは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as a standard indicating that the coefficient seed data β m, n is optimal, for example, when the least square method is adopted, the optimal coefficient seed data β m, n is expressed by the following equation. It can be obtained by minimizing the sum E of square errors.
但し、式(15)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。 However, in Expression (15), K is a high-quality pixel y k and low-quality pixels x 1, k , x 2, k ,..., X N that constitute a prediction tap for the high-quality pixel y k. , k represents the number of samples (the number of learning samples).
式(15)の自乗誤差の総和Eの最小値(極小値)は、式(16)に示すように、総和Eを係数種データβm,nで偏微分したものを0とするβm,nによって与えられる。
The minimum value (minimum value) of the sum E of squared errors in Equation (15) is
式(13)を、式(16)に代入することにより、次式が得られる。 By substituting equation (13) into equation (16), the following equation is obtained.
いま、Xi,p,j,qとYi,pを、式(18)と(19)に示すように定義する。 Now, X i, p, j, q and Y i, p are defined as shown in equations (18) and (19).
この場合、式(17)は、Xi,p,j,qとYi,pを用いた式(20)に示す正規方程式で表すことができる。 In this case, Expression (17) can be expressed by a normal equation shown in Expression (20) using X i, p, j, q and Y i, p .
式(20)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、係数種データβm,nについて解くことができる。 The normal equation of Expression (20) can be solved for the coefficient seed data β m, n by using, for example, a sweeping method (Gauss-Jordan elimination method) or the like.
図7の画像変換装置51においては、多数の高画質画素y1,y2,・・・,yKを学習の教師となる教師データとするとともに、各高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kを学習の生徒となる生徒データとして、クラスごとに式(20)の正規方程式をたてて解く学習を行うことにより求められたクラスごとの係数種データβm,nが、係数出力部55(図8)の係数種メモリ62に記憶されており、係数生成部61では、その係数種データβm,nと、パラメータメモリ63に記憶されたパラメータzから、式(9)にしたがって、クラスごとのタップ係数wnが生成される。そして、予測演算部16において、そのタップ係数wnと、高画質画素としての注目画素についての予測タップを構成する低画質画素(第1の画像データの画素)xnを用いて、式(1)が計算されることにより、高画質画素としての注目画素の画素値(に近い予測値)が求められる。
In the image conversion device 51 of FIG. 7, a large number of high-quality pixels y 1 , y 2 ,..., Y K are used as teacher data for learning, and prediction taps for the respective high-quality pixels y k are used. low quality pixels x 1, k that constitute, x 2, k, ···, x N, as student data serving as a student learning k, the vertical and solves learning normal equation of formula (20) for each class The coefficient seed data β m, n for each class obtained by performing is stored in the
図9は、式(20)の正規方程式をクラスごとにたてて解くことにより、クラスごとの係数種データβm,nを求める学習を行う学習装置71の構成例を示している。 FIG. 9 shows a configuration example of a learning device 71 that performs learning for obtaining coefficient seed data β m, n for each class by solving the normal equation of Expression (20) for each class.
なお、図中、図3の学習装置21における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、学習装置71は、生徒データ生成部34と学習部36に代えて、生徒データ生成部74と学習部76がそれぞれ設けられているとともに、パラメータ生成部81が新たに設けられている他は、図3の学習装置21と同様に構成されている。
In the figure, portions corresponding to those in the learning device 21 of FIG. 3 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the learning device 71 is provided with a student
生徒データ生成部74は、図3の生徒データ生成部34と同様に、学習用画像データから生徒データを生成し、生徒データ記憶部35に供給して記憶させる。
The student
但し、生徒データ生成部74には、学習用画像データの他、図8のパラメータメモリ63に供給されるパラメータzが取り得る範囲の幾つかの値が、パラメータ生成部81から供給されるようになっている。即ち、いま、パラメータzが取り得る値が0乃至Zの範囲の実数であるとすると、生徒データ生成部74には、例えば、z=0,1,2,・・・,Zが、パラメータ生成部81から供給されるようになっている。
However, in addition to the learning image data, the student
生徒データ生成部74は、学習用画像データとしての高画質画像データを、例えば、そこに供給されるパラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより、生徒データとしての低画質画像データを生成する。
The student
従って、生徒データ生成部74では、学習用画像データとしての高画質画像データについて、Z+1種類の、空間解像度の異なる生徒データとしての低画質画像データが生成される。
Accordingly, the student
なお、ここでは、例えば、パラメータzの値が大きくなるほど、カットオフ周波数の高いLPFを用いて、高画質画像データをフィルタリングし、生徒データとしての低画質画像データを生成するものとする。従って、ここでは、値の大きいパラメータzに対応する低画質画像データほど、空間解像度が高い。 Note that, here, for example, as the value of the parameter z increases, the high-quality image data is filtered by using an LPF with a high cutoff frequency, and low-quality image data as student data is generated. Therefore, here, the lower the image quality data corresponding to the larger parameter z, the higher the spatial resolution.
また、本実施の形態では、説明を簡単にするために、生徒データ生成部74において、高画質画像データの水平方向および垂直方向の両方向の空間解像度を、パラメータzに対応する分だけ低下させた低画質画像データを生成するものとする。
In the present embodiment, in order to simplify the explanation, the student
学習部76は、教師データ記憶部33に記憶された教師データ、生徒データ記憶部35に記憶された生徒データ、およびパラメータ生成部81から供給されるパラメータzを用いて、クラスごとの係数種データを求めて出力する。
The
パラメータ生成部81は、パラメータzが取り得る範囲の幾つかの値としての、例えば、上述したようなz=0,1,2,・・・,Zを生成し、生徒データ生成部74と学習部76に供給する。
The parameter generation unit 81 generates, for example, z = 0, 1, 2,..., Z as described above as several values in the range that the parameter z can take, and learns with the student
図10は、図9の学習部76の構成例を示している。なお、図中、図4の学習部36における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
FIG. 10 shows a configuration example of the
タップ選択部92は、図4のタップ選択部42と同様に、注目画素について、生徒データ記憶部35に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図7のタップ選択部12が選択するのと同一のタップ構造の予測タップを選択し、足し込み部95に供給する。
As with the
タップ選択部93も、図4のタップ選択部43と同様に、注目画素について、生徒データ記憶部35に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図7のタップ選択部13が選択するのと同一のタップ構造のクラスタップを選択し、クラス分類部44に供給する。
As with the
但し、図10では、タップ選択部42と43に、図9のパラメータ生成部81が生成するパラメータzが供給されるようになっており、タップ選択部42と43は、パラメータ生成部81から供給されるパラメータzに対応して生成された生徒データ(ここでは、パラメータzに対応するカットオフ周波数のLPFを用いて生成された生徒データとしての低画質画像データ)から、予測タップとクラスタップをそれぞれ選択する。
However, in FIG. 10, the parameter z generated by the parameter generation unit 81 in FIG. 9 is supplied to the
足し込み部95は、図9の教師データ記憶部33から、注目画素を読み出し、その注目画素、タップ選択部42から供給される注目画素について構成された予測タップを構成する生徒データ、およびその生徒データを生成したときのパラメータzを対象とした足し込みを、クラス分類部44から供給されるクラスごとに行う。
The adding
即ち、足し込み部95には、教師データ記憶部33に記憶された注目画素としての教師データyk、タップ選択部42が出力する注目画素についての予測タップxi,k(xj,k)、およびクラス分類部44が出力する注目画素のクラスが供給されるとともに、注目画素についての予測タップを構成する生徒データを生成したときのパラメータzが、パラメータ生成部81から供給される。
In other words, the
そして、足し込み部95は、クラス分類部44から供給されるクラスごとに、予測タップ(生徒データ)xi,k(xj,k)とパラメータzを用い、式(20)の左辺の行列における、式(18)で定義されるコンポーネントXi,p,j,qを求めるための生徒データおよびパラメータzの乗算(xi,ktpxj,ktq)と、サメーション(Σ)に相当する演算を行う。なお、式(18)のtpは、式(10)にしたがって、パラメータzから計算される。式(18)のtqも同様である。
Then, the adding
さらに、足し込み部95は、やはり、クラス分類部44から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xi,k、教師データyk、およびパラメータzを用い、式(20)の右辺のベクトルにおける、式(19)で定義されるコンポーネントYi,pを求めるための生徒データxi,k、教師データyk、およびパラメータzの乗算(xi,ktpyk)と、サメーション(Σ)に相当する演算を行う。なお、式(19)のtpは、式(10)にしたがって、パラメータzから計算される。
Further, the adding
即ち、足し込み部95は、前回、注目画素とされた教師データについて求められた式(20)における左辺の行列のコンポーネントXi,p,j,qと、右辺のベクトルのコンポーネントYi,pを、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネントXi,p,j,qまたはベクトルのコンポーネントYi,pに対して、新たに注目画素とされた教師データについて、その教師データyk、生徒データxi,k(xj,k)、およびパラメータzを用いて計算される、対応するコンポーネントxi,ktpxj,ktqまたはxi,ktpykを足し込む(式(18)のコンポーネントXi,p,j,qまたは式(19)のコンポーネントYi,pにおけるサメーションで表される加算を行う)。
That is, the adding
そして、足し込み部95は、0,1,・・・,Zのすべての値のパラメータzにつき、教師データ記憶部33に記憶された教師データすべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、式(20)に示した正規方程式をたてると、その正規方程式を、係数種算出部96に供給する。
Then, the
係数種算出部96は、足し込み部95から供給されるクラスごとの正規方程式を解くことにより、各クラスごとの係数種データβm,nを求めて出力する。
The
次に、図11のフローチャートを参照して、図9の学習装置71の処理(学習処理)について、説明する。 Next, processing (learning processing) of the learning device 71 in FIG. 9 will be described with reference to the flowchart in FIG.
最初に、ステップS31において、教師データ生成部32と生徒データ生成部74が、学習用画像記憶部31に記憶された学習用画像データから、教師データと生徒データを、それぞれ生成して出力する。即ち、教師データ生成部32は、学習用画像データを、例えば、そのまま、教師データとして出力する。また、生徒データ生成部74には、パラメータ生成部81が生成するZ+1個の値のパラメータzが供給される。生徒データ生成部74は、例えば、学習用画像データを、パラメータ生成部81からのZ+1個の値(0,1,・・・,Z)のパラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより、各フレームの教師データ(学習用画像データ)について、Z+1フレームの生徒データを生成して出力する。
First, in step S31, the teacher
教師データ生成部32が出力する教師データは、教師データ記憶部33に供給されて記憶され、生徒データ生成部74が出力する生徒データは、生徒データ記憶部35に供給されて記憶される。
The teacher data output from the teacher
その後、ステップS32において、パラメータ生成部81は、パラメータzを、初期値としての、例えば0にセットし、学習部76(図10)のタップ選択部42および43、並びに足し込み部95に供給する。ステップS33では、注目画素選択部41は、教師データ記憶部33に記憶された教師データのうち、まだ、注目画素としていないものを、注目画素として選択する。
Thereafter, in step S32, the parameter generation unit 81 sets the parameter z to, for example, 0 as an initial value, and supplies the parameter z to the
ステップS34では、タップ選択部42が、注目画素について、生徒データ記憶部35に記憶された、パラメータ生成部81が出力するパラメータzに対する生徒データ(注目画素となっている教師データに対応する学習用画像データを、パラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより生成された生徒データ)から予測タップを選択し、足し込み部95に供給する。さらに、ステップS34では、タップ選択部43が、やはり、注目画素について、生徒データ記憶部35に記憶された、パラメータ生成部81が出力するパラメータzに対する生徒データからクラスタップを選択し、クラス分類部44に供給する。
In step S34, the
そして、ステップS35において、クラス分類部44は、注目画素についてのクラスタップに基づき、注目画素のクラス分類を行い、その結果得られる注目画素のクラスを、足し込み部95に出力する。
In
ステップS36では、足し込み部95は、教師データ記憶部33から注目画素を読み出し、その注目画素、タップ選択部42から供給される予測タップ、パラメータ生成部81が出力するパラメータzを用い、式(20)における左辺の行列のコンポーネントxi,Ktpxj,Ktqと、右辺のベクトルのコンポーネントxi,KtpyKを計算する。さらに、足し込み部95は、既に得られている行列のコンポーネントとベクトルのコンポーネントのうち、クラス分類部44からの注目画素のクラスに対応するものに対して、注目画素、予測タップ、およびパラメータzから求められた行列のコンポーネントxi,Ktpxj,Ktqとベクトルのコンポーネントxi,KtpyKの足し込みを行う。
In step S <b> 36, the adding
ステップS37では、パラメータ生成部81が、自身が出力しているパラメータzが、その取り得る値の最大値であるZに等しいかどうかを判定する。ステップS37において、パラメータ生成部81が出力しているパラメータzが最大値Zに等しくない(最大値Z未満である)と判定された場合、処理はステップS38に進み、パラメータ生成部81は、パラメータzに1を加算し、その加算値を新たなパラメータzとして、学習部76(図10)のタップ選択部42および43、並びに足し込み部95に出力する。そして、処理はステップS34に戻り、以下、同様の処理が繰り返される。
In step S37, the parameter generation unit 81 determines whether or not the parameter z output by itself is equal to Z which is the maximum value that can be taken. In step S37, when it is determined that the parameter z output from the parameter generation unit 81 is not equal to the maximum value Z (less than the maximum value Z), the process proceeds to step S38, and the parameter generation unit 81 1 is added to z, and the added value is output as a new parameter z to the
また、ステップS37において、パラメータzが最大値Zに等しいと判定された場合、処理はステップS39に進み、注目画素選択部41が、教師データ記憶部33に、まだ、注目画素としていない教師データが記憶されているかどうかを判定する。ステップS38において、注目画素としていない教師データが、まだ、教師データ記憶部33に記憶されていると判定された場合、処理はステップS32に戻り、以下、同様の処理が繰り返される。
If it is determined in step S37 that the parameter z is equal to the maximum value Z, the process proceeds to step S39, and the pixel-of-
また、ステップS39において、注目画素としていない教師データが、教師データ記憶部33に記憶されていないと判定された場合、処理はステップS40に進み、足し込み部95は、いままでの処理によって得られたクラスごとの式(20)における左辺の行列と、右辺のベクトルを、係数種算出部96に供給する。
If it is determined in step S39 that the teacher data that is not the pixel of interest is not stored in the teacher
さらに、ステップS40において、係数種算出部96は、足し込み部95から供給されるクラスごとの式(20)における左辺の行列と右辺のベクトルによって構成されるクラスごとの正規方程式を解くことにより、クラスごとに、係数種データβm,nを求めて出力し、処理を終了する。
Further, in step S40, the coefficient
なお、学習用画像データの数が十分でないこと等に起因して、係数種データを求めるのに必要な数の正規方程式が得られないクラスが生じることがあり得るが、そのようなクラスについては、係数種算出部96は、例えば、デフォルトの係数種データを出力するようになっている。
In addition, due to the number of learning image data being insufficient, etc., there may occur a class in which the number of normal equations necessary for obtaining coefficient seed data cannot be obtained. The coefficient
ところで、図9の学習装置71では、学習用画像データとしての高画質画像データを教師データとするとともに、その高画質画像データの空間解像度を、パラメータzに対応して劣化させた低画質画像データを生徒データとして、タップ係数wnおよび生徒データxnから式(1)の線形1次式で予測される教師データの予測値yの自乗誤差の総和を最小にする係数種データβm,nを直接求める学習を行うようにしたが、係数種データβm,nの学習は、その他、例えば、次のようにして行うことが可能である。 By the way, in the learning device 71 of FIG. 9, the high-quality image data as the learning image data is used as the teacher data, and the low-quality image data in which the spatial resolution of the high-quality image data is degraded in accordance with the parameter z. Is the coefficient seed data β m, n that minimizes the sum of the square error of the predicted value y of the teacher data predicted from the tap coefficient w n and the student data x n by the linear linear expression of Expression (1). However, the learning of the coefficient seed data β m, n can be performed as follows, for example.
即ち、学習装置71は、学習用画像データとしての高画質画像データを教師データとするとともに、その高画質画像データを、パラメータzに対応したカットオフ周波数のLPFによってフィルタリングすることにより、その水平解像度および垂直解像度を低下させた低画質画像データを生徒データとして、まず最初に、タップ係数wnおよび生徒データxnを用いて式(1)の線形1次予測式で予測される教師データの予測値yの自乗誤差の総和を最小にするタップ係数wnを、パラメータzの値(ここでは、z=0,1,・・・,Z)ごとに求める。そして、学習装置71は、そのパラメータzの値ごとに求められたタップ係数wnを教師データとするとともに、パラメータzを生徒データとして、式(11)によって係数種データβm,nおよび生徒データであるパラメータzに対応する変数tmから予測される教師データとしてのタップ係数wnの予測値の自乗誤差の総和を最小にする係数種データβm,nを求める。 That is, the learning device 71 uses the high-quality image data as the learning image data as the teacher data, and filters the high-quality image data with the LPF having the cutoff frequency corresponding to the parameter z, thereby obtaining the horizontal resolution. and a low-quality image data with a reduced vertical resolution as student data, first, the prediction of the teacher data to be predicted by using the tap coefficient w n and the student data x n in the linear first-order prediction equation of the formula (1) A tap coefficient w n that minimizes the sum of square errors of the value y is obtained for each value of the parameter z (here, z = 0, 1,..., Z). Then, the learning apparatus 71, as well as the tap coefficient w n which is determined for each value of the parameter z and the teacher data, the parameter z as the learner data, the coefficient seed data beta m, n and student data by equation (11) obtaining coefficient seed data beta m, n that minimizes the sum of square errors of the prediction value of the tap coefficient w n of the parameter z as the teacher data is predicted from the corresponding variable t m is.
ここで、式(1)の線形1次予測式で予測される教師データの予測値yの自乗誤差の総和Eを最小(極小)にするタップ係数wnは、図3の学習装置21における場合と同様に、式(8)の正規方程式をたてて解くことにより、各クラスについて、パラメータzの値(z=0,1,・・・,Z)ごとに求めることができる。 Here, the tap coefficient w n that minimizes the sum E of the squared errors of the predicted values y of the teacher data predicted by the linear primary prediction expression of Expression (1) is the case in the learning device 21 of FIG. Similarly to the above, by solving and solving the normal equation of the equation (8), each class can be obtained for each value of the parameter z (z = 0, 1,..., Z).
ところで、タップ係数は、式(11)に示したように、係数種データβm,nと、パラメータzに対応する変数tmとから求められる。そして、いま、この式(11)によって求められるタップ係数を、wn'と表すこととすると、次の式(21)で表される、最適なタップ係数wnと式(11)により求められるタップ係数wn'との誤差enを0とする係数種データβm,nが、最適なタップ係数wnを求めるのに最適な係数種データとなるが、すべてのタップ係数wnについて、そのような係数種データβm,nを求めることは、一般には困難である。 Incidentally, the tap coefficient is obtained from the coefficient seed data β m, n and the variable t m corresponding to the parameter z, as shown in the equation (11). Now, assuming that the tap coefficient obtained by this equation (11) is represented as w n ′, the optimum tap coefficient w n represented by the following equation (21) and equation (11) are obtained. coefficient seed data β m, n of the error e n of the tap coefficient w n 'and 0, becomes the optimum coefficient seed data for determining the optimal tap coefficient w n, for all the tap coefficients w n, It is generally difficult to obtain such coefficient seed data β m, n .
なお、式(21)は、式(11)によって、次式のように変形することができる。 Equation (21) can be transformed into the following equation by Equation (11).
そこで、係数種データβm,nが最適なものであることを表す規範として、例えば、やはり、最小自乗法を採用することとすると、最適な係数種データβm,nは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as a standard indicating that the coefficient seed data β m, n is optimal, for example, if the least square method is adopted, the optimal coefficient seed data β m, n is expressed by the following equation. This can be obtained by minimizing the sum E of squared errors.
式(23)の自乗誤差の総和Eの最小値(極小値)は、式(24)に示すように、総和Eを係数種データβm,nで偏微分したものを0とするβm,nによって与えられる。
The minimum value (minimum value) of the sum E of square errors in equation (23) is
式(22)を、式(24)に代入することにより、次式が得られる。 By substituting equation (22) into equation (24), the following equation is obtained.
いま、Xi,j,とYiを、式(26)と(27)に示すように定義する。 Now, X i, j, and Y i are defined as shown in equations (26) and (27).
この場合、式(25)は、Xi,jとYiを用いた式(28)に示す正規方程式で表すことができる。 In this case, Expression (25) can be expressed by a normal equation shown in Expression (28) using X i, j and Y i .
式(28)の正規方程式も、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、係数種データβm,nについて解くことができる。 The normal equation of Expression (28) can also be solved for the coefficient seed data β m, n by using, for example, a sweeping method (Gauss-Jordan elimination method).
図12は、式(28)の正規方程式をたてて解くことにより係数種データβm,nを求める学習を行う学習装置101の構成例を示している。
FIG. 12 shows a configuration example of the
なお、図中、図3の学習装置21または図9の学習装置71における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は適宜省略する。即ち、学習装置101は、学習部76に代えて、学習部106が設けられている他は、図9の学習装置71と同様に構成されている。
In the figure, portions corresponding to those in the learning device 21 of FIG. 3 or the learning device 71 of FIG. 9 are denoted by the same reference numerals, and description thereof will be omitted as appropriate. That is, the
図13は、図12の学習部106の構成例を示している。なお、図中、図4の学習部36または図10の学習部76における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は適宜省略する。
FIG. 13 shows a configuration example of the
足し込み部115には、クラス分類部44が出力する注目画素のクラスと、パラメータ生成部81が出力するパラメータzが供給されるようになっている。そして、足し込み部115は、教師データ記憶部33から、注目画素を読み出し、その注目画素と、タップ選択部42から供給される注目画素についての予測タップを構成する生徒データとを対象とした足し込みを、クラス分類部44から供給されるクラスごとに、かつパラメータ生成部81が出力するパラメータzの値ごとに行う。
The adding
即ち、足し込み部115には、教師データ記憶部33(図12)に記憶された教師データyk、タップ選択部42が出力する予測タップxn,k、クラス分類部44が出力するクラス、およびパラメータ生成部81(図12)が出力する、予測タップxn,kを構成する生徒データを生成したときのパラメータzが供給される。
That is, the adding
そして、足し込み部115は、クラス分類部44から供給されるクラスごとに、かつパラメータ生成部81が出力するパラメータzの値ごとに、予測タップ(生徒データ)xn,kを用い、式(8)の左辺の行列における生徒データどうしの乗算(xn,kxn',k)と、サメーション(Σ)に相当する演算を行う。
Then, the adding
さらに、足し込み部115は、やはり、クラス分類部44から供給されるクラスごとに、かつパラメータ生成部81が出力するパラメータzの値ごとに、予測タップ(生徒データ)xn,kと教師データykを用い、式(8)の右辺のベクトルにおける生徒データxn,kおよび教師データykの乗算(xn,kyk)と、サメーション(Σ)に相当する演算を行う。
Furthermore, the
即ち、足し込み部115は、前回、注目画素とされた教師データについて求められた式(8)における左辺の行列のコンポーネント(Σxn,kxn',k)と、右辺のベクトルのコンポーネント(Σxn,kyk)を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネント(Σxn,kxn',k)またはベクトルのコンポーネント(Σxn,kyk)に対して、新たに注目画素とされた教師データについて、その教師データyk+1および生徒データxn,k+1を用いて計算される、対応するコンポーネントxn,k+1xn',k+1またはxn,k+1yk+1を足し込む(式(8)のサメーションで表される加算を行う)。
That is, the adding
そして、足し込み部115は、教師データ記憶部33に記憶された教師データすべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、パラメータzの各値ごとに、式(8)に示した正規方程式をたてると、その正規方程式を、タップ係数算出部46に供給する。
Then, the adding
従って、足し込み部115は、図4の足し込み部45と同様に、各クラスについて、式(8)の正規方程式をたてる。但し、足し込み部115は、さらに、パラメータzの各値ごとにも、式(8)の正規方程式をたてる点で、図4の足し込み部45と異なる。
Therefore, the adding
タップ係数算出部46は、足し込み部115から供給される各クラスについての、パラメータzの値ごとの正規方程式を解くことにより、各クラスについて、パラメータzの値ごとの最適なタップ係数wnを求め、足し込み部121に供給する。
The tap
足し込み部121は、パラメータ生成部81(図12)から供給されるパラメータz(に対応する変数tm)と、タップ係数算出部46から供給される最適なタップ係数wnを対象とした足し込みを、クラスごとに行う。
即ち、足し込み部121は、パラメータ生成部81(図12)から供給されるパラメータzから式(10)によって求められる変数ti(tj)を用い、式(28)の左辺の行列における、式(26)で定義されるコンポーネントXi,jを求めるためのパラメータzに対応する変数ti(tj)どうしの乗算(titj)と、サメーション(Σ)に相当する演算を、クラスごとに行う。
That is, the adding
ここで、コンポーネントXi,jは、パラメータzによってのみ決まるものであり、クラスとは関係がないので、コンポーネントXi,jの計算は、実際には、クラスごとに行う必要はなく、1回行うだけで済む。 Here, since the component X i, j is determined only by the parameter z and has no relation to the class , the calculation of the component X i, j does not actually need to be performed for each class, and is performed once. Just do it.
さらに、足し込み部121は、パラメータ生成部81から供給されるパラメータzから式(10)によって求められる変数tiと、タップ係数算出部46から供給される最適なタップ係数wnとを用い、式(28)の右辺のベクトルにおける、式(27)で定義されるコンポーネントYiを求めるためのパラメータzに対応する変数tiおよび最適なタップ係数wnの乗算(tiwn)と、サメーション(Σ)に相当する演算を、クラスごとに行う。
Further, the adding
足し込み部121は、各クラスごとに、式(26)で表されるコンポーネントXi,jと、式(27)で表されるコンポーネントYiを求めることにより、各クラスについて、式(28)の正規方程式をたてると、その正規方程式を、係数種算出部122に供給する。
The adding
係数種算出部122は、足し込み部121から供給されるクラスごとの式(28)の正規方程式を解くことにより、各クラスごとの係数種データβm,nを求めて出力する。
The coefficient
図8の係数出力部55における係数種メモリ62には、以上のようにして求められたクラスごとの係数種データβm,nを記憶させておくようにすることもできる。
The
なお、係数種データの学習においても、図5で説明したタップ係数の学習における場合と同様に、第1の画像データに対応する生徒データと、第2の画像データに対応する教師データとする画像データの選択の仕方によって、係数種データとしては、各種の画像変換処理を行うものを得ることができる。 In the learning of the coefficient seed data, the student data corresponding to the first image data and the teacher data corresponding to the second image data are the same as in the tap coefficient learning described with reference to FIG. Depending on how the data is selected, the coefficient seed data can be obtained by performing various image conversion processes.
即ち、上述の場合には、学習用画像データを、そのまま第2の画像データに対応する教師データとするとともに、その学習用画像データの空間解像度を劣化させた低画質画像データを、第1の画像データに対応する生徒データとして、係数種データの学習を行うようにしたことから、係数種データとしては、第1の画像データを、その空間解像度を向上させた第2の画像データに変換する空間解像度創造処理としての画像変換処理を行うものを得ることができる。 That is, in the above-described case, the learning image data is directly used as teacher data corresponding to the second image data, and the low-quality image data in which the spatial resolution of the learning image data is deteriorated is the first image data. Since the coefficient seed data is learned as the student data corresponding to the image data, the first image data is converted into the second image data with improved spatial resolution as the coefficient seed data. What can perform image conversion processing as spatial resolution creation processing can be obtained.
この場合、図7の画像変換装置51では、画像データの水平解像度および垂直解像度を、パラメータzに対応する解像度に向上させることができる。 In this case, the image conversion apparatus 51 in FIG. 7 can improve the horizontal resolution and vertical resolution of the image data to a resolution corresponding to the parameter z.
また、例えば、高画質画像データを教師データとするとともに、その教師データとしての高画質画像データに対して、パラメータzに対応するレベルのノイズを重畳した画像データを生徒データとして、係数種データの学習を行うことにより、係数種データとしては、第1の画像データを、そこに含まれるノイズを除去(低減)した第2の画像データに変換するノイズ除去処理としての画像変換処理を行うものを得ることができる。この場合、図7の画像変換装置51では、パラメータzに対応するS/Nの画像データを得ることができる。 Further, for example, the high-quality image data is used as the teacher data, and the image data obtained by superimposing the noise corresponding to the parameter z on the high-quality image data as the teacher data is used as the student data. By performing learning, the coefficient seed data is one that performs image conversion processing as noise removal processing that converts the first image data into second image data from which the noise contained therein has been removed (reduced). Obtainable. In this case, the image conversion apparatus 51 in FIG. 7 can obtain S / N image data corresponding to the parameter z.
また、例えば、ある画像データを教師データとするとともに、その教師データとしての画像データの画素数を、パラメータzに対応して間引いた画像データを生徒データとして、または、所定のサイズの画像データを生徒データとするとともに、その生徒データとしての画像データの画素をパラメータzに対応する間引き率で間引いた画像データを教師データとして、係数種データの学習を行うことにより、係数種データとしては、第1の画像データを、そのサイズを拡大または縮小した第2の画像データに変換するリサイズ処理としての画像変換処理を行うものを得ることができる。この場合、図7の画像変換装置51では、パラメータzに対応するサイズに拡大または縮小した画像データを得ることができる。 Further, for example, certain image data is used as teacher data, and image data obtained by thinning out the number of pixels of the image data as the teacher data in accordance with the parameter z is used as student data, or image data of a predetermined size is used. The coefficient seed data is obtained by performing the learning of the coefficient seed data by using the image data obtained by thinning out the pixels of the image data as the student data at the thinning rate corresponding to the parameter z as the teacher data. It is possible to obtain one that performs image conversion processing as resizing processing for converting one image data into second image data whose size is enlarged or reduced. In this case, the image conversion apparatus 51 in FIG. 7 can obtain image data enlarged or reduced to a size corresponding to the parameter z.
なお、上述の場合には、タップ係数wnを、式(9)に示したように、β1,nz0+β2,nz1+・・・+βM,nzM-1で定義し、この式(9)によって、水平および垂直方向の空間解像度を、いずれも、パラメータzに対応して向上させるためのタップ係数wnを求めるようにしたが、タップ係数wnとしては、水平解像度と垂直解像度を、独立のパラメータzxとzyに対応して、それぞれ独立に向上させるものを求めるようにすることも可能である。
Incidentally, in the above case, defines the tap coefficient w n, in as shown in Equation (9), β 1, n z 0 +
即ち、タップ係数wnを、式(9)に代えて、例えば、3次式β1,nzx 0zy 0+β2,nzx 1zy 0+β3,nzx 2zy 0+β4,nzx 3zy 0+β5,nzx 0zy 1+β6,nzx 0zy 2+β7,nzx 0zy 3+β8,nzx 1zy 1+β9,nzx 2zy 1+β10,nzx 1zy 2で定義するとともに、式(10)で定義した変数tmを、式(10)に代えて、例えば、t1=zx 0zy 0,t2=zx 1zy 0,t3=zx 2zy 0,t4=zx 3zy 0,t5=zx 0zy 1,t6=zx 0zy 2,t7=zx 0zy 3,t8=zx 1zy 1,t9=zx 2zy 1,t10=zx 1zy 2で定義する。この場合も、タップ係数wnは、最終的には、式(11)で表すことができ、従って、図9の学習装置71や、図12の学習装置101において、パラメータzxとzyに対応して、教師データの水平解像度と垂直解像度をそれぞれ劣化させた画像データを、生徒データとして用いて学習を行って、係数種データβm,nを求めることにより、水平解像度と垂直解像度を、独立のパラメータzxとzyに対応して、それぞれ独立に向上させるタップ係数wnを求めることができる。
That is, the tap coefficients w n, instead of the equation (9), for example, cubic polynomial β 1, n z x 0 z y 0 +
その他、例えば、水平解像度と垂直解像度それぞれに対応するパラメータzxとzyに加えて、さらに、時間方向の解像度に対応するパラメータztを導入することにより、水平解像度、垂直解像度、時間解像度を、独立のパラメータzx,zy,ztに対応して、それぞれ独立に向上させるタップ係数wnを求めることが可能となる。 In addition, for example, in addition to the parameters z x and z y corresponding to the horizontal resolution and the vertical resolution, respectively, by introducing a parameter z t corresponding to the resolution in the time direction, the horizontal resolution, the vertical resolution, and the time resolution are independent parameters z x, z y, corresponding to the z t, it is possible to determine the tap coefficient w n to improve independently.
また、リサイズ処理についても、空間解像度創造処理における場合と同様に、水平および垂直方向を、いずれもパラメータzに対応する拡大率(または縮小率)でリサイズするタップ係数wnの他、水平と垂直方向を、それぞれパラメータzxとzyに対応する拡大率で、独立にリサイズするタップ係数wnを求めることが可能である。 As for the resizing process, as in the spatial resolution creation processing, the horizontal and vertical directions, other tap coefficients w n to resize magnification of both corresponding to the parameter z (or reduction ratio), the horizontal and vertical It is possible to obtain a tap coefficient w n whose size is independently resized with an enlargement factor corresponding to the parameters z x and z y , respectively.
さらに、図9の学習装置71や、図12の学習装置101において、パラメータzxに対応して教師データの水平解像度および垂直解像度を劣化させるとともに、パラメータzyに対応して教師データにノイズを付加した画像データを、生徒データとして用いて学習を行って、係数種データβm,nを求めることにより、パラメータzxに対応して水平解像度および垂直解像度を向上させるとともに、パラメータzyに対応してノイズ除去を行うタップ係数wnを求めることができる。
Furthermore, and the learning device 71 in FIG. 9, in the
以上のようなクラス分類適応処理を行う処理部を備える画像処理装置であって、本発明を適用した画像処理装置の実施の形態について、以下説明する。換言すれば、以下に説明する画像処理装置(画像処理システム)は、上述の画像変換装置を画像処理部(図14の画像処理部213−1乃至213−3および図18の画像処理部475−1乃至475−3)として備える装置である。 An embodiment of an image processing apparatus that includes a processing unit that performs the class classification adaptive processing as described above and to which the present invention is applied will be described below. In other words, the image processing apparatus (image processing system) described below is different from the image conversion apparatus described above in the image processing units (the image processing units 213-1 to 213-3 in FIG. 14 and the image processing unit 475 in FIG. 18). 1 to 475-3).
図14は、本発明を適用した画像処理装置の第1実施の形態の構成例を示している。 FIG. 14 shows a configuration example of the first embodiment of an image processing apparatus to which the present invention is applied.
図14の画像処理装置200は、画像入力部211、画像分配部212、画像処理部213−1乃至213−3、画像合成部214、画像提示部215、記憶部216、および制御部217により構成されている。
14 includes an
画像処理装置200は、入力画像と、画像処理部213−1乃至213−3で処理された3種類の処理後画像を同時に表示して、3種類の処理後画像の中から、最適な画像処理設定を選択(決定)する画像比較モードと、入力画像に対し、画像比較モードで決定された画像処理設定で画像処理を施し、処理後の画像を全画面で表示する全画面モードの2つの表示モードを有している。 The image processing apparatus 200 simultaneously displays the input image and the three types of processed images processed by the image processing units 213-1 to 213-3, and performs optimal image processing from the three types of processed images. Two display modes: image comparison mode for selecting (determining) settings and full-screen mode for performing input image processing with the image processing settings determined in the image comparison mode and displaying the processed image in full screen Has a mode.
画像処理装置200には、動画像が入力される。動画像を構成する複数の画像は、画像入力部211で取得され、入力画像として画像分配部212に順次供給される。
A moving image is input to the image processing apparatus 200. A plurality of images constituting the moving image are acquired by the
画像分配部212は、画像入力部211から供給された入力画像を、画像処理部213−1乃至213−3および画像合成部214に供給する。
The
画像処理部213−1乃至213−3それぞれは、上述したクラス分類適応処理を行うことにより、画像分配部212から供給される入力画像に対して所定の画像処理を同時に(並列に)実行し、処理後の画像である処理後画像を画像合成部214に供給する。ここで、画像処理部213−1乃至213−3が行う所定の画像処理とは、例えば、空間解像度を向上させたり、ノイズを除去することなどにより、画質を高画質にする高画質化処理である。
Each of the image processing units 213-1 to 213-3 performs predetermined image processing on the input image supplied from the
より具体的には、表示モードが画像比較モードである場合には、画像処理部213−1乃至213−3それぞれは、ユーザがリモートコマンダ等を操作して設定したボリューム値に従ったクラス分類適応処理を実行する。ここで、ボリューム値とは、例えば、上述したクラス分類処理のパラメータzに対応し、0乃至100の範囲で設定することができるようになっている。画像処理部213−1乃至213−3それぞれには、異なるボリューム値が設定され、画像処理部213−1乃至213−3では、異なる画質に変換する処理が行われる。なお、画像処理部213−1乃至213−3において、クラスタップまたは予測タップとして設定される画素の範囲(以下、タップ範囲と称する)は同一である。 More specifically, when the display mode is the image comparison mode, each of the image processing units 213-1 to 213-3 is adapted to class classification according to the volume value set by the user operating the remote commander or the like. Execute the process. Here, the volume value corresponds to, for example, the parameter z of the class classification process described above, and can be set in the range of 0 to 100. Different volume values are set for the image processing units 213-1 to 213-3, and the image processing units 213-1 to 213-3 perform processing for converting to different image quality. In the image processing units 213-1 to 213-3, the pixel ranges set as class taps or prediction taps (hereinafter referred to as tap ranges) are the same.
一方、表示モードが全画面モードである場合には、画像処理部213−1乃至213−3それぞれは、画像比較モードにおける複数の処理後画像を比較した結果からユーザが選択したボリューム値でクラス分類適応処理を実行する。このとき、画像処理部213−1乃至213−3で設定されるタップ範囲は、画像処理部213−1乃至213−3それぞれで異なる。 On the other hand, when the display mode is the full screen mode, each of the image processing units 213-1 to 213-3 performs classification according to the volume value selected by the user from the result of comparing a plurality of processed images in the image comparison mode. Perform adaptive processing. At this time, the tap ranges set by the image processing units 213-1 to 213-3 are different for the image processing units 213-1 to 213-3.
なお、現在の表示モードが画像比較モードであるかまたは全画面モードであるかは、モード情報として、制御部217から画像処理部213−1乃至213−3に供給される。また、画像処理部213−1乃至213−3が全画面モード時に設定するボリューム値も制御部217から供給される。
Whether the current display mode is the image comparison mode or the full screen mode is supplied from the
画像合成部214には、画像分配部212から入力画像が供給されるとともに、画像処理部213−1乃至213−3のそれぞれから処理後画像が供給される。
The
画像合成部214は、現在の表示モードが画像比較モードであるかまたは全画面モードであるかに応じて異なる画像の合成を行い、その結果得られる合成画像を画像提示部215に供給する。より具体的には、現在の表示モードが画像比較モードである場合には、画像合成部214は、画面を4分割した各領域に、入力画像と3種類の処理後画像を配置した合成画像を生成し、画像提示部215に供給する。一方、現在の表示モードが全画面モードである場合には、画像合成部214は、画像処理部213−1乃至213−3から供給される3つの処理後画像を加算し、その結果得られる画像を、合成画像として画像提示部215に供給する。
The
なお、現在の表示モードが画像比較モードであるかまたは全画面モードであるかは、モード情報として、制御部217から供給される。また、画像合成部214には、画像比較モード時に画像処理部213−1乃至213−3それぞれに設定されるボリューム値を設定する設定画面の表示を指令する画面制御情報も制御部217から供給される。
Whether the current display mode is the image comparison mode or the full screen mode is supplied from the
画像提示部215は、画像合成部214から供給される合成画像を所定の表示部に表示することにより、合成画像をユーザに提示する。
The
記憶部216は、制御部217から供給される所定の情報を記憶する。例えば、記憶部216は、ユーザが画像比較モードにおいて複数の処理後画像を比較した結果から決定した、全画面モード時に画像処理部213−1乃至213−3に設定されるボリューム値を記憶する。
The
制御部217は、ユーザが図示せぬリモートコマンダ等で操作した表示モードを設定(変更)する情報を取得し、モード情報として、画像処理部213−1乃至213−3に供給する。また、制御部217は、ユーザが画像処理部213−1乃至213−3それぞれに設定されるボリューム値を設定する場合には、その設定画面の表示を指令する画面制御情報を画像合成部214に供給する。
The
図14では、画像処理装置200が3個の画像処理部213−1乃至213−3を備える例を示しているが、画像処理装置200が備える画像処理部213は、2個でもよいし、4個以上でもよい。 FIG. 14 shows an example in which the image processing device 200 includes three image processing units 213-1 to 213-3. However, the image processing device 200 may include two image processing units 213 or four. It may be more than one.
図15は、画像比較モードと全画面モードの画面例を示している。 FIG. 15 shows screen examples of the image comparison mode and the full screen mode.
画像比較モードにおいては、画像合成部214は、画像分配部212から供給された入力画像241と、画像処理部213−1乃至213−3で処理された3種類の処理後画像242−1乃至242−3を、画面を4分割した各領域に配置した合成画像250を生成する。
In the image comparison mode, the
図15に示される例では、画像処理部213−1で処理された処理後画像242−1は、ボリューム値が20(vol=20)に設定されて処理された画像であり、画像処理部213−2で処理された処理後画像242−2は、ボリューム値が40(vol=40)に設定されて処理された画像である。また、画像処理部213−3で処理された処理後画像242−3は、ボリューム値が60(vol=60)に設定されて処理された画像である。 In the example illustrated in FIG. 15, the post-processing image 242-1 processed by the image processing unit 213-1 is an image processed with the volume value set to 20 (vol = 20), and the image processing unit 213 -Processed image 242-2 processed by -2 is an image processed with the volume value set to 40 (vol = 40). Further, the post-processing image 242-3 processed by the image processing unit 213-3 is an image processed with the volume value set to 60 (vol = 60).
そして、ユーザは、処理後画像242−1乃至242−3を比較した結果、最適なボリューム値として20を選択したとする。この場合、決定されたボリューム値(20)が、全画面モード時におけるボリューム値として、記憶部216に供給され、記憶される。
Then, it is assumed that the user has selected 20 as the optimal volume value as a result of comparing the processed images 242-1 to 242-2. In this case, the determined volume value (20) is supplied to and stored in the
全画面モード時には、画像合成部214は、それぞれのボリューム値が20に設定されている画像処理部213−1乃至213−3から供給された3つの処理後画像を加算し、その結果得られる合成画像251を画像提示部215に供給する。
In the full screen mode, the
図16は、画像比較モードおよび全画面モードにおけるタップ範囲(タップ構造)の例を示している。 FIG. 16 shows an example of the tap range (tap structure) in the image comparison mode and the full screen mode.
画像比較モードでは、タップ範囲は、画像処理部213−1乃至213−3のそれぞれで同一である。例えば、画像処理部213−1乃至213−3のいずれにおいても、注目画素に対応する画素に対して、その画素と、その画素から右方向に2画素、左方向に2画素、上方向に1画素、および下方向に1画素の計7画素がタップ範囲として設定される。 In the image comparison mode, the tap range is the same for each of the image processing units 213-1 to 213-3. For example, in any of the image processing units 213-1 to 213-3, for the pixel corresponding to the target pixel, the pixel, two pixels rightward from the pixel, two pixels leftward, and one upward A total of seven pixels, one pixel in the downward direction and one pixel, is set as the tap range.
また、画像比較モードにおけるボリューム値は、例えば、画像処理部231−1が20(vol=20)、画像処理部231−2が40(vol=40)、画像処理部213−3が60(vol=60)というように、画像処理部213−1乃至213−3それぞれで異なる。 The volume values in the image comparison mode are, for example, 20 (vol = 20) for the image processing unit 231-1, 40 (vol = 40) for the image processing unit 231-2, and 60 (vol) for the image processing unit 213-3. = 60), the image processing units 213-1 to 213-3 are different.
一方、全画面モードにおいては、タップ範囲は、画像処理部213−1乃至213−3それぞれで異なり、画像処理部213−1乃至213−3それぞれのタップ範囲を合わせた範囲が画像比較モードにおけるタップ範囲よりも拡大した範囲となるように設定される。例えば、画像処理部231−1では、注目画素に対応する画素の2行上の3画素と1行上の4画素の計7画素がタップ範囲として設定され、画像処理部231−2では、注目画素に対応する画素を中心とする同一行の5画素と、その5画素のうちの一番右の画素の上下に配置された2画素の計7画素がタップ範囲として設定される。また、画像処理部231−3では、注目画素に対応する画素の2行下の3画素と1行下の4画素の計7画素がタップ範囲として設定される。このように画像処理部213−1乃至213−3のそれぞれでタップ範囲が設定された場合には、画像合成部214が生成する合成画像251は、図16に示すように、注目画素に対応する画素に対して、その画素を含む周辺の21画素をタップ範囲として設定したのと等価な画像を得ることができる。これは、クラス分類適応処理が個々の画素に注目したときには、係数群と予測タップとの積和演算で表現することができることによる。
On the other hand, in the full screen mode, the tap range is different for each of the image processing units 213-1 to 213-3, and the range obtained by combining the tap ranges of the image processing units 213-1 to 213-3 is the tap in the image comparison mode. The range is set to be larger than the range. For example, in the image processing unit 231-1, a total of 7 pixels of 3 pixels on the 2nd row and 4 pixels on the 1st row corresponding to the target pixel are set as the tap range. A total of 7 pixels including 5 pixels in the same row centered on the pixel corresponding to the pixel and 2 pixels arranged above and below the rightmost pixel among the 5 pixels are set as the tap range. In the image processing unit 231-3, a total of 7 pixels, that is, 3
また、全画面モードにおけるボリューム値は、画像処理部213−1乃至213−3いずれにおいても、記憶部216に供給され、記憶された値である20(vol=20)で同一である。
Further, the volume value in the full screen mode is the same as 20 (vol = 20) which is supplied to and stored in the
次に、図17のフローチャートを参照して、図14の画像処理装置200による第1の画像処理について説明する。 Next, the first image processing by the image processing apparatus 200 of FIG. 14 will be described with reference to the flowchart of FIG.
初めに、ステップS81において、画像分配部212は、画像入力部211から入力画像が供給されたかを判定する。ステップS81で、入力画像が供給されないと判定された場合、処理は終了する。
First, in step S <b> 81, the
一方、ステップS81で、画像入力部211から入力画像が供給されたと判定された場合、処理はステップS82に進み、画像分配部212は、画像入力部211から供給された入力画像を分配する。即ち、画像分配部212は、入力画像を画像処理部213−1乃至213−3および画像合成部214に供給する。
On the other hand, if it is determined in step S81 that an input image has been supplied from the
ステップS83において、制御部217は、現在の表示モードが画像比較モードであるかを判定する。ステップS83で、現在の表示モードが画像比較モードであると判定された場合、処理はステップS84に進み、制御部217は、画像比較モードである旨のモード情報を画像処理部213−1乃至213−3に供給する。
In step S83, the
そして、ステップS85において、画像処理部213−1乃至213−3は、クラス分類適応処理を行うことにより、入力画像に対して画質を高画質化する高画質化処理を実行する。ここでのクラス分類適応処理におけるボリューム値は、図16を参照して説明したように、画像処理部213−1乃至213−3それぞれで異なる。また、タップ範囲は、画像処理部213−1乃至213−3で同一である。 In step S <b> 85, the image processing units 213-1 to 213-3 perform the image quality improvement process for improving the image quality of the input image by performing the class classification adaptation process. As described with reference to FIG. 16, the volume value in the class classification adaptive processing here is different for each of the image processing units 213-1 to 213-3. The tap range is the same in the image processing units 213-1 to 213-3.
ステップS86において、画像合成部214は、画面を4分割した各領域に、入力画像と3種類の処理後画像とを配置した合成画像を生成し、画像提示部215に供給する。
In step S <b> 86, the
ステップS87において、制御部217は、ユーザがリモートコマンダ等を操作することにより、画像処理部213−1乃至213−3の処理後画像のいずれかが選択されたかを判定する。
In step S87, the
ステップS87で、画像処理部213−1乃至213−3の処理後画像のいずれかが選択されたと判定された場合、処理はステップS88に進み、制御部217は、選択された処理後画像に対応するボリューム値を記憶部216に供給し記憶させる。一方、ステップS87で、画像処理部213−1乃至213−3の処理後画像のいずれも選択されていないと判定された場合には、処理はステップS88をスキップして、ステップS92に進む。
If it is determined in step S87 that any of the processed images of the image processing units 213-1 to 213-3 has been selected, the process proceeds to step S88, and the
また、上述したステップS83で、現在の表示モードが画像比較モードではないと判定された場合、即ち、現在の表示モードが全画面モードである場合、処理はステップS89に進み、制御部217は、全画面モードである旨のモード情報を画像処理部213−1乃至213−3に供給する。また、制御部217は、記憶部216に記憶されているボリューム値を読み出し、画像処理部213−1乃至213−3に供給する。
If it is determined in step S83 described above that the current display mode is not the image comparison mode, that is, if the current display mode is the full screen mode, the process proceeds to step S89, and the
そして、ステップS90において、画像処理部213−1乃至213−3は、クラス分類適応処理を行うことにより、入力画像に対して画質を高画質化する高画質化処理を実行する。ここでのクラス分類適応処理におけるボリューム値は、図16を参照して説明したように、画像処理部213−1乃至213−3で同一である。一方、タップ範囲は、画像処理部213−1乃至213−3それぞれで異なる。 In step S <b> 90, the image processing units 213-1 to 213-3 perform the image quality improvement processing for improving the image quality of the input image by performing the class classification adaptive processing. The volume value in the class classification adaptive processing here is the same in the image processing units 213-1 to 213-3 as described with reference to FIG. On the other hand, the tap range is different for each of the image processing units 213-1 to 213-3.
ステップS91において、画像合成部214は、画像処理部213−1乃至213−3から供給される3種類の処理後画像を加算することにより、3種類の処理後画像から1つの合成画像を生成し、画像提示部215に供給する。
In step S91, the
ステップS92において、画像提示部215は、画像合成部214から供給される合成画像を所定の表示部に表示することにより、合成画像をユーザに提示する。ステップS92の処理後、処理はステップS81に戻り、それ以降の処理が繰り返し実行される。
In step S92, the
以上のように、第1の画像処理によれば、画像比較モードにおいては、入力された入力画像に対して、パラメータ(ボリューム値)の異なる複数の画像処理を施し、その画像処理結果(処理後画像)を1画面で同時に表示するので、ユーザは、複数のパラメータのなかで入力画像に対して最適なパラメータを選択することができる。 As described above, according to the first image processing, in the image comparison mode, a plurality of image processing with different parameters (volume values) are performed on the input image that has been input, and the image processing result (after processing) Image) are simultaneously displayed on one screen, the user can select an optimum parameter for the input image from among a plurality of parameters.
また、全画面モードにおいては、ユーザが選択した最適なパラメータで入力画像に対する画像処理を行うことができることは勿論であるが、画像処理後の処理後画像が1画面の画面全体のサイズ(大画面)で表示されることを考慮して、画像比較モードのときよりもタップ範囲を広くした、より高画質な処理を行うことができる。この全画面モード時に生成される大画面の合成画像は、画像処理部213−1乃至213−3それぞれがタップ範囲を分担して生成したものであり、画像処理部213−1乃至213−3のいずれか1つに、単純に21画素のタップ範囲で行わせるより、3つの画像処理部213−1乃至213−3を有効に活用することができる他、処理も高速にすることができる。 In the full screen mode, the input image can be subjected to image processing with the optimum parameters selected by the user, but the processed image after the image processing is the size of the entire screen (large screen). ), It is possible to perform processing with higher image quality with a wider tap range than in the image comparison mode. The large screen composite image generated in the full screen mode is generated by the image processing units 213-1 to 213-3 sharing the tap range. If one of them is simply performed in a tap range of 21 pixels, the three image processing units 213-1 to 213-3 can be used effectively, and the processing can be performed at high speed.
図18は、本発明を適用した画像処理装置の第2実施の形態の構成例を示している。 FIG. 18 shows a configuration example of the second embodiment of the image processing apparatus to which the present invention is applied.
なお、図14の画像処理装置200と対応する部分については同一の符号を付してあり、その説明は適宜省略する。 Note that portions corresponding to those of the image processing apparatus 200 in FIG. 14 are denoted by the same reference numerals, and description thereof is omitted as appropriate.
図18の画像処理装置200は、画像入力部211、画像分配部212、画像提示部215、同期特徴量抽出部471、シーケンス再生部472A乃至472C、スイッチャ部473、画像処理部475−1乃至475−3、画像合成部476、記憶部477、および制御部478により構成されている。
18 includes an
図18の画像処理装置200も、図14における場合と同様に、入力画像と、画像処理部475−1乃至475−3で処理された3種類の処理後画像を同時に表示して、3種類の処理後画像の中から、最適な画像処理設定を選択(決定)する画像比較モードと、画像比較モードで決定された画像処理設定による画像処理を施した画像を全画面で表示する全画面モードの2つの表示モードを有している。 The image processing apparatus 200 in FIG. 18 also displays the input image and the three types of processed images processed by the image processing units 475-1 to 475-3 at the same time as in the case of FIG. An image comparison mode for selecting (determining) the optimum image processing setting from the processed images, and a full screen mode for displaying an image subjected to image processing according to the image processing setting determined in the image comparison mode on a full screen. There are two display modes.
同期特徴量抽出部471は、図19に示されるように、各入力画像が動画像中のどのシーンの画像であるかを表すタイムコードと、入力画像の同期特徴量とを対応付けた同期特徴量のタイムテーブル461を記憶する。ここで、同期特徴量とは、入力画像の同期をとるために用いられる画像の特徴量であり、16ビットで表される、入力画像の輝度値の平均値(平均輝度値)と、入力画像の全画素の輝度値の合計値(合計輝度値)の下位16ビットとからなる計32ビットのデータである。2時間程度の映画などの、再現性のある入力画像では、上述の2つの特徴量を用いることにより、入力画像のシーンをほぼ確実に判定することができる。
As shown in FIG. 19, the synchronization feature
最初に、同期特徴量抽出部471は、画像分配部212から供給された入力画像の同期特徴量を算出する。図19は、算出された同期特徴量が、平均輝度値“24564”および合計輝度値の下位16ビット“32155”である例を示している。
First, the synchronization feature
そして、同期特徴量抽出部471は、同期特徴量のタイムテーブル461から、同一の同期特徴量を持つタイムコードを検出し、シーケンス再生部472A乃至472Cに供給する。図19のタイムテーブル461では、タイムコード“2”に対応する同期特徴量が、算出された同期特徴量と一致している。従って、同期特徴量抽出部471は、タイムコード“2”をシーケンス再生部472A乃至472Cに供給する。また、検出されたタイムコードは、記録再生部474にも供給される。
Then, the synchronization feature
なお、同期特徴量として、その他の画像の特徴量を採用することも勿論可能である。 Of course, other image feature amounts may be employed as the synchronization feature amount.
図18に戻り、シーケンス再生部472A乃至472Cは、それぞれ、タイムコードとズームパラメータとを対応付けたパラメータテーブルを記憶している。シーケンス再生部472A乃至472Cは、同期特徴量抽出部471から供給されたタイムコードに対応するズームパラメータをスイッチャ部473に供給する。このズームパラメータにより、画像処理部475−1乃至475−3が拡大処理を行うときの処理領域が特定される。従って、シーケンス再生部472A乃至472Cは、画像処理部475−1乃至475−3が拡大処理を行うときの処理領域を特定する領域特定情報を出力すると言える。
Returning to FIG. 18, each of the
シーケンス再生部472A乃至472Cがパラメータテーブルとして記憶しているズームパラメータは、それぞれ異なるものである。したがって、同期特徴量抽出部471から同一のタイムコードがシーケンス再生部472A乃至472Cに供給されるが、スイッチャ部473には、シーケンス再生部472A乃至472Cそれぞれから異なるズームパラメータが供給される。
The zoom parameters stored as
より具体的には、シーケンス再生部472Aは、同期特徴量抽出部471から供給されるタイムコードに対応して、ズームパラメータ(xa,ya,za)をスイッチャ部473に供給する。シーケンス再生部472Bは、同期特徴量抽出部471から供給されるタイムコードに対応して、ズームパラメータ(xb,yb,zb)をスイッチャ部473に供給する。シーケンス再生部472Cは、同期特徴量抽出部471から供給されるタイムコードに対応して、ズームパラメータ(xc,yc,zc)をスイッチャ部473に供給する。
More specifically, the
ズームパラメータ(xa,ya,za)は、拡大処理を行うときの中心位置(xa,ya)とズーム倍率zaを表す。ズームパラメータ(xb,yb,zb)および(xc,yc,zc)についても同様である。以下では、説明を簡単にするため、ズームパラメータ(xa,ya,z)、(xb,yb,zb)、および(xc,yc,zc)を、それぞれ、ズームパラメータA,B、およびCとも称する。 The zoom parameters (x a , y a , z a ) represent the center position (x a , y a ) and the zoom magnification z a when performing the enlargement process. The same applies to the zoom parameters (x b , y b , z b ) and (x c , y c , z c ). In the following, in order to simplify the explanation, the zoom parameters (x a , y a , z), (x b , y b , z b ), and (x c , y c , z c ) are respectively referred to as zoom parameters. Also referred to as A, B, and C.
スイッチャ部473は、画像比較モードにおいては、シーケンス再生部472A乃至472Cから供給されるズームパラメータA乃至Cを、画像処理部475−1乃至475−3に1対1に供給する。より詳しくは、スイッチャ部473は、ズームパラメータAを画像処理部475−1に供給し、ズームパラメータBを画像処理部475−2に供給し、ズームパラメータBを画像処理部475−3に供給する。
In the image comparison mode, the
スイッチャ部473は、全画面モードにおいては、記録再生部474から供給される選択情報に従って、シーケンス再生部472A乃至472Cから供給されるズームパラメータA乃至Cのうちのいずれか1つを、画像処理部475−1乃至475−3のすべてに供給する。
In the full screen mode, the
選択情報とは、画像比較モードのときにユーザが選択したズームパラメータを表す情報である。従って、選択情報は、具体的には、ズームパラメータA乃至Cのいずれかとなる。 The selection information is information representing the zoom parameter selected by the user in the image comparison mode. Therefore, the selection information is specifically one of the zoom parameters A to C.
記録再生部474は、画像比較モードにおいては、同期特徴量抽出部471から、入力画像のタイムコードが供給されるとともに、制御部478から、ユーザがリモートコマンダ等を操作して選択した拡大画像A乃至Cに対応するズームパラメータA乃至Cについての情報(選択情報)が供給される。記録再生部474は、同期特徴量抽出部471から供給されるタイムコードと選択情報とを対応付けて記憶する。このタイムコードと選択情報の組を時系列に連続して記憶したデータが記録シーケンスとなる。従って、全画面モードで、スイッチャ部473が、記録再生部474からの選択情報に従って、3種類のズームパラメータA乃至Cから1つを選択して、画像処理部475−1乃至475−3に供給することを時系列に繰り返すことにより、画像提示部215において、画像比較モード時にユーザが選択した拡大画像を再現することができる。
In the image comparison mode, the recording /
一方、全画面モードにおいては、同期特徴量抽出部471から、入力画像のタイムコードが供給され、記録再生部474は、内部に記憶している記録シーケンスに基づいて、供給されたタイムコードに対応するズームパラメータをスイッチャ部473に供給する。
On the other hand, in the full screen mode, the time code of the input image is supplied from the synchronization feature
画像処理部475−1乃至475−3は、上述したクラス分類適応処理を行うことにより、スイッチャ部473から供給されるズームパラメータに基づく入力画像の拡大処理(リサイズ処理)を行う。また、全画面モードにおいては、画像処理部475−1乃至475−3は、拡大処理に加えて、時間解像度を創造する時間解像度創造処理も行う。
The image processing units 475-1 to 475-3 perform the input image enlargement process (resizing process) based on the zoom parameters supplied from the
画像比較モードにおいては、画像処理部475−1乃至475−3それぞれには、上述したように、シーケンス再生部472A乃至472Cから、それぞれ異なるズームパラメータA乃至Cが1対1で供給される。従って、画像処理部475−1乃至475−3は、入力画像に対して異なる領域を拡大処理し、画像合成部476に供給する。
In the image comparison mode, different zoom parameters A to C are supplied to the image processing units 475-1 to 475-3 on a one-to-one basis from the
一方、全画面モードでは、パラメータA乃至Cのうちのいずれか1つが、画像処理部475−1乃至475−3のすべてに供給される。従って、画像処理部475−1乃至475−3が拡大処理する対象の領域は同一の領域である。ただし、画像処理部475−1乃至475−3は、同一の入力画像から、時間軸方向に対して異なる位置(時刻)の拡大画像を生成する。これにより、所定の領域を拡大した拡大画像であって、時間解像度を創造(向上)した画像を提示することができる。なお、画像処理部475−1乃至475−3の詳細な処理については、図21乃至図25を参照して後述する。 On the other hand, in the full screen mode, any one of the parameters A to C is supplied to all of the image processing units 475-1 to 475-3. Accordingly, the areas to be enlarged by the image processing units 475-1 to 475-3 are the same area. However, the image processing units 475-1 to 475-3 generate enlarged images at different positions (time) in the time axis direction from the same input image. Thereby, it is possible to present an enlarged image obtained by enlarging a predetermined area and creating (improving) time resolution. Detailed processing of the image processing units 475-1 to 475-3 will be described later with reference to FIGS.
画像合成部476は、画像比較モードにおいては、画像処理部475−1乃至475−3から供給される拡大画像A乃至Cと画像分配部212から供給される入力画像を合成した合成画像を生成し、画像提示部215に供給する。一方、全画面モードにおいては、画像合成部476は、画像処理部475−1乃至475−3で生成された異なる時刻の拡大画像を、時刻の早い順に画像提示部215に供給する。従って、全画面モードでは、入力画像の3倍のフレームレートで拡大画像が表示される。
In the image comparison mode, the
記憶部477は、クラス分類適応処理に用いるタップ係数を生成するための係数種データを記憶する。具体的には、記憶部477は、画像比較モードにおいて拡大処理を行う場合の係数種データである拡大係数と、全画面モードにおいて拡大処理および時間解像度創造処理を行う場合の係数種データである時間係数を記憶する。記憶部477に記憶される各種の係数は、必要に応じて、画像処理部475−1乃至475−3に供給される。
The
制御部478は、ユーザがリモートコマンダ等を操作したときの操作情報を取得し、ユーザの操作に基づいて、記録再生部474、画像処理部475−1乃至475−3、および画像合成部476を適宜制御する。例えば、制御部478は、画像比較モード時に、ユーザが画像提示部215で提示されている拡大画像A乃至Cのうちのどの拡大画像を選択したかを表す選択情報を記録再生部474および画像合成部476に供給する。また、制御部478は、ユーザによって表示モードが切り替えられた場合に、切り替え後の表示モードをモード情報として画像処理部475−1乃至475−3に供給する。
The
以上のように構成される画像処理装置200は、表示モードが画像比較モードである場合には、入力画像と、画像処理部475−1乃至475−3で処理された3種類の拡大画像A乃至Cを同時に表示して、3種類の拡大画像A乃至Cの中から、最適な拡大画像をユーザに選択(決定)させ、表示モードが全画面モードである場合には、画像比較モードで決定された拡大画像を再現するとともに、時間解像度を創造し、入力画像の3倍のフレームレートで表示する。 When the display mode is the image comparison mode, the image processing apparatus 200 configured as described above has an input image and three types of enlarged images A to A processed by the image processing units 475-1 to 475-3. When C is displayed at the same time and the user selects (determines) the optimum enlarged image from the three types of enlarged images A to C, and the display mode is the full screen mode, the image comparison mode is selected. In addition to reproducing the enlarged image, it creates a temporal resolution and displays it at a frame rate three times that of the input image.
図20は、画像比較モードにおいて画像提示部215で表示される表示画面400の例を示している。
FIG. 20 shows an example of the
表示画面400では、その領域が均等に4分割されており、その左上が主画面領域281、その他の3領域が副画面領域282−1乃至282−3となっている。
In the
画像合成部476は、主画面領域281に画像分配部212から供給される入力画像が配置され、副画面領域282−1乃至282−3に画像処理部475−1乃至475−3から供給される拡大画像A乃至Cがそれぞれ配置される合成画像を生成する。また、画像合成部476は、制御部478から供給される選択情報に応じて、ハイライト表示291を副画面領域282−1乃至282−3のいずれかに表示させる。換言すれば、画像合成部476は、入力画像と拡大画像A乃至Cとを合成した合成画像にハイライト表示291を重畳させた画像を生成し、画像提示部215に供給する。
The
次に、図21と図22を参照して、表示モードが画像比較モードである場合の図18の画像処理装置200の処理について説明する。 Next, with reference to FIGS. 21 and 22, the processing of the image processing apparatus 200 in FIG. 18 when the display mode is the image comparison mode will be described.
また、その後、図23と図24を参照して、表示モードが全画面モードである場合の図18の画像処理装置200の処理について説明する。 Then, with reference to FIGS. 23 and 24, the processing of the image processing apparatus 200 in FIG. 18 when the display mode is the full screen mode will be described.
図21は、表示モードが画像比較モードである場合の図18の画像処理装置200の機能ブロック図である。 FIG. 21 is a functional block diagram of the image processing apparatus 200 in FIG. 18 when the display mode is the image comparison mode.
表示モードが画像比較モードである場合には、画像処理部475−1乃至475−3は、上述したように、入力画像に対して異なる領域を拡大する処理を行うので、図21では、画像処理部475−1乃至475−3を拡大処理部475A乃至475Cとしている。
When the display mode is the image comparison mode, the image processing units 475-1 to 475-3 perform the process of enlarging different areas on the input image as described above. The units 475-1 to 475-3 are
画像比較モードにおいては、スイッチャ部473は、図21に示されるように、シーケンス再生部472Aから供給されるズームパラメータ(xa,ya,za)を拡大処理部475Aに供給する。また、スイッチャ部473は、シーケンス再生部472Bから供給されるズームパラメータ(xb,yb,zb)を拡大処理部475Bに供給し、シーケンス再生部472Cから供給されるズームパラメータ(xc,yc,zc)を拡大処理部475Cに供給する。
In the image comparison mode, as shown in FIG. 21, the
最初に、拡大処理部475Aは、ズーム倍率zaに対応する拡大係数を記憶部477から取得する。このズーム倍率zaと拡大係数との関係は、例えば、上述した図7の画像変換装置51におけるパラメータzと係数種データとの関係と同様である。すなわち、図7の画像変換装置51では、パラメータzと係数種データとに基づいてクラスごとのタップ係数を生成することができるが、ズーム倍率zaが画像変換装置51のパラメータzに対応し、拡大係数が画像変換装置51の係数種データに対応する。ズーム倍率zaと記憶部477から取得された拡大係数を用いて生成されたタップ係数を用いてクラス分類適応処理を実行することにより、入力画像の位置(xa,ya)を中心位置として所定のズーム倍率の拡大処理が行われる。ズーム倍率zbまたはzcと拡大係数との関係も同様である。
First, the
従って、拡大処理部475Aは、入力画像の位置(xa,ya)を中心位置とし、ズーム倍率zaで特定される領域に対して拡大処理を実行し、その結果得られる拡大画像Aを画像合成部476に供給する。
Accordingly, the
同様に、拡大処理部475Bは、ズーム倍率zbに対応する拡大係数を記憶部477から取得し、入力画像の位置(xb,yb)を中心位置とし、ズーム倍率zbで特定される領域に対して拡大処理を実行し、その結果得られる拡大画像Bを画像合成部476に供給する。拡大処理部475Cは、ズーム倍率zcに対応する拡大係数を記憶部477から取得し、入力画像の位置(xc,yc)を中心位置とし、ズーム倍率zcで特定される領域に対して拡大処理を実行し、その結果得られる拡大画像Cを画像合成部476に供給する。
Similarly, the
図22は、四角(菱形)と丸が対象物として撮像されている入力画像が供給された場合の、拡大処理部475A乃至475Cによる拡大処理の例を示している。
FIG. 22 illustrates an example of enlargement processing by the
拡大処理部475Aには、四角を囲む範囲をほぼ全範囲とするズームパラメータ(xa,ya,za)が供給され、それに対応して、拡大処理部475Aは、拡大画像Aを生成する。
The
拡大処理部475Bには、四角と丸の両方を囲む範囲をほぼ全範囲とするズームパラメータ(xb,yb,zb)が供給され、それに対応して、拡大処理部475Bは、拡大画像Bを生成する。
The
拡大処理部475Cには、丸を囲む範囲をほぼ全範囲とするズームパラメータ(xc,yc,zc)が供給され、それに対応して、拡大処理部475Cは、拡大画像Cを生成する。 The enlargement processing unit 475C is supplied with zoom parameters (x c , y c , z c ) that make the range surrounding the circle almost the entire range. Correspondingly, the enlargement processing unit 475C generates the enlarged image C. .
そして、拡大画像A乃至Cが入力画像とともに画像合成部476に供給され、画像合成部476は、図22に示されるように、主画面領域281に入力画像が、副画面領域282−1に拡大画像Aが、副画面領域282−2に拡大画像Bが、副画面領域282−3に拡大画像Cが、それぞれ配置されるような合成画像を生成する。
The enlarged images A to C are supplied to the
図23は、表示モードが全画面モードである場合の図18の画像処理装置200の機能ブロック図である。 FIG. 23 is a functional block diagram of the image processing apparatus 200 in FIG. 18 when the display mode is the full screen mode.
表示モードが全画面モードである場合には、画像処理部475−1乃至475−3は、上述したように、拡大処理に加えて、時間解像度を創造する時間解像度創造処理も行うので、図23では、画像処理部475−1乃至475−3を時間処理部475A’乃至475C’としている。
When the display mode is the full screen mode, the image processing units 475-1 to 475-3 perform the time resolution creation process for creating the time resolution in addition to the enlargement process as described above. The image processing units 475-1 to 475-3 are
また、図23の例では、ユーザが拡大画像Bを選択したことを表す選択情報が、記録再生部474からスイッチャ部473に供給されているものとする。
In the example of FIG. 23, it is assumed that selection information indicating that the user has selected the enlarged image B is supplied from the recording /
スイッチャ部473には、記録再生部474からズームパラメータBを表す選択情報が供給されているので、スイッチャ部473は、シーケンス再生部472A乃至472Cから供給されるズームパラメータA乃至CのうちのズームパラメータBを選択し、時間処理部475A’乃至475C’のすべてに供給する。
Since the
時間処理部475A’乃至475C’は、ズーム倍率zbに対応する時間係数を記憶部477から取得し、ズーム倍率zbと時間係数とから生成されるタップ係数を用いたクラス分類適応処理を行うことで、入力画像の位置(xb,yb)を中心位置とする所定の領域を拡大した拡大画像であって、ある入力画像が供給されてから次の入力画像が供給されるまでの時間を1フレーム時間Tとしたとき、時間処理部475A’乃至475C’それぞれが生成する拡大画像が、1/3T時間だけずれた時刻の拡大画像B1乃至475B3を生成する。
より具体的には、図24に示すように、時刻(タイムコード)tにおいて、図22における場合と同一の、四角と丸が対象物として撮像されている入力画像が時間処理部475A’乃至475C’に供給されたとすると、時間処理部475A’は、画像比較モードで生成した拡大画像と同一の拡大画像である、入力画像の同時刻の時刻tと、位置(xb,yb)を中心に拡大した拡大画像B1を生成する。
More specifically, as shown in FIG. 24, at time (time code) t, the same input image in which squares and circles are captured as objects as in FIG. 22 is processed by
時間処理部475B’は、入力画像の時刻tよりT/3時間後の時刻t+T/3の、位置(xb,yb)を中心に拡大した拡大画像B2を生成する。時間処理部475C’は、入力画像の時刻tより2T/3時間後の時刻t+2T/3の、位置(xb,yb)を中心に拡大した拡大画像B3を生成する。
The
画像合成部476は、時間処理部475A’乃至475C’から供給される拡大画像B1乃至475B3を、その順で画像提示部215に供給する。その結果、画像提示部215では、入力画像の3倍のフレームレートで拡大画像が表示される。
The
所定の連続時間における画像比較モードと全画面モードの違いを、概念的に示すと図25に示すようになる。 FIG. 25 conceptually shows the difference between the image comparison mode and the full-screen mode in a predetermined continuous time.
画像比較モードにおいて、例えば、ユーザが、時刻t(1)からt(20)までは、ハイライト表示291を拡大画像Cに移動させ、拡大画像Cを選択しており、時刻t(20)からt(35)までは、ハイライト表示291を拡大画像Bに移動させ、拡大画像Bを選択したとする。同様に、ユーザは、時刻t(35)からt(45)までは、拡大画像Cを選択し、時刻t(45)からt(60)までは、拡大画像Aを選択したとする。
In the image comparison mode, for example, from time t (1) to t (20), the user moves the
この場合、時刻(タイムコード)とそのとき選択されている拡大画像(ズームパラメータ)が記録シーケンスとして記録される。即ち、時刻t(1)からt(20)まではズームパラメータC、時刻t(20)からt(35)まではズームパラメータB、時刻t(35)からt(45)まではズームパラメータC、時刻t(45)からt(60)まではズームパラメータA、という記録シーケンスが記録再生部474に記憶される。
In this case, the time (time code) and the enlarged image (zoom parameter) selected at that time are recorded as a recording sequence. That is, zoom parameter C from time t (1) to t (20), zoom parameter B from time t (20) to t (35), zoom parameter C from time t (35) to t (45), From time t (45) to t (60), a recording sequence of zoom parameter A is stored in the recording / reproducing
そして、全画面モードにおいては、記録再生部474に記憶された記録シーケンスに従って、表示画面400の全画面に拡大された拡大画像が表示される。ただし、全画面モードのときに画像提示部215に提示される動画像のフレームレートは、入力される動画像の3倍のフレームレートである。
In the full screen mode, the enlarged image is displayed on the full screen of the
次に、図26及び図27のフローチャートを参照して図18の画像処理装置200による第2の画像処理について説明する。図26は、第2の画像処理のうちの、表示モードが画像比較モードである場合の処理(画像比較表示処理)のフローチャートであり、図27は、第2の画像処理のうちの、表示モードが全画面モードである場合の処理(選択画像表示処理)のフローチャートである。 Next, the second image processing by the image processing apparatus 200 in FIG. 18 will be described with reference to the flowcharts in FIGS. 26 and 27. FIG. 26 is a flowchart of processing (image comparison display processing) when the display mode is the image comparison mode in the second image processing, and FIG. 27 is a display mode in the second image processing. 7 is a flowchart of processing (selected image display processing) in a case where the is a full screen mode.
なお、図26および図27に示す処理の前には、表示モードが画像比較モードまたは全画面モードであることを表すモード情報が、制御部478から画像処理部475−1乃至475−3に供給されている。
Before the processing shown in FIGS. 26 and 27, mode information indicating that the display mode is the image comparison mode or the full screen mode is supplied from the
図26の画像比較表示処理では、初めに、ステップS101において、画像分配部212は、画像入力部211から入力画像が供給されたかを判定する。ステップS101で、入力画像が供給されないと判定された場合、処理は終了する。
In the image comparison display process of FIG. 26, first, in step S101, the
一方、ステップS101で、画像入力部211から入力画像が供給されたと判定された場合、処理はステップS102に進み、画像分配部212は、画像入力部211から供給された入力画像を分配する。即ち、画像分配部212は、入力画像を拡大処理部475A乃至475Cおよび画像合成部214に供給する。
On the other hand, if it is determined in step S101 that an input image has been supplied from the
ステップS103において、同期特徴量抽出部471は、画像分配部212から供給された入力画像の同期特徴量を算出し、ステップS104において、タイムテーブル461を参照することにより、算出された同期特徴量に対応するタイムコードを検出する。検出されたタイムコードは、シーケンス再生部472A乃至472Cと記録再生部474に供給される。
In step S103, the synchronization feature
ステップS105において、記録再生部474は、同期特徴量抽出部471から供給されたタイムコードと、制御部478から供給されるズームパラメータA乃至Cのいずれかを表す選択情報とを対応付けたデータを記録シーケンスとして記憶する。
In step S <b> 105, the recording /
ステップS106において、シーケンス再生部472A乃至472Cは、タイムコードとズームパラメータとを対応付けたパラメータテーブルを参照し、供給されたタイムコードに対応するズームパラメータをスイッチャ部473に供給する。即ち、シーケンス再生部472Aは、ズームパラメータAをスイッチャ部473に供給し、シーケンス再生部472Bは、ズームパラメータBをスイッチャ部473に供給する。シーケンス再生部472Cは、ズームパラメータCをスイッチャ部473に供給する。
In step S106, the
ステップS107において、スイッチャ部473は、ズームパラメータA乃至Cを、拡大処理部475A乃至475Cに1対1に供給する。即ち、スイッチャ部473は、ズームパラメータAを拡大処理部475Aに供給し、ズームパラメータBを拡大処理部475Bに供給し、ズームパラメータCを拡大処理部475Cに供給する。
In step S107, the
ステップS108において、拡大処理部475A乃至475Cは、それぞれ、拡大処理を実行し、処理後の拡大画像A乃至Cを画像合成部476に供給する。
In step S <b> 108, the enlargement processing units 475 </ b> A to 475 </ b> C respectively execute enlargement processing and supply the processed enlarged images A to C to the
ステップS109において、画像合成部476は、画像分配部212から供給された入力画像と、拡大処理部475A乃至475Cから供給された拡大画像A乃至Cを用いて合成画像を生成し、画像提示部215に供給する。
In step S109, the
ステップS110において、画像提示部215は、画像合成部476から供給される合成画像を所定の表示部に表示することにより、合成画像をユーザに提示する。ステップS110の処理後、処理はステップS101に戻り、それ以降の処理が繰り返し実行される。
In step S110, the
図27の選択画像表示処理では、初めに、ステップS121において、画像分配部212は、画像入力部211から入力画像が供給されたかを判定する。ステップS121で、入力画像が供給されないと判定された場合、処理は終了する。
In the selected image display process of FIG. 27, first, in step S121, the
一方、ステップS121で、画像入力部211から入力画像が供給されたと判定された場合、処理はステップS122に進み、画像分配部212は、画像入力部211から供給された入力画像を分配する。即ち、画像分配部212は、入力画像を時間処理部475A’乃至475C’に供給する。
On the other hand, if it is determined in step S121 that an input image has been supplied from the
ステップS123において、同期特徴量抽出部471は、画像分配部212から供給された入力画像の同期特徴量を算出し、ステップS124において、タイムテーブル461を参照することにより、算出された同期特徴量に対応するタイムコードを検出する。検出されたタイムコードは、シーケンス再生部472A乃至472Cと記録再生部474に供給される。
In step S123, the synchronization feature
ステップS125において、記録再生部474は、同期特徴量抽出部471から供給されたタイムコードに対応する選択情報を記録シーケンスから取得し、スイッチャ部473に供給する。
In step S <b> 125, the recording /
ステップS126において、シーケンス再生部472A乃至472Cは、タイムコードとズームパラメータとを対応付けたパラメータテーブルを参照し、供給されたタイムコードに対応するズームパラメータをスイッチャ部473に供給する。即ち、シーケンス再生部472Aは、ズームパラメータAをスイッチャ部473に供給し、シーケンス再生部472Bは、ズームパラメータBをスイッチャ部473に供給する。シーケンス再生部472Cは、ズームパラメータCをスイッチャ部473に供給する。
In step S126, the
ステップS127において、スイッチャ部473は、記録再生部474から供給される選択情報に基づいて、シーケンス再生部472A乃至472Cから供給されるズームパラメータA乃至Cのうちのいずれか1つを、時間処理部475A’乃至475C’のすべてに供給する。
In step S127, based on the selection information supplied from the recording / reproducing
ステップS128において、時間処理部475A’乃至475C’は、ズーム倍率(za,zb,zcのいずれか)と時間係数とから生成されたタップ係数を用いたクラス分類適応処理を行うことにより、拡大処理と、時間解像度を3倍に創造した時間解像度創造処理を同時に実行し、その結果得られる拡大画像を画像合成部476に供給する。例えば、図24を参照して説明したように、選択情報としてズームパラメータBが供給された場合には、入力画像と同時刻tの拡大画像B1、時刻t+T/3の拡大画像B2、および時刻t+2T/3の拡大画像B3が画像合成部476に供給される。
In step S128, the
ステップS129において、画像合成部476は、画像分配部212から供給された3枚の拡大画像を時系列に順次画像提示部215に供給する。ステップS129の処理後、処理はステップS121に戻り、それ以降の処理が繰り返し実行される。
In step S129, the
全画面モードでは、以上の処理が行われることにより、入力画像の3倍のフレームレートで、画像比較モード時にユーザが選択した拡大画像が表示される。 In the full screen mode, the above processing is performed, so that an enlarged image selected by the user in the image comparison mode is displayed at a frame rate three times that of the input image.
以上のように、図18の画像処理装置200によれば、画像比較モードにおいては、画像分配部212から供給された入力画像と、拡大処理された拡大画像A乃至Cとが同時に画像提示部215において表示されるので、ユーザは、入力画像を確認しながら、拡大画像A乃至Cのなかから所望の拡大画像を選択することができる。
As described above, according to the image processing apparatus 200 of FIG. 18, in the image comparison mode, the input image supplied from the
また、ユーザがどの拡大画像A乃至Cを選択したかを表す選択情報が記録シーケンスとして記録再生部474に記録されるので、全画面モードでは、その記録シーケンスに基づいて、ユーザが選択したとおりの構図の拡大画像を再生(再現)することができる。
In addition, since selection information indicating which enlarged images A to C are selected by the user is recorded in the recording /
記録再生部474に記録されている記録シーケンスに基づいて、ユーザが選択したとおりの構図を再現して表示するだけであれば、全画面モードでは、画像処理部475−1乃至475−3のいずれか1つだけを用いればよいので、残りの2つが利用されないことになるが、上述した例では、画像処理部475−1乃至475−3が、同一の領域であって、時刻を少しずらした拡大画像を生成するので、時間解像度が向上した高画質な拡大画像を生成することができ、さらに画像処理部475−1乃至475−3のすべてを使用することになるので、画像処理部475−1乃至475−3を有効に活用することができる。
In the full screen mode, any one of the image processing units 475-1 to 475-3 is required as long as the composition as selected by the user is reproduced and displayed based on the recording sequence recorded in the recording / reproducing
なお、上述した例では、1つの動画像(入力画像)に対して、ユーザの選択情報を時系列に記録して再現する例について説明したが、複数の動画像(入力画像)に対して適用することも可能である。例えば、画像比較モードにおいて、2種類の動画像に対して2種類の拡大処理を実行し、入力画像と4種類の拡大画像を合成した合成画像を表示して、ユーザが4種類の拡大画像のなかからいずれの拡大画像を選択したかを表す情報を選択情報として記録することができる。 In the example described above, an example in which user selection information is recorded and reproduced in time series for one moving image (input image) has been described. However, the present invention is applicable to a plurality of moving images (input images). It is also possible to do. For example, in the image comparison mode, two types of enlargement processing are executed on two types of moving images, a composite image obtained by combining the input image and four types of enlarged images is displayed, and the user can select four types of enlarged images. Information indicating which enlarged image is selected from among them can be recorded as selection information.
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
図28は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。 FIG. 28 is a block diagram illustrating an example of a hardware configuration of a computer that executes the above-described series of processes using a program.
コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
In a computer, a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, and a RAM (Random Access Memory) 503 are connected to each other by a
バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、キーボード、マウス、マイクロホンなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507、ハードディスクや不揮発性のメモリなどよりなる記憶部508、ネットワークインタフェースなどよりなる通信部509、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア511を駆動するドライブ510が接続されている。
An input /
以上のように構成されるコンピュータでは、CPU501が、例えば、記憶部508に記憶されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した第1または第2の画像処理が行われる。
In the computer configured as described above, the
コンピュータ(CPU501)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア511に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。 The program executed by the computer (CPU 501) is, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, or a semiconductor. The program is recorded on a removable medium 511 that is a package medium including a memory or the like, or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
そして、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。
The program can be installed in the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
また、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In addition, in the present specification, the steps described in the flowcharts are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes performed in time series in the described order. It also includes processing.
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 In the present specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
200 画像処理装置, 213−1乃至213−3 画像処理部, 214 画像合成部, 215 画像提示部, 216 記憶部, 217 制御部, 471 同期特徴量抽出部, 472A乃至472C シーケンス再生部, 473 スイッチャ部, 474 記録再生部, 475−1乃至475−3 画像処理部, 476 画像合成部, 477 記憶部, 478 制御部 200 image processing device, 213-1 to 213-3 image processing unit, 214 image composition unit, 215 image presentation unit, 216 storage unit, 217 control unit, 471 synchronization feature amount extraction unit, 472A to 472C sequence reproduction unit, 473 switcher Unit, 474 recording / reproducing unit, 475-1 to 475-3 image processing unit, 476 image synthesizing unit, 477 storage unit, 478 control unit
Claims (7)
複数の前記画像変換処理手段それぞれによる処理後の画像である複数の処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替える制御手段と
を備え、
前記複数の画像変換処理手段のそれぞれは、
前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択するクラスタップ選択手段と、
前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類手段と、
前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択する予測タップ選択手段と、
前記注目画素のクラスのタップ係数を出力するタップ係数出力手段と、
前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める演算手段と
を有し、前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える
画像処理装置。 A plurality of image conversion processing means for respectively performing image conversion processing for converting one or more input images sequentially constituting a moving image as a first image into a second image;
One image conversion process is selected from a plurality of different image conversion processes by selecting one post-process image from among a plurality of post-process images that are images processed by each of the plurality of image conversion processing means. And a control means for switching the second mode for executing the image conversion process selected in the first mode,
Each of the plurality of image conversion processing means includes:
Class tap selection for selecting a pixel used for classifying a target pixel of interest in the second image into one of the plurality of classes as a class tap from the first image Means,
Class classification means for classifying the pixel of interest based on the class tap;
Prediction tap selection means for selecting, as a prediction tap, a pixel used for calculation with the tap coefficient when obtaining the target pixel from the first image;
Tap coefficient output means for outputting a tap coefficient of the class of the target pixel;
Computing means for obtaining the pixel of interest by performing computation using the tap coefficient of the class of the pixel of interest and the prediction tap selected for the pixel of interest; and the first mode, An image processing apparatus that switches at least one of the class tap, the prediction tap, and the tap coefficient in the second mode.
請求項1に記載の画像処理装置。 The tap range, which is the range of pixels selected as the class tap or the prediction tap, is the same in each of the plurality of image conversion processing means in the first mode, and in the second mode, the plurality of images. The image processing apparatus according to claim 1, wherein each of the conversion processing units is different, and a range obtained by combining tap ranges of the plurality of image conversion processing units is a range that is larger than the tap range in the first mode.
請求項1に記載の画像処理装置。 Each of the plurality of image conversion processing means expands a predetermined region of the first image in the first mode by switching at least one of the class tap, the prediction tap, and the tap coefficient. The image processing apparatus according to claim 1, wherein an enlargement process is performed, and in the second mode, a predetermined area of the first image is enlarged and a time resolution and an enlargement process are performed to improve the time resolution.
前記同期特徴量抽出手段によって検出された前記タイムコードに対応して、複数の前記画像変換処理手段それぞれが拡大する前記所定の領域を特定する領域特定情報を出力する複数の領域特定手段と
をさらに備え、
複数の前記画像変換処理手段のそれぞれは、前記第1のモードにおいて、前記領域特定情報に基づいて、前記第1の画像を拡大する拡大処理を行う
請求項3に記載の画像処理装置。 Synchronous feature amount extraction means for extracting a feature amount of the input image and detecting a time code indicating which scene in the moving image the input image is,
A plurality of area specifying means for outputting area specifying information for specifying the predetermined area that each of the plurality of image conversion processing means expands corresponding to the time code detected by the synchronization feature amount extracting means; Prepared,
The image processing apparatus according to claim 3, wherein each of the plurality of image conversion processing units performs an enlargement process for enlarging the first image based on the region specifying information in the first mode.
前記第2のモードにおいて、前記ユーザ選択情報記憶手段に記憶されている前記選択情報に基づいて、前記複数の領域特定手段から供給される複数の前記領域特定情報のなかから1つの領域特定情報を選択し、複数の前記画像変換処理手段に供給する選択手段と
をさらに備え、
複数の前記画像変換処理手段のそれぞれは、前記第2のモードにおいて、前記領域特定情報に基づいて、前記第1の画像を拡大し、かつ、時間解像度を向上させる時間解像度および拡大処理を行う
請求項4に記載の画像処理装置。 In the first mode, selection information that is information representing an enlarged image selected by the user from among the plurality of enlarged images obtained by enlarging the first image by the plurality of image conversion processing means, User selection information storage means for storing the code in association with the code;
In the second mode, based on the selection information stored in the user selection information storage means, one area specifying information is selected from the plurality of area specifying information supplied from the plurality of area specifying means. Selecting means for selecting and supplying to a plurality of said image conversion processing means,
Each of the plurality of image conversion processing means performs time resolution and enlargement processing for enlarging the first image and improving the time resolution based on the region specifying information in the second mode. Item 5. The image processing apparatus according to Item 4.
前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択し、前記クラスタップに基づいて、前記注目画素をクラス分類し、前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択し、前記注目画素のクラスのタップ係数を出力し、前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める画像変換処理を複数同時に行い、複数の画像変換処理による処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替えるステップを含み、
前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える
画像処理方法。 In an image processing method of an image processing apparatus for performing an image conversion process for converting one or more input images sequentially constituting a moving image as a first image into a second image,
A pixel used for classifying a target pixel of interest in the second image into any one of the plurality of classes is selected from the first image as a class tap, and the class Based on the tap, classify the pixel of interest, select a pixel to be used for calculation with the tap coefficient when obtaining the pixel of interest from the first image as a prediction tap, and tap the class of the pixel of interest A coefficient, and by performing a calculation using the tap coefficient of the class of the target pixel and the prediction tap selected for the target pixel, a plurality of image conversion processes for obtaining the target pixel are performed simultaneously, By selecting one post-processing image from among multiple post-processing images, a single image conversion process can be selected from a plurality of different image conversion processes. Wherein for a first mode, a second step of switching the mode for executing the first mode in the selected image conversion process,
An image processing method for switching at least one of the class tap, the prediction tap, and the tap coefficient between the first mode and the second mode.
前記第2の画像のうちの注目している注目画素を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いる画素を、クラスタップとして前記第1の画像から選択し、前記クラスタップに基づいて、前記注目画素をクラス分類し、前記注目画素を求めるときの前記タップ係数との演算に用いる画素を、予測タップとして前記第1の画像から選択し、前記注目画素のクラスのタップ係数を出力し、前記注目画素のクラスのタップ係数と、前記注目画素に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目画素を求める画像変換処理を複数同時に行い、複数の画像変換処理による処理後画像のなかから1つの処理後画像を選択することにより、複数の異なる画像変換処理のなかから1つの画像変換処理を選択する第1のモードと、前記第1のモードで選択された画像変換処理を実行する第2のモードを切り替えるステップを含み、
前記第1のモードと前記第2のモードとで、前記クラスタップ、前記予測タップ、および前記タップ係数の少なくとも1つを切り替える
画像変換処理をコンピュータに実行させるプログラム。 In a program for causing a computer to execute an image conversion process for converting one or more input images sequentially constituting a moving image as a first image into a second image.
A pixel used for classifying a target pixel of interest in the second image into any one of the plurality of classes is selected from the first image as a class tap, and the class Based on the tap, classify the pixel of interest, select a pixel to be used for calculation with the tap coefficient when obtaining the pixel of interest from the first image as a prediction tap, and tap the class of the pixel of interest A coefficient, and by performing a calculation using the tap coefficient of the class of the target pixel and the prediction tap selected for the target pixel, a plurality of image conversion processes for obtaining the target pixel are performed simultaneously, By selecting one post-processing image from among multiple post-processing images, a single image conversion process can be selected from a plurality of different image conversion processes. Wherein for a first mode, a second step of switching the mode for executing the first mode in the selected image conversion process,
A program that causes a computer to execute an image conversion process for switching at least one of the class tap, the prediction tap, and the tap coefficient between the first mode and the second mode.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007187880A JP2009026026A (en) | 2007-07-19 | 2007-07-19 | Image processor, method for processing image, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007187880A JP2009026026A (en) | 2007-07-19 | 2007-07-19 | Image processor, method for processing image, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009026026A true JP2009026026A (en) | 2009-02-05 |
Family
ID=40397784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007187880A Withdrawn JP2009026026A (en) | 2007-07-19 | 2007-07-19 | Image processor, method for processing image, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009026026A (en) |
-
2007
- 2007-07-19 JP JP2007187880A patent/JP2009026026A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5152559B2 (en) | Image processing apparatus, image processing method, and program | |
JP5093557B2 (en) | Image processing apparatus, image processing method, and program | |
JP5263565B2 (en) | Image processing apparatus, image processing method, and program | |
JP5288214B2 (en) | Data processing apparatus, data processing method, and program | |
US20070159661A1 (en) | Display apparatus and display method, learning apparatus and learning method, and programs therefor | |
JP4193871B2 (en) | Image processing apparatus, image processing method, and program | |
JP4650123B2 (en) | Image processing apparatus, image processing method, and program | |
EP1501296A1 (en) | Data converting apparatus, data converting method, learning apparatus, leaning method, program, and recording medium | |
JP4552691B2 (en) | Moving picture conversion apparatus, moving picture restoration apparatus and method, and computer program | |
JP4310689B2 (en) | Signal processing apparatus and method, recording medium, and program | |
KR101110209B1 (en) | Signal processing apparatus and signal processing method | |
JP5066041B2 (en) | Image signal processing apparatus and image signal processing method | |
JP2009026026A (en) | Image processor, method for processing image, and program | |
JP4507639B2 (en) | Image signal processing device | |
JP4803279B2 (en) | Image signal processing apparatus and method, recording medium, and program | |
JP4457276B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JP4770704B2 (en) | Image processing apparatus, image processing method, and program | |
JP2007129647A (en) | Recording and reproducing device and recording and reproducing method, recording device and recording method, reproducing device and reproducing method, and program | |
JP2007081773A (en) | Information processing apparatus and method, providing apparatus and method, and program | |
JP2005236634A (en) | Image processor, image processing method, program, and recording medium | |
US20090226145A1 (en) | Data processing device, data processing method, and program | |
JP2008118519A (en) | Image conversion apparatus and method, learning apparatus and method, and program | |
JP4512956B2 (en) | Data processing apparatus, data processing method, and recording medium | |
JP4674439B2 (en) | Signal processing apparatus, signal processing method, and information recording medium | |
JP4310691B2 (en) | Image processing apparatus and method, learning apparatus and method, recording medium, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20101005 |