JP2009141444A - Image signal processor, image display apparatus, image signal processing method - Google Patents

Image signal processor, image display apparatus, image signal processing method Download PDF

Info

Publication number
JP2009141444A
JP2009141444A JP2007312980A JP2007312980A JP2009141444A JP 2009141444 A JP2009141444 A JP 2009141444A JP 2007312980 A JP2007312980 A JP 2007312980A JP 2007312980 A JP2007312980 A JP 2007312980A JP 2009141444 A JP2009141444 A JP 2009141444A
Authority
JP
Japan
Prior art keywords
image
frame
input
unit
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007312980A
Other languages
Japanese (ja)
Inventor
Masahiro Kageyama
昌広 影山
Koichi Hamada
宏一 浜田
Shigeki Nagaya
茂喜 長屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007312980A priority Critical patent/JP2009141444A/en
Publication of JP2009141444A publication Critical patent/JP2009141444A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To achieve a high resolution of an input image signal suitably with a small number of frames. <P>SOLUTION: One image frame is generated by entering n (n is an integer of 2 or more) image frames, estimating a sampling phase difference by using image data on the input image frame becoming a reference and each corresponding image data on the other input image frame, accumulating information of the sampling phase difference based on the motion track of image data on the input image frame becoming the reference, holding image data on the input image frame at an accumulation start point which corresponds to image data on the input image frame becoming the reference, and compounding image data on the input image frame becoming the reference and image data on the input image frame at the accumulation start point by using the accumulated information of sampling phase difference. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像信号を高解像度化するための技術に関し、特に複数の画像フレームを合成することにより、画像フレームを構成する画素数を増やすとともに不要な折返し成分を除去して高解像度化を行う技術に関する。   The present invention relates to a technique for increasing the resolution of an image signal, and in particular, by combining a plurality of image frames, the number of pixels constituting the image frame is increased and unnecessary aliasing components are removed to increase the resolution. Regarding technology.

最近のテレビ受像機は大画面化が進んでおり、放送や通信、蓄積媒体などから入力された画像信号をそのまま表示するのではなく、デジタル信号処理によって水平・垂直方向の画素数を増やして表示することが一般的に行われている。この際、一般的に知られているsinc関数を用いた補間ローパスフィルタやスプライン関数等によって画素数を増やすだけでは解像度を上げることはできない。   Recent television receivers have become larger in screen size and do not display image signals input from broadcasting, communication, storage media, etc., as they are, but display them by increasing the number of pixels in the horizontal and vertical directions by digital signal processing. It is generally done. At this time, the resolution cannot be increased only by increasing the number of pixels by an interpolation low-pass filter using a generally known sinc function, a spline function, or the like.

そこで、特許文献1、特許文献2、非特許文献1に記載されているように、入力された複数の画像フレーム(以下、フレームと略記)を合成して1枚のフレームとすることにより、高解像度化しながら画素数を増やす技術(以下、従来技術)が提案されている。   Therefore, as described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, a plurality of input image frames (hereinafter abbreviated as “frames”) are combined into a single frame. A technique for increasing the number of pixels while increasing the resolution (hereinafter referred to as a conventional technique) has been proposed.

特開平8−336046号JP-A-8-336046 特開平9−69755号JP-A-9-69755 青木伸 “複数のデジタル画像データによる超解像処理”, Ricoh Technical Report pp.19-25, No.24, NOVEMBER, 1998Shin Aoki “Super-resolution processing using multiple digital image data”, Ricoh Technical Report pp.19-25, No.24, NOVEMBER, 1998

これらの従来技術では、(1)位置推定、(2)広帯域補間、(3)加重和、の3つの処理により高解像度化を行う。ここで、(1)位置推定は、入力された複数の画像フレームの各画像データを用いて、各画像データのサンプリング位相(標本化位置)の差を推定するものである。(2)広帯域補間は、各画像データを折返し成分も含め、原信号の高周波成分をすべて透過する帯域の広いローパスフィルタを用いて画素数(サンプリング点)を補間して増やし、画像データを高密度化するものである。(3)加重和は、各高密度化データのサンプリング位相に応じた重み係数により加重和をとることによって、画素サンプリングの際に生じた折返し成分を打ち消して除去するとともに、同時に原信号の高周波成分を復元するものである。   In these conventional techniques, high resolution is achieved by three processes: (1) position estimation, (2) wideband interpolation, and (3) weighted sum. Here, (1) position estimation is to estimate the difference in sampling phase (sampling position) of each image data using each image data of a plurality of input image frames. (2) Wideband interpolation increases the image data density by interpolating and increasing the number of pixels (sampling points) using a wide-band low-pass filter that transmits all high-frequency components of the original signal, including aliasing components. It is to become. (3) The weighted sum is a weighted sum corresponding to the sampling phase of each densified data, canceling out aliasing components generated during pixel sampling and simultaneously removing the high-frequency components of the original signal. Is to restore.

図2に、これらの高解像度化技術の概要を示す。同図(a)に示すように、異なる時間軸上のフレーム#1(201)、フレーム#2(202)、フレーム#3(203)が入力され、これらを合成して出力フレーム(206)を得ることを想定する。簡単のため、まず被写体が水平方向に移動(204)した場合を考え、水平線(205)の上の1次元の信号処理によって高解像度化することを考える。このとき、同図(b)と同図(d)に示すように、フレーム#2(202)とフレーム#1(201)では、被写体の移動(204)の量に応じて信号波形の位置ずれが生じる。上記(1)位置推定によってこの位置ずれ量を求め、同図(c)に示すように、位置ずれが無くなるようにフレーム#2(202)を動き補償(207)するとともに、各フレームの画素(208)のサンプリング位相(209)(210)の間の位相差θ(211)を求める。この位相差θ(211)に基づき、上記(2)広帯域補間および(3)加重和を行うことにより、同図(e)に示すように、元の画素(208)のちょうど中間(位相差θ=π)の位置に新規画素(212)を生成することにより、高解像度化を実現する。 (3)加重和については後述する。   FIG. 2 shows an outline of these high resolution techniques. As shown in (a) in the figure, frame # 1 (201), frame # 2 (202), and frame # 3 (203) on different time axes are input, and these are combined to form an output frame (206). Assume that you get. For simplicity, first consider the case where the subject has moved (204) in the horizontal direction, and consider increasing the resolution by one-dimensional signal processing on the horizontal line (205). At this time, as shown in (b) and (d) in the figure, the position of the signal waveform is shifted in accordance with the amount of movement (204) of the subject in frame # 2 (202) and frame # 1 (201). Occurs. The amount of displacement is obtained by the above (1) position estimation, and as shown in FIG. 5C, the frame # 2 (202) is motion-compensated (207) so that the displacement is eliminated, and the pixels ( The phase difference θ (211) between the sampling phases (209) and (210) of 208) is obtained. Based on this phase difference θ (211), by performing the above (2) wideband interpolation and (3) weighted sum, as shown in FIG. High resolution is realized by generating a new pixel (212) at the position of = π). (3) The weighted sum will be described later.

なお、実際には被写体の動きが平行移動だけでなく、回転や拡大・縮小などの動きを伴うことも考えられるが、フレーム間の時間間隔が微小な場合や被写体の動きが遅い場合には、これらの動きも局所的な平行移動に近似して考えることができる。   Actually, the movement of the subject may be accompanied by movements such as rotation and enlargement / reduction as well as parallel movement, but if the time interval between frames is very small or the movement of the subject is slow, These movements can also be considered by approximating local translation.

特許文献1、特許文献2、非特許文献1に記載の従来技術によって1次元方向の2倍の高解像度化を行う場合、上記(3)の加重和を行う際に、図3に示すように、少なくとも3枚のフレーム画像の信号を用いる必要があった。ここで、図3は、1次元の周波数領域で、各成分の周波数スペクトルを示した図である。同図において、周波数軸からの距離が信号強度を表し、周波数軸を中心とした回転角が位相を表す。上記(3)の加重和について、以下に詳しく説明する。   As shown in FIG. 3, when performing the weighted sum of (3) above when the resolution is doubled in the one-dimensional direction by the conventional techniques described in Patent Document 1, Patent Document 2, and Non-Patent Document 1. It is necessary to use signals of at least three frame images. Here, FIG. 3 is a diagram showing a frequency spectrum of each component in a one-dimensional frequency region. In the figure, the distance from the frequency axis represents the signal intensity, and the rotation angle around the frequency axis represents the phase. The weighted sum of (3) above will be described in detail below.

上記(2)の広帯域補間にて、ナイキスト周波数の2倍の帯域(周波数0〜サンプリング周波数fsまでの帯域)を透過する広帯域ローパスフィルタによって画素補間すると、原信号と同じ成分(以下、原成分)と、サンプリング位相に応じた折返し成分の和が得られる。このとき、3枚のフレーム画像の信号に対して上記(2)広帯域補間の処理を行うと、図3(a)に示すように、各フレームの原成分(301)(302)(303)の位相はすべて一致し、折返し成分(304)(305)(306)の位相は各フレームのサンプリング位相の差に応じて回転することがよく知られている。それぞれの位相関係をわかりやすくするために、各フレームの原成分の位相関係を同図(b)に示し、各フレームの折返し成分の位相関係を同図(c)に示す。   When the pixel interpolation is performed by the broadband low-pass filter that transmits twice the Nyquist frequency band (frequency band 0 to sampling frequency fs) in the broadband interpolation of (2) above, the same component as the original signal (hereinafter referred to as the original component) And the sum of the aliasing components according to the sampling phase is obtained. At this time, when the above-described (2) wideband interpolation processing is performed on the signals of the three frame images, as shown in FIG. 3 (a), the original components (301), (302), (303) of each frame are displayed. It is well known that the phases are all in agreement, and the phase of the aliasing components (304), (305) and (306) rotates in accordance with the difference in sampling phase of each frame. In order to facilitate understanding of the respective phase relationships, the phase relationship of the original components of each frame is shown in FIG. 5B, and the phase relationship of the folded components of each frame is shown in FIG.

ここで、3枚のフレーム画像の信号に対して、乗算する係数を適切に選択して上記(3)加重和を行うことにより、各フレームの折返し成分(304)(305)(306)を互いに打ち消して除去することができ、原成分だけを抽出できる。このとき、各フレームの折返し成分(304)(305)(306)のベクトル和を0にする、すなわち、Re軸(実軸)の成分とIm軸(虚軸)の成分を両方ともに0とするためには、少なくとも3つの折返し成分が必要となる。従って、2倍の高解像度化を実現するために、すなわち1個の折返し成分を除去するために、少なくとも3枚のフレーム画像の信号を用いる必要があった。   Here, with respect to the signals of the three frame images, by appropriately selecting the coefficients to be multiplied and performing the above (3) weighted sum, the folded components (304), (305), and (306) of each frame are mutually connected. It can be canceled out and only the original components can be extracted. At this time, the vector sum of the folded components (304) (305) (306) of each frame is set to 0, that is, both the Re axis (real axis) component and the Im axis (imaginary axis) component are set to 0. For this purpose, at least three folding components are required. Therefore, it is necessary to use signals of at least three frame images in order to realize double resolution enhancement, that is, to remove one aliasing component.

同様に、特許文献1、特許文献2、非特許文献1に記載されているように、水平・垂直の2次元の入力信号に対して高解像度化する場合、折返しが縦横2方向から来るので、原信号の帯域が縦横共に2倍に広がると、3つの折返し成分が重なり、それらを打ち消すためには2M+1=7個のデジタルデータ(=7枚のフレーム画像の信号)を必要としていた。   Similarly, as described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, when the resolution is increased with respect to a horizontal / vertical two-dimensional input signal, the aliasing comes from the vertical and horizontal directions. When the band of the original signal doubled both vertically and horizontally, the three folded components overlap, and 2M + 1 = 7 digital data (= 7 frame image signals) were required to cancel them.

従って従来技術は、フレームメモリや信号処理回路の規模が大きくなって経済的でない。また、時間的に離れた数多くのフレーム画像の位置推定を正確に行う必要があるため構成が複雑となる。すなわち、従来技術は、例えばテレビジョン放送信号等の動画像のフレームを高解像度化することが困難である。   Therefore, the prior art is not economical because the scale of the frame memory and the signal processing circuit is increased. In addition, since it is necessary to accurately estimate the positions of many frame images that are separated in time, the configuration becomes complicated. That is, it is difficult for the conventional technology to increase the resolution of a moving image frame such as a television broadcast signal.

また、現在のテレビジョン放送信号ではインタレース走査を用いるのが主流であるが、特許文献1、特許文献2、非特許文献1には、インタレース走査信号そのものの高解像度化や、インタレース・プログレッシブ走査変換(I-P変換)について、開示も示唆もなされていない。   In addition, interlace scanning is mainly used in current television broadcast signals. However, Patent Document 1, Patent Document 2, and Non-Patent Document 1 disclose that interlace scanning signals themselves have higher resolution, interlace scanning, and so on. There is no disclosure or suggestion about progressive scan conversion (IP conversion).

また、地上波や衛星(BS、CS)を用いた現在のデジタルテレビ放送では、従来のSD(Standard Definition)の画像信号に加え、HD(High Definition)の画像信号にて番組が放送されている。しかし、全番組がHDカメラで撮影された画像信号に置き換わっているわけではなく、SDカメラで撮影された画像信号を、SD→HD変換器によって、HDと同じ画素数を持つ信号に変換(アップコン)し、番組ごとに、あるいはシーンごとに切り替えて放送されているがよく知られている。   In addition, in the current digital television broadcasting using terrestrial and satellite (BS, CS), programs are broadcast with HD (High Definition) image signals in addition to conventional SD (Standard Definition) image signals. . However, not all programs have been replaced with image signals shot with an HD camera.Image signals shot with an SD camera are converted into signals with the same number of pixels as HD using an SD-to-HD converter. It is well known that it is broadcast by switching between programs or scenes.

従来の受信機では、受信した信号がHDカメラで撮影された画像信号の場合は解像度の高い画像が再生され、SD→HD変換(アップコン)後の画像信号の場合は解像度が低い画像が再生されるため、番組ごとに、あるいはシーンごとに、解像度が頻繁に切り替わって見苦しいという課題があった。   With a conventional receiver, if the received signal is an image signal taken with an HD camera, a high-resolution image is played back, and if it is an SD-HD converted (up-con) image signal, a low-resolution image is played back. Therefore, there is a problem that the resolution is frequently switched for each program or for each scene and is unsightly.

また、上記従来技術では、サンプリング位相(標本化位置)の差を用いて高解像度化処理を行っているため、サンプリング位相に差が生じない信号、すなわち、被写体が静止している領域や、被写体の動きが画素間隔の整数倍になる領域、すなわち連続するフレーム間のサンプリング位相差が、0または2πに近い領域では、高解像度化の効果が得られないという課題があった。   Further, in the above conventional technique, since the resolution enhancement processing is performed using the difference in the sampling phase (sampling position), a signal that does not cause a difference in the sampling phase, that is, a region where the subject is stationary, a subject There is a problem that the effect of increasing the resolution cannot be obtained in a region where the movement of the pixel is an integral multiple of the pixel interval, that is, a region where the sampling phase difference between consecutive frames is close to 0 or 2π.

本発明は、上記従来技術の課題に鑑みて為されたものであって、その目的は、好適に画
像信号を高解像度化するための技術を提供することにある。
The present invention has been made in view of the above-described problems of the prior art, and an object thereof is to provide a technique for suitably increasing the resolution of an image signal.

上記目的を達成するために、本発明の一実施の態様は、例えば、特許請求の範囲に記載されるように構成すればよい。   In order to achieve the above object, an embodiment of the present invention may be configured as described in the claims, for example.

本発明によれば、より好適に画像信号を高解像度化することが可能となる。   According to the present invention, it is possible to increase the resolution of an image signal more suitably.

以下、本発明の実施例を、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

また、各図面において、同一の符号が付されている構成要素は同一の機能を有すること
とする。
Moreover, in each drawing, the component to which the same code | symbol was attached | subjected shall have the same function.

また、本明細書の各記載及び各図面における「位相」という表現は、2次元画像空間において用いた場合は、2次元画像上の「位置」という意味も含む。当該位置は、小数画素精度の位置を意味する。   Further, the expression “phase” in each description and each drawing of this specification includes the meaning of “position” on a two-dimensional image when used in a two-dimensional image space. The said position means the position of decimal pixel precision.

また、本明細書の各記載及び各図面における「アップレート」という表現は、「アップレート処理」という意味も含む。また、本明細書の各記載及び各図面における「アップコン」という表現は、「アップコンバート処理」を示す。両者はいずれも画像の画素数を多くする変換処理(画素数増加処理)または画像を拡大する変換処理(画像拡大変換処理)を意味する。   In addition, the expression “up rate” in each description and each drawing of this specification also includes the meaning of “up rate processing”. Further, the expression “upcon” in each description and each drawing of this specification indicates “upconversion processing”. Both of them mean conversion processing for increasing the number of pixels of an image (pixel number increase processing) or conversion processing for enlarging an image (image enlargement conversion processing).

また、本明細書の各記載及び各図面における「ダウンレート」という表現は、「ダウンレート処理」という意味も含む。また、本明細書の各記載及び各図面における「ダウンコン」という表現は、「ダウンコンバート処理」を示す。両者はいずれも画像の画素数を少なくする変換処理(画素数低減処理)または画像を縮小する変換処理(画像縮小変換処理)を意味する。   In addition, the expression “down rate” in each description and each drawing of this specification also includes the meaning of “down rate processing”. In addition, the expression “downconversion” in each description and each drawing of the present specification indicates “downconversion processing”. Both of them mean conversion processing for reducing the number of pixels in the image (pixel number reduction processing) or conversion processing for reducing the image (image reduction conversion processing).

また、本明細書の各記載及び各図面における「動き補償」という表現は、位相差もしくはサンプリング位相差、すなわち空間的な位置の差を算出して位置合わせを行う意味を含む。   Further, the expression “motion compensation” in each description and each drawing of the present specification includes a meaning of performing alignment by calculating a phase difference or a sampling phase difference, that is, a spatial position difference.

なお、以下の各実施例の記載において、上述した(1)位置推定には、参考文献1や参考文献2に記載されているような方法を用いればよい。また上述した(2)広帯域補間については、非特許文献1に記載されているようなナイキスト周波数の2倍の通過帯域を持つ一般的なローパスフィルタを用いればよい。
[参考文献1] 安藤繁 “画像の時空間微分算法を用いた速度ベクトル分布計測システム”,計測自動制御学会論文集,pp.1330-1336, Vol.22, No.12,1986
[参考文献2] 小林弘幸ほか “DCT変換に基づく画像の位相限定相関法”, 信学技法 IEICE Technical Report ITS2005-92,IE2005-299(2006-02), pp.73-78
また、以下の実施例で「SR信号」との表記は「Super Resolution信号(超解像信号)」の略である。
In the description of each embodiment below, the method described in Reference Document 1 or Reference Document 2 may be used for the above-described (1) position estimation. As for the above-mentioned (2) wideband interpolation, a general low-pass filter having a pass band twice as high as the Nyquist frequency as described in Non-Patent Document 1 may be used.
[Reference 1] Shigeru Ando “Velocity vector distribution measurement system using spatio-temporal differential calculation of images”, Transactions of the Society of Instrument and Control Engineers, pp. 1330-1336, Vol. 22, No. 12, 1986
[Reference 2] Hiroyuki Kobayashi et al. “Phase-Only Correlation of Images Based on DCT Transform”, IEICE Technical Report ITS2005-92, IE2005-299 (2006-02), pp.73-78
In the following embodiments, the notation “SR signal” is an abbreviation of “Super Resolution signal (super-resolution signal)”.

以下、本発明の実施例について、図面を参照しつつ説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1に、本発明の実施例1に係る画像信号処理装置を示し、その特徴について述べる。本実施例に係る画像信号処理装置は、例えばテレビジョン受像機等の画像表示装置に適用される。以下の本実施例の説明においては、画像信号処理装置として画像表示装置を例にして説明する。   FIG. 1 shows an image signal processing apparatus according to Embodiment 1 of the present invention, and features thereof will be described. The image signal processing apparatus according to this embodiment is applied to an image display apparatus such as a television receiver. In the following description of the present embodiment, an image display device will be described as an example of the image signal processing device.

図1において、本実施例に係る画像信号処理装置は、例えばテレビジョン放送信号などの動画像のフレーム列が入力される入力部(1)と、この入力部(1)から入力されたフレームを高解像度化するための解像度変換部(2)と、更にこの解像度変換部(2)によって高解像度化されたフレームに基づき画像を表示する表示部(3)とを備えている。この表示部(3)として、例えばプラズマディスプレイパネル、液晶表示パネル、もしくは電子/電解放出型ディスプレイパネルが用いられる。以下、解像度変換部(2)の詳細について説明する。   In FIG. 1, an image signal processing apparatus according to the present embodiment includes an input unit (1) to which a frame sequence of a moving image such as a television broadcast signal is input, and a frame input from the input unit (1). A resolution conversion unit (2) for increasing the resolution and a display unit (3) for displaying an image based on the frame whose resolution is increased by the resolution conversion unit (2) are further provided. As the display unit (3), for example, a plasma display panel, a liquid crystal display panel, or an electron / electrolytic emission display panel is used. Details of the resolution conversion unit (2) will be described below.

図1において、まず位置推定部(101)により、入力部(1)に入力されたフレーム#1上の処理対象の画素のサンプリング位相(標本化位置)を基準として、フレーム#2上の対応する画素の位置を推定し、画素ごとにサンプリング位相差θ(102)を求める。   In FIG. 1, first, the position estimation unit (101) performs a corresponding operation on the frame # 2 based on the sampling phase (sampling position) of the pixel to be processed on the frame # 1 input to the input unit (1). The pixel position is estimated, and the sampling phase difference θ (102) is obtained for each pixel.

次に、動き補償・アップレート部(115)のアップレート器(103)(104)により、位相差θ(102)の情報を用いてフレーム#2を動き補償してフレーム#1と位置を合わせるとともに、フレーム#1とフレーム#2の画素数をそれぞれ2倍に増して高密度化する。位相シフト部(116)では、この高密度化したデータの位相を一定量だけシフトする。ここで、データの位相を一定量だけシフトする手段として、π/2位相シフト器(106)(108)を用いることができる。また、π/2位相シフト器(106)(108)で生じる遅延を補償するために、遅延器(105)(107)により高密度化したフレーム#1とフレーム#2の信号を遅延させる。   Next, frame # 2 is motion-compensated using the information of phase difference θ (102) by the up-raters (103) and (104) of the motion compensation / up-rate unit (115) and aligned with frame # 1. At the same time, the number of pixels in frame # 1 and frame # 2 is doubled to increase the density. The phase shift unit (116) shifts the phase of the densified data by a certain amount. Here, π / 2 phase shifters (106) and (108) can be used as means for shifting the phase of data by a certain amount. Further, in order to compensate for the delay caused by the π / 2 phase shifters (106) and (108), the signals of the frame # 1 and the frame # 2 which have been densified by the delay devices (105) and (107) are delayed.

折返し成分除去部(117)では、遅延器(105)(107)とヒルベルト変換器(106)(108)の各出力信号に対して、係数決定器(109)にて位相差θ(102)をもとに生成した係数C0,C2,C1,C3を乗算器(110)(112)(111)(113)にてそれぞれ乗算し、加算器(114)にてこれらの信号を加算して出力を得る。この出力は、表示部3に供給される。なお、位置推定部(101)は、上記従来技術をそのまま用いて実現することができる。アップレート器(103)(104)、π/2位相シフト器(106)(108)、折返し成分除去部(117)の各詳細については後述する。   In the aliasing component removal unit (117), the phase difference θ (102) is calculated by the coefficient determiner (109) for each output signal of the delay units (105) (107) and the Hilbert transformers (106) (108). The generated coefficients C0, C2, C1, and C3 are respectively multiplied by multipliers (110), (112), (111), and (113), and these signals are added by an adder (114) and output. obtain. This output is supplied to the display unit 3. The position estimation unit (101) can be realized using the above-described conventional technique as it is. Details of the up-raters (103) and (104), the π / 2 phase shifters (106) and (108), and the aliasing component removal unit (117) will be described later.

図4に、本発明の実施例1の動作を示す。同図は、図1に示した遅延器(105)(107)とπ/2位相シフト器(106)(108)の各出力を1次元の周波数領域で示したものである。同図(a)において、遅延器(105)(107)から出力されたアップレート後のフレーム#1とフレーム#2の信号はそれぞれ、原成分(401)(402)と、元のサンプリング周波数(fs)から折り返された折返し成分(405)(406)を加えた信号となる。このとき、折返し成分(406)は上述の位相差θ(102)だけ位相が回転している。   FIG. 4 shows the operation of the first embodiment of the present invention. This figure shows the outputs of the delay units (105) and (107) and π / 2 phase shifters (106) and (108) shown in FIG. 1 in a one-dimensional frequency domain. In FIG. 8A, the signals of frame # 1 and frame # 2 after the up-rate output from the delay units (105) and (107) are respectively the original components (401) and (402) and the original sampling frequency ( This is a signal obtained by adding folded components (405) and (406) folded from fs). At this time, the aliasing component (406) is rotated in phase by the above-described phase difference θ (102).

一方、π/2位相シフト器(106)(108) から出力されたアップレート後のフレーム#1とフレーム#2の信号はそれぞれ、π/2位相シフト後の原成分(403)(404)と、π/2位相シフト後の折返し成分(407)(408)を加えた信号となる。同図(b)および同図(c)は、同図(a)に示した各成分の位相関係をわかりやすくするために、原成分と折返し成分をそれぞれ抜き出して示したものである。   On the other hand, the frame # 1 and frame # 2 signals output from the π / 2 phase shifters (106) and (108) are the original components (403) and (404) after the π / 2 phase shift, respectively. , A signal obtained by adding the folded components (407) and (408) after the π / 2 phase shift. (B) and (c) show the original component and the aliasing component extracted for easy understanding of the phase relationship between the components shown in (a).

ここで、同図(b)に示す4つの成分のベクトル和を取ったときに、Re軸の成分を1とし、Im軸の成分を0とするとともに、同図(c)に示す4つの成分のベクトル和を取ったときに、Re軸とIm軸の両方の成分を0とするように、各成分に乗算する係数を決定して加重和をとれば、折返し成分を打ち消してキャンセルし、原成分だけを抽出することができる。すなわち、2枚のフレーム画像だけを用いて、1次元方向の2倍の高解像度化行う画像信号処理装置を実現できる。この係数決定方法の詳細については後述する。   Here, when the vector sum of the four components shown in FIG. 4B is taken, the Re-axis component is set to 1, the Im-axis component is set to 0, and the four components shown in FIG. When the vector sum is taken, the coefficients to be multiplied by each component are determined so that both the Re-axis and Im-axis components are set to 0, and the weighted sum is taken. Only the components can be extracted. In other words, it is possible to realize an image signal processing apparatus that uses only two frame images to increase the resolution twice in the one-dimensional direction. Details of this coefficient determination method will be described later.

図5に、本発明の実施例1に用いるアップレート器(103)(104)の動作を示す。同図において、横軸は周波数を、縦軸は利得(入力信号振幅に対する出力信号振幅の比の値)を表し、アップレート器(103)(104)の「周波数-利得」特性を示している。ここで、アップレート器(103)(104)では、もとの信号のサンプリング周波数(fs)に対して2倍の周波数(2fs)を新しいサンプリング周波数とし、もとの画素間隔のちょうど中間の位置に新しい画素のサンリング点(=ゼロ点)を挿入することによって画素数を2倍にして高密度化するとともに、-fs〜+fsの間の周波数をすべて利得2.0の通過帯域とするフィルタをかける。このとき、同図に示すように、デジタル信号の対称性により、2fsの整数倍の周波数ごとに繰り返す特性となる。   FIG. 5 shows the operation of the up-raters (103) (104) used in the first embodiment of the present invention. In this figure, the horizontal axis represents frequency, the vertical axis represents gain (value of the ratio of output signal amplitude to input signal amplitude), and shows the “frequency-gain” characteristics of the up-raters (103) and (104). . Here, in the up-rater (103) (104), the new sampling frequency is set to a frequency (2fs) that is twice the sampling frequency (fs) of the original signal, and the position is exactly in the middle of the original pixel interval. Insert a new pixel sanding point (= zero point) into the filter to double the number of pixels and increase the density. Call. At this time, as shown in the figure, due to the symmetry of the digital signal, the characteristic repeats every frequency that is an integral multiple of 2fs.

図6に、本発明の実施例1に用いるアップレート器(103)(104)の具体例を示す。同図は、図5に示した周波数特性を逆フーリエ変換して得られるフィルタのタップ係数を示している。このとき、各タップ係数Ck(ただし、kは整数)は一般的に知られているsinc関数となり、画素ごとのサンプリングの位相差θ(102)を補償するために(-θ)だけシフトし、Ck=2sin(πk+θ)/(πk+θ)とすればよい。なお、アップレート器(103)では、位相差θ(102)を0とおき、Ck=2sin(πk)/(πk)とすればよい。また、位相差θ(102)を、整数画素単位(2π)の位相差+小数画素単位の位相差で表すことにより、整数画素単位の位相差の補償については単純な画素シフトにより実現し、小数画素単位の位相差の補償については上記アップレート器(103)(104)のフィルタを用いてもよい。   FIG. 6 shows a specific example of the up-raters (103) (104) used in the first embodiment of the present invention. This figure shows the tap coefficients of the filter obtained by inverse Fourier transform of the frequency characteristics shown in FIG. At this time, each tap coefficient Ck (where k is an integer) is a generally known sinc function, and is shifted by (−θ) to compensate for the sampling phase difference θ (102) for each pixel, Ck = 2sin (πk + θ) / (πk + θ) may be set. In the up-rate device (103), the phase difference θ (102) is set to 0 and Ck = 2sin (πk) / (πk). In addition, by expressing the phase difference θ (102) by the phase difference in integer pixel units (2π) + the phase difference in decimal pixel units, the phase difference compensation in integer pixel units is realized by a simple pixel shift, and decimal For compensation of the phase difference in units of pixels, the filters of the up-raters (103) and (104) may be used.

図7に、本発明の実施例1に用いるπ/2位相シフト器(106)(108)の動作例を示す。π/2位相シフト器(106)(108)として、一般に知られているヒルベルト変換器を用いることができる。   FIG. 7 shows an operation example of the π / 2 phase shifters (106) and (108) used in the first embodiment of the present invention. A generally known Hilbert transformer can be used as the π / 2 phase shifters (106) and (108).

同図(a)において、横軸は周波数を、縦軸は利得(入力信号振幅に対する出力信号振幅の比の値)を表し、ヒルベルト変換器の「周波数-利得」特性を示している。ここで、ヒルベルト変換器では、もとの信号のサンプリング周波数(fs)に対して2倍の周波数(2fs)を新しいサンプリング周波数として、-fs〜+fsの間の0を除く周波数成分をすべて利得1.0の通過帯域とする。   In FIG. 5A, the horizontal axis represents frequency, and the vertical axis represents gain (value of the ratio of output signal amplitude to input signal amplitude), indicating the “frequency-gain” characteristics of the Hilbert transformer. Here, in the Hilbert transformer, the frequency (2fs) that is twice the sampling frequency (fs) of the original signal is used as a new sampling frequency, and all frequency components except -0 between -fs and + fs are gained. A pass band of 1.0.

また、同図(b)において、横軸は周波数を、縦軸は位相差(入力信号位相に対する出力信号位相の差)を表し、ヒルベルト変換器の「周波数-位相差」特性を示している。ここで、0〜fsの間の周波数成分についてはπ/2だけ位相を遅らせ、0〜-fsの間の周波数成分についてはπ/2だけ位相を進ませる。このとき、同図に示すように、デジタル信号の対称性により、2fsの整数倍の周波数ごとに繰り返す特性となる。   In FIG. 2B, the horizontal axis represents frequency, and the vertical axis represents phase difference (difference in output signal phase with respect to input signal phase), indicating the “frequency-phase difference” characteristic of the Hilbert transformer. Here, the phase of the frequency component between 0 and fs is delayed by π / 2, and the phase of the frequency component between 0 and −fs is advanced by π / 2. At this time, as shown in the figure, due to the symmetry of the digital signal, the characteristic repeats every frequency that is an integral multiple of 2fs.

図8に、本発明の実施例1に用いるπ/2位相シフト器(106)(108)をヒルベルト変換器で構成した例を示す。同図は、図7に示した周波数特性を逆フーリエ変換して得られるフィルタのタップ係数を示している。このとき、各タップ係数Ckは、k=2m(ただしmは整数)のときはCk=0とし、k=2m+1のときはCk=-2/(πk)とすればよい。   FIG. 8 shows an example in which the π / 2 phase shifters (106) and (108) used in the first embodiment of the present invention are configured by Hilbert transformers. This figure shows the filter tap coefficients obtained by inverse Fourier transform of the frequency characteristics shown in FIG. At this time, each tap coefficient Ck may be Ck = 0 when k = 2m (where m is an integer), and Ck = −2 / (πk) when k = 2m + 1.

なお、本発明の実施例1に用いるπ/2位相シフト器(106)(108)は、微分器を用いることも可能である。この場合、正弦波を表す一般式cos(ωt+α)をtで微分して1/ωを乗じると、d(cos(ωt+α))/dt*(1/ω)=-sin(ωt+α)=cos(ωt+α+π/2)となり、π/2位相シフトの機能を実現できる。すなわち、対象とする画素の値と隣接画素の値との差分を取ったのちに、1/ωの「周波数-振幅」特性を持ったフィルタを掛けることによってπ/2位相シフトの機能を実現してもよい。   The π / 2 phase shifters (106) and (108) used in Embodiment 1 of the present invention can also use differentiators. In this case, if the general expression cos (ωt + α) representing a sine wave is differentiated by t and multiplied by 1 / ω, d (cos (ωt + α)) / dt * (1 / ω) =-sin (ωt + α) = cos (ωt + α + π / 2), and the function of π / 2 phase shift can be realized. In other words, after taking the difference between the value of the target pixel and the value of the adjacent pixel, a π / 2 phase shift function is realized by applying a filter with a frequency / amplitude characteristic of 1 / ω. May be.

図9に、本発明の実施例1に用いる係数決定器(109)の動作と具体例を示す。同図(a)に示すように、図4(b)に示した4つの成分のベクトル和を取ったときに、Re軸の成分を1とし、Im軸の成分を0とするとともに、図4(c)に示した4つの成分のベクトル和を取ったときに、Re軸とIm軸の両方の成分を0とするように、各成分に乗算する係数を決定すれば、2枚のフレーム画像だけを用いて、1次元方向の2倍の高解像度化行う画像信号処理装置を実現できる。   FIG. 9 shows an operation and a specific example of the coefficient determiner (109) used in the first embodiment of the present invention. As shown in FIG. 4A, when the vector sum of the four components shown in FIG. 4B is taken, the Re-axis component is set to 1, the Im-axis component is set to 0, and FIG. If the coefficients to be multiplied by each component are determined so that both the Re-axis and Im-axis components are 0 when the vector sum of the four components shown in (c) is taken, two frame images Can be used to realize an image signal processing apparatus that achieves a resolution twice as high as that in the one-dimensional direction.

ここで、図1に示すように、遅延器(105)の出力(アップレート後のフレーム#1の原成分と折返し成分の和)に対する係数をC0、π/2位相シフト器(106)の出力(アップレート後のフレーム#1の原成分と折返し成分のそれぞれのπ/2位相シフト結果の和)に対する係数をC1、遅延器(107)の出力(アップレート後のフレーム#2の原成分と折返し成分の和)に対する係数をC2、ヒルベルト変換器(106)の出力(アップレート後のフレーム#2の原成分と折返し成分のそれぞれのπ/2位相シフト結果の和)に対する係数をC3とする。   Here, as shown in FIG. 1, the coefficient for the output of the delay unit (105) (the sum of the original component and the folded component of the frame # 1 after the up-rate) is C0, and the output of the π / 2 phase shifter (106) The coefficient for (the sum of the π / 2 phase shift results of the original component and the folded component of frame # 1 after the up-rate) is C1, and the output of the delay unit (107) (the original component of frame # 2 after the up- The coefficient for the sum of the aliasing components) is C2, and the factor for the output of the Hilbert transformer (106) (the sum of the π / 2 phase shift results of the original and aliasing components of frame # 2 after the update) is C3. .

このとき、図9(a)の条件を満たすようにすると、図4(b)および図4(c)に示した各成分の位相関係から、図9(b)に示す連立方程式を得ることができ、これを解くと図9(c)に示す結果を導くことができる。   At this time, if the conditions of FIG. 9 (a) are satisfied, the simultaneous equations shown in FIG. 9 (b) can be obtained from the phase relationships of the components shown in FIGS. 4 (b) and 4 (c). If this is solved, the result shown in FIG. 9 (c) can be derived.

本実施例に係る係数決定器(109)は、図9(a)、図9(b)、図9(c)のいずれかを満たす係数C0、C1、C2、C3を出力する。   The coefficient determiner (109) according to the present embodiment outputs coefficients C0, C1, C2, and C3 that satisfy any one of FIGS. 9 (a), 9 (b), and 9 (c).

一例として、位相差θ(102)をπ/8ごとに0〜2πまで変化させたときの係数C0、C1、C2、C3の値を、図9(d)に示す。これは、もとのフレーム#2の信号を、1/16画素の精度で位置推定し、フレーム#1に対して動き補償した場合に相当する。位相差θ(102)の値が0未満、あるいは2π以上の場合には、sin関数やcos関数の周期性を利用し、位相差θ(102)の値に2πの整数倍の値を、加算あるいは減算することにより、位相差θ(102)が0〜2πの範囲に収まるようにすればよい。   As an example, FIG. 9 (d) shows values of the coefficients C0, C1, C2, and C3 when the phase difference θ (102) is changed from 0 to 2π every π / 8. This corresponds to a case where the position of the signal of the original frame # 2 is estimated with an accuracy of 1/16 pixel and motion compensation is performed on the frame # 1. When the value of phase difference θ (102) is less than 0 or 2π or more, use the periodicity of sin function or cos function and add the value of integer multiple of 2π to the value of phase difference θ (102) Alternatively, subtraction may be performed so that the phase difference θ (102) falls within the range of 0 to 2π.

なお、アップレート器(103)(104)およびπ/2位相シフト器(106)(107)は、理想的な特性を得るためには無限大のタップ数を必要とするが、タップ数を有限個で打ち切って簡略化しても実用上問題ない。このとき、一般的な窓関数(例えばハニング窓関数やハミング窓関数など)を用いてもよい。簡略化したヒルベルト変換器の各タップの係数を、C0を中心として左右点対象の値、すなわちC(-k)=-Ck(kは整数)とすれば、位相を一定量だけシフトすることができる。   The up-raters (103) (104) and π / 2 phase shifters (106) (107) require an infinite number of taps to obtain ideal characteristics, but the number of taps is finite. There is no practical problem even if it is cut off and simplified. At this time, a general window function (such as a Hanning window function or a Hamming window function) may be used. If the coefficient of each tap of the simplified Hilbert transformer is the value of the left and right points centered on C0, that is, C (-k) = -Ck (k is an integer), the phase can be shifted by a certain amount. it can.

次に、図17を用いて、実施例1に係る画像信号処理装置と上記従来技術の動作の違いを説明する。同図(a)において、フレーム#1(1701)からフレーム#5(1705)の間に、被写体が右方向に移動するような入力画像を用意する。この際、同図(b)に示すように、各フレームにおけるサンプリング位相を見ると、フレーム#1(1701)とフレーム#2(1702)の間では対応画素の位置が1/4画素(=π/2)ずれており、フレーム#1(1701)とフレーム#3(1703)の間では対応画素の位置が1画素(=2π)ずれており、フレーム#1(1701)とフレーム#4(1704)の間では対応画素の位置が5/4画素(=5π/2)ずれており、フレーム#1(1701)とフレーム#5(1705)の間では対応画素の位置が2画素(=4π)ずれているように、意図的に被写体を移動させる。このとき、各フレーム上の信号に含まれるそれぞれの折返し成分の位相は、フレーム#1(1701)上の信号に含まれる折返し成分の位相を基準にして、同図(c)のように表すことができる。この入力画像(a)に対して2倍の高解像度化を行う場合、上記従来技術では、フレーム#1(1701)からフレーム#5(1705)の中のどの3フレームを用いても折返し成分のベクトル和を0にすることができないため、高解像度化は実現できない。一方、本実施例を用いれば、例えば、隣接する2フレーム(例:フレーム#1(1701)とフレーム#2(1702))を用いて折返し成分のベクトル和を0にできるため、高解像度化を実現できる。すなわち、同図(a)の入力画像をテストパターンとして用いることにより、本実施例の動作状況を確認することができる。   Next, a difference in operation between the image signal processing apparatus according to the first embodiment and the above-described conventional technique will be described with reference to FIG. In FIG. 9A, an input image is prepared so that the subject moves in the right direction between frame # 1 (1701) and frame # 5 (1705). At this time, as shown in FIG. 4B, when the sampling phase in each frame is viewed, the corresponding pixel position is 1/4 pixel (= π) between frame # 1 (1701) and frame # 2 (1702). / 2) The position of the corresponding pixel is shifted by 1 pixel (= 2π) between frame # 1 (1701) and frame # 3 (1703), and frame # 1 (1701) and frame # 4 (1704 ), The corresponding pixel position is shifted by 5/4 pixels (= 5π / 2), and the corresponding pixel position is 2 pixels (= 4π) between frame # 1 (1701) and frame # 5 (1705). The subject is intentionally moved so that it is displaced. At this time, the phase of each folded component included in the signal on each frame is expressed as shown in FIG. 7C with reference to the phase of the folded component included in the signal on frame # 1 (1701). Can do. When the resolution of the input image (a) is increased by a factor of 2, in the above-described conventional technique, the aliasing component of any of the three frames from frame # 1 (1701) to frame # 5 (1705) is used. Since the vector sum cannot be reduced to 0, high resolution cannot be realized. On the other hand, if this embodiment is used, for example, the vector sum of the aliasing component can be set to 0 using two adjacent frames (eg, frame # 1 (1701) and frame # 2 (1702)). realizable. That is, the operation status of the present embodiment can be confirmed by using the input image of FIG.

以上の実施例1の説明においては、水平方向の高解像度化を例に挙げて説明したが、本発明の各実施の態様は、これに限定されるわけではなく、垂直方向や斜め方向の高解像度化に適用することが可能である。   In the above description of the first embodiment, the description has been given by taking the high resolution in the horizontal direction as an example. However, the embodiments of the present invention are not limited to this, and the vertical and oblique height increases. It can be applied to resolution.

以上説明した実施例1に係る画像信号処理装置によれば、従来例よりも少ない2枚の入力画像フレームの各画像信号に対して位相シフトを行い、各画像信号からそれぞれ2つの信号を生成する。これにより、2枚の入力画像フレームの画像信号から4つの信号を生成することができる。ここで、2枚の入力画像フレームの位相差に基づいて、当該4つの信号の各信号について、当該4つの信号の折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成する画像のそれぞれの画素について、上記4つの信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。これを生成画像の各画素について行うことにより、新たな高解像度画像を生成することができる。   According to the image signal processing apparatus according to the first embodiment described above, phase shift is performed on each image signal of two input image frames, which is smaller than in the conventional example, and two signals are generated from each image signal. . Thereby, four signals can be generated from the image signals of the two input image frames. Here, based on the phase difference between the two input image frames, for each of the four signals, a coefficient for canceling and combining the aliasing components of the four signals is calculated for each pixel. For each pixel of the image to be generated, a sum is calculated by multiplying the pixel value of the corresponding pixel included in each of the four signals by each coefficient to generate a pixel value of a new high-resolution image. By performing this for each pixel of the generated image, a new high-resolution image can be generated.

これにより、実施例1に係る画像信号処理装置は、従来例よりも少ない2枚の入力画像フレームを用いて、折り返し成分が少なく、入力画像より高解像度な画像を生成することができる。   Thereby, the image signal processing apparatus according to the first embodiment can generate an image with less aliasing components and higher resolution than the input image by using two input image frames that are smaller than those in the conventional example.

また、実施例1に係る画像信号処理装置は、従来例よりも少ない2枚の入力画像フレームを用いるため、必要な画像処理の量を従来例より低減できる。これにより、折り返し成分が少なく、入力画像より高解像度な画像を生成する画像信号処理装置を、従来例よりも低コストに実現することが可能である。   In addition, since the image signal processing apparatus according to the first embodiment uses two input image frames that are fewer than the conventional example, the amount of necessary image processing can be reduced as compared with the conventional example. As a result, an image signal processing apparatus that generates an image with less aliasing components and higher resolution than the input image can be realized at a lower cost than the conventional example.

次に、図18及び図14を用いて、本発明の実施例2について説明する。   Next, Embodiment 2 of the present invention will be described with reference to FIGS.

実施例2は、実施例1に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。   The second embodiment relates to an image signal processing method in which processing equivalent to the image signal processing in the image signal processing apparatus according to the first embodiment is realized by a control unit that cooperates with software.

まず、図18を用いて本実施例に係る画像信号処理方法を実現するための画像処理装置について説明する。図18に示す画像信号処理装置は、例えばテレビジョン放送信号などの画像信号が入力される入力部(1)と、入力部(1)から入力された信号を処理するためのソフトウェアを記憶する記憶部(11)と、記憶部(11)に記憶されるソフトウェアと協働して入力部(1)から入力された信号について画像信号処理を行う制御部(10)と、制御部(10)が当該画像信号処理においてデータのバッファに用いるフレームバッファ#1(21)、フレームバッファ#2(22)と、制御部(10)から出力部(3)に出力される画像信号処理後の信号を、フレームバッファするためのバッファ#3(23)とを備える。   First, an image processing apparatus for realizing the image signal processing method according to the present embodiment will be described with reference to FIG. The image signal processing apparatus shown in FIG. 18 stores, for example, an input unit (1) to which an image signal such as a television broadcast signal is input, and software for processing the signal input from the input unit (1). A control unit (10) that performs image signal processing on a signal input from the input unit (1) in cooperation with software stored in the unit (11), the storage unit (11), and a control unit (10) Frame buffer # 1 (21) used for data buffer in the image signal processing, frame buffer # 2 (22), and the signal after image signal processing output from the control unit (10) to the output unit (3), And buffer # 3 (23) for frame buffering.

ここで、図18に示す画像信号処理装置が備える入力部(1)の数は、画像処理に用いるフレーム数である2と同じとしたが、入力部(1)を一つだけ備えて、2つフレームを連続して入力しても構わない。   Here, the number of input units (1) included in the image signal processing apparatus shown in FIG. 18 is the same as two, which is the number of frames used for image processing, but only one input unit (1) is provided. One frame may be input continuously.

また、データのバッファに用いるフレームバッファ#1(21)、フレームバッファ#2(22)、およびソフトウェアを記憶する記憶部(11)は、それぞれが個別のメモリチップを用いて構成してもよいし、1個あるいは複数個のメモリチップを用い、各データアドレスを分割して使用する構成にしてもよい。   In addition, the frame buffer # 1 (21), the frame buffer # 2 (22), and the storage unit (11) for storing software used for the data buffer may each be configured using individual memory chips. Alternatively, one or a plurality of memory chips may be used and each data address may be divided and used.

本実施例において、入力部(1)から入力される画像信号について、制御部(10)が記憶部(11)に記憶されるソフトウェアと協働して画像信号処理を行い、表示部(3)に出力する。当該画像信号処理の詳細は図14を用いて説明する。   In this embodiment, for the image signal input from the input unit (1), the control unit (10) performs image signal processing in cooperation with software stored in the storage unit (11), and the display unit (3) Output to. Details of the image signal processing will be described with reference to FIG.

図14に、本実施例に係る画像信号処理方法のフローチャートの一例を示す。図14のフローチャートは、ステップ(1401)から開始し、ステップ(1418)にて各フレームの画像データを2倍にアップレートする。すなわち、ステップ(1402)にてフレーム#1の画像データをアップレートしてフレームバッファ#1に書込み、ステップ(1403)にてフレーム#2の画像データをアップレートしてフレームバッファ#2に書き込む。ここで、アップレートとは、各フレームバッファの値を一旦0でクリアしたのちに、1画素おきにデータを書き込むことにより実現できる。   FIG. 14 shows an example of a flowchart of the image signal processing method according to the present embodiment. The flowchart of FIG. 14 starts from step (1401), and in step (1418), the image data of each frame is doubled. That is, in step (1402), the image data of frame # 1 is updated and written to frame buffer # 1, and in step (1403), the image data of frame # 2 is updated and written to frame buffer # 2. Here, the up-rate can be realized by clearing the value of each frame buffer to 0 and then writing the data every other pixel.

次に、ステップ(1404)にて、フレームバッファ#1の最初の画素(例えば左上の画素)を処理対象に設定して、以下、フレームバッファ#1に対するすべての画素データの処理が終わるまで、処理をループする。   Next, in step (1404), the first pixel (for example, the upper left pixel) of frame buffer # 1 is set as a processing target, and processing is performed until all pixel data processing for frame buffer # 1 is completed. Loop.

ステップ(1405)では、フレームバッファ#1の対象画素を基準にしてフレームバッファ#2の中の対応する画素の位置を推定し、位相差θを出力する。このとき、対応する画素の位置を推定する方法として、上記の従来技術をそのまま用いることができる。   In step (1405), the position of the corresponding pixel in the frame buffer # 2 is estimated with reference to the target pixel in the frame buffer # 1, and the phase difference θ is output. At this time, the above-described conventional technique can be used as it is as a method of estimating the position of the corresponding pixel.

ステップ(1406)では、ステップ(1405)で求めた位相差θをもとに、フレームバッファ#2の中の対応する画素の近傍の画素を動き補償する。このとき、近傍の画素として、ステップ(1408)のπ/2位相シフトの処理で用いる画素データ、すなわち有限のタップ数が作用する範囲の画素データだけを動き補償すればよい。この動き補償の動作は、図5および図6を用いて説明した動作と同一である。   In step (1406), based on the phase difference θ obtained in step (1405), motion compensation is performed on pixels near the corresponding pixel in frame buffer # 2. At this time, only the pixel data used in the π / 2 phase shift processing in step (1408), that is, pixel data in a range where a finite number of taps acts, need to be motion-compensated as neighboring pixels. The motion compensation operation is the same as the operation described with reference to FIGS.

続いて、ステップ(1419)にて、フレームバッファ#1と動き補償したフレームバッファ#2に対して、位相を一定量だけシフトする。すなわち、ステップ(1407)(1408)により、各フレームバッファの中の画素データをπ/2位相シフトする。   Subsequently, in step (1419), the phase is shifted by a certain amount with respect to the frame buffer # 1 and the motion compensated frame buffer # 2. That is, in steps (1407) and (1408), the pixel data in each frame buffer is phase-shifted by π / 2.

続いて、ステップ(1420)にて、位相差θに基づいて図9(a)(b)(c)の条件を満たすように設定した係数C0、C1、C2、C3を用いて、ステップ(1419)の出力データそれぞれに乗算し、これらを加算をすることにより、フレームバッファ#1、#2の画素データから折返し成分を除去し、フレームバッファ#3に出力する。すなわち、ステップ(1409)にて、位相差θをもとに係数C0、C1、C2、C3を決定し、ステップ(1410)(1411)(1412)(1413)にて各係数とフレームバッファ#1、#2の画素データおよびπ/2位相シフト後のデータとそれぞれ乗算したのち、ステップ(1414)にてすべてを加算して、フレームバッファ#3に出力する。この折返し成分除去の動作は、図9を用いて説明した動作と同一である。   Subsequently, in step (1420), the coefficients C0, C1, C2, and C3 set so as to satisfy the conditions of FIGS. 9A, 9B, and 9C based on the phase difference θ are used. ) Are multiplied and added to each other, thereby removing the aliasing component from the pixel data of the frame buffers # 1 and # 2, and outputting the result to the frame buffer # 3. That is, in step (1409), coefficients C0, C1, C2, and C3 are determined based on the phase difference θ, and each coefficient and frame buffer # 1 are determined in steps (1410), (1411), (1412), and (1413). , The pixel data of # 2 and the data after the π / 2 phase shift are respectively multiplied, and then all are added in step (1414) and output to frame buffer # 3. The operation for removing the aliasing component is the same as that described with reference to FIG.

続いて、ステップ(1415)にて、フレームバッファ#1の全画素の処理が完了したかどうかを判定し、完了していなければ、ステップ(1416)で次の画素(例えば右隣の画素)を処理の対象に設定してステップ(1405)以降に戻り、完了していればステップ(1417)にて処理を終了する。   Subsequently, in step (1415), it is determined whether or not the processing of all the pixels in the frame buffer # 1 has been completed.If the processing has not been completed, the next pixel (for example, the right adjacent pixel) is determined in step (1416). The process is set as a process target and the process returns to step (1405) and the subsequent steps.

図14に示すフローチャートの画像信号処理後に、図18に示すフレームバッファ#3にバッファされた信号は、フレーム単位若しくは画素単位にて表示部(3)に出力することができる。   After the image signal processing of the flowchart shown in FIG. 14, the signal buffered in the frame buffer # 3 shown in FIG. 18 can be output to the display unit (3) in frame units or pixel units.

以上のような処理を行うことにより、フレームバッファ#1とフレームバッファ#2の画素データを用いて、フレームバッファ#3に高解像度化した信号を出力することができる。動画に応用する場合は、ステップ(1401)からステップ(1417)に至る処理を、フレームごとに繰り返せばよい。   By performing the processing as described above, it is possible to output a high resolution signal to the frame buffer # 3 using the pixel data of the frame buffer # 1 and the frame buffer # 2. When applied to a moving image, the process from step (1401) to step (1417) may be repeated for each frame.

なお、実施例2に係る画像信号処理方法についても、図17の説明と同様に、上記従来技術の動作の相違を確認することができるが、その結果は実施例1と同様であるので、説明を省略する。   As for the image signal processing method according to the second embodiment, as in the description of FIG. 17, the difference in the operation of the above prior art can be confirmed. Is omitted.

以上説明した実施例2に係る画像信号処理方法によれば、従来例よりも少ない2枚の入力画像フレームの各画像信号に対して位相シフトを行い、各画像信号からそれぞれ2つの信号を生成する。これにより、2枚の入力画像フレームの画像信号から4つの信号を生成することができる。ここで、2枚の入力画像フレームの位相差に基づいて、当該4つの信号の各信号について、当該4つの信号の折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成する画像のそれぞれの画素について、上記4つの信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。これを生成画像の各画素について行うことにより、新たな高解像度画像を生成することができる。   According to the image signal processing method according to the second embodiment described above, phase shift is performed on each image signal of two input image frames, which is smaller than in the conventional example, and two signals are generated from each image signal. . Thereby, four signals can be generated from the image signals of the two input image frames. Here, based on the phase difference between the two input image frames, for each of the four signals, a coefficient for canceling and combining the aliasing components of the four signals is calculated for each pixel. For each pixel of the image to be generated, a sum is calculated by multiplying the pixel value of the corresponding pixel included in each of the four signals by each coefficient to generate a pixel value of a new high-resolution image. By performing this for each pixel of the generated image, a new high-resolution image can be generated.

これにより、実施例2に係る画像信号処理方法は、従来例よりも少ない2枚の入力画像フレームを用いて、折り返し成分が少なく、入力画像より高解像度な画像を生成することができる。   As a result, the image signal processing method according to the second embodiment can generate an image with less aliasing components and higher resolution than the input image using two input image frames that are fewer than those in the conventional example.

また、実施例2に係る画像信号処理方法は、従来例よりも少ない2枚の入力画像フレームを用いるため、必要な画像処理の量を従来例より低減できるという効果がある。   In addition, since the image signal processing method according to the second embodiment uses two smaller input image frames than the conventional example, the amount of necessary image processing can be reduced compared to the conventional example.

図10に、本発明の実施例3を示す。同図に示した構成は、図9(c)に示した係数C0、C1、C2、C3の関係を利用して、図1に示した構成を簡略化したものである。すなわち、C0=C2=1/2であり、C1=-C3=-(1+cosθ)/(2sinθ)であることから、アップレート後のフレーム#1と動き補償・アップレート後のフレーム#2の各信号から、加算器(1001)と減算器(1004)により和と差の信号を生成する。和信号については、fs遮断フィルタ(1002)を介したのちに、乗算器(1003)にてC0(=0.5)を掛けて加算器(1008)に入力する。ここで、fs遮断フィルタ(1002)は、アップレート前のサンプリング周波数(fs)の成分を零点として遮断するフィルタであり、例えば同図の(1011)に示すタップ係数を用いることにより実現できる。このfs遮断フィルタ(1002)は、図7(a)に示したようにヒルベルト変換器(1005)の「周波数-利得」特性にて周波数fsの利得が零点になるために折返し成分を除去できず、周波数fsの不要成分が残留してしまうことを防ぐのが目的である。従って、周波数fsの成分も含めてπ/2位相シフトできる手段をヒルベルト変換器(1005)の替わりに用いれば、このfs遮断フィルタ(1002)は不要になる。   FIG. 10 shows a third embodiment of the present invention. The configuration shown in the figure is a simplified version of the configuration shown in FIG. 1 by utilizing the relationship between the coefficients C0, C1, C2, and C3 shown in FIG. 9C. That is, since C0 = C2 = 1/2 and C1 = -C3 =-(1 + cosθ) / (2sinθ), frame # 1 after the up-rate and frame # 2 after the motion compensation / up-rate From these signals, an adder (1001) and a subtracter (1004) generate sum and difference signals. The sum signal passes through the fs cutoff filter (1002), is then multiplied by C0 (= 0.5) by the multiplier (1003), and is input to the adder (1008). Here, the fs cutoff filter (1002) is a filter that cuts off the component of the sampling frequency (fs) before the up-rate as a zero point, and can be realized by using, for example, a tap coefficient indicated by (1011) in FIG. This fs cutoff filter (1002) cannot remove the aliasing component because the gain of the frequency fs is zero due to the `` frequency-gain '' characteristic of the Hilbert transformer (1005) as shown in FIG. The purpose is to prevent an unnecessary component having a frequency fs from remaining. Therefore, if a means capable of π / 2 phase shift including the frequency fs component is used instead of the Hilbert transformer (1005), the fs cutoff filter (1002) becomes unnecessary.

一方、差信号については、ヒルベルト変換器(1005)にて位相を一定量(=π/2)だけシフトしたのちに、係数決定器(1007)にて位相差(102)に基づいて決定した係数C1を乗算器(1006)で乗算し、加算器(1008)にて加算して出力を得る。ここで、遅延器(1002)とヒルベルト変換器(1005)から成る位相シフト部(1009)は、図1に示した位相シフト部(116)の半分の回路規模で実現できる。また、係数決定器(1007)は図9(c)に示した係数C1だけを出力すればよく、加算器(1001)、減算器(1004)、乗算器(1003)(1006)、加算器(1008)、係数決定器(1007)から成る折返し成分除去部(1010)は乗算器の個数を減らすことができるため、図1に示した折返し成分除去部(117)よりも小さい回路規模で実現できる。   On the other hand, for the difference signal, the coefficient determined by the coefficient determiner (1007) based on the phase difference (102) after shifting the phase by a certain amount (= π / 2) by the Hilbert transformer (1005) C1 is multiplied by a multiplier (1006) and added by an adder (1008) to obtain an output. Here, the phase shift unit (1009) including the delay unit (1002) and the Hilbert transformer (1005) can be realized with a circuit scale that is half that of the phase shift unit (116) shown in FIG. The coefficient determiner (1007) only needs to output the coefficient C1 shown in FIG. 9 (c). The adder (1001), the subtracter (1004), the multipliers (1003) (1006), the adder ( 1008) and the aliasing component removal unit (1010) including the coefficient determiner (1007) can reduce the number of multipliers, and thus can be realized with a smaller circuit scale than the aliasing component removal unit (117) shown in FIG. .

なお、実施例3に係る画像信号処理方法についても、図17の説明と同様に、上記従来技術の動作の相違を確認することができるが、その結果は実施例1と同様であるので、説明を省略する。   As for the image signal processing method according to the third embodiment, as in the description of FIG. 17, the difference in the operation of the above prior art can be confirmed. Is omitted.

また、実施例3に係る画像信号処理装置及び画像信号処理方法についても、垂直方向や斜め方向の高解像度化に適用することが可能である。   The image signal processing apparatus and the image signal processing method according to the third embodiment can also be applied to increase the resolution in the vertical direction and the oblique direction.

以上説明した実施例3に係る画像信号処理装置は、実施例1に係る画像信号処理装置の効果に加えて、実施例1に係る画像信号処理装置よりも小さい回路規模で実現でき、より低コストに実現することが可能である。   In addition to the effects of the image signal processing apparatus according to the first embodiment, the image signal processing apparatus according to the third embodiment described above can be realized with a smaller circuit scale than the image signal processing apparatus according to the first embodiment, and can be realized at a lower cost. Can be realized.

図15を用いて本発明の実施例4に係る画像信号処理方法について説明する。   An image signal processing method according to the fourth embodiment of the present invention will be described with reference to FIG.

実施例4は、実施例3に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。本実施例の画像信号処理方法を行う画像処理装置は実施例2と同様の図18に示す画像処理装置であるので説明を省略する。   The fourth embodiment relates to an image signal processing method in which processing equivalent to image signal processing in the image signal processing apparatus according to the third embodiment is realized by a control unit that cooperates with software. The image processing apparatus that performs the image signal processing method of the present embodiment is the image processing apparatus shown in FIG.

図15に、本実施例の動作のフローチャートの一例を示す。図15のフローチャートは、ステップ(1501)から開始し、ステップ(1518)にて各フレームの画像データをアップレートする。すなわち、ステップ(1502)にてフレーム#1の画像データをアップレートしてフレームバッファ#1に書込み、ステップ(1503)にてフレーム#2の画像データをアップレートしてフレームバッファ#2に書き込む。ここで、アップレートとは、各フレームバッファの値を一旦0でクリアしたのちに、1画素おきにデータを書き込むことにより実現できる。   FIG. 15 shows an example of a flowchart of the operation of the present embodiment. The flowchart of FIG. 15 starts from step (1501), and in step (1518), the image data of each frame is updated. That is, in step (1502), the image data of frame # 1 is updated and written to frame buffer # 1, and in step (1503), the image data of frame # 2 is updated and written to frame buffer # 2. Here, the up-rate can be realized by clearing the value of each frame buffer to 0 and then writing the data every other pixel.

次に、ステップ(1504)にて、フレームバッファ#1の最初の画素(例えば左上の画素)を処理対象に設定して、以下、フレームバッファ#1のすべての画素データの処理が終わるまで、処理をループする。   Next, in step (1504), the first pixel (for example, the upper left pixel) of frame buffer # 1 is set as the processing target, and processing is performed until all pixel data in frame buffer # 1 is processed. Loop.

ステップ(1505)では、フレームバッファ#1の対象画素を基準にしてフレームバッファ#2の中の対応する画素の位置を推定し、位相差θを出力する。このとき、対応する画素の位置を推定する方法として、上記の従来技術をそのまま用いることができる。   In step (1505), the position of the corresponding pixel in the frame buffer # 2 is estimated with reference to the target pixel in the frame buffer # 1, and the phase difference θ is output. At this time, the above-described conventional technique can be used as it is as a method of estimating the position of the corresponding pixel.

ステップ(1506)では、ステップ(1505)で求めた位相差θをもとに、フレームバッファ#2の中の対応する画素の近傍の画素を動き補償する。このとき、「近傍の画素」として、ステップ(1510)のヒルベルト変換の処理で用いる画素データ、すなわち有限のタップ数が作用する範囲の画素データだけを動き補償すればよい。この動き補償の動作は、図5および図6を用いて説明した動作と同一である。   In step (1506), based on the phase difference θ obtained in step (1505), pixels near the corresponding pixel in the frame buffer # 2 are motion compensated. At this time, as the “neighboring pixels”, only the pixel data used in the Hilbert transform processing in step (1510), that is, the pixel data in the range where the finite number of taps acts is compensated for motion. The motion compensation operation is the same as the operation described with reference to FIGS.

続いて、ステップ(1520)にて、位相差θに基づいてフレームバッファ#1、#2の画素データから折返し成分を除去し、フレームバッファ#3に出力する。まず、ステップ(1507)にて、フレームバッファ#1の画素データの値と動き補償したフレームバッファ#2の画素データの値を加算し、ステップ(1509)にて周波数fsの成分を遮断する。このfs遮断フィルタ(1509)の動作は、図10に示した(1002)の動作と同一である。   Subsequently, in step (1520), the aliasing component is removed from the pixel data of the frame buffers # 1 and # 2 based on the phase difference θ and output to the frame buffer # 3. First, in step (1507), the value of pixel data in frame buffer # 1 and the value of pixel data in frame buffer # 2 subjected to motion compensation are added. In step (1509), the frequency fs component is cut off. The operation of this fs cutoff filter (1509) is the same as the operation of (1002) shown in FIG.

また、ステップ(1508)にて、フレームバッファ#1の画素データの値から動き補償したフレームバッファ#2の画素データの値を減算する。ここで、減算した結果に対して、ステップ(1519)にて位相を一定量だけシフトする。すなわち、同様に減算した近傍のデータも用いて、ステップ(1510)にてヒルベルト変換する。この位相シフトの動作は、図7および図8を用いて説明した動作と同一である。   In step (1508), the pixel data value of the frame buffer # 2 subjected to motion compensation is subtracted from the pixel data value of the frame buffer # 1. Here, with respect to the subtraction result, the phase is shifted by a certain amount in step (1519). That is, the Hilbert transform is performed in step (1510) using the neighboring data similarly subtracted. The phase shift operation is the same as the operation described with reference to FIGS.

続いて、ステップ(1511)にて上記加算後のデータに係数C0(=0.5)を乗算するとともに、ステップ(1512)にて位相差θをもとに係数C1を決定し、ステップ(1513)にて係数C1とヒルベルト変換後のデータを乗算したのち、ステップ(1514)にて両者のデータを加算して、フレームバッファ#3に出力する。この折返し成分除去の動作は、図10を用いて説明した動作と同一である。   Subsequently, in step (1511), the data after the addition is multiplied by a coefficient C0 (= 0.5), and in step (1512), a coefficient C1 is determined based on the phase difference θ, and then in step (1513). After multiplying the coefficient C1 by the Hilbert transformed data, the two data are added in step (1514) and output to the frame buffer # 3. The operation of removing the aliasing component is the same as that described with reference to FIG.

続いて、ステップ(1515)にて、フレームバッファ#1の全画素の処理が完了したかどうかを判定し、完了していなければ、ステップ(1516)で次の画素(例えば右隣の画素)を処理の対象に設定してステップ(1505)以降に戻り、完了していればステップ(1517)にて処理を終了する。   Subsequently, in step (1515), it is determined whether or not the processing of all the pixels in the frame buffer # 1 has been completed.If the processing has not been completed, the next pixel (for example, the right adjacent pixel) is determined in step (1516). The process is set as a process target, and the process returns to step (1505) and subsequent steps. If completed, the process ends at step (1517).

図15に示すフローチャートの画像信号処理後に、図18に示すフレームバッファ#3にバッファされた信号は、フレーム単位若しくは画素単位にて表示部(3)に出力することができる。   After the image signal processing of the flowchart shown in FIG. 15, the signal buffered in the frame buffer # 3 shown in FIG. 18 can be output to the display unit (3) in frame units or pixel units.

以上のような処理を行うことにより、フレームバッファ#1とフレームバッファ#2の画素データを用いて、フレームバッファ#3に高解像度化した信号を出力することができる。動画に応用する場合は、ステップ(1501)からステップ(1517)に至る処理を、フレームごとに繰り返せばよい。   By performing the processing as described above, it is possible to output a high resolution signal to the frame buffer # 3 using the pixel data of the frame buffer # 1 and the frame buffer # 2. When applied to a moving image, the process from step (1501) to step (1517) may be repeated for each frame.

なお、実施例4に係る画像信号処理方法についても、図17を用いて、上記従来技術の動作の相違を確認することができるが、その結果は実施例1と同様であるので、説明を省略する。   The image signal processing method according to the fourth embodiment can also be confirmed by using FIG. 17 to confirm the difference in operation of the above prior art, but the result is the same as that of the first embodiment, and the description thereof is omitted. To do.

また、実施例4に係る画像信号処理方法についても、垂直方向や斜め方向の高解像度化に適用することが可能である。   The image signal processing method according to the fourth embodiment can also be applied to increase the resolution in the vertical direction and the oblique direction.

以上説明した実施例4に係る画像信号処理方法は、実施例2に係る画像信号処理方法と同様の画像信号高解像度化の効果を有する。さらに実施例4に係る画像信号処理方法は、実施例2に係る画像信号処理方法に比べて一部の処理ステップの内容を共通化することにより、実施例2に係る画像信号処理方法よりも少ない処理量(演算数)で同様の信号処理を実現することが可能であるという効果を有する。   The image signal processing method according to the fourth embodiment described above has the same effect of increasing the resolution of the image signal as the image signal processing method according to the second embodiment. Furthermore, the image signal processing method according to the fourth embodiment is less than the image signal processing method according to the second embodiment by sharing the contents of some processing steps as compared with the image signal processing method according to the second embodiment. There is an effect that it is possible to realize the same signal processing with a processing amount (the number of operations).

図11に、本発明の実施例5を示す。同図に示す構成は、図9(d)に示したように位相差θが0のときに係数C1、C3が不定になることや、位相差θが0に近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になることを防ぐために、図10に示した構成をベースとして、位相差θが0近傍になったときに補助的画素補間部(1105)からの出力に切り替えるように構成したものである。すなわち、一般的な補間ローパスフィルタ(1101)をバイパス経路として用意し、係数決定器(1103)にて上述した係数C0、C1のほかに新たにC4を生成して、乗算器(1102)にて補間ローパスフィルタ(1101)の出力と係数C4を乗算し、加算器(1104)で高解像度化した信号に加えて出力する。   FIG. 11 shows a fifth embodiment of the present invention. In the configuration shown in FIG. 9, the coefficients C1 and C3 become indefinite when the phase difference θ is 0 as shown in FIG. 9D, and the coefficients C1 and C3 increase as the phase difference θ approaches 0. Therefore, based on the configuration shown in FIG. 10, when the phase difference θ becomes close to 0, the output from the auxiliary pixel interpolation unit (1105) is switched. It is composed. In other words, a general interpolation low-pass filter (1101) is prepared as a bypass path, and in addition to the above-described coefficients C0 and C1 in the coefficient determiner (1103), C4 is newly generated, and the multiplier (1102) The output of the interpolation low-pass filter (1101) is multiplied by the coefficient C4, and the result is output in addition to the signal whose resolution has been increased by the adder (1104).

補間ローパスフィルタ(1101)、乗算器(1102)、係数決定器(1103)、加算器(1104)、補助的画素補間部(1105)以外の構成は、図10に示した実施例3の構成と同一であるため説明を省略する。   The configuration other than the interpolation low-pass filter (1101), multiplier (1102), coefficient determiner (1103), adder (1104), and auxiliary pixel interpolation unit (1105) is the same as that of the third embodiment shown in FIG. Since it is the same, description is abbreviate | omitted.

図12に、本発明の実施例5に用いる補間ローパスフィルタ(1101)の具体例を示す。同図は、もとのサンプリング周波数fsの1/2をカットオフ周波数とする周波数特性を逆フーリエ変換して得られるフィルタのタップ係数を示している。このとき、各タップ係数Ck(ただし、kは整数)は一般的なsinc関数となり、Ck=sin(πk/2)/(πk/2)とすればよい。   FIG. 12 shows a specific example of the interpolation low-pass filter (1101) used in the fifth embodiment of the present invention. This figure shows the tap coefficient of the filter obtained by inverse Fourier transform of the frequency characteristic with the cutoff frequency being 1/2 of the original sampling frequency fs. At this time, each tap coefficient Ck (where k is an integer) becomes a general sinc function, and may be Ck = sin (πk / 2) / (πk / 2).

図13に、本発明の実施例5に用いる係数決定器(1103)の具体例を示す。同図は、図9(d)に示した係数C0、C1をベースとし、通常は新たな係数C4を0としているが、位相差θが0近傍になったときに、係数C1の値を強制的に0にするとともに、係数C4の値を1.0とする動作を示している。この動作により、図11に示す構成において、位相差θ(102)が0あるいは0近傍になったときに、加算器(1104)の出力を自動的に補間ローパスフィルタ(1101)の出力に切替えることができるようになる。なお、位相差θが0に近づくとともに、図12に示した係数から図13に示した係数に連続的に徐々に近づけるようにしてもよい。また、図1における位置推定部(101)にて、フレーム#1上の処理対象の画素に対応した画素がフレーム#2上にないと判定された場合も、位相差θ(102)が0近傍になったときと同様に各係数を制御して、加算器(1104)の出力を自動的に補間ローパスフィルタ(1101)の出力に切替えてもよい。   FIG. 13 shows a specific example of the coefficient determiner (1103) used in the fifth embodiment of the present invention. This figure is based on the coefficients C0 and C1 shown in Fig. 9 (d), and normally the new coefficient C4 is 0, but when the phase difference θ is close to 0, the value of the coefficient C1 is forced. The operation of setting the coefficient C4 to 1.0 and setting the coefficient C4 to 1.0 is shown. This operation automatically switches the output of the adder (1104) to the output of the interpolation low-pass filter (1101) when the phase difference θ (102) becomes 0 or close to 0 in the configuration shown in FIG. Will be able to. Note that, as the phase difference θ approaches 0, the coefficient shown in FIG. 12 may be gradually and gradually approximated to the coefficient shown in FIG. Also, when the position estimation unit (101) in FIG. 1 determines that the pixel corresponding to the pixel to be processed on the frame # 1 is not on the frame # 2, the phase difference θ (102) is close to zero. As in the case of the above, each coefficient may be controlled to automatically switch the output of the adder (1104) to the output of the interpolation low-pass filter (1101).

なお、実施例5に係る画像信号処理装置についても、図17を用いて、上記従来技術の動作の相違を確認することができるが、その結果は実施例1と同様であるので、説明を省略する。   Note that the image signal processing apparatus according to the fifth embodiment can also confirm the difference in operation of the above-described conventional technique with reference to FIG. 17, but the result is the same as that of the first embodiment, and thus the description thereof is omitted. To do.

また、実施例5に係る画像信号処理装置についても、垂直方向や斜め方向の高解像度化に適用することが可能である。   The image signal processing apparatus according to the fifth embodiment can also be applied to increase the resolution in the vertical direction and the oblique direction.

以上説明した実施例5に係る画像信号処理装置は、実施例3に係る画像信号処理装置の効果に加えて、実施例3に係る画像信号処理装置よりも、位相差θ(102)が0あるいは0近傍になったとき(すなわち静止、あるいはほぼ静止)やフレーム#1上の処理対象の画素に対応した画素がフレーム#2上にないと判定された場合にも処理結果が不定になることなく、安定した出力画像を得ることが可能であるという効果を有する。   In addition to the effects of the image signal processing device according to the third embodiment, the image signal processing device according to the fifth embodiment described above has a phase difference θ (102) of 0 or 0 as compared with the image signal processing device according to the third embodiment. The processing result will not be undefined even when it is close to 0 (i.e., still or almost stationary) or when it is determined that the pixel corresponding to the pixel to be processed on frame # 1 is not on frame # 2. This has the effect that a stable output image can be obtained.

図16を用いて本発明の実施例6に係る画像信号処理方法について説明する。   An image signal processing method according to the sixth embodiment of the present invention will be described with reference to FIG.

実施例6は、実施例5に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。本実施例の画像信号処理方法を行う画像処理装置は実施例2と同様の図18に示す画像処理装置であるので説明を省略する。   Example 6 relates to an image signal processing method in which processing equivalent to image signal processing in the image signal processing apparatus according to Example 5 is realized by a control unit that cooperates with software. The image processing apparatus that performs the image signal processing method of the present embodiment is the image processing apparatus shown in FIG.

図16に、本実施例の動作のフローチャートの一例を示す。同図に示した処理ステップの動作は、図9(d)に示したように位相差θが0のときに係数C1、C3が不定になることや、位相差θが0に近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になることを防ぐために、実施例4において説明した図15の各ステップをベースとして、位相差θが0あるいは0近傍になったときにステップ(1606)の処理結果をフレームバッファ#3に出力するように構成したものである。すなわち、ステップ(1601)にて位相差θをもとに係数C0、C1、C4を決定し、ステップ(1602)にてフレームバッファ#1の中の対象の画素データとその近傍の画素データを用いて一般的な補間ローパスフィルタ処理を行ったのちに、ステップ(1603)にて係数C4を乗算して、ステップ(1604)にてステップ(1511)(1513)の出力と加算してフレームバッファ#3に出力する。   FIG. 16 shows an example of a flowchart of the operation of the present embodiment. As shown in FIG. 9 (d), the processing steps shown in FIG. 9 are performed when the coefficients C1 and C3 become indefinite when the phase difference θ is 0, and as the phase difference θ approaches 0, the coefficient C1 In order to prevent the noise from being weakened by increasing C3, the step (1606) is performed when the phase difference θ becomes 0 or near 0 based on the steps of FIG. 15 described in the fourth embodiment. This processing result is output to the frame buffer # 3. That is, coefficients C0, C1, and C4 are determined based on the phase difference θ in step (1601), and the target pixel data in frame buffer # 1 and its neighboring pixel data are used in step (1602). After performing general interpolation low-pass filter processing, the coefficient C4 is multiplied in step (1603), and the result is added to the outputs of steps (1511) and (1513) in step (1604) to obtain frame buffer # 3. Output to.

これら以外のステップは、実施例4において説明した図15の処理ステップと同一であるため、説明を省略する。なお、ステップ(1601)での係数決定の動作は、図13に示した動作と同一であるため、説明を省略する。また、ステップ(1602)での補間ローパスフィルタの動作は、図12に示した動作と同一であるため、説明を省略する。   Steps other than these are the same as the processing steps of FIG. 15 described in the fourth embodiment, and a description thereof will be omitted. The coefficient determination operation in step (1601) is the same as the operation shown in FIG. The operation of the interpolation low-pass filter in step (1602) is the same as that shown in FIG.

なお、実施例6に係る画像信号処理方法についても、図17を用いて、上記従来技術の動作の相違を確認することができるが、その結果は実施例1と同様であるので、説明を省略する。   Note that the image signal processing method according to the sixth embodiment can also be confirmed by using FIG. 17 to confirm the difference in operation of the above-described conventional technique, but the result is the same as that of the first embodiment, and thus the description thereof is omitted. To do.

なお、実施例6に係る画像信号処理方法についても、垂直方向や斜め方向の高解像度化に適用することが可能である。   Note that the image signal processing method according to the sixth embodiment can also be applied to increase the resolution in the vertical and oblique directions.

以上説明した実施例6に係る画像信号処理方法は、実施例4に係る画像信号処理方法の効果に加えて、実施例4に係る画像処理方法よりも、位相差θ(102)が0あるいは0近傍になったとき(すなわち静止、あるいはほぼ静止)やフレーム#1上の処理対象の画素に対応した画素がフレーム#2上にないと判定された場合にも処理結果が不定になることなく、安定した出力画像を得ることが可能であるという効果を有する。   In the image signal processing method according to the sixth embodiment described above, in addition to the effect of the image signal processing method according to the fourth embodiment, the phase difference θ (102) is 0 or 0 as compared with the image processing method according to the fourth embodiment. Even when it is determined that the pixel corresponding to the pixel to be processed on frame # 1 is not on frame # 2 when it is close (i.e., still or almost still), the processing result is not uncertain, This has the effect that a stable output image can be obtained.

図20に、本発明の実施例7に係る画像信号処理装置を示す。本実施例に係る画像処理装置は、例えばテレビジョン放送信号などの動画像のフレーム列が入力される入力部(1)と、この入力部(1)から入力されたフレームを水平・垂直方向を組み合わせた2次元の高解像度化するための解像度変換部(4)と、更にこの解像度変換部(4)によって高解像度化されたフレームに基づき画像を表示する表示部(3)とを備えている。   FIG. 20 shows an image signal processing apparatus according to Embodiment 7 of the present invention. The image processing apparatus according to the present embodiment includes, for example, an input unit (1) to which a frame sequence of a moving image such as a television broadcast signal is input, and a frame input from the input unit (1) in the horizontal and vertical directions. A resolution conversion unit (4) for increasing the combined two-dimensional resolution and a display unit (3) for displaying an image based on the frame whose resolution has been increased by the resolution conversion unit (4) are provided. .

この解像度変換部(4)では、水平方向および垂直方向のそれぞれに解像度変換処理を行い、それぞれの結果のうち解像度向上効果が大きい成分を選択的に、もしくは混合させて出力することにより、2次元の高解像度化を実現する。以下、解像度変換部(4)の詳細について説明する。   In this resolution conversion unit (4), by performing resolution conversion processing in each of the horizontal direction and the vertical direction, a component having a large resolution improvement effect is selectively or mixedly output from each result, thereby two-dimensionally. Realize higher resolution. Details of the resolution conversion unit (4) will be described below.

図20において、入力部(1)に入力されたフレーム#1(2010)とフレーム#2(2013)をもとに、水平解像度変換部(2001)と垂直解像度変換部(2005)を用いて、水平方向の画素数を増加させたフレーム(2011)と垂直方向の画素数を増加させたフレーム(2014)をそれぞれ生成する。   In FIG. 20, based on frame # 1 (2010) and frame # 2 (2013) input to the input unit (1), a horizontal resolution conversion unit (2001) and a vertical resolution conversion unit (2005) are used. A frame (2011) with an increased number of pixels in the horizontal direction and a frame (2014) with an increased number of pixels in the vertical direction are generated.

ここで、各解像度変換部(2001)(2005)は、図1に示す本発明の実施例1に係る画像信号処理装置の解像度変換部(2)の構成をそのまま用いて、水平方向および垂直方向の信号処理をそれぞれ行う。この際、水平解像度変換部(2001)では、図1に示したアップレート器(103)(104)、遅延器(105)(107)、π/2位相シフト器(106)(108)は、それぞれ水平方向のアップレート、遅延、π/2位相シフトを行うように構成する。   Here, each resolution conversion unit (2001) (2005) uses the configuration of the resolution conversion unit (2) of the image signal processing apparatus according to the first embodiment of the present invention shown in FIG. Each signal processing is performed. At this time, in the horizontal resolution converter (2001), the up-raters (103) (104), delay units (105) (107), and π / 2 phase shifters (106) (108) shown in FIG. Each is configured to perform horizontal up-rate, delay, and π / 2 phase shift.

同様に、垂直解像度変換部(2005)では、図1に示したアップレート器(103)(104)、遅延器(105)(107)、π/2位相シフト器(106)(108)は、それぞれ垂直方向のアップレート、遅延、π/2位相シフトを行うように構成する。これらは、図5〜図8に示した動作と従来技術等とを用いて実施可能である。   Similarly, in the vertical resolution converter (2005), the up-raters (103) (104), delay units (105) (107), and π / 2 phase shifters (106) (108) shown in FIG. Each is configured to perform vertical uprate, delay, and π / 2 phase shift. These can be implemented using the operations shown in FIGS. 5 to 8 and the prior art.

なお、各解像度変換部(2001)(2005)には、本発明の実施例1に係る画像信号処理装置の解像度変換部の構成の代わりに、本発明の実施例3に係る画像信号処理装置の解像度変換部、本発明の実施例5に係る画像信号処理装置の解像度変換部を用いても実現することが可能である。以下の説明については、本発明の実施例1に係る画像信号処理装置の解像度変換部の構成を用いたものとして説明する。   Each resolution conversion unit (2001) (2005) includes, in place of the configuration of the resolution conversion unit of the image signal processing apparatus according to the first embodiment of the present invention, the image signal processing apparatus according to the third embodiment of the present invention. The present invention can also be realized by using the resolution conversion unit and the resolution conversion unit of the image signal processing apparatus according to the fifth embodiment of the present invention. The following description will be made assuming that the configuration of the resolution conversion unit of the image signal processing apparatus according to the first embodiment of the present invention is used.

本実施例では、被写体が水平・垂直方向の2次元的に移動したことを想定し、図1および図2に示した動作を2次元に拡張する。すなわち、水平解像度変換部(2001)の中の位置推定部(図1中の(101))および動き補償・アップレート部(図1中の(115))では、フレーム#1上の被写体を基準としてフレーム#2上の被写体を2次元的に動き補償するとともに、各フレームの画素のサンプリング位相差のうち、水平位相差θHを折返し成分除去部(図1中の(117))の係数決定に用いる。   In the present embodiment, assuming that the subject has moved two-dimensionally in the horizontal and vertical directions, the operations shown in FIGS. 1 and 2 are extended two-dimensionally. That is, the position estimation unit ((101) in FIG. 1) and the motion compensation / uprate unit ((115) in FIG. 1) in the horizontal resolution conversion unit (2001) use the subject on the frame # 1 as a reference. As described above, the subject on the frame # 2 is compensated for two-dimensional motion, and the horizontal phase difference θH among the sampling phase differences of the pixels of each frame is determined for the coefficient of the aliasing component removal unit ((117) in FIG. 1). Use.

同様に、垂直解像度変換部(2005)の中の位置推定部(図1中の(101))および動き補償・アップレート部(図1中の(115))では、フレーム#1上の被写体(2016)を基準としてフレーム#2上の被写体(2017)を2次元的に動き補償するとともに、各フレームの画素のサンプリング位相差のうち、垂直位相差θVを折返し成分除去部(図1中の(117))の係数決定に用いる。折返し成分除去部(図1中の(117))の係数決定は、図9に示した動作をそのまま用いればよい。   Similarly, in the position estimation unit ((101) in FIG. 1) and the motion compensation / uprate unit ((115) in FIG. 1) in the vertical resolution conversion unit (2005), the subject on frame # 1 ( 2016) as a reference, the subject (2017) on frame # 2 is two-dimensionally motion compensated, and among the sampling phase differences of the pixels of each frame, the vertical phase difference θV is the aliasing component removal unit (in FIG. Used to determine the coefficient of 117)). To determine the coefficient of the aliasing component removal unit ((117) in FIG. 1), the operation shown in FIG. 9 may be used as it is.

被写体が斜め方向に移動した場合を想定すると、水平解像度変換部(2001) によって水平方向の画素数を増加させたフレーム(2011)には斜め方向の歪が含まれることになるが、もともとの入力信号の垂直周波数が低い成分(縦線など)では、この歪が無視できる程度に小さい。同様に、垂直解像度変換部(2005) によって垂直方向の画素数を増加させたフレーム(2014)には斜め方向の歪が含まれることになるが、もともとの入力信号の水平周波数が低い成分(横線など)では、この歪が無視できる程度に小さい。   Assuming that the subject has moved in an oblique direction, the frame (2011) in which the number of pixels in the horizontal direction has been increased by the horizontal resolution converter (2001) will contain diagonal distortion, but the original input In a component with a low vertical frequency of the signal (such as a vertical line), this distortion is small enough to be ignored. Similarly, the frame (2014) in which the number of pixels in the vertical direction has been increased by the vertical resolution converter (2005) will include diagonal distortion, but the original input signal has a low horizontal frequency component (horizontal line). Etc.), this distortion is small enough to be ignored.

この特性を利用し、上記の信号処理に従って水平方向の画素数を増加させたフレーム(2011)は、垂直アップレート器(2002)および画素補間器(2003)からなる垂直補間部(2004)によりフレーム(2012)を生成し、SR(水平)信号とする。ここで画素補間器(2003)は、補間したい画素の上下の画素データの平均値を出力するような、一般的な垂直ローパスフィルタを用いればよい。同様に、垂直方向の画素数を増加させたフレーム(2014)は、水平アップレート器(2006)および画素補間器(2007)からなる水平補間部(2008)により、フレーム(2015)を生成しSR(垂直)信号とする。ここで、画素補間器(2007)は、補間したい画素の左右の画素データの平均値を出力するような、一般的な水平ローパスフィルタを用いればよい。   Using this characteristic, the frame (2011) in which the number of pixels in the horizontal direction is increased according to the signal processing described above is converted into a frame by the vertical interpolation unit (2004) composed of the vertical uprater (2002) and the pixel interpolator (2003). (2012) is generated and used as the SR (horizontal) signal. Here, the pixel interpolator (2003) may use a general vertical low-pass filter that outputs an average value of upper and lower pixel data of a pixel to be interpolated. Similarly, a frame (2014) in which the number of pixels in the vertical direction is increased is generated by a horizontal interpolation unit (2008) including a horizontal up-rate unit (2006) and a pixel interpolator (2007), and a frame (2015) is generated. (Vertical) signal. Here, the pixel interpolator (2007) may use a general horizontal low-pass filter that outputs an average value of the left and right pixel data of the pixel to be interpolated.

このように、画素補間器(2003)(2007)を用いて、処理対象の方向と直交する方向の高周波成分を除去して低周波成分だけを抽出すれば、上述した斜め方向に移動した際に発生する歪の影響を無視できる程度に小さくすることができる。上記の処理によって生成したSR(水平)信号とSR(垂直)信号を混合器(2009)によって混合して出力信号とし、表示部(3)にて表示する。   In this way, if the pixel interpolator (2003) (2007) is used to remove the high-frequency component in the direction orthogonal to the direction of the processing target and extract only the low-frequency component, when moving in the oblique direction described above, The influence of the generated distortion can be made small enough to be ignored. The SR (horizontal) signal and the SR (vertical) signal generated by the above processing are mixed by the mixer (2009) to be an output signal and displayed on the display unit (3).

ここで、混合器(2009)の詳細な構成および動作について説明する。混合器(2009)は以下に示す3つの構成例のいずれかを用いればよい。   Here, the detailed configuration and operation of the mixer (2009) will be described. The mixer (2009) may use any of the following three configuration examples.

図22に、混合器(2009)の第1の構成例を示す。同図において、加算器(2201)と乗算器(2202)を用いて、混合器(2009)に入力されたSR(水平)とSR(垂直)の各信号の平均値を生成して出力する。同図に示す構成は、水平・垂直の各解像度向上効果もそれぞれ1/2になってしまうが、混合器(2009)を最も簡単な構成である為、低コストに実現できる。   FIG. 22 shows a first configuration example of the mixer (2009). In the figure, an adder (2201) and a multiplier (2202) are used to generate and output an average value of SR (horizontal) and SR (vertical) signals input to the mixer (2009). In the configuration shown in the figure, the horizontal and vertical resolution improvement effects are also halved, but the mixer (2009) is the simplest configuration and can be realized at low cost.

図23に、混合器(2009)の第2の構成例を示す。同図において、混合器(2009)に入力されたSR(水平)とSR(垂直)の各信号に対し、乗算器(2303)および乗算器(2304)を用いて係数K(水平)と係数K(垂直)をそれぞれ乗じ、加算器(2305)で両者を加算して出力とする。係数K(水平)と係数K(垂直)は、それぞれ係数決定器(2301)(2302)にて生成する。以下、この係数決定器(2301)(2302)の動作について説明する。   FIG. 23 shows a second configuration example of the mixer (2009). In the figure, for the SR (horizontal) and SR (vertical) signals input to the mixer (2009), a multiplier (2303) and a multiplier (2304) are used to calculate a coefficient K (horizontal) and a coefficient K. Multiply each by (vertical) and add both by the adder (2305) to obtain the output. The coefficient K (horizontal) and the coefficient K (vertical) are generated by coefficient determiners (2301) and (2302), respectively. The operation of the coefficient determiners (2301) and (2302) will be described below.

図21に示した折返し成分除去部(2108)(2109)は、同図に示す位相差θH(2102)および位相差θV(2103)をもとに、図1に示す係数決定器(109)にて図9に示す係数C0〜C3を発生して折返し成分除去の演算を行う。このとき、位相差θH(2102)、θV(2103)が0のときに係数C1およびC3が不定になることや、位相差θH(2102)、θV(2103)が0に近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になることを防ぐために、図13に示す係数C4(0≦C4≦1)を導入して、図11に示す構成のように補助的画素補間を行うのが好ましい。逆に言えば、係数C4の値が0.0のときは解像度向上の効果があるが、係数C4の値が1.0に近づくにつれて、解像度向上の効果が小さくなることになる。   The aliasing component removal units (2108) and (2109) shown in FIG. 21 are connected to the coefficient determiner (109) shown in FIG. 1 based on the phase difference θH (2102) and the phase difference θV (2103) shown in FIG. The coefficients C0 to C3 shown in FIG. 9 are generated to perform the aliasing component removal calculation. At this time, the coefficients C1 and C3 become indefinite when the phase differences θH (2102) and θV (2103) are 0, and the coefficients C1 and C3 are increased as the phase differences θH (2102) and θV (2103) approach 0. In order to prevent it from becoming vulnerable to noise and the like by increasing the coefficient, the coefficient C4 (0 ≦ C4 ≦ 1) shown in FIG. 13 is introduced, and auxiliary pixel interpolation is performed as in the configuration shown in FIG. preferable. In other words, the effect of improving the resolution is obtained when the value of the coefficient C4 is 0.0, but the effect of improving the resolution becomes smaller as the value of the coefficient C4 approaches 1.0.

この性質を利用し、水平位相差θH(2102)が0近傍(すなわち、係数C4(水平)が1.0近傍)のときは垂直解像度変換結果のSR(垂直)が強く反映され、垂直位相差θV(2103)が0近傍(すなわち、係数C4(垂直)が1.0近傍)のときは水平解像度変換結果のSR(水平)が強く反映されるように、水平・垂直方向それぞれの係数C4の値を用いて係数K(水平)と係数K(垂直)を決定する。この動作を実現するため、例えば図23に示す係数決定器(2301)ではK(水平)=C4(水平)+(1-C4(垂直))/2の演算を行ってK(水平)を決定し、係数決定器(2303)ではK(垂直)=C4(垂直)+(1-C4(水平))/2の演算を行ってK(垂直)を決定している。   Using this property, when the horizontal phase difference θH (2102) is near 0 (that is, the coefficient C4 (horizontal) is near 1.0), the SR (vertical) of the vertical resolution conversion result is strongly reflected, and the vertical phase difference θV ( 2103) is close to 0 (i.e., the coefficient C4 (vertical) is close to 1.0), so that the horizontal resolution conversion result SR (horizontal) is strongly reflected, using the values of the coefficient C4 in the horizontal and vertical directions respectively. A coefficient K (horizontal) and a coefficient K (vertical) are determined. In order to realize this operation, for example, the coefficient determiner (2301) shown in FIG. 23 performs an operation of K (horizontal) = C4 (horizontal) + (1-C4 (vertical)) / 2 to determine K (horizontal). The coefficient determiner (2303) determines K (vertical) by performing an operation of K (vertical) = C4 (vertical) + (1-C4 (horizontal)) / 2.

図24に、係数C4(水平)および係数C4(垂直)をそれぞれ変化させたときの係数決定器(2301)(2302)の出力(係数K(水平)および係数K(垂直))の一例をまとめて示す。同図に示すように、係数C4(水平)が大きくなると係数K(水平)が小さくなるとともに係数K(垂直)が大きくなり、係数C4(垂直)が大きくなると係数K(水平)が大きくなるとともに係数K(垂直)が小さくなるように動作する。   FIG. 24 summarizes an example of the outputs (coefficient K (horizontal) and coefficient K (vertical)) of the coefficient determiners (2301) and (2302) when the coefficient C4 (horizontal) and the coefficient C4 (vertical) are changed. Show. As shown in the figure, when the coefficient C4 (horizontal) increases, the coefficient K (horizontal) decreases and the coefficient K (vertical) increases, and when the coefficient C4 (vertical) increases, the coefficient K (horizontal) increases. It operates so that the coefficient K (vertical) becomes small.

係数C4(水平)と係数C4(垂直)の値が等しいときには、係数K(水平)と係数K(垂直)がそれぞれ0.5となる。このように水平・垂直で独立して変化する係数C4に対して、係数K(水平)と係数K(垂直)を足してちょうど1.0になるように係数Kを決定して、SR(水平)とSR(垂直)を混合する。   When the values of the coefficient C4 (horizontal) and the coefficient C4 (vertical) are equal, the coefficient K (horizontal) and the coefficient K (vertical) are each 0.5. In this way, for the coefficient C4 that changes independently in horizontal and vertical, the coefficient K is determined to be just 1.0 by adding the coefficient K (horizontal) and the coefficient K (vertical), and SR (horizontal) and Mix SR (vertical).

図25および図26を用いて、混合器(2009)の第3の動作および構成例をそれぞれ説明する。図25は、水平周波数をμ、垂直周波数をνとして表した2次元周波数領域である。もとの入力画像の水平サンプリング周波数をμs、垂直サンプリング周波数をνsとすると、図20および図21に示した解像度変換部(4)の出力は、水平周波数μが-μs〜μsの範囲、垂直周波数νが-νs〜νsの範囲の信号となる。   The third operation and configuration example of the mixer (2009) will be described using FIG. 25 and FIG. 26, respectively. FIG. 25 shows a two-dimensional frequency region in which the horizontal frequency is represented by μ and the vertical frequency is represented by ν. Assuming that the horizontal sampling frequency of the original input image is μs and the vertical sampling frequency is νs, the output of the resolution conversion unit (4) shown in FIGS. 20 and 21 is a vertical frequency in the range of −μs to μs. The frequency ν is a signal in the range of −νs to νs.

水平・垂直の各解像度変換により高周波成分が再生されるようになるが、高周波成分はもともと信号レベルが小さいため、水平解像度変換による効果が大きいのは(μ,ν)=(±μs/2, 0)の近傍の周波数領域(2501)の成分(特に(μ,ν)=(+μs/2, 0)を含み、μ>0となる周波数の領域と、(μ,ν)=(-μs/2, 0)を含み、μ<0となる周波数の領域の成分)となり、垂直解像度変換による効果が大きいのは(μ,ν)=(0, ±νs/2)の近傍の周波数領域(2502)の成分(特に(μ,ν)=(0, +νs/2)を含み、ν>0となる周波数の領域と、(μ,ν)=(0, -νs/2)を含み、ν<0となる周波数の領域の成分)となる。   High-frequency components are reproduced by horizontal and vertical resolution conversions, but the high-frequency components originally have a low signal level, so the effect of horizontal resolution conversion is large (μ, ν) = (± μs / 2, 0) component in the frequency region (2501) in the vicinity (particularly (μ, ν) = (+ μs / 2, 0)), a region of a frequency where μ> 0, and (μ, ν) = (− μs / 2, 0), and the component of the frequency region where μ <0), and the effect of vertical resolution conversion is large in the frequency region in the vicinity of (μ, ν) = (0, ± νs / 2) ( 2502) components (particularly including (μ, ν) = (0, + νs / 2), including a frequency region where ν> 0, and (μ, ν) = (0, -νs / 2), component in a frequency region where ν <0).

従って、これらの周波数成分(2501)(2502)を2次元フィルタで抽出して混合すると、解像度向上効果が大きい成分を選択的に出力することができる。   Therefore, when these frequency components (2501) and (2502) are extracted and mixed by a two-dimensional filter, components having a large resolution improvement effect can be selectively output.

図26に、水平・垂直の各解像度変換による効果が大きい成分を抽出する混合器(2009)の構成例を示す。同図において、2次元フィルタ(2601)を用いて、混合器(2009)に入力されたSR(水平)の解像度向上効果が大きい周波数領域(2501)の成分を抽出する。同様に、2次元フィルタ(2602)を用いて、混合器(2009)に入力されたSR(垂直)の解像度向上効果が大きい周波数領域(2502)の成分を抽出する。   FIG. 26 shows a configuration example of a mixer (2009) that extracts components having a large effect by horizontal and vertical resolution conversion. In the figure, a two-dimensional filter (2601) is used to extract a component in the frequency region (2501) having a large resolution improvement effect of SR (horizontal) input to the mixer (2009). Similarly, using the two-dimensional filter (2602), a component in the frequency region (2502) having a large resolution improvement effect of SR (vertical) input to the mixer (2009) is extracted.

周波数領域(2501)(2502)以外の成分として、加算器(2603)と乗算器(2604)を用いてSR(水平)とSR(垂直)の平均の信号を作り、2次元フィルタ(2605)を用いて、2次元フィルタ(2601)(2602)の各通過帯域以外の成分(すなわち、残りの成分)を抽出する。2次元フィルタ(2601)(2602)(2605)の各出力信号を加算器(2606)で加算し、混合器(2009)の出力とする。   As a component other than the frequency domain (2501) (2502), an adder (2603) and a multiplier (2604) are used to create an average signal of SR (horizontal) and SR (vertical), and a two-dimensional filter (2605) The components other than the passbands of the two-dimensional filters (2601) and (2602) (that is, the remaining components) are extracted. The output signals of the two-dimensional filters (2601), (2602), and (2605) are added by the adder (2606) to obtain the output of the mixer (2009).

なお、同図中に示す2次元フィルタ(2601)(2602)(2605)の中の丸で囲まれた数字はそれぞれのフィルタのタップ係数の一例を示している。(各フィルタの係数は説明の簡略化のため、整数にて表記している。本来の係数値は丸で囲まれた数字とその右部に示された「×1/16」等に示される演算の積である。例えば、2次元フィルタ(2601)では丸で囲まれた各数字にそれぞれ1/16を乗算したのが本来の係数値である。以下の実施例に示される2次元フィルタの係数において同じ。)
2次元フィルタ(2601)は±μs/2を通過帯域の中心周波数とする水平バンドパスフィルタと垂直ローパスフィルタの積とし、2次元フィルタ(2602)は±νs/2を通過帯域の中心周波数とする垂直バンドパスフィルタと水平ローパスフィルタの積とし、2次元フィルタ(2605)は全帯域から2次元フィルタ(2601)と2次元フィルタ(2602)の通過帯域を減じた特性とすればよい。
Note that the numbers in circles in the two-dimensional filters (2601), (2602), and (2605) shown in the figure indicate examples of the tap coefficients of the respective filters. (The coefficients of each filter are expressed as integers for the sake of simplicity. The original coefficient values are indicated by a circled number and “× 1/16” on the right). For example, in the two-dimensional filter (2601), the original coefficient value is obtained by multiplying each circled number by 1/16. Same for coefficient.)
The two-dimensional filter (2601) is the product of a horizontal bandpass filter and a vertical lowpass filter with ± μs / 2 as the center frequency of the passband, and the two-dimensional filter (2602) has ± νs / 2 as the center frequency of the passband. The product of the vertical bandpass filter and the horizontal lowpass filter may be used, and the two-dimensional filter (2605) may have a characteristic obtained by subtracting the passbands of the two-dimensional filter (2601) and the two-dimensional filter (2602) from the entire band.

次に、図34を用いて、実施例7に係る画像信号処理装置における処理と上記従来技術の動作の違いを説明する。同図(a)は、解像度変換部(4)に入力されたフレーム#1(3401)、フレーム#2(3402)、フレーム#3(3403)、フレーム#4(3404)、フレーム#5(3405)を示し、同図(b)は解像度変換部(4)から出力された各フレームを示す。各フレームにて、被写体が1/4画素ずつ右回りに移動し、4フレームで1周するように意図的に被写体を移動させる。この動きをフレーム#6以降も同様に連続させる。   Next, the difference between the processing in the image signal processing apparatus according to the seventh embodiment and the operation of the conventional technique will be described with reference to FIG. The figure (a) shows frame # 1 (3401), frame # 2 (3402), frame # 3 (3403), frame # 4 (3404), frame # 5 (3405) input to the resolution converter (4). (B) shows each frame output from the resolution converter (4). In each frame, the subject moves clockwise by 1/4 pixel, and the subject is intentionally moved so as to make one round in four frames. This movement is continued in the same manner after frame # 6.

特許文献1、特許文献2、非特許文献1に記載されている従来技術では、上述したよう、水平・垂直の2次元の入力信号に対して高解像度化する場合、折返しが縦横2方向から来るので、原信号の帯域が縦横共に2倍に広がると、3つの折返し成分が重なり、それらを打ち消すためには2M+1=7個のデジタルデータ(=7枚のフレーム画像の信号)を必要としていた。従って、図34(a)に示すような4フレームで一巡するような信号を入力した場合、どの7フレームを選択しても独立したデータが得られないため、高解像度化処理による解が不定となり求められない。   In the prior art described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, as described above, when the resolution is increased with respect to a horizontal / vertical two-dimensional input signal, the aliasing comes from two directions. So, if the bandwidth of the original signal is doubled both vertically and horizontally, the three aliasing components overlap, and 2M + 1 = 7 digital data (= 7 frame image signals) is required to cancel them. It was. Therefore, when a signal that circulates in 4 frames as shown in FIG. 34 (a) is input, independent data cannot be obtained no matter which 7 frames are selected, and the solution by the high resolution processing becomes indefinite. It is not required.

一方、本実施例を用いれば、例えば隣接する2フレーム(例えば、フレーム#1(3401)とフレーム#2(3402)、(あるいはフレーム#2(3402)とフレーム#3(3403)))を用いて、同図(b)に示すように水平方向(あるいは垂直方向)の折返し成分を除去して高解像度化を実現できる。すなわち、同図(a)の入力画像をテストパターンとして用いることにより、本実施例の動作状況を確認することができる。このテストパターンの絵柄として、一般的によく知られている円形ゾーンプレート(CZP:Circular Zone Plate)を用いれば、解像度変換の効果を表示部(3)にて直視できるようになる。すなわち、円形ゾーンプレートをフレームごとに左右に移動させれば水平方向の解像度が向上した画像が表示され、上下(あるいは斜め)に移動させれば垂直方向(あるいは斜め方向)の解像度が向上した画像が表示されるなど、テストパターンの移動方向に応じた解像度向上の効果を確認することができる。   On the other hand, if this embodiment is used, for example, two adjacent frames (for example, frame # 1 (3401) and frame # 2 (3402), (or frame # 2 (3402) and frame # 3 (3403))) are used. Thus, as shown in FIG. 5B, the horizontal (or vertical) aliasing component can be removed to achieve high resolution. That is, the operation status of the present embodiment can be confirmed by using the input image of FIG. If a generally well-known circular zone plate (CZP: Circular Zone Plate) is used as the pattern of this test pattern, the effect of resolution conversion can be directly viewed on the display unit (3). That is, if the circular zone plate is moved left and right for each frame, an image with improved horizontal resolution is displayed, and if it is moved up and down (or diagonally), an image with improved vertical (or diagonally) resolution is displayed. The effect of improving the resolution according to the moving direction of the test pattern can be confirmed.

以上説明した実施例7に係る画像信号処理装置によれば、2枚の入力画像フレームの各画像信号に対して位相シフト行い、各画像信号からぞれぞれ2つの信号を生成する。これにより、2枚の入力画像フレームの画像信号から4つの信号を生成する。ここで、2枚の入力画像フレームの位相差に基づいて、当該4つの信号の各信号について、当該4つの信号の折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成する画像のそれぞれの画素について、上記4つの信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。これを生成画像の各画素について行うことにより、入力画像フレームよりも1次元方向に高解像度化した画像を生成する。   According to the image signal processing apparatus according to the seventh embodiment described above, phase shift is performed on each image signal of two input image frames, and two signals are generated from each image signal. As a result, four signals are generated from the image signals of the two input image frames. Here, based on the phase difference between the two input image frames, for each of the four signals, a coefficient for canceling and combining the aliasing components of the four signals is calculated for each pixel. For each pixel of the image to be generated, a sum is calculated by multiplying the pixel value of the corresponding pixel included in each of the four signals by each coefficient to generate a pixel value of a new high-resolution image. By performing this for each pixel of the generated image, an image having a higher resolution in the one-dimensional direction than the input image frame is generated.

これを水平方向と垂直方向のそれぞれに行い、水平方向に高解像度化した画像と垂直方向に高解像度化した画像を生成する。当該水平方向に高解像度化した画像と垂直方向に高解像度化した画像とについて、それぞれ、垂直方向、水平方向にアップレート処理を行ったのち、両者を混合する。   This is performed in each of the horizontal direction and the vertical direction, and an image with high resolution in the horizontal direction and an image with high resolution in the vertical direction are generated. The image having the high resolution in the horizontal direction and the image having the high resolution in the vertical direction are subjected to up-rate processing in the vertical direction and the horizontal direction, respectively, and then both are mixed.

これにより、従来例よりも少ない2枚の入力画像フレームの各画像信号から、垂直方向と水平方向との両方向に高解像度化した高解像度画像を生成することができる。すなわち、2次元高解像度画像を生成することができる。   As a result, it is possible to generate a high-resolution image in which the resolution is increased in both the vertical direction and the horizontal direction from the image signals of two input image frames that are smaller than in the conventional example. That is, a two-dimensional high resolution image can be generated.

また、また、実施例7に係る画像信号処理装置は、従来例よりも少ない2枚の入力画像フレームを用いるため、必要な画像処理の量を従来例より低減できる。これにより、折り返し成分が少なく、垂直方向と水平方向との両方向について入力画像よりも高解像度な高解像度画像を生成する画像信号処理装置を、従来例よりも低コストに実現することが可能である。   Further, since the image signal processing apparatus according to the seventh embodiment uses two input image frames that are fewer than those in the conventional example, the amount of necessary image processing can be reduced as compared with the conventional example. Accordingly, it is possible to realize an image signal processing apparatus that generates a high-resolution image with less aliasing components and higher resolution than the input image in both the vertical and horizontal directions at a lower cost than the conventional example. .

なお、特許文献1、特許文献2、非特許文献1に記載されている従来技術により、3フレームを用いて水平方向や垂直方向などの1次元の高解像度化を複数方向に対して行い、それらの各結果を図20に示す混合器(2009)に入力して混合し、2次元の解像度変換結果として出力してもよい。この場合、図20に示したように2フレームのみを用いて2次元の解像度変換を行う構成よりもフレームメモリや動き推定部などの信号処理回路の規模が大きくなるが、特許文献1、特許文献2、非特許文献1に記載されているように、少なくとも7フレームの信号を用いるよりも、フレームメモリや動き推定部などの信号処理回路の規模を小さくできる。   In addition, according to the prior art described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, one-dimensional high resolution such as a horizontal direction and a vertical direction is performed in a plurality of directions using three frames. These results may be input to the mixer (2009) shown in FIG. 20 and mixed, and output as a two-dimensional resolution conversion result. In this case, as shown in FIG. 20, the scale of the signal processing circuit such as the frame memory or the motion estimation unit is larger than the configuration in which the two-dimensional resolution conversion is performed using only two frames. 2. As described in Non-Patent Document 1, it is possible to reduce the scale of a signal processing circuit such as a frame memory or a motion estimation unit, compared to using a signal of at least 7 frames.

また、特許文献1、特許文献2、非特許文献1に記載されている従来技術に限定されず、その他従来の高解像度化技術を適用して、水平方向や垂直方向などの1次元の高解像度化を複数方向に対して行い、それらの各結果を図20に示す混合器(2009)に入力して混合し、2次元の解像度変換結果として出力してもよい。   Further, the present invention is not limited to the conventional techniques described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, and other one-dimensional high resolution such as a horizontal direction and a vertical direction is applied by applying a conventional high resolution technology. It is also possible to perform conversion into a plurality of directions, input each result into a mixer (2009) shown in FIG. 20, and mix and output the result as a two-dimensional resolution conversion result.

また、図20では、フレーム#1とフレーム#2の入力信号の組を用いてフレーム#1の解像度を変換する場合を例に挙げて説明したが、これ以外にも例えば、フレーム#1とフレーム#3、フレーム#1とフレーム#4などの複数の組を用いてそれぞれでフレーム#1の解像度を変換し、それらの結果を混合して、フレーム#1の最終的な解像度変換結果としてもよい。   In FIG. 20, the case where the resolution of the frame # 1 is converted using the set of the input signals of the frame # 1 and the frame # 2 has been described as an example. # 3, Frame # 1 and Frame # 4, etc. are used to convert the resolution of frame # 1 and mix the results to obtain the final resolution conversion result of frame # 1. .

このときの混合方法として、各結果の平均値をとってもよいし、図23および図24に示したようにフレームごとの係数C4(フレーム)の値に応じて混合してもよい。この場合、係数C4(フレーム)として、フレームごとの係数C4(水平)と係数C4(垂直)のMAX値(小さくないほうの値)を用いてもよい。また、画素ごとにすべての組の係数C4(水平)、C4(垂直)を比較し、係数C4が最も小さい組(すなわち、最も解像度向上効果が大きい組)から得られる解像度変換結果を画素ごとに選択して、フレーム#1の最終的な解像度変換結果としてもよい。   As a mixing method at this time, an average value of the results may be taken, or mixing may be performed according to the value of the coefficient C4 (frame) for each frame as shown in FIGS. In this case, as the coefficient C4 (frame), the MAX value (the smaller value) of the coefficient C4 (horizontal) and the coefficient C4 (vertical) for each frame may be used. Also, all the coefficients C4 (horizontal) and C4 (vertical) are compared for each pixel, and the resolution conversion result obtained from the group with the smallest coefficient C4 (i.e., the group with the greatest resolution improvement effect) is obtained for each pixel. The final resolution conversion result of frame # 1 may be selected.

これにより、例えばフレーム#1を基準として、フレーム#2がフレーム#1よりも過去のフレームであり、フレーム#3がフレーム#1よりも未来のフレームの場合、フレーム#1の時点で被写体が「動き」から「静止」に変化した場合(動き終わり)はフレーム#1とフレーム#2により解像度変換処理が行われ、フレーム#1の時点で被写体が「静止」から「動き」に変換した場合(動き始め)はフレーム#1とフレーム#3により解像度変換処理が行われるように画素ごとに各処理結果が混合されるようになるため、被写体の動きを有効に利用でき、解像度向上効果を最も大きくすることができる。   Thus, for example, with frame # 1 as a reference, if frame # 2 is a frame earlier than frame # 1 and frame # 3 is a future frame than frame # 1, the subject is When changing from `` motion '' to `` still '' (end of movement), resolution conversion processing is performed with frame # 1 and frame # 2, and when the subject is converted from `` still '' to `` motion '' at the time of frame # 1 ( (Beginning of motion) Since each processing result is mixed for each pixel so that resolution conversion processing is performed by frame # 1 and frame # 3, the motion of the subject can be used effectively, and the resolution improvement effect is the largest can do.

図21に、本発明の実施例8に係る画像信号処理装置を示す。本実施例に係る画像処理装置は、上述した実施例7の構成を変形したものであり、図20に示した解像度変換部(2001)(2005)と補間部(2004)(2008)の処理順序を逆にして、補間処理を行ったのちに解像度変換を行うように構成したものである。これにより、解像度変換部(2001)(2005)の中にあるアップレート器(図1中の(103)(104))と、補間部(2004)(2008)の中にあるアップレート器(図20中の(2002)(2006))を共通化するとともに、水平解像度変換部(2001)と垂直解像度変換部(2005)の中にあるそれぞれの位置推定部(図1中の(101))を共通化できるため、より小さい回路規模および演算量で同様の信号処理を実現できるようになる。   FIG. 21 shows an image signal processing apparatus according to Embodiment 8 of the present invention. The image processing apparatus according to the present embodiment is a modification of the configuration of the seventh embodiment described above, and the processing order of the resolution conversion units (2001) (2005) and the interpolation units (2004) (2008) shown in FIG. On the other hand, the resolution conversion is performed after the interpolation process. As a result, the up-rater ((103) (104) in FIG. 1) in the resolution conversion unit (2001) (2005) and the up-rater in the interpolation unit (2004) (2008) (FIG. 20 (2002) (2006)) and the horizontal resolution conversion unit (2001) and the vertical resolution conversion unit (2005), each position estimation unit ((101) in FIG. 1) Since they can be shared, similar signal processing can be realized with a smaller circuit scale and operation amount.

図21において、まず位置推定部(2101)により、入力部(1)に入力されたフレーム#1上の処理対象の画素のサンプリング位相(標本化位置)を基準として、フレーム#2上の対応する画素の位置を推定し、水平方向と垂直方向のそれぞれのサンプリング位相差θH(2102)、θV(2103)を求める。   In FIG. 21, first, the position estimation unit (2101) performs a corresponding operation on the frame # 2 with reference to the sampling phase (sampling position) of the pixel to be processed on the frame # 1 input to the input unit (1). The pixel position is estimated, and the sampling phase differences θH (2102) and θV (2103) in the horizontal and vertical directions are obtained.

次に、動き補償・アップレート部(2110)のアップレート器(2104)(2105)により、位相差θH(2102)、θV(2103)の情報を用いてフレーム#2を動き補償してフレーム#1と位置を合わせるとともに、フレーム#1とフレーム#2の画素数をそれぞれ水平・垂直ともに2倍(合計4倍)に増して高密度化する。アップレート器(2104)(2105)は、図5および図6に示した動作・構成を水平・垂直方向の2次元に拡張したものである。位相シフト部(2111)では、この高密度化したデータの位相を一定量だけシフトする。   Next, the motion compensation / uprate unit (2110) uses the uprater (2104) (2105) to perform motion compensation on the frame # 2 using the information on the phase differences θH (2102) and θV (2103) to In addition to matching the position with 1, the number of pixels in frame # 1 and frame # 2 is doubled both horizontally and vertically (4 times in total) to increase the density. The up-raters (2104) and (2105) are obtained by extending the operation / configuration shown in FIGS. 5 and 6 to two dimensions in the horizontal and vertical directions. The phase shift unit (2111) shifts the phase of the densified data by a certain amount.

このとき、水平位相シフト器(2106)は水平方向の位相シフトを行い、垂直位相シフト器(2107)は垂直方向の位相シフトを行うものであり、図1に示した遅延器(105)(107)およびπ/2位相シフト器(108)と図7および図8に示した動作・構成と同様に実施できる為、説明は省略する。   At this time, the horizontal phase shifter (2106) performs a horizontal phase shift, and the vertical phase shifter (2107) performs a vertical phase shift. The delay units (105) and (107) shown in FIG. ) And π / 2 phase shifter (108) and the operations and configurations shown in FIGS.

位相シフトした各信号に対し、折返し成分除去部(2112)における水平方向の折返し成分除去部(2108)および垂直方向の折返し成分除去部(2109)にてそれぞれ水平・垂直方向の折返し成分を除去する。次に水平方向の折返し成分除去部(2108)の出力を画素補間器(2003)を用いて画素補間してSR(水平)信号ととし、垂直方向の折返し成分除去部(2109)の出力を画素補間器(2007)を用いて画素補間してSR(垂直)信号ととし、これらを混合器(2009)で両者を混合して出力とする。   For each phase-shifted signal, horizontal and vertical folding components are removed by the horizontal folding component removal unit (2108) and vertical folding component removal unit (2109) in the folding component removal unit (2112), respectively. . Next, the output of the horizontal aliasing component removal unit (2108) is pixel-interpolated using the pixel interpolator (2003) to obtain an SR (horizontal) signal, and the output of the vertical aliasing component removal unit (2109) is the pixel. Pixel interpolation is performed using an interpolator (2007) to form an SR (vertical) signal, which is mixed by an mixer (2009) and output.

折返し成分除去部(2108)(2109)は、図1に示した折返し成分除去部(117)の構成をそのまま用いることができる。位相差θ(102)として、折返し成分除去部(2108)では水平位相差θH(2102)を用い、折返し成分除去部(2109)では水平位相差θH(2103)を用いて図9に示した動作を行うことにより、それぞれの方向の折返し成分を除去することができる。   The folded component removing units (2108) and (2109) can use the configuration of the folded component removing unit (117) shown in FIG. 1 as it is. As the phase difference θ (102), the folded component removing unit (2108) uses the horizontal phase difference θH (2102), and the folded component removing unit (2109) uses the horizontal phase difference θH (2103) to perform the operation shown in FIG. By performing the above, folding components in the respective directions can be removed.

なお、以上の説明では、位相シフト部(2111)は、図1に示した遅延器(105)(107)およびπ/2位相シフト器(108)と図7および図8に示した動作・構成と同様に実施し、折返し成分除去部(2108)(2109)は、図1に示した折返し成分除去部(117)の構成をそのまま用いるとしたが、これにかえて、位相シフト部(2111)には、図10の位相シフト部(1009)をそれぞれ垂直方向、水平方向用に用い、折返し成分除去部(2108)(2109)は、図10の折り返し成分除去手段(1010)をそれぞれ用いてもよい。さらにこのとき、折返し成分除去部(2108)(2109)のそれぞれに図11の補助的画素補間部(1105)を図11と同様に備える構成としてもよい。   In the above description, the phase shift unit (2111) includes the delay units (105) and (107) and the π / 2 phase shifter (108) shown in FIG. 1 and the operations and configurations shown in FIGS. The aliasing component removal units (2108) and (2109) are performed in the same manner as described above, and the configuration of the aliasing component removal unit (117) shown in FIG. 1 is used as it is, but instead, the phase shift unit (2111) The phase shift unit (1009) of FIG. 10 is used for the vertical direction and the horizontal direction, respectively, and the aliasing component removal units (2108) and (2109) may also use the aliasing component removal means (1010) of FIG. Good. Further, at this time, each of the aliasing component removal units (2108) and (2109) may be provided with the auxiliary pixel interpolation unit (1105) of FIG. 11 as in FIG.

なお、混合器(2009)については実施例7と同様であるので、説明を省略する。   Note that the mixer (2009) is the same as that of the seventh embodiment, and a description thereof will be omitted.

また、図34に示した入力フレームに対する動作も実施例7と同様であるので、説明を省略する。   Also, the operation for the input frame shown in FIG. 34 is the same as that of the seventh embodiment, and thus the description thereof is omitted.

以上説明した実施例8に係る画像信号処理装置は、実施例7に係る画像信号処理装置の効果を有しながら、実施例7に係る画像信号処理装置に比べて一部の処理部を共通化することにより、実施例7に係る画像信号処理装置よりも小さい回路規模および演算量で同様の信号処理を実現することが可能であるという効果を有する。   The image signal processing apparatus according to the eighth embodiment described above has the same effects as the image signal processing apparatus according to the seventh embodiment, but a part of the processing units is shared as compared with the image signal processing apparatus according to the seventh embodiment. By doing so, it is possible to realize the same signal processing with a circuit scale and a calculation amount smaller than those of the image signal processing apparatus according to the seventh embodiment.

なお、特許文献1、特許文献2、非特許文献1に記載されている従来技術により、3フレームを用いて水平方向や垂直方向などの1次元の高解像度化を複数方向に対して行い、それらの各結果を図21に示す混合器(2009)に入力して混合し、2次元の解像度変換結果として出力してもよい。この場合、図21に示したように2フレームのみを用いて2次元の解像度変換を行う構成よりもフレームメモリや動き推定部などの信号処理回路の規模が大きくなるが、特許文献1、特許文献2、非特許文献1に記載されているように、少なくとも7フレームの信号を用いるよりも、フレームメモリや動き推定部などの信号処理回路の規模を小さくできる。   In addition, according to the prior art described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, one-dimensional high resolution such as a horizontal direction and a vertical direction is performed in a plurality of directions using three frames. These results may be input to the mixer (2009) shown in FIG. 21 and mixed, and output as a two-dimensional resolution conversion result. In this case, as shown in FIG. 21, the scale of the signal processing circuit such as the frame memory and the motion estimation unit is larger than the configuration in which the two-dimensional resolution conversion is performed using only two frames. 2. As described in Non-Patent Document 1, it is possible to reduce the scale of a signal processing circuit such as a frame memory or a motion estimation unit, compared to using a signal of at least 7 frames.

また、特許文献1、特許文献2、非特許文献1に記載されている従来技術に限定されず、その他の従来の高解像度化技術を適用して、水平方向や垂直方向などの1次元の高解像度化を複数方向に対して行い、それらの各結果を図21に示す混合器(2009)に入力して混合し、2次元の解像度変換結果として出力してもよい。   In addition, the present invention is not limited to the conventional techniques described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, and other conventional high resolution techniques are applied to apply a one-dimensional height such as a horizontal direction or a vertical direction. Resolution may be performed in a plurality of directions, and each result may be input to the mixer (2009) shown in FIG. 21 and mixed, and output as a two-dimensional resolution conversion result.

また、図21では、フレーム#1とフレーム#2の入力信号の組を用いてフレーム#1の解像度を変換する場合を例に挙げて説明したが、これ以外にも例えば、フレーム#1とフレーム#3、フレーム#1とフレーム#4などの複数の組を用いてそれぞれでフレーム#1の解像度を変換し、それらの結果を混合して、フレーム#1の最終的な解像度変換結果としてもよい。   In FIG. 21, the case where the resolution of the frame # 1 is converted using the set of the input signals of the frame # 1 and the frame # 2 has been described as an example. # 3, Frame # 1 and Frame # 4, etc. are used to convert the resolution of frame # 1 and mix the results to obtain the final resolution conversion result of frame # 1. .

このときの混合方法として、各結果の平均値をとってもよいし、図23および図24に示したようにフレームごとの係数C4(フレーム)の値に応じて混合してもよい。この場合、係数C4(フレーム)として、フレームごとの係数C4(水平)と係数C4(垂直)のMAX値(小さくないほうの値)を用いてもよい。また、画素ごとにすべての組の係数C4(水平)、C4(垂直)を比較し、係数C4が最も小さい組(すなわち、最も解像度向上効果が大きい組)から得られる解像度変換結果を画素ごとに選択して、フレーム#1の最終的な解像度変換結果としてもよい。   As a mixing method at this time, an average value of the results may be taken, or mixing may be performed according to the value of the coefficient C4 (frame) for each frame as shown in FIGS. In this case, as the coefficient C4 (frame), the MAX value (the smaller value) of the coefficient C4 (horizontal) and the coefficient C4 (vertical) for each frame may be used. Also, all the coefficients C4 (horizontal) and C4 (vertical) are compared for each pixel, and the resolution conversion result obtained from the group with the smallest coefficient C4 (i.e., the group with the greatest resolution improvement effect) is obtained for each pixel. The final resolution conversion result of frame # 1 may be selected.

これにより、例えばフレーム#1を基準として、フレーム#2がフレーム#1よりも過去のフレームであり、フレーム#3がフレーム#1よりも未来のフレームの場合、フレーム#1の時点で被写体が「動き」から「静止」に変化した場合(動き終わり)はフレーム#1とフレーム#2により解像度変換処理が行われ、フレーム#1の時点で被写体が「静止」から「動き」に変換した場合(動き始め)はフレーム#1とフレーム#3により解像度変換処理が行われるように画素ごとに各処理結果が混合されるようになるため、被写体の動きを有効に利用でき、解像度向上効果を最も大きくすることができる。   Thus, for example, with frame # 1 as a reference, if frame # 2 is a frame earlier than frame # 1 and frame # 3 is a future frame than frame # 1, the subject is When changing from `` motion '' to `` still '' (end of movement), resolution conversion processing is performed with frame # 1 and frame # 2, and when the subject is converted from `` still '' to `` motion '' at the time of frame # 1 ( (Beginning of motion) Since each processing result is mixed for each pixel so that resolution conversion processing is performed by frame # 1 and frame # 3, the motion of the subject can be used effectively, and the resolution improvement effect is the largest can do.

図27に、本発明の実施例9に係る画像信号処理装置を示す。本実施例に係る画像処理装置は、図21に示した構成例に、さらに右下および右上方向の斜め成分の高解像度変換部を加えた構成としている。すなわち、位相シフト部(2708)に斜め(右下)位相シフト部(2701)と斜め(右上)位相シフト部(2702)を追加するとともに、折返し成分除去部(2709)に折返し成分除去部(2705)(2706)を追加し、画素補間器(2710)(2711)をそれぞれ介したのちに、SR(水平)、SR(垂直)、SR(右上)、SR(右下)の各信号を混合部(2707)にて混合し、出力とする。ここで、画素補間器(2710)(2711)は、補間したい画素の上下左右の画素データの平均値を出力するような、一般的な2次元ローパスフィルタを用いればよい。   FIG. 27 shows an image signal processing apparatus according to Embodiment 9 of the present invention. The image processing apparatus according to the present embodiment has a configuration in which a high-resolution conversion unit for diagonal components in the lower right and upper right directions is added to the configuration example shown in FIG. That is, an oblique (lower right) phase shift unit (2701) and an oblique (upper right) phase shift unit (2702) are added to the phase shift unit (2708), and the aliasing component removal unit (2705) is added to the aliasing component removal unit (2709). ) (2706) and after passing through the pixel interpolators (2710) and (2711), the SR (horizontal), SR (vertical), SR (upper right) and SR (lower right) signals are mixed. Mix at (2707) and use as output. Here, the pixel interpolators (2710) and (2711) may use a general two-dimensional low-pass filter that outputs an average value of upper, lower, left, and right pixel data of a pixel to be interpolated.

位相差θとして斜め方向の位相差情報が必要であり、水平位相差θH(2102)と垂直位相差θV(2103)を加算器(2703)で加算した位相差(θH+θV)を折返し成分除去部(2705)に入力し、減算器(2704)で生成した位相差(-θH+θV)を折返し成分除去部(2706)に入力するように構成すればよい。なお、折返し成分除去部(2106)(2109)(2705)(2706)の構成および動作は、すべて共通である。   Phase difference information in the oblique direction is required as the phase difference θ, and the phase difference (θH + θV) obtained by adding the horizontal phase difference θH (2102) and vertical phase difference θV (2103) with the adder (2703) is removed. The phase difference (−θH + θV) generated by the subtracter (2704) may be input to the aliasing component removal unit (2706). The configurations and operations of the aliasing component removal units (2106), (2109), (2705), and (2706) are all the same.

図28(a)〜(d)に、2次元周波数領域における水平位相シフト部(2106)、垂直位相シフト部(2107)、斜め(右下)位相シフト部(2701)、斜め(右上)位相シフト部(2702)のそれぞれの動作を示す。図28(a)〜(d)は図25と同様に水平周波数をμ、垂直周波数をνとして表した2次元周波数領域である。これらの位相シフト部(2106)(2107)(2701)(2702)は、図1に示した位相シフト部(116)と同様の構成とし、その中のπ/2位相シフト器(106)(108)の「周波数-位相差」特性をそれぞれの方向に合わせて変更する。   FIGS. 28A to 28D show a horizontal phase shift unit (2106), a vertical phase shift unit (2107), an oblique (lower right) phase shift unit (2701), and an oblique (upper right) phase shift in the two-dimensional frequency domain. Each operation of the unit (2702) is shown. FIGS. 28A to 28D are two-dimensional frequency regions in which the horizontal frequency is represented by μ and the vertical frequency is represented by ν, as in FIG. These phase shift units (2106) (2107) (2701) (2702) have the same configuration as the phase shift unit (116) shown in FIG. 1, and the π / 2 phase shifters (106) (108) therein ) “Frequency-phase difference” characteristics are changed according to each direction.

すなわち、同図(a)において、水平位相シフト部(2106)では、入力信号の水平周波数サンプリング周波数をμsとした場合に、図7に示した動作と同様に、-μs〜0の範囲の周波数成分の位相をπ/2だけシフトし、0〜μsの範囲の周波数成分の位相を-π/2だけシフトする。同様に、垂直位相シフト部(2107)では、入力信号の垂直周波数サンプリング周波数をνsとした場合に、-νs〜0の範囲の周波数成分の位相をπ/2だけシフトし、0〜νsの範囲の周波数成分の位相を-π/2だけシフトする。   That is, in the figure (a), in the horizontal phase shift unit (2106), when the horizontal frequency sampling frequency of the input signal is μs, the frequency in the range of −μs to 0 is the same as the operation shown in FIG. The phase of the component is shifted by π / 2, and the phase of the frequency component in the range of 0 to μs is shifted by -π / 2. Similarly, in the vertical phase shift unit (2107), when the vertical frequency sampling frequency of the input signal is νs, the phase of the frequency component in the range of −νs to 0 is shifted by π / 2, and the range of 0 to νs. The phase of the frequency component of is shifted by -π / 2.

同様に、斜め(右下)位相シフト部(2701)および斜め(右上)位相シフト部(2702)では、同図(c)および同図(d)にそれぞれ示すように、信号の位相を-π/2あるいはπ/2だけシフトする。これらの「周波数-位相差」特性は、図8に示したタップ係数を、2次元のサンプリング点に合わせて水平、垂直、斜め(右下)、斜め(右上)のそれぞれの方向に配置することにより容易に実現できる。   Similarly, in the oblique (lower right) phase shift unit (2701) and the oblique (upper right) phase shift unit (2702), as shown in FIG. Shift by / 2 or π / 2. These “frequency-phase difference” characteristics are arranged in the horizontal, vertical, diagonal (lower right) and diagonal (upper right) directions according to the two-dimensional sampling points. Can be easily realized.

図29に、混合器(2707)の第1の構成例を示す。同図において、加算器(2901)と乗算器(2902)を用いて、混合器(2707)に入力されたSR(水平)、SR(垂直)、SR(右下)、SR(右上)の各信号の平均値を生成して出力する。同図に示す構成は、混合器(2707)を最も簡単に構成した例であるが、水平・垂直・右下・右上の各解像度向上効果もそれぞれ1/4になってしまう。   FIG. 29 shows a first configuration example of the mixer (2707). In the same figure, each of SR (horizontal), SR (vertical), SR (lower right), SR (upper right) input to the mixer (2707) using an adder (2901) and a multiplier (2902) Generate and output the average value of the signal. The configuration shown in the figure is an example of the simplest configuration of the mixer (2707), but the horizontal, vertical, lower right, and upper right resolution improvement effects are also each reduced to 1/4.

図30に、混合器(2707)の第2の構成例を示す。同図において、混合器(2707)に入力されたSR(水平)、SR(垂直)、SR(右下)、SR(右上)の各信号に対し、乗算器(3005)、乗算器(3006)、 乗算器(3007)、乗算器(3008)を用いて、係数K(水平)、係数K(垂直)、係数K(右下)、係数K(右上)をそれぞれ乗じ、加算器(3009)でそれらの信号を加算して出力とする。係数K(水平)、係数K(垂直)、係数K(右下)、係数K(右上)は、それぞれ係数決定器(3001)(3002)(3003)(3004)にて生成する。以下、この係数決定器(3001)(3002)(3003)(3004)の動作について説明する。   FIG. 30 shows a second configuration example of the mixer (2707). In the figure, for each signal of SR (horizontal), SR (vertical), SR (bottom right), SR (top right) input to the mixer (2707), a multiplier (3005), a multiplier (3006) Using the multiplier (3007) and multiplier (3008), multiply by the coefficient K (horizontal), coefficient K (vertical), coefficient K (lower right) and coefficient K (upper right), respectively, and adder (3009) These signals are added to produce an output. The coefficient K (horizontal), the coefficient K (vertical), the coefficient K (lower right), and the coefficient K (upper right) are generated by coefficient determiners (3001) (3002) (3003) (3004), respectively. The operation of the coefficient determiners (3001) (3002) (3003) (3004) will be described below.

図27に示した折返し成分除去部(2108)(2109)(2705)(2706)は、同図に示す位相差θH(2102)、位相差θV(2103)、位相差(θH+θV)、位相差(-θH+θV)をもとに、図1に示す係数決定器(109)にて図9に示す係数C0〜C3を発生して折返し成分除去の演算を行う。このとき、位相差θH(2102)、θV(2103)、(θH+θV)、(-θH+θV)が0のときに係数C1およびC3が不定になることや、位相差θH(2102)、θV(2103)、(θH+θV)、(-θH+θV)が0に近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になることを防ぐために、図13に示す係数C4(0≦C4≦1)を導入して、図11に示す構成のように補助的画素補間を行うのが好ましい。逆に言えば、係数C4の値が0.0のときは解像度向上の効果があるが、係数C4の値が1.0に近づくにつれて、解像度向上の効果が小さくなることになる。この性質を利用し、水平位相差θH(2102)が0近傍(すなわち、係数C4(水平)が1.0近傍)のときは水平解像度変換結果のSR(水平)が弱くなり、水平位相差θH(2102)が0近傍でないとき(すなわち、係数C4(水平)が0.0近傍のとき)は水平解像度変換結果のSR(水平)が強くなるように、係数決定器(3001)にて係数K(水平)を決定する。   The aliasing component removal units (2108), (2109), (2705), and (2706) shown in FIG. 27 have the phase difference θH (2102), phase difference θV (2103), phase difference (θH + θV), position shown in FIG. Based on the phase difference (−θH + θV), the coefficient determiner (109) shown in FIG. 1 generates coefficients C0 to C3 shown in FIG. At this time, when the phase differences θH (2102), θV (2103), (θH + θV), (−θH + θV) are 0, the coefficients C1 and C3 become indefinite, the phase difference θH (2102), In order to prevent the coefficients C1 and C3 from becoming large as θV (2103), (θH + θV), (−θH + θV) approaches 0, the coefficient C4 (0 ≦ C4 ≦ 1) is introduced, and auxiliary pixel interpolation is preferably performed as in the configuration shown in FIG. In other words, the effect of improving the resolution is obtained when the value of the coefficient C4 is 0.0, but the effect of improving the resolution becomes smaller as the value of the coefficient C4 approaches 1.0. Using this property, when the horizontal phase difference θH (2102) is close to 0 (that is, when the coefficient C4 (horizontal) is close to 1.0), the horizontal resolution conversion result SR (horizontal) becomes weak and the horizontal phase difference θH (2102 ) Is not near 0 (i.e., when the coefficient C4 (horizontal) is near 0.0), the coefficient determiner (3001) sets the coefficient K (horizontal) so that the SR (horizontal) of the horizontal resolution conversion result becomes strong. decide.

この一例として、係数K(水平)=(1+C4(水平)*3-C4(垂直)-C4(右下)-C4(右上))/4とすればよい。同様に、係数決定器(3002)(3003)(3004)にて、それぞれ係数K(垂直)、K(右下)、K(右上)を決定する。このとき、独立して変化する係数C4(水平)、係数C4(垂直)、係数C4(右下)、係数C4(右上)に対して、係数K(水平)+係数K(垂直)+係数K(右下)+係数K(右上)=1.0となるよう係数Kを決定して、SR(水平)、SR(垂直)、SR(右下)、SR(右上)を混合する。   As an example of this, the coefficient K (horizontal) = (1 + C4 (horizontal) * 3-C4 (vertical) −C4 (lower right) −C4 (upper right)) / 4 may be set. Similarly, coefficients K (vertical), K (lower right), and K (upper right) are determined by coefficient determiners (3002), (3003), and (3004), respectively. At this time, for coefficient C4 (horizontal), coefficient C4 (vertical), coefficient C4 (lower right), and coefficient C4 (upper right) that change independently, coefficient K (horizontal) + coefficient K (vertical) + coefficient K The coefficient K is determined so that (lower right) + coefficient K (upper right) = 1.0, and SR (horizontal), SR (vertical), SR (lower right), SR (upper right) are mixed.

図31および図32に、混合器(2707)の第3の動作および構成例をそれぞれ示す。図31は図25と同様に水平周波数をμ、垂直周波数をνとして表した2次元周波数領域である。図31において、もとの入力画像の水平サンプリング周波数をμs、垂直サンプリング周波数をνsとすると、図27に示した解像度変換部(4)の出力は、水平周波数μが-μs〜μsの範囲、垂直周波数νが-νs〜νsの範囲の信号となる。   31 and 32 show a third operation and a configuration example of the mixer (2707), respectively. FIG. 31 shows a two-dimensional frequency region in which the horizontal frequency is represented by μ and the vertical frequency is represented by ν, as in FIG. In FIG. 31, when the horizontal sampling frequency of the original input image is μs and the vertical sampling frequency is νs, the output of the resolution converter (4) shown in FIG. 27 is the horizontal frequency μ in the range of −μs to μs, The vertical frequency ν is a signal in the range of −νs to νs.

斜め(右上)の解像度変換による効果が大きいのは、図31に示すような(μ,ν)=(+μs/2, +νs/2)の近傍と(μ,ν)=(-μs/2, -νs/2)の近傍の周波数領域(3101)の成分(特に(μ,ν)=(+μs/2, +νs/2)を含み、μ>0, ν>0となる周波数の領域と、(μ,ν)=(-μs/2, -νs/2)を含み、μ<0, ν<0となる周波数の領域の成分)となる。   The effect of the diagonal (upper right) resolution conversion is large, as shown in FIG. 31, in the vicinity of (μ, ν) = (+ μs / 2, + νs / 2) and (μ, ν) = (− μs / 2, -νs / 2) in the vicinity of the frequency region (3101) (particularly (μ, ν) = (+ μs / 2, + νs / 2), with a frequency such that μ> 0 and ν> 0. Region, and (μ, ν) = (− μs / 2, −νs / 2), and a component of a frequency region where μ <0 and ν <0).

斜め(右下)の解像度変換による効果が大きいのは、図31に示すような(μ,ν)=(+μs/2,-νs/2)の近傍と(μ,ν)=(-μs/2, +νs/2)の近傍の周波数領域(3102)の成分(特に(μ,ν)=(+μs/2, -νs/2)を含み、μ>0, ν<0となる周波数の領域と、(μ,ν)=(-μs/2, +νs/2)を含み、μ<0, ν>0となる周波数の領域の成分)となる。   The effect of the diagonal (lower right) resolution conversion is large because (μ, ν) = (+ μs / 2, −νs / 2) as shown in FIG. 31 and (μ, ν) = (− μs). / 2, + νs / 2) in the frequency region (3102) (particularly (μ, ν) = (+ μs / 2, -νs / 2)), and frequencies where μ> 0 and ν <0 And (μ, ν) = (− μs / 2, + νs / 2), and components in a frequency region where μ <0, ν> 0).

従って、これらの周波数成分(3101)(3102)を2次元フィルタで抽出し、図25に示した周波数成分(2501)(2502)も併せて混合すると、解像度向上効果が大きい成分を選択的に出力することができる。   Therefore, when these frequency components (3101) and (3102) are extracted by a two-dimensional filter and mixed together with the frequency components (2501) and (2502) shown in FIG. 25, components having a large resolution improvement effect are selectively output. can do.

図32に、水平・垂直・斜め(右下)・斜め(右上)の各解像度変換による効果が大きい成分を抽出する混合器(2707)の構成例を示す。同図において、2次元フィルタ(3201)を用いて、混合器(2707)に入力されたSR(右下)の解像度向上効果が大きい周波数領域(3102)の成分を抽出する。同様に、2次元フィルタ(3202)を用いて、混合器(2707)に入力されたSR(右上)の解像度向上効果が大きい周波数領域(3101)の成分を抽出する。また、図26に示した2次元フィルタ(2601)(2602)により、それぞれSR(水平)およびSR(垂直)の解像度向上効果が大きい周波数領域(2501)(2502)の成分を抽出する。周波数領域(2501)(2502)(3101)(3102)以外の成分として、加算器(3203)と乗算器(3204)を用いてSR(水平)、SR(垂直)、SR(右下)、SR(右上)の平均の信号を作り、2次元フィルタ(3205)を用いて、2次元フィルタ(2601)(2602)(3201)(3202)の各通過帯域以外の成分を抽出する。2次元フィルタ(2601)(2602)(3201)(3202)(3205)の各出力信号を加算器(3206)で加算し、混合器(2707)の出力とする。   FIG. 32 shows an example of the configuration of a mixer (2707) that extracts components that have a large effect of horizontal, vertical, diagonal (lower right), and diagonal (upper right) resolution conversion. In the figure, a two-dimensional filter (3201) is used to extract a component in the frequency region (3102) having a large resolution improvement effect of SR (lower right) input to the mixer (2707). Similarly, using the two-dimensional filter (3202), the component of the frequency region (3101) having a large resolution improvement effect of SR (upper right) input to the mixer (2707) is extracted. In addition, the two-dimensional filters (2601) and (2602) shown in FIG. 26 extract components in the frequency regions (2501) and (2502) that have a large resolution improvement effect for SR (horizontal) and SR (vertical), respectively. As components other than frequency domain (2501) (2502) (3101) (3102), SR (horizontal), SR (vertical), SR (bottom right), SR using adder (3203) and multiplier (3204) An average signal (upper right) is created, and components other than the passbands of the two-dimensional filters (2601, 2602, 3201, and 3202) are extracted using the two-dimensional filter (3205). The output signals of the two-dimensional filters (2601), (2602), (3201), (3202), and (3205) are added by the adder (3206) to obtain the output of the mixer (2707).

なお、同図中に示す2次元フィルタ(2601)(2602)(3201)(3202)(3205)の中の丸で囲まれた数字は、それぞれのフィルタのタップ係数の一例を示す。   The numbers in circles in the two-dimensional filters (2601), (2602), (3201), (3202), and (3205) shown in the figure indicate examples of tap coefficients of the respective filters.

以上説明した実施例9に係る画像信号処理装置によれば、水平方向と垂直方向に加えて、斜め方向をも高解像度化した高解像度画像を生成することができる。   According to the image signal processing apparatus according to the ninth embodiment described above, it is possible to generate a high-resolution image in which the resolution in the oblique direction is increased in addition to the horizontal direction and the vertical direction.

なお、特許文献1、特許文献2、非特許文献1に記載されている従来技術により、3フレームを用いて1次元(水平・垂直・斜め(右下)・斜め(右上))の高解像度化を複数方向に対して行い、それらの各結果を図27に示す混合器(2707)に入力して混合し、2次元の解像度変換結果として出力してもよい。この場合、図27に示したように2フレームのみを用いて2次元の解像度変換を行う構成よりもフレームメモリや動き推定部などの信号処理回路の規模が大きくなるが、特許文献1、特許文献2、非特許文献1に記載されているように少なくとも7フレームの信号を用いるよりも、フレームメモリや動き推定部などの信号処理回路の規模を小さくできる。   In addition, according to the prior art described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, one-dimensional (horizontal, vertical, diagonal (lower right), diagonal (upper right)) high resolution using three frames May be performed in a plurality of directions, and each result thereof may be input to the mixer (2707) shown in FIG. 27 and mixed, and output as a two-dimensional resolution conversion result. In this case, as shown in FIG. 27, the scale of the signal processing circuit such as the frame memory and the motion estimation unit is larger than the configuration in which the two-dimensional resolution conversion is performed using only two frames. 2. As described in Non-Patent Document 1, it is possible to reduce the scale of a signal processing circuit such as a frame memory or a motion estimation unit, compared to using a signal of at least 7 frames.

また、特許文献1、特許文献2、非特許文献1に記載されている従来技術に限定されず、その他の従来の高解像度化技術を適用して1次元(水平・垂直・斜め(右下)・斜め(右上))の高解像度化を複数方向に対して行い、それらの各結果を図27に示す混合器(2707)に入力して混合し、2次元の解像度変換結果として出力してもよい。   In addition, the present invention is not limited to the conventional techniques described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, and other one-dimensional (horizontal / vertical / diagonal (lower right)) by applying other conventional high resolution technologies. Even if the resolution (diagonal (upper right)) is increased in a plurality of directions, the respective results are input to the mixer (2707) shown in FIG. 27, mixed, and output as a two-dimensional resolution conversion result. Good.

また、図27では、フレーム#1とフレーム#2の入力信号の組を用いてフレーム#1の解像度を変換する場合を例に挙げて説明したが、これ以外にも例えば、フレーム#1とフレーム#3、フレーム#1とフレーム#4などの複数の組を用いてそれぞれでフレーム#1の解像度を変換し、それらの結果を混合して、フレーム#1の最終的な解像度変換結果としてもよい。   Also, in FIG. 27, the case where the resolution of frame # 1 is converted using a set of input signals of frame # 1 and frame # 2 has been described as an example, but other than this, for example, frame # 1 and frame # 1 # 3, Frame # 1 and Frame # 4, etc. are used to convert the resolution of frame # 1 and mix the results to obtain the final resolution conversion result of frame # 1. .

このときの混合方法として、各結果の平均値をとってもよいし、図23および図24に示したようにフレームごとの係数C4(フレーム)の値に応じて混合してもよい。この場合、係数C4(フレーム)として、フレームごとの係数C4(水平)と係数C4(垂直)のMAX値(小さくないほうの値)を用いてもよい。また、画素ごとにすべての組の係数C4(水平)、C4(垂直)を比較し、係数C4が最も小さい組(すなわち、最も解像度向上効果が大きい組)から得られる解像度変換結果を画素ごとに選択して、フレーム#1の最終的な解像度変換結果としてもよい。   As a mixing method at this time, an average value of the results may be taken, or mixing may be performed according to the value of the coefficient C4 (frame) for each frame as shown in FIGS. In this case, as the coefficient C4 (frame), the MAX value (the smaller value) of the coefficient C4 (horizontal) and the coefficient C4 (vertical) for each frame may be used. Also, all the coefficients C4 (horizontal) and C4 (vertical) are compared for each pixel, and the resolution conversion result obtained from the group with the smallest coefficient C4 (i.e., the group with the greatest resolution improvement effect) is obtained for each pixel. The final resolution conversion result of frame # 1 may be selected.

これにより、例えばフレーム#1を基準として、フレーム#2がフレーム#1よりも過去のフレームであり、フレーム#3がフレーム#1よりも未来のフレームの場合、フレーム#1の時点で被写体が「動き」から「静止」に変化した場合(動き終わり)はフレーム#1とフレーム#2により解像度変換処理が行われ、フレーム#1の時点で被写体が「静止」から「動き」に変換した場合(動き始め)はフレーム#1とフレーム#3により解像度変換処理が行われるように画素ごとに各処理結果が混合されるようになるため、被写体の動きを有効に利用でき、解像度向上効果を最も大きくすることができる。   Thus, for example, with frame # 1 as a reference, if frame # 2 is a frame earlier than frame # 1 and frame # 3 is a future frame than frame # 1, the subject is When changing from `` motion '' to `` still '' (end of movement), resolution conversion processing is performed with frame # 1 and frame # 2, and when the subject is converted from `` still '' to `` motion '' at the time of frame # 1 ( (Beginning of motion) Since each processing result is mixed for each pixel so that resolution conversion processing is performed by frame # 1 and frame # 3, the motion of the subject can be used effectively, and the resolution improvement effect is the largest can do.

図33を用いて本発明の実施例10に係る画像信号処理方法について説明する。   An image signal processing method according to Embodiment 10 of the present invention will be described with reference to FIG.

実施例10は、実施例9に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。本実施例の画像信号処理方法を行う画像処理装置は実施例2と同様の図18に示す画像処理装置であるので説明を省略する。   The tenth embodiment relates to an image signal processing method for realizing a process equivalent to the image signal processing in the image signal processing apparatus according to the ninth embodiment by a control unit that cooperates with software. The image processing apparatus that performs the image signal processing method of the present embodiment is the image processing apparatus shown in FIG.

図33に、本実施例の動作のフローチャートの一例を示す。図33のフローチャートは、ステップ(3301)から開始し、ステップ(5-1)(5-2)(5-3)(5-4)にてそれぞれ水平、垂直、斜め(右下)、斜め(右上)の高解像度化を行う。ここで、各ステップ(5-1)(5-2)(5-3)(5-4)では、図14乃至図16に示した処理ステップ(5)、あるいは後述する図42乃至図44に示す処理ステップ(5)のいずれか、水平、垂直、斜め(右下)、斜め(右上)の各方向に実行すればよい。すなわち、π/2位相シフト(1407)(1408)、ヒルベルト変換(1510)などの「周波数-位相」特性を、図28に示すようにそれぞれの方向に応じて変更するとともに、位相差θをθH、θV、(θH+θV)、(-θH+θV)にそれぞれ置き換えて処理すればよい。各ステップ(5-1)(5-2)(5-3)(5-4)の処理結果は、図14乃至図16を用いて説明したように、それぞれのフレームバッファ#3に書き込まれる。続くステップ(3302-1)(3302-2)(3302-3) (3302-4)では、それぞれ垂直、水平、斜め方向の画素補間を行い、出力するフレームの水平・垂直の画素数と同じになるように、2次元フレームバッファ#3の全画素を生成する。続くステップ(3303)では、図29、図30、図32を用いて説明した方法に従って各フレームバッファ#3のデータを画素ごとに混合して、出力用のフレームバッファ#4に出力する。なお、上記第8乃至実施例9の動作をソフトウェアプログラムにより実現する場合には、斜め方向の処理を行うステップ(5-3)(5-4)、それらの結果に対して画素補間を行うステップ(3302-3)(3302-4)は不要である。また、ステップ(3303)の混合方法として、図22、図23、図26を用いて説明した方法に従って、データを混合する。   FIG. 33 shows an example of a flowchart of the operation of the present embodiment. The flowchart of FIG. 33 starts from step (3301), and in steps (5-1), (5-2), (5-3), and (5-4), horizontal, vertical, diagonal (lower right), diagonal ( Increase the resolution in the upper right). Here, in each step (5-1) (5-2) (5-3) (5-4), the processing step (5) shown in FIG. 14 to FIG. 16 or FIG. 42 to FIG. Any one of the processing steps (5) shown may be executed in the horizontal, vertical, diagonal (lower right), and diagonal (upper right) directions. In other words, the `` frequency-phase '' characteristics such as π / 2 phase shift (1407) (1408) and Hilbert transform (1510) are changed according to the respective directions as shown in FIG. 28, and the phase difference θ is changed to θH , ΘV, (θH + θV), and (−θH + θV). The processing results of steps (5-1), (5-2), (5-3), and (5-4) are written into the respective frame buffers # 3 as described with reference to FIGS. In the following steps (3302-1), (3302-2), (3302-3) and (3302-4), vertical, horizontal, and diagonal pixel interpolation is performed, respectively, to the same number of horizontal and vertical pixels as the output frame. Thus, all the pixels of the two-dimensional frame buffer # 3 are generated. In the subsequent step (3303), the data of each frame buffer # 3 is mixed for each pixel according to the method described with reference to FIGS. 29, 30, and 32, and is output to the output frame buffer # 4. When the operations of the eighth to ninth embodiments are realized by a software program, steps (5-3) and (5-4) for performing oblique processing, and steps for performing pixel interpolation on these results (3302-3) and (3302-4) are not required. In addition, as a mixing method in step (3303), data is mixed according to the method described with reference to FIGS.

以上説明した実施例10に係る画像信号処理方法によれば、水平方向と垂直方向に加えて、斜め方向をも高解像度化した高解像度画像を生成することができる。   According to the image signal processing method according to the tenth embodiment described above, it is possible to generate a high-resolution image in which the resolution in the oblique direction is increased in addition to the horizontal direction and the vertical direction.

図54に、本発明の実施例11に係る画像処理装置を示す。本実施例に係る画像処理装置は、例えばテレビジョン放送信号などの動画像のフレーム列が入力される入力部(1)と、この入力部(1)から入力された4枚のフレームを用いて、水平方向に2倍、垂直方向にそれぞれ2倍の高解像度化を行うための解像度変換部(8)と、更にこの解像度変換部(8)によって高解像度化されたフレームに基づき画像を表示する表示部(3)とを備えている。この解像度変換部(8)では、入力された4枚のフレームの各画像信号に対して、水平方向、垂直方向および水平・垂直方向のそれぞれに位相シフトを行うことによって、2次元周波数領域における折返し成分を除去して、2次元の高解像度化を実現する。以下、解像度変換部(8)の詳細について説明する。   FIG. 54 shows an image processing apparatus according to Embodiment 11 of the present invention. The image processing apparatus according to the present embodiment uses, for example, an input unit (1) to which a frame sequence of a moving image such as a television broadcast signal is input, and four frames input from the input unit (1). A resolution converter (8) for increasing the resolution twice in the horizontal direction and twice in the vertical direction, and further displaying an image based on the frame that has been increased in resolution by the resolution converter (8). And a display unit (3). This resolution conversion unit (8) performs a phase shift in the horizontal direction, vertical direction, and horizontal / vertical direction for each of the input image signals of the four frames, thereby folding back in the two-dimensional frequency domain. Removes components and achieves two-dimensional high resolution. Details of the resolution conversion unit (8) will be described below.

図54において、まず位置推定部(5406-2)(5406-3)(5406-4)により、入力部(1)から入力されたフレーム#1上の処理対象の画素の2次元的なサンプリング位置(標本化位置)を基準として、フレーム#2、フレーム#3、フレーム#4の上のそれぞれの対応する画像の2次元的な位置を推定し、水平位相差θH2(5407-2)、θH3(5407-3)、θH4(5407-4)、および垂直位相差θV2(5408-2)、θV3(5408-3)、θV4(5408-4)を求める。次に、動き補償・アップレート部(5410)の水平・垂直アップレート器(5401-1)(5401-2)(5401-3)(5401-4)により、上記位相差θH2(5407-2)、θH3(5407-3)、θH4(5407-4)、θV2(5408-2)、θV3(5408-3)、θV4(5408-4)の各情報を用いて、フレーム#2、フレーム#3、フレーム#4を動き補償してフレーム#1と位置を合わせるとともに、各フレームの画素数をそれぞれ水平2倍化、垂直2倍化して、合計4倍に高密度化する。位相シフト部(5411)では、この高密度化したデータの位相を、水平位相シフト器(5403-1)(5403-2)(5403-3)(5403-4)、垂直位相シフト器(5404-1)(5404-2)(5404-3)(5404-4)、水平・垂直位相シフト器(5405-1)(5405-2)(5405-3)(5405-4)を用いて、水平方向、垂直方向、水平・垂直方向にそれぞれ一定量だけシフトする。ここで、データの位相を一定量だけシフトする手段とし
て、上述したヒルベルト変換器などのπ/2位相シフト器を用いることができる。折返し成分除去部(5409)では、上述した位相シフト部(5411)からの合計16個の信号と、位相推定部(5412)からの合計6個の位相差信号を用いて、水平・垂直のそれぞれの方向の折返し成分を除去し、出力を得る。この出力は、表示部3に供給される。なお、位置推定部(5406-2)(5406-3)(5406-4)は、上記従来技術をそのまま用いて実現することができる。水平・垂直アップレート器(5401-1)(5401-2)(5401-3)(5401-4)は、図5および図6に示した動作・構成を水平・垂直方向の2次元に拡張したものである。位相シフト部(5411)、折返し成分除去部(5409)の各詳細については後述する。
In FIG. 54, first, a two-dimensional sampling position of a pixel to be processed on frame # 1 input from the input unit (1) by the position estimation units (5406-2), (5406-3), and (5406-4). Using the (sampling position) as a reference, the two-dimensional position of each corresponding image on frame # 2, frame # 3, and frame # 4 is estimated, and the horizontal phase difference θH2 (5407-2), θH3 ( 5407-3), θH4 (5407-4), and vertical phase differences θV2 (5408-2), θV3 (5408-3), and θV4 (5408-4) are obtained. Next, the phase difference θH2 (5407-2) is obtained by the horizontal / vertical uprater (5401-1) (5401-2) (5401-3) (5401-4) of the motion compensation / uprate unit (5410). , ΘH3 (5407-3), θH4 (5407-4), θV2 (5408-2), θV3 (5408-3), θV4 (5408-4) information, frame # 2, frame # 3, The frame # 4 is compensated for motion and aligned with the frame # 1, and the number of pixels in each frame is doubled horizontally and doubled, respectively, for a total density of 4 times. The phase shift unit (5411) converts the phase of the densified data into horizontal phase shifters (5403-1) (5403-2) (5403-3) (5403-4) and vertical phase shifters (5404- 1) Horizontal direction using (5404-2) (5404-3) (5404-4), horizontal / vertical phase shifter (5405-1) (5405-2) (5405-3) (5405-4) Shift by a fixed amount in the vertical, horizontal and vertical directions. Here, a π / 2 phase shifter such as the above-mentioned Hilbert transformer can be used as means for shifting the phase of data by a certain amount. In the aliasing component removal unit (5409), a total of 16 signals from the above-described phase shift unit (5411) and a total of 6 phase difference signals from the phase estimation unit (5412) are used for horizontal and vertical respectively. The output is obtained by removing the aliasing component in the direction of. This output is supplied to the display unit 3. Note that the position estimation units (5406-2), (5406-3), and (5406-4) can be realized using the above-described conventional technique as it is. The horizontal / vertical up-rater (5401-1) (5401-2) (5401-3) (5401-4) extends the operation and configuration shown in FIGS. 5 and 6 to two dimensions in the horizontal and vertical directions. Is. Details of the phase shift unit (5411) and the aliasing component removal unit (5409) will be described later.

図55に、水平・垂直位相シフト器(5405-1)(5405-2)(5405-3)(5405-4)の構成例を示す。画像信号の水平方向の位相と垂直方向の位相は互いに独立なため、水平・垂直位相シフト器(5405)は、垂直位相シフト器(5404)と水平位相シフト器(5403)を同図のように直列に組み合わせて実現できる。また、接続順序を逆にし、水平位相シフト器(5403)を垂直位相シフト器(5404)の前に配置しても同一の動作となることは明らかである。   FIG. 55 shows a configuration example of the horizontal / vertical phase shifters (5405-1), (5405-2), (5405-3), and (5405-4). Since the horizontal and vertical phases of the image signal are independent of each other, the horizontal / vertical phase shifter (5405) has the vertical phase shifter (5404) and horizontal phase shifter (5403) as shown in the figure. Can be realized by combining in series. In addition, it is clear that the same operation is achieved even if the connection order is reversed and the horizontal phase shifter (5403) is arranged in front of the vertical phase shifter (5404).

図56に、上述した位相シフト部(5411)、折返し成分除去部(5409)の各詳細な動作を示す。同図(a)は、水平周波数をμ、垂直周波数をνとして表した2次元周波数領域である
。もとの入力画像の水平サンプリング周波数をμs、垂直サンプリング周波数をνsとすると、同図(a)の原点(すなわち(μ,ν)=(0, 0))の近傍の信号を原成分として、(μ,ν)=(μs, 0)、(μ,ν)=(0,νs)、(μ,ν)=(μs,νs)の位置に折返し成分が生じることがよく知られている。なお、これらの原点対称の位置(すなわち、(μ,ν)=(-μs, 0)、(μ,ν)=(0, -νs)、(μ,ν)=(-μs,-νs))にも折返し成分が生じるが、これらは周波数の対称性により、(μ,ν)=(μs, 0)、(μ,ν)=(0,νs)、(μ,ν)=(μs,νs)の位置の折返し成分とそれぞれ等価である。図54に示した解像度変換部(8)にて、水平方向に2倍、垂直方向にそれぞれ2倍の高解像度化を行うには、動き補償・アップレート部(5410)にて水平方向、垂直方向のそれぞれに2倍のアップレート(0挿入)を行って画素数を4倍にしたのちに、図56(a)に示した(μ,ν)=(μs, 0)、(μ,ν)=(0,νs)、(μ,ν)=(μs,νs)の位置に生じた折返し成分を除去すればよい。以下、その動作について説明する。
FIG. 56 shows detailed operations of the phase shift unit (5411) and the aliasing component removal unit (5409) described above. FIG. 4A shows a two-dimensional frequency region in which the horizontal frequency is μ and the vertical frequency is ν. When the horizontal sampling frequency of the original input image is μs and the vertical sampling frequency is νs, the signal near the origin (i.e., (μ, ν) = (0, 0)) in FIG. It is well known that a folding component is generated at the position of (μ, ν) = (μs, 0), (μ, ν) = (0, νs), (μ, ν) = (μs, νs). Note that these origin symmetrical positions (i.e., (μ, ν) = (-μs, 0), (μ, ν) = (0, -νs), (μ, ν) = (-μs, -νs) ) Also produces aliasing components, but these are due to the symmetry of the frequency (μ, ν) = (μs, 0), (μ, ν) = (0, νs), (μ, ν) = (μs, It is equivalent to the folded component at the position of νs). In order to increase the resolution twice in the horizontal direction and twice in the vertical direction by the resolution conversion unit (8) shown in FIG. 54, the motion compensation / up-rate unit (5410) performs horizontal and vertical After double the up rate (0 insertion) in each direction and quadrupling the number of pixels, (μ, ν) = (μs, 0), (μ, ν) shown in FIG. 56 (a) ) = (0, νs), (μ, ν) = (μs, νs) may be removed. The operation will be described below.

図56(b)に、(μ,ν)=(0, 0) 、(μ,ν)=(μs, 0)、(μ,ν)=(0,νs)、(μ,ν)=(μs,νs)の位置における各成分の水平位相回転と垂直位相回転の様子を示す。図4に示したように、サンプリング位相が異なる複数のフレーム間では、原成分の位相回転は生じず、折返し成分のみがサンプリング位相差に応じて位相回転する。そこで、原成分の位相を基準(Re軸)とし、図54に示した位相シフト部(5411)によって水平、垂直、水平・垂直方向に位相直交軸(Im軸)の成分が発生することを考えると、図56(b)に示すように、原成分である(μ,ν)=(0, 0)(すなわち、#1)の水平Re軸(=水平方向の位相回転なし)かつ垂直Re軸(垂直方向の位相回転なし)の成分の値(各位相シフト後の信号の合計値)だけを「1」とし、他の成分(すなわち、#2〜#16)の値を「0」とすれば、折返し成分をキャンセルして、原成分だけを抽出することができる。   In FIG. 56 (b), (μ, ν) = (0, 0), (μ, ν) = (μs, 0), (μ, ν) = (0, νs), (μ, ν) = ( The state of horizontal phase rotation and vertical phase rotation of each component at the position of μs, νs) is shown. As shown in FIG. 4, the phase rotation of the original component does not occur between a plurality of frames having different sampling phases, and only the aliasing component rotates in phase according to the sampling phase difference. Thus, with the phase of the original component as the reference (Re axis), it is considered that the phase shift unit (5411) shown in FIG. 54 generates components of the phase orthogonal axis (Im axis) in the horizontal, vertical, horizontal and vertical directions. 56 (b), the original component (μ, ν) = (0, 0) (that is, # 1) horizontal Re axis (= no horizontal phase rotation) and vertical Re axis Only set the value of the component (no phase rotation in the vertical direction) (the total value of the signals after each phase shift) to `` 1 '' and the values of the other components (i.e., # 2 to # 16) to `` 0 ''. For example, the folded component can be canceled and only the original component can be extracted.

図56(c)に、上記図56(b)に示した位相関係を実現するためのマトリクス演算式を示す。同図において、Mは16×16の要素を持つマトリクスであり、水平、垂直、水平・垂直の各位相回転を示す演算である。このマトリクスMの詳細については、後述する。また、同図の左辺は図56(b)の「値」を示し、右辺のC1ReRe乃至C4ImImは図54に示した折返し成分除去部(5409)にて位相シフト部(5411)の各出力信号に乗じる係数を示す。すなわち、図54に示すフレーム#1については、遅延器(5402-1)の出力信号に係数C1ReReを乗じ、水平位相シフト器(5403-1)の出力信号に係数C1ImReを乗じ、垂直位相シフト器(5404-1)の出力信号に係数C1ReImを乗じ、水平・垂直位相シフト器(5405-1)の出力信号に係数C1ImImを乗じる。以下同様に、フレーム#2については、遅延器(5402-2)の出力信号に係数C2ReReを乗じ、水平位相シフト器(5403-2)の出力信号に係数C2ImReを乗じ、垂直位相シフト器(5404-2)の出力信号に係数C2ReImを乗じ、水平・垂直位相シフト器(5405-2)の出力信号に係数C2ImImを乗じる。フレーム#3については、遅延器(5402-3)の出力信号に係数C1ReReを乗じ、水平位相シフト器(5403-3)の出力信号に係数C3ImReを乗じ、垂直位相シフト器(5404-3)の出力信号に係数C3ReImを乗じ、水平・垂直位相シフト器(5405-3)の出力信号に係数C3ImImを乗じる。フレーム#4については、遅延器(5402-4)の出力信号に係数C4ReReを乗じ、水平位相シフト器(5403-4)の出力信号に係数C4ImReを乗じ、垂直位相シフト器(5404-4)の出力信号に係数C4ReImを乗じ、水平・垂直位相シフト器(5405-4)の出力信号に係数C4ImImを乗じる。後述する折返し成分除去部(5409)にて、上記の係数を乗じた合計16の信号をすべて加算したときに、図56(c)の関係が常に成り立つように上記係数C1ReRe乃至C4ImImを定めれば、折返し成分をキャンセルして、原成分だけを抽出することができる。   FIG. 56 (c) shows a matrix arithmetic expression for realizing the phase relationship shown in FIG. 56 (b). In the figure, M is a matrix having 16 × 16 elements, and is an operation indicating horizontal, vertical, horizontal / vertical phase rotation. Details of the matrix M will be described later. Also, the left side of the figure shows the “value” in FIG. 56 (b), and C1ReRe to C4ImIm on the right side are output to the output signals of the phase shift unit (5411) by the aliasing component removal unit (5409) shown in FIG. Indicates the coefficient to be multiplied. That is, for frame # 1 shown in FIG. 54, the output signal of the delay unit (5402-1) is multiplied by the coefficient C1ReRe, the output signal of the horizontal phase shifter (5403-1) is multiplied by the coefficient C1ImRe, and the vertical phase shifter The output signal of (5404-1) is multiplied by a coefficient C1ReIm, and the output signal of the horizontal / vertical phase shifter (5405-1) is multiplied by a coefficient C1ImIm. Similarly, for frame # 2, the output signal of the delay unit (5402-2) is multiplied by the coefficient C2ReRe, the output signal of the horizontal phase shifter (5403-2) is multiplied by the coefficient C2ImRe, and the vertical phase shifter (5404 The output signal of -2) is multiplied by the coefficient C2ReIm, and the output signal of the horizontal / vertical phase shifter (5405-2) is multiplied by the coefficient C2ImIm. For frame # 3, the output signal of the delay unit (5402-3) is multiplied by the coefficient C1ReRe, the output signal of the horizontal phase shifter (5403-3) is multiplied by the coefficient C3ImRe, and the vertical phase shifter (5404-3) The output signal is multiplied by a coefficient C3ReIm, and the output signal of the horizontal / vertical phase shifter (5405-3) is multiplied by a coefficient C3ImIm. For frame # 4, the output signal of the delay unit (5402-4) is multiplied by the coefficient C4ReRe, the output signal of the horizontal phase shifter (5403-4) is multiplied by the coefficient C4ImRe, and the vertical phase shifter (5404-4) The output signal is multiplied by a coefficient C4ReIm, and the output signal of the horizontal / vertical phase shifter (5405-4) is multiplied by a coefficient C4ImIm. If the coefficients C1ReRe to C4ImIm are determined so that the relationship shown in FIG. 56 (c) always holds when all the 16 signals multiplied by the above coefficients are added by the aliasing component removal unit (5409) described later. It is possible to cancel the folded component and extract only the original component.

図56(d)に、マトリクスMの詳細を示す。マトリクスMは、上述したように16×16の要素を持つマトリクスであり、mij(ただし、行番号iと列番号jは、1≦i≦4、1≦j≦4を満たす整数)で表される4×4の要素を持つ部分マトリクスから構成される。この部分マトリクスmijは、行番号iに応じて同図(e)(f)(g)(h)のように分類される。   FIG. 56 (d) shows details of the matrix M. The matrix M is a matrix having 16 × 16 elements as described above, and is represented by mij (where row number i and column number j are integers satisfying 1 ≦ i ≦ 4 and 1 ≦ j ≦ 4). It consists of a partial matrix with 4x4 elements. This partial matrix mij is classified as shown in (e), (f), (g), and (h) in FIG.

図56(e)に、行番号i=1のときの部分マトリクスm1j(すなわち、m11、m12、m13、m14)の各要素を示す。この部分マトリクスm1jは、周波数(μ,ν)=(0, 0)の成分に作用する要素であり、フレーム間のサンプリング位相差にかかわらず水平・垂直の位相回転は生じないため、単位マトリクス(すなわち、右下がりの対角線上にある要素がすべて1で、残りの要素がすべて0のマトリクス)となる。   FIG. 56 (e) shows each element of the partial matrix m1j (that is, m11, m12, m13, m14) when the row number i = 1. This partial matrix m1j is an element acting on the component of the frequency (μ, ν) = (0, 0), and no horizontal / vertical phase rotation occurs regardless of the sampling phase difference between frames. That is, a matrix in which all the elements on the diagonal to the lower right are 1 and the remaining elements are all 0).

図56(f)に、行番号i=2のときの部分マトリクスm2j(すなわち、m21、m22、m23、m24)の各要素を示す。この部分マトリクスm2jは、(μ,ν)=(μs, 0)の成分に作用する要素であり、サンプリングの水平位相差θHj(ただし、jは1≦j≦4を満たす整数)に応じて、水平方向の位相を回転させる回転マトリクスとなる。すなわち、垂直位相軸が共通の図56(b)に示す#5と#6、および#7と#8をそれぞれペアとして、水平周波数軸を中心にθHjだけ位相回転させる回転マトリクスとなる。なお、j=1のときの水平位相差θH1は図54に示されていないが、これはフレーム#1(基準)とフレーム#1(処理対象=基準と同一)との間の位相差(=0)と解釈し、θH1=0として扱えばよい。以下、垂直位相差θV1についても同様にθV1=0として扱う。   FIG. 56 (f) shows each element of the partial matrix m2j (that is, m21, m22, m23, m24) when the row number i = 2. This partial matrix m2j is an element acting on the component of (μ, ν) = (μs, 0), and according to the horizontal phase difference θHj of sampling (where j is an integer satisfying 1 ≦ j ≦ 4), This is a rotation matrix that rotates the phase in the horizontal direction. That is, a rotation matrix that rotates the phase by θHj around the horizontal frequency axis with # 5 and # 6 and # 7 and # 8 shown in FIG. 56 (b) having a common vertical phase axis as a pair. The horizontal phase difference θH1 when j = 1 is not shown in FIG. 54, but this is the phase difference between the frame # 1 (reference) and the frame # 1 (the processing target = the same as the reference) (= 0) and treated as θH1 = 0. Hereinafter, the vertical phase difference θV1 is similarly treated as θV1 = 0.

図56(g)に、行番号i=3のときの部分マトリクスm3j(すなわち、m31、m32、m33、m34)の各要素を示す。この部分マトリクスm3jは、(μ,ν)=(0,νs)の成分に作用する要素であり、サンプリングの垂直位相差θVj(ただし、jは1≦j≦4を満たす整数)に応じて、垂直方向の位相を回転させる回転マトリクスとなる。すなわち、水平位相軸が共通の図56(b)に示す#9と#11、および#10と#12をそれぞれペアとして、垂直周波数軸を中心にθVjだけ位相回転させる回転マトリクスとなる。   FIG. 56 (g) shows each element of the partial matrix m3j (that is, m31, m32, m33, m34) when the row number i = 3. This partial matrix m3j is an element acting on the component of (μ, ν) = (0, νs), and according to the sampling vertical phase difference θVj (where j is an integer satisfying 1 ≦ j ≦ 4), This is a rotation matrix that rotates the phase in the vertical direction. That is, a rotation matrix that rotates the phase by θVj around the vertical frequency axis with # 9 and # 11 and # 10 and # 12 shown in FIG. 56 (b) having a common horizontal phase axis as a pair.

図56(h)に、行番号i=4のときの部分マトリクスm4j(すなわち、m41、m42、m43、m44)の各要素を示す。この部分マトリクスm4jは、(μ,ν)=(μs,νs)の成分に作用する要素であり、サンプリングの水平位相差θHjと垂直位相差θVj(ただし、jは1≦j≦4を満たす整数)の両方に応じて、水平方向、垂直方向ともに位相を回転させる回転マトリクスとなる。すなわち、上記m2jとm3jの積となる。   FIG. 56 (h) shows each element of the partial matrix m4j (that is, m41, m42, m43, m44) when the row number i = 4. This partial matrix m4j is an element acting on the component of (μ, ν) = (μs, νs), and the sampling horizontal phase difference θHj and vertical phase difference θVj (where j is an integer satisfying 1 ≦ j ≦ 4) ), The rotation matrix rotates the phase in both the horizontal and vertical directions. That is, it is the product of m2j and m3j.

別の見方をすると、m1j、m2j、m3jについても、m4jのように水平方向、垂直方向ともに位相を回転させる回転マトリクスとし、m1jの場合はθHj=θVj=0、m2jの場合はθVj=0、m3jの場合はθHj=0、に設定したと考えても、上記説明と同一の部分マトリクスとなる。   From another viewpoint, m1j, m2j, and m3j are also rotation matrices that rotate the phase in both the horizontal and vertical directions as in m4j. For m1j, θHj = θVj = 0, for m2j, θVj = 0 In the case of m3j, even if it is assumed that θHj = 0, the partial matrix is the same as described above.

このように、各サンプリング位相差(θHj、θVj)をもとにマトリクスMを決定し、図56(c)に示す等式が常に成り立つように、合計16個の係数(C1ReRe乃至C4ImIm)を決定する。この際、マトリクスMに対する逆マトリクスM-1を予め求めておき、図56(i)に示す演算によって係数(C1ReRe乃至C4ImIm)を決定すればよい。逆マトリクスM-1を求める方法として、余因子行列を使う方法、Gauss-Jordanの掃き出し法を使う方法、三角行列にわけて計算する方法などがよく知られているため、ここでは図示を省略する。 In this way, the matrix M is determined based on each sampling phase difference (θHj, θVj), and a total of 16 coefficients (C1ReRe to C4ImIm) are determined so that the equation shown in FIG. 56 (c) always holds. To do. At this time, an inverse matrix M −1 for the matrix M is obtained in advance, and the coefficients (C1ReRe to C4ImIm) may be determined by the calculation shown in FIG. 56 (i). As a method for obtaining the inverse matrix M −1 , a method using a cofactor matrix, a method using a Gauss-Jordan sweep-out method, a method of calculating by dividing into a triangular matrix, etc. are well known. .

図57に、図55に示した折返し成分除去部(5409)の詳細な構成例を示す。同図において、係数決定部(5701)では、図55に示した位置推定部(5412)から出力される水平位相差(θH2、θH3、θH4)および垂直位相差(θV2、θV3、θV4)に基づき、図56(i)に示した逆マトリクス演算によって、各係数(C1ReRe乃至C4ImIm)を生成する。これらの係数を、位相シフト部(5411)から出力された各フレームの信号と乗算器(5702)によって掛け合わせ、加算器(5703)により全加算して、折返し成分除去部(5409)の出力信号(すなわち、解像度変換部(8)の出力信号)とする。なお、水平位相差(θH2、θH3、θH4)および垂直位相差(θV2、θV3、θV4)は入力フレーム上の画素ごとに値が異なることが一般的なため、画素ごとに上述の逆マトリクス演算を行う必要がある。このとき、水平位相差(θH2、θH3、θH4)および垂直位相差(θV2、θV3、θV4)を代表的な位相差(例えば、図9(d)に示したようなπ/8の整数倍など)として予め各係数(C1ReRe乃至C4ImIm)を生成しておき、ROM(Read Only Memory)などを用いてテーブル化しておいてもよい。これは、一般的なテーブル参照方式としてよく知られているため、図示は省略する。   FIG. 57 shows a detailed configuration example of the aliasing component removal unit (5409) shown in FIG. In the figure, the coefficient determination unit (5701) is based on the horizontal phase differences (θH2, θH3, θH4) and vertical phase differences (θV2, θV3, θV4) output from the position estimation unit (5412) shown in FIG. Each coefficient (C1ReRe to C4ImIm) is generated by the inverse matrix operation shown in FIG. 56 (i). These coefficients are multiplied by the signal of each frame output from the phase shift unit (5411) by the multiplier (5702), fully added by the adder (5703), and output from the aliasing component removal unit (5409). (That is, the output signal of the resolution converter (8)). The horizontal phase difference (θH2, θH3, θH4) and vertical phase difference (θV2, θV3, θV4) are generally different for each pixel on the input frame, so the above inverse matrix calculation is performed for each pixel. There is a need to do. At this time, the horizontal phase difference (θH2, θH3, θH4) and the vertical phase difference (θV2, θV3, θV4) are representative phase differences (for example, an integral multiple of π / 8 as shown in FIG. 9D). ), The coefficients (C1ReRe to C4ImIm) may be generated in advance and tabulated using a ROM (Read Only Memory) or the like. Since this is well known as a general table reference method, illustration is omitted.

図58に、図55に示した折返し成分除去部(5409)の他の構成例を示す。上述の説明では、図56(c)に示す等式が常に成り立つように、合計16個の係数(C1ReRe乃至C4ImIm)を決定する際に、マトリクスMに対する逆マトリクスM-1を予め求めておき、図56(i)に示す演算によって係数(C1ReRe乃至C4ImIm)を決定しようとしたが、水平位相差(θH2、θH3、θH4)および垂直位相差(θV2、θV3、θV4)の値によっては逆マトリクスM-1が存在せず、係数(C1ReRe乃至C4ImIm)を決定できない場合がある。逆マトリクスM-1が存在するかどうかは、係数決定部(5701)にて逆マトリクスM-1を算出する際に、余因子行列を使う方法、Gauss-Jordanの掃き出し法を使う方法、三角行列にわけて計算する方法などの演算過程で容易に判定可能であり、逆マトリクスM-1が存在しない場合は、上述した図21などに示した解像度変換部(4)によってフレーム#1とフレーム#2を用いて出力信号を得るように、出力信号を切り替えればよい。すなわち、図58に示す水平方向の折返し成分除去部(2108)、垂直方向の折返し成分除去部(2109)、画素補間器(2003)(2007)、混合器(2009)を用い、位相シフト部(5411)から出力されたフレーム#1とフレーム#2、および、位置推定部から出力された水平位相差θH2(5407-2)と垂直位相差θV2(5408-2)をもとに、解像度変換結果を生成し、切替器(5801)を用いて上述した加算器(5703)の結果と切り替えて、出力信号とすればよい。なお、切替器(5801)を用いて2値的に切り替えるのではなく、加算器(5703)の出力と混合器(2009)の出力とを連続的に混合(すなわち加重加算)するように構成し、例えば逆マトリクスM-1が存在しない画素の近傍は混合器(2009)の出力の混合比を増やすように構成してもよい。 FIG. 58 shows another configuration example of the aliasing component removal unit (5409) shown in FIG. In the above description, when determining a total of 16 coefficients (C1ReRe to C4ImIm) so that the equation shown in FIG. 56 (c) always holds, an inverse matrix M −1 for the matrix M is obtained in advance. The coefficients (C1ReRe to C4ImIm) are to be determined by the calculation shown in FIG. 56 (i). In some cases, −1 does not exist and the coefficients (C1ReRe to C4ImIm) cannot be determined. Whether the inverse matrix M −1 exists is determined by calculating the inverse matrix M −1 in the coefficient determination unit (5701), using a cofactor matrix, using a Gauss-Jordan sweep-out method, and a triangular matrix If the inverse matrix M −1 does not exist, it can be easily determined in the calculation process such as the calculation method, and the frame # 1 and the frame # are processed by the resolution conversion unit (4) shown in FIG. The output signal may be switched so that the output signal is obtained using 2. That is, using the horizontal folding component removal unit (2108), the vertical folding component removal unit (2109), the pixel interpolator (2003) (2007), and the mixer (2009) shown in FIG. Resolution conversion result based on frame # 1 and frame # 2 output from 5411) and horizontal phase difference θH2 (5407-2) and vertical phase difference θV2 (5408-2) output from the position estimation unit And the output of the adder (5703) described above using the switch (5801). Instead of binary switching using the switch (5801), the output of the adder (5703) and the output of the mixer (2009) are continuously mixed (that is, weighted addition). For example, in the vicinity of a pixel where the inverse matrix M −1 does not exist, the mixing ratio of the output of the mixer (2009) may be increased.

以上説明した折返し成分の除去処理により、図56(a)に示す2次元周波数領域において、水平方向については中心から(μ,ν)=(μs, 0)まで解像度向上効果が図れる。また、垂直方向については中心から(μ,ν)=(0,νs)まで解像度向上効果が図れる。また、斜め方向については中心から(μ,ν)=(μs,νs) まで解像度向上効果が図れる。   By the aliasing component removal processing described above, in the two-dimensional frequency region shown in FIG. 56 (a), the resolution improvement effect can be achieved from the center to (μ, ν) = (μs, 0) in the horizontal direction. In the vertical direction, the effect of improving the resolution can be achieved from the center to (μ, ν) = (0, νs). In the oblique direction, the effect of improving the resolution can be achieved from the center to (μ, ν) = (μs, νs).

ここで、実施例7に係る画像信号処理装置及び画像信号処理方法においても、水平方向と垂直方向に加えて、斜め方向をも高解像度化を行っているが、その斜め方向の解像度向上効果は、図31に示すように、(μ,ν)=(μs,νs) までは及ばない。   Here, also in the image signal processing apparatus and the image signal processing method according to the seventh embodiment, the resolution is increased in the oblique direction in addition to the horizontal direction and the vertical direction. As shown in FIG. 31, it does not reach (μ, ν) = (μs, νs).

よって、図54に示す画像信号処理装置は、実施例7に係る画像信号処理装置よりも斜め方向において高周波成分まで解像度向上が可能となるという効果を有する。   Therefore, the image signal processing device shown in FIG. 54 has an effect that the resolution can be improved to a high frequency component in an oblique direction as compared with the image signal processing device according to the seventh embodiment.

次に、図53を用いて、本発明の実施例11に係る画像信号処理装置と従来技術の動作の違いを説明する。同図(a)は、図54に示した解像度変換部(8)に入力されたフレーム#1(5301)、フレーム#2(5302)、フレーム#3(5303)、フレーム#4(5304)、フレーム#5(5305)を示し、同図(b)は解像度変換部(8)から出力された各フレームを示す。各フレームにて、被写体が1/4画素ずつ右回りに移動し、4フレームで1周するように意図的に被写体を移動させる。この動きをフレーム#5以降も同様に連続させる。   Next, the difference in operation between the image signal processing apparatus according to the eleventh embodiment of the present invention and the prior art will be described with reference to FIG. FIG. 5A shows a frame # 1 (5301), a frame # 2 (5302), a frame # 3 (5303), a frame # 4 (5304), input to the resolution converter (8) shown in FIG. Frame # 5 (5305) is shown, and FIG. 5B shows each frame output from the resolution converter (8). In each frame, the subject moves clockwise by 1/4 pixel, and the subject is intentionally moved so as to make one round in four frames. This movement is continued in the same manner from frame # 5.

特許文献1、特許文献2、非特許文献1に記載されている従来技術では、上述したよう
に、水平・垂直の2次元の入力信号に対して高解像度化する場合、折返しが縦横2方向から
来るので、原信号の帯域が縦横共に2倍に広がると、3つの折返し成分が重なり、それらを
打ち消すためには2M+1=7個のデジタルデータ(=7枚のフレーム画像の信号)を必要としてい
た。従って、図34(a)に示すような4フレームで一巡するような信号を入力した場合、ど
の7フレームを選択しても独立したデータが得られないため、高解像度化処理による解が
不定となり求められない。
In the conventional techniques described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, as described above, when the resolution is increased with respect to a horizontal / vertical two-dimensional input signal, folding is performed from two vertical and horizontal directions. Therefore, if the bandwidth of the original signal doubles both vertically and horizontally, the three aliasing components overlap, and 2M + 1 = 7 digital data (= 7 frame image signals) is required to cancel them. I was trying. Therefore, when a signal that circulates in 4 frames as shown in FIG. 34 (a) is input, independent data cannot be obtained no matter which 7 frames are selected, and the solution by the high resolution processing becomes indefinite. It is not required.

一方、第20乃至第21の実施例を用いれば、例えば隣接する4フレーム(フレーム#1(5301)とフレーム#2(5302)、フレーム#3(5303)、フレーム#4(5304))を用いて、同図(b)に示すように水平方向、垂直方向、水平・垂直方向の折返し成分を除去して高解像度化を実現できる。すなわち、同図(a)の入力画像をテストパターンとして用いることにより、本実施例の動作状況を確認することができる。このテストパターンの絵柄として、一般的によく知られている円形ゾーンプレート(CZP:Circular Zone Plate)を用いれば、解像度変換の効果を表示部(3)にて直視できるようになる。すなわち、円形ゾーンプレートを図34(a)に示すように4フレームで1周するように移動させれば、つねに水平方向の解像度と垂直方向の解像度が向上した画像が表示されて、解像度向上の効果を確認することができる。   On the other hand, using the twentieth to twenty-first embodiments, for example, four adjacent frames (frame # 1 (5301) and frame # 2 (5302), frame # 3 (5303), frame # 4 (5304)) are used. Thus, as shown in FIG. 5B, high resolution can be realized by removing the aliasing components in the horizontal direction, vertical direction, and horizontal / vertical direction. That is, the operation status of the present embodiment can be confirmed by using the input image of FIG. If a generally well-known circular zone plate (CZP: Circular Zone Plate) is used as the pattern of this test pattern, the effect of resolution conversion can be directly viewed on the display unit (3). That is, if the circular zone plate is moved so as to make one round in four frames as shown in FIG. 34 (a), an image with improved horizontal resolution and vertical resolution is always displayed. The effect can be confirmed.

以上説明したように、実施例11に係る画像信号処理装置は、4枚の入力画像フレームの各画像信号に対し、方向の異なる複数種類の位相シフト(水平方向、垂直方向、水平・垂直方向)を行うことにより、各画像信号のそれぞれから4つの信号を生成する。これにより、4枚の入力画像フレームの画像信号から16個の信号を生成する。ここで、上記4枚の入力画像フレームの位相差に基づいて、当該16個の信号の各信号について、当該16個の信号を折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成画像のそれぞれの画素について、上記16個の信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。   As described above, the image signal processing apparatus according to the eleventh embodiment has a plurality of types of phase shifts (horizontal direction, vertical direction, horizontal / vertical direction) with respect to each image signal of four input image frames. Is performed to generate four signals from each of the image signals. As a result, 16 signals are generated from the image signals of the four input image frames. Here, based on the phase difference between the four input image frames, for each of the 16 signals, a coefficient for canceling the aliasing component of the 16 signals and combining them is calculated for each pixel. For each pixel of the generated image, the sum of the corresponding pixel value of each of the 16 signals multiplied by each coefficient is calculated to generate a new pixel value of the high-resolution image.

これにより、実施例11に係る画像信号処理装置は、水平方向と垂直方向に加えて、右下方向および右上方向の斜め成分をも高解像度化した高解像度画像を生成することができる。   Thus, the image signal processing apparatus according to the eleventh embodiment can generate a high-resolution image in which the diagonal components in the lower right direction and the upper right direction are increased in addition to the horizontal direction and the vertical direction.

また、実施例11に係る画像信号処理装置による解像度向上効果は、斜め方向において、実施例9に係る画像信号処理装置よりもさらに高周波成分まで解像度向上が可能であり、より高画質な高解像度画像を生成することができる。   Further, the resolution improvement effect by the image signal processing device according to the eleventh embodiment is that the resolution can be improved to a higher frequency component in the oblique direction than the image signal processing device according to the ninth embodiment, and a high-resolution image with higher image quality. Can be generated.

図59及び図19を用いて本発明の実施例12に係る画像信号処理方法について説明する。   An image signal processing method according to Embodiment 12 of the present invention will be described with reference to FIGS. 59 and 19.

実施例12は、実施例11に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。   The twelfth embodiment relates to an image signal processing method in which processing equivalent to the image signal processing in the image signal processing apparatus according to the eleventh embodiment is realized by a control unit that cooperates with software.

ここで、図19を用いて本実施例に係る画像信号処理方法を実現するための画像処理装置について説明する。図19に示す画像信号処理装置は、例えばテレビジョン放送信号などの画像信号が入力される入力部(1)と、入力部(1)から入力された信号を処理するためのソフトウェアを記憶する記憶部(11)と、記憶部(11)に記憶されるソフトウェアと協働して入力部(1)から入力された信号について画像信号処理を行う制御部(10)と、制御部(10)が当該画像信号処理においてデータのバッファに用いるフレームバッファ#1(31)、フレームバッファ#2(32)、フレームバッファ#3(33)、フレームバッファ#4(34)と、制御部(10)から出力部(3)に出力される画像信号処理後の信号を、フレームバッファするためのバッファ#5(35)とを備える。   Here, an image processing apparatus for realizing the image signal processing method according to the present embodiment will be described with reference to FIG. The image signal processing apparatus shown in FIG. 19 stores, for example, an input unit (1) to which an image signal such as a television broadcast signal is input, and software for processing the signal input from the input unit (1). A control unit (10) that performs image signal processing on a signal input from the input unit (1) in cooperation with software stored in the unit (11), the storage unit (11), and a control unit (10) Output from the frame buffer # 1 (31), frame buffer # 2 (32), frame buffer # 3 (33), frame buffer # 4 (34), and the control unit (10) used as a data buffer in the image signal processing A buffer # 5 (35) for frame-buffering the image signal processed signal output to the unit (3).

ここで、図19に示す画像信号処理装置が備える入力部(1)の数は、画像処理に用いるフレーム数である4と同じとしたが、入力部(1)を一つだけ備えて、4つフレームを連続して入力しても構わない。   Here, the number of input units (1) included in the image signal processing apparatus shown in FIG. 19 is the same as four, which is the number of frames used for image processing. One frame may be input continuously.

また、データのバッファに用いるフレームバッファ#1(31)、フレームバッファ#2(32)、フレームバッファ#3(33)、フレームバッファ#4(34)、およびソフトウェアを記憶する記憶部(11)は、それぞれが個別のメモリチップを用いて構成してもよいし、1個あるいは複数個のメモリチップを用い、各データアドレスを分割して使用する構成にしてもよい。   In addition, the frame buffer # 1 (31), the frame buffer # 2 (32), the frame buffer # 3 (33), the frame buffer # 4 (34), and the storage unit (11) for storing software are used for the data buffer. Each may be configured using individual memory chips, or one or a plurality of memory chips may be used to divide and use each data address.

本実施例において、入力部(1)から入力される画像信号について、制御部(10)が記憶部(11)に記憶されるソフトウェアと協働して画像信号処理を行い、表示部(3)に出力する。当該画像信号処理の詳細は図59を用いて説明する。   In this embodiment, for the image signal input from the input unit (1), the control unit (10) performs image signal processing in cooperation with software stored in the storage unit (11), and the display unit (3) Output to. Details of the image signal processing will be described with reference to FIG.

図59のフローチャートは、ステップ(5901)から開始し、ステップ(5902-1)(5902-2)(5902-3)(5902-4)にて各フレームの画像データを水平・垂直ともにそれぞれ2倍にアップレートする。すなわち、ステップ(5902-1)にてフレーム#1の画像データをアップレートしてフレームバッファ#1に書込み、ステップ(5902-2)にてフレーム#2の画像データをアップレートしてフレームバッファ#2に書き込み、ステップ(5902-3)にてフレーム#3の画像データをアップレートしてフレームバッファ#3に書込み、ステップ(5902-4)にてフレーム#4の画像データをアップレートしてフレームバッファ#4に書き込む。ここで、アップレートとは、各フレームバッファの値を一旦0でクリアしたのちに、水平1画素おき、かつ垂直1画素おきにデータを書き込むことにより実現できる。   The flowchart in FIG. 59 starts from step (5901), and in steps (5902-1), (5902-2), (5902-3), and (5902-4), the image data of each frame is doubled both horizontally and vertically. Update to That is, the image data of frame # 1 is updated at step (5902-1) and written to frame buffer # 1, and the image data of frame # 2 is updated at step (5902-2) to frame buffer # 1. 2 is written, the image data of frame # 3 is updated at step (5902-3) and written to frame buffer # 3, and the image data of frame # 4 is updated at step (5902-4) to frame Write to buffer # 4. Here, the up-rate can be realized by writing the data every other horizontal pixel and every other vertical pixel after once clearing the value of each frame buffer to 0.

次に、ステップ(5903)にて、フレームバッファ#1の最初の画素(例えば左上の画素)を処
理対象に設定して、以下、フレームバッファ#1に対するすべての画素データの処理が終わ
るまで、処理をループする。
Next, in step (5903), the first pixel (for example, the upper left pixel) of frame buffer # 1 is set as the processing target, and processing is performed until all pixel data processing for frame buffer # 1 is completed. Loop.

ステップ(5904-2)では、フレームバッファ#1の対象画素を基準にしてフレームバッファ#2の中の対応する画素の位置を推定し、水平位相差θH2と垂直位相差θV2を出力する。同様に、ステップ(5904-3)では、フレームバッファ#1の対象画素を基準にしてフレームバッファ#3の中の対応する画素の位置を推定し、水平位相差θH3と垂直位相差θV3を出力する。また、ステップ(5904-4)では、フレームバッファ#1の対象画素を基準にしてフレームバッファ#4の中の対応する画素の位置を推定し、水平位相差θH4と垂直位相差θV4を出力する。このとき、対応する画素の位置を推定する方法として、上記の従来技術をそのまま用いることができる。   In step (5904-2), the position of the corresponding pixel in the frame buffer # 2 is estimated based on the target pixel in the frame buffer # 1, and the horizontal phase difference θH2 and the vertical phase difference θV2 are output. Similarly, in step (5904-3), the position of the corresponding pixel in the frame buffer # 3 is estimated with reference to the target pixel in the frame buffer # 1, and the horizontal phase difference θH3 and the vertical phase difference θV3 are output. . In step (5904-4), the position of the corresponding pixel in the frame buffer # 4 is estimated based on the target pixel in the frame buffer # 1, and the horizontal phase difference θH4 and the vertical phase difference θV4 are output. At this time, the above-described conventional technique can be used as it is as a method of estimating the position of the corresponding pixel.

ステップ(5905-2)では、ステップ(5904-2)で求めた水平位相差θH2と垂直位相差θV2をもとに、フレームバッファ#2の中の対応する画素の近傍の画素を動き補償する。この動き補償の動作は、図5および図6を用いて説明した動作を、水平方向と垂直方向のそれぞれに対して同様に行えばよい。同様に、ステップ(5905-3)では、ステップ(5904-3)で求めた水平位相差θH3と垂直位相差θV3をもとに、フレームバッファ#3の中の対応する画素の近傍の画素を動き補償する。また、ステップ(5905-4)では、ステップ(5904-4)で求めた水平位相差θH4と垂直位相差θV4をもとに、フレームバッファ#4の中の対応する画素の近傍の画素を動き補償する。   In step (5905-2), based on the horizontal phase difference θH2 and vertical phase difference θV2 obtained in step (5904-2), pixels near the corresponding pixel in the frame buffer # 2 are motion compensated. In this motion compensation operation, the operation described with reference to FIGS. 5 and 6 may be performed in the same manner for each of the horizontal direction and the vertical direction. Similarly, in step (5905-3), based on the horizontal phase difference θH3 and vertical phase difference θV3 obtained in step (5904-3), a pixel near the corresponding pixel in frame buffer # 3 is moved. To compensate. In step (5905-4), based on the horizontal phase difference θH4 and vertical phase difference θV4 obtained in step (5904-4), motion compensation is performed on pixels near the corresponding pixel in frame buffer # 4. To do.

続いて、ステップ(5913)にて、フレームバッファ#1と動き補償したフレームバッファ#2、フレームバッファ#3、フレームバッファ#4に対して、ステップ(5906-1)(5906-2)(5906-3)(5906-4)により水平位相を一定量だけシフトし、ステップ(5907-1)(5907-2)(5907-3)(5907-4)により垂直位相を一定量だけシフトする。また、ステップ(5907-1)(5907-2)(5907-3)(5907-4)の結果に対して、さらにステップ(5908-1)(5908-2)(5908-3)(5908-4)によって水平位相を一定量だけシフトすることにより、水平と垂直の両方の位相を、一定量だけシフトする。すなわち、各フレームバッファの中の画素データを、水平方向および垂直方向にπ/2位相シフトする。   Subsequently, in step (5913), steps (5906-1), (5906-2), (5906-) are applied to frame buffer # 1, frame buffer # 2, frame buffer # 3, and frame buffer # 4 subjected to motion compensation. 3) The horizontal phase is shifted by a certain amount by (5906-4), and the vertical phase is shifted by a certain amount by steps (5907-1), (5907-2), (5907-3) and (5907-4). Further, for the result of steps (5907-1) (5907-2) (5907-3) (5907-4), steps (5908-1) (5908-2) (5908-3) (5908-4) ) Shifts the horizontal phase by a certain amount, thereby shifting both the horizontal and vertical phases by a certain amount. That is, the pixel data in each frame buffer is phase shifted by π / 2 in the horizontal direction and the vertical direction.

続いて、ステップ(5909)にて、水平位相差(θH2、θH3、θH4)および垂直位相差(θV2、θV3、θV4)に基づいて図56に示した方法で全16個の各係数(C1ReRe乃至C4ImIm)を決定し、ステップ(5913)の各出力と上記各係数を乗算して加算(加重加算)することにより、フレームバッファ#1、フレームバッファ#2、フレームバッファ#3、フレームバッファ#4の画素データから折返し成分を除去し、フレームバッファ#5に出力する。この折返し成分除去の動作は、図57あるいは図58を用いて説明した動作と同一である。   Subsequently, in step (5909), all the 16 coefficients (C1ReRe to C1ReRe through the method shown in FIG. 56) based on the horizontal phase differences (θH2, θH3, θH4) and the vertical phase differences (θV2, θV3, θV4). C4ImIm) is multiplied, and each output of step (5913) is multiplied by the above coefficients and added (weighted addition), so that frame buffer # 1, frame buffer # 2, frame buffer # 3, and frame buffer # 4 The aliasing component is removed from the pixel data and output to frame buffer # 5. The operation of removing the aliasing component is the same as the operation described with reference to FIG.

続いて、ステップ(5910)にて、フレームバッファ#1の全画素の処理が完了したかどうか
を判定し、完了していなければ、ステップ(5911)で次の画素(例えば右隣の画素)を処理の
対象に設定してステップ(5904-2)(5904-3)(5904-4)以降に戻り、完了していればステップ(5912)にて処理を終了する。
Subsequently, in step (5910), it is determined whether or not the processing of all the pixels in the frame buffer # 1 has been completed.If not, the next pixel (for example, the right adjacent pixel) is The process is set as a process target, and the process returns to steps (5904-2), (5904-3), and (5904-4). If completed, the process ends in step (5912).

以上のような処理を行うことにより、フレームバッファ#1、フレームバッファ#2、フレームバッファ#3、フレームバッファ#4の画素データを用いて、フレームバッファ#5に高解像度化した信号を出力することができる。動画に応用する場合は、ステップ(5901)からステップ(5912)に至る処理を、フレームごとに繰り返せばよい。   By performing the processing as described above, using the pixel data of frame buffer # 1, frame buffer # 2, frame buffer # 3, and frame buffer # 4, a high-resolution signal is output to frame buffer # 5. Can do. When applied to a moving image, the processing from step (5901) to step (5912) may be repeated for each frame.

なお、図54、図57、図58、図59にて、入力するフレームの枚数を4枚として説明したが、本発明はこれに限定されるものではなく、n枚(ただし、nは4以上の整数)のフレームを入力とし、この中から上述の解像度変換処理に適した4枚のフレームを選択して使用するようにしてもよい。例えば、図56(i)に示した逆マトリクス演算を出力する際に、逆マトリクスM-1が存在しない画素ができるだけ少なくなるように、n枚のフレームの中から解像度変換処理に使用する4枚のフレームを選択し、画素ごとあるいは複数の画素からなる領域ごとに切り替える構成にしてもよい。 54, 57, 58, and 59, the number of input frames has been described as four. However, the present invention is not limited to this, and n frames (however, n is 4 or more). (Integer integer) may be input, and four frames suitable for the resolution conversion process described above may be selected and used. For example, when outputting the inverse matrix operation shown in FIG. 56 (i), 4 frames used for resolution conversion processing from n frames so that the number of pixels in which the inverse matrix M −1 does not exist is minimized. This frame may be selected and switched for each pixel or for each region composed of a plurality of pixels.

よって、実施例12に係る画像信号処理方法は、斜め方向において実施例10に係る画像信号処理方法よりもさらに高周波成分まで解像度向上が可能となるという効果を有する。その効果の詳細は、実施例11にて説明した図54に示す画像信号処理装置の効果と同様であるため説明を省略する。   Therefore, the image signal processing method according to the twelfth embodiment has an effect that the resolution can be improved to a higher frequency component in the oblique direction than the image signal processing method according to the tenth embodiment. The details of the effect are the same as the effect of the image signal processing apparatus shown in FIG.

以上説明したように、実施例12に係る画像信号処理方法は、4枚の入力画像フレームの各画像信号に対し、方向の異なる複数種類の位相シフト(水平方向、垂直方向、水平・垂直方向)を行うことにより、各画像信号のそれぞれから4つの信号を生成する。これにより、4枚の入力画像フレームの画像信号から16個の信号を生成する。ここで、上記4枚の入力画像フレームの位相差に基づいて、当該16個の信号の各信号について、当該16個の信号を折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成画像のそれぞれの画素について、上記16個の信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。   As described above, the image signal processing method according to the twelfth embodiment has a plurality of types of phase shifts (horizontal direction, vertical direction, horizontal / vertical direction) with different directions for each image signal of four input image frames. Is performed to generate four signals from each of the image signals. As a result, 16 signals are generated from the image signals of the four input image frames. Here, based on the phase difference between the four input image frames, for each of the 16 signals, a coefficient for canceling the aliasing component of the 16 signals and combining them is calculated for each pixel. For each pixel of the generated image, the sum of the corresponding pixel value of each of the 16 signals multiplied by each coefficient is calculated to generate a new pixel value of the high-resolution image.

これにより、実施例12に係る画像信号処理方法は、水平方向と垂直方向に加えて、右下方向および右上方向の斜め成分をも高解像度化した高解像度画像を生成することができる。   Accordingly, the image signal processing method according to the twelfth embodiment can generate a high-resolution image in which the diagonal components in the lower right direction and the upper right direction are increased in addition to the horizontal direction and the vertical direction.

また、実施例12に係る画像信号処理方法による解像度向上効果は実施例10に係る画像信号処理方法よりも斜め方向において高周波成分まで解像度向上が可能であり、より高画質な高解像度画像を生成することができる。   Further, the resolution improvement effect by the image signal processing method according to the twelfth embodiment can improve the resolution to a high frequency component in an oblique direction as compared with the image signal processing method according to the tenth embodiment, and generates a high-resolution image with higher image quality. be able to.

なお、上述した実施例1乃至実施例12に係る画像信号処理装置あるいは画像信号処理方法では、画像の解像度を向上させながら画素数を2倍に増加させる場合を例に挙げて説明したが、この画像信号処理装置あるいは画像信号処理方法を複数回もしくは多段的にに作用させることにより、例えば、画素数を2のべき乗倍(=2倍、4倍、8倍…)に増加させることも可能である。すなわち、2枚の入力画像フレームを用いて信号処理することにより、画素数を2倍に増加させて中間画像フレームとしたのちに、さらにこの中間画像フレームを2枚用いて、新たな入力画像フレームとして信号処理することにより、画素数をさらに2倍に増加させた出力画像フレームを得ることができる。この場合、入力画像フレームと比較して、4倍の画素数の出力画像フレームを得ることができる。同様に、信号処理をトータル3回繰り返せば、入力画像フレームと比較して、出力画像フレームの画素数は8倍になる。この際、1枚の出力画像フレームを得るために必要な入力画像フレームの枚数も、2のべき乗(=2枚、4枚、8枚…)となる。   In the image signal processing apparatus or the image signal processing method according to the first to twelfth embodiments described above, the case where the number of pixels is doubled while improving the resolution of the image has been described as an example. For example, the number of pixels can be increased to a power of 2 (= 2 times, 4 times, 8 times, etc.) by operating the image signal processing apparatus or the image signal processing method multiple times or in multiple stages. is there. In other words, by performing signal processing using two input image frames, the number of pixels is doubled to form an intermediate image frame, and then, two additional intermediate image frames are used to create a new input image frame. As a result, an output image frame in which the number of pixels is further doubled can be obtained. In this case, an output image frame having four times the number of pixels can be obtained as compared with the input image frame. Similarly, if the signal processing is repeated a total of three times, the number of pixels of the output image frame is eight times that of the input image frame. At this time, the number of input image frames necessary to obtain one output image frame is also a power of 2 (= 2, 4, 8,...).

なお、最終的な出力画像に関しては、上記画像処理後に一般的な解像度変換処理をおこなうことにより、上記の2のべき乗倍(=2倍、4倍、8倍…)以外の画素数で出力することも可能である。   The final output image is output with the number of pixels other than the power of 2 (= 2 times, 4 times, 8 times, etc.) by performing a general resolution conversion process after the image processing. It is also possible.

図35に、本発明の実施例13に係る画像表示装置を示す。本実施例に係る画像表示装置は、上述の実施例7または実施例8のいずれか一の実施例に記載された画像信号処理を行う構成とした画像表示装置である。   FIG. 35 shows an image display apparatus according to Embodiment 13 of the present invention. The image display apparatus according to the present embodiment is an image display apparatus configured to perform the image signal processing described in any one of the seventh embodiment and the eighth embodiment.

同図において、画像表示装置3500は、例えば、テレビジョン信号などを含む放送波やネットワークなどを介して放送信号や映像コンテンツや画像コンテンツなどを入力する入力部3501と、入力部3501から入力されたコンテンツを録画もしくは再生する録画再生部3502と、録画再生部3502がコンテンツを記録するコンテンツ蓄積部3503と、録画再生部3502が再生した映像信号または画像信号に実施例7または実施例8のいずれか一の実施例に記載された画像信号処理装置である画像信号処理部3504と、画像信号処理部3504にて処理された映像信号または画像信号を表示する表示部3505と、録画再生部3502が再生した音声信号を出力する音声出力部3506と、画像表示装置3500の各構成部を制御する制御部3507と、ユーザーが画像表示装置3500の操作を行うユーザインターフェース部3508などを備える。   In the figure, an image display device 3500 includes, for example, an input unit 3501 for inputting a broadcast signal, video content, image content, and the like via a broadcast wave including a television signal, a network, and the like, and an input unit 3501 A recording / playback unit 3502 for recording or playing back content, a content storage unit 3503 for recording content by the recording / playback unit 3502, and a video signal or an image signal played back by the recording / playback unit 3502 are either of Embodiment 7 or Embodiment 8. An image signal processing unit 3504 that is an image signal processing device described in one embodiment, a display unit 3505 that displays a video signal or an image signal processed by the image signal processing unit 3504, and a recording / playback unit 3502 for playback An audio output unit 3506 that outputs the audio signal, a control unit 3507 that controls each component of the image display device 3500, and a user interface that allows the user to operate the image display device 3500. It provided with a such as the face portion 3508.

画像信号処理部3504の詳細な動作については、実施例7または実施例8に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is as described in the seventh embodiment or the eighth embodiment, and thus the description thereof is omitted.

画像表示装置3500が実施例7または実施例8のいずれか一の実施例に記載された画像信号処理装置である画像信号処理部3504を備えることで、入力部3501に入力された映像信号または画像信号をより高解像度で高画質な映像信号または画像信号として表示部3505に表示することができる。よって、表示部3505の表示デバイスの解像度よりも、低解像度の信号が入力部3501から入力された場合も、再生信号を高解像度化しつつ高画質で高精細な表示を行うことが可能となる。   Since the image display device 3500 includes the image signal processing unit 3504 that is the image signal processing device described in any one of the seventh embodiment and the eighth embodiment, the video signal or the image input to the input unit 3501 The signal can be displayed on the display portion 3505 as a video signal or image signal with higher resolution and higher image quality. Therefore, even when a signal having a resolution lower than that of the display device of the display unit 3505 is input from the input unit 3501, it is possible to perform high-quality and high-definition display while increasing the resolution of the reproduction signal.

また、コンテンツ蓄積部3503に蓄積された映像コンテンツまたは画像コンテンツを再生する際も、より高解像度で高画質な映像信号または画像信号に変換して表示部3505に表示することができる。   In addition, when playing back video content or image content stored in the content storage unit 3503, it can be converted into a video signal or image signal with higher resolution and higher image quality and displayed on the display unit 3505.

また、画像信号処理部3504の画像処理をコンテンツ蓄積部3503に蓄積された映像コンテンツまたは画像コンテンツの再生後に行うことにより、コンテンツ蓄積部3503に蓄積されるデータは、表示部3505に表示される解像度のよりも相対的に低解像度である。よって相対的にコンテンツのデータ量を小さくして蓄積できるという効果がある。   In addition, by performing image processing of the image signal processing unit 3504 after reproduction of video content or image content stored in the content storage unit 3503, data stored in the content storage unit 3503 is displayed at a resolution displayed on the display unit 3505. Relatively lower resolution than Therefore, there is an effect that the content data amount can be relatively reduced and stored.

また、画像信号処理部3504を録画再生部3502に含め、録画時に上述の画像信号処理を行ってもよい。この場合は、再生時には上述の画像信号処理を行う必要が無いため、再生時の処理負荷を低減できるという効果がある。   Further, the image signal processing unit 3504 may be included in the recording / playback unit 3502, and the above-described image signal processing may be performed during recording. In this case, since it is not necessary to perform the above-described image signal processing during reproduction, the processing load during reproduction can be reduced.

ここで、上述の画像信号処理は画像信号処理部3504にて行うと説明したが、制御部3507とソフトウェアで実現しても良い。この場合、実施例7または実施例8のいずれかの実施例に記載された方法で画像信号処理を行えばよい。   Here, it has been described that the above-described image signal processing is performed by the image signal processing unit 3504, but may be realized by a control unit 3507 and software. In this case, the image signal processing may be performed by the method described in any one of the seventh embodiment and the eighth embodiment.

本実施例において、録画再生部3502は、録画時は入力部3501から入力された映像などのコンテンツの状態に応じて、符号化を行ってからコンテンツ蓄積部3503に記録すればよい。   In this embodiment, the recording / playback unit 3502 may perform encoding according to the state of content such as video input from the input unit 3501 during recording, and then record it in the content storage unit 3503.

また、本実施例において、録画再生部3502は、録画時は入力部3501から入力された映像などのコンテンツが符号化された状態であれば、復号化を行って再生すればよい。   In the present embodiment, the recording / reproducing unit 3502 may perform decoding and decoding if content such as video input from the input unit 3501 is encoded during recording.

また、本実施例に係る画像表示装置において、コンテンツ蓄積部3503は必ずしも必要ない。この場合は、録画再生部3503は録画せず、入力部3501から入力された映像などのコンテンツの再生を行えばよい。   In the image display apparatus according to the present embodiment, the content storage unit 3503 is not necessarily required. In this case, the recording / playback unit 3503 may perform playback of content such as video input from the input unit 3501 without recording.

この場合も、入力部3501に入力された映像信号または画像信号をより高解像度で高画質な映像信号または画像信号として表示部3505に表示することができる。   Also in this case, the video signal or image signal input to the input unit 3501 can be displayed on the display unit 3505 as a video signal or image signal with higher resolution and higher image quality.

また、画像表示装置3500は、例えば、プラズマテレビでも、液晶テレビでも、ブラウン管でも、プロジェクタでもよく、また他のデバイスを用いた装置でも良い。同様に、表示部3505は例えば、プラズマパネルモジュールでも、LCDモジュールでも、プロジェクタ用デバイスでもよい。また、コンテンツ蓄積部3503は例えば、ハードディスクドライブでも、フラッシュメモリでもよく、リムーバブルメディアディスクドライブでもよい。音声出力部3506は例えば、スピーカ等でもよい。また、入力部3501は、放送波を受信するチューナを備えたものでもよく、またネットワークと接続するLAN用コネクタを備えたものでもよく、USBコネクタを備えたものでもよい。さらに、映像信号や音声信号をデジタル入力する端子を備えたものでもよく、コンポジット端子やコンポーネント端子などのアナログ入力端子を備えたものでもよい。また、ワイヤレスにてデータを転送する受信部でも良い。   The image display apparatus 3500 may be, for example, a plasma television, a liquid crystal television, a cathode ray tube, a projector, or an apparatus using other devices. Similarly, the display unit 3505 may be, for example, a plasma panel module, an LCD module, or a projector device. The content storage unit 3503 may be, for example, a hard disk drive, a flash memory, or a removable media disk drive. The audio output unit 3506 may be a speaker, for example. The input unit 3501 may be provided with a tuner that receives broadcast waves, may be provided with a LAN connector for connecting to a network, or may be provided with a USB connector. Furthermore, a terminal that digitally inputs a video signal or an audio signal may be provided, or an analog input terminal such as a composite terminal or a component terminal may be provided. Further, it may be a receiver that transfers data wirelessly.

以上説明した実施例13に係る画像表示装置によれば、入力映像信号または入力画像信号に含まれる2枚の入力画像フレームの各画像信号に対して位相シフト行い、各画像信号からぞれぞれ2つの信号を生成する。これにより、2枚の入力画像フレームの画像信号から4つの信号を生成する。ここで、2枚の入力画像フレームの位相差に基づいて、当該4つの信号の各信号について、当該4つの信号の折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成する画像のそれぞれの画素について、上記4つの信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。これを生成画像の各画素について行うことにより、入力画像フレームよりも1次元方向に高解像度化した画像を生成する。   According to the image display apparatus according to the thirteenth embodiment described above, each image signal of the two input image frames included in the input video signal or the input image signal is phase-shifted, and each image signal is detected. Two signals are generated. As a result, four signals are generated from the image signals of the two input image frames. Here, based on the phase difference between the two input image frames, for each of the four signals, a coefficient for canceling and combining the aliasing components of the four signals is calculated for each pixel. For each pixel of the image to be generated, a sum is calculated by multiplying the pixel value of the corresponding pixel included in each of the four signals by each coefficient to generate a pixel value of a new high-resolution image. By performing this for each pixel of the generated image, an image having a higher resolution in the one-dimensional direction than the input image frame is generated.

これを水平方向と垂直方向のそれぞれに行い、水平方向に高解像度化した画像と垂直方向に高解像度化した画像を生成する。当該水平方向に高解像度化した画像と垂直方向に高解像度化した画像とについて、それぞれ、垂直方向、水平方向にアップレート処理を行ったのち、両者を混合する。   This is performed in each of the horizontal direction and the vertical direction, and an image with high resolution in the horizontal direction and an image with high resolution in the vertical direction are generated. The image having the high resolution in the horizontal direction and the image having the high resolution in the vertical direction are subjected to up-rate processing in the vertical direction and the horizontal direction, respectively, and then both are mixed.

これにより、入力映像信号または入力画像信号に含まれる2枚の入力画像フレームの各画像信号から、垂直方向と水平方向との両方向に高解像度化した高解像度画像を生成することができる。すなわち2次元高解像度画像を生成することができ、これを表示部に表示することができる。   As a result, a high-resolution image with high resolution in both the vertical direction and the horizontal direction can be generated from each image signal of two input image frames included in the input video signal or the input image signal. That is, a two-dimensional high resolution image can be generated and displayed on the display unit.

また、また、実施例13に係る画像表示装置は、2枚の入力画像フレームを用いるため、少ない画像処理量で高解像度表示を実現することができる。これにより、折り返し成分が少なく、垂直方向と水平方向との両方向について高解像度な映像または画像を表示部に表示する画像表示装置を実現することが可能である。   In addition, since the image display apparatus according to the thirteenth embodiment uses two input image frames, high-resolution display can be realized with a small image processing amount. Accordingly, it is possible to realize an image display apparatus that displays a high-resolution video or image on the display unit in both the vertical direction and the horizontal direction with few aliasing components.

本発明の実施例14に係る画像表示装置は、実施例13に係る画像表示装置において、図35に示す画像信号処理部3504を実施例9に記載された画像信号処理装置に替えたものである。その他構成は、実施例13に係る画像表示装置と同じである為、説明を省略する。   An image display device according to Embodiment 14 of the present invention is the same as the image display device according to Embodiment 13, except that the image signal processing unit 3504 shown in FIG. 35 is replaced with the image signal processing device described in Embodiment 9. . Since other configurations are the same as those of the image display apparatus according to the thirteenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例9に記載したとおりであるので、説明を省略する。   Further, the detailed operation of the image signal processing unit 3504 is as described in the ninth embodiment, and thus the description thereof is omitted.

実施例14に係る画像表示装置によれば、入力映像信号または入力画像信号に含まれる2枚の入力画像フレームをもちいて、入力映像または入力画像よりも水平方向、垂直方向および斜め方向について高解像度化した高解像度画像を生成することが可能である。またこれを表示部に表示する画像表示装置を実現することができる。   With the image display device according to the fourteenth embodiment, the input video signal or two input image frames included in the input image signal are used, and the resolution is higher in the horizontal, vertical, and diagonal directions than the input video or input image. It is possible to generate a high resolution image. Further, it is possible to realize an image display device that displays this on the display unit.

本発明の実施例15に係る画像表示装置は、実施例13に係る画像表示装置において、図35に示す画像信号処理部3504を実施例11に記載された画像信号処理装置に替えたものである。その他構成は、実施例13に係る画像表示装置と同じである為、説明を省略する。   An image display device according to Embodiment 15 of the present invention is obtained by replacing the image signal processing unit 3504 shown in FIG. 35 with the image signal processing device described in Embodiment 11 in the image display device according to Embodiment 13. . Since other configurations are the same as those of the image display apparatus according to the thirteenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例11に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is the same as that described in the eleventh embodiment, and a description thereof will be omitted.

実施例15に係る画像表示装置によれば、入力映像信号または入力画像信号に含まれる4枚の入力画像フレームをもちいて、入力映像または入力画像よりも水平方向、垂直方向および斜め方向について高解像度化した高解像度画像を生成し、表示部に表示する画像表示装置を実現することができる。   With the image display device according to the fifteenth embodiment, the input video signal or the four input image frames included in the input image signal are used, and the resolution is higher in the horizontal, vertical, and diagonal directions than the input video or input image. An image display device that generates a high-resolution image and displays it on the display unit can be realized.

また、実施例15に係る画像表示装置による解像度向上効果は、実施例14に係る画像表示装置よりも斜め方向において高周波成分まで解像度向上が可能であり、より高画質な高解像度画像を表示することができる。   Further, the resolution improvement effect by the image display device according to the fifteenth embodiment is possible to improve the resolution to a high frequency component in an oblique direction as compared with the image display device according to the fourteenth embodiment, and display a higher resolution image with higher image quality. Can do.

本発明の実施例16に係る画像表示装置は、実施例13に係る画像表示装置において、図35に示す画像信号処理部3504を実施例1、実施例3若しくは実施例5の実施例のうち一の実施例に記載された画像信号処理装置に替えたものである。その他構成は、実施例13に係る画像表示装置と同じである為、説明を省略する。   The image display device according to the sixteenth embodiment of the present invention is the same as the image display device according to the thirteenth embodiment, except that the image signal processing unit 3504 shown in FIG. 35 is one of the first, third, or fifth embodiments. The image signal processing apparatus described in the embodiment is replaced. Since other configurations are the same as those of the image display apparatus according to the thirteenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例1、実施例3若しくは実施例5に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is as described in the first embodiment, the third embodiment, or the fifth embodiment, and thus the description thereof is omitted.

実施例16に係る画像表示装置によれば、入力映像信号または入力画像信号に含まれる2枚の入力画像フレームをもちいて、入力映像または入力画像に比べて一次元方向に高解像度化した高解像度画像を生成し、表示部に表示する画像表示装置を実現することができる。   With the image display device according to the sixteenth embodiment, a high resolution in which the input video signal or two input image frames included in the input image signal are used and the resolution is increased in a one-dimensional direction as compared to the input video or the input image. An image display device that generates an image and displays the image on a display unit can be realized.

図36に、本発明の実施例17に係る録画再生装置を示す。本実施例に係る録画再生装置は、上述の実施例7または実施例8のいずれか一の実施例に記載された画像信号処理を行う構成とした録画再生装置である。   FIG. 36 shows a recording / playback apparatus according to Embodiment 17 of the present invention. The recording / reproducing apparatus according to the present embodiment is a recording / reproducing apparatus configured to perform the image signal processing described in any one of the seventh embodiment and the eighth embodiment.

同図において、録画再生装置3600は、例えば、例えば、テレビジョン信号などを含む放送波やネットワークなどを介して放送信号や映像コンテンツや画像コンテンツなどを入力する入力部3501と、入力部3501から入力されたコンテンツを録画もしくは再生する録画再生部3502と、録画再生部3502がコンテンツを記録するコンテンツ蓄積部3503と、録画再生部3502が再生した映像信号または画像信号に実施例7または実施例8のいずれか一の実施例に記載された画像信号処理装置である画像信号処理部3504と、画像信号処理部3504にて処理された映像信号または画像信号を他の装置などに出力する画像映像出力部3605と、録画再生部3502が再生した音声信号を他の装置などに出力する音声出力部3606と、録画再生装置3600の各構成部を制御する制御部3507と、ユーザーが録画再生装置3600の操作を行うユーザインターフェース部3508などを備える。   In the figure, for example, a recording / playback apparatus 3600 includes, for example, an input unit 3501 for inputting a broadcast signal, video content, image content, and the like via a broadcast wave including a television signal, a network, and the like, and an input from the input unit 3501 A recording / playback unit 3502 for recording or playing back the recorded content, a content storage unit 3503 for recording the content by the recording / playback unit 3502, and a video signal or an image signal played back by the recording / playback unit 3502 according to the seventh or eighth embodiment. An image signal processing unit 3504 that is the image signal processing device described in any one of the embodiments, and an image video output unit that outputs the video signal or image signal processed by the image signal processing unit 3504 to another device or the like 3605, an audio output unit 3606 for outputting the audio signal reproduced by the recording / reproducing unit 3502 to other devices, a control unit 3507 for controlling each component of the recording / reproducing device 3600, a user Over comprises a like user interface unit 3508 for operating the recording and reproducing apparatus 3600.

録画再生装置3600が実施例7または実施例8のいずれか一の実施例に記載された画像信号処理装置である画像信号処理部3504を備えることで、入力部3501に入力された映像信号または画像信号をより高解像度で高画質な映像信号または画像信号として、他の装置などに出力するすることができる。よって、低解像度の映像信号または画像信号を高解像度化しつつ高画質で高精細な映像信号または画像信号に変換する高画質高解像度化信号変換装置が好適に実現できる。   Since the recording / reproducing apparatus 3600 includes the image signal processing unit 3504 that is the image signal processing apparatus described in any one of the seventh and eighth embodiments, the video signal or image input to the input unit 3501 The signal can be output to another device or the like as a video signal or image signal with higher resolution and higher image quality. Therefore, it is possible to suitably realize a high-quality and high-resolution signal conversion apparatus that converts a low-resolution video signal or image signal into a high-quality and high-definition video signal or image signal while increasing the resolution.

また、コンテンツ蓄積部3503に蓄積された映像コンテンツまたは画像コンテンツを再生する際も、より高解像度で高画質な映像信号または画像信号に変換して他の装置などに出力するすることができる。   Also, when playing back video content or image content stored in the content storage unit 3503, it can be converted into a higher-resolution and higher-quality video signal or image signal and output to another device or the like.

よって、低解像度の映像信号または画像信号を入力して蓄積しておき、再生・出力時には高解像度化しつつ高画質で高精細な映像信号または画像信号に変換して出力する録画再生装置が好適に実現できる。   Therefore, a recording / playback apparatus that inputs and stores a low-resolution video signal or image signal, converts it into a high-quality and high-definition video signal or image signal while outputting a high resolution during playback / output, and outputs the video signal is suitable. realizable.

また、画像信号処理部3504の画像処理をコンテンツ蓄積部3503に蓄積された映像コンテンツまたは画像コンテンツの再生後に行うことにより、コンテンツ蓄積部3503に蓄積されるデータは、他の装置に出力する信号の解像度のよりも相対的に低解像度である。よって相対的にコンテンツのデータ量を小さくして蓄積できるという効果がある。   In addition, by performing image processing of the image signal processing unit 3504 after reproduction of video content or image content stored in the content storage unit 3503, data stored in the content storage unit 3503 is a signal output to another device. The resolution is relatively lower than the resolution. Therefore, there is an effect that the content data amount can be relatively reduced and stored.

また、画像信号処理部3504を録画再生部3502に含め、録画時に上述の画像信号処理を行ってもよい。この場合は、再生時には上述の画像信号処理を行う必要が無いため、再生時の処理負荷を低減できるという効果がある。   Further, the image signal processing unit 3504 may be included in the recording / playback unit 3502, and the above-described image signal processing may be performed during recording. In this case, since it is not necessary to perform the above-described image signal processing during reproduction, the processing load during reproduction can be reduced.

ここで、上述の画像信号処理は画像信号処理部3504にて行うと説明したが、制御部3507とソフトウェアで実現しても良い。この場合、実施例7または実施例8のいずれかの実施例に記載された方法で画像信号処理を行えばよい。   Here, it has been described that the above-described image signal processing is performed by the image signal processing unit 3504, but may be realized by a control unit 3507 and software. In this case, the image signal processing may be performed by the method described in any one of the seventh embodiment and the eighth embodiment.

本実施例において、録画再生部3502は、録画時は入力部3501から入力された映像などのコンテンツの状態に応じて、符号化を行ってからコンテンツ蓄積部3503に記録すればよい。   In this embodiment, the recording / playback unit 3502 may perform encoding according to the state of content such as video input from the input unit 3501 during recording, and then record it in the content storage unit 3503.

また、本実施例において、録画再生部3502は、録画時は入力部3501から入力された映像などのコンテンツが符号化された状態であれば、復号化を行って再生すればよい。   In the present embodiment, the recording / reproducing unit 3502 may perform decoding and decoding if content such as video input from the input unit 3501 is encoded during recording.

また、本実施例に係る画像映像出力部3605と音声出力部3606は一体としても構わない。この場合は、映像信号と音声信号を一本のケーブルで出力するコネクタ形状などを用いることができる。   Further, the image / video output unit 3605 and the audio output unit 3606 according to the present embodiment may be integrated. In this case, it is possible to use a connector shape that outputs a video signal and an audio signal with a single cable.

また、録画再生装置3600は、例えば、HDDレコーダでも、DVDレコーダでも、また他の記憶装置デバイスを用いた装置でも良い。同様に、コンテンツ蓄積部3503は例えば、ハードディスクドライブでも、フラッシュメモリでもよく、リムーバブルメディアディスクドライブでもよい。   Further, the recording / playback apparatus 3600 may be, for example, an HDD recorder, a DVD recorder, or an apparatus using another storage device. Similarly, the content storage unit 3503 may be, for example, a hard disk drive, a flash memory, or a removable media disk drive.

また、入力部3501は、放送波を受信するチューナを備えたものでもよく、またネットワークと接続するLAN用コネクタを備えたものでもよく、USBコネクタを備えたものでもよい。さらに、映像信号や音声信号をデジタル入力する端子を備えたものでもよく、コンポジット端子やコンポーネント端子などのアナログ入力端子を備えたものでもよい。また、ワイヤレスでデータを転送する受信部でも良い。   The input unit 3501 may be provided with a tuner that receives broadcast waves, may be provided with a LAN connector for connecting to a network, or may be provided with a USB connector. Furthermore, a terminal that digitally inputs a video signal or an audio signal may be provided, or an analog input terminal such as a composite terminal or a component terminal may be provided. A receiving unit that wirelessly transfers data may also be used.

また、画像映像出力部3605は映像信号をデジタル出力する端子を備えたものでもよく、コンポジット端子やコンポーネント端子などのアナログ出力する端子を備えたものでもよい。またネットワークと接続するLAN用コネクタを備えたものでもよく、USBコネクタを備えたものでもよい。さらに、ワイヤレスでデータを転送する送信部でも良い。音声出力部3606に関しても、画像映像出力部3605と同様である。   Further, the image / video output unit 3605 may be provided with a terminal for digitally outputting a video signal, or may be provided with an analog output terminal such as a composite terminal or a component terminal. In addition, a LAN connector for connecting to a network or a USB connector may be used. Further, it may be a transmission unit that transfers data wirelessly. The audio output unit 3606 is the same as the image video output unit 3605.

さらに、入力部3501は例えば、撮像光学系と受光素子を備えるものとしても良い。この場合、録画再生装置3600は例えば、デジタルカメラ、ビデオカメラ、監視カメラ(監視カメラシステム)などに適用できる。このとき例えば入力部3501は、撮像光学系にて撮影対象を受光素子上に撮像し、受光素子にから出力される信号を元に画像データまたは映像データを生成し、録画再生部3502に出力すればよい。   Furthermore, the input unit 3501 may include, for example, an imaging optical system and a light receiving element. In this case, the recording / playback apparatus 3600 can be applied to, for example, a digital camera, a video camera, a surveillance camera (surveillance camera system), and the like. At this time, for example, the input unit 3501 captures an image of the object to be photographed on the light receiving element by the imaging optical system, generates image data or video data based on the signal output from the light receiving element, and outputs the image data or video data to the recording / playback unit 3502. That's fine.

録画再生装置3600が例えばデジタルカメラであれば、1回の撮影で時間的に異なる複数の画像を記録するようにし、この複数の画像データに画像信号処理部3504の画像信号処理を行えば、1枚の高画質な高解像度画像を得ることができる。尚、画像信号処理部3504の画像処理は、デジタルカメラからデータを出力する際に、コンテンツ蓄積部3503に記録される画像に対して行っても良い。また、録画再生部3502と画像信号処理部3504を一体とするなどして、コンテンツ蓄積部3503に記録するよりも前に、画像信号処理部3504の画像処理を行うようにしても良い。この場合、コンテンツ蓄積部3503には最終的にユーザーが取り扱いたい拡大画像のみを保存すればよく、後にユーザーが画像データを取り扱う際に管理が容易になる。   If the recording / playback apparatus 3600 is a digital camera, for example, a plurality of images that are temporally different from each other are recorded, and if the image signal processing of the image signal processing unit 3504 is performed on the plurality of image data, 1 A high-resolution image with high image quality can be obtained. Note that the image processing of the image signal processing unit 3504 may be performed on an image recorded in the content storage unit 3503 when data is output from the digital camera. Further, the image signal processing unit 3504 may be integrated with the recording / playback unit 3502 and the image signal processing unit 3504 to perform image processing of the image signal processing unit 3504 before recording in the content storage unit 3503. In this case, only the enlarged image that the user wants to handle finally needs to be stored in the content storage unit 3503, and management becomes easier when the user handles image data later.

以上説明したデジタルカメラによれば、デジタルカメラの受光素子の解像度を越えた解像度を有する高画質画像データを得ることができる。   According to the digital camera described above, high-quality image data having a resolution exceeding the resolution of the light receiving element of the digital camera can be obtained.

また、録画再生装置3600が例えばビデオカメラであれば、入力部3501の撮像光学系にて受光素子上に撮像した映像を映像データとして録画再生部3502に出力すればよい。録画再生部3502はコンテンツ蓄積部3503に映像データを記録し、画像信号処理部3504は記録された映像データから、高解像度化された映像データを生成すればよい。このようにすれば、ビデオカメラの受光素子の解像度を越えた解像度を有する高画質映像データを得ることができる。またこのとき、画像信号処理部3504は記録された映像データに含まれる複数のフレームのデータを用いて、一枚のスチル画像データを生成しても良い。このようにすれば、映像データから一枚の高画質画像データを得ることができる。また、上述したデジタルカメラの場合と同様に、画像信号処理部3504の画像処理はコンテンツ蓄積部3503への映像データの記録前でも、記録後でも構わない。   Further, if the recording / playback apparatus 3600 is, for example, a video camera, video captured on the light receiving element by the imaging optical system of the input unit 3501 may be output to the recording / playback unit 3502 as video data. The recording / playback unit 3502 may record video data in the content storage unit 3503, and the image signal processing unit 3504 may generate high-resolution video data from the recorded video data. In this way, high-quality video data having a resolution exceeding the resolution of the light receiving element of the video camera can be obtained. At this time, the image signal processing unit 3504 may generate one piece of still image data using data of a plurality of frames included in the recorded video data. In this way, one piece of high quality image data can be obtained from the video data. Similarly to the case of the digital camera described above, the image processing of the image signal processing unit 3504 may be performed before or after recording the video data in the content storage unit 3503.

以上説明したビデオカメラによれば、ビデオカメラの受光素子の解像度を越えた解像度を有する高画質映像データや、撮影した映像データを用いて高画質なスチル画像データを得ることができる。   According to the video camera described above, high-quality video data having a resolution exceeding the resolution of the light receiving element of the video camera and high-quality still image data can be obtained using the captured video data.

また、録画再生装置3600が例えば監視カメラ(監視カメラシステム)である場合も、上述したビデオカメラの場合と同様に監視カメラの受光素子の解像度を越えた解像度を有する高画質映像データや、撮影した映像データを用いて高画質なスチル画像データを得ることができる。このとき、例えば、撮像光学系と受光素子を備えた入力部3501と録画再生部3502との距離が離れており、ネットワークケーブル等で接続されている場合でも、録画再生部3502までは低解像度の映像データで送信し、その後の画像信号処理部3504の画像信号処理により、高解像度化することができる。これにより、撮像光学系と受光素子を備えた入力部3501からの送信ネットワークの帯域を効率よく利用しながら、高解像度の映像データを得ることができる。   In addition, when the recording / playback apparatus 3600 is, for example, a surveillance camera (surveillance camera system), high-quality video data having a resolution exceeding the resolution of the light-receiving element of the surveillance camera, as with the video camera described above, Still image data with high image quality can be obtained using the video data. At this time, for example, even when the input unit 3501 including the imaging optical system and the light receiving element is separated from the recording / reproducing unit 3502 and connected by a network cable or the like, the recording / reproducing unit 3502 has a low resolution. It is possible to increase the resolution by transmitting the video data and then performing image signal processing of the image signal processing unit 3504. Thus, high-resolution video data can be obtained while efficiently using the bandwidth of the transmission network from the input unit 3501 including the imaging optical system and the light receiving element.

実施例13乃至実施例16に係る画像表示装置と、本実施例に係る録画再生装置は、両者の機能と各構成部を一体としても、また、本発明の一実施の形態となりうる。この場合は上述の画像信号処理を行った映像信号または画像信号を表示することも、他の装置に出力することもでき、表示装置、記録再生装置、出力装置のいずれの装置としても使用でき、ユーザーにとって使い勝手が良い。   The image display apparatuses according to the thirteenth to sixteenth embodiments and the recording / playback apparatus according to the present embodiment can be an embodiment of the present invention even if the functions and components thereof are integrated. In this case, the video signal or image signal subjected to the above-described image signal processing can be displayed or output to another device, and can be used as any of a display device, a recording / playback device, and an output device, Convenient for users.

以上説明した実施例17に係る録画再生装置によれば、入力映像信号または入力画像信号に含まれる2枚の入力画像フレームの各画像信号に対して位相シフト行い、各画像信号からぞれぞれ2つの信号を生成する。これにより、2枚の入力画像フレームの画像信号から4つの信号を生成する。ここで、2枚の入力画像フレームの位相差に基づいて、当該4つの信号の各信号について、当該4つの信号の折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成する画像のそれぞれの画素について、上記4つの信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。これを生成画像の各画素について行うことにより、入力画像フレームよりも1次元方向に高解像度化した画像を生成する。   According to the recording / reproducing apparatus in the seventeenth embodiment described above, each image signal of two input image frames included in the input video signal or the input image signal is phase-shifted, and each image signal is detected. Two signals are generated. As a result, four signals are generated from the image signals of the two input image frames. Here, based on the phase difference between the two input image frames, for each of the four signals, a coefficient for canceling and combining the aliasing components of the four signals is calculated for each pixel. For each pixel of the image to be generated, a sum is calculated by multiplying the pixel value of the corresponding pixel included in each of the four signals by each coefficient to generate a pixel value of a new high-resolution image. By performing this for each pixel of the generated image, an image having a higher resolution in the one-dimensional direction than the input image frame is generated.

これを水平方向と垂直方向のそれぞれに行い、水平方向に高解像度化した画像と垂直方向に高解像度化した画像を生成する。当該水平方向に高解像度化した画像と垂直方向に高解像度化した画像とについて、それぞれ、垂直方向、水平方向にアップレート処理を行ったのち、両者を混合する。   This is performed in each of the horizontal direction and the vertical direction, and an image with high resolution in the horizontal direction and an image with high resolution in the vertical direction are generated. The image having the high resolution in the horizontal direction and the image having the high resolution in the vertical direction are subjected to up-rate processing in the vertical direction and the horizontal direction, respectively, and then both are mixed.

これにより入力映像信号または入力画像信号に含まれる2枚の入力画像フレームの各画像信号から、垂直方向と水平方向との両方向に高解像度化した高解像度画像を生成することができる。すなわち2次元高解像度画像を生成することができ、これを出力することができる。   As a result, a high-resolution image with high resolution in both the vertical direction and the horizontal direction can be generated from each image signal of the two input image frames included in the input video signal or the input image signal. That is, a two-dimensional high resolution image can be generated and output.

また、入力映像信号または入力画像信号を記録部に記録しておき、その記録部からの再生時に、映像信号または画像信号に含まれる2枚の入力画像フレームの各画像信号から、垂直方向と水平方向との両方向に高解像度化した2次元高解像度画像を生成することができ、これを出力することができる。   Also, the input video signal or the input image signal is recorded in the recording unit, and at the time of reproduction from the recording unit, the vertical and horizontal directions are obtained from the image signals of the two input image frames included in the video signal or the image signal. A two-dimensional high resolution image with high resolution in both directions can be generated and can be output.

また、また実施例17に係る録画再生装置は、2枚の入力画像フレームを用いるため、少ない画像処理量で高解像度画像の出力を実現することができる。これにより、折り返し成分が少なく、垂直方向と水平方向との両方向について高解像度な映像または画像を出力する録画再生装置を実現することが可能である。   In addition, since the recording / playback apparatus according to the seventeenth embodiment uses two input image frames, it is possible to output a high resolution image with a small amount of image processing. As a result, it is possible to realize a recording / reproducing apparatus that outputs a high-resolution video or image in both the vertical direction and the horizontal direction with less aliasing components.

本発明の実施例18に係る録画再生装置は、実施例17に係る録画再生装置において、図36に示す画像信号処理部3504を実施例9に記載された画像信号処理装置に替えたものである。その他構成は、実施例17に係る録画再生装置と同じである為、説明を省略する。   The recording / playback apparatus according to Embodiment 18 of the present invention is the same as the recording / playback apparatus according to Embodiment 17, except that the image signal processing unit 3504 shown in FIG. 36 is replaced with the image signal processing apparatus described in Embodiment 9. . Since other configurations are the same as those of the recording / playback apparatus according to the seventeenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例9に記載したとおりであるので、説明を省略する。   Further, the detailed operation of the image signal processing unit 3504 is as described in the ninth embodiment, and thus the description thereof is omitted.

実施例18に係る録画再生装置によれば、入力映像信号または入力画像信号に含まれる2枚の入力画像フレームをもちいて、入力映像または入力画像よりも水平方向、垂直方向および斜め方向について高解像度化した2次元高解像度画像を生成し、これを出力することが可能である。   According to the recording / reproducing apparatus in the eighteenth embodiment, using two input image frames included in the input video signal or the input image signal, the resolution is higher in the horizontal direction, the vertical direction, and the oblique direction than the input video image or the input image. It is possible to generate a two-dimensional high-resolution image and output it.

また、入力映像信号または入力画像信号を記録部に記録しておき、その記録部からの再生時に、映像信号または画像信号に含まれる2枚の入力画像フレームの各画像信号から、水平方向、垂直方向および斜め方向に高解像度化した2次元高解像度画像を生成することができ、これを出力することができる。   Further, the input video signal or the input image signal is recorded in the recording unit, and at the time of reproduction from the recording unit, the horizontal direction and the vertical direction are obtained from each image signal of the two input image frames included in the video signal or the image signal. A two-dimensional high-resolution image with high resolution in the direction and oblique direction can be generated and output.

本発明の実施例19に係る録画再生装置は、実施例17に係る録画再生装置において、図36に示す画像信号処理部3504を実施例11に記載された画像信号処理装置に替えたものである。その他構成は、実施例17に係る録画再生装置と同じである為、説明を省略する。   The recording / playback apparatus according to Embodiment 19 of the present invention is the same as the recording / playback apparatus according to Embodiment 17, except that the image signal processing unit 3504 shown in FIG. 36 is replaced with the image signal processing apparatus described in Embodiment 11. . Since other configurations are the same as those of the recording / playback apparatus according to the seventeenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例11に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is the same as that described in the eleventh embodiment, and a description thereof will be omitted.

実施例19に係る録画再生装置によれば、入力映像信号または入力画像信号に含まれる4枚の入力画像フレームをもちいて、入力映像または入力画像よりも水平方向、垂直方向および斜め方向について高解像度化した2次元高解像度画像を生成し、出力する録画再生装置を実現することができる。   According to the recording / reproducing apparatus in the nineteenth embodiment, four input image frames included in the input video signal or the input image signal are used, and the resolution in the horizontal direction, the vertical direction, and the oblique direction is higher than that of the input video or input image. It is possible to realize a recording / playback apparatus that generates and outputs a converted two-dimensional high-resolution image.

また、入力映像信号または入力画像信号を記録部に記録しておき、その記録部からの再生時に、映像信号または画像信号に含まれる4枚の入力画像フレームの各画像信号から、水平方向、垂直方向および斜め方向に高解像度化した2次元高解像度画像を生成することができ、これを出力することができる。   Further, the input video signal or the input image signal is recorded in the recording unit, and at the time of reproduction from the recording unit, the horizontal direction and the vertical direction are obtained from each image signal of the four input image frames included in the video signal or the image signal. A two-dimensional high-resolution image with high resolution in the direction and oblique direction can be generated and output.

また、実施例19に係る録画再生装置による解像度向上効果は、斜め方向において実施例18に係る録画再生装置よりもさらに高周波成分まで解像度向上が可能であり、より高画質な高解像度画像を出力することができる。   Further, the resolution improvement effect of the recording / playback apparatus according to the nineteenth embodiment can be improved to a higher frequency component in the oblique direction than the recording / playback apparatus according to the eighteenth embodiment, and a higher-resolution image with higher image quality is output. be able to.

本発明の実施例20に係る録画再生装置は、実施例17に係る録画再生装置において、図36に示す画像信号処理部3504を実施例1、実施例3若しくは実施例5の実施例のうち一の実施例に記載された画像信号処理装置に替えたものである。その他構成は、実施例17に係る録画再生装置と同じである為、説明を省略する。   The recording / playback apparatus according to the twentieth embodiment of the present invention is the same as the recording / playback apparatus according to the seventeenth embodiment, but the image signal processing unit 3504 shown in FIG. 36 is one of the first, third, or fifth embodiments. The image signal processing apparatus described in the embodiment is replaced. Since other configurations are the same as those of the recording / playback apparatus according to the seventeenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例1、実施例3若しくは実施例5の実施例に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is the same as that described in the first, third, or fifth embodiment, and thus the description thereof is omitted.

実施例20に係る録画再生装置によれば、入力映像信号または入力画像信号に含まれる2枚の入力画像フレームをもちいて、入力映像または入力画像に比べて一次元方向に高解像度化した高解像度画像を生成し、出力する録画再生装置を実現することができる。   According to the recording / playback device according to the twentieth embodiment, a high resolution in which two input image frames included in the input video signal or the input image signal are used and the resolution is increased in a one-dimensional direction as compared with the input video or the input image. A recording / reproducing apparatus that generates and outputs an image can be realized.

また、入力映像信号または入力画像信号を記録部に記録しておき、その記録部からの再生時に、映像信号または画像信号に含まれる2枚の入力画像フレームの各画像信号から、一次元方向に高解像度化した高解像度画像を生成することができ、これを出力することができる。   In addition, the input video signal or the input image signal is recorded in the recording unit, and at the time of reproduction from the recording unit, from each image signal of the two input image frames included in the video signal or the image signal, in a one-dimensional direction. A high-resolution image with high resolution can be generated and output.

図39〜図41を用いて、本発明をインタレース・プログレッシブ走査線(以下、I-P変換)に適用した実施例21について説明する。これに先立ち、図37及び図38により、従来の一般的なI-P変換の動作を説明する。   A twenty-first embodiment in which the present invention is applied to an interlace progressive scanning line (hereinafter referred to as I-P conversion) will be described with reference to FIGS. Prior to this, the conventional general I-P conversion operation will be described with reference to FIGS.

図37(a)にインタレース走査(2:1インタレース)の走査線の位置関係を、同図(b)にプログレッシブ走査のの走査線の位置関係を示す。それぞれ、図の水平軸は時間方向(フレーム方向)の位置(t)を表し、垂直軸は垂直位置(v)を表す。同図(a)のインタレース走査では、伝送あるいは表示される走査線(実走査線)(3701)と飛び越されて伝送あるいは表示されない走査線(3702)が交互に繰り返される形態でフィールド(3703)が形成されている。また、次のフィールドでは走査線(3701)と走査線(3702)の位置が逆(相補的)になり、2枚のフィールド(3703)(3704)を合わせて1枚のフレーム(3704)が形成される。飛び越されて伝送あるいは表示されない走査線(3702)を、近傍の実走査線(3701)から補間して補間走査線とすることによってフィールド(3703)をフレーム(3705)に変換し、同図(b)のプログレッシブ走査に変換する。   FIG. 37A shows the positional relationship of scanning lines for interlaced scanning (2: 1 interlaced), and FIG. 37B shows the positional relationship of scanning lines for progressive scanning. In each figure, the horizontal axis represents the position (t) in the time direction (frame direction), and the vertical axis represents the vertical position (v). In the interlaced scanning shown in FIG. 6A, the scanning line (3701) that is transmitted or displayed (actual scanning line) and the scanning line (3702) that is skipped and not transmitted or displayed are alternately repeated in the field (3703). ) Is formed. In the next field, the positions of the scanning line (3701) and scanning line (3702) are reversed (complementary), and the two fields (3703) (3704) are combined to form one frame (3704). Is done. The field (3703) is converted to the frame (3705) by interpolating the scanning line (3702) that is skipped and not transmitted or displayed by interpolating from the neighboring actual scanning line (3701) to the frame (3705). Convert to the progressive scan of b).

このI-P変換を実現する従来の代表的な方法として、図38(a)に示す動き適応型I-P変換と、同図(b)に示す動き補償型I-P変換がある。(a)動き適応型I-P変換は、画像中の被写体が静止している場合には、過去(あるいは未来)のフィールドの実走査線上の信号を用いて補間走査線上の信号を生成するフィールド間補間(3801)を行い、被写体が動いている場合には、同一のフィールド内の上下の走査線上の信号を用いて補間走査線上の信号を生成するフィールド内補間(3802)を行うのが一般的である。このとき、被写体が完全に静止しているときには、フィールド間補間(3801)によって理想的なプログレッシブ走査画像が得られるが、被写体がわずかでも動くと、フィールド間補間(3801)を用いてもフレーム間補間(3802)を用いても、垂直解像度が低下したプログレッシブ走査画像となってしまうことがよく知られている。一方、(b)動き補償型I-P変換は、被写体の動きを画素ごとに推定して動きベクトル(3803)を求め、水平方向の動きも含めてこの動きベクトル(3803)に基づいて補間走査線を生成する。例えば同図(b)では、被写体が一旦下方向に移動したのちに、2フィールド期間静止し、続いて上方向に移動する場合を示している。このとき、動きベクトルがちょうど実走査線から補間走査線を指す場合は理想的なプログレッシブ走査画像が得られるが、それ以外の場合(ちょうど実走査線から補間走査線を指さない場合)は垂直解像度が低下したプログレッシブ走査画像となってしまうことがよく知られている。   As a conventional representative method for realizing this I-P conversion, there is a motion adaptive IP conversion shown in FIG. 38A and a motion compensation IP conversion shown in FIG. (a) Motion adaptive IP conversion uses inter-field interpolation to generate signals on interpolated scanning lines using signals on actual scanning lines of past (or future) fields when the subject in the image is stationary. When the subject is moving, it is common to perform intra-field interpolation (3802) that generates signals on the interpolated scanning lines using the signals on the upper and lower scanning lines in the same field. is there. At this time, when the subject is completely stationary, an ideal progressive scan image can be obtained by inter-field interpolation (3801), but if the subject moves even slightly, even if inter-field interpolation (3801) is used, the inter-frame interpolation (3801) It is well known that even if interpolation (3802) is used, a progressive scan image with reduced vertical resolution is obtained. On the other hand, (b) motion compensated IP conversion calculates the motion vector (3803) by estimating the motion of the subject for each pixel, and interpolated scanning lines based on this motion vector (3803) including the motion in the horizontal direction. Generate. For example, FIG. 5B shows a case where the subject once moves downward, then remains stationary for two field periods, and then moves upward. At this time, if the motion vector just points from the actual scan line to the interpolated scan line, an ideal progressive scan image is obtained, but in other cases (when the interpolated scan line is not pointed to from the actual scan line), it is vertical. It is well known that a progressive scan image with reduced resolution is obtained.

図39に、上記従来のI-P変換の欠点を改善するための、本発明に係る実施例21の動作を示す。同図(a)に示すインタレース走査の各フィールド(#1、#2…)を走査線数が1/2のフレームとみなし、フィールドごとに走査線の位置(=垂直方向のサンプリング位相)が変わることを利用して、垂直解像度変換(3901)(3902)によりフレームを生成する。例えば、フィールド#1とフィールド#2を用いて、垂直解像度変換(3901)によりフレーム#2を生成し、フィールド#2とフィールド#3を用いて、垂直解像度変換(3902)によりフレーム#3を生成し、以下、これ以降のフィールドについても同様に処理して連続的にフレームを生成する。このとき、各垂直解像度変換(3901)(3902)として、図1などに示した解像度変換部(2)をそのまま用いることができるが、図40に示すようにフィールドごとに動作を変更する必要がある。   FIG. 39 shows the operation of the embodiment 21 according to the present invention for improving the drawbacks of the conventional I-P conversion. Each field (# 1, # 2 ...) of interlaced scanning shown in Fig. 11 (a) is regarded as a frame with the number of scanning lines being 1/2, and the position of the scanning line (= vertical sampling phase) is determined for each field. Using the change, a frame is generated by vertical resolution conversion (3901) (3902). For example, frame # 2 is generated by vertical resolution conversion (3901) using field # 1 and field # 2, and frame # 3 is generated by vertical resolution conversion (3902) using field # 2 and field # 3. Thereafter, the subsequent fields are similarly processed to continuously generate frames. At this time, as each vertical resolution conversion (3901) (3902), the resolution conversion unit (2) shown in FIG. 1 or the like can be used as it is, but it is necessary to change the operation for each field as shown in FIG. is there.

図40を用いて、本発明の実施例21に係る動作を詳しく説明する。同図(a)は、元のインタレース走査の走査線の位置を示す。被写体が静止している場合、同図(a)に示すように、実走査線を通る動きベクトル(4001)は同じ垂直位置の次のフィールドの補間走査線を指すことになる。ここで、各フィールド(#1、#2…)を走査線数が1/2のフレームとみなし、フィールドごとに走査線の位置(=垂直方向のサンプリング位相)が変わらないようにフィールド全体に垂直方向のオフセット(空間的な位置の差)を付加して移動させると、同図(b)に示すように静止時の動きベクトル(4002)がフィールドごとに上下に動くことになる。すなわち、同図(b)の走査線位置の信号を入力として、図1に示す位相推定部(101)にて位相差θ(102)を求めると、垂直解像度変換(3901)(3902)の際に誤った結果を出力してしまうことになる。   The operation according to Example 21 of the present invention will be described in detail with reference to FIG. FIG. 4A shows the position of the original interlaced scanning line. When the subject is stationary, the motion vector (4001) passing through the actual scanning line indicates the interpolation scanning line of the next field at the same vertical position as shown in FIG. Here, each field (# 1, # 2, etc.) is regarded as a frame with half the number of scanning lines, and the position of the scanning line (= sampling phase in the vertical direction) does not change for each field. When a direction offset (spatial position difference) is added and moved, the motion vector (4002) at rest moves up and down for each field as shown in FIG. That is, when the phase difference θ (102) is obtained by the phase estimator (101) shown in FIG. 1 by using the signal at the scanning line position shown in FIG. 5B as an input, the vertical resolution conversion (3901) (3902) is performed. Will output incorrect results.

図41に、上記の誤動作を防ぐことを目的とした、本発明の実施例21に係る構成を示す。同図に示す構成は、図1に示した1次元方向(ここでは垂直方向)の解像度変換を行う実施例の構成にオフセット補正部(4103)を追加したものであり、フィールド#k(ただしkは整数)と、そのひとつ前(過去)のフィールド#(k-1)を入力部(1)から入力して垂直解像度変換を行い、表示部(3)に画像を出力する。オフセット補正部(4103)は、加算器(4101)によって位置推定部(101)で得られた位相差θに位相差オフセット(θoffset)(4102)を加えて新たな位相差θ(102)とし、動き補償・アップレート部(115)と折返し成分除去部(117)の信号処理に用いる。ここで、k=2n(nは整数、すなわちkは偶数)のときには位相差オフセット(θoffset)(4102)をπとして、位相差θ(102)の値を入力の走査線間隔の1/2だけ(2枚のフィールド間の最も近い走査線の空間的な位置の差だけ)下方向に補正し、k=2n+1(nは整数、すなわちkは奇数)のときには位相差オフセット(θoffset)(4102)を−πとして、位相差θ(102)の値を入力の走査線間隔の1/2だけ(2枚のフィールド間の最も近い走査線の空間的な位置の差だけ)上方向に補正する。これにより、図40(b)に示した静止時動きベクトル(4002)の上下動を補正することができる。なお、水平方向も含めた2次元の画像に対応させるには、位置推定部(101)では水平位相差θHと垂直位相差θVを出力するとともに、動き補償・アップレート部(115)を2次元化すればよい。すなわち、垂直位相差θVに上記位相差オフセット(θoffset)(4102)を加えて新たな垂直位相差θVとし、垂直方向にアップレート(0挿入)したのちに図6に示すタップ係数Ck(=2sin(πk+θV)/(πk+θV))を持つ垂直フィルタをかける。一方、水平方向は一般的な動き補償を行う。すなわち、水平方向はアップレートしないで、図12に示すタップ係数を水平位相差θHだけサンプリング位相をシフトし、Ck=sin(πk/2+θH)/(πk/2+θH)をタップ係数とする水平フィルタをかければよい。位相シフト部(116)、折返し成分除去部(117)の各処理は、前述した動作のまま変更せずに、垂直方向の位相シフト(ヒルベルト変換)と折返し成分除去(係数決定および加重加算)を行う。これらの処理により、インタレース走査の入力に対して解像度変換を行ってプログレッシブ走査に変換することができるようになる。   FIG. 41 shows a configuration according to Embodiment 21 of the present invention aimed at preventing the above malfunction. The configuration shown in the figure is obtained by adding an offset correction unit (4103) to the configuration of the embodiment that performs resolution conversion in the one-dimensional direction (vertical direction here) shown in FIG. ) And the previous (past) field # (k-1) from the input unit (1), vertical resolution conversion is performed, and an image is output to the display unit (3). The offset correction unit (4103) adds a phase difference offset (θoffset) (4102) to the phase difference θ obtained by the position estimation unit (101) by the adder (4101) to obtain a new phase difference θ (102). This is used for signal processing of the motion compensation / up-rate unit (115) and the aliasing component removal unit (117). Here, when k = 2n (where n is an integer, i.e., k is an even number), the phase difference offset (θoffset) (4102) is π, and the value of the phase difference θ (102) is half the input scanning line interval. Corrected downward (only the difference in the spatial position of the nearest scanning line between the two fields), and when k = 2n + 1 (n is an integer, that is, k is an odd number), the phase difference offset (θoffset) ( 4102) is -π, and the value of phase difference θ (102) is corrected upward by 1/2 of the input scanning line interval (by the difference in the spatial position of the nearest scanning line between the two fields). To do. Thereby, the vertical motion of the stationary motion vector (4002) shown in FIG. 40 (b) can be corrected. In order to correspond to a two-dimensional image including the horizontal direction, the position estimation unit (101) outputs the horizontal phase difference θH and the vertical phase difference θV, and the motion compensation / uprate unit (115) is two-dimensional. You just have to. That is, after adding the above-described phase difference offset (θoffset) (4102) to the vertical phase difference θV to obtain a new vertical phase difference θV, the tap coefficient Ck (= 2sin) shown in FIG. Apply a vertical filter with (πk + θV) / (πk + θV)). On the other hand, general motion compensation is performed in the horizontal direction. In other words, the tap coefficient shown in FIG. 12 is shifted in the sampling phase by the horizontal phase difference θH, and Ck = sin (πk / 2 + θH) / (πk / 2 + θH) is defined as the tap coefficient without up-grading in the horizontal direction. You just need to apply a horizontal filter. Each process of the phase shift unit (116) and the aliasing component removal unit (117) performs the vertical phase shift (Hilbert transform) and aliasing component removal (coefficient determination and weighted addition) without changing the operation as described above. Do. With these processes, it is possible to perform resolution conversion on the input of interlaced scanning and convert it to progressive scanning.

このとき、折返し成分除去部(117)における各係数C0、C1、C2、C3は、図9に示した位相差θを(θ±π)に置き換えた値となる。すなわち、C0=C2=1/2、C1=-(1+cos(θ±π))/(2sin(θ±π))=(1-cosθ)/sinθ、C3=(1+cos(θ±π))/(2sin(θ±π))=-(1-cosθ)/sinθとなる。この際、位相差θが±πのときに係数C1、C3が不定になることや、位相差θが±πに近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になることを防ぐために、図11に示した本発明の実施例5において、位相差θが±π近傍になったときに補助的画素補間部(1105)からの出力に切り替えるように構成すればよい。すなわち、図13に示した本発明の実施例5に用いる係数決定器(1103)の具体例において、同図のθを(θ±π)に読み替え、位相差θが±π近傍になったときに、係数C1の値を強制的に0にするとともに、係数C4の値を1.0とすればよい。この動作により、図11に示す構成において、位相差θ(102)が±πあるいは±π近傍になったときに、加算器(1104)の出力を自動的に補間ローパスフィルタ(1101)の出力に切替えることができるようになる。なお、位相差θが±πに近づくとともに、図12に示した係数から図13に示した係数に連続的に徐々に近づけるようにしてもよい。また、図1における位置推定部(101)にて、フレーム#1上の処理対象の画素に対応した画素がフレーム#2上にないと判定された場合も、位相差θ(102)が±π近傍になったときと同様に各係数を制御して、加算器(1104)の出力を自動的に補間ローパスフィルタ(1101)の出力に切替えてもよい。   At this time, the coefficients C0, C1, C2, and C3 in the aliasing component removal unit (117) are values obtained by replacing the phase difference θ shown in FIG. 9 with (θ ± π). That is, C0 = C2 = 1/2, C1 =-(1 + cos (θ ± π)) / (2sin (θ ± π)) = (1-cosθ) / sinθ, C3 = (1 + cos (θ ± π)) / (2sin (θ ± π)) =-(1-cosθ) / sinθ. At this time, it is possible to prevent the coefficients C1 and C3 from becoming indefinite when the phase difference θ is ± π, and the coefficients C1 and C3 to increase as the phase difference θ approaches ± π, thereby making it vulnerable to noise and the like. Therefore, the fifth embodiment of the present invention shown in FIG. 11 may be configured to switch to the output from the auxiliary pixel interpolation unit (1105) when the phase difference θ is in the vicinity of ± π. That is, in the specific example of the coefficient determiner (1103) used in the fifth embodiment of the present invention shown in FIG. 13, when θ in the figure is read as (θ ± π) and the phase difference θ is in the vicinity of ± π. In addition, the value of the coefficient C1 may be forced to 0 and the value of the coefficient C4 may be set to 1.0. With this operation, in the configuration shown in FIG. 11, when the phase difference θ (102) becomes ± π or in the vicinity of ± π, the output of the adder (1104) is automatically converted to the output of the interpolation low-pass filter (1101). It becomes possible to switch. Note that the phase difference θ may approach ± π and gradually gradually approach the coefficient shown in FIG. 13 from the coefficient shown in FIG. Also, when the position estimation unit (101) in FIG. 1 determines that the pixel corresponding to the pixel to be processed on the frame # 1 is not on the frame # 2, the phase difference θ (102) is ± π. The coefficients may be controlled in the same manner as when the vicinity is reached, and the output of the adder (1104) may be automatically switched to the output of the interpolation low-pass filter (1101).

なお、図20、図21、図27に示した各実施例の構成にて、位置推定部から出力された垂直位相差θVの値に対して図41に示した位相差オフセット(θoffset)(4102)を加えれば、インタレース走査の入力信号に対して、2次元の解像度変換を実現できる。   20, 21, and 27, the phase difference offset (θoffset) (4102) shown in FIG. 41 with respect to the value of the vertical phase difference θV output from the position estimation unit. ), Two-dimensional resolution conversion can be realized for interlaced scanning input signals.

また、出力されたプログレッシブ形態のフレーム画像に対し、さらに画素の垂直位置にオフセットを加えて、走査線密度の高いインタレース走査形態とすることも可能である。例えば480i形式(走査線数480本のインタレース走査形態)を入力とし、960i(走査線数960本のインタレース走査形態)に変換する場合は、本発明の上記技術によって、一旦480i形式を480p形式(走査線数480本のプログレッシブ走査形態)に変換したのちに、一般的な補間フィルタを用いて、フレームをひとつ置き(例えば、フレーム#2、#4、#6…)に垂直方向に1/2画素(=1/2走査線)だけずらせばよい。   Further, it is also possible to add an offset to the vertical position of the pixel to the output progressive frame image to obtain an interlace scanning mode with a high scanning line density. For example, when the 480i format (interlaced scanning mode with 480 scanning lines) is input and converted to 960i (interlaced scanning mode with 960 scanning lines), the 480i format is temporarily converted to 480p by the above technique of the present invention. After converting to a format (progressive scanning form with 480 scanning lines), using a general interpolation filter, every other frame (for example, frames # 2, # 4, # 6, etc.) is set to 1 in the vertical direction. It is only necessary to shift by / 2 pixels (= 1/2 scanning lines).

なお、上述したフレーム#1、フレーム#2、フレーム#3などは、時間的に不連続なフレームでもよいし、時間的に逆順となっていてもよい。また、フィールド#1、フィールド#2、フィールド#3などは、図40に示したような走査線の位置関係を勘案して位相差オフセット(θoffset)の値を決定すれば、時間的に不連続なフィールドでもよいし、時間的に逆順となっていてもよい。例えば、奇数フィールドどうし、あるいは偶数フィールドどうしを入力として解像度変換処理を行うときは、上記位相差オフセット(θoffset)の値を0とすればよい。   Note that frame # 1, frame # 2, frame # 3, and the like described above may be temporally discontinuous frames or may be in reverse order in time. Also, field # 1, field # 2, field # 3, etc. are temporally discontinuous if the value of the phase difference offset (θoffset) is determined in consideration of the positional relationship of the scanning lines as shown in FIG. Field, or in reverse order of time. For example, when performing resolution conversion processing with odd fields or even fields as inputs, the value of the phase difference offset (θoffset) may be set to zero.

以上説明した実施例21に係る画像信号処理装置によれば、インタレース走査の各フィールド(#1、#2…)を走査線数が1/2のフレームとみなし、1枚おきにフィールド全体に垂直方向のオフセットを付加して移動させる。このようにして生成した連続する画像のうち、2枚の画像について位置推定行い、位相差を算出し、当該位相差に前記オフセットに相当する位相差オフセットによる補正をおこなう。ここで、前記2枚の画像の信号について位相シフトを行い、各画像信号からそれぞれ2つの信号を生成する。これにより、2枚の画像信号から4つの信号を生成する。ここで、補正した位相差に基づいて、当該4つの信号の各信号について、当該4つの信号の折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成する画像のそれぞれの画素について、上記4つの信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。これを生成画像の各画素について行うことにより、新たな高解像度画像を生成し、当該高解像度画像をプログレッシブ走査のフレーム画像として出力する。   According to the image signal processing apparatus according to the twenty-first embodiment described above, each field of interlace scanning (# 1, # 2,...) Is regarded as a frame with the number of scanning lines being ½, and every other frame covers the entire field. Move with offset in the vertical direction. Of the continuous images generated in this way, position estimation is performed for two images, a phase difference is calculated, and the phase difference is corrected by a phase difference offset corresponding to the offset. Here, phase shift is performed on the signals of the two images, and two signals are generated from each image signal. As a result, four signals are generated from the two image signals. Here, based on the corrected phase difference, for each signal of the four signals, a coefficient for canceling and combining the aliasing components of the four signals is calculated for each pixel. For each pixel of the image to be generated, a sum is calculated by multiplying the pixel value of the corresponding pixel included in each of the four signals by each coefficient to generate a pixel value of a new high-resolution image. By performing this for each pixel of the generated image, a new high-resolution image is generated, and the high-resolution image is output as a frame image for progressive scanning.

これにより、実施例21に係る画像信号処理装置は、インタレース走査の2つのフィールドを用いて、垂直解像度の低下の少ないプログレッシブ走査画像を生成することが可能である。   As a result, the image signal processing apparatus according to the twenty-first embodiment can generate a progressive scan image with little reduction in vertical resolution using two interlaced scan fields.

また、実施例21に係る画像信号処理装置は、2枚の入力画像フレームを用いるため、必要な画像処理の量が少ない。これにより、垂直解像度の低下の少ないプログレッシブ走査画像を生成する画像信号処理装置を、低コストに実現することが可能である。   Further, since the image signal processing apparatus according to the twenty-first embodiment uses two input image frames, the amount of necessary image processing is small. Accordingly, it is possible to realize an image signal processing apparatus that generates a progressive scan image with little reduction in vertical resolution at a low cost.

図42を用いて本発明の実施例22に係る画像信号処理方法について説明する。   An image signal processing method according to Embodiment 22 of the present invention will be described with reference to FIG.

実施例22は、実施例21に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。本実施例の画像信号処理方法を行う画像処理装置は実施例2と同様の図18に示す画像処理装置であるので説明を省略する。   The twenty-second embodiment relates to an image signal processing method that realizes processing equivalent to the image signal processing in the image signal processing apparatus according to the twenty-first embodiment by a control unit that cooperates with software. The image processing apparatus that performs the image signal processing method of the present embodiment is the image processing apparatus shown in FIG.

図42に、本実施例に係る画像信号処理装置の動作のフローチャートの一例を示す。図42のフローチャートは、図14に示したフローチャートに対して、図40(b)に示したオフセットを補正するステップ(4201)を追加するとともに、ステップ(1402)(1403)の各入力をフレーム#1、フレーム#2からフィールド#1、フィールド#2に変更したものである。   FIG. 42 shows an example of a flowchart of the operation of the image signal processing apparatus according to the present embodiment. The flowchart of FIG. 42 adds a step (4201) for correcting the offset shown in FIG. 40 (b) to the flowchart shown in FIG. 14, and also inputs each input of steps (1402) and (1403) to frame #. 1. Frame # 2 is changed to field # 1 and field # 2.

その他のステップについては、図14に示したフローチャートと同様であるので説明を省略する。   Other steps are the same as those in the flowchart shown in FIG.

ここで、図42に示したオフセットを補正するステップ(4201)は、図40(b)に示す走査線の垂直位置関係をもとに、位相差オフセットθoffsetを決定し、位相差θに加算する処理を行うステップである。すなわち、フィールド#k(ただしkは整数)と、そのひとつ前(過去)のフィールド#(k-1)を入力して垂直解像度変換を行う場合、k=2n(nは整数、すなわちkは偶数)のときには位相差オフセット(θoffset)をπとして、位相差θの値を入力の走査線間隔の1/2だけ下方向に補正し、k=2n+1(nは整数、すなわちkは奇数)のときには位相差オフセット(θoffset)を−πとして、位相差θの値を入力の走査線間隔の1/2だけ上方向に補正する。これにより、図40(b)に示した静止時動きベクトル(4002)の上下動を補正することができ、他のステップの動作を変更せずに、インタレース走査の入力に対して解像度変換を行うことができるようになる。   Here, in the step (4201) of correcting the offset shown in FIG. 42, the phase difference offset θoffset is determined based on the vertical positional relationship of the scanning lines shown in FIG. 40B, and added to the phase difference θ. This is a step for performing processing. That is, when vertical resolution conversion is performed by inputting the field #k (where k is an integer) and the previous (past) field # (k-1), k = 2n (n is an integer, that is, k is an even number. ), The phase difference offset (θoffset) is π, and the value of the phase difference θ is corrected downward by 1/2 of the input scanning line interval, k = 2n + 1 (n is an integer, that is, k is an odd number) In this case, the phase difference offset (θoffset) is set to −π, and the value of the phase difference θ is corrected upward by 1/2 of the input scanning line interval. As a result, the vertical motion of the stationary motion vector 4002 shown in FIG. 40B can be corrected, and resolution conversion can be performed on the input of interlaced scanning without changing the operation of other steps. Will be able to do.

なお、上述したフレーム#1、フレーム#2、フレーム#3などは、時間的に不連続なフレームでもよいし、時間的に逆順となっていてもよい。また、フィールド#1、フィールド#2、フィールド#3などは、図40に示したような走査線の位置関係を勘案して位相差オフセット(θoffset)の値を決定すれば、時間的に不連続なフィールドでもよいし、時間的に逆順となっていてもよい。例えば、奇数フィールドどうし、あるいは偶数フィールドどうしを入力として解像度変換処理を行うときは、上記位相差オフセット(θoffset)の値を0とすればよい。   Note that frame # 1, frame # 2, frame # 3, and the like described above may be temporally discontinuous frames or may be in reverse order in time. Also, field # 1, field # 2, field # 3, etc. are temporally discontinuous if the value of the phase difference offset (θoffset) is determined in consideration of the positional relationship of the scanning lines as shown in FIG. Field, or in reverse order of time. For example, when performing resolution conversion processing with odd fields or even fields as inputs, the value of the phase difference offset (θoffset) may be set to zero.

以上説明した実施例22に係る画像信号処理方法によれば、インタレース走査の各フィールド(#1、#2…)を走査線数が1/2のフレームとみなし、1枚おきにフィールド全体に垂直方向のオフセットを付加して移動させる。このようにして生成した連続する画像のうち、2枚の画像について位置推定行い、位相差を算出し、当該位相差に前記オフセットに相当する位相差オフセットによる補正をおこなう。ここで、前記2枚の画像の信号について位相シフトを行い、各画像信号からそれぞれ2つの信号を生成する。これにより、2枚の画像信号から4つの信号を生成する。ここで、補正した位相差に基づいて、当該4つの信号の各信号について、当該4つの信号の折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成する画像のそれぞれの画素について、上記4つの信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。これを生成画像の各画素について行うことにより、新たな高解像度画像を生成し、当該高解像度画像をプログレッシブ走査のフレーム画像として出力する。   According to the image signal processing method according to the twenty-second embodiment described above, each field of interlace scanning (# 1, # 2,...) Is regarded as a frame with the number of scanning lines being ½, and every other frame is applied to the entire field. Move with offset in the vertical direction. Of the continuous images generated in this way, position estimation is performed for two images, a phase difference is calculated, and the phase difference is corrected by a phase difference offset corresponding to the offset. Here, phase shift is performed on the signals of the two images, and two signals are generated from each image signal. As a result, four signals are generated from the two image signals. Here, based on the corrected phase difference, for each signal of the four signals, a coefficient for canceling and combining the aliasing components of the four signals is calculated for each pixel. For each pixel of the image to be generated, a sum is calculated by multiplying the pixel value of the corresponding pixel included in each of the four signals by each coefficient to generate a pixel value of a new high-resolution image. By performing this for each pixel of the generated image, a new high-resolution image is generated, and the high-resolution image is output as a frame image for progressive scanning.

これにより、実施例22に係る画像信号処理方法は、インタレース走査の2つのフィールドを用いて、垂直解像度の低下の少ないプログレッシブ走査画像を生成することが可能である。   As a result, the image signal processing method according to the twenty-second embodiment can generate a progressive scan image with little decrease in vertical resolution by using two fields of interlace scanning.

また、実施例22に係る画像信号処理方法は、2枚の入力画像フレームを用いるため、必要な画像処理の量を少なくすることができるという効果がある。   Further, the image signal processing method according to the twenty-second embodiment has an effect of reducing the amount of necessary image processing since two input image frames are used.

本発明の実施例23に係る画像信号処理装置は、図41に示す実施例21に係る画像信号処理装置において、位相シフト部(116)を図10の位相シフト部(1009)に置換え、折返し成分除去部(117)を図10の折返し成分除去部(1010)に置換えた構成を有している。   The image signal processing device according to the twenty-third embodiment of the present invention is the same as the image signal processing device according to the twenty-first embodiment shown in FIG. 41 except that the phase shift unit (116) is replaced with the phase shift unit (1009) in FIG. The removal unit (117) is replaced with the folded component removal unit (1010) of FIG.

その他の構成については、図41に示す画像信号処理装置と同様であるので、説明を省略する。   Other configurations are the same as those of the image signal processing apparatus shown in FIG.

以上説明した実施例23に係る画像信号処理装置は、実施例21に係る画像信号処理装置の効果に加えて、実施例21に係る画像信号処理装置よりも小さい回路規模で実現できるため、より低コストに実現することが可能である。   The image signal processing apparatus according to the twenty-third embodiment described above can be realized with a smaller circuit scale than the image signal processing apparatus according to the twenty-first embodiment in addition to the effects of the image signal processing apparatus according to the twenty-first embodiment. It can be realized at cost.

図43を用いて本発明の実施例24に係る画像信号処理方法について説明する。   An image signal processing method according to Embodiment 24 of the present invention will be described with reference to FIG.

実施例24は、実施例23に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。本実施例の画像信号処理方法を行う画像処理装置は実施例2と同様の図18に示す画像処理装置であるので説明を省略する。   The twenty-fourth embodiment relates to an image signal processing method in which processing equivalent to the image signal processing in the image signal processing apparatus according to the twenty-third embodiment is realized by a control unit that cooperates with software. The image processing apparatus that performs the image signal processing method of the present embodiment is the image processing apparatus shown in FIG.

図43に、本実施例に係る画像信号処理装置の動作のフローチャートの一例を示す。図43のフローチャートは、図15に示したフローチャートに対して、図40(b)に示したオフセットを補正するステップ(4301)を追加するとともに、ステップ(1502)(1503)の各入力をフレーム#1、フレーム#2からフィールド#1、フィールド#2に変更したものである。   FIG. 43 shows an example of a flowchart of the operation of the image signal processing apparatus according to the present embodiment. 43 adds the step (4301) for correcting the offset shown in FIG. 40 (b) to the flowchart shown in FIG. 15, and also inputs each input in steps (1502) and (1503) to frame #. 1. Frame # 2 is changed to field # 1 and field # 2.

その他のステップについては、図15に示したフローチャートと同様であるので説明を省略する。   Other steps are the same as those in the flowchart shown in FIG.

なお、オフセットを補正するステップ(4301)の動作の詳細は、図42に示したオフセットを補正するステップ(4201)と同様であるので、説明を省略する。   The details of the operation in step (4301) for correcting the offset are the same as those in step (4201) for correcting the offset shown in FIG.

以上説明した実施例24に係る画像信号処理方法は、実施例22に係る画像信号処理方法と同様の画像信号高解像度化の効果を有する。さらに実施例24に係る画像信号処理方法は、実施例22に係る画像信号処理方法に比べて一部の処理ステップの内容を共通化することにより、実施例22に係る画像信号処理方法よりも少ない処理量(演算数)で同様の信号処理を実現することが可能であるという効果を有する。   The image signal processing method according to the twenty-fourth embodiment described above has the same effect of increasing the resolution of the image signal as the image signal processing method according to the twenty-second embodiment. Furthermore, the image signal processing method according to the twenty-fourth embodiment is less than the image signal processing method according to the twenty-second embodiment by sharing the contents of some processing steps as compared with the image signal processing method according to the twenty-second embodiment. There is an effect that it is possible to realize the same signal processing with a processing amount (the number of operations).

本発明の実施例25に係る画像信号処理装置は、図41に示す実施例21に係る画像信号処理装置において、位相シフト部(116)を図11の位相シフト部(1009)に置換え、折返し成分除去部(117)を図11の折返し成分除去部(1010)に置換え、さらに図11に示す補助的画素補間部(1055)を備えた構成を有している。   The image signal processing device according to Embodiment 25 of the present invention is the same as the image signal processing device according to Embodiment 21 shown in FIG. 41 except that the phase shift unit (116) is replaced with the phase shift unit (1009) of FIG. The removal unit (117) is replaced with the aliasing component removal unit (1010) of FIG. 11, and the auxiliary pixel interpolation unit (1055) shown in FIG. 11 is further provided.

その他の構成については、図41に示す画像信号処理装置と同様であるので、説明を省略する。   Other configurations are the same as those of the image signal processing apparatus shown in FIG.

以上説明した実施例25に係る画像信号処理装置は、実施例21に係る画像信号処理装置の効果に加えて、実施例21に係る画像信号処理装置よりも、位相差オフセット付加後の位相差θが0あるいは0近傍になったときやフィールド#1上の処理対象の画素に対応した画素がフィールド#2上にないと判定された場合にも処理結果が不定になることなく、安定した出力画像を得ることが可能であるという効果を有する。   In addition to the effects of the image signal processing device according to the twenty-first embodiment, the image signal processing device according to the twenty-fifth embodiment described above has a phase difference θ after the addition of the phase difference offset, compared to the image signal processing device according to the twenty-first embodiment. A stable output image without indeterminate processing results even when the value becomes 0 or near 0 or when it is determined that the pixel corresponding to the pixel to be processed on field # 1 is not on field # 2. Can be obtained.

図44を用いて本発明の実施例26に係る画像信号処理方法について説明する。   An image signal processing method according to Embodiment 26 of the present invention will be described with reference to FIG.

実施例26は、実施例25に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。本実施例の画像信号処理方法を行う画像処理装置は実施例2と同様の図18に示す画像処理装置であるので説明を省略する。   The twenty-sixth embodiment relates to an image signal processing method in which processing equivalent to the image signal processing in the image signal processing apparatus according to the twenty-fifth embodiment is realized by a control unit that cooperates with software. The image processing apparatus that performs the image signal processing method of the present embodiment is the image processing apparatus shown in FIG.

図44に、本実施例に係る画像信号処理装置の動作のフローチャートの一例を示す。図44のフローチャートは、図16に示したフローチャートに対して、図40(b)に示したオフセットを補正するステップ(4401)を追加するとともに、ステップ(1402)(1403)の各入力をフレーム#1、フレーム#2からフィールド#1、フィールド#2に変更したものである。   FIG. 44 shows an example of a flowchart of the operation of the image signal processing apparatus according to the present embodiment. The flowchart of FIG. 44 adds a step (4401) for correcting the offset shown in FIG. 40 (b) to the flowchart shown in FIG. 16, and also inputs the inputs of steps (1402) and (1403) to the frame #. 1. Frame # 2 is changed to field # 1 and field # 2.

その他のステップについては、図16に示したフローチャートと同様であるので説明を省略する。   The other steps are the same as those in the flowchart shown in FIG.

なお、オフセットを補正するステップ(4401)の動作の詳細は、図42に示したオフセットを補正するステップ(4201)と同様であるので、説明を省略する。   The details of the operation in the step (4401) for correcting the offset are the same as those in the step (4201) for correcting the offset shown in FIG.

以上説明した実施例26に係る画像信号処理方法は、実施例22に係る画像信号処理方法の効果に加えて、実施例22に係る画像信号処理方法よりも、位相差オフセット付加後の位相差θが0あるいは0近傍になったときやフィールド#1上の処理対象の画素に対応した画素がフィールド#2上にないと判定された場合にも処理結果が不定になることなく、安定した出力画像を得ることが可能であるという効果を有する。   In addition to the effect of the image signal processing method according to the twenty-second embodiment, the image signal processing method according to the twenty-sixth embodiment described above is more effective than the image signal processing method according to the twenty-second embodiment. A stable output image without indeterminate processing results even when the value becomes 0 or near 0 or when it is determined that the pixel corresponding to the pixel to be processed on field # 1 is not on field # 2. Can be obtained.

本発明の実施例27に係る画像表示装置は、実施例13に係る画像表示装置において、図36に示す画像信号処理部3504を実施例21、実施例23若しくは実施例25のうち一の実施例に記載された画像信号処理装置に替えたものである。その他構成は、実施例13に係る画像表示装置と同じである為、説明を省略する。   The image display device according to the twenty-seventh embodiment of the present invention is the same as the image display device according to the thirteenth embodiment except that the image signal processing unit 3504 shown in FIG. In place of the image signal processing apparatus described in the above. Since other configurations are the same as those of the image display apparatus according to the thirteenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例21、実施例23若しくは実施例25に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is the same as that described in the twenty-first, twenty-third, or twenty-fifth embodiment, and thus the description thereof is omitted.

実施例27に係る画像表示装置によれば、インタレース走査の各フィールド(#1、#2…)を走査線数が1/2のフレームとみなし、1枚おきにフィールド全体に垂直方向のオフセットを付加して移動させる。このようにして生成した連続する画像のうち、2枚の画像について位置推定行い、位相差を算出し、当該位相差に前記オフセットに相当する位相差オフセットによる補正をおこなう。ここで、前記2枚の画像の信号について位相シフトを行い、各画像信号からそれぞれ2つの信号を生成する。これにより、2枚の画像信号から4つの信号を生成する。ここで、補正した位相差に基づいて、当該4つの信号の各信号について、当該4つの信号の折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成する画像のそれぞれの画素について、上記4つの信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。これを生成画像の各画素について行うことにより、新たな高解像度画像を生成し、当該高解像度画像をプログレッシブ走査のフレーム画像として表示部に表示する。   According to the image display apparatus of the twenty-seventh embodiment, each interlaced scanning field (# 1, # 2,...) Is regarded as a frame having a scanning line number of 1/2, and every other frame is offset vertically. Add and move. Of the continuous images generated in this way, position estimation is performed for two images, a phase difference is calculated, and the phase difference is corrected by a phase difference offset corresponding to the offset. Here, phase shift is performed on the signals of the two images, and two signals are generated from each image signal. As a result, four signals are generated from the two image signals. Here, based on the corrected phase difference, for each signal of the four signals, a coefficient for canceling and combining the aliasing components of the four signals is calculated for each pixel. For each pixel of the image to be generated, a sum is calculated by multiplying the pixel value of the corresponding pixel included in each of the four signals by each coefficient to generate a pixel value of a new high-resolution image. By performing this for each pixel of the generated image, a new high-resolution image is generated, and the high-resolution image is displayed on the display unit as a frame image for progressive scanning.

これにより、実施例27に係る画像表示装置は、インタレース走査の2つのフィールドを用いて、垂直解像度の低下の少ないプログレッシブ走査画像を生成し、表示部に表示することが可能である。   Thus, the image display apparatus according to the twenty-seventh embodiment can generate a progressive scan image with little decrease in vertical resolution using two fields of interlaced scan and display the same on the display unit.

また、実施例27に係る画像表示装置は、2枚の入力画像フレームを用いるため、必要な画像処理の量が少ない。これにより、垂直解像度の低下の少ないプログレッシブ走査画像を生成して表示する画像表示装置を、低コストに実現することが可能である。   Further, since the image display apparatus according to the twenty-seventh embodiment uses two input image frames, the amount of necessary image processing is small. As a result, an image display device that generates and displays a progressive scan image with little reduction in vertical resolution can be realized at low cost.

本発明の実施例28に係る録画再生装置は、実施例17に係る録画再生装置において、図36に示す画像信号処理部3504を実施例21、実施例23、若しくは実施例25の実施例のうち一の実施例に記載された画像信号処理装置に替えたものである。その他構成は、実施例17に係る録画再生装置と同じである為、説明を省略する。   The recording / playback apparatus according to Embodiment 28 of the present invention is the same as the recording / playback apparatus according to Embodiment 17, except that the image signal processing unit 3504 shown in FIG. The image signal processing apparatus described in one embodiment is replaced. Since other configurations are the same as those of the recording / playback apparatus according to the seventeenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例21、実施例23、若しくは実施例25に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is as described in the twenty-first, twenty-third, or twenty-fifth embodiment, and thus the description thereof is omitted.

本発明の実施例28に係る録画再生装置によれば、インタレース走査の各フィールド(#1、#2…)を走査線数が1/2のフレームとみなし、1枚おきにフィールド全体に垂直方向のオフセットを付加して移動させる。このようにして生成した連続する画像のうち、2枚の画像について位置推定行い、位相差を算出し、当該位相差に前記オフセットに相当する位相差オフセットによる補正をおこなう。ここで、前記2枚の画像の信号について位相シフトを行い、各画像信号からそれぞれ2つの信号を生成する。これにより、2枚の画像信号から4つの信号を生成する。ここで、補正した位相差に基づいて、当該4つの信号の各信号について、当該4つの信号の折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成する画像のそれぞれの画素について、上記4つの信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。これを生成画像の各画素について行うことにより、新たな高解像度画像を生成し、当該高解像度画像をプログレッシブ走査のフレーム画像として生成し、これを出力することが可能である。   According to the recording / reproducing apparatus in the twenty-eighth embodiment of the present invention, each field of interlace scanning (# 1, # 2,...) Is regarded as a frame having the number of scanning lines of 1/2, and every other frame is perpendicular to the entire field. Move with an offset in the direction. Of the continuous images generated in this way, position estimation is performed for two images, a phase difference is calculated, and the phase difference is corrected by a phase difference offset corresponding to the offset. Here, phase shift is performed on the signals of the two images, and two signals are generated from each image signal. As a result, four signals are generated from the two image signals. Here, based on the corrected phase difference, for each signal of the four signals, a coefficient for canceling and combining the aliasing components of the four signals is calculated for each pixel. For each pixel of the image to be generated, a sum is calculated by multiplying the pixel value of the corresponding pixel included in each of the four signals by each coefficient to generate a pixel value of a new high-resolution image. By performing this for each pixel of the generated image, it is possible to generate a new high-resolution image, generate the high-resolution image as a progressive scan frame image, and output this.

これにより、実施例28に係る録画再生装置は、インタレース走査の2つのフィールドを用いて、垂直解像度の低下の少ないプログレッシブ走査画像を生成し、出力することが可能である。   Thus, the recording / playback apparatus according to the twenty-eighth embodiment can generate and output a progressive scan image with little reduction in vertical resolution using two interlaced scan fields.

また、インタレース走査による入力映像信号を記録部に記録しておき、その記録部からの再生時に、再生するインタレース走査の2つのフィールドを用いて、垂直解像度の低下の少ないプログレッシブ走査画像を生成し、出力することが可能である。   In addition, the interlaced scanning input video signal is recorded in the recording unit, and at the time of reproduction from the recording unit, a progressive scanning image with little reduction in vertical resolution is generated by using two fields of the interlaced scanning to be reproduced. Can be output.

また、実施例28に係る録画再生装置は、2枚の入力画像フレームを用いるため、必要な画像処理の量が少ない。これにより、垂直解像度の低下の少ないプログレッシブ走査画像を生成して出力する録画再生装置を、低コストに実現することが可能である。   In addition, since the recording / playback apparatus according to the twenty-eighth embodiment uses two input image frames, the amount of necessary image processing is small. As a result, it is possible to realize a recording / playback apparatus that generates and outputs a progressive scan image with little reduction in vertical resolution at low cost.

上述したように、特許文献1、特許文献2、非特許文献1に記載されている従来の技術では、サンプリング位相(標本化位置)の差を用いて高解像度化処理を行っているため、サンプリング位相に差が生じない信号、すなわち、被写体が静止している領域や、被写体の動きが整数画素単位になる領域では、高解像度化の効果が得られないという課題があった。この課題を解決するため、図45〜図47を用いて、本発明の実施例29に係る画像信号処理装置の動作と構成を示す。   As described above, in the conventional techniques described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, since the resolution enhancement processing is performed using the difference in sampling phase (sampling position), sampling is performed. There is a problem that the effect of increasing the resolution cannot be obtained in a signal in which a phase difference does not occur, that is, in a region where the subject is stationary or a region where the motion of the subject is an integer pixel unit. In order to solve this problem, the operation and configuration of the image signal processing apparatus according to the embodiment 29 of the present invention will be described with reference to FIGS.

まず、図45を用いて、本発明の実施例29に係る動作を説明する。同図において、(a)入力フレーム上の被写体が、時間とともにフレーム#a(4501)、フレーム#b(4502)、フレーム#c(4503)、フレーム#d(4504)…のように移動しているものとする。このとき、フレーム#a(4501)とフレーム#b(4502)の間は、カメラが映している方向が移動しているものとすると、 (b)位置推定結果(動きベクトル)として画面全体が一様に動いている結果(4505)が得られる。また、フレーム#b(4502)とフレーム#c(4503)の間は、カメラが静止して人物だけが動いているものとすると、(b)位置推定結果(動きベクトル)として人物の部分だけが動き、背景部分が静止している結果(4506)が得られる。また、フレーム#c(4503)とフレーム#d(4504)の間は、人物も背景も静止していものとすると、(b)位置推定結果(動きベクトル)はすべて静止した結果(零ベクトル)が得られる。   First, the operation according to Embodiment 29 of the present invention will be described with reference to FIG. In this figure, (a) the subject on the input frame moves over time as frame #a (4501), frame #b (4502), frame #c (4503), frame #d (4504), etc. It shall be. At this time, if the direction in which the camera is projected is moving between frame #a (4501) and frame #b (4502), (b) the entire screen is unified as the position estimation result (motion vector). The result (4505) is obtained. Also, between the frame #b (4502) and the frame #c (4503), assuming that the camera is stationary and only the person is moving, (b) only the person part is included as the position estimation result (motion vector). The result (4506) is obtained that the motion and the background part are stationary. Also, if both the person and the background are stationary between frame #c (4503) and frame #d (4504), (b) the position estimation results (motion vectors) are all stationary results (zero vectors). can get.

ここで、特許文献1、特許文献2、非特許文献1に記載されている従来技術では、被写体が動いている領域、すなわち(b)位置推定結果(動きベクトル)として動きが検出された領域((4505)、および、(4506)の人物の部分)は高解像度化の効果が得られるが、被写体が動いていない領域、すなわち(b)位置推定結果(動きベクトル)として動きが検出されなかった領域((4506)の背景部分、および、(4507)の画面全体)は高解像度化の効果は得られない。   Here, in the prior art described in Patent Literature 1, Patent Literature 2, and Non-Patent Literature 1, the region where the subject is moving, that is, (b) the region where motion is detected as the position estimation result (motion vector) ( (4505) and (4506) person part) can achieve the effect of higher resolution, but the area where the subject is not moving, that is, (b) no motion was detected as the position estimation result (motion vector) The area (the background portion of (4506) and the entire screen of (4507)) cannot achieve the effect of increasing the resolution.

そこで、図45(c)高解像度化信号処理方法に示すように、被写体が動いている領域、すなわち(b)位置推定結果(動きベクトル)として動きが検出された領域((4505)、および、(4506)の人物の部分)では、従来と同様の高解像度化処理を行い、被写体が動いていない領域、すなわち(b)位置推定結果(動きベクトル)として動きが検出されなかった領域((4506)の背景部分、および、(4507)の画面全体)では、動きが検出される他のフレームと画素ごとに合成して高解像度化処理を行う。すなわち、(4505)、および、(4506)の人物の部分では、フレーム#bとフレーム#aを合成して高解像度化する。一方、(4506)の背景部分では、フレーム#cとフレーム#aを画素ごとに合成して高解像度化する(4509)。また、(4507)の画面全体では、フレーム#dと、フレーム#aとフレーム#bの合成結果(フレーム#a+#b)を合成して高解像度化する(4510)。このように、被写体の動きの有無に応じて、画素ごとに合成するフレームを選択的に変更することにより、被写体の静動に関わらずフレーム全体を高解像度化できるようになる。なお、被写体の動きが整数画素単位になる領域についても、被写体が静止している領域と同様の処理を行えばよい。   Therefore, as shown in FIG. 45 (c) high resolution signal processing method, the area where the subject is moving, that is, (b) the area where motion is detected as the position estimation result (motion vector) ((4505), and In the (4506) person portion), the same high resolution processing as before is performed, and the area where the subject is not moving, i.e., the area where no motion is detected as the position estimation result (motion vector) ((4506 In the background portion of () and the entire screen of (4507), the high resolution processing is performed by synthesizing each pixel with another frame in which motion is detected. That is, in the portion of the person (4505) and (4506), the frame #b and the frame #a are combined to increase the resolution. On the other hand, in the background portion of (4506), frame #c and frame #a are synthesized for each pixel to increase the resolution (4509). In addition, in the entire screen of (4507), the frame #d, and the combined result (frame # a + # b) of frame #a and frame #b are combined to increase the resolution (4510). In this way, by selectively changing the frame to be combined for each pixel according to the presence or absence of the movement of the subject, it becomes possible to increase the resolution of the entire frame regardless of the movement of the subject. It should be noted that the area where the movement of the subject is an integer pixel unit may be processed similarly to the area where the subject is stationary.

図46を用いて、本発明の実施例29に係る画像信号処理装置の構成を説明する。同図に示す構成は、フレーム#1が最新のフレームであり、フレーム#2がフレーム#1よりも1フレーム過去であると想定し、本発明の実施例1に係る画像信号処理装置の構成(図1)に画素・位相差置換部(4607)を追加した構成になっており、位置推定部(101)から出力される位相差θ(102)の値に応じて、アップレート後のフレーム#2の画素の値と位相差θ(102)の値を、それぞれフレーム(4608)と位相差θ(4609)に画素ごとに置換したのちに、上述した動き補償・アップレート部(115)、位相シフト部(116)、折返し成分除去部(117)を用いて、本発明の実施例1に係る画像信号処理装置と同一の動作を行う。なお、動き補償・アップレート部(115)は、図1に示したアップレート器(104)の替わりに、アップレート器(118)と動き補償器(119)の構成になっているが、これは図5を用いて説明したように、アップレート器(104)の動作を、「もとの画素間隔の中間の位置に新しい画素のサンリング点(=ゼロ点)を挿入することによって画素数を2倍にして高密度化する」動作と、「-fs〜+fsの間の周波数をすべて利得2.0の通過帯域とするフィルタをかける」動作に分割し、前者をアップレート器(118)、後者を動き補償器(119)の構成に置き換えただけであり、図1と図46に示したそれぞれの動き補償・アップレート部(115)は実質的に同一の構成である。   The configuration of an image signal processing apparatus according to Embodiment 29 of the present invention will be described with reference to FIG. The configuration shown in the figure assumes that the frame # 1 is the latest frame and the frame # 2 is one frame older than the frame # 1, and the configuration of the image signal processing apparatus according to the first embodiment of the present invention ( The pixel / phase difference replacement unit (4607) is added to FIG. 1), and the frame # after the up-rate is determined according to the value of the phase difference θ (102) output from the position estimation unit (101). After replacing the pixel value of 2 and the value of the phase difference θ (102) for each pixel with the frame (4608) and the phase difference θ (4609), respectively, the motion compensation / uprate unit (115) described above and the phase The shift unit (116) and the aliasing component removal unit (117) are used to perform the same operation as the image signal processing apparatus according to the first embodiment of the present invention. Note that the motion compensation / uprate unit (115) has a configuration of an uprater (118) and a motion compensator (119) instead of the uprater (104) shown in FIG. As described with reference to FIG. 5, the operation of the up-rater (104) is changed to “the number of pixels by inserting a new pixel sampling point (= zero point) at a position intermediate the original pixel interval. Is divided into the operation of `` double the density to increase the density '' and the operation of `` filtering with all the frequencies between -fs and + fs being a passband with a gain of 2.0 '', and the former is the up-rater (118), The latter is merely replaced with the configuration of the motion compensator (119), and the motion compensation / up-rate units (115) shown in FIGS. 1 and 46 have substantially the same configuration.

画素・位相差置換部(4607)では、フレームバッファ(4603)、および加算器(4606)とループ状に構成にしたフレームバッファ(4605)を用いることにより、動き補償器(119)から出力されるフレームと、位相差θ(102)の累積値を記録する。また、処理可能判定部(4601)にて、後述する判定基準により通常の高解像度化処理が可能か否かを画素ごとに判定したのちに、通常の高解像度化処理が可能と判定した場合は、切替器(4602)と切替器(4604)をともに(a)側に切替え、フレーム(4608)の値をアップレート器(118)の出力値とするとともに、位相差θ(4609)を位相差θ(102)と同一の値として、図1に示した構成と同一の動作になるようにする。   In the pixel / phase difference replacement unit (4607), the frame buffer (4603) and the adder (4606) and the frame buffer (4605) configured in a loop are used to output from the motion compensator (119). Record the frame and the cumulative value of the phase difference θ (102). In addition, when it is determined by the processability determination unit (4601) for each pixel whether or not normal resolution enhancement processing is possible according to the criteria described later, when it is determined that normal resolution enhancement processing is possible The switcher (4602) and switcher (4604) are both switched to the (a) side, the frame (4608) value is used as the output value of the up-rater (118), and the phase difference θ (4609) is the phase difference. As the same value as θ (102), the same operation as the configuration shown in FIG. 1 is performed.

一方、通常の高解像度化処理が不可能と判定した場合は、切替器(4602)と切替器(4604)をともに(b)側に切替え、フレーム(4608)の値をフレームバッファ(4603)の出力値とするとともに、加算器(4606)を用いて位相差θ(4609)の値を位相差θ(102)とフレームバッファ(4605)の出力値の和とすることにより、フレーム#2よりも過去のフレームの画素値と位相差を用いて高解像度化処理を行うようにする。なお、フレームバッファ(4603)には動き補償器(119)の出力値を入力して書き込むように構成し、フレームバッファ(4605)には加算器(4606)の出力値を入力して書き込むように構成する。このとき、各フレームバッファ(4603)(4605)のデータ書込み(入力)用アドレスは、フレーム#1の対象画素と対応する位置のデータを指し示すように設定し、各フレームバッファ(4603)(4605)のデータ読み出し(出力)用アドレスは、位置推定部(101)が出力する位相差θ(102)に基づいて、フレーム#1の対象画素と対応するフレーム#2上の画素と同一の位置のデータを指し示すように設定する。   On the other hand, if it is determined that normal high resolution processing is not possible, both the switcher (4602) and switcher (4604) are switched to (b) side, and the value of frame (4608) is set to the value of frame buffer (4603). By using the adder (4606) to set the phase difference θ (4609) to the sum of the phase difference θ (102) and the output value of the frame buffer (4605) using the adder (4606). High resolution processing is performed using pixel values and phase differences of past frames. The frame buffer (4603) is configured to input and write the output value of the motion compensator (119), and the frame buffer (4605) is configured to input and write the output value of the adder (4606). Constitute. At this time, the data write (input) address of each frame buffer (4603) (4605) is set to point to the data at the position corresponding to the target pixel of frame # 1, and each frame buffer (4603) (4605) The data read (output) address is the data at the same position as the pixel on frame # 2 corresponding to the target pixel of frame # 1, based on the phase difference θ (102) output by the position estimation unit (101). To point to.

画素・位相差置換部(4607)を上記のように構成することにより、通常の高解像度化処理が可能と判定した場合は、図46に示した画像信号処理装置の動作は図1を用いて説明した動作と同一になり、本発明に係る実施例1に示した通常の高解像度化処理が行われる。それと同時に、各フレームバッファ(4603)(4605)の対応画素位置の値は過去の履歴(累積)がリセットされ、フレームバッファ(4603)には最新の動き補償結果が、フレームバッファ(4605)には最新の位相差θ(102)の値が書き込まれる。   If the pixel / phase difference replacement unit (4607) is configured as described above and it is determined that normal resolution enhancement processing is possible, the operation of the image signal processing apparatus shown in FIG. The operation is the same as described, and the normal resolution enhancement process shown in the first embodiment of the present invention is performed. At the same time, the past history (cumulative) is reset for the corresponding pixel position value of each frame buffer (4603) (4605), the latest motion compensation result is stored in the frame buffer (4603), and the frame buffer (4605) The latest value of the phase difference θ (102) is written.

一方、通常の高解像度化処理が不可能と判定した場合は、フレームバッファ(4603)から1フレーム以上過去の画素データが読み出されるとともに、フレームバッファ(4605)からは、フレームバッファ(4603)から読み出された画素データとフレーム#1の対象画素との間の位相差θ、すなわち、フレーム#1の対象画素が過去の各フレーム上を通った軌跡に基づいて位相差θ(102)を累積した値が出力されるようになるため、被写体が静止している領域や整数画素単位の動きしかない領域でも、過去のフレームに小数画素単位の動きがあれば、図45(c)に示した高解像度化処理を実現できるようになる。なお、処理開始直後は、まだ各フレームバッファ(4603)(4605)に値が書き込まれていないため、少なくとも最初の1フレーム以上の期間は、切替器(4602)と切替器(4604)をともに(a)側に切替えて固定し、各フレームバッファ(4603)(4605)から誤ったデータを読み出さないようにする必要がある。また、位相差θ(102)の値によっては、フレーム#1の対象画素と対応するフレーム#2上の画素と同一の位置が存在しない場合があり、この場合も切替器(4602)と切替器(4604)をともに(a)側に切替えて固定し、通常の高解像度化処理を行えばよい。また、各フレームバッファ(4603)(4605)のデータを読み出す前に、同一アドレスに別のデータを書き込まないように制御する必要があるが、2つの同等なフレームバッファを用意しておき、これらを適宜切り替えてデータ読み出しとデータ書込みの2つの処理を並行化する一般的なダブルバッファ構成を用いれば、上記制御を実現できる。これらは従来技術によって容易に実現可能なため、図示は省略する。また、図46に示した画像信号処理装置の構成のうち、画素・位相差置換部(4607)を除く他の部分は、図1に示した構成と同様であるので、説明を省略する。   On the other hand, when it is determined that the normal resolution enhancement processing is impossible, the past pixel data of one frame or more is read from the frame buffer (4603), and the frame buffer (4605) reads from the frame buffer (4603). The phase difference θ between the output pixel data and the target pixel of frame # 1, that is, the phase difference θ (102) is accumulated based on the trajectory that the target pixel of frame # 1 has passed over each past frame. Since the value is output, even if the subject is stationary or the region has only motion in units of integer pixels, if the past frame has motion in units of decimal pixels, the high level shown in FIG. Resolution processing can be realized. Since the value is not yet written in each frame buffer (4603) (4605) immediately after the start of processing, both the switch (4602) and the switch (4604) are used at least for the period of the first one frame or more ( It is necessary to switch to the a) side and fix it so that erroneous data is not read from each frame buffer (4603) (4605). Also, depending on the value of the phase difference θ (102), the same position as the pixel on the frame # 2 corresponding to the target pixel of the frame # 1 may not exist. In this case also, the switch (4602) and the switch Both (4604) may be switched to the (a) side and fixed, and normal high resolution processing may be performed. Also, before reading the data in each frame buffer (4603) (4605), it is necessary to control so that other data is not written to the same address, but two equivalent frame buffers are prepared, The above control can be realized by using a general double buffer configuration in which two processes of data reading and data writing are made parallel by switching appropriately. Since these can be easily realized by the prior art, illustration is omitted. Also, in the configuration of the image signal processing apparatus shown in FIG. 46, the other parts except the pixel / phase difference replacement unit (4607) are the same as those shown in FIG.

図47に、上記処理可能判定部(4601)にて通常の高解像度化処理が可能か否かを画素ごとに判定する基準の一例、すなわち、切替器(4602)と切替器(4604)を制御する方法の一例を示す。同図に示す位相差θと係数C0、C1、C2、C3は、図9に示した位相差θおよび係数C0、C1、C2、C3と同一である。本発明の実施例5に係る画像信号処理装置、および実施例6に係る画像信号処理方法では、位相差θが0のときに係数C1、C3が不定になることや、位相差θが0に近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になることを防ぐために、位相差θが0近傍になったときに補助的画素補間に切り替えていたが、本実施例では、これと同じ判定基準により、切替器(4602)と切替器(4604)を通常は(a)側に切り替えておき、位相差θが0近傍になったときに(b)側に切り替えるようにする。なお、図47に示したθと切替器(4602)と切替器(4604)の各動作の関係は、これに限定されるわけではない。例えばθ=0のときだけでなく、0≦θ≦π/8、あるいは15π/8≦θ<=2π(=0と等価)のときにも切替器(4602)と切替器(4604)を(b)側に切り替えるようにしてもよく、ノイズの影響等を勘案しながら、「0近傍」の範囲を設定すればよい。   FIG. 47 shows an example of criteria for determining for each pixel whether or not normal resolution enhancement processing is possible in the processability determination unit (4601), that is, the switch (4602) and the switch (4604) are controlled. An example of how to do this is shown. The phase difference θ and the coefficients C0, C1, C2, and C3 shown in the figure are the same as the phase difference θ and the coefficients C0, C1, C2, and C3 shown in FIG. In the image signal processing device according to the fifth embodiment of the present invention and the image signal processing method according to the sixth embodiment, the coefficients C1 and C3 are indefinite when the phase difference θ is 0, or the phase difference θ is 0. In order to prevent the coefficients C1 and C3 from increasing and becoming vulnerable to noise and the like as they approach, switching to auxiliary pixel interpolation was performed when the phase difference θ was close to 0. Based on the same criterion, the switch (4602) and the switch (4604) are normally switched to the (a) side, and switched to the (b) side when the phase difference θ is close to 0. Note that the relationship between the operations of θ, the switch (4602), and the switch (4604) shown in FIG. 47 is not limited to this. For example, not only when θ = 0, but also when 0 ≦ θ ≦ π / 8 or 15π / 8 ≦ θ <= 2π (equivalent to 0), the switch (4602) and switch (4604) It may be switched to the b) side, and the “near 0” range may be set in consideration of the influence of noise and the like.

また、本発明をインタレース・プログレッシブ走査線(以下、I-P変換)に適用した場合には、本発明の実施例21に係る画像信号処理装置、および実施例22に係る画像信号処理方法にて説明したように、各係数C0、C1、C2、C3、および切替器(4602)と切替器(4604)の状態は、図47に示した位相差θを(θ±π)に置き換えた値となる。すなわち、C0=C2=1/2、C1=-(1+cos(θ±π))/(2sin(θ±π))=(1-cosθ)/sinθ、C3=(1+cos(θ±π))/(2sin(θ±π))=-(1-cosθ)/sinθとなる。この際、位相差θが±πのときに係数C1、C3が不定になることや、位相差θが±πに近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になることを防ぐために、本発明の実施例21に係る画像信号処理装置、および実施例22に係る画像信号処理方法では、位相差θが±π近傍になったときに補助的画素補間に切り替えていたが、本実施例では、これと同じ判定基準により、切替器(4602)と切替器(4604)を通常は(a)側に切り替えておき、位相差θが±π近傍になったときに(b)側に切り替えるようにすればよい。   Further, when the present invention is applied to an interlace / progressive scanning line (hereinafter referred to as IP conversion), it will be described in the image signal processing apparatus according to the twenty-first embodiment of the present invention and the image signal processing method according to the twenty-second embodiment. As described above, the coefficients C0, C1, C2, C3, and the states of the switch (4602) and the switch (4604) are values obtained by replacing the phase difference θ shown in FIG. 47 with (θ ± π). . That is, C0 = C2 = 1/2, C1 =-(1 + cos (θ ± π)) / (2sin (θ ± π)) = (1-cosθ) / sinθ, C3 = (1 + cos (θ ± π)) / (2sin (θ ± π)) =-(1-cosθ) / sinθ. At this time, it is possible to prevent the coefficients C1 and C3 from becoming indefinite when the phase difference θ is ± π, and the coefficients C1 and C3 to increase as the phase difference θ approaches ± π, thereby making it vulnerable to noise and the like. Therefore, in the image signal processing device according to the twenty-first embodiment of the present invention and the image signal processing method according to the twenty-second embodiment, switching to auxiliary pixel interpolation is performed when the phase difference θ is close to ± π. In the embodiment, the switching device (4602) and the switching device (4604) are normally switched to the (a) side according to the same criterion, and the (b) side when the phase difference θ is close to ± π. Switch to.

また、上述した画素・位相差置換部(4607)は、本発明に係る実施例3を示した図10の構成、本発明に係る実施例5を示した図11の構成、本発明に係る実施例7を示した図20の構成、本発明に係る実施例8を示した図21の構成、本発明に係る実施例9を示した図27の構成、本発明に係る実施例21を示した図41の構成にも同様に適用できる。   Further, the pixel / phase difference replacement unit (4607) described above includes the configuration of FIG. 10 showing the third embodiment according to the present invention, the configuration of FIG. 11 showing the fifth embodiment according to the present invention, and the implementation according to the present invention. The configuration of FIG. 20 showing Example 7, the configuration of FIG. 21 showing Example 8 according to the present invention, the configuration of FIG. 27 showing Example 9 according to the present invention, and Example 21 according to the present invention were shown. The same applies to the configuration of FIG.

以上説明した実施例29に係る画像信号処理装置は、複数枚の画像とそれらの位相差を用いて高解像度の画像を生成する場合に、被写体が静止している領域や、被写体の動きが整数画素単位になる領域でも、過去に小数画素単位の動きがあれば、高解像度化の効果が得られるという効果を有する。   In the image signal processing apparatus according to the 29th embodiment described above, when a high-resolution image is generated using a plurality of images and their phase differences, the region where the subject is stationary or the motion of the subject is an integer. Even in the region where the pixel unit is used, if there is a motion of a decimal pixel unit in the past, the effect of increasing the resolution can be obtained.

実施例30は、実施例29に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。   The thirtieth embodiment relates to an image signal processing method in which processing equivalent to the image signal processing in the image signal processing apparatus according to the twenty-ninth embodiment is realized by a control unit that cooperates with software.

まず、図48を用いて本実施例に係る画像信号処理方法を実現するための画像処理装置について説明する。図48に示す画像信号処理装置は、例えばテレビジョン放送信号などの画像信号が入力される入力部(1)と、入力部(1)から入力された信号を処理するためのソフトウェアを記憶する記憶部(11)と、記憶部(11)に記憶されるソフトウェアと協働して入力部(1)から入力された信号について画像信号処理を行う制御部(10)と、制御部(10)が当該画像信号処理においてデータのバッファに用いるフレームバッファ#1(21)、フレームバッファ#2(22)、フレームバッファ#4(36)、フレームバッファ#5(37)と、制御部(10)から出力部(3)に出力される画像信号処理後の信号を、フレームバッファするためのバッファ#3(23)とを備える。   First, an image processing apparatus for realizing the image signal processing method according to the present embodiment will be described with reference to FIG. The image signal processing apparatus shown in FIG. 48 stores, for example, an input unit (1) to which an image signal such as a television broadcast signal is input, and software for processing the signal input from the input unit (1). A control unit (10) that performs image signal processing on a signal input from the input unit (1) in cooperation with software stored in the unit (11), the storage unit (11), and a control unit (10) Output from frame buffer # 1 (21), frame buffer # 2 (22), frame buffer # 4 (36), frame buffer # 5 (37), and control unit (10) used for data buffer in the image signal processing A buffer # 3 (23) for frame-buffering the image signal processed signal output to the unit (3).

ここで、図48に示す画像信号処理装置が備える入力部(1)の数は、画像処理に用いるフレーム数である2と同じとしたが、入力部(1)を一つだけ備えて、2つフレームを連続して入力しても構わない。   Here, the number of input units (1) included in the image signal processing apparatus shown in FIG. 48 is the same as two, which is the number of frames used for image processing, but only one input unit (1) is provided. One frame may be input continuously.

また、データのバッファに用いるフレームバッファ#1(21)、フレームバッファ#2(22)、フレームバッファ#4(36)、フレームバッファ#5(37)、およびソフトウェアを記憶する記憶部(11)は、それぞれが個別のメモリチップを用いて構成してもよいし、1個あるいは複数個のメモリチップを用い、各データアドレスを分割して使用する構成にしてもよい。   In addition, the frame buffer # 1 (21), the frame buffer # 2 (22), the frame buffer # 4 (36), the frame buffer # 5 (37), and the storage unit (11) for storing software are used for the data buffer. Each may be configured using individual memory chips, or one or a plurality of memory chips may be used to divide and use each data address.

本実施例において、入力部(1)から入力される画像信号について、制御部(10)が記憶部(11)に記憶されるソフトウェアと協働して画像信号処理を行い、表示部(3)に出力する。当該画像信号処理の詳細は図49を用いて説明する。   In this embodiment, for the image signal input from the input unit (1), the control unit (10) performs image signal processing in cooperation with software stored in the storage unit (11), and the display unit (3) Output to. Details of the image signal processing will be described with reference to FIG.

図49に、本実施例に係る画像信号処理方法のフローチャートの一例を示す。図49のフローチャートは、本発明の実施例2に係る画像信号処理方法を示した図14のフローチャートにおけるステップ(1406)を、図49におけるステップ(4907)に置き換えたものであり、ステップ(1401)から開始し、ステップ(1418)にて各フレームの画像データを2倍にアップレートする。すなわち、ステップ(1402)にてフレーム#1の画像データをアップレートしてフレームバッファ#1に書込み、ステップ(1403)にてフレーム#2の画像データをアップレートしてフレームバッファ#2に書き込む。ここで、アップレートとは、各フレームバッファの値を一旦0でクリアしたのちに、1画素おきにデータを書き込むことにより実現できる。   FIG. 49 shows an example of a flowchart of the image signal processing method according to the present embodiment. The flowchart of FIG. 49 is obtained by replacing step (1406) in the flowchart of FIG. 14 showing the image signal processing method according to the second embodiment of the present invention with step (4907) in FIG. In step (1418), the image data of each frame is updated twice. That is, in step (1402), the image data of frame # 1 is updated and written to frame buffer # 1, and in step (1403), the image data of frame # 2 is updated and written to frame buffer # 2. Here, the up-rate can be realized by clearing the value of each frame buffer to 0 and then writing the data every other pixel.

次に、ステップ(1404)にて、フレームバッファ#1の最初の画素(例えば左上の画素)を処理対象に設定して、以下、フレームバッファ#1に対するすべての画素データの処理が終わるまで、処理をループする。   Next, in step (1404), the first pixel (for example, the upper left pixel) of frame buffer # 1 is set as a processing target, and processing is performed until all pixel data processing for frame buffer # 1 is completed. Loop.

ステップ(1405)では、フレームバッファ#1の対象画素を基準にしてフレームバッファ#2の中の対応する画素の位置を推定し、位相差θを出力する。このとき、対応する画素の位置を推定する方法として、上記の従来技術をそのまま用いることができる。   In step (1405), the position of the corresponding pixel in the frame buffer # 2 is estimated with reference to the target pixel in the frame buffer # 1, and the phase difference θ is output. At this time, the above-described conventional technique can be used as it is as a method of estimating the position of the corresponding pixel.

ステップ(4907)では、ステップ(1405)で求めた位相差θをもとに、まずステップ(4901)にて、図47を用いて説明した上記判定基準の一例に従って、通常の高解像度化処理が可能か否かを判定し、可能であればステップ(4902)に進み、不可能であればステップ(4903)に進む。   In step (4907), based on the phase difference θ obtained in step (1405), first, in step (4901), a normal resolution enhancement process is performed according to the example of the determination criterion described with reference to FIG. It is determined whether or not it is possible. If possible, the process proceeds to step (4902), and if not possible, the process proceeds to step (4903).

ステップ(4902)では、処理の対象としてフレームバッファ#2を選択し、ステップ(4905)に進む。   In step (4902), frame buffer # 2 is selected as a processing target, and the flow proceeds to step (4905).

一方、ステップ(4903)では、処理の対象としてフレームバッファ#4を選択し、ステップ(4904)に進む。ステップ(4904)では、ステップ(1405)にて出力された位相差θに基づいて、フレームバッファ#1の対象画素と対応するフレームバッファ#2上の画素と同一の位置(対応画素位置)のデータを指し示すようにアドレス設定されたフレームバッファ#5の出力地を、ステップ(1405)にて出力された位相差θに加算して、新たな位相差θとする。   On the other hand, in step (4903), frame buffer # 4 is selected as a processing target, and the flow proceeds to step (4904). In step (4904), based on the phase difference θ output in step (1405), data at the same position (corresponding pixel position) as the pixel on frame buffer # 2 corresponding to the target pixel in frame buffer # 1 Is added to the phase difference θ output in step (1405) to obtain a new phase difference θ.

ステップ(4905)では、上記位相差θをフレームバッファ#5に書き込み、ステップ(4906)に進む。このとき、フレームバッファ#5のデータ書込み用アドレスは、フレーム#1の対象画素と対応する位置のデータを指し示すように設定する。   In step (4905), the phase difference θ is written in frame buffer # 5, and the flow advances to step (4906). At this time, the data write address of the frame buffer # 5 is set so as to indicate the data at the position corresponding to the target pixel of the frame # 1.

ステップ(4906)では、上記位相差θをもとに、ステップ(4902)あるいはステップ(4903)にて選択したフレームバッファの中の対応する画素の近傍の画素を動き補償して、画素データの値をフレームバッファ#4に書き込むとともに、ステップ(1413)およびステップ(1408)に進む。このとき、近傍の画素として、ステップ(1408)のπ/2位相シフトの処理で用いる画素データ、すなわち有限のタップ数が作用する範囲の画素データだけを動き補償すればよい。この動き補償の動作は、図5および図6を用いて説明した動作と同一である。   In step (4906), based on the phase difference θ, the pixel data value is compensated by motion-compensating the pixels in the vicinity of the corresponding pixel in the frame buffer selected in step (4902) or step (4903). Are written in the frame buffer # 4, and the process proceeds to step (1413) and step (1408). At this time, only the pixel data used in the π / 2 phase shift processing in step (1408), that is, pixel data in a range where a finite number of taps acts, need to be motion-compensated as neighboring pixels. The motion compensation operation is the same as the operation described with reference to FIGS.

続いて、ステップ(1419)にて、フレームバッファ#1とステップ(4906)の出力画素のそれぞれに対して、各近傍の画素を用いて、位相を一定量だけシフトする。すなわち、ステップ(1407)(1408)により、各フレームバッファの中の画素データをπ/2位相シフトする。   Subsequently, in step (1419), the phase is shifted by a certain amount using each neighboring pixel with respect to each of the frame buffer # 1 and the output pixel of step (4906). That is, in steps (1407) and (1408), the pixel data in each frame buffer is phase-shifted by π / 2.

続いて、ステップ(1420)にて、位相差θに基づいて図9(a)(b)(c)の条件を満たすように設定した係数C0、C1、C2、C3を用いて、ステップ(1419)の出力データそれぞれに乗算し、これらを加算することにより、フレームバッファ#1、#2の画素データから折返し成分を除去し、フレームバッファ#3に出力する。すなわち、ステップ(1409)にて、位相差θをもとに係数C0、C1、C2、C3を決定し、ステップ(1410)(1411)(1412)(1413)にて各係数とフレームバッファ#1、#2の画素データおよびπ/2位相シフト後のデータとそれぞれ乗算したのち、ステップ(1414)にてすべてを加算して、フレームバッファ#3に出力する。この折返し成分除去の動作は、図9を用いて説明した動作と同一である。   Subsequently, in step (1420), the coefficients C0, C1, C2, and C3 set so as to satisfy the conditions of FIGS. 9A, 9B, and 9C based on the phase difference θ are used. ) Is multiplied and added to remove the aliasing component from the pixel data in frame buffers # 1 and # 2, and output to frame buffer # 3. That is, in step (1409), coefficients C0, C1, C2, and C3 are determined based on the phase difference θ, and each coefficient and frame buffer # 1 are determined in steps (1410), (1411), (1412), and (1413). , The pixel data of # 2 and the data after the π / 2 phase shift are respectively multiplied, and then all are added in step (1414) and output to frame buffer # 3. The operation for removing the aliasing component is the same as that described with reference to FIG.

続いて、ステップ(1415)にて、フレームバッファ#1の全画素の処理が完了したかどうかを判定し、完了していなければ、ステップ(1416)で次の画素(例えば右隣の画素)を処理の対象に設定してステップ(1405)以降に戻り、完了していればステップ(1417)にて処理を終了する。   Subsequently, in step (1415), it is determined whether or not the processing of all the pixels in the frame buffer # 1 has been completed.If the processing has not been completed, the next pixel (for example, the right adjacent pixel) is determined in step (1416). The process is set as a process target and the process returns to step (1405) and the subsequent steps.

図49に示すフローチャートの画像信号処理後に、図48に示すフレームバッファ#3にバッファされた信号は、フレーム単位若しくは画素単位にて表示部(3)に出力することができる。   After the image signal processing of the flowchart shown in FIG. 49, the signal buffered in the frame buffer # 3 shown in FIG. 48 can be output to the display unit (3) in frame units or pixel units.

以上のような処理を行うことにより、フレームバッファ#1とフレームバッファ#2の画素データを用いて、フレームバッファ#3に高解像度化した信号を出力することができる。動画に応用する場合は、ステップ(1401)からステップ(1417)に至る処理を、フレームごとに繰り返せばよい。   By performing the processing as described above, it is possible to output a high resolution signal to the frame buffer # 3 using the pixel data of the frame buffer # 1 and the frame buffer # 2. When applied to a moving image, the process from step (1401) to step (1417) may be repeated for each frame.

また、上述したステップ(4907)は、本発明に係る実施例4を示した図15のフローチャートのステップ(1506)、本発明に係る実施例6を示した図16のフローチャートのステップ(1506)、本発明に係る実施例22を示した図42のフローチャートのステップ(1406)、本発明に係る実施例24を示した図43のフローチャートのステップ(1506)、本発明に係る実施例26を示した図44のフローチャートのステップ(1506)を置き換えて、同様に適用することもできる。   Further, the above-mentioned step (4907) includes step (1506) of the flowchart of FIG. 15 showing the fourth embodiment according to the present invention, step (1506) of the flowchart of FIG. 16 showing the sixth embodiment of the present invention, Step (1406) of the flowchart of FIG. 42 showing Example 22 according to the present invention, Step (1506) of the flowchart of FIG. 43 showing Example 24 of the present invention, and Example 26 of the present invention were shown. 44 can be similarly applied by replacing step (1506) in the flowchart of FIG.

以上説明した実施例30に係る画像信号処理方法によれば、複数枚の画像とそれらの位相差を用いて高解像度の画像を生成する場合に、被写体が静止している領域や、被写体の動きが整数画素単位になる領域でも、過去に小数画素単位の動きがあれば、高解像度化の効果が得られるという効果を有する。   According to the image signal processing method according to the thirtieth embodiment described above, when a high-resolution image is generated using a plurality of images and their phase differences, the region where the subject is stationary or the motion of the subject Even in a region where the number of pixels is in the unit of integer pixels, if there is a motion in units of decimal pixels in the past, the effect of increasing the resolution can be obtained.

上述したように、特許文献1、特許文献2、非特許文献1に記載されている従来の技術では、サンプリング位相(標本化位置)の差を用いて高解像度化処理を行っているため、サンプリング位相に差が生じない信号、すなわち、被写体が静止している領域や、被写体の動きが整数画素単位になる領域では、高解像度化の効果が得られないという課題があった。この課題を解決するため、図50を用いて本発明の実施例31に係る画像信号処理装置の構成を説明する。   As described above, in the conventional techniques described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, since the resolution enhancement processing is performed using the difference in sampling phase (sampling position), sampling is performed. There is a problem that the effect of increasing the resolution cannot be obtained in a signal in which a phase difference does not occur, that is, in a region where the subject is stationary or a region where the motion of the subject is an integer pixel unit. In order to solve this problem, the configuration of an image signal processing apparatus according to Embodiment 31 of the present invention will be described with reference to FIG.

図50において、本発明の実施例31に係る画像信号処理装置は、例ばテレビジョン放送信号などの動画像のフレーム列が入力されるn個(ただしnは3以上の整数)の入力部(1) と、この入力部(1)から入力されたフレームを高解像度化するための解像度変換部(2)と、更にこの解像度変換部(2)によって高解像度化されたフレームに基づき画像を表示する表示部(3)とを備えている。解像度変換部(2)を構成する動き補償・アップレート部(115)、位相シフト部(116)、折返し成分除去部(117)の動作は、本発明に係る実施例1にて図1を用いて説明した動作と同一であるので、説明を省略する。以下、(n-1)個の位置推定部(101-2)(101-3)…(101-n)、および画素・位相差置換部(5003)の構成、および動作について説明する。   In FIG. 50, an image signal processing apparatus according to Embodiment 31 of the present invention has n input units (where n is an integer of 3 or more) input units (for example, a moving image frame sequence such as a television broadcast signal). 1), a resolution conversion unit (2) for increasing the resolution of the frame input from the input unit (1), and further displaying an image based on the frame whose resolution has been increased by the resolution conversion unit (2) And a display unit (3). The operations of the motion compensation / uprate unit (115), the phase shift unit (116), and the aliasing component removal unit (117) constituting the resolution conversion unit (2) are shown in FIG. 1 according to the first embodiment of the present invention. Therefore, the description is omitted. The configuration and operation of the (n−1) position estimation units (101-2) (101-3)... (101-n) and the pixel / phase difference replacement unit (5003) will be described below.

同図において、(n-1)個の位置推定部(101-2)(101-3)…(101-n)により、入力部(1)に入力されたフレーム#1上の処理対象の画素のサンプリング位相(標本化位置)を基準として、(n-1)枚のフレーム#2、フレーム#3…フレーム#nのそれぞれの上の対応する画素の位置を推定し、画素ごとにサンプリング位相差θ2(102-2)、θ3(102-3)…θn(102-n)を求める。続いて、画素・位相差置換部(5003)における処理可能判定部(5001)にて、各サンプリング位相差θ2(102-2)、θ3(102-3)…θn(102-n)に対して、例えば図51に示す判定基準に基づいて、通常の高解像度化処理が可能か否かをそれぞれ判定する。その後、選択部(5002)にて、例えば図52に示す選択基準に従って、(n-1)枚のフレーム#2、フレーム#3…フレーム#nと、(n-1)個のサンプリング位相差θ2(102-2)、θ3(102-3)…θn(102-n)の中から、1枚のフレーム(5004)とこのフレームに対応する位相差θ(5005)の組を選択し、動き補償・アップレート部(115)に入力して、解像度変換部(2)で高解像度化処理を行う。   In the figure, the pixel to be processed on the frame # 1 input to the input unit (1) by the (n-1) position estimation units (101-2) (101-3) (101-n) With reference to the sampling phase (sampling position), the position of the corresponding pixel on each of (n-1) frames # 2, frame # 3 ... frame #n is estimated, and the sampling phase difference for each pixel θ2 (102-2), θ3 (102-3)... θn (102-n) are obtained. Subsequently, with respect to each sampling phase difference θ2 (102-2), θ3 (102-3)... Θn (102-n) in the processability determination unit (5001) in the pixel / phase difference replacement unit (5003). For example, based on the determination criterion shown in FIG. 51, it is determined whether or not the normal high resolution processing is possible. Thereafter, in the selection unit (5002), for example, according to the selection criterion shown in FIG. 52, (n−1) frames # 2, frame # 3,..., Frame #n and (n−1) sampling phase differences θ2 From (102-2), θ3 (102-3) ... θn (102-n), select a set of one frame (5004) and phase difference θ (5005) corresponding to this frame, and motion compensation Input to the up-rate unit (115), and the resolution conversion unit (2) performs high resolution processing.

図51に、上記処理可能判定部(5001)にて通常の高解像度化処理が可能か否かを画素ごとに判定する基準の一例を示す。同図に示す位相差θと係数C0、C1、C2、C3は、図9に示した位相差θおよび係数C0、C1、C2、C3と同一である。本発明の実施例5に係る画像信号処理装置、および実施例6に係る画像信号処理方法では、位相差θが0のときに係数C1、C3が不定になることや、位相差θが0に近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になることを防ぐために、位相差θが0近傍になったときに補助的画素補間に切り替えていたが、本実施例では、これと同じ判定基準により、通常の高解像度化処理が可能か否かを判定する。なお、図51に示したθと通常の高解像度化処理が可能か否かの判定結果は、これに限定されるわけではない。例えばθ=0のときだけでなく、0≦θ≦π/8、あるいは15π/8≦θ<=2π(=0と等価)のときにも通常の高解像度化処理が不可能と判定してもよく、ノイズの影響等を勘案しながら、「0近傍」の範囲を設定すればよい。   FIG. 51 shows an example of a criterion for determining, for each pixel, whether or not the normal resolution enhancement process is possible in the processability determination unit (5001). The phase difference θ and the coefficients C0, C1, C2, and C3 shown in the figure are the same as the phase difference θ and the coefficients C0, C1, C2, and C3 shown in FIG. In the image signal processing device according to the fifth embodiment of the present invention and the image signal processing method according to the sixth embodiment, the coefficients C1 and C3 are indefinite when the phase difference θ is 0, or the phase difference θ is 0. In order to prevent the coefficients C1 and C3 from increasing and becoming vulnerable to noise and the like as they approach, switching to auxiliary pixel interpolation was performed when the phase difference θ was close to 0. Based on the same determination criteria, it is determined whether or not normal resolution enhancement processing is possible. Note that the determination result as to whether θ and normal resolution enhancement processing shown in FIG. 51 are possible is not limited to this. For example, not only when θ = 0 but also when 0 ≦ θ ≦ π / 8 or 15π / 8 ≦ θ <= 2π (equivalent to 0), it is determined that normal high resolution processing is impossible. The range of “near 0” may be set in consideration of the influence of noise and the like.

また、本発明をインタレース・プログレッシブ走査線(以下、I-P変換)に適用した場合には、本発明の実施例21に係る画像信号処理装置、および実施例22に係る画像信号処理方法にて説明したように、各係数C0、C1、C2、C3、および切替器(4602)と切替器(4604)の状態は、図51に示した位相差θを(θ±π)に置き換えた値となる。すなわち、C0=C2=1/2、C1=-(1+cos(θ±π))/(2sin(θ±π))=(1-cosθ)/sinθ、C3=(1+cos(θ±π))/(2sin(θ±π))=-(1-cosθ)/sinθとなる。この際、位相差θが±πのときに係数C1、C3が不定になることや、位相差θが±πに近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になることを防ぐために、本発明の実施例21に係る画像信号処理装置、および実施例22に係る画像信号処理方法では、位相差θが±π近傍になったときに補助的画素補間に切り替えていたが、本実施例では、これと同じ判定基準により、位相差θが±π近傍になったときに通常の高解像度化処理が不可能と判定するようにすればよい。   Further, when the present invention is applied to an interlace / progressive scanning line (hereinafter referred to as IP conversion), it will be described in the image signal processing apparatus according to the twenty-first embodiment of the present invention and the image signal processing method according to the twenty-second embodiment. As described above, the coefficients C0, C1, C2, C3, and the states of the switch (4602) and the switch (4604) are values obtained by replacing the phase difference θ shown in FIG. 51 with (θ ± π). . That is, C0 = C2 = 1/2, C1 =-(1 + cos (θ ± π)) / (2sin (θ ± π)) = (1-cosθ) / sinθ, C3 = (1 + cos (θ ± π)) / (2sin (θ ± π)) =-(1-cosθ) / sinθ. At this time, it is possible to prevent the coefficients C1 and C3 from becoming indefinite when the phase difference θ is ± π, and the coefficients C1 and C3 to increase as the phase difference θ approaches ± π, thereby making it vulnerable to noise and the like. Therefore, in the image signal processing device according to the twenty-first embodiment of the present invention and the image signal processing method according to the twenty-second embodiment, switching to auxiliary pixel interpolation is performed when the phase difference θ is close to ± π. In the embodiment, the same determination criterion may be used to determine that normal high resolution processing is impossible when the phase difference θ is in the vicinity of ± π.

図52に、上記選択部(5002)の動作の一例として、フレーム数n=7のときの動作を示す。まず、上述した処理可能判定部(5001)の判定結果に基づき、選択部(5002)に入力された(n-1)枚のフレーム#2、フレーム#3…フレーム#nと(n-1)個のサンプリング位相差θ2(102-2)、θ3(102-3)…θn(102-n)の中から、通常の高解像度化処理が可能と判定されたフレームと位相差θの組だけを選択する。ここで、選択された組が1つの場合は、その組をフレーム(5004)と位相差θ(5005)として出力する。一方、選択された組が2以上の場合は、その中の1組をさらに選択して、フレーム(5004)と位相差θ(5005)として出力する。このとき例えば、基準となるフレーム#1とのフレーム差(時間差)が最も少ないフレームの組を選択すればよい。さらに、このとき同一のフレーム差となるフレーム(すなわち、フレーム#1から見て、過去のフレームと未来のフレーム)が複数存在する場合には、そのどちらか一方(例えば過去)のフレームの組を選択すればよい。また、通常の高解像度化処理が可能と判定されたフレームと位相差θの組がない場合は、基準となるフレーム#1とのフレーム差(時間差)が最も少ないフレーム(同図の例ではフレーム#2)の組を選択すればよい。   FIG. 52 shows an operation when the number of frames n = 7 as an example of the operation of the selection unit (5002). First, based on the determination result of the processability determination unit (5001) described above, (n-1) frames # 2, frame # 3,..., Frame #n and (n-1) input to the selection unit (5002) Of the sampling phase differences θ2 (102-2), θ3 (102-3) ... θn (102-n), only the set of frames and phase differences θ determined to be capable of normal high resolution processing. select. Here, when there is one selected set, the set is output as a frame (5004) and a phase difference θ (5005). On the other hand, when the selected group is two or more, one of them is further selected and output as the frame (5004) and the phase difference θ (5005). At this time, for example, a group of frames having the smallest frame difference (time difference) from the reference frame # 1 may be selected. Furthermore, if there are multiple frames that have the same frame difference (i.e., past frames and future frames as seen from frame # 1), the set of either one (for example, the past) is selected. Just choose. In addition, when there is no pair of the frame determined to be capable of normal high resolution processing and the phase difference θ, the frame having the smallest frame difference (time difference) from the reference frame # 1 (in the example of FIG. Select the group # 2).

また、上述した画素・位相差置換部(5001)は、入力部(1)の個数を2からn(ただしnは3以上の整数)に増やすことにより入力するフレーム数を2からnに増やせば、本発明に係る実施例3を示した図10の構成、本発明に係る実施例5を示した図11の構成、本発明に係る実施例7を示した図20の構成、本発明に係る実施例8を示した図21の構成、本発明に係る実施例9を示した図27の構成、本発明に係る実施例21を示した図41の構成にも同様に適用できる。   The pixel / phase difference replacement unit (5001) described above increases the number of input frames from 2 to n by increasing the number of input units (1) from 2 to n (where n is an integer of 3 or more). 10, the configuration of FIG. 10 showing the third embodiment of the present invention, the configuration of FIG. 11 showing the fifth embodiment of the present invention, the configuration of FIG. 20 showing the seventh embodiment of the present invention, and the present invention. The configuration of FIG. 21 showing the eighth embodiment, the configuration of FIG. 27 showing the ninth embodiment according to the present invention, and the configuration of FIG. 41 showing the twenty-first embodiment according to the present invention can be similarly applied.

以上説明した実施例31に係る画像信号処理装置によれば、複数枚の画像とそれらの位相差を用いて高解像度の画像を生成する場合に、隣接するフレーム間で被写体が静止している領域や、被写体の動きが整数画素単位になる領域でも、過去あるいは未来を含む処理対象のn枚(ただしnは3以上の整数)のフレーム間に小数画素単位の動きがあれば、高解像度化の効果が得られるという効果を有する。   According to the image signal processing device according to the embodiment 31 described above, when a high resolution image is generated using a plurality of images and their phase differences, the area where the subject is stationary between adjacent frames Even in an area where the movement of the subject is in units of integer pixels, if there is a movement in units of decimal pixels between n frames (where n is an integer of 3 or more) to be processed including the past or future, high resolution can be achieved. An effect is obtained.

なお、本発明の各実施例は、上記実施例で説明した装置以外に、例えば、DVDプレーヤー、磁気ディスクプレーヤー、もしくは半導体メモリプレーヤーにも同様に適用できる。また例えば、1セグ放送を受信するための携帯画像表示端末(例えば携帯電話)にも適用できる。   Each embodiment of the present invention can be similarly applied to, for example, a DVD player, a magnetic disk player, or a semiconductor memory player in addition to the devices described in the above embodiments. For example, the present invention can also be applied to a portable image display terminal (for example, a mobile phone) for receiving 1-segment broadcasting.

また画像フレームとしては、テレビジョン放送信号以外の信号の画像フレームを用いてもよい。また、例えば、インターネットを介して送信されるストリーミング画像や、DVDプレーヤーやHDDプレーヤーから再生された画像の画像フレームを用いてもよい。   As the image frame, an image frame of a signal other than the television broadcast signal may be used. Further, for example, a streaming image transmitted via the Internet or an image frame of an image reproduced from a DVD player or an HDD player may be used.

また、上述した各実施例ではフレーム単位での高解像度化を例に挙げて説明した。しかし高解像度化の対象は、必ずしもフレーム全体でなくとも良い。例えば、入力画像または入力映像のフレームの一部分を解像度化の対象としても良い。すなわち、入力映像のフレームの一部分の複数フレーム分を対象として上述した本発明の一の実施例の画像処理を実施すれば、入力画像または入力映像の一部分の高画質な拡大画像を得ることができる。これは、例えば、映像の一部分の拡大表示などに適用できる。   Further, in each of the above-described embodiments, the description has been given by taking as an example high resolution in frame units. However, the target for higher resolution is not necessarily the entire frame. For example, a part of the frame of the input image or input video may be set as the resolution target. That is, if the image processing according to the embodiment of the present invention described above is performed for a plurality of frames of a part of the frame of the input video, a high-quality enlarged image of the input image or a part of the input video can be obtained. . This can be applied to, for example, an enlarged display of a part of an image.

なお、上述した各実施例のいずれを組み合わせても、本発明の一実施の形態となりうる。   It should be noted that any combination of the above-described embodiments can be an embodiment of the present invention.

上述した本発明の各実施例によれば、低解像度の画像を好適に拡大画像に変換する処理
を行うことができ、高画質な高解像度画像を好適に得ることができる。すなわち画像信号
を好適に高解像度化することができる。
According to each of the embodiments of the present invention described above, it is possible to perform processing for suitably converting a low-resolution image into an enlarged image, and it is possible to suitably obtain a high-resolution high-resolution image. That is, it is possible to suitably increase the resolution of the image signal.

また、上述した本発明の各実施例によれば、高画質な高解像度画像を得るために必要な
画像のフレーム数を低減することができる。
In addition, according to the above-described embodiments of the present invention, the number of frames of an image necessary for obtaining a high-quality high-resolution image can be reduced.

本発明に係る実施例1の説明図である。It is explanatory drawing of Example 1 which concerns on this invention. 一般的な高解像度化画像信号処理の動作の一例を説明する図であるIt is a figure explaining an example of operation | movement of the general high resolution image signal processing. 従来技術の動作を説明した図である。It is a figure explaining operation | movement of a prior art. 本発明に係る実施例1の動作を説明した図である。It is a figure explaining operation | movement of Example 1 which concerns on this invention. 本発明に係る実施例1の説明図である。It is explanatory drawing of Example 1 which concerns on this invention. 本発明に係る実施例1の説明図である。It is explanatory drawing of Example 1 which concerns on this invention. 本発明に係る実施例1の説明図である。It is explanatory drawing of Example 1 which concerns on this invention. 本発明に係る実施例1の説明図である。It is explanatory drawing of Example 1 which concerns on this invention. 本発明に係る実施例1の説明図である。It is explanatory drawing of Example 1 which concerns on this invention. 本発明に係る実施例3の説明図である。It is explanatory drawing of Example 3 which concerns on this invention. 本発明に係る実施例5の説明図である。It is explanatory drawing of Example 5 which concerns on this invention. 本発明に係る実施例5の説明図である。It is explanatory drawing of Example 5 which concerns on this invention. 本発明に係る実施例5の説明図である。It is explanatory drawing of Example 5 which concerns on this invention. 本発明に係る実施例2の説明図である。It is explanatory drawing of Example 2 which concerns on this invention. 本発明に係る実施例4の説明図である。It is explanatory drawing of Example 4 which concerns on this invention. 本発明に係る実施例6の説明図である。It is explanatory drawing of Example 6 which concerns on this invention. 本発明の一実施の態様と従来技術の動作の違いを説明した図である。It is a figure explaining the difference of operation of one embodiment of the present invention and the prior art. 本発明に係る実施例2の説明図である。It is explanatory drawing of Example 2 which concerns on this invention. 本発明に係る実施例12の説明図である。It is explanatory drawing of Example 12 which concerns on this invention. 本発明に係る実施例7の説明図である。It is explanatory drawing of Example 7 which concerns on this invention. 本発明に係る実施例8の説明図である。It is explanatory drawing of Example 8 which concerns on this invention. 本発明に係る実施例7の説明図である。It is explanatory drawing of Example 7 which concerns on this invention. 本発明に係る実施例7の説明図である。It is explanatory drawing of Example 7 which concerns on this invention. 本発明に係る実施例7の説明図である。It is explanatory drawing of Example 7 which concerns on this invention. 本発明に係る実施例7の説明図である。It is explanatory drawing of Example 7 which concerns on this invention. 本発明に係る実施例7の説明図である。It is explanatory drawing of Example 7 which concerns on this invention. 本発明に係る実施例9の説明図である。It is explanatory drawing of Example 9 which concerns on this invention. 本発明に係る実施例9の説明図である。It is explanatory drawing of Example 9 which concerns on this invention. 本発明に係る実施例9の説明図である。It is explanatory drawing of Example 9 which concerns on this invention. 本発明に係る実施例9の説明図である。It is explanatory drawing of Example 9 which concerns on this invention. 本発明に係る実施例9の説明図である。It is explanatory drawing of Example 9 which concerns on this invention. 本発明に係る実施例9の説明図である。It is explanatory drawing of Example 9 which concerns on this invention. 本発明に係る実施例10の説明図である。It is explanatory drawing of Example 10 which concerns on this invention. 本発明の一実施の態様と従来技術の動作の違いを説明した図である。It is a figure explaining the difference of operation of one embodiment of the present invention and the prior art. 本発明に係る実施例13の説明図である。It is explanatory drawing of Example 13 which concerns on this invention. 本発明に係る実施例17の説明図である。It is explanatory drawing of Example 17 which concerns on this invention. 従来技術の動作を説明した図である。It is a figure explaining operation | movement of a prior art. 従来技術の動作を説明した図である。It is a figure explaining operation | movement of a prior art. 本発明に係る実施例21の説明図である。It is explanatory drawing of Example 21 which concerns on this invention. 本発明に係る実施例21の説明図である。It is explanatory drawing of Example 21 which concerns on this invention. 本発明に係る実施例21の説明図である。It is explanatory drawing of Example 21 which concerns on this invention. 本発明に係る実施例22の説明図である。It is explanatory drawing of Example 22 which concerns on this invention. 本発明に係る実施例24の説明図である。It is explanatory drawing of Example 24 which concerns on this invention. 本発明に係る実施例26の説明図である。It is explanatory drawing of Example 26 which concerns on this invention. 本発明に係る第32の実施例の説明図である。It is explanatory drawing of the 32nd Example which concerns on this invention. 本発明に係る第32の実施例の説明図である。It is explanatory drawing of the 32nd Example which concerns on this invention. 本発明に係る第32の実施例の説明図である。It is explanatory drawing of the 32nd Example which concerns on this invention. 本発明に係る第33の実施例の説明図である。It is explanatory drawing of the 33rd Example which concerns on this invention. 本発明に係る第33の実施例の説明図である。It is explanatory drawing of the 33rd Example which concerns on this invention. 本発明に係る第34の実施例の説明図である。It is explanatory drawing of the 34th Example which concerns on this invention. 本発明に係る第34の実施例の説明図である。It is explanatory drawing of the 34th Example which concerns on this invention. 本発明に係る第34の実施例の説明図である。It is explanatory drawing of the 34th Example which concerns on this invention. 本発明の一実施の態様と従来技術の動作の違いを説明した図である。It is a figure explaining the difference of operation of one embodiment of the present invention and the prior art. 本発明に係る第11の実施例の説明図である。It is explanatory drawing of the 11th Example which concerns on this invention. 本発明に係る第11の実施例の説明図である。It is explanatory drawing of the 11th Example which concerns on this invention. 本発明に係る第11の実施例の説明図である。It is explanatory drawing of the 11th Example which concerns on this invention. 本発明に係る第11の実施例の説明図である。It is explanatory drawing of the 11th Example which concerns on this invention. 本発明に係る第11の実施例の説明図である。It is explanatory drawing of the 11th Example which concerns on this invention. 本発明に係る第12の実施例の説明図である。It is explanatory drawing of the 12th Example which concerns on this invention.

符号の説明Explanation of symbols

1…入力部;2,4…解像度変換部;3…表示部;5,6,7…高解像度化タスク;10…制御部;11…記憶部;21,22,23,31,32,33,34,35,36,37,4603,4605…バッファ;101,1801,2101,5406,5412…位置推定部;102,211,1802…位相差θ;103,104,1803…アップレート器;105,107,1002,1804,5402…遅延器;106,108,1805…π/2位相シフト器;109,1007,1103,2301,2302,3001,3002,3003, 3004,5701…係数決定器;110,111,112,113,1003,1006,1102,2202,2303,2304,2604,2902,3005, 3006,3007,3008,5702…乗算器;114,1001,1008,1104,2201,2305,2603, 2606,2703,2901,3009,4101,5703,4606…加算器;115,1806,2110,5410…動き補償・アップレート部;116,1009,1807,2111,5411…位相シフト部;117,1010,1808,2108,2109,2112,2705,2706,5409…折返し成分除去部;201,202,203,20
6,1701, 1702,1703,1704,1705,2010,2011,2012,2013,2014,2015,3401,3402,3403,3404,3405,5301,5302,5303,5304…フレーム;204…移動;205…水平線;207…動き補償;208,212…画素;209,210…サンプリング位相;301,302,303,401,402…原成分;304,305,306,405,406…折返し成分;403,404…π/2位相シフト後の原成分;407,408…π/2位相シフト後の折返し成分;1004,2704…減算器;1005…ヒルベルト変換器;1101…補間ローパスフィルタ;1105…補助的画素補間部;2001…水平解像度変換部;2002…垂直アップレート器;2003,2007,2710,2711…画素補間器;2004…垂直補間部;2005…垂直解像度変換部;2006…水平アップレート器;2008…水平補間部;2009,2707…混合器;2102,5407…水平位相差θH;2103,5408…垂直位相差θV;2104,2105,5401…水平・垂直アップレート器;2106,5403…水平位相シフト部;2107,5404…垂直位相シフト部;2501…水平解像度変換による効果が大きい周波数領域;2502…垂直解像度変換による効果が大きい周波数領域;2601,2602,2605…2次元フィルタ;2701…斜め(右下)位相シフト部;2702…斜め(右上)位相シフト部;3101…斜め(右上)解像度変換による効果が大きい周波数領域;3102…斜め(右下)解像度変換による効果が大きい周波数領域;3500…画像表示装置;3501…入力部;3502…録画再生部;3503…コンテンツ蓄積部; 3504…画像信号処理部; 3505…表示部; 3506…音声出力部; 3507…制御部;3508…ユーザインターフェース部;3600…録画再生装置;3605…画像映像出力部;3600…音声出力部;3701…実走査線;3702…補間走査線;3703…フィールド;3704,3705…フレーム;3801…フィールド間補間;3802…フィールド内補間; 3803,4001,4002…動きベクトル;3901,3902…垂直解像度変換;4102…位相差オフセット; 4103…オフセット補正部;4602,4604…切替器;5405…水平・垂直位相シフト部;4601,5001…処理可能判定部;4607,5003…画素・位相差置換部;5002…選択部
1 ... input unit; 2,4 ... resolution conversion unit; 3 ... display unit; 5,6,7 ... high resolution task; 10 ... control unit; 11 ... storage unit; 21,22,23,31,32,33 , 34, 35, 36, 37, 460 3, 4605 ... buffer; 101, 1801, 2101, 5406, 5412 ... position estimation unit; 102, 211, 1802 ... phase difference θ; 103, 104, 1803 ... up-rate device; 105, 107, 1002, 1804 , 5402 ... delay device; 106, 108, 1805 ... π / 2 phase shifter; 109, 1007, 1103, 2301, 2302, 3001, 3002, 3003, 3004, 5701 ... coefficient determiner; 110, 111, 112, 113, 1003, 1006, 1102, 2202 , 2303, 2304, 2604, 2902, 3005, 3006, 3007, 3008, 5702 ... multiplier; 114, 1001, 1008, 1104, 2201, 2305, 2603, 2606, 2703, 2901, 3009, 4101, 5703,4606 ... 115, 1806, 2110, 5410 ... motion compensation / up-rate unit; 116, 1009, 1807, 2111, 5411 ... phase shift unit; 117, 1010, 1808, 2108, 2109, 2112, 2705, 2706, 5409 ... Folding component removal unit; 201, 202, 203, 20
6,1701, 1702,1703,1704,1705,2010,2011,2012,2013,2014,2015,3401,3402,3403,3404,3405,5301,5302,5303,5304 ... Frame; 204 ... Movement; 205 ... 207 ... motion compensation; 208,212 ... pixel; 209,210 ... sampling phase; 301,302,303,401,402 ... original component; 304,305,306,405,406 ... folding component; 403,404 ... original component after π / 2 phase shift; 1004, 2704 ... subtractor; 1005 ... Hilbert transformer; 1101 ... interpolation low-pass filter; 1105 ... auxiliary pixel interpolator; 2001 ... horizontal resolution converter; 2002 ... vertical up-rater; 2003, 2007, 2710, 2711 ... pixel 2004 ... Vertical interpolation unit; 2005 ... Vertical resolution conversion unit; 2006 ... Horizontal up-rate unit; 2008 ... Horizontal interpolation unit; 2009,2707 ... Mixer; 2102,5407 ... Horizontal phase difference θH; 2103,5408 ... Vertical Phase difference θV; 2104, 2105, 5401 ... Horizontal / vertical up-rater; 2106, 5403 ... Horizontal phase shift unit; 2107, 5404 ... Vertical phase shift unit; 2501 ... Frequency region where the effect of flat resolution conversion is large; 2502 ... Frequency region where the effect of vertical resolution conversion is large; 2601, 2602, 2605 ... Two-dimensional filter; 2701 ... Diagonal (lower right) phase shift unit; 2702 ... Diagonal (upper right) phase Shift unit: 3101 ... Frequency region where the effect of diagonal (upper right) resolution conversion is large; 3102 ... Frequency region where the effect of diagonal (lower right) resolution conversion is large; 3500 ... Image display device; 3501 ... Input unit; 3502 ... Recording / playback unit 3503 ... Content storage unit; 3504 ... Image signal processing unit; 3505 ... Display unit; 3506 ... Audio output unit; 3507 ... Control unit; 3508 ... User interface unit; 3600 ... Recording / playback apparatus; 3605 ... Image video output unit; ... Audio output unit; 3701 ... actual scanning line; 3702 ... interpolation scanning line; 3703 ... field; 3704,3705 ... frame; 3801 ... inter-field interpolation; 3802 ... intra-field interpolation; 3803,4001,4002 ... motion vector; 3902… Vertical resolution conversion; 4 102 ... Phase difference offset; 4103 ... Offset correction unit; 4602,4604 ... Switcher; 5405 ... Horizontal / vertical phase shift unit; 4601,5001 ... Processable determination unit; 4607,5003 ... Pixel / phase difference replacement unit; 5002 ... Select part

Claims (10)

複数の画像フレームが入力される入力部と、
前記入力部により入力される前記複数の画像フレームに対して、前記複数の画像フレームのうち基準となる入力画像フレーム上の画像データと、該基準となる入力画像フレームに時間的に連続する入力画像フレーム上の画像データとを合成する第1の画像データ合成方式による画像データの合成処理と、前記基準となる前記入力画像フレーム上の画像データと、該基準となる入力画像フレームに時間的に不連続の入力画像フレーム上の画像データとを合成する第2の画像データ合成方式による画像データの合成処理とを切り替えて行う解像度変換部と、
を備えることを特徴とする画像信号処理装置。
An input unit for inputting a plurality of image frames;
With respect to the plurality of image frames input by the input unit, image data on a reference input image frame among the plurality of image frames and an input image temporally continuous with the reference input image frame The image data composition processing by the first image data composition method for compositing the image data on the frame, the image data on the reference input image frame, and the reference input image frame are not temporally unsatisfactory. A resolution conversion unit that performs switching between image data combining processing by the second image data combining method for combining image data on continuous input image frames; and
An image signal processing apparatus comprising:
前記解像度変換部は、基準となる入力画像フレーム上の画像データの位置と、該基準となる入力画像フレームに時間的に連続する入力画像フレーム上の画像データの位置との差に基づいて前記第1の画像データ合成方式と前記第2の画像データ合成方式とを切り替えることを特徴とする請求項1記載の画像信号処理装置。   The resolution conversion unit is configured to determine the first data based on a difference between a position of the image data on the reference input image frame and a position of the image data on the input image frame temporally continuous to the reference input image frame. 2. The image signal processing apparatus according to claim 1, wherein the first image data synthesizing method and the second image data synthesizing method are switched. 前記解像度変換部は、前記基準となる入力画像フレームに時間的に連続する入力画像フレーム上の画像データの位置が、基準となる入力画像フレーム上の画像データの位置と変化がない場合に、前記第2の画像データ合成方式による画像データの合成処理を行うことを特徴とする請求項1記載の画像信号処理装置。   When the position of the image data on the input image frame that is temporally continuous with the reference input image frame does not change from the position of the image data on the reference input image frame, the resolution conversion unit 2. The image signal processing apparatus according to claim 1, wherein the image data is synthesized by the second image data synthesis method. 複数の画像フレームが入力される入力部と、
前記入力部により入力される前記複数の画像フレームのうち基準となる入力画像フレーム上の画像データと他の入力画像フレーム上の対応する各画像データを用いてサンプリング位相差を推定する位置推定部と、
前記基準となる入力画像フレーム上の画像データが動いた軌跡に基づいて前記サンプリング位相差の情報を累積するサンプリング位相差累積部と、
前記累積したサンプリング位相差の情報を用いて、前記基準となる入力画像フレーム上の画像データと累積開始時点の入力画像フレーム上の画像データを合成して出力画像フレームを生成する解像度変換部と、
を備えることを特徴とする画像信号処理装置。
An input unit for inputting a plurality of image frames;
A position estimation unit that estimates a sampling phase difference using image data on a reference input image frame among the plurality of image frames input by the input unit and corresponding image data on another input image frame; ,
A sampling phase difference accumulating unit for accumulating information of the sampling phase difference based on a trajectory of movement of image data on the reference input image frame;
Using the information of the accumulated sampling phase difference, a resolution conversion unit that synthesizes the image data on the reference input image frame and the image data on the input image frame at the accumulation start time to generate an output image frame;
An image signal processing apparatus comprising:
複数の画像フレームが入力される入力部と、
前記複数の画像フレームのうち基準となる入力画像フレーム上の画像データと前記複数の画像フレームのうち前記基準となる入力画像フレーム以外の他の入力画像フレーム上の対応する各画像データを用いてサンプリング位相差を推定する位置推定部と、
前記サンプリング位相差の情報を用いて、前記他の入力画像フレームから1枚の入力画像フレームを選択する選択部と、
前記基準となる入力画像フレームと、前記選択された入力画像フレームを合成して出力画像フレームを生成する解像度変換部と、
前記解像度変換部が生成した出力画像フレームを表示する表示部と
を備えることを特徴とする画像表示装置。
An input unit for inputting a plurality of image frames;
Sampling using image data on a reference input image frame among the plurality of image frames and corresponding image data on other input image frames other than the reference input image frame among the plurality of image frames A position estimation unit for estimating a phase difference;
A selection unit that selects one input image frame from the other input image frames using the information of the sampling phase difference;
A resolution converter that combines the selected input image frame and the selected input image frame to generate an output image frame;
An image display apparatus comprising: a display unit that displays an output image frame generated by the resolution conversion unit.
前記選択部は、前記基準となる入力画像フレームと該基準となる入力画像フレームに時間的に連続する入力画像フレームとのサンプリング位相差が、0または2πに近いか否かを判断し、その判断結果に基づいて前記他の入力画像フレームから1枚の入力画像フレームを選択することを特徴とする請求項5記載の画像表示装置。   The selection unit determines whether a sampling phase difference between the reference input image frame and an input image frame temporally continuous with the reference input image frame is close to 0 or 2π, and the determination 6. The image display device according to claim 5, wherein one input image frame is selected from the other input image frames based on a result. 複数の画像フレームを入力する入力ステップと、
前記複数の画像フレームに対して、前記複数の画像フレームのうち基準となる入力画像フレーム上の画像データと、該基準となる入力画像フレームに時間的に連続する入力画像フレーム上の画像データとを合成する第1の画像データ合成方式による画像データの合成処理と、前記基準となる前記入力画像フレーム上の画像データと、該基準となる入力画像フレームに時間的に不連続の入力画像フレーム上の画像データとを合成する第2の画像データ合成方式による画像データの合成処理とを切り替えて行う解像度変換ステップと、
を備えることを特徴とする画像信号処理方法。
An input step for inputting a plurality of image frames;
For the plurality of image frames, image data on an input image frame serving as a reference among the plurality of image frames, and image data on an input image frame temporally continuous to the input image frame serving as the reference. Image data combining processing by the first image data combining method to be combined, image data on the reference input image frame, and input image frame temporally discontinuous to the reference input image frame A resolution conversion step of switching image data combining processing by a second image data combining method for combining image data;
An image signal processing method comprising:
前記解像度変換ステップは、基準となる入力画像フレーム上の画像データの位置と、該基準となる入力画像フレームに時間的に連続する入力画像フレーム上の画像データの位置との差に基づいて前記第1の画像データ合成方式と前記第2の画像データ合成方式とを切り替えることを特徴とする請求項7記載の画像信号処理方法。   The resolution conversion step is based on the difference between the position of the image data on the reference input image frame and the position of the image data on the input image frame temporally continuous to the reference input image frame. 8. The image signal processing method according to claim 7, wherein the first image data synthesizing method and the second image data synthesizing method are switched. 前記解像度変換ステップは、前記基準となる入力画像フレームに時間的に連続する入力画像フレーム上の画像データの位置が、基準となる入力画像フレーム上の画像データの位置と変化がない場合に、前記第2の画像データ合成方式による画像データの合成処理を行うことを特徴とする請求項7記載の画像信号処理方法。   In the resolution conversion step, when the position of the image data on the input image frame that is temporally continuous with the reference input image frame does not change from the position of the image data on the reference input image frame, 8. The image signal processing method according to claim 7, wherein the image data is synthesized by the second image data synthesis method. 複数の画像フレームが入力される入力ステップと、
前記入力ステップにおいて入力される前記複数の画像フレームのうち基準となる前記入力画像フレーム上の画像データと他の入力画像フレーム上の対応する各画像データを用いてサンプリング位相差を推定する位置推定ステップと、
前記基準となる入力画像フレーム上の画像データが動いた軌跡に基づいて前記サンプリング位相差の情報を累積するサンプリング位相差累積ステップと、
前記累積したサンプリング位相差の情報を用いて、前記基準となる入力画像フレーム上の画像データと前記累積開始時点の入力画像フレーム上の画像データを合成することにより、出力画像フレームを生成する解像度変換ステップと、
を備えることを特徴とする画像信号処理方法。
An input step in which a plurality of image frames are input;
Position estimation step for estimating a sampling phase difference using image data on the input image frame serving as a reference and each corresponding image data on another input image frame among the plurality of image frames input in the input step When,
A sampling phase difference accumulation step for accumulating the information of the sampling phase difference based on a trajectory of movement of image data on the reference input image frame;
Using the accumulated sampling phase difference information, resolution conversion for generating an output image frame by combining image data on the reference input image frame and image data on the input image frame at the accumulation start time Steps,
An image signal processing method comprising:
JP2007312980A 2007-12-04 2007-12-04 Image signal processor, image display apparatus, image signal processing method Pending JP2009141444A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007312980A JP2009141444A (en) 2007-12-04 2007-12-04 Image signal processor, image display apparatus, image signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007312980A JP2009141444A (en) 2007-12-04 2007-12-04 Image signal processor, image display apparatus, image signal processing method

Publications (1)

Publication Number Publication Date
JP2009141444A true JP2009141444A (en) 2009-06-25

Family

ID=40871660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007312980A Pending JP2009141444A (en) 2007-12-04 2007-12-04 Image signal processor, image display apparatus, image signal processing method

Country Status (1)

Country Link
JP (1) JP2009141444A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137451A (en) * 2013-01-16 2014-07-28 Seiko Epson Corp Video processing device, display device, semiconductor device, and video processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137451A (en) * 2013-01-16 2014-07-28 Seiko Epson Corp Video processing device, display device, semiconductor device, and video processing method

Similar Documents

Publication Publication Date Title
JP4775210B2 (en) Image signal processing apparatus, image resolution increasing method, image display apparatus, recording / reproducing apparatus
JP2009015025A (en) Image signal processing apparatus and image signal processing method
US7830369B2 (en) Video signal processing apparatus, video displaying apparatus and high resolution method for video signal
JP4876048B2 (en) Video transmission / reception method, reception device, video storage device
US8089557B2 (en) Video signal processing apparatus, video signal processing method and video display apparatus
JP2009033581A (en) Image signal recording and reproducing device
EP2012532A2 (en) Video displaying apparatus, video signal processing apparatus and video signal processing method
JP5250232B2 (en) Image signal processing apparatus, image signal processing method, and image display apparatus
JP2009033582A (en) Image signal recording and reproducing device
JP2009017242A (en) Image display apparatus, image signal processing apparatus and image signal processing method
JP2009141444A (en) Image signal processor, image display apparatus, image signal processing method
JP2009171370A (en) Image signal processing apparatus, image display device, and image signal processing method
JP5103314B2 (en) Image signal processing apparatus, image signal processing method, and video display apparatus
JP4988460B2 (en) Image signal processing apparatus and image signal processing method
WO2017145752A1 (en) Image processing system and image processing device
JP5250233B2 (en) Image signal processing apparatus, image signal processing method, and image display apparatus
JP2009163551A (en) Image processing system, and camera and recording and reproducing device used therefor
JP2009163588A (en) Image signal processor, image resolution enhancement method, and image display device
JP2009111721A (en) Input image control device, imaging apparatus, input image control method and program
JP5369526B2 (en) Image signal processing device, display device, recording / playback device, and image signal processing method
JP5416899B2 (en) Video display device
JP5416898B2 (en) Video display device
JP2008098724A (en) Image scaling circuit
JP2010062882A (en) Image signal processing apparatus, image signal processing method, and video display apparatus
JP2009130747A (en) Processing device to high resolution