JP2009094593A - Image signal processor, image signal processing method, and image display device - Google Patents

Image signal processor, image signal processing method, and image display device Download PDF

Info

Publication number
JP2009094593A
JP2009094593A JP2007260485A JP2007260485A JP2009094593A JP 2009094593 A JP2009094593 A JP 2009094593A JP 2007260485 A JP2007260485 A JP 2007260485A JP 2007260485 A JP2007260485 A JP 2007260485A JP 2009094593 A JP2009094593 A JP 2009094593A
Authority
JP
Japan
Prior art keywords
image
frame
unit
phase difference
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007260485A
Other languages
Japanese (ja)
Other versions
JP5250232B2 (en
Inventor
Masahiro Kageyama
昌広 影山
Koichi Hamada
宏一 浜田
Kenichi Yoneshi
健一 米司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007260485A priority Critical patent/JP5250232B2/en
Priority to US12/244,826 priority patent/US8089557B2/en
Priority to CN2008101682464A priority patent/CN101404733B/en
Publication of JP2009094593A publication Critical patent/JP2009094593A/en
Application granted granted Critical
Publication of JP5250232B2 publication Critical patent/JP5250232B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To preferably make an input image signal high resolved. <P>SOLUTION: An image signal processor has an input section to which a plurality of image frames are inputted, and a resolution conversion section for increasing the number of pixels for composing the image frames to obtain an output image frame by compositing a plurality of inputted image frames. The resolution conversion section uses image data on a reference input image frame and each corresponding image data on other input image frames to estimate a sampling phase difference, converts the sampling phase difference, outputs the converted sampling phase difference, uses information on the converted sampling phase difference to compensate the motion of the image data of each input image frame and increase the number of pixels, shifts the phase of the image data of each image frame of which the number of pixels is increased by prescribed quantity, and multiplies each image data before and after phase shift by a coefficient determined by the information of the sampling phase difference for addition, thus removing folding components for output thereof. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像信号を高解像度化するための技術に関し、特に複数の画像フレームを合成することにより、画像フレームを構成する画素数を増やすとともに不要な折返し成分を除去して高解像度化を行う技術に関する。   The present invention relates to a technique for increasing the resolution of an image signal, and in particular, by combining a plurality of image frames, the number of pixels constituting the image frame is increased and unnecessary aliasing components are removed to increase the resolution. Regarding technology.

最近のテレビ受像機は大画面化が進んでおり、放送や通信、蓄積媒体などから入力された画像信号をそのまま表示するのではなく、デジタル信号処理によって水平・垂直方向の画素数を増やして表示することが一般的に行われている。この際、一般的に知られているsinc関数を用いた補間ローパスフィルタやスプライン関数等によって画素数を増やすだけでは解像度を上げることはできない。   Recent television receivers have become larger in screen size and do not display image signals input from broadcasting, communication, storage media, etc., as they are, but display them by increasing the number of pixels in the horizontal and vertical directions by digital signal processing. It is generally done. At this time, the resolution cannot be increased only by increasing the number of pixels by an interpolation low-pass filter using a generally known sinc function, a spline function, or the like.

そこで、特許文献1、特許文献2、非特許文献1に記載されているように、入力された複数の画像フレーム(以下、フレームと略記)を合成して1枚のフレームとすることにより、高解像度化しながら画素数を増やす技術(以下、従来技術)が提案されている。   Therefore, as described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, a plurality of input image frames (hereinafter abbreviated as “frames”) are combined into a single frame. A technique for increasing the number of pixels while increasing the resolution (hereinafter referred to as a conventional technique) has been proposed.

特開平8−336046号JP-A-8-336046 特開平9−69755号JP-A-9-69755 青木伸 “複数のデジタル画像データによる超解像処理”, Ricoh Technical Report pp.19-25, No.24, NOVEMBER, 1998Shin Aoki “Super-resolution processing using multiple digital image data”, Ricoh Technical Report pp.19-25, No.24, NOVEMBER, 1998

これらの従来技術では、(1)位置推定、(2)広帯域補間、(3)加重和、の3つの処理により高解像度化を行う。ここで、(1)位置推定は、入力された複数の画像フレームの各画像データを用いて、各画像データのサンプリング位相(標本化位置)の差を推定するものである。(2)広帯域補間は、各画像データを折返し成分も含め、原信号の高周波成分をすべて透過する帯域の広いローパスフィルタを用いて画素数(サンプリング点)を補間して増やし、画像データを高密度化するものである。(3)加重和は、各高密度化データのサンプリング位相に応じた重み係数により加重和をとることによって、画素サンプリングの際に生じた折返し成分を打ち消して除去するとともに、同時に原信号の高周波成分を復元するものである。   In these conventional techniques, high resolution is achieved by three processes: (1) position estimation, (2) wideband interpolation, and (3) weighted sum. Here, (1) position estimation is to estimate the difference in sampling phase (sampling position) of each image data using each image data of a plurality of input image frames. (2) Wideband interpolation increases the image data density by interpolating and increasing the number of pixels (sampling points) using a wide-band low-pass filter that transmits all high-frequency components of the original signal, including aliasing components. It is to become. (3) The weighted sum is a weighted sum corresponding to the sampling phase of each densified data, canceling out aliasing components generated during pixel sampling and simultaneously removing the high-frequency components of the original signal. Is to restore.

図2に、これらの高解像度化技術の概要を示す。同図(a)に示すように、異なる時間軸上のフレーム#1(201)、フレーム#2(202)、フレーム#3(203)が入力され、これらを合成して出力フレーム(206)を得ることを想定する。簡単のため、まず被写体が水平方向に移動(204)した場合を考え、水平線(205)の上の1次元の信号処理によって高解像度化することを考える。このとき、同図(b)と同図(d)に示すように、フレーム#2(202)とフレーム#1(201)では、被写体の移動(204)の量に応じて信号波形の位置ずれが生じる。上記(1)位置推定によってこの位置ずれ量を求め、同図(c)に示すように、位置ずれが無くなるようにフレーム#2(202)を動き補償(207)するとともに、各フレームの画素(208)のサンプリング位相(209)(210)の間の位相差θ(211)を求める。この位相差θ(211)に基づき、上記(2)広帯域補間および(3)加重和を行うことにより、同図(e)に示すように、元の画素(208)のちょうど中間(位相差θ=π)の位置に新規画素(212)を生成することにより、高解像度化を実現する。 (3)加重和については後述する。   FIG. 2 shows an outline of these high resolution techniques. As shown in (a) in the figure, frame # 1 (201), frame # 2 (202), and frame # 3 (203) on different time axes are input, and these are combined to form an output frame (206). Assume that you get. For simplicity, first consider the case where the subject has moved (204) in the horizontal direction, and consider increasing the resolution by one-dimensional signal processing on the horizontal line (205). At this time, as shown in (b) and (d) in the figure, the position of the signal waveform is shifted in accordance with the amount of movement (204) of the subject in frame # 2 (202) and frame # 1 (201). Occurs. The amount of displacement is obtained by the above (1) position estimation, and as shown in FIG. 5C, the frame # 2 (202) is motion-compensated (207) so that the displacement is eliminated, and the pixels ( The phase difference θ (211) between the sampling phases (209) and (210) of 208) is obtained. Based on this phase difference θ (211), by performing the above (2) wideband interpolation and (3) weighted sum, as shown in FIG. High resolution is realized by generating a new pixel (212) at the position of = π). (3) The weighted sum will be described later.

なお、実際には被写体の動きが平行移動だけでなく、回転や拡大・縮小などの動きを伴うことも考えられるが、フレーム間の時間間隔が微小な場合や被写体の動きが遅い場合には、これらの動きも局所的な平行移動に近似して考えることができる。   Actually, the movement of the subject may be accompanied by movements such as rotation and enlargement / reduction as well as parallel movement, but if the time interval between frames is very small or the movement of the subject is slow, These movements can also be considered by approximating local translation.

特許文献1、特許文献2、非特許文献1に記載の従来技術によって1次元方向の2倍の高解像度化を行う場合、上記(3)の加重和を行う際に、図3に示すように、少なくとも3枚のフレーム画像の信号を用いる必要があった。ここで、図3は、1次元の周波数領域で、各成分の周波数スペクトルを示した図である。同図において、周波数軸からの距離が信号強度を表し、周波数軸を中心とした回転角が位相を表す。上記(3)の加重和について、以下に詳しく説明する。   As shown in FIG. 3, when performing the weighted sum of (3) above when the resolution is doubled in the one-dimensional direction by the conventional techniques described in Patent Document 1, Patent Document 2, and Non-Patent Document 1. It is necessary to use signals of at least three frame images. Here, FIG. 3 is a diagram showing a frequency spectrum of each component in a one-dimensional frequency region. In the figure, the distance from the frequency axis represents the signal intensity, and the rotation angle around the frequency axis represents the phase. The weighted sum of (3) above will be described in detail below.

上記(2)の広帯域補間にて、ナイキスト周波数の2倍の帯域(周波数0〜サンプリング周波数fsまでの帯域)を透過する広帯域ローパスフィルタによって画素補間すると、原信号と同じ成分(以下、原成分)と、サンプリング位相に応じた折返し成分の和が得られる。このとき、3枚のフレーム画像の信号に対して上記(2)広帯域補間の処理を行うと、図3(a)に示すように、各フレームの原成分(301)(302)(303)の位相はすべて一致し、折返し成分(304)(305)(306)の位相は各フレームのサンプリング位相の差に応じて回転することがよく知られている。それぞれの位相関係をわかりやすくするために、各フレームの原成分の位相関係を同図(b)に示し、各フレームの折返し成分の位相関係を同図(c)に示す。   When the pixel interpolation is performed by the broadband low-pass filter that transmits twice the Nyquist frequency band (frequency band 0 to sampling frequency fs) in the broadband interpolation of (2) above, the same component as the original signal (hereinafter referred to as the original component) And the sum of the aliasing components according to the sampling phase is obtained. At this time, when the above-described (2) wideband interpolation processing is performed on the signals of the three frame images, as shown in FIG. 3 (a), the original components (301), (302), (303) of each frame are displayed. It is well known that the phases are all in agreement, and the phase of the aliasing components (304), (305) and (306) rotates in accordance with the difference in sampling phase of each frame. In order to facilitate understanding of the respective phase relationships, the phase relationship of the original components of each frame is shown in FIG. 5B, and the phase relationship of the folded components of each frame is shown in FIG.

ここで、3枚のフレーム画像の信号に対して、乗算する係数を適切に選択して上記(3)加重和を行うことにより、各フレームの折返し成分(304)(305)(306)を互いに打ち消して除去することができ、原成分だけを抽出できる。このとき、各フレームの折返し成分(304)(305)(306)のベクトル和を0にする、すなわち、Re軸(実軸)の成分とIm軸(虚軸)の成分を両方ともに0とするためには、少なくとも3つの折返し成分が必要となる。従って、2倍の高解像度化を実現するために、すなわち1個の折返し成分を除去するために、少なくとも3枚のフレーム画像の信号を用いる必要があった。   Here, with respect to the signals of the three frame images, by appropriately selecting the coefficients to be multiplied and performing the above (3) weighted sum, the folded components (304), (305), and (306) of each frame are mutually connected. It can be canceled out and only the original components can be extracted. At this time, the vector sum of the folded components (304) (305) (306) of each frame is set to 0, that is, both the Re axis (real axis) component and the Im axis (imaginary axis) component are set to 0. For this purpose, at least three folding components are required. Therefore, it is necessary to use signals of at least three frame images in order to realize double resolution enhancement, that is, to remove one aliasing component.

同様に、特許文献1、特許文献2、非特許文献1に記載されているように、水平・垂直の2次元の入力信号に対して高解像度化する場合、折返しが縦横2方向から来るので、原信号の帯域が縦横共に2倍に広がると、3つの折返し成分が重なり、それらを打ち消すためには2M+1=7個のデジタルデータ(=7枚のフレーム画像の信号)を必要としていた。   Similarly, as described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, when the resolution is increased with respect to a horizontal / vertical two-dimensional input signal, the aliasing comes from the vertical and horizontal directions. When the band of the original signal doubled both vertically and horizontally, the three folded components overlap, and 2M + 1 = 7 digital data (= 7 frame image signals) were required to cancel them.

従って従来技術は、フレームメモリや信号処理回路の規模が大きくなって経済的でない。また、時間的に離れた数多くのフレーム画像の位置推定を正確に行う必要があるため構成が複雑となる。すなわち、従来技術は、例えばテレビジョン放送信号等の動画像のフレームを高解像度化することが困難である。   Therefore, the prior art is not economical because the scale of the frame memory and the signal processing circuit is increased. In addition, since it is necessary to accurately estimate the positions of many frame images that are separated in time, the configuration becomes complicated. That is, it is difficult for the conventional technology to increase the resolution of a moving image frame such as a television broadcast signal.

また、現在のテレビジョン放送信号ではインタレース走査を用いるのが主流であるが、特許文献1、特許文献2、非特許文献1には、インタレース走査信号そのものの高解像度化や、インタレース・プログレッシブ走査変換(I-P変換)について、開示も示唆もなされていない。   In addition, interlace scanning is mainly used in current television broadcast signals. However, Patent Document 1, Patent Document 2, and Non-Patent Document 1 disclose that interlace scanning signals themselves have higher resolution, interlace scanning, and so on. There is no disclosure or suggestion about progressive scan conversion (IP conversion).

また、地上波や衛星(BS、CS)を用いた現在のデジタルテレビ放送では、従来のSD(Standard Definition)の画像信号に加え、HD(High Definition)の画像信号にて番組が放送されている。しかし、全番組がHDカメラで撮影された画像信号に置き換わっているわけではなく、SDカメラで撮影された画像信号を、SD→HD変換器によって、HDと同じ画素数を持つ信号に変換(アップコン)し、番組ごとに、あるいはシーンごとに切り替えて放送されているがよく知られている。   In addition, in the current digital television broadcasting using terrestrial and satellite (BS, CS), programs are broadcast with HD (High Definition) image signals in addition to conventional SD (Standard Definition) image signals. . However, not all programs have been replaced with image signals shot with an HD camera.Image signals shot with an SD camera are converted into signals with the same number of pixels as HD using an SD-to-HD converter. It is well known that it is broadcast by switching between programs or scenes.

従来の受信機では、受信した信号がHDカメラで撮影された画像信号の場合は解像度の高い画像が再生され、SD→HD変換(アップコン)後の画像信号の場合は解像度が低い画像が再生されるため、番組ごとに、あるいはシーンごとに、解像度が頻繁に切り替わって見苦しいという問題があった。   With a conventional receiver, if the received signal is an image signal taken with an HD camera, a high-resolution image is played back, and if it is an SD-HD converted (up-con) image signal, a low-resolution image is played back. Therefore, there is a problem that the resolution is frequently switched for each program or for each scene, which is unsightly.

また、上記従来技術では、サンプリング位相(標本化位置)の差を用いて高解像度化処理を行っているため、サンプリング位相に差が生じない信号、すなわち、被写体が静止している領域や、被写体の動きがちょうど画素間隔の整数倍になる領域では、高解像度化の効果が得られないという問題があった。   Further, in the above conventional technique, since the resolution enhancement processing is performed using the difference in the sampling phase (sampling position), a signal that does not cause a difference in the sampling phase, that is, a region where the subject is stationary, a subject There is a problem that the effect of increasing the resolution cannot be obtained in a region where the movement of the image becomes an integer multiple of the pixel interval.

本発明は、上記従来技術の課題に鑑みて為されたものであって、その目的は、好適に画
像信号を高解像度化するための技術を提供することにある。
The present invention has been made in view of the above-described problems of the prior art, and an object thereof is to provide a technique for suitably increasing the resolution of an image signal.

上記目的を達成するために、本発明の一実施の態様は、例えば、特許請求の範囲に記載されるように構成すればよい。   In order to achieve the above object, an embodiment of the present invention may be configured as described in the claims, for example.

本発明によれば、より好適に画像信号を高解像度化することが可能となる。   According to the present invention, it is possible to increase the resolution of an image signal more suitably.

以下、本発明の実施例を、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

また、各図面において、同一の符号が付されている構成要素は同一の機能を有すること
とする。
Moreover, in each drawing, the component to which the same code | symbol was attached | subjected shall have the same function.

また、本明細書の各記載及び各図面における「位相」という表現は、2次元画像空間において用いた場合は、2次元画像上の「位置」という意味も含む。当該位置は、小数画素精度の位置を意味する。   Further, the expression “phase” in each description and each drawing of this specification includes the meaning of “position” on a two-dimensional image when used in a two-dimensional image space. The said position means the position of decimal pixel precision.

また、本明細書の各記載及び各図面における「アップレート」という表現は、「アップレート処理」という意味も含む。また、本明細書の各記載及び各図面における「アップコン」という表現は、「アップコンバート処理」を示す。両者はいずれも画像の画素数を多くする変換処理(画素数増加処理)または画像を拡大する変換処理(画像拡大変換処理)を意味する。   In addition, the expression “up rate” in each description and each drawing of this specification also includes the meaning of “up rate processing”. Further, the expression “upcon” in each description and each drawing of this specification indicates “upconversion processing”. Both of them mean conversion processing for increasing the number of pixels of an image (pixel number increase processing) or conversion processing for enlarging an image (image enlargement conversion processing).

また、本明細書の各記載及び各図面における「ダウンレート」という表現は、「ダウンレート処理」という意味も含む。また、本明細書の各記載及び各図面における「ダウンコン」という表現は、「ダウンコンバート処理」を示す。両者はいずれも画像の画素数を少なくする変換処理(画素数低減処理)または画像を縮小する変換処理(画像縮小変換処理)を意味する。   In addition, the expression “down rate” in each description and each drawing of this specification also includes the meaning of “down rate processing”. In addition, the expression “downconversion” in each description and each drawing of the present specification indicates “downconversion processing”. Both of them mean conversion processing for reducing the number of pixels in the image (pixel number reduction processing) or conversion processing for reducing the image (image reduction conversion processing).

また、本明細書の各記載及び各図面における「動き補償」という表現は、位相差もしくはサンプリング位相差、すなわち空間的な位置の差を算出して位置合わせを行う意味を含む。   Further, the expression “motion compensation” in each description and each drawing of the present specification includes a meaning of performing alignment by calculating a phase difference or a sampling phase difference, that is, a spatial position difference.

なお、以下の各実施例の記載において、上述した(1)位置推定には、参考文献1や参考文献2に記載されているような方法を用いればよい。また上述した(2)広帯域補間については、非特許文献1に記載されているようなナイキスト周波数の2倍の通過帯域を持つ一般的なローパスフィルタを用いればよい。
[参考文献1] 安藤繁 “画像の時空間微分算法を用いた速度ベクトル分布計測システム”,計測自動制御学会論文集,pp.1330-1336, Vol.22, No.12,1986
[参考文献2] 小林弘幸ほか “DCT変換に基づく画像の位相限定相関法”, 信学技法 IEICE Technical Report ITS2005-92,IE2005-299(2006-02), pp.73-78
また、以下の実施例で「SR信号」との表記は「Super Resolution信号(超解像信号)」の略である。
In the description of each embodiment below, the method described in Reference Document 1 or Reference Document 2 may be used for the above-described (1) position estimation. As for the above-mentioned (2) wideband interpolation, a general low-pass filter having a pass band twice as high as the Nyquist frequency as described in Non-Patent Document 1 may be used.
[Reference 1] Shigeru Ando “Velocity vector distribution measurement system using spatio-temporal differential calculation of images”, Transactions of the Society of Instrument and Control Engineers, pp. 1330-1336, Vol. 22, No. 12, 1986
[Reference 2] Hiroyuki Kobayashi et al. “Phase-Only Correlation of Images Based on DCT Transform”, IEICE Technical Report ITS2005-92, IE2005-299 (2006-02), pp.73-78
In the following embodiments, the notation “SR signal” is an abbreviation of “Super Resolution signal (super-resolution signal)”.

以下、本発明の実施例について、図面を参照しつつ説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1に、本発明の実施例1に係る画像信号処理装置を示し、その特徴について述べる。本実施例に係る画像信号処理装置は、例えばテレビジョン受像機等の画像表示装置に適用される。以下の本実施例の説明においては、画像信号処理装置として画像表示装置を例にして説明する。   FIG. 1 shows an image signal processing apparatus according to Embodiment 1 of the present invention, and features thereof will be described. The image signal processing apparatus according to this embodiment is applied to an image display apparatus such as a television receiver. In the following description of the present embodiment, an image display device will be described as an example of the image signal processing device.

図1において、本実施例に係る画像信号処理装置は、例えばテレビジョン放送信号などの動画像のフレーム列が入力される入力部(1)と、この入力部(1)から入力されたフレームを高解像度化するための解像度変換部(2)と、更にこの解像度変換部(2)によって高解像度化されたフレームに基づき画像を表示する表示部(3)とを備えている。この表示部(3)として、例えばプラズマディスプレイパネル、液晶表示パネル、もしくは電子/電解放出型ディスプレイパネルが用いられる。以下、解像度変換部(2)の詳細について説明する。   In FIG. 1, an image signal processing apparatus according to the present embodiment includes an input unit (1) to which a frame sequence of a moving image such as a television broadcast signal is input, and a frame input from the input unit (1). A resolution conversion unit (2) for increasing the resolution and a display unit (3) for displaying an image based on the frame whose resolution is increased by the resolution conversion unit (2) are further provided. As the display unit (3), for example, a plasma display panel, a liquid crystal display panel, or an electron / electrolytic emission display panel is used. Details of the resolution conversion unit (2) will be described below.

図1において、まず位置推定部(101)により、入力部(1)に入力されたフレーム#1上の処理対象の画素のサンプリング位相(標本化位置)を基準として、フレーム#2上の対応する画素の位置を推定し、画素ごとにサンプリング位相差θ(102)を求める。   In FIG. 1, first, the position estimation unit (101) performs a corresponding operation on the frame # 2 based on the sampling phase (sampling position) of the pixel to be processed on the frame # 1 input to the input unit (1). The pixel position is estimated, and the sampling phase difference θ (102) is obtained for each pixel.

次に、動き補償・アップレート部(115)のアップレート器(103)(104)により、位相差θ(102)の情報を用いてフレーム#2を動き補償してフレーム#1と位置を合わせるとともに、フレーム#1とフレーム#2の画素数をそれぞれ2倍に増して高密度化する。位相シフト部(116)では、この高密度化したデータの位相を一定量だけシフトする。ここで、データの位相を一定量だけシフトする手段として、π/2位相シフト器(106)(108)を用いることができる。また、π/2位相シフト器(106)(108)で生じる遅延を補償するために、遅延器(105)(107)により高密度化したフレーム#1とフレーム#2の信号を遅延させる。   Next, frame # 2 is motion-compensated using the information of phase difference θ (102) by the up-raters (103) and (104) of the motion compensation / up-rate unit (115) and aligned with frame # 1. At the same time, the number of pixels in frame # 1 and frame # 2 is doubled to increase the density. The phase shift unit (116) shifts the phase of the densified data by a certain amount. Here, π / 2 phase shifters (106) and (108) can be used as means for shifting the phase of data by a certain amount. Further, in order to compensate for the delay caused by the π / 2 phase shifters (106) and (108), the signals of the frame # 1 and the frame # 2 which have been densified by the delay devices (105) and (107) are delayed.

折返し成分除去部(117)では、遅延器(105)(107)とヒルベルト変換器(106)(108)の各出力信号に対して、係数決定器(109)にて位相差θ(102)をもとに生成した係数C0,C2,C1,C3を乗算器(110)(112)(111)(113)にてそれぞれ乗算し、加算器(114)にてこれらの信号を加算して出力を得る。この出力は、表示部3に供給される。なお、位置推定部(101)は、上記従来技術をそのまま用いて実現することができる。アップレート器(103)(104)、π/2位相シフト器(106)(108)、折返し成分除去部(117)の各詳細については後述する。   In the aliasing component removal unit (117), the phase difference θ (102) is calculated by the coefficient determiner (109) for each output signal of the delay units (105) (107) and the Hilbert transformers (106) (108). The generated coefficients C0, C2, C1, and C3 are respectively multiplied by multipliers (110), (112), (111), and (113), and these signals are added by an adder (114) and output. obtain. This output is supplied to the display unit 3. The position estimation unit (101) can be realized using the above-described conventional technique as it is. Details of the up-raters (103) and (104), the π / 2 phase shifters (106) and (108), and the aliasing component removal unit (117) will be described later.

図4に、本発明の実施例1の動作を示す。同図は、図1に示した遅延器(105)(107)とπ/2位相シフト器(106)(108)の各出力を1次元の周波数領域で示したものである。同図(a)において、遅延器(105)(107)から出力されたアップレート後のフレーム#1とフレーム#2の信号はそれぞれ、原成分(401)(402)と、元のサンプリング周波数(fs)から折り返された折返し成分(405)(406)を加えた信号となる。このとき、折返し成分(406)は上述の位相差θ(102)だけ位相が回転している。   FIG. 4 shows the operation of the first embodiment of the present invention. This figure shows the outputs of the delay units (105) and (107) and π / 2 phase shifters (106) and (108) shown in FIG. 1 in a one-dimensional frequency domain. In FIG. 8A, the signals of frame # 1 and frame # 2 after the up-rate output from the delay units (105) and (107) are respectively the original components (401) and (402) and the original sampling frequency ( This is a signal obtained by adding folded components (405) and (406) folded from fs). At this time, the aliasing component (406) is rotated in phase by the above-described phase difference θ (102).

一方、π/2位相シフト器(106)(108) から出力されたアップレート後のフレーム#1とフレーム#2の信号はそれぞれ、π/2位相シフト後の原成分(403)(404)と、π/2位相シフト後の折返し成分(407)(408)を加えた信号となる。同図(b)および同図(c)は、同図(a)に示した各成分の位相関係をわかりやすくするために、原成分と折返し成分をそれぞれ抜き出して示したものである。   On the other hand, the frame # 1 and frame # 2 signals output from the π / 2 phase shifters (106) and (108) are the original components (403) and (404) after the π / 2 phase shift, respectively. , A signal obtained by adding the folded components (407) and (408) after the π / 2 phase shift. (B) and (c) show the original component and the aliasing component extracted for easy understanding of the phase relationship between the components shown in (a).

ここで、同図(b)に示す4つの成分のベクトル和を取ったときに、Re軸の成分を1とし、Im軸の成分を0とするとともに、同図(c)に示す4つの成分のベクトル和を取ったときに、Re軸とIm軸の両方の成分を0とするように、各成分に乗算する係数を決定して加重和をとれば、折返し成分を打ち消してキャンセルし、原成分だけを抽出することができる。すなわち、2枚のフレーム画像だけを用いて、1次元方向の2倍の高解像度化行う画像信号処理装置を実現できる。この係数決定方法の詳細については後述する。   Here, when the vector sum of the four components shown in FIG. 4B is taken, the Re-axis component is set to 1, the Im-axis component is set to 0, and the four components shown in FIG. When the vector sum is taken, the coefficients to be multiplied by each component are determined so that both the Re-axis and Im-axis components are set to 0, and the weighted sum is taken. Only the components can be extracted. In other words, it is possible to realize an image signal processing apparatus that uses only two frame images to increase the resolution twice in the one-dimensional direction. Details of this coefficient determination method will be described later.

図5に、本発明の実施例1に用いるアップレート器(103)(104)の動作を示す。同図において、横軸は周波数を、縦軸は利得(入力信号振幅に対する出力信号振幅の比の値)を表し、アップレート器(103)(104)の「周波数-利得」特性を示している。ここで、アップレート器(103)(104)では、もとの信号のサンプリング周波数(fs)に対して2倍の周波数(2fs)を新しいサンプリング周波数とし、もとの画素間隔のちょうど中間の位置に新しい画素のサンリング点(=ゼロ点)を挿入することによって画素数を2倍にして高密度化するとともに、-fs〜+fsの間の周波数をすべて利得2.0の通過帯域とするフィルタをかける。このとき、同図に示すように、デジタル信号の対称性により、2fsの整数倍の周波数ごとに繰り返す特性となる。   FIG. 5 shows the operation of the up-raters (103) (104) used in the first embodiment of the present invention. In this figure, the horizontal axis represents frequency, the vertical axis represents gain (value of the ratio of output signal amplitude to input signal amplitude), and shows the “frequency-gain” characteristics of the up-raters (103) and (104). . Here, in the up-rater (103) (104), the new sampling frequency is set to a frequency (2fs) that is twice the sampling frequency (fs) of the original signal, and the position is exactly in the middle of the original pixel interval. Insert a new pixel sanding point (= zero point) into the filter to double the number of pixels and increase the density. Call. At this time, as shown in the figure, due to the symmetry of the digital signal, the characteristic repeats every frequency that is an integral multiple of 2fs.

図6に、本発明の実施例1に用いるアップレート器(103)(104)の具体例を示す。同図は、図5に示した周波数特性を逆フーリエ変換して得られるフィルタのタップ係数を示している。このとき、各タップ係数Ck(ただし、kは整数)は一般的に知られているsinc関数となり、画素ごとのサンプリングの位相差θ(102)を補償するために(-θ)だけシフトし、Ck=2sin(πk+θ)/(πk+θ)とすればよい。なお、アップレート器(103)では、位相差θ(102)を0とおき、Ck=2sin(πk)/(πk)とすればよい。また、位相差θ(102)を、整数画素単位(2π)の位相差+小数画素単位の位相差で表すことにより、整数画素単位の位相差の補償については単純な画素シフトにより実現し、小数画素単位の位相差の補償については上記アップレート器(103)(104)のフィルタを用いてもよい。   FIG. 6 shows a specific example of the up-raters (103) (104) used in the first embodiment of the present invention. This figure shows the tap coefficients of the filter obtained by inverse Fourier transform of the frequency characteristics shown in FIG. At this time, each tap coefficient Ck (where k is an integer) is a generally known sinc function, and is shifted by (−θ) to compensate for the sampling phase difference θ (102) for each pixel, Ck = 2sin (πk + θ) / (πk + θ) may be set. In the up-rate device (103), the phase difference θ (102) is set to 0 and Ck = 2sin (πk) / (πk). In addition, by expressing the phase difference θ (102) by the phase difference in integer pixel units (2π) + the phase difference in decimal pixel units, the phase difference compensation in integer pixel units is realized by a simple pixel shift, and decimal For compensation of the phase difference in units of pixels, the filters of the up-raters (103) and (104) may be used.

図7に、本発明の実施例1に用いるπ/2位相シフト器(106)(108)の動作例を示す。π/2位相シフト器(106)(108)として、一般に知られているヒルベルト変換器を用いることができる。   FIG. 7 shows an operation example of the π / 2 phase shifters (106) and (108) used in the first embodiment of the present invention. A generally known Hilbert transformer can be used as the π / 2 phase shifters (106) and (108).

同図(a)において、横軸は周波数を、縦軸は利得(入力信号振幅に対する出力信号振幅の比の値)を表し、ヒルベルト変換器の「周波数-利得」特性を示している。ここで、ヒルベルト変換器では、もとの信号のサンプリング周波数(fs)に対して2倍の周波数(2fs)を新しいサンプリング周波数として、-fs〜+fsの間の0を除く周波数成分をすべて利得1.0の通過帯域とする。   In FIG. 5A, the horizontal axis represents frequency, and the vertical axis represents gain (value of the ratio of output signal amplitude to input signal amplitude), indicating the “frequency-gain” characteristics of the Hilbert transformer. Here, in the Hilbert transformer, the frequency (2fs) that is twice the sampling frequency (fs) of the original signal is used as a new sampling frequency, and all frequency components except -0 between -fs and + fs are gained. A pass band of 1.0.

また、同図(b)において、横軸は周波数を、縦軸は位相差(入力信号位相に対する出力信号位相の差)を表し、ヒルベルト変換器の「周波数-位相差」特性を示している。ここで、0〜fsの間の周波数成分についてはπ/2だけ位相を遅らせ、0〜-fsの間の周波数成分についてはπ/2だけ位相を進ませる。このとき、同図に示すように、デジタル信号の対称性により、2fsの整数倍の周波数ごとに繰り返す特性となる。   In FIG. 2B, the horizontal axis represents frequency, and the vertical axis represents phase difference (difference in output signal phase with respect to input signal phase), indicating the “frequency-phase difference” characteristic of the Hilbert transformer. Here, the phase of the frequency component between 0 and fs is delayed by π / 2, and the phase of the frequency component between 0 and −fs is advanced by π / 2. At this time, as shown in the figure, due to the symmetry of the digital signal, the characteristic repeats every frequency that is an integral multiple of 2fs.

図8に、本発明の実施例1に用いるπ/2位相シフト器(106)(108)をヒルベルト変換器で構成した例を示す。同図は、図7に示した周波数特性を逆フーリエ変換して得られるフィルタのタップ係数を示している。このとき、各タップ係数Ckは、k=2m(ただしmは整数)のときはCk=0とし、k=2m+1のときはCk=-2/(πk)とすればよい。   FIG. 8 shows an example in which the π / 2 phase shifters (106) and (108) used in the first embodiment of the present invention are configured by Hilbert transformers. This figure shows the filter tap coefficients obtained by inverse Fourier transform of the frequency characteristics shown in FIG. At this time, each tap coefficient Ck may be Ck = 0 when k = 2m (where m is an integer), and Ck = −2 / (πk) when k = 2m + 1.

なお、本発明の実施例1に用いるπ/2位相シフト器(106)(108)は、微分器を用いることも可能である。この場合、正弦波を表す一般式cos(ωt+α)をtで微分して1/ωを乗じると、d(cos(ωt+α))/dt*(1/ω)=-sin(ωt+α)=cos(ωt+α+π/2)となり、π/2位相シフトの機能を実現できる。すなわち、対象とする画素の値と隣接画素の値との差分を取ったのちに、1/ωの「周波数-振幅」特性を持ったフィルタを掛けることによってπ/2位相シフトの機能を実現してもよい。   The π / 2 phase shifters (106) and (108) used in Embodiment 1 of the present invention can also use differentiators. In this case, if the general expression cos (ωt + α) representing a sine wave is differentiated by t and multiplied by 1 / ω, d (cos (ωt + α)) / dt * (1 / ω) =-sin (ωt + α) = cos (ωt + α + π / 2), and the function of π / 2 phase shift can be realized. In other words, after taking the difference between the value of the target pixel and the value of the adjacent pixel, a π / 2 phase shift function is realized by applying a filter with a frequency / amplitude characteristic of 1 / ω. May be.

図9に、本発明の実施例1に用いる係数決定器(109)の動作と具体例を示す。同図(a)に示すように、図4(b)に示した4つの成分のベクトル和を取ったときに、Re軸の成分を1とし、Im軸の成分を0とするとともに、図4(c)に示した4つの成分のベクトル和を取ったときに、Re軸とIm軸の両方の成分を0とするように、各成分に乗算する係数を決定すれば、2枚のフレーム画像だけを用いて、1次元方向の2倍の高解像度化行う画像信号処理装置を実現できる。   FIG. 9 shows an operation and a specific example of the coefficient determiner (109) used in the first embodiment of the present invention. As shown in FIG. 4A, when the vector sum of the four components shown in FIG. 4B is taken, the Re-axis component is set to 1, the Im-axis component is set to 0, and FIG. If the coefficients to be multiplied by each component are determined so that both the Re-axis and Im-axis components are 0 when the vector sum of the four components shown in (c) is taken, two frame images Can be used to realize an image signal processing apparatus that achieves a resolution twice as high as that in the one-dimensional direction.

ここで、図1に示すように、遅延器(105)の出力(アップレート後のフレーム#1の原成分と折返し成分の和)に対する係数をC0、π/2位相シフト器(106)の出力(アップレート後のフレーム#1の原成分と折返し成分のそれぞれのπ/2位相シフト結果の和)に対する係数をC1、遅延器(107)の出力(アップレート後のフレーム#2の原成分と折返し成分の和)に対する係数をC2、ヒルベルト変換器(106)の出力(アップレート後のフレーム#2の原成分と折返し成分のそれぞれのπ/2位相シフト結果の和)に対する係数をC3とする。   Here, as shown in FIG. 1, the coefficient for the output of the delay unit (105) (the sum of the original component and the folded component of the frame # 1 after the up-rate) is C0, and the output of the π / 2 phase shifter (106) The coefficient for (the sum of the π / 2 phase shift results of the original component and the folded component of frame # 1 after the up-rate) is C1, and the output of the delay unit (107) (the original component of frame # 2 after the up- The coefficient for the sum of the aliasing components) is C2, and the factor for the output of the Hilbert transformer (106) (the sum of the π / 2 phase shift results of the original and aliasing components of frame # 2 after the update) is C3. .

このとき、図9(a)の条件を満たすようにすると、図4(b)および図4(c)に示した各成分の位相関係から、図9(b)に示す連立方程式を得ることができ、これを解くと図9(c)に示す結果を導くことができる。   At this time, if the conditions of FIG. 9 (a) are satisfied, the simultaneous equations shown in FIG. 9 (b) can be obtained from the phase relationships of the components shown in FIGS. 4 (b) and 4 (c). If this is solved, the result shown in FIG. 9 (c) can be derived.

本実施例に係る係数決定器(109)は、図9(a)、図9(b)、図9(c)のいずれかを満たす係数C0、C1、C2、C3を出力する。   The coefficient determiner (109) according to the present embodiment outputs coefficients C0, C1, C2, and C3 that satisfy any one of FIGS. 9 (a), 9 (b), and 9 (c).

一例として、位相差θ(102)をπ/8ごとに0〜2πまで変化させたときの係数C0、C1、C2、C3の値を、図9(d)に示す。これは、もとのフレーム#2の信号を、1/16画素の精度で位置推定し、フレーム#1に対して動き補償した場合に相当する。位相差θ(102)の値が0未満、あるいは2π以上の場合には、sin関数やcos関数の周期性を利用し、位相差θ(102)の値に2πの整数倍の値を、加算あるいは減算することにより、位相差θ(102)が0〜2πの範囲に収まるようにすればよい。   As an example, FIG. 9 (d) shows values of the coefficients C0, C1, C2, and C3 when the phase difference θ (102) is changed from 0 to 2π every π / 8. This corresponds to a case where the position of the signal of the original frame # 2 is estimated with an accuracy of 1/16 pixel and motion compensation is performed on the frame # 1. When the value of phase difference θ (102) is less than 0 or 2π or more, use the periodicity of sin function or cos function and add the value of integer multiple of 2π to the value of phase difference θ (102) Alternatively, subtraction may be performed so that the phase difference θ (102) falls within the range of 0 to 2π.

なお、アップレート器(103)(104)およびπ/2位相シフト器(106)(107)は、理想的な特性を得るためには無限大のタップ数を必要とするが、タップ数を有限個で打ち切って簡略化しても実用上問題ない。このとき、一般的な窓関数(例えばハニング窓関数やハミング窓関数など)を用いてもよい。簡略化したヒルベルト変換器の各タップの係数を、C0を中心として左右点対象の値、すなわちC(-k)=-Ck(kは整数)とすれば、位相を一定量だけシフトすることができる。   The up-raters (103) (104) and π / 2 phase shifters (106) (107) require an infinite number of taps to obtain ideal characteristics, but the number of taps is finite. There is no practical problem even if it is cut off and simplified. At this time, a general window function (such as a Hanning window function or a Hamming window function) may be used. If the coefficient of each tap of the simplified Hilbert transformer is the value of the left and right points centered on C0, that is, C (-k) = -Ck (k is an integer), the phase can be shifted by a certain amount. it can.

次に、図17を用いて、実施例1に係る画像信号処理装置と上記従来技術の動作の違いを説明する。同図(a)において、フレーム#1(1701)からフレーム#5(1705)の間に、被写体が右方向に移動するような入力画像を用意する。この際、同図(b)に示すように、各フレームにおけるサンプリング位相を見ると、フレーム#1(1701)とフレーム#2(1702)の間では対応画素の位置が1/4画素(=π/2)ずれており、フレーム#1(1701)とフレーム#3(1703)の間では対応画素の位置が1画素(=2π)ずれており、フレーム#1(1701)とフレーム#4(1704)の間では対応画素の位置が5/4画素(=5π/2)ずれており、フレーム#1(1701)とフレーム#5(1705)の間では対応画素の位置が2画素(=4π)ずれているように、意図的に被写体を移動させる。このとき、各フレーム上の信号に含まれるそれぞれの折返し成分の位相は、フレーム#1(1701)上の信号に含まれる折返し成分の位相を基準にして、同図(c)のように表すことができる。この入力画像(a)に対して2倍の高解像度化を行う場合、上記従来技術では、フレーム#1(1701)からフレーム#5(1705)の中のどの3フレームを用いても折返し成分のベクトル和を0にすることができないため、高解像度化は実現できない。一方、本実施例を用いれば、例えば、隣接する2フレーム(例:フレーム#1(1701)とフレーム#2(1702))を用いて折返し成分のベクトル和を0にできるため、高解像度化を実現できる。すなわち、同図(a)の入力画像をテストパターンとして用いることにより、本実施例の動作状況を確認することができる。   Next, a difference in operation between the image signal processing apparatus according to the first embodiment and the above-described conventional technique will be described with reference to FIG. In FIG. 9A, an input image is prepared so that the subject moves in the right direction between frame # 1 (1701) and frame # 5 (1705). At this time, as shown in FIG. 4B, when the sampling phase in each frame is viewed, the corresponding pixel position is 1/4 pixel (= π) between frame # 1 (1701) and frame # 2 (1702). / 2) The position of the corresponding pixel is shifted by 1 pixel (= 2π) between frame # 1 (1701) and frame # 3 (1703), and frame # 1 (1701) and frame # 4 (1704 ), The corresponding pixel position is shifted by 5/4 pixels (= 5π / 2), and the corresponding pixel position is 2 pixels (= 4π) between frame # 1 (1701) and frame # 5 (1705). The subject is intentionally moved so that it is displaced. At this time, the phase of each folded component included in the signal on each frame is expressed as shown in FIG. 7C with reference to the phase of the folded component included in the signal on frame # 1 (1701). Can do. When the resolution of the input image (a) is increased by a factor of 2, in the above-described conventional technique, the aliasing component of any of the three frames from frame # 1 (1701) to frame # 5 (1705) is used. Since the vector sum cannot be reduced to 0, high resolution cannot be realized. On the other hand, if this embodiment is used, for example, the vector sum of the aliasing component can be set to 0 using two adjacent frames (eg, frame # 1 (1701) and frame # 2 (1702)). realizable. That is, the operation status of the present embodiment can be confirmed by using the input image of FIG.

以上の実施例1の説明においては、水平方向の高解像度化を例に挙げて説明したが、本発明の各実施の態様は、これに限定されるわけではなく、垂直方向や斜め方向の高解像度化に適用することが可能である。   In the above description of the first embodiment, the description has been given by taking the high resolution in the horizontal direction as an example. However, the embodiments of the present invention are not limited to this, and the vertical and oblique height increases. It can be applied to resolution.

以上説明した実施例1に係る画像信号処理装置によれば、従来例よりも少ない2枚の入力画像フレームの各画像信号に対して位相シフトを行い、各画像信号からそれぞれ2つの信号を生成する。これにより、2枚の入力画像フレームの画像信号から4つの信号を生成することができる。ここで、2枚の入力画像フレームの位相差に基づいて、当該4つの信号の各信号について、当該4つの信号の折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成する画像のそれぞれの画素について、上記4つの信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。これを生成画像の各画素について行うことにより、新たな高解像度画像を生成することができる。   According to the image signal processing apparatus according to the first embodiment described above, phase shift is performed on each image signal of two input image frames, which is smaller than in the conventional example, and two signals are generated from each image signal. . Thereby, four signals can be generated from the image signals of the two input image frames. Here, based on the phase difference between the two input image frames, for each of the four signals, a coefficient for canceling and combining the aliasing components of the four signals is calculated for each pixel. For each pixel of the image to be generated, a sum is calculated by multiplying the pixel value of the corresponding pixel included in each of the four signals by each coefficient to generate a pixel value of a new high-resolution image. By performing this for each pixel of the generated image, a new high-resolution image can be generated.

これにより、実施例1に係る画像信号処理装置は、従来例よりも少ない2枚の入力画像フレームを用いて、折り返し成分が少なく、入力画像より高解像度な画像を生成することができる。   Thereby, the image signal processing apparatus according to the first embodiment can generate an image with less aliasing components and higher resolution than the input image by using two input image frames that are smaller than those in the conventional example.

また、実施例1に係る画像信号処理装置は、従来例よりも少ない2枚の入力画像フレームを用いるため、必要な画像処理の量を従来例より低減できる。これにより、折り返し成分が少なく、入力画像より高解像度な画像を生成する画像信号処理装置を、従来例よりも低コストに実現することが可能である。   In addition, since the image signal processing apparatus according to the first embodiment uses two input image frames that are fewer than the conventional example, the amount of necessary image processing can be reduced as compared with the conventional example. As a result, an image signal processing apparatus that generates an image with less aliasing components and higher resolution than the input image can be realized at a lower cost than the conventional example.

次に、図18及び図14を用いて、本発明の実施例2について説明する。   Next, Embodiment 2 of the present invention will be described with reference to FIGS.

実施例2は、実施例1に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。   The second embodiment relates to an image signal processing method in which processing equivalent to the image signal processing in the image signal processing apparatus according to the first embodiment is realized by a control unit that cooperates with software.

まず、図18を用いて本実施例に係る画像信号処理方法を実現するための画像処理装置について説明する。図18に示す画像信号処理装置は、例えばテレビジョン放送信号などの画像信号が入力される入力部(1)と、入力部(1)から入力された信号を処理するためのソフトウェアを記憶する記憶部(11)と、記憶部(11)に記憶されるソフトウェアと協働して入力部(1)から入力された信号について画像信号処理を行う制御部(10)と、制御部(10)が当該画像信号処理においてデータのバッファに用いるフレームバッファ#1(21)、フレームバッファ#2(22)と、制御部(10)から出力部(3)に出力される画像信号処理後の信号を、フレームバッファするためのバッファ#3(23)とを備える。   First, an image processing apparatus for realizing the image signal processing method according to the present embodiment will be described with reference to FIG. The image signal processing apparatus shown in FIG. 18 stores, for example, an input unit (1) to which an image signal such as a television broadcast signal is input, and software for processing the signal input from the input unit (1). A control unit (10) that performs image signal processing on a signal input from the input unit (1) in cooperation with software stored in the unit (11), the storage unit (11), and a control unit (10) Frame buffer # 1 (21) used for data buffer in the image signal processing, frame buffer # 2 (22), and the signal after image signal processing output from the control unit (10) to the output unit (3), And buffer # 3 (23) for frame buffering.

ここで、図18に示す画像信号処理装置が備える入力部(1)の数は、画像処理に用いるフレーム数である2と同じとしたが、入力部(1)を一つだけ備えて、2つフレームを連続して入力しても構わない。   Here, the number of input units (1) included in the image signal processing apparatus shown in FIG. 18 is the same as two, which is the number of frames used for image processing, but only one input unit (1) is provided. One frame may be input continuously.

また、データのバッファに用いるフレームバッファ#1(21)、フレームバッファ#2(22)、およびソフトウェアを記憶する記憶部(11)は、それぞれが個別のメモリチップを用いて構成してもよいし、1個あるいは複数個のメモリチップを用い、各データアドレスを分割して使用する構成にしてもよい。   In addition, the frame buffer # 1 (21), the frame buffer # 2 (22), and the storage unit (11) for storing software used for the data buffer may each be configured using individual memory chips. Alternatively, one or a plurality of memory chips may be used and each data address may be divided and used.

本実施例において、入力部(1)から入力される画像信号について、制御部(10)が記憶部(11)に記憶されるソフトウェアと協働して画像信号処理を行い、表示部(3)に出力する。当該画像信号処理の詳細は図14を用いて説明する。   In this embodiment, for the image signal input from the input unit (1), the control unit (10) performs image signal processing in cooperation with software stored in the storage unit (11), and the display unit (3) Output to. Details of the image signal processing will be described with reference to FIG.

図14に、本実施例に係る画像信号処理方法のフローチャートの一例を示す。図14のフローチャートは、ステップ(1401)から開始し、ステップ(1418)にて各フレームの画像データを2倍にアップレートする。すなわち、ステップ(1402)にてフレーム#1の画像データをアップレートしてフレームバッファ#1に書込み、ステップ(1403)にてフレーム#2の画像データをアップレートしてフレームバッファ#2に書き込む。ここで、アップレートとは、各フレームバッファの値を一旦0でクリアしたのちに、1画素おきにデータを書き込むことにより実現できる。   FIG. 14 shows an example of a flowchart of the image signal processing method according to the present embodiment. The flowchart of FIG. 14 starts from step (1401), and in step (1418), the image data of each frame is doubled. That is, in step (1402), the image data of frame # 1 is updated and written to frame buffer # 1, and in step (1403), the image data of frame # 2 is updated and written to frame buffer # 2. Here, the up-rate can be realized by clearing the value of each frame buffer to 0 and then writing the data every other pixel.

次に、ステップ(1404)にて、フレームバッファ#1の最初の画素(例えば左上の画素)を処理対象に設定して、以下、フレームバッファ#1に対するすべての画素データの処理が終わるまで、処理をループする。   Next, in step (1404), the first pixel (for example, the upper left pixel) of frame buffer # 1 is set as a processing target, and processing is performed until all pixel data processing for frame buffer # 1 is completed. Loop.

ステップ(1405)では、フレームバッファ#1の対象画素を基準にしてフレームバッファ#2の中の対応する画素の位置を推定し、位相差θを出力する。このとき、対応する画素の位置を推定する方法として、上記の従来技術をそのまま用いることができる。   In step (1405), the position of the corresponding pixel in the frame buffer # 2 is estimated with reference to the target pixel in the frame buffer # 1, and the phase difference θ is output. At this time, the above-described conventional technique can be used as it is as a method of estimating the position of the corresponding pixel.

ステップ(1406)では、ステップ(1405)で求めた位相差θをもとに、フレームバッファ#2の中の対応する画素の近傍の画素を動き補償する。このとき、近傍の画素として、ステップ(1408)のπ/2位相シフトの処理で用いる画素データ、すなわち有限のタップ数が作用する範囲の画素データだけを動き補償すればよい。この動き補償の動作は、図5および図6を用いて説明した動作と同一である。   In step (1406), based on the phase difference θ obtained in step (1405), motion compensation is performed on pixels near the corresponding pixel in frame buffer # 2. At this time, only the pixel data used in the π / 2 phase shift processing in step (1408), that is, pixel data in a range where a finite number of taps acts, need to be motion-compensated as neighboring pixels. The motion compensation operation is the same as the operation described with reference to FIGS.

続いて、ステップ(1419)にて、フレームバッファ#1と動き補償したフレームバッファ#2に対して、位相を一定量だけシフトする。すなわち、ステップ(1407)(1408)により、各フレームバッファの中の画素データをπ/2位相シフトする。   Subsequently, in step (1419), the phase is shifted by a certain amount with respect to the frame buffer # 1 and the motion compensated frame buffer # 2. That is, in steps (1407) and (1408), the pixel data in each frame buffer is phase-shifted by π / 2.

続いて、ステップ(1420)にて、位相差θに基づいて図9(a)(b)(c)の条件を満たすように設定した係数C0、C1、C2、C3を用いて、ステップ(1419)の出力データそれぞれに乗算し、これらを加算をすることにより、フレームバッファ#1、#2の画素データから折返し成分を除去し、フレームバッファ#3に出力する。すなわち、ステップ(1409)にて、位相差θをもとに係数C0、C1、C2、C3を決定し、ステップ(1410)(1411)(1412)(1413)にて各係数とフレームバッファ#1、#2の画素データおよびπ/2位相シフト後のデータとそれぞれ乗算したのち、ステップ(1414)にてすべてを加算して、フレームバッファ#3に出力する。この折返し成分除去の動作は、図9を用いて説明した動作と同一である。   Subsequently, in step (1420), the coefficients C0, C1, C2, and C3 set so as to satisfy the conditions of FIGS. 9A, 9B, and 9C based on the phase difference θ are used. ) Are multiplied and added to each other, thereby removing the aliasing component from the pixel data of the frame buffers # 1 and # 2, and outputting the result to the frame buffer # 3. That is, in step (1409), coefficients C0, C1, C2, and C3 are determined based on the phase difference θ, and each coefficient and frame buffer # 1 are determined in steps (1410), (1411), (1412), and (1413). , The pixel data of # 2 and the data after the π / 2 phase shift are respectively multiplied, and then all are added in step (1414) and output to frame buffer # 3. The operation for removing the aliasing component is the same as that described with reference to FIG.

続いて、ステップ(1415)にて、フレームバッファ#1の全画素の処理が完了したかどうかを判定し、完了していなければ、ステップ(1416)で次の画素(例えば右隣の画素)を処理の対象に設定してステップ(1405)以降に戻り、完了していればステップ(1417)にて処理を終了する。   Subsequently, in step (1415), it is determined whether or not the processing of all the pixels in the frame buffer # 1 has been completed.If the processing has not been completed, the next pixel (for example, the right adjacent pixel) is determined in step (1416). The process is set as a process target and the process returns to step (1405) and the subsequent steps. If completed, the process ends at step (1417).

図14に示すフローチャートの画像信号処理後に、図18に示すフレームバッファ#3にバッファされた信号は、フレーム単位若しくは画素単位にて表示部(3)に出力することができる。   After the image signal processing of the flowchart shown in FIG. 14, the signal buffered in the frame buffer # 3 shown in FIG. 18 can be output to the display unit (3) in frame units or pixel units.

以上のような処理を行うことにより、フレームバッファ#1とフレームバッファ#2の画素データを用いて、フレームバッファ#3に高解像度化した信号を出力することができる。動画に応用する場合は、ステップ(1401)からステップ(1417)に至る処理を、フレームごとに繰り返せばよい。   By performing the processing as described above, it is possible to output a high resolution signal to the frame buffer # 3 using the pixel data of the frame buffer # 1 and the frame buffer # 2. When applied to a moving image, the process from step (1401) to step (1417) may be repeated for each frame.

なお、実施例2に係る画像信号処理方法についても、図17の説明と同様に、上記従来技術の動作の相違を確認することができるが、その結果は実施例1と同様であるので、説明を省略する。   As for the image signal processing method according to the second embodiment, as in the description of FIG. 17, the difference in the operation of the above prior art can be confirmed. Is omitted.

以上説明した実施例2に係る画像信号処理方法によれば、従来例よりも少ない2枚の入力画像フレームの各画像信号に対して位相シフトを行い、各画像信号からそれぞれ2つの信号を生成する。これにより、2枚の入力画像フレームの画像信号から4つの信号を生成することができる。ここで、2枚の入力画像フレームの位相差に基づいて、当該4つの信号の各信号について、当該4つの信号の折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成する画像のそれぞれの画素について、上記4つの信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。これを生成画像の各画素について行うことにより、新たな高解像度画像を生成することができる。   According to the image signal processing method according to the second embodiment described above, phase shift is performed on each image signal of two input image frames, which is smaller than in the conventional example, and two signals are generated from each image signal. . Thereby, four signals can be generated from the image signals of the two input image frames. Here, based on the phase difference between the two input image frames, for each of the four signals, a coefficient for canceling and combining the aliasing components of the four signals is calculated for each pixel. For each pixel of the image to be generated, a sum is calculated by multiplying the pixel value of the corresponding pixel included in each of the four signals by each coefficient to generate a pixel value of a new high-resolution image. By performing this for each pixel of the generated image, a new high-resolution image can be generated.

これにより、実施例2に係る画像信号処理方法は、従来例よりも少ない2枚の入力画像フレームを用いて、折り返し成分が少なく、入力画像より高解像度な画像を生成することができる。   As a result, the image signal processing method according to the second embodiment can generate an image with less aliasing components and higher resolution than the input image using two input image frames that are fewer than those in the conventional example.

また、実施例2に係る画像信号処理方法は、従来例よりも少ない2枚の入力画像フレームを用いるため、必要な画像処理の量を従来例より低減できるという効果がある。   In addition, since the image signal processing method according to the second embodiment uses two smaller input image frames than the conventional example, the amount of necessary image processing can be reduced compared to the conventional example.

図10に、本発明の実施例3を示す。同図に示した構成は、図9(c)に示した係数C0、C1、C2、C3の関係を利用して、図1に示した構成を簡略化したものである。すなわち、C0=C2=1/2であり、C1=-C3=-(1+cosθ)/(2sinθ)であることから、アップレート後のフレーム#1と動き補償・アップレート後のフレーム#2の各信号から、加算器(1001)と減算器(1004)により和と差の信号を生成する。和信号については、fs遮断フィルタ(1002)を介したのちに、乗算器(1003)にてC0(=0.5)を掛けて加算器(1008)に入力する。ここで、fs遮断フィルタ(1002)は、アップレート前のサンプリング周波数(fs)の成分を零点として遮断するフィルタであり、例えば同図の(1011)に示すタップ係数を用いることにより実現できる。このfs遮断フィルタ(1002)は、図7(a)に示したようにヒルベルト変換器(1005)の「周波数-利得」特性にて周波数fsの利得が零点になるために折返し成分を除去できず、周波数fsの不要成分が残留してしまうことを防ぐのが目的である。従って、周波数fsの成分も含めてπ/2位相シフトできる手段をヒルベルト変換器(1005)の替わりに用いれば、このfs遮断フィルタ(1002)は不要になる。   FIG. 10 shows a third embodiment of the present invention. The configuration shown in the figure is a simplified version of the configuration shown in FIG. 1 by utilizing the relationship between the coefficients C0, C1, C2, and C3 shown in FIG. 9C. That is, since C0 = C2 = 1/2 and C1 = -C3 =-(1 + cosθ) / (2sinθ), frame # 1 after the up-rate and frame # 2 after the motion compensation / up-rate From these signals, an adder (1001) and a subtracter (1004) generate sum and difference signals. The sum signal passes through the fs cutoff filter (1002), is then multiplied by C0 (= 0.5) by the multiplier (1003), and is input to the adder (1008). Here, the fs cutoff filter (1002) is a filter that cuts off the component of the sampling frequency (fs) before the up-rate as a zero point, and can be realized by using, for example, a tap coefficient indicated by (1011) in FIG. This fs cutoff filter (1002) cannot remove the aliasing component because the gain of the frequency fs is zero due to the `` frequency-gain '' characteristic of the Hilbert transformer (1005) as shown in FIG. The purpose is to prevent an unnecessary component having a frequency fs from remaining. Therefore, if a means capable of π / 2 phase shift including the frequency fs component is used instead of the Hilbert transformer (1005), the fs cutoff filter (1002) becomes unnecessary.

一方、差信号については、ヒルベルト変換器(1005)にて位相を一定量(=π/2)だけシフトしたのちに、係数決定器(1007)にて位相差(102)に基づいて決定した係数C1を乗算器(1006)で乗算し、加算器(1008)にて加算して出力を得る。ここで、遅延器(1002)とヒルベルト変換器(1005)から成る位相シフト部(1009)は、図1に示した位相シフト部(116)の半分の回路規模で実現できる。また、係数決定器(1007)は図9(c)に示した係数C1だけを出力すればよく、加算器(1001)、減算器(1004)、乗算器(1003)(1006)、加算器(1008)、係数決定器(1007)から成る折返し成分除去部(1010)は乗算器の個数を減らすことができるため、図1に示した折返し成分除去部(117)よりも小さい回路規模で実現できる。   On the other hand, for the difference signal, the coefficient determined by the coefficient determiner (1007) based on the phase difference (102) after shifting the phase by a certain amount (= π / 2) by the Hilbert transformer (1005) C1 is multiplied by a multiplier (1006) and added by an adder (1008) to obtain an output. Here, the phase shift unit (1009) including the delay unit (1002) and the Hilbert transformer (1005) can be realized with a circuit scale that is half that of the phase shift unit (116) shown in FIG. The coefficient determiner (1007) only needs to output the coefficient C1 shown in FIG. 9 (c). The adder (1001), the subtracter (1004), the multipliers (1003) (1006), the adder ( 1008) and the aliasing component removal unit (1010) including the coefficient determiner (1007) can reduce the number of multipliers, and thus can be realized with a smaller circuit scale than the aliasing component removal unit (117) shown in FIG. .

なお、実施例3に係る画像信号処理方法についても、図17の説明と同様に、上記従来技術の動作の相違を確認することができるが、その結果は実施例1と同様であるので、説明を省略する。   As for the image signal processing method according to the third embodiment, as in the description of FIG. 17, the difference in the operation of the above prior art can be confirmed. Is omitted.

また、実施例3に係る画像信号処理装置及び画像信号処理方法についても、垂直方向や斜め方向の高解像度化に適用することが可能である。   The image signal processing apparatus and the image signal processing method according to the third embodiment can also be applied to increase the resolution in the vertical direction and the oblique direction.

以上説明した実施例3に係る画像信号処理装置は、実施例1に係る画像信号処理装置の効果に加えて、実施例1に係る画像信号処理装置よりも小さい回路規模で実現でき、より低コストに実現することが可能である。   In addition to the effects of the image signal processing apparatus according to the first embodiment, the image signal processing apparatus according to the third embodiment described above can be realized with a smaller circuit scale than the image signal processing apparatus according to the first embodiment, and can be realized at a lower cost. Can be realized.

図15を用いて本発明の実施例4に係る画像信号処理方法について説明する。   An image signal processing method according to the fourth embodiment of the present invention will be described with reference to FIG.

実施例4は、実施例3に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。本実施例の画像信号処理方法を行う画像処理装置は実施例2と同様の図18に示す画像処理装置であるので説明を省略する。   The fourth embodiment relates to an image signal processing method in which processing equivalent to image signal processing in the image signal processing apparatus according to the third embodiment is realized by a control unit that cooperates with software. The image processing apparatus that performs the image signal processing method of the present embodiment is the image processing apparatus shown in FIG.

図15に、本実施例の動作のフローチャートの一例を示す。図15のフローチャートは、ステップ(1501)から開始し、ステップ(1518)にて各フレームの画像データをアップレートする。すなわち、ステップ(1502)にてフレーム#1の画像データをアップレートしてフレームバッファ#1に書込み、ステップ(1503)にてフレーム#2の画像データをアップレートしてフレームバッファ#2に書き込む。ここで、アップレートとは、各フレームバッファの値を一旦0でクリアしたのちに、1画素おきにデータを書き込むことにより実現できる。   FIG. 15 shows an example of a flowchart of the operation of the present embodiment. The flowchart of FIG. 15 starts from step (1501), and in step (1518), the image data of each frame is updated. That is, in step (1502), the image data of frame # 1 is updated and written to frame buffer # 1, and in step (1503), the image data of frame # 2 is updated and written to frame buffer # 2. Here, the up-rate can be realized by clearing the value of each frame buffer to 0 and then writing the data every other pixel.

次に、ステップ(1504)にて、フレームバッファ#1の最初の画素(例えば左上の画素)を処理対象に設定して、以下、フレームバッファ#1のすべての画素データの処理が終わるまで、処理をループする。   Next, in step (1504), the first pixel (for example, the upper left pixel) of frame buffer # 1 is set as the processing target, and processing is performed until all pixel data in frame buffer # 1 is processed. Loop.

ステップ(1505)では、フレームバッファ#1の対象画素を基準にしてフレームバッファ#2の中の対応する画素の位置を推定し、位相差θを出力する。このとき、対応する画素の位置を推定する方法として、上記の従来技術をそのまま用いることができる。   In step (1505), the position of the corresponding pixel in the frame buffer # 2 is estimated with reference to the target pixel in the frame buffer # 1, and the phase difference θ is output. At this time, the above-described conventional technique can be used as it is as a method of estimating the position of the corresponding pixel.

ステップ(1506)では、ステップ(1505)で求めた位相差θをもとに、フレームバッファ#2の中の対応する画素の近傍の画素を動き補償する。このとき、「近傍の画素」として、ステップ(1510)のヒルベルト変換の処理で用いる画素データ、すなわち有限のタップ数が作用する範囲の画素データだけを動き補償すればよい。この動き補償の動作は、図5および図6を用いて説明した動作と同一である。   In step (1506), based on the phase difference θ obtained in step (1505), pixels near the corresponding pixel in the frame buffer # 2 are motion compensated. At this time, as the “neighboring pixels”, only the pixel data used in the Hilbert transform processing in step (1510), that is, the pixel data in the range where the finite number of taps acts is compensated for motion. The motion compensation operation is the same as the operation described with reference to FIGS.

続いて、ステップ(1520)にて、位相差θに基づいてフレームバッファ#1、#2の画素データから折返し成分を除去し、フレームバッファ#3に出力する。まず、ステップ(1507)にて、フレームバッファ#1の画素データの値と動き補償したフレームバッファ#2の画素データの値を加算し、ステップ(1509)にて周波数fsの成分を遮断する。このfs遮断フィルタ(1509)の動作は、図10に示した(1002)の動作と同一である。   Subsequently, in step (1520), the aliasing component is removed from the pixel data of the frame buffers # 1 and # 2 based on the phase difference θ and output to the frame buffer # 3. First, in step (1507), the value of pixel data in frame buffer # 1 and the value of pixel data in frame buffer # 2 subjected to motion compensation are added. In step (1509), the frequency fs component is cut off. The operation of this fs cutoff filter (1509) is the same as the operation of (1002) shown in FIG.

また、ステップ(1508)にて、フレームバッファ#1の画素データの値から動き補償したフレームバッファ#2の画素データの値を減算する。ここで、減算した結果に対して、ステップ(1519)にて位相を一定量だけシフトする。すなわち、同様に減算した近傍のデータも用いて、ステップ(1510)にてヒルベルト変換する。この位相シフトの動作は、図7および図8を用いて説明した動作と同一である。   In step (1508), the pixel data value of the frame buffer # 2 subjected to motion compensation is subtracted from the pixel data value of the frame buffer # 1. Here, with respect to the subtraction result, the phase is shifted by a certain amount in step (1519). That is, the Hilbert transform is performed in step (1510) using the neighboring data similarly subtracted. The phase shift operation is the same as the operation described with reference to FIGS.

続いて、ステップ(1511)にて上記加算後のデータに係数C0(=0.5)を乗算するとともに、ステップ(1512)にて位相差θをもとに係数C1を決定し、ステップ(1513)にて係数C1とヒルベルト変換後のデータを乗算したのち、ステップ(1514)にて両者のデータを加算して、フレームバッファ#3に出力する。この折返し成分除去の動作は、図10を用いて説明した動作と同一である。   Subsequently, in step (1511), the data after the addition is multiplied by a coefficient C0 (= 0.5), and in step (1512), a coefficient C1 is determined based on the phase difference θ, and then in step (1513). After multiplying the coefficient C1 by the Hilbert transformed data, the two data are added in step (1514) and output to the frame buffer # 3. The operation of removing the aliasing component is the same as that described with reference to FIG.

続いて、ステップ(1515)にて、フレームバッファ#1の全画素の処理が完了したかどうかを判定し、完了していなければ、ステップ(1516)で次の画素(例えば右隣の画素)を処理の対象に設定してステップ(1505)以降に戻り、完了していればステップ(1517)にて処理を終了する。   Subsequently, in step (1515), it is determined whether or not the processing of all the pixels in the frame buffer # 1 has been completed.If the processing has not been completed, the next pixel (for example, the right adjacent pixel) is determined in step (1516). The process is set as a process target, and the process returns to step (1505) and subsequent steps. If completed, the process ends at step (1517).

図15に示すフローチャートの画像信号処理後に、図18に示すフレームバッファ#3にバッファされた信号は、フレーム単位若しくは画素単位にて表示部(3)に出力することができる。   After the image signal processing of the flowchart shown in FIG. 15, the signal buffered in the frame buffer # 3 shown in FIG. 18 can be output to the display unit (3) in frame units or pixel units.

以上のような処理を行うことにより、フレームバッファ#1とフレームバッファ#2の画素データを用いて、フレームバッファ#3に高解像度化した信号を出力することができる。動画に応用する場合は、ステップ(1501)からステップ(1517)に至る処理を、フレームごとに繰り返せばよい。   By performing the processing as described above, it is possible to output a high resolution signal to the frame buffer # 3 using the pixel data of the frame buffer # 1 and the frame buffer # 2. When applied to a moving image, the process from step (1501) to step (1517) may be repeated for each frame.

なお、実施例4に係る画像信号処理方法についても、図17を用いて、上記従来技術の動作の相違を確認することができるが、その結果は実施例1と同様であるので、説明を省略する。   The image signal processing method according to the fourth embodiment can also be confirmed by using FIG. 17 to confirm the difference in operation of the above prior art, but the result is the same as that of the first embodiment, and the description thereof is omitted. To do.

また、実施例4に係る画像信号処理方法についても、垂直方向や斜め方向の高解像度化に適用することが可能である。   The image signal processing method according to the fourth embodiment can also be applied to increase the resolution in the vertical direction and the oblique direction.

以上説明した実施例4に係る画像信号処理方法は、実施例2に係る画像信号処理方法と同様の画像信号高解像度化の効果を有する。さらに実施例4に係る画像信号処理方法は、実施例2に係る画像信号処理方法に比べて一部の処理ステップの内容を共通化することにより、実施例2に係る画像信号処理方法よりも少ない処理量(演算数)で同様の信号処理を実現することが可能であるという効果を有する。   The image signal processing method according to the fourth embodiment described above has the same effect of increasing the resolution of the image signal as the image signal processing method according to the second embodiment. Furthermore, the image signal processing method according to the fourth embodiment is less than the image signal processing method according to the second embodiment by sharing the contents of some processing steps as compared with the image signal processing method according to the second embodiment. There is an effect that it is possible to realize the same signal processing with a processing amount (the number of operations).

図11に、本発明の実施例5を示す。同図に示す構成は、図9(d)に示したように位相差θが0のときに係数C1、C3が不定になることや、位相差θが0に近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になることを防ぐために、図10に示した構成をベースとして、位相差θが0近傍になったときに補助的画素補間部(1105)からの出力に切り替えるように構成したものである。すなわち、一般的な補間ローパスフィルタ(1101)をバイパス経路として用意し、係数決定器(1103)にて上述した係数C0、C1のほかに新たにC4を生成して、乗算器(1102)にて補間ローパスフィルタ(1101)の出力と係数C4を乗算し、加算器(1104)で高解像度化した信号に加えて出力する。   FIG. 11 shows a fifth embodiment of the present invention. In the configuration shown in FIG. 9, the coefficients C1 and C3 become indefinite when the phase difference θ is 0 as shown in FIG. 9D, and the coefficients C1 and C3 increase as the phase difference θ approaches 0. Therefore, based on the configuration shown in FIG. 10, when the phase difference θ becomes close to 0, the output from the auxiliary pixel interpolation unit (1105) is switched. It is composed. In other words, a general interpolation low-pass filter (1101) is prepared as a bypass path, and in addition to the above-described coefficients C0 and C1 in the coefficient determiner (1103), C4 is newly generated, and the multiplier (1102) The output of the interpolation low-pass filter (1101) is multiplied by the coefficient C4, and the result is output in addition to the signal whose resolution has been increased by the adder (1104).

補間ローパスフィルタ(1101)、乗算器(1102)、係数決定器(1103)、加算器(1104)、補助的画素補間部(1105)以外の構成は、図10に示した実施例3の構成と同一であるため説明を省略する。   The configuration other than the interpolation low-pass filter (1101), multiplier (1102), coefficient determiner (1103), adder (1104), and auxiliary pixel interpolation unit (1105) is the same as that of the third embodiment shown in FIG. Since it is the same, description is abbreviate | omitted.

図12に、本発明の実施例5に用いる補間ローパスフィルタ(1101)の具体例を示す。同図は、もとのサンプリング周波数fsの1/2をカットオフ周波数とする周波数特性を逆フーリエ変換して得られるフィルタのタップ係数を示している。このとき、各タップ係数Ck(ただし、kは整数)は一般的なsinc関数となり、Ck=sin(πk/2)/(πk/2)とすればよい。   FIG. 12 shows a specific example of the interpolation low-pass filter (1101) used in the fifth embodiment of the present invention. This figure shows the tap coefficient of the filter obtained by inverse Fourier transform of the frequency characteristic with the cutoff frequency being 1/2 of the original sampling frequency fs. At this time, each tap coefficient Ck (where k is an integer) becomes a general sinc function, and may be Ck = sin (πk / 2) / (πk / 2).

図13に、本発明の実施例5に用いる係数決定器(1103)の具体例を示す。同図は、図9(d)に示した係数C0、C1をベースとし、通常は新たな係数C4を0としているが、位相差θが0近傍になったときに、係数C1の値を強制的に0にするとともに、係数C4の値を1.0とする動作を示している。この動作により、図11に示す構成において、位相差θ(102)が0あるいは0近傍になったときに、加算器(1104)の出力を自動的に補間ローパスフィルタ(1101)の出力に切替えることができるようになる。なお、位相差θが0に近づくとともに、図12に示した係数から図13に示した係数に連続的に徐々に近づけるようにしてもよい。また、図1における位置推定部(101)にて、フレーム#1上の処理対象の画素に対応した画素がフレーム#2上にないと判定された場合も、位相差θ(102)が0近傍になったときと同様に各係数を制御して、加算器(1104)の出力を自動的に補間ローパスフィルタ(1101)の出力に切替えてもよい。   FIG. 13 shows a specific example of the coefficient determiner (1103) used in the fifth embodiment of the present invention. This figure is based on the coefficients C0 and C1 shown in Fig. 9 (d), and normally the new coefficient C4 is 0, but when the phase difference θ is close to 0, the value of the coefficient C1 is forced. The operation of setting the coefficient C4 to 1.0 and setting the coefficient C4 to 1.0 is shown. This operation automatically switches the output of the adder (1104) to the output of the interpolation low-pass filter (1101) when the phase difference θ (102) becomes 0 or close to 0 in the configuration shown in FIG. Will be able to. Note that, as the phase difference θ approaches 0, the coefficient shown in FIG. 12 may be gradually and gradually approximated to the coefficient shown in FIG. Also, when the position estimation unit (101) in FIG. 1 determines that the pixel corresponding to the pixel to be processed on the frame # 1 is not on the frame # 2, the phase difference θ (102) is close to zero. As in the case of the above, each coefficient may be controlled to automatically switch the output of the adder (1104) to the output of the interpolation low-pass filter (1101).

なお、実施例5に係る画像信号処理装置についても、図17を用いて、上記従来技術の動作の相違を確認することができるが、その結果は実施例1と同様であるので、説明を省略する。   Note that the image signal processing apparatus according to the fifth embodiment can also confirm the difference in operation of the above-described conventional technique with reference to FIG. 17, but the result is the same as that of the first embodiment, and thus the description thereof is omitted. To do.

また、実施例5に係る画像信号処理装置についても、垂直方向や斜め方向の高解像度化に適用することが可能である。   The image signal processing apparatus according to the fifth embodiment can also be applied to increase the resolution in the vertical direction and the oblique direction.

以上説明した実施例5に係る画像信号処理装置は、実施例3に係る画像信号処理装置の効果に加えて、実施例3に係る画像信号処理装置よりも、位相差θ(102)が0あるいは0近傍になったとき(すなわち静止、あるいはほぼ静止)やフレーム#1上の処理対象の画素に対応した画素がフレーム#2上にないと判定された場合にも処理結果が不定になることなく、安定した出力画像を得ることが可能であるという効果を有する。   In addition to the effects of the image signal processing device according to the third embodiment, the image signal processing device according to the fifth embodiment described above has a phase difference θ (102) of 0 or 0 as compared with the image signal processing device according to the third embodiment. The processing result will not be undefined even when it is close to 0 (i.e., still or almost stationary) or when it is determined that the pixel corresponding to the pixel to be processed on frame # 1 is not on frame # 2. This has the effect that a stable output image can be obtained.

図16を用いて本発明の実施例6に係る画像信号処理方法について説明する。   An image signal processing method according to the sixth embodiment of the present invention will be described with reference to FIG.

実施例6は、実施例5に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。本実施例の画像信号処理方法を行う画像処理装置は実施例2と同様の図18に示す画像処理装置であるので説明を省略する。   Example 6 relates to an image signal processing method in which processing equivalent to image signal processing in the image signal processing apparatus according to Example 5 is realized by a control unit that cooperates with software. The image processing apparatus that performs the image signal processing method of the present embodiment is the image processing apparatus shown in FIG.

図16に、本実施例の動作のフローチャートの一例を示す。同図に示した処理ステップの動作は、図9(d)に示したように位相差θが0のときに係数C1、C3が不定になることや、位相差θが0に近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になることを防ぐために、実施例4において説明した図15の各ステップをベースとして、位相差θが0あるいは0近傍になったときにステップ(1606)の処理結果をフレームバッファ#3に出力するように構成したものである。すなわち、ステップ(1601)にて位相差θをもとに係数C0、C1、C4を決定し、ステップ(1602)にてフレームバッファ#1の中の対象の画素データとその近傍の画素データを用いて一般的な補間ローパスフィルタ処理を行ったのちに、ステップ(1603)にて係数C4を乗算して、ステップ(1604)にてステップ(1511)(1513)の出力と加算してフレームバッファ#3に出力する。   FIG. 16 shows an example of a flowchart of the operation of the present embodiment. As shown in FIG. 9 (d), the processing steps shown in FIG. 9 are performed when the coefficients C1 and C3 become indefinite when the phase difference θ is 0, and as the phase difference θ approaches 0, the coefficient C1 In order to prevent the noise from being weakened by increasing C3, the step (1606) is performed when the phase difference θ becomes 0 or near 0 based on the steps of FIG. 15 described in the fourth embodiment. This processing result is output to the frame buffer # 3. That is, coefficients C0, C1, and C4 are determined based on the phase difference θ in step (1601), and the target pixel data in frame buffer # 1 and its neighboring pixel data are used in step (1602). After performing general interpolation low-pass filter processing, the coefficient C4 is multiplied in step (1603), and the result is added to the outputs of steps (1511) and (1513) in step (1604) to obtain frame buffer # 3. Output to.

これら以外のステップは、実施例4において説明した図15の処理ステップと同一であるため、説明を省略する。なお、ステップ(1601)での係数決定の動作は、図13に示した動作と同一であるため、説明を省略する。また、ステップ(1602)での補間ローパスフィルタの動作は、図12に示した動作と同一であるため、説明を省略する。   Steps other than these are the same as the processing steps of FIG. 15 described in the fourth embodiment, and a description thereof will be omitted. The coefficient determination operation in step (1601) is the same as the operation shown in FIG. The operation of the interpolation low-pass filter in step (1602) is the same as that shown in FIG.

なお、実施例6に係る画像信号処理方法についても、図17を用いて、上記従来技術の動作の相違を確認することができるが、その結果は実施例1と同様であるので、説明を省略する。   Note that the image signal processing method according to the sixth embodiment can also be confirmed by using FIG. 17 to confirm the difference in operation of the above-described conventional technique, but the result is the same as that of the first embodiment, and thus the description thereof is omitted. To do.

なお、実施例6に係る画像信号処理方法についても、垂直方向や斜め方向の高解像度化に適用することが可能である。   Note that the image signal processing method according to the sixth embodiment can also be applied to increase the resolution in the vertical and oblique directions.

以上説明した実施例6に係る画像信号処理方法は、実施例4に係る画像信号処理方法の効果に加えて、実施例4に係る画像処理方法よりも、位相差θ(102)が0あるいは0近傍になったとき(すなわち静止、あるいはほぼ静止)やフレーム#1上の処理対象の画素に対応した画素がフレーム#2上にないと判定された場合にも処理結果が不定になることなく、安定した出力画像を得ることが可能であるという効果を有する。   In the image signal processing method according to the sixth embodiment described above, in addition to the effect of the image signal processing method according to the fourth embodiment, the phase difference θ (102) is 0 or 0 as compared with the image processing method according to the fourth embodiment. Even when it is determined that the pixel corresponding to the pixel to be processed on frame # 1 is not on frame # 2 when it is close (i.e., still or almost still), the processing result is not uncertain, This has the effect that a stable output image can be obtained.

図20に、本発明の実施例7に係る画像信号処理装置を示す。本実施例に係る画像処理装置は、例えばテレビジョン放送信号などの動画像のフレーム列が入力される入力部(1)と、この入力部(1)から入力されたフレームを水平・垂直方向を組み合わせた2次元の高解像度化するための解像度変換部(4)と、更にこの解像度変換部(4)によって高解像度化されたフレームに基づき画像を表示する表示部(3)とを備えている。   FIG. 20 shows an image signal processing apparatus according to Embodiment 7 of the present invention. The image processing apparatus according to the present embodiment includes, for example, an input unit (1) to which a frame sequence of a moving image such as a television broadcast signal is input, and a frame input from the input unit (1) in the horizontal and vertical directions. A resolution conversion unit (4) for increasing the combined two-dimensional resolution and a display unit (3) for displaying an image based on the frame whose resolution has been increased by the resolution conversion unit (4) are provided. .

この解像度変換部(4)では、水平方向および垂直方向のそれぞれに解像度変換処理を行い、それぞれの結果のうち解像度向上効果が大きい成分を選択的に、もしくは混合させて出力することにより、2次元の高解像度化を実現する。以下、解像度変換部(4)の詳細について説明する。   In this resolution conversion unit (4), by performing resolution conversion processing in each of the horizontal direction and the vertical direction, a component having a large resolution improvement effect is selectively or mixedly output from each result, thereby two-dimensionally. Realize higher resolution. Details of the resolution conversion unit (4) will be described below.

図20において、入力部(1)に入力されたフレーム#1(2010)とフレーム#2(2013)をもとに、水平解像度変換部(2001)と垂直解像度変換部(2005)を用いて、水平方向の画素数を増加させたフレーム(2011)と垂直方向の画素数を増加させたフレーム(2014)をそれぞれ生成する。   In FIG. 20, based on frame # 1 (2010) and frame # 2 (2013) input to the input unit (1), a horizontal resolution conversion unit (2001) and a vertical resolution conversion unit (2005) are used. A frame (2011) with an increased number of pixels in the horizontal direction and a frame (2014) with an increased number of pixels in the vertical direction are generated.

ここで、各解像度変換部(2001)(2005)は、図1に示す本発明の実施例1に係る画像信号処理装置の解像度変換部(2)の構成をそのまま用いて、水平方向および垂直方向の信号処理をそれぞれ行う。この際、水平解像度変換部(2001)では、図1に示したアップレート器(103)(104)、遅延器(105)(107)、π/2位相シフト器(106)(108)は、それぞれ水平方向のアップレート、遅延、π/2位相シフトを行うように構成する。   Here, each resolution conversion unit (2001) (2005) uses the configuration of the resolution conversion unit (2) of the image signal processing apparatus according to the first embodiment of the present invention shown in FIG. Each signal processing is performed. At this time, in the horizontal resolution converter (2001), the up-raters (103) (104), delay units (105) (107), and π / 2 phase shifters (106) (108) shown in FIG. Each is configured to perform horizontal up-rate, delay, and π / 2 phase shift.

同様に、垂直解像度変換部(2005)では、図1に示したアップレート器(103)(104)、遅延器(105)(107)、π/2位相シフト器(106)(108)は、それぞれ垂直方向のアップレート、遅延、π/2位相シフトを行うように構成する。これらは、図5〜図8に示した動作と従来技術等とを用いて実施可能である。   Similarly, in the vertical resolution converter (2005), the up-raters (103) (104), delay units (105) (107), and π / 2 phase shifters (106) (108) shown in FIG. Each is configured to perform vertical uprate, delay, and π / 2 phase shift. These can be implemented using the operations shown in FIGS. 5 to 8 and the prior art.

なお、各解像度変換部(2001)(2005)には、本発明の実施例1に係る画像信号処理装置の解像度変換部の構成の代わりに、本発明の実施例3に係る画像信号処理装置の解像度変換部、本発明の実施例5に係る画像信号処理装置の解像度変換部を用いても実現することが可能である。以下の説明については、本発明の実施例1に係る画像信号処理装置の解像度変換部の構成を用いたものとして説明する。   Each resolution conversion unit (2001) (2005) includes, in place of the configuration of the resolution conversion unit of the image signal processing apparatus according to the first embodiment of the present invention, the image signal processing apparatus according to the third embodiment of the present invention. The present invention can also be realized by using the resolution conversion unit and the resolution conversion unit of the image signal processing apparatus according to the fifth embodiment of the present invention. The following description will be made assuming that the configuration of the resolution conversion unit of the image signal processing apparatus according to the first embodiment of the present invention is used.

本実施例では、被写体が水平・垂直方向の2次元的に移動したことを想定し、図1および図2に示した動作を2次元に拡張する。すなわち、水平解像度変換部(2001)の中の位置推定部(図1中の(101))および動き補償・アップレート部(図1中の(115))では、フレーム#1上の被写体を基準としてフレーム#2上の被写体を2次元的に動き補償するとともに、各フレームの画素のサンプリング位相差のうち、水平位相差θHを折返し成分除去部(図1中の(117))の係数決定に用いる。   In the present embodiment, assuming that the subject has moved two-dimensionally in the horizontal and vertical directions, the operations shown in FIGS. 1 and 2 are extended two-dimensionally. That is, the position estimation unit ((101) in FIG. 1) and the motion compensation / uprate unit ((115) in FIG. 1) in the horizontal resolution conversion unit (2001) use the subject on the frame # 1 as a reference. As described above, the subject on the frame # 2 is compensated for two-dimensional motion, and the horizontal phase difference θH among the sampling phase differences of the pixels of each frame is determined for the coefficient of the aliasing component removal unit ((117) in FIG. 1). Use.

同様に、垂直解像度変換部(2005)の中の位置推定部(図1中の(101))および動き補償・アップレート部(図1中の(115))では、フレーム#1上の被写体(2016)を基準としてフレーム#2上の被写体(2017)を2次元的に動き補償するとともに、各フレームの画素のサンプリング位相差のうち、垂直位相差θVを折返し成分除去部(図1中の(117))の係数決定に用いる。折返し成分除去部(図1中の(117))の係数決定は、図9に示した動作をそのまま用いればよい。   Similarly, in the position estimation unit ((101) in FIG. 1) and the motion compensation / uprate unit ((115) in FIG. 1) in the vertical resolution conversion unit (2005), the subject on frame # 1 ( 2016) as a reference, the subject (2017) on frame # 2 is two-dimensionally motion compensated, and among the sampling phase differences of the pixels of each frame, the vertical phase difference θV is the aliasing component removal unit (in FIG. Used to determine the coefficient of 117)). To determine the coefficient of the aliasing component removal unit ((117) in FIG. 1), the operation shown in FIG. 9 may be used as it is.

被写体が斜め方向に移動した場合を想定すると、水平解像度変換部(2001) によって水平方向の画素数を増加させたフレーム(2011)には斜め方向の歪が含まれることになるが、もともとの入力信号の垂直周波数が低い成分(縦線など)では、この歪が無視できる程度に小さい。同様に、垂直解像度変換部(2005) によって垂直方向の画素数を増加させたフレーム(2014)には斜め方向の歪が含まれることになるが、もともとの入力信号の水平周波数が低い成分(横線など)では、この歪が無視できる程度に小さい。   Assuming that the subject has moved in an oblique direction, the frame (2011) in which the number of pixels in the horizontal direction has been increased by the horizontal resolution converter (2001) will contain diagonal distortion, but the original input In a component with a low vertical frequency of the signal (such as a vertical line), this distortion is small enough to be ignored. Similarly, the frame (2014) in which the number of pixels in the vertical direction has been increased by the vertical resolution converter (2005) will include diagonal distortion, but the original input signal has a low horizontal frequency component (horizontal line). Etc.), this distortion is small enough to be ignored.

この特性を利用し、上記の信号処理に従って水平方向の画素数を増加させたフレーム(2011)は、垂直アップレート器(2002)および画素補間器(2003)からなる垂直補間部(2004)によりフレーム(2012)を生成し、SR(水平)信号とする。ここで画素補間器(2003)は、補間したい画素の上下の画素データの平均値を出力するような、一般的な垂直ローパスフィルタを用いればよい。同様に、垂直方向の画素数を増加させたフレーム(2014)は、水平アップレート器(2006)および画素補間器(2007)からなる水平補間部(2008)により、フレーム(2015)を生成しSR(垂直)信号とする。ここで、画素補間器(2007)は、補間したい画素の左右の画素データの平均値を出力するような、一般的な水平ローパスフィルタを用いればよい。   Using this characteristic, the frame (2011) in which the number of pixels in the horizontal direction is increased according to the signal processing described above is converted into a frame by the vertical interpolation unit (2004) composed of the vertical uprater (2002) and the pixel interpolator (2003). (2012) is generated and used as the SR (horizontal) signal. Here, the pixel interpolator (2003) may use a general vertical low-pass filter that outputs an average value of upper and lower pixel data of a pixel to be interpolated. Similarly, a frame (2014) in which the number of pixels in the vertical direction is increased is generated by a horizontal interpolation unit (2008) including a horizontal up-rate unit (2006) and a pixel interpolator (2007), and a frame (2015) is generated. (Vertical) signal. Here, the pixel interpolator (2007) may use a general horizontal low-pass filter that outputs an average value of the left and right pixel data of the pixel to be interpolated.

このように、画素補間器(2003)(2007)を用いて、処理対象の方向と直交する方向の高周波成分を除去して低周波成分だけを抽出すれば、上述した斜め方向に移動した際に発生する歪の影響を無視できる程度に小さくすることができる。上記の処理によって生成したSR(水平)信号とSR(垂直)信号を混合器(2009)によって混合して出力信号とし、表示部(3)にて表示する。   In this way, if the pixel interpolator (2003) (2007) is used to remove the high-frequency component in the direction orthogonal to the direction of the processing target and extract only the low-frequency component, when moving in the oblique direction described above, The influence of the generated distortion can be made small enough to be ignored. The SR (horizontal) signal and the SR (vertical) signal generated by the above processing are mixed by the mixer (2009) to be an output signal and displayed on the display unit (3).

ここで、混合器(2009)の詳細な構成および動作について説明する。混合器(2009)は以下に示す3つの構成例のいずれかを用いればよい。   Here, the detailed configuration and operation of the mixer (2009) will be described. The mixer (2009) may use any of the following three configuration examples.

図22に、混合器(2009)の第1の構成例を示す。同図において、加算器(2201)と乗算器(2202)を用いて、混合器(2009)に入力されたSR(水平)とSR(垂直)の各信号の平均値を生成して出力する。同図に示す構成は、水平・垂直の各解像度向上効果もそれぞれ1/2になってしまうが、混合器(2009)を最も簡単な構成である為、低コストに実現できる。   FIG. 22 shows a first configuration example of the mixer (2009). In the figure, an adder (2201) and a multiplier (2202) are used to generate and output an average value of SR (horizontal) and SR (vertical) signals input to the mixer (2009). In the configuration shown in the figure, the horizontal and vertical resolution improvement effects are also halved, but the mixer (2009) is the simplest configuration and can be realized at low cost.

図23に、混合器(2009)の第2の構成例を示す。同図において、混合器(2009)に入力されたSR(水平)とSR(垂直)の各信号に対し、乗算器(2303)および乗算器(2304)を用いて係数K(水平)と係数K(垂直)をそれぞれ乗じ、加算器(2305)で両者を加算して出力とする。係数K(水平)と係数K(垂直)は、それぞれ係数決定器(2301)(2302)にて生成する。以下、この係数決定器(2301)(2302)の動作について説明する。   FIG. 23 shows a second configuration example of the mixer (2009). In the figure, for the SR (horizontal) and SR (vertical) signals input to the mixer (2009), a multiplier (2303) and a multiplier (2304) are used to calculate a coefficient K (horizontal) and a coefficient K. Multiply each by (vertical) and add both by the adder (2305) to obtain the output. The coefficient K (horizontal) and the coefficient K (vertical) are generated by coefficient determiners (2301) and (2302), respectively. The operation of the coefficient determiners (2301) and (2302) will be described below.

図21に示した折返し成分除去部(2108)(2109)は、同図に示す位相差θH(2102)および位相差θV(2103)をもとに、図1に示す係数決定器(109)にて図9に示す係数C0〜C3を発生して折返し成分除去の演算を行う。このとき、位相差θH(2102)、θV(2103)が0のときに係数C1およびC3が不定になることや、位相差θH(2102)、θV(2103)が0に近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になることを防ぐために、図13に示す係数C4(0≦C4≦1)を導入して、図11に示す構成のように補助的画素補間を行うのが好ましい。逆に言えば、係数C4の値が0.0のときは解像度向上の効果があるが、係数C4の値が1.0に近づくにつれて、解像度向上の効果が小さくなることになる。   The aliasing component removal units (2108) and (2109) shown in FIG. 21 are connected to the coefficient determiner (109) shown in FIG. 1 based on the phase difference θH (2102) and the phase difference θV (2103) shown in FIG. The coefficients C0 to C3 shown in FIG. 9 are generated to perform the aliasing component removal calculation. At this time, the coefficients C1 and C3 become indefinite when the phase differences θH (2102) and θV (2103) are 0, and the coefficients C1 and C3 are increased as the phase differences θH (2102) and θV (2103) approach 0. In order to prevent it from becoming vulnerable to noise and the like by increasing the coefficient, the coefficient C4 (0 ≦ C4 ≦ 1) shown in FIG. 13 is introduced, and auxiliary pixel interpolation is performed as in the configuration shown in FIG. preferable. In other words, the effect of improving the resolution is obtained when the value of the coefficient C4 is 0.0, but the effect of improving the resolution becomes smaller as the value of the coefficient C4 approaches 1.0.

この性質を利用し、水平位相差θH(2102)が0近傍(すなわち、係数C4(水平)が1.0近傍)のときは垂直解像度変換結果のSR(垂直)が強く反映され、垂直位相差θV(2103)が0近傍(すなわち、係数C4(垂直)が1.0近傍)のときは水平解像度変換結果のSR(水平)が強く反映されるように、水平・垂直方向それぞれの係数C4の値を用いて係数K(水平)と係数K(垂直)を決定する。この動作を実現するため、例えば図23に示す係数決定器(2301)ではK(水平)=C4(水平)+(1-C4(垂直))/2の演算を行ってK(水平)を決定し、係数決定器(2303)ではK(垂直)=C4(垂直)+(1-C4(水平))/2の演算を行ってK(垂直)を決定している。   Using this property, when the horizontal phase difference θH (2102) is near 0 (that is, the coefficient C4 (horizontal) is near 1.0), the SR (vertical) of the vertical resolution conversion result is strongly reflected, and the vertical phase difference θV ( 2103) is close to 0 (i.e., the coefficient C4 (vertical) is close to 1.0), so that the horizontal resolution conversion result SR (horizontal) is strongly reflected, using the values of the coefficient C4 in the horizontal and vertical directions respectively. A coefficient K (horizontal) and a coefficient K (vertical) are determined. In order to realize this operation, for example, the coefficient determiner (2301) shown in FIG. 23 performs an operation of K (horizontal) = C4 (horizontal) + (1-C4 (vertical)) / 2 to determine K (horizontal). The coefficient determiner (2303) determines K (vertical) by performing an operation of K (vertical) = C4 (vertical) + (1-C4 (horizontal)) / 2.

図24に、係数C4(水平)および係数C4(垂直)をそれぞれ変化させたときの係数決定器(2301)(2302)の出力(係数K(水平)および係数K(垂直))の一例をまとめて示す。同図に示すように、係数C4(水平)が大きくなると係数K(水平)が小さくなるとともに係数K(垂直)が大きくなり、係数C4(垂直)が大きくなると係数K(水平)が大きくなるとともに係数K(垂直)が小さくなるように動作する。   FIG. 24 summarizes an example of the outputs (coefficient K (horizontal) and coefficient K (vertical)) of the coefficient determiners (2301) and (2302) when the coefficient C4 (horizontal) and the coefficient C4 (vertical) are changed. Show. As shown in the figure, when the coefficient C4 (horizontal) increases, the coefficient K (horizontal) decreases and the coefficient K (vertical) increases, and when the coefficient C4 (vertical) increases, the coefficient K (horizontal) increases. It operates so that the coefficient K (vertical) becomes small.

係数C4(水平)と係数C4(垂直)の値が等しいときには、係数K(水平)と係数K(垂直)がそれぞれ0.5となる。このように水平・垂直で独立して変化する係数C4に対して、係数K(水平)と係数K(垂直)を足してちょうど1.0になるように係数Kを決定して、SR(水平)とSR(垂直)を混合する。   When the values of the coefficient C4 (horizontal) and the coefficient C4 (vertical) are equal, the coefficient K (horizontal) and the coefficient K (vertical) are each 0.5. In this way, for the coefficient C4 that changes independently in horizontal and vertical, the coefficient K is determined to be just 1.0 by adding the coefficient K (horizontal) and the coefficient K (vertical), and SR (horizontal) and Mix SR (vertical).

図25および図26を用いて、混合器(2009)の第3の動作および構成例をそれぞれ説明する。図25は、水平周波数をμ、垂直周波数をνとして表した2次元周波数領域である。もとの入力画像の水平サンプリング周波数をμs、垂直サンプリング周波数をνsとすると、図20および図21に示した解像度変換部(4)の出力は、水平周波数μが-μs〜μsの範囲、垂直周波数νが-νs〜νsの範囲の信号となる。   The third operation and configuration example of the mixer (2009) will be described using FIG. 25 and FIG. 26, respectively. FIG. 25 shows a two-dimensional frequency region in which the horizontal frequency is represented by μ and the vertical frequency is represented by ν. Assuming that the horizontal sampling frequency of the original input image is μs and the vertical sampling frequency is νs, the output of the resolution conversion unit (4) shown in FIGS. 20 and 21 is a vertical frequency in the range of −μs to μs. The frequency ν is a signal in the range of −νs to νs.

水平・垂直の各解像度変換により高周波成分が再生されるようになるが、高周波成分はもともと信号レベルが小さいため、水平解像度変換による効果が大きいのは(μ,ν)=(±μs/2, 0)の近傍の周波数領域(2501)の成分(特に(μ,ν)=(+μs/2, 0)を含み、μ>0となる周波数の領域と、(μ,ν)=(-μs/2, 0)を含み、μ<0となる周波数の領域の成分)となり、垂直解像度変換による効果が大きいのは(μ,ν)=(0, ±νs/2)の近傍の周波数領域(2502)の成分(特に(μ,ν)=(0, +νs/2)を含み、ν>0となる周波数の領域と、(μ,ν)=(0, -νs/2)を含み、ν<0となる周波数の領域の成分)となる。   High-frequency components are reproduced by horizontal and vertical resolution conversions, but the high-frequency components originally have a low signal level, so the effect of horizontal resolution conversion is large (μ, ν) = (± μs / 2, 0) component in the frequency region (2501) in the vicinity (particularly (μ, ν) = (+ μs / 2, 0)), a region of a frequency where μ> 0, and (μ, ν) = (− μs / 2, 0), and the component of the frequency region where μ <0), and the effect of vertical resolution conversion is large in the frequency region in the vicinity of (μ, ν) = (0, ± νs / 2) ( 2502) components (particularly including (μ, ν) = (0, + νs / 2), including a frequency region where ν> 0, and (μ, ν) = (0, -νs / 2), component in a frequency region where ν <0).

従って、これらの周波数成分(2501)(2502)を2次元フィルタで抽出して混合すると、解像度向上効果が大きい成分を選択的に出力することができる。   Therefore, when these frequency components (2501) and (2502) are extracted and mixed by a two-dimensional filter, components having a large resolution improvement effect can be selectively output.

図26に、水平・垂直の各解像度変換による効果が大きい成分を抽出する混合器(2009)の構成例を示す。同図において、2次元フィルタ(2601)を用いて、混合器(2009)に入力されたSR(水平)の解像度向上効果が大きい周波数領域(2501)の成分を抽出する。同様に、2次元フィルタ(2602)を用いて、混合器(2009)に入力されたSR(垂直)の解像度向上効果が大きい周波数領域(2502)の成分を抽出する。   FIG. 26 shows a configuration example of a mixer (2009) that extracts components having a large effect by horizontal and vertical resolution conversion. In the figure, a two-dimensional filter (2601) is used to extract a component in the frequency region (2501) having a large resolution improvement effect of SR (horizontal) input to the mixer (2009). Similarly, using the two-dimensional filter (2602), a component in the frequency region (2502) having a large resolution improvement effect of SR (vertical) input to the mixer (2009) is extracted.

周波数領域(2501)(2502)以外の成分として、加算器(2603)と乗算器(2604)を用いてSR(水平)とSR(垂直)の平均の信号を作り、2次元フィルタ(2605)を用いて、2次元フィルタ(2601)(2602)の各通過帯域以外の成分(すなわち、残りの成分)を抽出する。2次元フィルタ(2601)(2602)(2605)の各出力信号を加算器(2606)で加算し、混合器(2009)の出力とする。   As a component other than the frequency domain (2501) (2502), an adder (2603) and a multiplier (2604) are used to create an average signal of SR (horizontal) and SR (vertical), and a two-dimensional filter (2605) The components other than the passbands of the two-dimensional filters (2601) and (2602) (that is, the remaining components) are extracted. The output signals of the two-dimensional filters (2601), (2602), and (2605) are added by the adder (2606) to obtain the output of the mixer (2009).

なお、同図中に示す2次元フィルタ(2601)(2602)(2605)の中の丸で囲まれた数字はそれぞれのフィルタのタップ係数の一例を示している。(各フィルタの係数は説明の簡略化のため、整数にて表記している。本来の係数値は丸で囲まれた数字とその右部に示された「×1/16」等に示される演算の積である。例えば、2次元フィルタ(2601)では丸で囲まれた各数字にそれぞれ1/16を乗算したのが本来の係数値である。以下の実施例に示される2次元フィルタの係数において同じ。)
2次元フィルタ(2601)は±μs/2を通過帯域の中心周波数とする水平バンドパスフィルタと垂直ローパスフィルタの積とし、2次元フィルタ(2602)は±νs/2を通過帯域の中心周波数とする垂直バンドパスフィルタと水平ローパスフィルタの積とし、2次元フィルタ(2605)は全帯域から2次元フィルタ(2601)と2次元フィルタ(2602)の通過帯域を減じた特性とすればよい。
Note that the numbers in circles in the two-dimensional filters (2601), (2602), and (2605) shown in the figure indicate examples of the tap coefficients of the respective filters. (The coefficients of each filter are expressed as integers for the sake of simplicity. The original coefficient values are indicated by a circled number and “× 1/16” on the right). For example, in the two-dimensional filter (2601), the original coefficient value is obtained by multiplying each circled number by 1/16. Same for coefficient.)
The two-dimensional filter (2601) is the product of a horizontal bandpass filter and a vertical lowpass filter with ± μs / 2 as the center frequency of the passband, and the two-dimensional filter (2602) has ± νs / 2 as the center frequency of the passband. The product of the vertical bandpass filter and the horizontal lowpass filter may be used, and the two-dimensional filter (2605) may have a characteristic obtained by subtracting the passbands of the two-dimensional filter (2601) and the two-dimensional filter (2602) from the entire band.

次に、図34を用いて、実施例7に係る画像信号処理装置における処理と上記従来技術の動作の違いを説明する。同図(a)は、解像度変換部(4)に入力されたフレーム#1(3401)、フレーム#2(3402)、フレーム#3(3403)、フレーム#4(3404)、フレーム#5(3405)を示し、同図(b)は解像度変換部(4)から出力された各フレームを示す。各フレームにて、被写体が1/4画素ずつ右回りに移動し、4フレームで1周するように意図的に被写体を移動させる。この動きをフレーム#6以降も同様に連続させる。   Next, the difference between the processing in the image signal processing apparatus according to the seventh embodiment and the operation of the conventional technique will be described with reference to FIG. The figure (a) shows frame # 1 (3401), frame # 2 (3402), frame # 3 (3403), frame # 4 (3404), frame # 5 (3405) input to the resolution converter (4). (B) shows each frame output from the resolution converter (4). In each frame, the subject moves clockwise by 1/4 pixel, and the subject is intentionally moved so as to make one round in four frames. This movement is continued in the same manner after frame # 6.

特許文献1、特許文献2、非特許文献1に記載されている従来技術では、上述したよう、水平・垂直の2次元の入力信号に対して高解像度化する場合、折返しが縦横2方向から来るので、原信号の帯域が縦横共に2倍に広がると、3つの折返し成分が重なり、それらを打ち消すためには2M+1=7個のデジタルデータ(=7枚のフレーム画像の信号)を必要としていた。従って、図34(a)に示すような4フレームで一巡するような信号を入力した場合、どの7フレームを選択しても独立したデータが得られないため、高解像度化処理による解が不定となり求められない。   In the prior art described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, as described above, when the resolution is increased with respect to a horizontal / vertical two-dimensional input signal, the aliasing comes from two directions. So, if the bandwidth of the original signal is doubled both vertically and horizontally, the three aliasing components overlap, and 2M + 1 = 7 digital data (= 7 frame image signals) is required to cancel them. It was. Therefore, when a signal that circulates in 4 frames as shown in FIG. 34 (a) is input, independent data cannot be obtained no matter which 7 frames are selected, and the solution by the high resolution processing becomes indefinite. It is not required.

一方、本実施例を用いれば、例えば隣接する2フレーム(例えば、フレーム#1(3401)とフレーム#2(3402)、(あるいはフレーム#2(3402)とフレーム#3(3403)))を用いて、同図(b)に示すように水平方向(あるいは垂直方向)の折返し成分を除去して高解像度化を実現できる。すなわち、同図(a)の入力画像をテストパターンとして用いることにより、本実施例の動作状況を確認することができる。このテストパターンの絵柄として、一般的によく知られている円形ゾーンプレート(CZP:Circular Zone Plate)を用いれば、解像度変換の効果を表示部(3)にて直視できるようになる。すなわち、円形ゾーンプレートをフレームごとに左右に移動させれば水平方向の解像度が向上した画像が表示され、上下(あるいは斜め)に移動させれば垂直方向(あるいは斜め方向)の解像度が向上した画像が表示されるなど、テストパターンの移動方向に応じた解像度向上の効果を確認することができる。   On the other hand, if this embodiment is used, for example, two adjacent frames (for example, frame # 1 (3401) and frame # 2 (3402), (or frame # 2 (3402) and frame # 3 (3403))) are used. Thus, as shown in FIG. 5B, the horizontal (or vertical) aliasing component can be removed to achieve high resolution. That is, the operation status of the present embodiment can be confirmed by using the input image of FIG. If a generally well-known circular zone plate (CZP: Circular Zone Plate) is used as the pattern of this test pattern, the effect of resolution conversion can be directly viewed on the display unit (3). That is, if the circular zone plate is moved left and right for each frame, an image with improved horizontal resolution is displayed, and if it is moved up and down (or diagonally), an image with improved vertical (or diagonally) resolution is displayed. The effect of improving the resolution according to the moving direction of the test pattern can be confirmed.

以上説明した実施例7に係る画像信号処理装置によれば、2枚の入力画像フレームの各画像信号に対して位相シフト行い、各画像信号からぞれぞれ2つの信号を生成する。これにより、2枚の入力画像フレームの画像信号から4つの信号を生成する。ここで、2枚の入力画像フレームの位相差に基づいて、当該4つの信号の各信号について、当該4つの信号の折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成する画像のそれぞれの画素について、上記4つの信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。これを生成画像の各画素について行うことにより、入力画像フレームよりも1次元方向に高解像度化した画像を生成する。   According to the image signal processing apparatus according to the seventh embodiment described above, phase shift is performed on each image signal of two input image frames, and two signals are generated from each image signal. As a result, four signals are generated from the image signals of the two input image frames. Here, based on the phase difference between the two input image frames, for each of the four signals, a coefficient for canceling and combining the aliasing components of the four signals is calculated for each pixel. For each pixel of the image to be generated, a sum is calculated by multiplying the pixel value of the corresponding pixel included in each of the four signals by each coefficient to generate a pixel value of a new high-resolution image. By performing this for each pixel of the generated image, an image having a higher resolution in the one-dimensional direction than the input image frame is generated.

これを水平方向と垂直方向のそれぞれに行い、水平方向に高解像度化した画像と垂直方向に高解像度化した画像を生成する。当該水平方向に高解像度化した画像と垂直方向に高解像度化した画像とについて、それぞれ、垂直方向、水平方向にアップレート処理を行ったのち、両者を混合する。   This is performed in each of the horizontal direction and the vertical direction, and an image with high resolution in the horizontal direction and an image with high resolution in the vertical direction are generated. The image having the high resolution in the horizontal direction and the image having the high resolution in the vertical direction are subjected to up-rate processing in the vertical direction and the horizontal direction, respectively, and then both are mixed.

これにより、従来例よりも少ない2枚の入力画像フレームの各画像信号から、垂直方向と水平方向との両方向に高解像度化した高解像度画像を生成することができる。すなわち、2次元高解像度画像を生成することができる。   As a result, it is possible to generate a high-resolution image in which the resolution is increased in both the vertical direction and the horizontal direction from the image signals of two input image frames that are smaller than in the conventional example. That is, a two-dimensional high resolution image can be generated.

また、実施例7に係る画像信号処理装置は、従来例よりも少ない2枚の入力画像フレームを用いるため、必要な画像処理の量を従来例より低減できる。これにより、折り返し成分が少なく、垂直方向と水平方向との両方向について入力画像よりも高解像度な高解像度画像を生成する画像信号処理装置を、従来例よりも低コストに実現することが可能である。   In addition, since the image signal processing apparatus according to the seventh embodiment uses two input image frames that are fewer than those in the conventional example, the amount of necessary image processing can be reduced as compared with the conventional example. Accordingly, it is possible to realize an image signal processing apparatus that generates a high-resolution image with less aliasing components and higher resolution than the input image in both the vertical and horizontal directions at a lower cost than the conventional example. .

なお、特許文献1、特許文献2、非特許文献1に記載されている従来技術により、3フレームを用いて水平方向や垂直方向などの1次元の高解像度化を複数方向に対して行い、それらの各結果を図20に示す混合器(2009)に入力して混合し、2次元の解像度変換結果として出力してもよい。この場合、図20に示したように2フレームのみを用いて2次元の解像度変換を行う構成よりもフレームメモリや動き推定部などの信号処理回路の規模が大きくなるが、特許文献1、特許文献2、非特許文献1に記載されているように、少なくとも7フレームの信号を用いるよりも、フレームメモリや動き推定部などの信号処理回路の規模を小さくできる。   In addition, according to the prior art described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, one-dimensional high resolution such as a horizontal direction and a vertical direction is performed in a plurality of directions using three frames. These results may be input to the mixer (2009) shown in FIG. 20 and mixed, and output as a two-dimensional resolution conversion result. In this case, as shown in FIG. 20, the scale of the signal processing circuit such as the frame memory or the motion estimation unit is larger than the configuration in which the two-dimensional resolution conversion is performed using only two frames. 2. As described in Non-Patent Document 1, it is possible to reduce the scale of a signal processing circuit such as a frame memory or a motion estimation unit, compared to using a signal of at least 7 frames.

また、特許文献1、特許文献2、非特許文献1に記載されている従来技術に限定されず、その他従来の高解像度化技術を適用して、水平方向や垂直方向などの1次元の高解像度化を複数方向に対して行い、それらの各結果を図20に示す混合器(2009)に入力して混合し、2次元の解像度変換結果として出力してもよい。   Further, the present invention is not limited to the conventional techniques described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, and other one-dimensional high resolution such as a horizontal direction and a vertical direction is applied by applying a conventional high resolution technology. It is also possible to perform conversion into a plurality of directions, input each result into a mixer (2009) shown in FIG. 20, and mix and output the result as a two-dimensional resolution conversion result.

また、図20では、フレーム#1とフレーム#2の入力信号の組を用いてフレーム#1の解像度を変換する場合を例に挙げて説明したが、これ以外にも例えば、フレーム#1とフレーム#3、フレーム#1とフレーム#4などの複数の組を用いてそれぞれでフレーム#1の解像度を変換し、それらの結果を混合して、フレーム#1の最終的な解像度変換結果としてもよい。   In FIG. 20, the case where the resolution of the frame # 1 is converted using the set of the input signals of the frame # 1 and the frame # 2 has been described as an example. # 3, Frame # 1 and Frame # 4, etc. are used to convert the resolution of frame # 1 and mix the results to obtain the final resolution conversion result of frame # 1. .

このときの混合方法として、各結果の平均値をとってもよいし、図23および図24に示したようにフレームごとの係数C4(フレーム)の値に応じて混合してもよい。この場合、係数C4(フレーム)として、フレームごとの係数C4(水平)と係数C4(垂直)のMAX値(小さくないほうの値)を用いてもよい。また、画素ごとにすべての組の係数C4(水平)、C4(垂直)を比較し、係数C4が最も小さい組(すなわち、最も解像度向上効果が大きい組)から得られる解像度変換結果を画素ごとに選択して、フレーム#1の最終的な解像度変換結果としてもよい。   As a mixing method at this time, an average value of the results may be taken, or mixing may be performed according to the value of the coefficient C4 (frame) for each frame as shown in FIGS. In this case, as the coefficient C4 (frame), the MAX value (the smaller value) of the coefficient C4 (horizontal) and the coefficient C4 (vertical) for each frame may be used. Also, all the coefficients C4 (horizontal) and C4 (vertical) are compared for each pixel, and the resolution conversion result obtained from the group with the smallest coefficient C4 (i.e., the group with the greatest resolution improvement effect) is obtained for each pixel. The final resolution conversion result of frame # 1 may be selected.

これにより、例えばフレーム#1を基準として、フレーム#2がフレーム#1よりも過去のフレームであり、フレーム#3がフレーム#1よりも未来のフレームの場合、フレーム#1の時点で被写体が「動き」から「静止」に変化した場合(動き終わり)はフレーム#1とフレーム#2により解像度変換処理が行われ、フレーム#1の時点で被写体が「静止」から「動き」に変換した場合(動き始め)はフレーム#1とフレーム#3により解像度変換処理が行われるように画素ごとに各処理結果が混合されるようになるため、被写体の動きを有効に利用でき、解像度向上効果を最も大きくすることができる。   Thus, for example, with frame # 1 as a reference, if frame # 2 is a frame earlier than frame # 1 and frame # 3 is a future frame than frame # 1, the subject is When changing from `` motion '' to `` still '' (end of movement), resolution conversion processing is performed with frame # 1 and frame # 2, and when the subject is converted from `` still '' to `` motion '' at the time of frame # 1 ( (Beginning of motion) Since each processing result is mixed for each pixel so that resolution conversion processing is performed by frame # 1 and frame # 3, the motion of the subject can be used effectively, and the resolution improvement effect is the largest can do.

図21に、本発明の実施例8に係る画像信号処理装置を示す。本実施例に係る画像処理装置は、上述した実施例7の構成を変形したものであり、図20に示した解像度変換部(2001)(2005)と補間部(2004)(2008)の処理順序を逆にして、補間処理を行ったのちに解像度変換を行うように構成したものである。これにより、解像度変換部(2001)(2005)の中にあるアップレート器(図1中の(103)(104))と、補間部(2004)(2008)の中にあるアップレート器(図20中の(2002)(2006))を共通化するとともに、水平解像度変換部(2001)と垂直解像度変換部(2005)の中にあるそれぞれの位置推定部(図1中の(101))を共通化できるため、より小さい回路規模および演算量で同様の信号処理を実現できるようになる。   FIG. 21 shows an image signal processing apparatus according to Embodiment 8 of the present invention. The image processing apparatus according to the present embodiment is a modification of the configuration of the seventh embodiment described above, and the processing order of the resolution conversion units (2001) (2005) and the interpolation units (2004) (2008) shown in FIG. On the other hand, the resolution conversion is performed after the interpolation process. As a result, the up-rater ((103) (104) in FIG. 1) in the resolution conversion unit (2001) (2005) and the up-rater in the interpolation unit (2004) (2008) (FIG. 20 (2002) (2006)) and the horizontal resolution conversion unit (2001) and the vertical resolution conversion unit (2005), each position estimation unit ((101) in FIG. 1) Since they can be shared, similar signal processing can be realized with a smaller circuit scale and operation amount.

図21において、まず位置推定部(2101)により、入力部(1)に入力されたフレーム#1上の処理対象の画素のサンプリング位相(標本化位置)を基準として、フレーム#2上の対応する画素の位置を推定し、水平方向と垂直方向のそれぞれのサンプリング位相差θH(2102)、θV(2103)を求める。   In FIG. 21, first, the position estimation unit (2101) performs a corresponding operation on the frame # 2 with reference to the sampling phase (sampling position) of the pixel to be processed on the frame # 1 input to the input unit (1). The pixel position is estimated, and the sampling phase differences θH (2102) and θV (2103) in the horizontal and vertical directions are obtained.

次に、動き補償・アップレート部(2110)のアップレート器(2104)(2105)により、位相差θH(2102)、θV(2103)の情報を用いてフレーム#2を動き補償してフレーム#1と位置を合わせるとともに、フレーム#1とフレーム#2の画素数をそれぞれ水平・垂直ともに2倍(合計4倍)に増して高密度化する。アップレート器(2104)(2105)は、図5および図6に示した動作・構成を水平・垂直方向の2次元に拡張したものである。位相シフト部(2111)では、この高密度化したデータの位相を一定量だけシフトする。   Next, the motion compensation / uprate unit (2110) uses the uprater (2104) (2105) to perform motion compensation on the frame # 2 using the information on the phase differences θH (2102) and θV (2103) to In addition to matching the position with 1, the number of pixels in frame # 1 and frame # 2 is doubled both horizontally and vertically (4 times in total) to increase the density. The up-raters (2104) and (2105) are obtained by extending the operation / configuration shown in FIGS. 5 and 6 to two dimensions in the horizontal and vertical directions. The phase shift unit (2111) shifts the phase of the densified data by a certain amount.

このとき、水平位相シフト器(2106)は水平方向の位相シフトを行い、垂直位相シフト器(2107)は垂直方向の位相シフトを行うものであり、図1に示した遅延器(105)(107)およびπ/2位相シフト器(108)と図7および図8に示した動作・構成と同様に実施できる為、説明は省略する。   At this time, the horizontal phase shifter (2106) performs a horizontal phase shift, and the vertical phase shifter (2107) performs a vertical phase shift. The delay units (105) and (107) shown in FIG. ) And π / 2 phase shifter (108) and the operations and configurations shown in FIGS.

位相シフトした各信号に対し、折返し成分除去部(2112)における水平方向の折返し成分除去部(2108)および垂直方向の折返し成分除去部(2109)にてそれぞれ水平・垂直方向の折返し成分を除去する。次に水平方向の折返し成分除去部(2108)の出力を画素補間器(2003)を用いて画素補間してSR(水平)信号ととし、垂直方向の折返し成分除去部(2109)の出力を画素補間器(2007)を用いて画素補間してSR(垂直)信号ととし、これらを混合器(2009)で両者を混合して出力とする。   For each phase-shifted signal, horizontal and vertical folding components are removed by the horizontal folding component removal unit (2108) and vertical folding component removal unit (2109) in the folding component removal unit (2112), respectively. . Next, the output of the horizontal aliasing component removal unit (2108) is pixel-interpolated using the pixel interpolator (2003) to obtain an SR (horizontal) signal, and the output of the vertical aliasing component removal unit (2109) is the pixel. Pixel interpolation is performed using an interpolator (2007) to form an SR (vertical) signal, which is mixed by an mixer (2009) and output.

折返し成分除去部(2108)(2109)は、図1に示した折返し成分除去部(117)の構成をそのまま用いることができる。位相差θ(102)として、折返し成分除去部(2108)では水平位相差θH(2102)を用い、折返し成分除去部(2109)では水平位相差θH(2103)を用いて図9に示した動作を行うことにより、それぞれの方向の折返し成分を除去することができる。   The folded component removing units (2108) and (2109) can use the configuration of the folded component removing unit (117) shown in FIG. 1 as it is. As the phase difference θ (102), the folded component removing unit (2108) uses the horizontal phase difference θH (2102), and the folded component removing unit (2109) uses the horizontal phase difference θH (2103) to perform the operation shown in FIG. By performing the above, folding components in the respective directions can be removed.

なお、以上の説明では、位相シフト部(2111)は、図1に示した遅延器(105)(107)およびπ/2位相シフト器(108)と図7および図8に示した動作・構成と同様に実施し、折返し成分除去部(2108)(2109)は、図1に示した折返し成分除去部(117)の構成をそのまま用いるとしたが、これにかえて、位相シフト部(2111)には、図10の位相シフト部(1009)をそれぞれ垂直方向、水平方向用に用い、折返し成分除去部(2108)(2109)は、図10の折り返し成分除去手段(1010)をそれぞれ用いてもよい。さらにこのとき、折返し成分除去部(2108)(2109)のそれぞれに図11の補助的画素補間部(1105)を図11と同様に備える構成としてもよい。   In the above description, the phase shift unit (2111) includes the delay units (105) and (107) and the π / 2 phase shifter (108) shown in FIG. 1 and the operations and configurations shown in FIGS. The aliasing component removal units (2108) and (2109) are performed in the same manner as described above, and the configuration of the aliasing component removal unit (117) shown in FIG. 1 is used as it is, but instead, the phase shift unit (2111) The phase shift unit (1009) of FIG. 10 is used for the vertical direction and the horizontal direction, respectively, and the aliasing component removal units (2108) and (2109) may also use the aliasing component removal means (1010) of FIG. Good. Further, at this time, each of the aliasing component removal units (2108) and (2109) may be provided with the auxiliary pixel interpolation unit (1105) of FIG. 11 as in FIG.

なお、混合器(2009)については実施例7と同様であるので、説明を省略する。   Note that the mixer (2009) is the same as that of the seventh embodiment, and a description thereof will be omitted.

また、図34に示した入力フレームに対する動作も実施例7と同様であるので、説明を省略する。   Also, the operation for the input frame shown in FIG. 34 is the same as that of the seventh embodiment, and thus the description thereof is omitted.

以上説明した実施例8に係る画像信号処理装置は、実施例7に係る画像信号処理装置の効果を有しながら、実施例7に係る画像信号処理装置に比べて一部の処理部を共通化することにより、実施例7に係る画像信号処理装置よりも小さい回路規模および演算量で同様の信号処理を実現することが可能であるという効果を有する。   The image signal processing apparatus according to the eighth embodiment described above has the same effects as the image signal processing apparatus according to the seventh embodiment, but a part of the processing units is shared as compared with the image signal processing apparatus according to the seventh embodiment. By doing so, it is possible to realize the same signal processing with a circuit scale and a calculation amount smaller than those of the image signal processing apparatus according to the seventh embodiment.

なお、特許文献1、特許文献2、非特許文献1に記載されている従来技術により、3フレームを用いて水平方向や垂直方向などの1次元の高解像度化を複数方向に対して行い、それらの各結果を図21に示す混合器(2009)に入力して混合し、2次元の解像度変換結果として出力してもよい。この場合、図21に示したように2フレームのみを用いて2次元の解像度変換を行う構成よりもフレームメモリや動き推定部などの信号処理回路の規模が大きくなるが、特許文献1、特許文献2、非特許文献1に記載されているように、少なくとも7フレームの信号を用いるよりも、フレームメモリや動き推定部などの信号処理回路の規模を小さくできる。   In addition, according to the prior art described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, one-dimensional high resolution such as a horizontal direction and a vertical direction is performed in a plurality of directions using three frames. These results may be input to the mixer (2009) shown in FIG. 21 and mixed, and output as a two-dimensional resolution conversion result. In this case, as shown in FIG. 21, the scale of the signal processing circuit such as the frame memory and the motion estimation unit is larger than the configuration in which the two-dimensional resolution conversion is performed using only two frames. 2. As described in Non-Patent Document 1, it is possible to reduce the scale of a signal processing circuit such as a frame memory or a motion estimation unit, compared to using a signal of at least 7 frames.

また、特許文献1、特許文献2、非特許文献1に記載されている従来技術に限定されず、その他の従来の高解像度化技術を適用して、水平方向や垂直方向などの1次元の高解像度化を複数方向に対して行い、それらの各結果を図21に示す混合器(2009)に入力して混合し、2次元の解像度変換結果として出力してもよい。   In addition, the present invention is not limited to the conventional techniques described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, and other conventional high resolution techniques are applied to apply a one-dimensional height such as a horizontal direction or a vertical direction. Resolution may be performed in a plurality of directions, and each result may be input to the mixer (2009) shown in FIG. 21 and mixed, and output as a two-dimensional resolution conversion result.

また、図21では、フレーム#1とフレーム#2の入力信号の組を用いてフレーム#1の解像度を変換する場合を例に挙げて説明したが、これ以外にも例えば、フレーム#1とフレーム#3、フレーム#1とフレーム#4などの複数の組を用いてそれぞれでフレーム#1の解像度を変換し、それらの結果を混合して、フレーム#1の最終的な解像度変換結果としてもよい。   In FIG. 21, the case where the resolution of the frame # 1 is converted using the set of the input signals of the frame # 1 and the frame # 2 has been described as an example. # 3, Frame # 1 and Frame # 4, etc. are used to convert the resolution of frame # 1 and mix the results to obtain the final resolution conversion result of frame # 1. .

このときの混合方法として、各結果の平均値をとってもよいし、図23および図24に示したようにフレームごとの係数C4(フレーム)の値に応じて混合してもよい。この場合、係数C4(フレーム)として、フレームごとの係数C4(水平)と係数C4(垂直)のMAX値(小さくないほうの値)を用いてもよい。また、画素ごとにすべての組の係数C4(水平)、C4(垂直)を比較し、係数C4が最も小さい組(すなわち、最も解像度向上効果が大きい組)から得られる解像度変換結果を画素ごとに選択して、フレーム#1の最終的な解像度変換結果としてもよい。   As a mixing method at this time, an average value of the results may be taken, or mixing may be performed according to the value of the coefficient C4 (frame) for each frame as shown in FIGS. In this case, as the coefficient C4 (frame), the MAX value (the smaller value) of the coefficient C4 (horizontal) and the coefficient C4 (vertical) for each frame may be used. Also, all the coefficients C4 (horizontal) and C4 (vertical) are compared for each pixel, and the resolution conversion result obtained from the group with the smallest coefficient C4 (i.e., the group with the greatest resolution improvement effect) is obtained for each pixel. The final resolution conversion result of frame # 1 may be selected.

これにより、例えばフレーム#1を基準として、フレーム#2がフレーム#1よりも過去のフレームであり、フレーム#3がフレーム#1よりも未来のフレームの場合、フレーム#1の時点で被写体が「動き」から「静止」に変化した場合(動き終わり)はフレーム#1とフレーム#2により解像度変換処理が行われ、フレーム#1の時点で被写体が「静止」から「動き」に変換した場合(動き始め)はフレーム#1とフレーム#3により解像度変換処理が行われるように画素ごとに各処理結果が混合されるようになるため、被写体の動きを有効に利用でき、解像度向上効果を最も大きくすることができる。   Thus, for example, with frame # 1 as a reference, if frame # 2 is a frame earlier than frame # 1 and frame # 3 is a future frame than frame # 1, the subject is When changing from `` motion '' to `` still '' (end of movement), resolution conversion processing is performed with frame # 1 and frame # 2, and when the subject is converted from `` still '' to `` motion '' at the time of frame # 1 ( (Beginning of motion) Since each processing result is mixed for each pixel so that resolution conversion processing is performed by frame # 1 and frame # 3, the motion of the subject can be used effectively, and the resolution improvement effect is the largest can do.

図27に、本発明の実施例9に係る画像信号処理装置を示す。本実施例に係る画像処理装置は、図21に示した構成例に、さらに右下および右上方向の斜め成分の高解像度変換部を加えた構成としている。すなわち、位相シフト部(2708)に斜め(右下)位相シフト部(2701)と斜め(右上)位相シフト部(2702)を追加するとともに、折返し成分除去部(2709)に折返し成分除去部(2705)(2706)を追加し、画素補間器(2710)(2711)をそれぞれ介したのちに、SR(水平)、SR(垂直)、SR(右上)、SR(右下)の各信号を混合部(2707)にて混合し、出力とする。ここで、画素補間器(2710)(2711)は、補間したい画素の上下左右の画素データの平均値を出力するような、一般的な2次元ローパスフィルタを用いればよい。   FIG. 27 shows an image signal processing apparatus according to Embodiment 9 of the present invention. The image processing apparatus according to the present embodiment has a configuration in which a high-resolution conversion unit for diagonal components in the lower right and upper right directions is added to the configuration example shown in FIG. That is, an oblique (lower right) phase shift unit (2701) and an oblique (upper right) phase shift unit (2702) are added to the phase shift unit (2708), and the aliasing component removal unit (2705) is added to the aliasing component removal unit (2709). ) (2706) and after passing through the pixel interpolators (2710) and (2711), the SR (horizontal), SR (vertical), SR (upper right) and SR (lower right) signals are mixed. Mix at (2707) and use as output. Here, the pixel interpolators (2710) and (2711) may use a general two-dimensional low-pass filter that outputs an average value of upper, lower, left, and right pixel data of a pixel to be interpolated.

位相差θとして斜め方向の位相差情報が必要であり、水平位相差θH(2102)と垂直位相差θV(2103)を加算器(2703)で加算した位相差(θH+θV)を折返し成分除去部(2705)に入力し、減算器(2704)で生成した位相差(-θH+θV)を折返し成分除去部(2706)に入力するように構成すればよい。なお、折返し成分除去部(2106)(2109)(2705)(2706)の構成および動作は、すべて共通である。   Phase difference information in the oblique direction is required as the phase difference θ, and the phase difference (θH + θV) obtained by adding the horizontal phase difference θH (2102) and vertical phase difference θV (2103) with the adder (2703) is removed. The phase difference (−θH + θV) generated by the subtracter (2704) may be input to the aliasing component removal unit (2706). The configurations and operations of the aliasing component removal units (2106), (2109), (2705), and (2706) are all the same.

図28(a)〜(d)に、2次元周波数領域における水平位相シフト部(2106)、垂直位相シフト部(2107)、斜め(右下)位相シフト部(2701)、斜め(右上)位相シフト部(2702)のそれぞれの動作を示す。図28(a)〜(d)は図25と同様に水平周波数をμ、垂直周波数をνとして表した2次元周波数領域である。これらの位相シフト部(2106)(2107)(2701)(2702)は、図1に示した位相シフト部(116)と同様の構成とし、その中のπ/2位相シフト器(106)(108)の「周波数-位相差」特性をそれぞれの方向に合わせて変更する。   FIGS. 28A to 28D show a horizontal phase shift unit (2106), a vertical phase shift unit (2107), an oblique (lower right) phase shift unit (2701), and an oblique (upper right) phase shift in the two-dimensional frequency domain. Each operation of the unit (2702) is shown. FIGS. 28A to 28D are two-dimensional frequency regions in which the horizontal frequency is represented by μ and the vertical frequency is represented by ν, as in FIG. These phase shift units (2106) (2107) (2701) (2702) have the same configuration as the phase shift unit (116) shown in FIG. 1, and the π / 2 phase shifters (106) (108) therein ) “Frequency-phase difference” characteristics are changed according to each direction.

すなわち、同図(a)において、水平位相シフト部(2106)では、入力信号の水平周波数サンプリング周波数をμsとした場合に、図7に示した動作と同様に、-μs〜0の範囲の周波数成分の位相をπ/2だけシフトし、0〜μsの範囲の周波数成分の位相を-π/2だけシフトする。同様に、垂直位相シフト部(2107)では、入力信号の垂直周波数サンプリング周波数をνsとした場合に、-νs〜0の範囲の周波数成分の位相をπ/2だけシフトし、0〜νsの範囲の周波数成分の位相を-π/2だけシフトする。   That is, in the figure (a), in the horizontal phase shift unit (2106), when the horizontal frequency sampling frequency of the input signal is μs, the frequency in the range of −μs to 0 is the same as the operation shown in FIG. The phase of the component is shifted by π / 2, and the phase of the frequency component in the range of 0 to μs is shifted by -π / 2. Similarly, in the vertical phase shift unit (2107), when the vertical frequency sampling frequency of the input signal is νs, the phase of the frequency component in the range of −νs to 0 is shifted by π / 2, and the range of 0 to νs. The phase of the frequency component of is shifted by -π / 2.

同様に、斜め(右下)位相シフト部(2701)および斜め(右上)位相シフト部(2702)では、同図(c)および同図(d)にそれぞれ示すように、信号の位相を-π/2あるいはπ/2だけシフトする。これらの「周波数-位相差」特性は、図8に示したタップ係数を、2次元のサンプリング点に合わせて水平、垂直、斜め(右下)、斜め(右上)のそれぞれの方向に配置することにより容易に実現できる。   Similarly, in the oblique (lower right) phase shift unit (2701) and the oblique (upper right) phase shift unit (2702), as shown in FIG. Shift by / 2 or π / 2. These “frequency-phase difference” characteristics are arranged in the horizontal, vertical, diagonal (lower right) and diagonal (upper right) directions according to the two-dimensional sampling points. Can be easily realized.

図29に、混合器(2707)の第1の構成例を示す。同図において、加算器(2901)と乗算器(2902)を用いて、混合器(2707)に入力されたSR(水平)、SR(垂直)、SR(右下)、SR(右上)の各信号の平均値を生成して出力する。同図に示す構成は、混合器(2707)を最も簡単に構成した例であるが、水平・垂直・右下・右上の各解像度向上効果もそれぞれ1/4になってしまう。   FIG. 29 shows a first configuration example of the mixer (2707). In the same figure, each of SR (horizontal), SR (vertical), SR (lower right), SR (upper right) input to the mixer (2707) using an adder (2901) and a multiplier (2902) Generate and output the average value of the signal. The configuration shown in the figure is an example of the simplest configuration of the mixer (2707), but the horizontal, vertical, lower right, and upper right resolution improvement effects are also each reduced to 1/4.

図30に、混合器(2707)の第2の構成例を示す。同図において、混合器(2707)に入力されたSR(水平)、SR(垂直)、SR(右下)、SR(右上)の各信号に対し、乗算器(3005)、乗算器(3006)、 乗算器(3007)、乗算器(3008)を用いて、係数K(水平)、係数K(垂直)、係数K(右下)、係数K(右上)をそれぞれ乗じ、加算器(3009)でそれらの信号を加算して出力とする。係数K(水平)、係数K(垂直)、係数K(右下)、係数K(右上)は、それぞれ係数決定器(3001)(3002)(3003)(3004)にて生成する。以下、この係数決定器(3001)(3002)(3003)(3004)の動作について説明する。   FIG. 30 shows a second configuration example of the mixer (2707). In the figure, for each signal of SR (horizontal), SR (vertical), SR (bottom right), SR (top right) input to the mixer (2707), a multiplier (3005), a multiplier (3006) Using the multiplier (3007) and multiplier (3008), multiply by the coefficient K (horizontal), coefficient K (vertical), coefficient K (lower right) and coefficient K (upper right), respectively, and adder (3009) These signals are added to produce an output. The coefficient K (horizontal), the coefficient K (vertical), the coefficient K (lower right), and the coefficient K (upper right) are generated by coefficient determiners (3001) (3002) (3003) (3004), respectively. The operation of the coefficient determiners (3001) (3002) (3003) (3004) will be described below.

図27に示した折返し成分除去部(2108)(2109)(2705)(2706)は、同図に示す位相差θH(2102)、位相差θV(2103)、位相差(θH+θV)、位相差(-θH+θV)をもとに、図1に示す係数決定器(109)にて図9に示す係数C0〜C3を発生して折返し成分除去の演算を行う。このとき、位相差θH(2102)、θV(2103)、(θH+θV)、(-θH+θV)が0のときに係数C1およびC3が不定になることや、位相差θH(2102)、θV(2103)、(θH+θV)、(-θH+θV)が0に近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になることを防ぐために、図13に示す係数C4(0≦C4≦1)を導入して、図11に示す構成のように補助的画素補間を行うのが好ましい。逆に言えば、係数C4の値が0.0のときは解像度向上の効果があるが、係数C4の値が1.0に近づくにつれて、解像度向上の効果が小さくなることになる。この性質を利用し、水平位相差θH(2102)が0近傍(すなわち、係数C4(水平)が1.0近傍)のときは水平解像度変換結果のSR(水平)が弱くなり、水平位相差θH(2102)が0近傍でないとき(すなわち、係数C4(水平)が0.0近傍のとき)は水平解像度変換結果のSR(水平)が強くなるように、係数決定器(3001)にて係数K(水平)を決定する。   The aliasing component removal units (2108), (2109), (2705), and (2706) shown in FIG. 27 have the phase difference θH (2102), phase difference θV (2103), phase difference (θH + θV), position shown in FIG. Based on the phase difference (−θH + θV), the coefficient determiner (109) shown in FIG. 1 generates coefficients C0 to C3 shown in FIG. At this time, when the phase differences θH (2102), θV (2103), (θH + θV), (−θH + θV) are 0, the coefficients C1 and C3 become indefinite, the phase difference θH (2102), In order to prevent the coefficients C1 and C3 from becoming large as θV (2103), (θH + θV), (−θH + θV) approaches 0, the coefficient C4 (0 ≦ C4 ≦ 1) is introduced, and auxiliary pixel interpolation is preferably performed as in the configuration shown in FIG. In other words, the effect of improving the resolution is obtained when the value of the coefficient C4 is 0.0, but the effect of improving the resolution becomes smaller as the value of the coefficient C4 approaches 1.0. Using this property, when the horizontal phase difference θH (2102) is close to 0 (that is, when the coefficient C4 (horizontal) is close to 1.0), the horizontal resolution conversion result SR (horizontal) becomes weak and the horizontal phase difference θH (2102 ) Is not near 0 (i.e., when the coefficient C4 (horizontal) is near 0.0), the coefficient determiner (3001) sets the coefficient K (horizontal) so that the SR (horizontal) of the horizontal resolution conversion result becomes strong. decide.

この一例として、係数K(水平)=(1+C4(水平)*3-C4(垂直)-C4(右下)-C4(右上))/4とすればよい。同様に、係数決定器(3002)(3003)(3004)にて、それぞれ係数K(垂直)、K(右下)、K(右上)を決定する。このとき、独立して変化する係数C4(水平)、係数C4(垂直)、係数C4(右下)、係数C4(右上)に対して、係数K(水平)+係数K(垂直)+係数K(右下)+係数K(右上)=1.0となるよう係数Kを決定して、SR(水平)、SR(垂直)、SR(右下)、SR(右上)を混合する。   As an example of this, the coefficient K (horizontal) = (1 + C4 (horizontal) * 3-C4 (vertical) −C4 (lower right) −C4 (upper right)) / 4 may be set. Similarly, coefficients K (vertical), K (lower right), and K (upper right) are determined by coefficient determiners (3002), (3003), and (3004), respectively. At this time, for coefficient C4 (horizontal), coefficient C4 (vertical), coefficient C4 (lower right), and coefficient C4 (upper right) that change independently, coefficient K (horizontal) + coefficient K (vertical) + coefficient K The coefficient K is determined so that (lower right) + coefficient K (upper right) = 1.0, and SR (horizontal), SR (vertical), SR (lower right), SR (upper right) are mixed.

図31および図32に、混合器(2707)の第3の動作および構成例をそれぞれ示す。図31は図25と同様に水平周波数をμ、垂直周波数をνとして表した2次元周波数領域である。図31において、もとの入力画像の水平サンプリング周波数をμs、垂直サンプリング周波数をνsとすると、図27に示した解像度変換部(4)の出力は、水平周波数μが-μs〜μsの範囲、垂直周波数νが-νs〜νsの範囲の信号となる。   31 and 32 show a third operation and a configuration example of the mixer (2707), respectively. FIG. 31 shows a two-dimensional frequency region in which the horizontal frequency is represented by μ and the vertical frequency is represented by ν, as in FIG. In FIG. 31, when the horizontal sampling frequency of the original input image is μs and the vertical sampling frequency is νs, the output of the resolution converter (4) shown in FIG. 27 is the horizontal frequency μ in the range of −μs to μs, The vertical frequency ν is a signal in the range of −νs to νs.

斜め(右上)の解像度変換による効果が大きいのは、図31に示すような(μ,ν)=(+μs/2, +νs/2)の近傍と(μ,ν)=(-μs/2, -νs/2)の近傍の周波数領域(3101)の成分(特に(μ,ν)=(+μs/2, +νs/2)を含み、μ>0, ν>0となる周波数の領域と、(μ,ν)=(-μs/2, -νs/2)を含み、μ<0, ν<0となる周波数の領域の成分)となる。   The effect of the diagonal (upper right) resolution conversion is large, as shown in FIG. 31, in the vicinity of (μ, ν) = (+ μs / 2, + νs / 2) and (μ, ν) = (− μs / 2, -νs / 2) in the vicinity of the frequency region (3101) (particularly (μ, ν) = (+ μs / 2, + νs / 2), with a frequency such that μ> 0 and ν> 0. Region, and (μ, ν) = (− μs / 2, −νs / 2), and a component of a frequency region where μ <0 and ν <0).

斜め(右下)の解像度変換による効果が大きいのは、図31に示すような(μ,ν)=(+μs/2,-νs/2)の近傍と(μ,ν)=(-μs/2, +νs/2)の近傍の周波数領域(3102)の成分(特に(μ,ν)=(+μs/2, -νs/2)を含み、μ>0, ν<0となる周波数の領域と、(μ,ν)=(-μs/2, +νs/2)を含み、μ<0, ν>0となる周波数の領域の成分)となる。   The effect of the diagonal (lower right) resolution conversion is large because (μ, ν) = (+ μs / 2, −νs / 2) as shown in FIG. 31 and (μ, ν) = (− μs). / 2, + νs / 2) in the frequency region (3102) (particularly (μ, ν) = (+ μs / 2, -νs / 2)), and frequencies where μ> 0 and ν <0 And (μ, ν) = (− μs / 2, + νs / 2), and components in a frequency region where μ <0, ν> 0).

従って、これらの周波数成分(3101)(3102)を2次元フィルタで抽出し、図25に示した周波数成分(2501)(2502)も併せて混合すると、解像度向上効果が大きい成分を選択的に出力することができる。   Therefore, when these frequency components (3101) and (3102) are extracted by a two-dimensional filter and mixed together with the frequency components (2501) and (2502) shown in FIG. 25, components having a large resolution improvement effect are selectively output. can do.

図32に、水平・垂直・斜め(右下)・斜め(右上)の各解像度変換による効果が大きい成分を抽出する混合器(2707)の構成例を示す。同図において、2次元フィルタ(3201)を用いて、混合器(2707)に入力されたSR(右下)の解像度向上効果が大きい周波数領域(3102)の成分を抽出する。同様に、2次元フィルタ(3202)を用いて、混合器(2707)に入力されたSR(右上)の解像度向上効果が大きい周波数領域(3101)の成分を抽出する。また、図26に示した2次元フィルタ(2601)(2602)により、それぞれSR(水平)およびSR(垂直)の解像度向上効果が大きい周波数領域(2501)(2502)の成分を抽出する。周波数領域(2501)(2502)(3101)(3102)以外の成分として、加算器(3203)と乗算器(3204)を用いてSR(水平)、SR(垂直)、SR(右下)、SR(右上)の平均の信号を作り、2次元フィルタ(3205)を用いて、2次元フィルタ(2601)(2602)(3201)(3202)の各通過帯域以外の成分を抽出する。2次元フィルタ(2601)(2602)(3201)(3202)(3205)の各出力信号を加算器(3206)で加算し、混合器(2707)の出力とする。   FIG. 32 shows an example of the configuration of a mixer (2707) that extracts components that have a large effect of horizontal, vertical, diagonal (lower right), and diagonal (upper right) resolution conversion. In the figure, a two-dimensional filter (3201) is used to extract a component in the frequency region (3102) having a large resolution improvement effect of SR (lower right) input to the mixer (2707). Similarly, using the two-dimensional filter (3202), the component of the frequency region (3101) having a large resolution improvement effect of SR (upper right) input to the mixer (2707) is extracted. In addition, the two-dimensional filters (2601) and (2602) shown in FIG. 26 extract components in the frequency regions (2501) and (2502) that have a large resolution improvement effect for SR (horizontal) and SR (vertical), respectively. As components other than frequency domain (2501) (2502) (3101) (3102), SR (horizontal), SR (vertical), SR (bottom right), SR using adder (3203) and multiplier (3204) An average signal (upper right) is created, and components other than the passbands of the two-dimensional filters (2601, 2602, 3201, and 3202) are extracted using the two-dimensional filter (3205). The output signals of the two-dimensional filters (2601), (2602), (3201), (3202), and (3205) are added by the adder (3206) to obtain the output of the mixer (2707).

なお、同図中に示す2次元フィルタ(2601)(2602)(3201)(3202)(3205)の中の丸で囲まれた数字は、それぞれのフィルタのタップ係数の一例を示す。   The numbers in circles in the two-dimensional filters (2601), (2602), (3201), (3202), and (3205) shown in the figure indicate examples of tap coefficients of the respective filters.

以上説明した実施例9に係る画像信号処理装置によれば、水平方向と垂直方向に加えて、斜め方向をも高解像度化した高解像度画像を生成することができる。   According to the image signal processing apparatus according to the ninth embodiment described above, it is possible to generate a high-resolution image in which the resolution in the oblique direction is increased in addition to the horizontal direction and the vertical direction.

なお、特許文献1、特許文献2、非特許文献1に記載されている従来技術により、3フレームを用いて1次元(水平・垂直・斜め(右下)・斜め(右上))の高解像度化を複数方向に対して行い、それらの各結果を図27に示す混合器(2707)に入力して混合し、2次元の解像度変換結果として出力してもよい。この場合、図27に示したように2フレームのみを用いて2次元の解像度変換を行う構成よりもフレームメモリや動き推定部などの信号処理回路の規模が大きくなるが、特許文献1、特許文献2、非特許文献1に記載されているように少なくとも7フレームの信号を用いるよりも、フレームメモリや動き推定部などの信号処理回路の規模を小さくできる。   In addition, according to the prior art described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, one-dimensional (horizontal, vertical, diagonal (lower right), diagonal (upper right)) high resolution using three frames May be performed in a plurality of directions, and each result thereof may be input to the mixer (2707) shown in FIG. 27 and mixed, and output as a two-dimensional resolution conversion result. In this case, as shown in FIG. 27, the scale of the signal processing circuit such as the frame memory and the motion estimation unit is larger than the configuration in which the two-dimensional resolution conversion is performed using only two frames. 2. As described in Non-Patent Document 1, it is possible to reduce the scale of a signal processing circuit such as a frame memory or a motion estimation unit, compared to using a signal of at least 7 frames.

また、特許文献1、特許文献2、非特許文献1に記載されている従来技術に限定されず、その他の従来の高解像度化技術を適用して1次元(水平・垂直・斜め(右下)・斜め(右上))の高解像度化を複数方向に対して行い、それらの各結果を図27に示す混合器(2707)に入力して混合し、2次元の解像度変換結果として出力してもよい。   In addition, the present invention is not limited to the conventional techniques described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, and other one-dimensional (horizontal / vertical / diagonal (lower right)) by applying other conventional high resolution technologies. Even if the resolution (diagonal (upper right)) is increased in a plurality of directions, the respective results are input to the mixer (2707) shown in FIG. 27, mixed, and output as a two-dimensional resolution conversion result. Good.

また、図27では、フレーム#1とフレーム#2の入力信号の組を用いてフレーム#1の解像度を変換する場合を例に挙げて説明したが、これ以外にも例えば、フレーム#1とフレーム#3、フレーム#1とフレーム#4などの複数の組を用いてそれぞれでフレーム#1の解像度を変換し、それらの結果を混合して、フレーム#1の最終的な解像度変換結果としてもよい。   Also, in FIG. 27, the case where the resolution of frame # 1 is converted using a set of input signals of frame # 1 and frame # 2 has been described as an example, but other than this, for example, frame # 1 and frame # 1 # 3, Frame # 1 and Frame # 4, etc. are used to convert the resolution of frame # 1 and mix the results to obtain the final resolution conversion result of frame # 1. .

このときの混合方法として、各結果の平均値をとってもよいし、図23および図24に示したようにフレームごとの係数C4(フレーム)の値に応じて混合してもよい。この場合、係数C4(フレーム)として、フレームごとの係数C4(水平)と係数C4(垂直)のMAX値(小さくないほうの値)を用いてもよい。また、画素ごとにすべての組の係数C4(水平)、C4(垂直)を比較し、係数C4が最も小さい組(すなわち、最も解像度向上効果が大きい組)から得られる解像度変換結果を画素ごとに選択して、フレーム#1の最終的な解像度変換結果としてもよい。   As a mixing method at this time, an average value of the results may be taken, or mixing may be performed according to the value of the coefficient C4 (frame) for each frame as shown in FIGS. In this case, as the coefficient C4 (frame), the MAX value (the smaller value) of the coefficient C4 (horizontal) and the coefficient C4 (vertical) for each frame may be used. Also, all the coefficients C4 (horizontal) and C4 (vertical) are compared for each pixel, and the resolution conversion result obtained from the group with the smallest coefficient C4 (i.e., the group with the greatest resolution improvement effect) is obtained for each pixel. The final resolution conversion result of frame # 1 may be selected.

これにより、例えばフレーム#1を基準として、フレーム#2がフレーム#1よりも過去のフレームであり、フレーム#3がフレーム#1よりも未来のフレームの場合、フレーム#1の時点で被写体が「動き」から「静止」に変化した場合(動き終わり)はフレーム#1とフレーム#2により解像度変換処理が行われ、フレーム#1の時点で被写体が「静止」から「動き」に変換した場合(動き始め)はフレーム#1とフレーム#3により解像度変換処理が行われるように画素ごとに各処理結果が混合されるようになるため、被写体の動きを有効に利用でき、解像度向上効果を最も大きくすることができる。   Thus, for example, with frame # 1 as a reference, if frame # 2 is a frame earlier than frame # 1 and frame # 3 is a future frame than frame # 1, the subject is When changing from `` motion '' to `` still '' (end of movement), resolution conversion processing is performed with frame # 1 and frame # 2, and when the subject is converted from `` still '' to `` motion '' at the time of frame # 1 ( (Beginning of motion) Since each processing result is mixed for each pixel so that resolution conversion processing is performed by frame # 1 and frame # 3, the motion of the subject can be used effectively, and the resolution improvement effect is the largest can do.

図33を用いて本発明の実施例10に係る画像信号処理方法について説明する。   An image signal processing method according to Embodiment 10 of the present invention will be described with reference to FIG.

実施例10は、実施例9に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。本実施例の画像信号処理方法を行う画像処理装置は実施例2と同様の図18に示す画像処理装置であるので説明を省略する。   The tenth embodiment relates to an image signal processing method for realizing a process equivalent to the image signal processing in the image signal processing apparatus according to the ninth embodiment by a control unit that cooperates with software. The image processing apparatus that performs the image signal processing method of the present embodiment is the image processing apparatus shown in FIG.

図33に、本実施例の動作のフローチャートの一例を示す。図33のフローチャートは、ステップ(3301)から開始し、ステップ(5-1)(5-2)(5-3)(5-4)にてそれぞれ水平、垂直、斜め(右下)、斜め(右上)の高解像度化を行う。ここで、各ステップ(5-1)(5-2)(5-3)(5-4)では、図14乃至図16に示した処理ステップ(5)、あるいは後述する図42乃至図44に示す処理ステップ(5)のいずれか、水平、垂直、斜め(右下)、斜め(右上)の各方向に実行すればよい。すなわち、π/2位相シフト(1407)(1408)、ヒルベルト変換(1510)などの「周波数-位相」特性を、図28に示すようにそれぞれの方向に応じて変更するとともに、位相差θをθH、θV、(θH+θV)、(-θH+θV)にそれぞれ置き換えて処理すればよい。各ステップ(5-1)(5-2)(5-3)(5-4)の処理結果は、図14乃至図16を用いて説明したように、それぞれのフレームバッファ#3に書き込まれる。続くステップ(3302-1)(3302-2)(3302-3) (3302-4)では、それぞれ垂直、水平、斜め方向の画素補間を行い、出力するフレームの水平・垂直の画素数と同じになるように、2次元フレームバッファ#3の全画素を生成する。続くステップ(3303)では、図29、図30、図32を用いて説明した方法に従って各フレームバッファ#3のデータを画素ごとに混合して、出力用のフレームバッファ#4に出力する。なお、上記第8乃至実施例9の動作をソフトウェアプログラムにより実現する場合には、斜め方向の処理を行うステップ(5-3)(5-4)、それらの結果に対して画素補間を行うステップ(3302-3)(3302-4)は不要である。また、ステップ(3303)の混合方法として、図22、図23、図26を用いて説明した方法に従って、データを混合する。   FIG. 33 shows an example of a flowchart of the operation of the present embodiment. The flowchart of FIG. 33 starts from step (3301), and in steps (5-1), (5-2), (5-3), and (5-4), horizontal, vertical, diagonal (lower right), diagonal ( Increase the resolution in the upper right). Here, in each step (5-1) (5-2) (5-3) (5-4), the processing step (5) shown in FIG. 14 to FIG. 16 or FIG. 42 to FIG. Any one of the processing steps (5) shown may be executed in the horizontal, vertical, diagonal (lower right), and diagonal (upper right) directions. In other words, the `` frequency-phase '' characteristics such as π / 2 phase shift (1407) (1408) and Hilbert transform (1510) are changed according to the respective directions as shown in FIG. 28, and the phase difference θ is changed to θH , ΘV, (θH + θV), and (−θH + θV). The processing results of steps (5-1), (5-2), (5-3), and (5-4) are written into the respective frame buffers # 3 as described with reference to FIGS. In the following steps (3302-1), (3302-2), (3302-3) and (3302-4), vertical, horizontal, and diagonal pixel interpolation is performed, respectively, to the same number of horizontal and vertical pixels as the output frame. Thus, all the pixels of the two-dimensional frame buffer # 3 are generated. In the subsequent step (3303), the data of each frame buffer # 3 is mixed for each pixel according to the method described with reference to FIGS. 29, 30, and 32, and is output to the output frame buffer # 4. When the operations of the eighth to ninth embodiments are realized by a software program, steps (5-3) and (5-4) for performing oblique processing, and steps for performing pixel interpolation on these results (3302-3) and (3302-4) are not required. In addition, as a mixing method in step (3303), data is mixed according to the method described with reference to FIGS.

以上説明した実施例10に係る画像信号処理方法によれば、水平方向と垂直方向に加えて、斜め方向をも高解像度化した高解像度画像を生成することができる。   According to the image signal processing method according to the tenth embodiment described above, it is possible to generate a high-resolution image in which the resolution in the oblique direction is increased in addition to the horizontal direction and the vertical direction.

図38に、本発明の実施例11に係る画像処理装置を示す。本実施例に係る画像処理装置は、例えばテレビジョン放送信号などの動画像のフレーム列が入力される入力部(1)と、この入力部(1)から入力された4枚のフレームを用いて、水平方向に2倍、垂直方向にそれぞれ2倍の高解像度化を行うための解像度変換部(8)と、更にこの解像度変換部(8)によって高解像度化されたフレームに基づき画像を表示する表示部(3)とを備えている。この解像度変換部(8)では、入力された4枚のフレームの各画像信号に対して、水平方向、垂直方向および水平・垂直方向のそれぞれに位相シフトを行うことによって、2次元周波数領域における折返し成分を除去して、2次元の高解像度化を実現する。以下、解像度変換部(8)の詳細について説明する。   FIG. 38 shows an image processing apparatus according to Embodiment 11 of the present invention. The image processing apparatus according to the present embodiment uses, for example, an input unit (1) to which a frame sequence of a moving image such as a television broadcast signal is input, and four frames input from the input unit (1). A resolution converter (8) for increasing the resolution twice in the horizontal direction and twice in the vertical direction, and further displaying an image based on the frame that has been increased in resolution by the resolution converter (8). And a display unit (3). This resolution conversion unit (8) performs a phase shift in the horizontal direction, vertical direction, and horizontal / vertical direction for each of the input image signals of the four frames, thereby folding back in the two-dimensional frequency domain. Removes components and achieves two-dimensional high resolution. Details of the resolution conversion unit (8) will be described below.

図38において、まず位置推定部(3806-2)(3806-3)(3806-4)により、入力部(1)から入力されたフレーム#1上の処理対象の画素の2次元的なサンプリング位置(標本化位置)を基準として、フレーム#2、フレーム#3、フレーム#4の上のそれぞれの対応する画像の2次元的な位置を推定し、水平位相差θH2(3807-2)、θH3(3807-3)、θH4(3807-4)、および垂直位相差θV2(3808-2)、θV3(3808-3)、θV4(3808-4)を求める。次に、動き補償・アップレート部(3810)の水平・垂直アップレート器(3801-1)(3801-2)(3801-3)(3801-4)により、上記位相差θH2(3807-2)、θH3(3807-3)、θH4(3807-4)、θV2(3808-2)、θV3(3808-3)、θV4(3808-4)の各情報を用いて、フレーム#2、フレーム#3、フレーム#4を動き補償してフレーム#1と位置を合わせるとともに、各フレームの画素数をそれぞれ水平2倍化、垂直2倍化して、合計4倍に高密度化する。位相シフト部(3811)では、この高密度化したデータの位相を、水平位相シフト器(3803-1)(3803-2)(3803-3)(3803-4)、垂直位相シフト器(3804-1)(3804-2)(3804-3)(3804-4)、水平・垂直位相シフト器(3805-1)(3805-2)(3805-3)(3805-4)を用いて、水平方向、垂直方向、水平・垂直方向にそれぞれ一定量だけシフトする。ここで、データの位相を一定量だけシフトする手段とし
て、上述したヒルベルト変換器などのπ/2位相シフト器を用いることができる。折返し成分除去部(3809)では、上述した位相シフト部(3811)からの合計16個の信号と、位相推定部(3812)からの合計6個の位相差信号を用いて、水平・垂直のそれぞれの方向の折返し成分を除去し、出力を得る。この出力は、表示部3に供給される。なお、位置推定部(3806-2)(3806-3)(3806-4)は、上記従来技術をそのまま用いて実現することができる。水平・垂直アップレート器(3801-1)(3801-2)(3801-3)(3801-4)は、図5および図6に示した動作・構成を水平・垂直方向の2次元に拡張したものである。位相シフト部(3811)、折返し成分除去部(3809)の各詳細については後述する。
In FIG. 38, first, the position estimation units (3806-2), (3806-3), and (3806-4) perform two-dimensional sampling positions of pixels to be processed on frame # 1 input from the input unit (1). Using the (sampling position) as a reference, the two-dimensional position of each corresponding image on frame # 2, frame # 3, and frame # 4 is estimated, and the horizontal phase difference θH2 (3807-2), θH3 ( 3807-3), θH4 (3807-4), and vertical phase differences θV2 (3808-2), θV3 (3808-3), and θV4 (3808-4). Next, the phase difference θH2 (3807-2) is obtained by the horizontal / vertical uprater (3801-1) (3801-2) (3801-3) (3801-4) of the motion compensation / uprate unit (3810). , ΘH3 (3807-3), θH4 (3807-4), θV2 (3808-2), θV3 (3808-3), θV4 (3808-4) information, frame # 2, frame # 3, The frame # 4 is compensated for motion and aligned with the frame # 1, and the number of pixels in each frame is doubled horizontally and doubled, respectively, for a total density of 4 times. In the phase shift unit (3811), the phase of this high-density data is converted into horizontal phase shifters (3803-1) (3803-2) (3803-3) (3803-4), vertical phase shifters (3804- 1) Horizontal direction using (3804-2) (3804-3) (3804-4), horizontal / vertical phase shifter (3805-1) (3805-2) (3805-3) (3805-4) Shift by a fixed amount in the vertical, horizontal and vertical directions. Here, a π / 2 phase shifter such as the above-mentioned Hilbert transformer can be used as means for shifting the phase of data by a certain amount. The aliasing component removal unit (3809) uses a total of 16 signals from the above-described phase shift unit (3811) and a total of 6 phase difference signals from the phase estimation unit (3812), respectively, horizontally and vertically. The output is obtained by removing the aliasing component in the direction of. This output is supplied to the display unit 3. Note that the position estimation units (3806-2), (3806-3), and (3806-4) can be realized using the above-described conventional technique as it is. The horizontal / vertical up-rater (3801-1) (3801-2) (3801-3) (3801-4) extends the operation and configuration shown in Figs. 5 and 6 to two dimensions in the horizontal and vertical directions. Is. Details of the phase shift unit (3811) and the aliasing component removal unit (3809) will be described later.

図39に、水平・垂直位相シフト器(3805-1)(3805-2)(3805-3)(3805-4)の構成例を示す。画像信号の水平方向の位相と垂直方向の位相は互いに独立なため、水平・垂直位相シフト器(3805)は、垂直位相シフト器(3804)と水平位相シフト器(3803)を同図のように直列に組み合わせて実現できる。また、接続順序を逆にし、水平位相シフト器(3803)を垂直位相シフト器(3804)の前に配置しても同一の動作となることは明らかである。   FIG. 39 shows a configuration example of the horizontal / vertical phase shifters (3805-1), (3805-2), (3805-3), and (3805-4). Since the horizontal and vertical phases of the image signal are independent of each other, the horizontal / vertical phase shifter (3805) has the vertical phase shifter (3804) and horizontal phase shifter (3803) as shown in the figure. Can be realized by combining in series. Also, it is clear that the same operation can be achieved even if the connection order is reversed and the horizontal phase shifter (3803) is arranged in front of the vertical phase shifter (3804).

図40に、上述した位相シフト部(3811)、折返し成分除去部(3809)の各詳細な動作を示す。同図(a)は、水平周波数をμ、垂直周波数をνとして表した2次元周波数領域である
。もとの入力画像の水平サンプリング周波数をμs、垂直サンプリング周波数をνsとすると、同図(a)の原点(すなわち(μ,ν)=(0, 0))の近傍の信号を原成分として、(μ,ν)=(μs, 0)、(μ,ν)=(0,νs)、(μ,ν)=(μs,νs)の位置に折返し成分が生じることがよく知られている。なお、これらの原点対称の位置(すなわち、(μ,ν)=(-μs, 0)、(μ,ν)=(0, -νs)、(μ,ν)=(-μs,-νs))にも折返し成分が生じるが、これらは周波数の対称性により、(μ,ν)=(μs, 0)、(μ,ν)=(0,νs)、(μ,ν)=(μs,νs)の位置の折返し成分とそれぞれ等価である。図38に示した解像度変換部(8)にて、水平方向に2倍、垂直方向にそれぞれ2倍の高解像度化を行うには、動き補償・アップレート部(3810)にて水平方向、垂直方向のそれぞれに2倍のアップレート(0挿入)を行って画素数を4倍にしたのちに、図40(a)に示した(μ,ν)=(μs, 0)、(μ,ν)=(0,νs)、(μ,ν)=(μs,νs)の位置に生じた折返し成分を除去すればよい。以下、その動作について説明する。
FIG. 40 shows detailed operations of the phase shift unit (3811) and the aliasing component removal unit (3809) described above. FIG. 4A shows a two-dimensional frequency region in which the horizontal frequency is μ and the vertical frequency is ν. When the horizontal sampling frequency of the original input image is μs and the vertical sampling frequency is νs, the signal near the origin (i.e., (μ, ν) = (0, 0)) in FIG. It is well known that a folding component is generated at the position of (μ, ν) = (μs, 0), (μ, ν) = (0, νs), (μ, ν) = (μs, νs). Note that these origin symmetrical positions (i.e., (μ, ν) = (-μs, 0), (μ, ν) = (0, -νs), (μ, ν) = (-μs, -νs) ) Also produces aliasing components, but these are due to the symmetry of the frequency (μ, ν) = (μs, 0), (μ, ν) = (0, νs), (μ, ν) = (μs, It is equivalent to the folded component at the position of νs). In the resolution conversion unit (8) shown in FIG. 38, in order to increase the resolution twice in the horizontal direction and twice in the vertical direction, the motion compensation / uprate unit (3810) can perform horizontal and vertical After double the up rate (0 insertion) in each direction to quadruple the number of pixels, (μ, ν) = (μs, 0), (μ, ν) shown in FIG. ) = (0, νs), (μ, ν) = (μs, νs) may be removed. The operation will be described below.

図40(b)に、(μ,ν)=(0, 0) 、(μ,ν)=(μs, 0)、(μ,ν)=(0,νs)、(μ,ν)=(μs,νs)の位置における各成分の水平位相回転と垂直位相回転の様子を示す。図4に示したように、サンプリング位相が異なる複数のフレーム間では、原成分の位相回転は生じず、折返し成分のみがサンプリング位相差に応じて位相回転する。そこで、原成分の位相を基準(Re軸)とし、図38に示した位相シフト部(3811)によって水平、垂直、水平・垂直方向に位相直交軸(Im軸)の成分が発生することを考えると、図40(b)に示すように、原成分である(μ,ν)=(0, 0)(すなわち、#1)の水平Re軸(=水平方向の位相回転なし)かつ垂直Re軸(垂直方向の位相回転なし)の成分の値(各位相シフト後の信号の合計値)だけを「1」とし、他の成分(すなわち、#2〜#16)の値を「0」とすれば、折返し成分をキャンセルして、原成分だけを抽出することができる。   In FIG. 40 (b), (μ, ν) = (0, 0), (μ, ν) = (μs, 0), (μ, ν) = (0, νs), (μ, ν) = ( The state of horizontal phase rotation and vertical phase rotation of each component at the position of μs, νs) is shown. As shown in FIG. 4, the phase rotation of the original component does not occur between a plurality of frames having different sampling phases, and only the aliasing component rotates in phase according to the sampling phase difference. Therefore, using the phase of the original component as a reference (Re axis), it is considered that the phase shift unit (3811) shown in FIG. 38 generates components of the phase orthogonal axis (Im axis) in the horizontal, vertical, horizontal and vertical directions. 40 (b), the original component (μ, ν) = (0, 0) (that is, # 1) horizontal Re axis (= no horizontal phase rotation) and vertical Re axis Only set the value of the component (no phase rotation in the vertical direction) (the total value of the signals after each phase shift) to `` 1 '' and the values of the other components (i.e., # 2 to # 16) to `` 0 ''. For example, the folded component can be canceled and only the original component can be extracted.

図40(c)に、上記図40(b)に示した位相関係を実現するためのマトリクス演算式を示す。同図において、Mは16×16の要素を持つマトリクスであり、水平、垂直、水平・垂直の各位相回転を示す演算である。このマトリクスMの詳細については、後述する。また、同図の左辺は図40(b)の「値」を示し、右辺のC1ReRe乃至C4ImImは図38に示した折返し成分除去部(3809)にて位相シフト部(3811)の各出力信号に乗じる係数を示す。すなわち、図38に示すフレーム#1については、遅延器(3802-1)の出力信号に係数C1ReReを乗じ、水平位相シフト器(3803-1)の出力信号に係数C1ImReを乗じ、垂直位相シフト器(3804-1)の出力信号に係数C1ReImを乗じ、水平・垂直位相シフト器(3805-1)の出力信号に係数C1ImImを乗じる。以下同様に、フレーム#2については、遅延器(3802-2)の出力信号に係数C2ReReを乗じ、水平位相シフト器(3803-2)の出力信号に係数C2ImReを乗じ、垂直位相シフト器(3804-2)の出力信号に係数C2ReImを乗じ、水平・垂直位相シフト器(3805-2)の出力信号に係数C2ImImを乗じる。フレーム#3については、遅延器(3802-3)の出力信号に係数C1ReReを乗じ、水平位相シフト器(3803-3)の出力信号に係数C3ImReを乗じ、垂直位相シフト器(3804-3)の出力信号に係数C3ReImを乗じ、水平・垂直位相シフト器(3805-3)の出力信号に係数C3ImImを乗じる。フレーム#4については、遅延器(3802-4)の出力信号に係数C4ReReを乗じ、水平位相シフト器(3803-4)の出力信号に係数C4ImReを乗じ、垂直位相シフト器(3804-4)の出力信号に係数C4ReImを乗じ、水平・垂直位相シフト器(3805-4)の出力信号に係数C4ImImを乗じる。後述する折返し成分除去部(3809)にて、上記の係数を乗じた合計16の信号をすべて加算したときに、図40(c)の関係が常に成り立つように上記係数C1ReRe乃至C4ImImを定めれば、折返し成分をキャンセルして、原成分だけを抽出することができる。   FIG. 40 (c) shows a matrix arithmetic expression for realizing the phase relationship shown in FIG. 40 (b). In the figure, M is a matrix having 16 × 16 elements, and is an operation indicating horizontal, vertical, horizontal / vertical phase rotation. Details of the matrix M will be described later. In addition, the left side of the figure shows the “value” in FIG. 40B, and C1ReRe to C4ImIm on the right side are output to the output signals of the phase shift unit (3811) by the aliasing component removal unit (3809) shown in FIG. Indicates the coefficient to be multiplied. That is, for frame # 1 shown in FIG. 38, the output signal of the delay unit (3802-1) is multiplied by the coefficient C1ReRe, the output signal of the horizontal phase shifter (3803-1) is multiplied by the coefficient C1ImRe, and the vertical phase shifter The output signal of (3804-1) is multiplied by a coefficient C1ReIm, and the output signal of the horizontal / vertical phase shifter (3805-1) is multiplied by a coefficient C1ImIm. Similarly, for frame # 2, the output signal of the delay unit (3802-2) is multiplied by the coefficient C2ReRe, the output signal of the horizontal phase shifter (3803-2) is multiplied by the coefficient C2ImRe, and the vertical phase shifter (3804 The output signal of -2) is multiplied by the coefficient C2ReIm, and the output signal of the horizontal / vertical phase shifter (3805-2) is multiplied by the coefficient C2ImIm. For frame # 3, the output signal of the delay unit (3802-3) is multiplied by the coefficient C1ReRe, the output signal of the horizontal phase shifter (3803-3) is multiplied by the coefficient C3ImRe, and the vertical phase shifter (3804-3) The output signal is multiplied by a coefficient C3ReIm, and the output signal of the horizontal / vertical phase shifter (3805-3) is multiplied by a coefficient C3ImIm. For frame # 4, the output signal of the delay unit (3802-4) is multiplied by the coefficient C4ReRe, the output signal of the horizontal phase shifter (3803-4) is multiplied by the coefficient C4ImRe, and the vertical phase shifter (3804-4) The output signal is multiplied by a coefficient C4ReIm, and the output signal of the horizontal / vertical phase shifter (3805-4) is multiplied by a coefficient C4ImIm. If the above-described coefficients C1ReRe to C4ImIm are determined so that the relationship shown in FIG. 40 (c) always holds when all the 16 signals multiplied by the above coefficients are added by the aliasing component removal unit (3809) described later. It is possible to cancel the folded component and extract only the original component.

図40(d)に、マトリクスMの詳細を示す。マトリクスMは、上述したように16×16の要素を持つマトリクスであり、mij(ただし、行番号iと列番号jは、1≦i≦4、1≦j≦4を満たす整数)で表される4×4の要素を持つ部分マトリクスから構成される。この部分マトリクスmijは、行番号iに応じて同図(e)(f)(g)(h)のように分類される。   FIG. 40 (d) shows details of the matrix M. The matrix M is a matrix having 16 × 16 elements as described above, and is represented by mij (where row number i and column number j are integers satisfying 1 ≦ i ≦ 4 and 1 ≦ j ≦ 4). It consists of a partial matrix with 4x4 elements. This partial matrix mij is classified as shown in (e), (f), (g), and (h) in FIG.

図40(e)に、行番号i=1のときの部分マトリクスm1j(すなわち、m11、m12、m13、m14)の各要素を示す。この部分マトリクスm1jは、周波数(μ,ν)=(0, 0)の成分に作用する要素であり、フレーム間のサンプリング位相差にかかわらず水平・垂直の位相回転は生じないため、単位マトリクス(すなわち、右下がりの対角線上にある要素がすべて1で、残りの要素がすべて0のマトリクス)となる。   FIG. 40 (e) shows each element of the partial matrix m1j (that is, m11, m12, m13, m14) when the row number i = 1. This partial matrix m1j is an element acting on the component of the frequency (μ, ν) = (0, 0), and no horizontal / vertical phase rotation occurs regardless of the sampling phase difference between frames. That is, a matrix in which all the elements on the diagonal to the lower right are 1 and the remaining elements are all 0).

図40(f)に、行番号i=2のときの部分マトリクスm2j(すなわち、m21、m22、m23、m24)の各要素を示す。この部分マトリクスm2jは、(μ,ν)=(μs, 0)の成分に作用する要素であり、サンプリングの水平位相差θHj(ただし、jは1≦j≦4を満たす整数)に応じて、水平方向の位相を回転させる回転マトリクスとなる。すなわち、垂直位相軸が共通の図40(b)に示す#5と#6、および#7と#8をそれぞれペアとして、水平周波数軸を中心にθHjだけ位相回転させる回転マトリクスとなる。なお、j=1のときの水平位相差θH1は図38に示されていないが、これはフレーム#1(基準)とフレーム#1(処理対象=基準と同一)との間の位相差(=0)と解釈し、θH1=0として扱えばよい。以下、垂直位相差θV1についても同様にθV1=0として扱う。   FIG. 40 (f) shows each element of the partial matrix m2j (that is, m21, m22, m23, m24) when the row number i = 2. This partial matrix m2j is an element acting on the component of (μ, ν) = (μs, 0), and according to the horizontal phase difference θHj of sampling (where j is an integer satisfying 1 ≦ j ≦ 4), This is a rotation matrix that rotates the phase in the horizontal direction. That is, a rotation matrix is obtained by rotating the phase by θHj around the horizontal frequency axis with # 5 and # 6 and # 7 and # 8 shown in FIG. 40 (b) having a common vertical phase axis as a pair. Note that the horizontal phase difference θH1 when j = 1 is not shown in FIG. 38, but this is the phase difference between the frame # 1 (reference) and the frame # 1 (processing target = same as the reference) (= 0) and treated as θH1 = 0. Hereinafter, the vertical phase difference θV1 is similarly treated as θV1 = 0.

図40(g)に、行番号i=3のときの部分マトリクスm3j(すなわち、m31、m32、m33、m34)の各要素を示す。この部分マトリクスm3jは、(μ,ν)=(0,νs)の成分に作用する要素であり、サンプリングの垂直位相差θVj(ただし、jは1≦j≦4を満たす整数)に応じて、垂直方向の位相を回転させる回転マトリクスとなる。すなわち、水平位相軸が共通の図40(b)に示す#9と#11、および#10と#12をそれぞれペアとして、垂直周波数軸を中心にθVjだけ位相回転させる回転マトリクスとなる。   FIG. 40 (g) shows each element of the partial matrix m3j (that is, m31, m32, m33, m34) when the row number i = 3. This partial matrix m3j is an element acting on the component of (μ, ν) = (0, νs), and according to the sampling vertical phase difference θVj (where j is an integer satisfying 1 ≦ j ≦ 4), This is a rotation matrix that rotates the phase in the vertical direction. That is, a rotation matrix is obtained by rotating the phase by θVj around the vertical frequency axis with # 9 and # 11 and # 10 and # 12 shown in FIG.

図40(h)に、行番号i=4のときの部分マトリクスm4j(すなわち、m41、m42、m43、m44)の各要素を示す。この部分マトリクスm4jは、(μ,ν)=(μs,νs)の成分に作用する要素であり、サンプリングの水平位相差θHjと垂直位相差θVj(ただし、jは1≦j≦4を満たす整数)の両方に応じて、水平方向、垂直方向ともに位相を回転させる回転マトリクスとなる。すなわち、上記m2jとm3jの積となる。   FIG. 40 (h) shows each element of the partial matrix m4j (that is, m41, m42, m43, m44) when the row number i = 4. This partial matrix m4j is an element acting on the component of (μ, ν) = (μs, νs), and the sampling horizontal phase difference θHj and vertical phase difference θVj (where j is an integer satisfying 1 ≦ j ≦ 4) ), The rotation matrix rotates the phase in both the horizontal and vertical directions. That is, it is the product of m2j and m3j.

別の見方をすると、m1j、m2j、m3jについても、m4jのように水平方向、垂直方向ともに位相を回転させる回転マトリクスとし、m1jの場合はθHj=θVj=0、m2jの場合はθVj=0、m3jの場合はθHj=0、に設定したと考えても、上記説明と同一の部分マトリクスとなる。   From another viewpoint, m1j, m2j, and m3j are also rotation matrices that rotate the phase in both the horizontal and vertical directions as in m4j. For m1j, θHj = θVj = 0, for m2j, θVj = 0 In the case of m3j, even if it is assumed that θHj = 0, the partial matrix is the same as described above.

このように、各サンプリング位相差(θHj、θVj)をもとにマトリクスMを決定し、図40(c)に示す等式が常に成り立つように、合計16個の係数(C1ReRe乃至C4ImIm)を決定する。この際、マトリクスMに対する逆マトリクスM-1を予め求めておき、図40(i)に示す演算によって係数(C1ReRe乃至C4ImIm)を決定すればよい。逆マトリクスM-1を求める方法として、余因子行列を使う方法、Gauss-Jordanの掃き出し法を使う方法、三角行列にわけて計算する方法などがよく知られているため、ここでは図示を省略する。 In this way, the matrix M is determined based on each sampling phase difference (θHj, θVj), and a total of 16 coefficients (C1ReRe to C4ImIm) are determined so that the equation shown in FIG. 40 (c) always holds. To do. At this time, an inverse matrix M −1 with respect to the matrix M is obtained in advance, and the coefficients (C1ReRe to C4ImIm) may be determined by the calculation shown in FIG. As a method for obtaining the inverse matrix M −1 , a method using a cofactor matrix, a method using a Gauss-Jordan sweep-out method, a method of calculating by dividing into a triangular matrix, etc. are well known. .

図41に、図38に示した折返し成分除去部(3809)の詳細な構成例を示す。同図において、係数決定部(4101)では、図38に示した位置推定部(3812)から出力される水平位相差(θH2、θH3、θH4)および垂直位相差(θV2、θV3、θV4)に基づき、図40(i)に示した逆マトリクス演算によって、各係数(C1ReRe乃至C4ImIm)を生成する。これらの係数を、位相シフト部(3811)から出力された各フレームの信号と乗算器(4102)によって掛け合わせ、加算器(4103)により全加算して、折返し成分除去部(3809)の出力信号(すなわち、解像度変換部(8)の出力信号)とする。なお、水平位相差(θH2、θH3、θH4)および垂直位相差(θV2、θV3、θV4)は入力フレーム上の画素ごとに値が異なることが一般的なため、画素ごとに上述の逆マトリクス演算を行う必要がある。このとき、水平位相差(θH2、θH3、θH4)および垂直位相差(θV2、θV3、θV4)を代表的な位相差(例えば、図9(d)に示したようなπ/8の整数倍など)として予め各係数(C1ReRe乃至C4ImIm)を生成しておき、ROM(Read Only Memory)などを用いてテーブル化しておいてもよい。これは、一般的なテーブル参照方式としてよく知られているため、図示は省略する。   FIG. 41 shows a detailed configuration example of the aliasing component removal unit (3809) shown in FIG. In the figure, the coefficient determination unit (4101) is based on the horizontal phase differences (θH2, θH3, θH4) and vertical phase differences (θV2, θV3, θV4) output from the position estimation unit (3812) shown in FIG. Each coefficient (C1ReRe to C4ImIm) is generated by the inverse matrix operation shown in FIG. These coefficients are multiplied by the signal of each frame output from the phase shift unit (3811) by the multiplier (4102), fully added by the adder (4103), and output from the aliasing component removal unit (3809). (That is, the output signal of the resolution converter (8)). The horizontal phase difference (θH2, θH3, θH4) and vertical phase difference (θV2, θV3, θV4) are generally different for each pixel on the input frame, so the above inverse matrix calculation is performed for each pixel. There is a need to do. At this time, the horizontal phase difference (θH2, θH3, θH4) and the vertical phase difference (θV2, θV3, θV4) are representative phase differences (for example, an integral multiple of π / 8 as shown in FIG. 9D). ), The coefficients (C1ReRe to C4ImIm) may be generated in advance and tabulated using a ROM (Read Only Memory) or the like. Since this is well known as a general table reference method, illustration is omitted.

図42に、図38に示した折返し成分除去部(3809)の他の構成例を示す。上述の説明では、図40(c)に示す等式が常に成り立つように、合計16個の係数(C1ReRe乃至C4ImIm)を決定する際に、マトリクスMに対する逆マトリクスM-1を予め求めておき、図40(i)に示す演算によって係数(C1ReRe乃至C4ImIm)を決定しようとしたが、水平位相差(θH2、θH3、θH4)および垂直位相差(θV2、θV3、θV4)の値によっては逆マトリクスM-1が存在せず、係数(C1ReRe乃至C4ImIm)を決定できない場合がある。逆マトリクスM-1が存在するかどうかは、係数決定部(4101)にて逆マトリクスM-1を算出する際に、余因子行列を使う方法、Gauss-Jordanの掃き出し法を使う方法、三角行列にわけて計算する方法などの演算過程で容易に判定可能であり、逆マトリクスM-1が存在しない場合は、上述した図21などに示した解像度変換部(4)によってフレーム#1とフレーム#2を用いて出力信号を得るように、出力信号を切り替えればよい。すなわち、図42に示す水平方向の折返し成分除去部(2108)、垂直方向の折返し成分除去部(2109)、画素補間器(2003)(2007)、混合器(2009)を用い、位相シフト部(3811)から出力されたフレーム#1とフレーム#2、および、位置推定部から出力された水平位相差θH2(3807-2)と垂直位相差θV2(3808-2)をもとに、解像度変換結果を生成し、切替器(4201)を用いて上述した加算器(4103)の結果と切り替えて、出力信号とすればよい。なお、切替器(4201)を用いて2値的に切り替えるのではなく、加算器(4103)の出力と混合器(2009)の出力とを連続的に混合(すなわち加重加算)するように構成し、例えば逆マトリクスM-1が存在しない画素の近傍は混合器(2009)の出力の混合比を増やすように構成してもよい。 FIG. 42 shows another configuration example of the aliasing component removal unit (3809) shown in FIG. In the above description, when determining a total of 16 coefficients (C1ReRe to C4ImIm) so that the equation shown in FIG. 40 (c) always holds, an inverse matrix M −1 for the matrix M is obtained in advance. The coefficients (C1ReRe to C4ImIm) are to be determined by the calculation shown in FIG. 40 (i), but depending on the values of the horizontal phase differences (θH2, θH3, θH4) and vertical phase differences (θV2, θV3, θV4), the inverse matrix M In some cases, −1 does not exist and the coefficients (C1ReRe to C4ImIm) cannot be determined. Whether the inverse matrix M −1 exists is determined by calculating the inverse matrix M −1 in the coefficient determination unit (4101), using a cofactor matrix, using a Gauss-Jordan sweep-out method, and a triangular matrix If the inverse matrix M −1 does not exist, it can be easily determined in the calculation process such as the calculation method, and the frame # 1 and the frame # are processed by the resolution conversion unit (4) shown in FIG. The output signal may be switched so that the output signal is obtained using 2. That is, the horizontal folding component removal unit (2108), the vertical folding component removal unit (2109), the pixel interpolator (2003) (2007), and the mixer (2009) shown in FIG. 3811) and the horizontal phase difference θH2 (3807-2) and vertical phase difference θV2 (3808-2) output from the position estimation unit. And the result of the adder (4103) described above using the switch (4201) to switch to the output signal. Instead of binary switching using the switch (4201), the output of the adder (4103) and the output of the mixer (2009) are continuously mixed (that is, weighted addition). For example, in the vicinity of a pixel where the inverse matrix M −1 does not exist, the mixing ratio of the output of the mixer (2009) may be increased.

以上説明した折返し成分の除去処理により、図40(a)に示す2次元周波数領域において、水平方向については中心から(μ,ν)=(μs, 0)まで解像度向上効果が図れる。また、垂直方向については中心から(μ,ν)=(0,νs)まで解像度向上効果が図れる。また、斜め方向については中心から(μ,ν)=(μs,νs) まで解像度向上効果が図れる。   With the aliasing component removal processing described above, in the two-dimensional frequency region shown in FIG. 40A, the effect of improving the resolution can be achieved from the center to (μ, ν) = (μs, 0) in the horizontal direction. In the vertical direction, the effect of improving the resolution can be achieved from the center to (μ, ν) = (0, νs). In the oblique direction, the effect of improving the resolution can be achieved from the center to (μ, ν) = (μs, νs).

ここで、実施例7に係る画像信号処理装置及び画像信号処理方法においても、水平方向と垂直方向に加えて、斜め方向をも高解像度化を行っているが、その斜め方向の解像度向上効果は、図31に示すように、(μ,ν)=(μs,νs) までは及ばない。   Here, also in the image signal processing apparatus and the image signal processing method according to the seventh embodiment, the resolution is increased in the oblique direction in addition to the horizontal direction and the vertical direction. As shown in FIG. 31, it does not reach (μ, ν) = (μs, νs).

よって、図38に示す画像信号処理装置は、実施例7に係る画像信号処理装置よりも斜め方向において高周波成分まで解像度向上が可能となるという効果を有する。   Therefore, the image signal processing device shown in FIG. 38 has an effect that the resolution can be improved to a high frequency component in an oblique direction as compared with the image signal processing device according to the seventh embodiment.

次に、図44を用いて、本発明の実施例11に係る画像信号処理装置と従来技術の動作の違いを説明する。同図(a)は、図38に示した解像度変換部(8)に入力されたフレーム#1(4401)、フレーム#2(4402)、フレーム#3(4403)、フレーム#4(4404)、フレーム#5(4405)を示し、同図(b)は解像度変換部(8)から出力された各フレームを示す。各フレームにて、被写体が1/4画素ずつ右回りに移動し、4フレームで1周するように意図的に被写体を移動させる。この動きをフレーム#5以降も同様に連続させる。   Next, the difference in operation between the image signal processing apparatus according to the eleventh embodiment of the present invention and the prior art will be described with reference to FIG. The figure (a) shows frame # 1 (4401), frame # 2 (4402), frame # 3 (4403), frame # 4 (4404), frame # 4 input to the resolution converter (8) shown in FIG. A frame # 5 (4405) is shown, and FIG. 5B shows each frame output from the resolution conversion unit (8). In each frame, the subject moves clockwise by 1/4 pixel, and the subject is intentionally moved so as to make one round in four frames. This movement is continued in the same manner from frame # 5.

特許文献1、特許文献2、非特許文献1に記載されている従来技術では、上述したよう
に、水平・垂直の2次元の入力信号に対して高解像度化する場合、折返しが縦横2方向から
来るので、原信号の帯域が縦横共に2倍に広がると、3つの折返し成分が重なり、それらを
打ち消すためには2M+1=7個のデジタルデータ(=7枚のフレーム画像の信号)を必要としてい
た。従って、図34(a)に示すような4フレームで一巡するような信号を入力した場合、ど
の7フレームを選択しても独立したデータが得られないため、高解像度化処理による解が
不定となり求められない。
In the conventional techniques described in Patent Document 1, Patent Document 2, and Non-Patent Document 1, as described above, when the resolution is increased with respect to a horizontal / vertical two-dimensional input signal, folding is performed from two vertical and horizontal directions. Therefore, if the bandwidth of the original signal doubles both vertically and horizontally, the three aliasing components overlap, and 2M + 1 = 7 digital data (= 7 frame image signals) is required to cancel them. I was trying. Therefore, when a signal that circulates in 4 frames as shown in FIG. 34 (a) is input, independent data cannot be obtained no matter which 7 frames are selected, and the solution by the high resolution processing becomes indefinite. It is not required.

一方、実施例11を用いれば、例えば隣接する4フレーム(フレーム#1(4401)とフレーム#2(4402)、フレーム#3(4403)、フレーム#4(4404))を用いて、同図(b)に示すように水平方向、垂直方向、水平・垂直方向の折返し成分を除去して高解像度化を実現できる。すなわち、同図(a)の入力画像をテストパターンとして用いることにより、本実施例の動作状況を確認することができる。このテストパターンの絵柄として、一般的によく知られている円形ゾーンプレート(CZP:Circular Zone Plate)を用いれば、解像度変換の効果を表示部(3)にて直視できるようになる。すなわち、円形ゾーンプレートを図44(a)に示すように4フレームで1周するように移動させれば、つねに水平方向の解像度と垂直方向の解像度が向上した画像が表示されて、解像度向上の効果を確認することができる。   On the other hand, according to the eleventh embodiment, for example, four adjacent frames (frame # 1 (4401) and frame # 2 (4402), frame # 3 (4403), frame # 4 (4404)) are used as shown in FIG. As shown in b), it is possible to realize high resolution by removing aliasing components in the horizontal direction, vertical direction, and horizontal / vertical direction. That is, the operation status of the present embodiment can be confirmed by using the input image of FIG. If a generally well-known circular zone plate (CZP: Circular Zone Plate) is used as the pattern of this test pattern, the effect of resolution conversion can be directly viewed on the display unit (3). That is, if the circular zone plate is moved so as to make one round in four frames as shown in FIG. 44 (a), an image with improved horizontal resolution and vertical resolution is always displayed. The effect can be confirmed.

以上説明したように、実施例11に係る画像信号処理装置は、4枚の入力画像フレームの各画像信号に対し、方向の異なる複数種類の位相シフト(水平方向、垂直方向、水平・垂直方向)を行うことにより、各画像信号のそれぞれから4つの信号を生成する。これにより、4枚の入力画像フレームの画像信号から16個の信号を生成する。ここで、上記4枚の入力画像フレームの位相差に基づいて、当該16個の信号の各信号について、当該16個の信号を折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成画像のそれぞれの画素について、上記16個の信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。   As described above, the image signal processing apparatus according to the eleventh embodiment has a plurality of types of phase shifts (horizontal direction, vertical direction, horizontal / vertical direction) with respect to each image signal of four input image frames. Is performed to generate four signals from each of the image signals. As a result, 16 signals are generated from the image signals of the four input image frames. Here, based on the phase difference between the four input image frames, for each of the 16 signals, a coefficient for canceling the aliasing component of the 16 signals and combining them is calculated for each pixel. For each pixel of the generated image, the sum of the corresponding pixel value of each of the 16 signals multiplied by each coefficient is calculated to generate a new pixel value of the high-resolution image.

これにより、実施例11に係る画像信号処理装置は、水平方向と垂直方向に加えて、右下方向および右上方向の斜め成分をも高解像度化した高解像度画像を生成することができる。   Thus, the image signal processing apparatus according to the eleventh embodiment can generate a high-resolution image in which the diagonal components in the lower right direction and the upper right direction are increased in addition to the horizontal direction and the vertical direction.

また、実施例11に係る画像信号処理装置による解像度向上効果は、斜め方向において、実施例7に係る画像信号処理装置よりもさらに高周波成分まで解像度向上が可能であり、より高画質な高解像度画像を生成することができる。   Further, the effect of improving the resolution by the image signal processing apparatus according to the eleventh embodiment is that the resolution can be improved to a higher frequency component in the oblique direction than the image signal processing apparatus according to the seventh embodiment, and a higher-resolution high-resolution image can be obtained. Can be generated.

図43及び図19を用いて本発明の実施例12に係る画像信号処理方法について説明する。   An image signal processing method according to Embodiment 12 of the present invention will be described with reference to FIGS.

実施例12は、実施例11に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。   The twelfth embodiment relates to an image signal processing method in which processing equivalent to the image signal processing in the image signal processing apparatus according to the eleventh embodiment is realized by a control unit that cooperates with software.

ここで、図19を用いて本実施例に係る画像信号処理方法を実現するための画像処理装置について説明する。図19に示す画像信号処理装置は、例えばテレビジョン放送信号などの画像信号が入力される入力部(1)と、入力部(1)から入力された信号を処理するためのソフトウェアを記憶する記憶部(11)と、記憶部(11)に記憶されるソフトウェアと協働して入力部(1)から入力された信号について画像信号処理を行う制御部(10)と、制御部(10)が当該画像信号処理においてデータのバッファに用いるフレームバッファ#1(31)、フレームバッファ#2(32)、フレームバッファ#3(33)、フレームバッファ#4(34)と、制御部(10)から出力部(3)に出力される画像信号処理後の信号を、フレームバッファするためのバッファ#5(35)とを備える。   Here, an image processing apparatus for realizing the image signal processing method according to the present embodiment will be described with reference to FIG. The image signal processing apparatus shown in FIG. 19 stores, for example, an input unit (1) to which an image signal such as a television broadcast signal is input, and software for processing the signal input from the input unit (1). A control unit (10) that performs image signal processing on a signal input from the input unit (1) in cooperation with software stored in the unit (11), the storage unit (11), and a control unit (10) Output from the frame buffer # 1 (31), frame buffer # 2 (32), frame buffer # 3 (33), frame buffer # 4 (34), and the control unit (10) used as a data buffer in the image signal processing A buffer # 5 (35) for frame-buffering the image signal processed signal output to the unit (3).

ここで、図19に示す画像信号処理装置が備える入力部(1)の数は、画像処理に用いるフレーム数である4と同じとしたが、入力部(1)を一つだけ備えて、4つフレームを連続して入力しても構わない。   Here, the number of input units (1) included in the image signal processing apparatus shown in FIG. 19 is the same as four, which is the number of frames used for image processing. One frame may be input continuously.

また、データのバッファに用いるフレームバッファ#1(31)、フレームバッファ#2(32)、フレームバッファ#3(33)、フレームバッファ#4(34)、およびソフトウェアを記憶する記憶部(11)は、それぞれが個別のメモリチップを用いて構成してもよいし、1個あるいは複数個のメモリチップを用い、各データアドレスを分割して使用する構成にしてもよい。   In addition, the frame buffer # 1 (31), the frame buffer # 2 (32), the frame buffer # 3 (33), the frame buffer # 4 (34), and the storage unit (11) for storing software are used for the data buffer. Each may be configured using individual memory chips, or one or a plurality of memory chips may be used to divide and use each data address.

本実施例において、入力部(1)から入力される画像信号について、制御部(10)が記憶部(11)に記憶されるソフトウェアと協働して画像信号処理を行い、表示部(3)に出力する。当該画像信号処理の詳細は図43を用いて説明する。   In this embodiment, for the image signal input from the input unit (1), the control unit (10) performs image signal processing in cooperation with software stored in the storage unit (11), and the display unit (3) Output to. Details of the image signal processing will be described with reference to FIG.

図43のフローチャートは、ステップ(4301)から開始し、ステップ(4302-1)(4302-2)(4302-3)(4302-4)にて各フレームの画像データを水平・垂直ともにそれぞれ2倍にアップレートする。すなわち、ステップ(4302-1)にてフレーム#1の画像データをアップレートしてフレームバッファ#1に書込み、ステップ(4302-2)にてフレーム#2の画像データをアップレートしてフレームバッファ#2に書き込み、ステップ(4302-3)にてフレーム#3の画像データをアップレートしてフレームバッファ#3に書込み、ステップ(4302-4)にてフレーム#4の画像データをアップレートしてフレームバッファ#4に書き込む。ここで、アップレートとは、各フレームバッファの値を一旦0でクリアしたのちに、水平1画素おき、かつ垂直1画素おきにデータを書き込むことにより実現できる。   The flowchart in FIG. 43 starts from step (4301), and in steps (4302-1), (4302-2), (4302-3), and (4302-4), the image data of each frame is doubled both horizontally and vertically. Update to That is, the image data of frame # 1 is updated at step (4302-1) and written to frame buffer # 1, and the image data of frame # 2 is updated at step (4302-2) to frame buffer # 1. 2 is written, the image data of frame # 3 is updated at step (4302-3) and written to frame buffer # 3, and the image data of frame # 4 is updated at step (4302-4) to frame. Write to buffer # 4. Here, the up-rate can be realized by writing the data every other horizontal pixel and every other vertical pixel after once clearing the value of each frame buffer to 0.

次に、ステップ(4303)にて、フレームバッファ#1の最初の画素(例えば左上の画素)を処
理対象に設定して、以下、フレームバッファ#1に対するすべての画素データの処理が終わ
るまで、処理をループする。
Next, in step (4303), the first pixel (for example, the upper left pixel) of frame buffer # 1 is set as a processing target, and processing is performed until processing of all pixel data for frame buffer # 1 is completed. Loop.

ステップ(4304-2)では、フレームバッファ#1の対象画素を基準にしてフレームバッファ#2の中の対応する画素の位置を推定し、水平位相差θH2と垂直位相差θV2を出力する。同様に、ステップ(4304-3)では、フレームバッファ#1の対象画素を基準にしてフレームバッファ#3の中の対応する画素の位置を推定し、水平位相差θH3と垂直位相差θV3を出力する。また、ステップ(4304-4)では、フレームバッファ#1の対象画素を基準にしてフレームバッファ#4の中の対応する画素の位置を推定し、水平位相差θH4と垂直位相差θV4を出力する。このとき、対応する画素の位置を推定する方法として、上記の従来技術をそのまま用いることができる。   In step (4304-2), the position of the corresponding pixel in the frame buffer # 2 is estimated based on the target pixel in the frame buffer # 1, and the horizontal phase difference θH2 and the vertical phase difference θV2 are output. Similarly, in step (4304-3), the position of the corresponding pixel in the frame buffer # 3 is estimated based on the target pixel in the frame buffer # 1, and the horizontal phase difference θH3 and the vertical phase difference θV3 are output. . In step (4304-4), the position of the corresponding pixel in the frame buffer # 4 is estimated based on the target pixel in the frame buffer # 1, and the horizontal phase difference θH4 and the vertical phase difference θV4 are output. At this time, the above-described conventional technique can be used as it is as a method of estimating the position of the corresponding pixel.

ステップ(4305-2)では、ステップ(4304-2)で求めた水平位相差θH2と垂直位相差θV2をもとに、フレームバッファ#2の中の対応する画素の近傍の画素を動き補償する。この動き補償の動作は、図5および図6を用いて説明した動作を、水平方向と垂直方向のそれぞれに対して同様に行えばよい。同様に、ステップ(4305-3)では、ステップ(4304-3)で求めた水平位相差θH3と垂直位相差θV3をもとに、フレームバッファ#3の中の対応する画素の近傍の画素を動き補償する。また、ステップ(4305-4)では、ステップ(4304-4)で求めた水平位相差θH4と垂直位相差θV4をもとに、フレームバッファ#4の中の対応する画素の近傍の画素を動き補償する。   In step (4305-2), based on the horizontal phase difference θH2 and vertical phase difference θV2 obtained in step (4304-2), pixels near the corresponding pixel in the frame buffer # 2 are motion compensated. In this motion compensation operation, the operation described with reference to FIGS. 5 and 6 may be performed in the same manner for each of the horizontal direction and the vertical direction. Similarly, in step (4305-3), based on the horizontal phase difference θH3 and vertical phase difference θV3 obtained in step (4304-3), a pixel in the vicinity of the corresponding pixel in frame buffer # 3 is moved. To compensate. In step (4305-4), based on the horizontal phase difference θH4 and vertical phase difference θV4 obtained in step (4304-4), motion compensation is performed on pixels near the corresponding pixel in frame buffer # 4. To do.

続いて、ステップ(4313)にて、フレームバッファ#1と動き補償したフレームバッファ#2、フレームバッファ#3、フレームバッファ#4に対して、ステップ(4306-1)(4306-2)(4306-3)(4306-4)により水平位相を一定量だけシフトし、ステップ(4307-1)(4307-2)(4307-3)(4307-4)により垂直位相を一定量だけシフトする。また、ステップ(4307-1)(4307-2)(4307-3)(4307-4)の結果に対して、さらにステップ(4308-1)(4308-2)(4308-3)(4308-4)によって水平位相を一定量だけシフトすることにより、水平と垂直の両方の位相を、一定量だけシフトする。すなわち、各フレームバッファの中の画素データを、水平方向および垂直方向にπ/2位相シフトする。   Subsequently, in step (4313), steps (4306-1), (4306-2), (4306-) are applied to frame buffer # 1, frame buffer # 2, frame buffer # 3, and frame buffer # 4 subjected to motion compensation. 3) The horizontal phase is shifted by a certain amount by (4306-4), and the vertical phase is shifted by a certain amount by steps (4307-1), (4307-2), (4307-3) and (4307-4). Further, for the results of steps (4307-1) (4307-2) (4307-3) (4307-4), further steps (4308-1) (4308-2) (4308-3) (4308-4) ) Shifts the horizontal phase by a certain amount, thereby shifting both the horizontal and vertical phases by a certain amount. That is, the pixel data in each frame buffer is phase shifted by π / 2 in the horizontal direction and the vertical direction.

続いて、ステップ(4309)にて、水平位相差(θH2、θH3、θH4)および垂直位相差(θV2、θV3、θV4)に基づいて図40に示した方法で全16個の各係数(C1ReRe乃至C4ImIm)を決定し、ステップ(4313)の各出力と上記各係数を乗算して加算(加重加算)することにより、フレームバッファ#1、フレームバッファ#2、フレームバッファ#3、フレームバッファ#4の画素データから折返し成分を除去し、フレームバッファ#5に出力する。この折返し成分除去の動作は、図41あるいは図42を用いて説明した動作と同一である。   Subsequently, in step (4309), a total of 16 coefficients (C1ReRe to C1ReRe through the method shown in FIG. 40 are used based on the horizontal phase differences (θH2, θH3, θH4) and the vertical phase differences (θV2, θV3, θV4). C4ImIm) and multiplying each output of step (4313) by the above coefficients and adding (weighted addition), frame buffer # 1, frame buffer # 2, frame buffer # 3, frame buffer # 4 The aliasing component is removed from the pixel data and output to frame buffer # 5. The operation of removing the aliasing component is the same as the operation described with reference to FIG. 41 or FIG.

続いて、ステップ(4310)にて、フレームバッファ#1の全画素の処理が完了したかどうか
を判定し、完了していなければ、ステップ(4311)で次の画素(例えば右隣の画素)を処理の
対象に設定してステップ(4304-2)(4304-3)(4304-4)以降に戻り、完了していればステップ(4312)にて処理を終了する。
Subsequently, in step (4310), it is determined whether or not the processing of all the pixels in the frame buffer # 1 has been completed.If the processing has not been completed, the next pixel (for example, the right adjacent pixel) is determined in step (4311). The process is set as a process target, and the process returns to steps (4304-2), (4304-3), and (4304-4). If completed, the process ends in step (4312).

以上のような処理を行うことにより、フレームバッファ#1、フレームバッファ#2、フレームバッファ#3、フレームバッファ#4の画素データを用いて、フレームバッファ#5に高解像度化した信号を出力することができる。動画に応用する場合は、ステップ(4301)からステップ(4312)に至る処理を、フレームごとに繰り返せばよい。   By performing the processing as described above, using the pixel data of frame buffer # 1, frame buffer # 2, frame buffer # 3, and frame buffer # 4, a high-resolution signal is output to frame buffer # 5. Can do. When applied to a moving image, the processing from step (4301) to step (4312) may be repeated for each frame.

なお、図38、図41、図42、図43にて、入力するフレームの枚数を4枚として説明したが、本発明はこれに限定されるものではなく、n枚(ただし、nは4以上の整数)のフレームを入力とし、この中から上述の解像度変換処理に適した4枚のフレームを選択して使用するようにしてもよい。例えば、図40(i)に示した逆マトリクス演算を出力する際に、逆マトリクスM-1が存在しない画素ができるだけ少なくなるように、n枚のフレームの中から解像度変換処理に使用する4枚のフレームを選択し、画素ごとあるいは複数の画素からなる領域ごとに切り替える構成にしてもよい。 In FIG. 38, FIG. 41, FIG. 42, and FIG. 43, the number of input frames has been described as four. However, the present invention is not limited to this, and n frames (where n is 4 or more). (Integer integer) may be input, and four frames suitable for the resolution conversion process described above may be selected and used. For example, when outputting the inverse matrix operation shown in FIG. 40 (i), four frames used for resolution conversion processing from n frames so that the number of pixels in which the inverse matrix M −1 does not exist is minimized. This frame may be selected and switched for each pixel or for each region composed of a plurality of pixels.

よって、実施例12に係る画像信号処理方法は、斜め方向において実施例10に係る画像信号処理方法よりもさらに高周波成分まで解像度向上が可能となるという効果を有する。その効果の詳細は、実施例11にて説明した図38に示す画像信号処理装置の効果と同様であるため説明を省略する。   Therefore, the image signal processing method according to the twelfth embodiment has an effect that the resolution can be improved to a higher frequency component in the oblique direction than the image signal processing method according to the tenth embodiment. Details of the effect are the same as the effect of the image signal processing apparatus shown in FIG.

以上説明したように、実施例12に係る画像信号処理方法は、4枚の入力画像フレームの各画像信号に対し、方向の異なる複数種類の位相シフト(水平方向、垂直方向、水平・垂直方向)を行うことにより、各画像信号のそれぞれから4つの信号を生成する。これにより、4枚の入力画像フレームの画像信号から16個の信号を生成する。ここで、上記4枚の入力画像フレームの位相差に基づいて、当該16個の信号の各信号について、当該16個の信号を折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成画像のそれぞれの画素について、上記16個の信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。   As described above, the image signal processing method according to the twelfth embodiment has a plurality of types of phase shifts (horizontal direction, vertical direction, horizontal / vertical direction) with different directions for each image signal of four input image frames. Is performed to generate four signals from each of the image signals. As a result, 16 signals are generated from the image signals of the four input image frames. Here, based on the phase difference between the four input image frames, for each of the 16 signals, a coefficient for canceling the aliasing component of the 16 signals and combining them is calculated for each pixel. For each pixel of the generated image, the sum of the corresponding pixel value of each of the 16 signals multiplied by each coefficient is calculated to generate a new pixel value of the high-resolution image.

これにより、実施例12に係る画像信号処理方法は、水平方向と垂直方向に加えて、右下方向および右上方向の斜め成分をも高解像度化した高解像度画像を生成することができる。   Accordingly, the image signal processing method according to the twelfth embodiment can generate a high-resolution image in which the diagonal components in the lower right direction and the upper right direction are increased in addition to the horizontal direction and the vertical direction.

また、実施例12に係る画像信号処理方法による解像度向上効果は実施例10に係る画像信号処理方法よりも斜め方向において高周波成分まで解像度向上が可能であり、より高画質な高解像度画像を生成することができる。   Further, the resolution improvement effect by the image signal processing method according to the twelfth embodiment can improve the resolution to a high frequency component in an oblique direction as compared with the image signal processing method according to the tenth embodiment, and generates a high-resolution image with higher image quality. be able to.

なお、上述した実施例1乃至実施例12に係る画像信号処理装置あるいは画像信号処理方法では、画像の解像度を向上させながら画素数を2倍に増加させる場合を例に挙げて説明したが、この画像信号処理装置あるいは画像信号処理方法を複数回もしくは多段的にに作用させることにより、例えば、画素数を2のべき乗倍(=2倍、4倍、8倍…)に増加させることも可能である。すなわち、2枚の入力画像フレームを用いて信号処理することにより、画素数を2倍に増加させて中間画像フレームとしたのちに、さらにこの中間画像フレームを2枚用いて、新たな入力画像フレームとして信号処理することにより、画素数をさらに2倍に増加させた出力画像フレームを得ることができる。この場合、入力画像フレームと比較して、4倍の画素数の出力画像フレームを得ることができる。同様に、信号処理をトータル3回繰り返せば、入力画像フレームと比較して、出力画像フレームの画素数は8倍になる。この際、1枚の出力画像フレームを得るために必要な入力画像フレームの枚数も、2のべき乗(=2枚、4枚、8枚…)となる。   In the image signal processing apparatus or the image signal processing method according to the first to twelfth embodiments described above, the case where the number of pixels is doubled while improving the resolution of the image has been described as an example. For example, the number of pixels can be increased to a power of 2 (= 2 times, 4 times, 8 times, etc.) by operating the image signal processing apparatus or the image signal processing method multiple times or in multiple stages. is there. In other words, by performing signal processing using two input image frames, the number of pixels is doubled to form an intermediate image frame, and then, two additional intermediate image frames are used to create a new input image frame. As a result, an output image frame in which the number of pixels is further doubled can be obtained. In this case, an output image frame having four times the number of pixels can be obtained as compared with the input image frame. Similarly, if the signal processing is repeated a total of three times, the number of pixels of the output image frame is eight times that of the input image frame. At this time, the number of input image frames necessary to obtain one output image frame is also a power of 2 (= 2, 4, 8,...).

なお、最終的な出力画像に関しては、上記画像処理後に一般的な解像度変換処理をおこなうことにより、上記の2のべき乗倍(=2倍、4倍、8倍…)以外の画素数で出力することも可能である。   The final output image is output with the number of pixels other than the power of 2 (= 2 times, 4 times, 8 times, etc.) by performing a general resolution conversion process after the image processing. It is also possible.

図35に、本発明の実施例13に係る画像表示装置を示す。本実施例に係る画像表示装置は、上述の実施例7または実施例8のいずれか一の実施例に記載された画像信号処理を行う構成とした画像表示装置である。   FIG. 35 shows an image display apparatus according to Embodiment 13 of the present invention. The image display apparatus according to the present embodiment is an image display apparatus configured to perform the image signal processing described in any one of the seventh embodiment and the eighth embodiment.

同図において、画像表示装置3500は、例えば、テレビジョン信号などを含む放送波やネットワークなどを介して放送信号や映像コンテンツや画像コンテンツなどを入力する入力部3501と、入力部3501から入力されたコンテンツを録画もしくは再生する録画再生部3502と、録画再生部3502がコンテンツを記録するコンテンツ蓄積部3503と、録画再生部3502が再生した映像信号または画像信号に実施例7または実施例8のいずれか一の実施例に記載された画像信号処理装置である画像信号処理部3504と、画像信号処理部3504にて処理された映像信号または画像信号を表示する表示部3505と、録画再生部3502が再生した音声信号を出力する音声出力部3506と、画像表示装置3500の各構成部を制御する制御部3507と、ユーザーが画像表示装置3500の操作を行うユーザインターフェース部3508などを備える。   In the figure, an image display device 3500 includes, for example, an input unit 3501 for inputting a broadcast signal, video content, image content, and the like via a broadcast wave including a television signal, a network, and the like, and an input unit 3501 A recording / playback unit 3502 for recording or playing back content, a content storage unit 3503 for recording content by the recording / playback unit 3502, and a video signal or an image signal played back by the recording / playback unit 3502 are either of Embodiment 7 or Embodiment 8. An image signal processing unit 3504 that is an image signal processing device described in one embodiment, a display unit 3505 that displays a video signal or an image signal processed by the image signal processing unit 3504, and a recording / playback unit 3502 for playback An audio output unit 3506 that outputs the audio signal, a control unit 3507 that controls each component of the image display device 3500, and a user interface that allows the user to operate the image display device 3500. It provided with a such as the face portion 3508.

画像信号処理部3504の詳細な動作については、実施例7または実施例8に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is as described in the seventh embodiment or the eighth embodiment, and thus the description thereof is omitted.

画像表示装置3500が実施例7または実施例8のいずれか一の実施例に記載された画像信号処理装置である画像信号処理部3504を備えることで、入力部3501に入力された映像信号または画像信号をより高解像度で高画質な映像信号または画像信号として表示部3505に表示することができる。よって、表示部3505の表示デバイスの解像度よりも、低解像度の信号が入力部3501から入力された場合も、再生信号を高解像度化しつつ高画質で高精細な表示を行うことが可能となる。   Since the image display device 3500 includes the image signal processing unit 3504 that is the image signal processing device described in any one of the seventh embodiment and the eighth embodiment, the video signal or the image input to the input unit 3501 The signal can be displayed on the display portion 3505 as a video signal or image signal with higher resolution and higher image quality. Therefore, even when a signal having a resolution lower than that of the display device of the display unit 3505 is input from the input unit 3501, it is possible to perform high-quality and high-definition display while increasing the resolution of the reproduction signal.

また、コンテンツ蓄積部3503に蓄積された映像コンテンツまたは画像コンテンツを再生する際も、より高解像度で高画質な映像信号または画像信号に変換して表示部3505に表示することができる。   In addition, when playing back video content or image content stored in the content storage unit 3503, it can be converted into a video signal or image signal with higher resolution and higher image quality and displayed on the display unit 3505.

また、画像信号処理部3504の画像処理をコンテンツ蓄積部3503に蓄積された映像コンテンツまたは画像コンテンツの再生後に行うことにより、コンテンツ蓄積部3503に蓄積されるデータは、表示部3505に表示される解像度のよりも相対的に低解像度である。よって相対的にコンテンツのデータ量を小さくして蓄積できるという効果がある。   In addition, by performing image processing of the image signal processing unit 3504 after reproduction of video content or image content stored in the content storage unit 3503, data stored in the content storage unit 3503 is displayed at a resolution displayed on the display unit 3505. Relatively lower resolution than Therefore, there is an effect that the content data amount can be relatively reduced and stored.

また、画像信号処理部3504を録画再生部3502に含め、録画時に上述の画像信号処理を行ってもよい。この場合は、再生時には上述の画像信号処理を行う必要が無いため、再生時の処理負荷を低減できるという効果がある。   Further, the image signal processing unit 3504 may be included in the recording / playback unit 3502, and the above-described image signal processing may be performed during recording. In this case, since it is not necessary to perform the above-described image signal processing during reproduction, the processing load during reproduction can be reduced.

ここで、上述の画像信号処理は画像信号処理部3504にて行うと説明したが、制御部3507とソフトウェアで実現しても良い。この場合、実施例7または実施例8のいずれかの実施例に記載された方法で画像信号処理を行えばよい。   Here, it has been described that the above-described image signal processing is performed by the image signal processing unit 3504, but may be realized by a control unit 3507 and software. In this case, the image signal processing may be performed by the method described in any one of the seventh embodiment and the eighth embodiment.

本実施例において、録画再生部3502は、録画時は入力部3501から入力された映像などのコンテンツの状態に応じて、符号化を行ってからコンテンツ蓄積部3503に記録すればよい。   In this embodiment, the recording / playback unit 3502 may perform encoding according to the state of content such as video input from the input unit 3501 during recording, and then record it in the content storage unit 3503.

また、本実施例において、録画再生部3502は、録画時は入力部3501から入力された映像などのコンテンツが符号化された状態であれば、復号化を行って再生すればよい。   In the present embodiment, the recording / reproducing unit 3502 may perform decoding and decoding if content such as video input from the input unit 3501 is encoded during recording.

また、本実施例に係る画像表示装置において、コンテンツ蓄積部3503は必ずしも必要ない。この場合は、録画再生部3503は録画せず、入力部3501から入力された映像などのコンテンツの再生を行えばよい。   In the image display apparatus according to the present embodiment, the content storage unit 3503 is not necessarily required. In this case, the recording / playback unit 3503 may perform playback of content such as video input from the input unit 3501 without recording.

この場合も、入力部3501に入力された映像信号または画像信号をより高解像度で高画質な映像信号または画像信号として表示部3505に表示することができる。   Also in this case, the video signal or image signal input to the input unit 3501 can be displayed on the display unit 3505 as a video signal or image signal with higher resolution and higher image quality.

また、画像表示装置3500は、例えば、プラズマテレビでも、液晶テレビでも、ブラウン管でも、プロジェクタでもよく、また他のデバイスを用いた装置でも良い。同様に、表示部3505は例えば、プラズマパネルモジュールでも、LCDモジュールでも、プロジェクタ用デバイスでもよい。また、コンテンツ蓄積部3503は例えば、ハードディスクドライブでも、フラッシュメモリでもよく、リムーバブルメディアディスクドライブでもよい。音声出力部3506は例えば、スピーカ等でもよい。また、入力部3501は、放送波を受信するチューナを備えたものでもよく、またネットワークと接続するLAN用コネクタを備えたものでもよく、USBコネクタを備えたものでもよい。さらに、映像信号や音声信号をデジタル入力する端子を備えたものでもよく、コンポジット端子やコンポーネント端子などのアナログ入力端子を備えたものでもよい。また、ワイヤレスにてデータを転送する受信部でも良い。   The image display apparatus 3500 may be, for example, a plasma television, a liquid crystal television, a cathode ray tube, a projector, or an apparatus using other devices. Similarly, the display unit 3505 may be, for example, a plasma panel module, an LCD module, or a projector device. The content storage unit 3503 may be, for example, a hard disk drive, a flash memory, or a removable media disk drive. The audio output unit 3506 may be a speaker, for example. The input unit 3501 may be provided with a tuner that receives broadcast waves, may be provided with a LAN connector for connecting to a network, or may be provided with a USB connector. Furthermore, a terminal that digitally inputs a video signal or an audio signal may be provided, or an analog input terminal such as a composite terminal or a component terminal may be provided. Further, it may be a receiver that transfers data wirelessly.

以上説明した実施例13に係る画像表示装置によれば、入力映像信号または入力画像信号に含まれる2枚の入力画像フレームの各画像信号に対して位相シフト行い、各画像信号からぞれぞれ2つの信号を生成する。これにより、2枚の入力画像フレームの画像信号から4つの信号を生成する。ここで、2枚の入力画像フレームの位相差に基づいて、当該4つの信号の各信号について、当該4つの信号の折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成する画像のそれぞれの画素について、上記4つの信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。これを生成画像の各画素について行うことにより、入力画像フレームよりも1次元方向に高解像度化した画像を生成する。   According to the image display apparatus according to the thirteenth embodiment described above, each image signal of the two input image frames included in the input video signal or the input image signal is phase-shifted, and each image signal is detected. Two signals are generated. As a result, four signals are generated from the image signals of the two input image frames. Here, based on the phase difference between the two input image frames, for each of the four signals, a coefficient for canceling and combining the aliasing components of the four signals is calculated for each pixel. For each pixel of the image to be generated, a sum is calculated by multiplying the pixel value of the corresponding pixel included in each of the four signals by each coefficient to generate a pixel value of a new high-resolution image. By performing this for each pixel of the generated image, an image having a higher resolution in the one-dimensional direction than the input image frame is generated.

これを水平方向と垂直方向のそれぞれに行い、水平方向に高解像度化した画像と垂直方向に高解像度化した画像を生成する。当該水平方向に高解像度化した画像と垂直方向に高解像度化した画像とについて、それぞれ、垂直方向、水平方向にアップレート処理を行ったのち、両者を混合する。   This is performed in each of the horizontal direction and the vertical direction, and an image with high resolution in the horizontal direction and an image with high resolution in the vertical direction are generated. The image having the high resolution in the horizontal direction and the image having the high resolution in the vertical direction are subjected to up-rate processing in the vertical direction and the horizontal direction, respectively, and then both are mixed.

これにより、入力映像信号または入力画像信号に含まれる2枚の入力画像フレームの各画像信号から、垂直方向と水平方向との両方向に高解像度化した高解像度画像を生成することができる。すなわち2次元高解像度画像を生成することができ、これを表示部に表示することができる。   As a result, a high-resolution image with high resolution in both the vertical direction and the horizontal direction can be generated from each image signal of two input image frames included in the input video signal or the input image signal. That is, a two-dimensional high resolution image can be generated and displayed on the display unit.

また、また、実施例13に係る画像表示装置は、2枚の入力画像フレームを用いるため、少ない画像処理量で高解像度表示を実現することができる。これにより、折り返し成分が少なく、垂直方向と水平方向との両方向について高解像度な映像または画像を表示部に表示する画像表示装置を実現することが可能である。   In addition, since the image display apparatus according to the thirteenth embodiment uses two input image frames, high-resolution display can be realized with a small image processing amount. Accordingly, it is possible to realize an image display apparatus that displays a high-resolution video or image on the display unit in both the vertical direction and the horizontal direction with few aliasing components.

本発明の実施例14に係る画像表示装置は、実施例13に係る画像表示装置において、図35に示す画像信号処理部3504を実施例9に記載された画像信号処理装置に替えたものである。その他構成は、実施例13に係る画像表示装置と同じである為、説明を省略する。   An image display device according to Embodiment 14 of the present invention is the same as the image display device according to Embodiment 13, except that the image signal processing unit 3504 shown in FIG. 35 is replaced with the image signal processing device described in Embodiment 9. . Since other configurations are the same as those of the image display apparatus according to the thirteenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例9に記載したとおりであるので、説明を省略する。   Further, the detailed operation of the image signal processing unit 3504 is as described in the ninth embodiment, and thus the description thereof is omitted.

実施例14に係る画像表示装置によれば、入力映像信号または入力画像信号に含まれる2枚の入力画像フレームをもちいて、入力映像または入力画像よりも水平方向、垂直方向および斜め方向について高解像度化した高解像度画像を生成することが可能である。またこれを表示部に表示する画像表示装置を実現することができる。   With the image display device according to the fourteenth embodiment, the input video signal or two input image frames included in the input image signal are used, and the resolution is higher in the horizontal, vertical, and diagonal directions than the input video or input image. It is possible to generate a high resolution image. Further, it is possible to realize an image display device that displays this on the display unit.

本発明の実施例15に係る画像表示装置は、実施例13に係る画像表示装置において、図35に示す画像信号処理部3504を実施例11に記載された画像信号処理装置に替えたものである。その他構成は、実施例13に係る画像表示装置と同じである為、説明を省略する。   An image display device according to Embodiment 15 of the present invention is obtained by replacing the image signal processing unit 3504 shown in FIG. 35 with the image signal processing device described in Embodiment 11 in the image display device according to Embodiment 13. . Since other configurations are the same as those of the image display apparatus according to the thirteenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例11に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is the same as that described in the eleventh embodiment, and a description thereof will be omitted.

実施例15に係る画像表示装置によれば、入力映像信号または入力画像信号に含まれる4枚の入力画像フレームをもちいて、入力映像または入力画像よりも水平方向、垂直方向および斜め方向について高解像度化した高解像度画像を生成し、表示部に表示する画像表示装置を実現することができる。   With the image display device according to the fifteenth embodiment, the input video signal or the four input image frames included in the input image signal are used, and the resolution is higher in the horizontal, vertical, and diagonal directions than the input video or input image. An image display device that generates a high-resolution image and displays it on the display unit can be realized.

また、実施例15に係る画像表示装置による解像度向上効果は、実施例14に係る画像表示装置よりも斜め方向において高周波成分まで解像度向上が可能であり、より高画質な高解像度画像を表示することができる。   Further, the resolution improvement effect by the image display device according to the fifteenth embodiment is possible to improve the resolution to a high frequency component in an oblique direction as compared with the image display device according to the fourteenth embodiment, and display a higher resolution image with higher image quality. Can do.

本発明の実施例16に係る画像表示装置は、実施例13に係る画像表示装置において、図35に示す画像信号処理部3504を実施例1、実施例3若しくは実施例5の実施例のうち一の実施例に記載された画像信号処理装置に替えたものである。その他構成は、実施例13に係る画像表示装置と同じである為、説明を省略する。   The image display device according to the sixteenth embodiment of the present invention is the same as the image display device according to the thirteenth embodiment, except that the image signal processing unit 3504 shown in FIG. 35 is one of the first, third, or fifth embodiments. The image signal processing apparatus described in the embodiment is replaced. Since other configurations are the same as those of the image display apparatus according to the thirteenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例1、実施例3若しくは実施例5に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is as described in the first embodiment, the third embodiment, or the fifth embodiment, and thus the description thereof is omitted.

実施例16に係る画像表示装置によれば、入力映像信号または入力画像信号に含まれる2枚の入力画像フレームをもちいて、入力映像または入力画像に比べて一次元方向に高解像度化した高解像度画像を生成し、表示部に表示する画像表示装置を実現することができる。   With the image display device according to the sixteenth embodiment, a high resolution in which the input video signal or two input image frames included in the input image signal are used and the resolution is increased in a one-dimensional direction as compared to the input video or the input image. An image display device that generates an image and displays the image on a display unit can be realized.

図36に、本発明の実施例17に係る録画再生装置を示す。本実施例に係る録画再生装置は、上述の実施例7または実施例8のいずれか一の実施例に記載された画像信号処理を行う構成とした録画再生装置である。   FIG. 36 shows a recording / playback apparatus according to Embodiment 17 of the present invention. The recording / reproducing apparatus according to the present embodiment is a recording / reproducing apparatus configured to perform the image signal processing described in any one of the seventh embodiment and the eighth embodiment.

同図において、録画再生装置3600は、例えば、例えば、テレビジョン信号などを含む放送波やネットワークなどを介して放送信号や映像コンテンツや画像コンテンツなどを入力する入力部3501と、入力部3501から入力されたコンテンツを録画もしくは再生する録画再生部3502と、録画再生部3502がコンテンツを記録するコンテンツ蓄積部3503と、録画再生部3502が再生した映像信号または画像信号に実施例7または実施例8のいずれか一の実施例に記載された画像信号処理装置である画像信号処理部3504と、画像信号処理部3504にて処理された映像信号または画像信号を他の装置などに出力する画像映像出力部3605と、録画再生部3502が再生した音声信号を他の装置などに出力する音声出力部3606と、録画再生装置3600の各構成部を制御する制御部3507と、ユーザーが録画再生装置3600の操作を行うユーザインターフェース部3508などを備える。   In the figure, for example, a recording / playback apparatus 3600 includes, for example, an input unit 3501 for inputting a broadcast signal, video content, image content, and the like via a broadcast wave including a television signal, a network, and the like, and an input from the input unit 3501 A recording / playback unit 3502 for recording or playing back the recorded content, a content storage unit 3503 for recording the content by the recording / playback unit 3502, and a video signal or an image signal played back by the recording / playback unit 3502 according to the seventh or eighth embodiment. An image signal processing unit 3504 that is the image signal processing device described in any one of the embodiments, and an image video output unit that outputs the video signal or image signal processed by the image signal processing unit 3504 to another device or the like 3605, an audio output unit 3606 for outputting the audio signal reproduced by the recording / reproducing unit 3502 to other devices, a control unit 3507 for controlling each component of the recording / reproducing device 3600, a user Over comprises a like user interface unit 3508 for operating the recording and reproducing apparatus 3600.

録画再生装置3600が実施例7または実施例8のいずれか一の実施例に記載された画像信号処理装置である画像信号処理部3504を備えることで、入力部3501に入力された映像信号または画像信号をより高解像度で高画質な映像信号または画像信号として、他の装置などに出力するすることができる。よって、低解像度の映像信号または画像信号を高解像度化しつつ高画質で高精細な映像信号または画像信号に変換する高画質高解像度化信号変換装置が好適に実現できる。   Since the recording / reproducing apparatus 3600 includes the image signal processing unit 3504 that is the image signal processing apparatus described in any one of the seventh and eighth embodiments, the video signal or image input to the input unit 3501 The signal can be output to another device or the like as a video signal or image signal with higher resolution and higher image quality. Therefore, it is possible to suitably realize a high-quality and high-resolution signal conversion apparatus that converts a low-resolution video signal or image signal into a high-quality and high-definition video signal or image signal while increasing the resolution.

また、コンテンツ蓄積部3503に蓄積された映像コンテンツまたは画像コンテンツを再生する際も、より高解像度で高画質な映像信号または画像信号に変換して他の装置などに出力するすることができる。   Also, when playing back video content or image content stored in the content storage unit 3503, it can be converted into a higher-resolution and higher-quality video signal or image signal and output to another device or the like.

よって、低解像度の映像信号または画像信号を入力して蓄積しておき、再生・出力時には高解像度化しつつ高画質で高精細な映像信号または画像信号に変換して出力する録画再生装置が好適に実現できる。   Therefore, a recording / playback apparatus that inputs and stores a low-resolution video signal or image signal, converts it into a high-quality and high-definition video signal or image signal while outputting a high resolution during playback / output, and outputs the video signal is suitable. realizable.

また、画像信号処理部3504の画像処理をコンテンツ蓄積部3503に蓄積された映像コンテンツまたは画像コンテンツの再生後に行うことにより、コンテンツ蓄積部3503に蓄積されるデータは、他の装置に出力する信号の解像度のよりも相対的に低解像度である。よって相対的にコンテンツのデータ量を小さくして蓄積できるという効果がある。   In addition, by performing image processing of the image signal processing unit 3504 after reproduction of video content or image content stored in the content storage unit 3503, data stored in the content storage unit 3503 is a signal output to another device. The resolution is relatively lower than the resolution. Therefore, there is an effect that the content data amount can be relatively reduced and stored.

また、画像信号処理部3504を録画再生部3502に含め、録画時に上述の画像信号処理を行ってもよい。この場合は、再生時には上述の画像信号処理を行う必要が無いため、再生時の処理負荷を低減できるという効果がある。   Further, the image signal processing unit 3504 may be included in the recording / playback unit 3502, and the above-described image signal processing may be performed during recording. In this case, since it is not necessary to perform the above-described image signal processing during reproduction, the processing load during reproduction can be reduced.

ここで、上述の画像信号処理は画像信号処理部3504にて行うと説明したが、制御部3507とソフトウェアで実現しても良い。この場合、実施例7または実施例8のいずれかの実施例に記載された方法で画像信号処理を行えばよい。   Here, it has been described that the above-described image signal processing is performed by the image signal processing unit 3504, but may be realized by a control unit 3507 and software. In this case, the image signal processing may be performed by the method described in any one of the seventh embodiment and the eighth embodiment.

本実施例において、録画再生部3502は、録画時は入力部3501から入力された映像などのコンテンツの状態に応じて、符号化を行ってからコンテンツ蓄積部3503に記録すればよい。   In this embodiment, the recording / playback unit 3502 may perform encoding according to the state of content such as video input from the input unit 3501 during recording, and then record it in the content storage unit 3503.

また、本実施例において、録画再生部3502は、録画時は入力部3501から入力された映像などのコンテンツが符号化された状態であれば、復号化を行って再生すればよい。   In the present embodiment, the recording / reproducing unit 3502 may perform decoding and decoding if content such as video input from the input unit 3501 is encoded during recording.

また、本実施例に係る画像映像出力部3605と音声出力部3606は一体としても構わない。この場合は、映像信号と音声信号を一本のケーブルで出力するコネクタ形状などを用いることができる。   Further, the image / video output unit 3605 and the audio output unit 3606 according to the present embodiment may be integrated. In this case, it is possible to use a connector shape that outputs a video signal and an audio signal with a single cable.

また、録画再生装置3600は、例えば、HDDレコーダでも、DVDレコーダでも、また他の記憶装置デバイスを用いた装置でも良い。同様に、コンテンツ蓄積部3503は例えば、ハードディスクドライブでも、フラッシュメモリでもよく、リムーバブルメディアディスクドライブでもよい。   Further, the recording / playback apparatus 3600 may be, for example, an HDD recorder, a DVD recorder, or an apparatus using another storage device. Similarly, the content storage unit 3503 may be, for example, a hard disk drive, a flash memory, or a removable media disk drive.

また、入力部3501は、放送波を受信するチューナを備えたものでもよく、またネットワークと接続するLAN用コネクタを備えたものでもよく、USBコネクタを備えたものでもよい。さらに、映像信号や音声信号をデジタル入力する端子を備えたものでもよく、コンポジット端子やコンポーネント端子などのアナログ入力端子を備えたものでもよい。また、ワイヤレスでデータを転送する受信部でも良い。   The input unit 3501 may be provided with a tuner that receives broadcast waves, may be provided with a LAN connector for connecting to a network, or may be provided with a USB connector. Furthermore, a terminal that digitally inputs a video signal or an audio signal may be provided, or an analog input terminal such as a composite terminal or a component terminal may be provided. A receiving unit that wirelessly transfers data may also be used.

また、画像映像出力部3605は映像信号をデジタル出力する端子を備えたものでもよく、コンポジット端子やコンポーネント端子などのアナログ出力する端子を備えたものでもよい。またネットワークと接続するLAN用コネクタを備えたものでもよく、USBコネクタを備えたものでもよい。さらに、ワイヤレスでデータを転送する送信部でも良い。音声出力部3606に関しても、画像映像出力部3605と同様である。   Further, the image / video output unit 3605 may be provided with a terminal for digitally outputting a video signal, or may be provided with an analog output terminal such as a composite terminal or a component terminal. In addition, a LAN connector for connecting to a network or a USB connector may be used. Further, it may be a transmission unit that transfers data wirelessly. The audio output unit 3606 is the same as the image video output unit 3605.

さらに、入力部3501は例えば、撮像光学系と受光素子を備えるものとしても良い。この場合、録画再生装置3600は例えば、デジタルカメラ、ビデオカメラ、監視カメラ(監視カメラシステム)などに適用できる。このとき例えば入力部3501は、撮像光学系にて撮影対象を受光素子上に撮像し、受光素子にから出力される信号を元に画像データまたは映像データを生成し、録画再生部3502に出力すればよい。   Furthermore, the input unit 3501 may include, for example, an imaging optical system and a light receiving element. In this case, the recording / playback apparatus 3600 can be applied to, for example, a digital camera, a video camera, a surveillance camera (surveillance camera system), and the like. At this time, for example, the input unit 3501 captures an image of the object to be photographed on the light receiving element by the imaging optical system, generates image data or video data based on the signal output from the light receiving element, and outputs the image data or video data to the recording / playback unit 3502. That's fine.

録画再生装置3600が例えばデジタルカメラであれば、1回の撮影で時間的に異なる複数の画像を記録するようにし、この複数の画像データに画像信号処理部3504の画像信号処理を行えば、1枚の高画質な高解像度画像を得ることができる。尚、画像信号処理部3504の画像処理は、デジタルカメラからデータを出力する際に、コンテンツ蓄積部3503に記録される画像に対して行っても良い。また、録画再生部3502と画像信号処理部3504を一体とするなどして、コンテンツ蓄積部3503に記録するよりも前に、画像信号処理部3504の画像処理を行うようにしても良い。この場合、コンテンツ蓄積部3503には最終的にユーザーが取り扱いたい拡大画像のみを保存すればよく、後にユーザーが画像データを取り扱う際に管理が容易になる。   If the recording / playback apparatus 3600 is a digital camera, for example, a plurality of images that are temporally different from each other are recorded, and if the image signal processing of the image signal processing unit 3504 is performed on the plurality of image data, 1 A high-resolution image with high image quality can be obtained. Note that the image processing of the image signal processing unit 3504 may be performed on an image recorded in the content storage unit 3503 when data is output from the digital camera. Further, the image signal processing unit 3504 may be integrated with the recording / playback unit 3502 and the image signal processing unit 3504 to perform image processing of the image signal processing unit 3504 before recording in the content storage unit 3503. In this case, only the enlarged image that the user wants to handle finally needs to be stored in the content storage unit 3503, and management becomes easier when the user handles image data later.

以上説明したデジタルカメラによれば、デジタルカメラの受光素子の解像度を越えた解像度を有する高画質画像データを得ることができる。   According to the digital camera described above, high-quality image data having a resolution exceeding the resolution of the light receiving element of the digital camera can be obtained.

また、録画再生装置3600が例えばビデオカメラであれば、入力部3501の撮像光学系にて受光素子上に撮像した映像を映像データとして録画再生部3502に出力すればよい。録画再生部3502はコンテンツ蓄積部3503に映像データを記録し、画像信号処理部3504は記録された映像データから、高解像度化された映像データを生成すればよい。このようにすれば、ビデオカメラの受光素子の解像度を越えた解像度を有する高画質映像データを得ることができる。またこのとき、画像信号処理部3504は記録された映像データに含まれる複数のフレームのデータを用いて、一枚のスチル画像データを生成しても良い。このようにすれば、映像データから一枚の高画質画像データを得ることができる。また、上述したデジタルカメラの場合と同様に、画像信号処理部3504の画像処理はコンテンツ蓄積部3503への映像データの記録前でも、記録後でも構わない。   Further, if the recording / playback apparatus 3600 is, for example, a video camera, video captured on the light receiving element by the imaging optical system of the input unit 3501 may be output to the recording / playback unit 3502 as video data. The recording / playback unit 3502 may record video data in the content storage unit 3503, and the image signal processing unit 3504 may generate high-resolution video data from the recorded video data. In this way, high-quality video data having a resolution exceeding the resolution of the light receiving element of the video camera can be obtained. At this time, the image signal processing unit 3504 may generate one piece of still image data using data of a plurality of frames included in the recorded video data. In this way, one piece of high quality image data can be obtained from the video data. Similarly to the case of the digital camera described above, the image processing of the image signal processing unit 3504 may be performed before or after recording the video data in the content storage unit 3503.

以上説明したビデオカメラによれば、ビデオカメラの受光素子の解像度を越えた解像度を有する高画質映像データや、撮影した映像データを用いて高画質なスチル画像データを得ることができる。   According to the video camera described above, high-quality video data having a resolution exceeding the resolution of the light receiving element of the video camera and high-quality still image data can be obtained using the captured video data.

また、録画再生装置3600が例えば監視カメラ(監視カメラシステム)である場合も、上述したビデオカメラの場合と同様に監視カメラの受光素子の解像度を越えた解像度を有する高画質映像データや、撮影した映像データを用いて高画質なスチル画像データを得ることができる。このとき、例えば、撮像光学系と受光素子を備えた入力部3501と録画再生部3502との距離が離れており、ネットワークケーブル等で接続されている場合でも、録画再生部3502までは低解像度の映像データで送信し、その後の画像信号処理部3504の画像信号処理により、高解像度化することができる。これにより、撮像光学系と受光素子を備えた入力部3501からの送信ネットワークの帯域を効率よく利用しながら、高解像度の映像データを得ることができる。   In addition, when the recording / playback apparatus 3600 is, for example, a surveillance camera (surveillance camera system), high-quality video data having a resolution exceeding the resolution of the light-receiving element of the surveillance camera, as with the video camera described above, Still image data with high image quality can be obtained using the video data. At this time, for example, even when the input unit 3501 including the imaging optical system and the light receiving element is separated from the recording / reproducing unit 3502 and connected by a network cable or the like, the recording / reproducing unit 3502 has a low resolution. It is possible to increase the resolution by transmitting the video data and then performing image signal processing of the image signal processing unit 3504. Thus, high-resolution video data can be obtained while efficiently using the bandwidth of the transmission network from the input unit 3501 including the imaging optical system and the light receiving element.

実施例13乃至実施例16に係る画像表示装置と、本実施例に係る録画再生装置は、両者の機能と各構成部を一体としても、また、本発明の一実施の形態となりうる。この場合は上述の画像信号処理を行った映像信号または画像信号を表示することも、他の装置に出力することもでき、表示装置、記録再生装置、出力装置のいずれの装置としても使用でき、ユーザーにとって使い勝手が良い。   The image display apparatuses according to the thirteenth to sixteenth embodiments and the recording / playback apparatus according to the present embodiment can be an embodiment of the present invention even if the functions and components thereof are integrated. In this case, the video signal or image signal subjected to the above-described image signal processing can be displayed or output to another device, and can be used as any of a display device, a recording / playback device, and an output device, Convenient for users.

以上説明した実施例17に係る録画再生装置によれば、入力映像信号または入力画像信号に含まれる2枚の入力画像フレームの各画像信号に対して位相シフト行い、各画像信号からぞれぞれ2つの信号を生成する。これにより、2枚の入力画像フレームの画像信号から4つの信号を生成する。ここで、2枚の入力画像フレームの位相差に基づいて、当該4つの信号の各信号について、当該4つの信号の折り返し成分を打ち消して合成するための係数を画素ごとに算出する。生成する画像のそれぞれの画素について、上記4つの信号の各信号が有する対応画素の画素値に各係数を乗じた和を算出し、新たな高解像度画像の画素値を生成する。これを生成画像の各画素について行うことにより、入力画像フレームよりも1次元方向に高解像度化した画像を生成する。   According to the recording / reproducing apparatus in the seventeenth embodiment described above, each image signal of two input image frames included in the input video signal or the input image signal is phase-shifted, and each image signal is detected. Two signals are generated. As a result, four signals are generated from the image signals of the two input image frames. Here, based on the phase difference between the two input image frames, for each of the four signals, a coefficient for canceling and combining the aliasing components of the four signals is calculated for each pixel. For each pixel of the image to be generated, a sum is calculated by multiplying the pixel value of the corresponding pixel included in each of the four signals by each coefficient to generate a pixel value of a new high-resolution image. By performing this for each pixel of the generated image, an image having a higher resolution in the one-dimensional direction than the input image frame is generated.

これを水平方向と垂直方向のそれぞれに行い、水平方向に高解像度化した画像と垂直方向に高解像度化した画像を生成する。当該水平方向に高解像度化した画像と垂直方向に高解像度化した画像とについて、それぞれ、垂直方向、水平方向にアップレート処理を行ったのち、両者を混合する。   This is performed in each of the horizontal direction and the vertical direction, and an image with high resolution in the horizontal direction and an image with high resolution in the vertical direction are generated. The image having the high resolution in the horizontal direction and the image having the high resolution in the vertical direction are subjected to up-rate processing in the vertical direction and the horizontal direction, respectively, and then both are mixed.

これにより入力映像信号または入力画像信号に含まれる2枚の入力画像フレームの各画像信号から、垂直方向と水平方向との両方向に高解像度化した高解像度画像を生成することができる。すなわち2次元高解像度画像を生成することができ、これを出力することができる。   As a result, a high-resolution image with high resolution in both the vertical direction and the horizontal direction can be generated from each image signal of the two input image frames included in the input video signal or the input image signal. That is, a two-dimensional high resolution image can be generated and output.

また、入力映像信号または入力画像信号を記録部に記録しておき、その記録部からの再生時に、映像信号または画像信号に含まれる2枚の入力画像フレームの各画像信号から、垂直方向と水平方向との両方向に高解像度化した2次元高解像度画像を生成することができ、これを出力することができる。   Also, the input video signal or the input image signal is recorded in the recording unit, and at the time of reproduction from the recording unit, the vertical and horizontal directions are obtained from the image signals of the two input image frames included in the video signal or the image signal. A two-dimensional high resolution image with high resolution in both directions can be generated and can be output.

また、また実施例17に係る録画再生装置は、2枚の入力画像フレームを用いるため、少ない画像処理量で高解像度画像の出力を実現することができる。これにより、折り返し成分が少なく、垂直方向と水平方向との両方向について高解像度な映像または画像を出力する録画再生装置を実現することが可能である。   In addition, since the recording / playback apparatus according to the seventeenth embodiment uses two input image frames, it is possible to output a high resolution image with a small amount of image processing. As a result, it is possible to realize a recording / reproducing apparatus that outputs a high-resolution video or image in both the vertical direction and the horizontal direction with less aliasing components.

本発明の実施例18に係る録画再生装置は、実施例17に係る録画再生装置において、図36に示す画像信号処理部3504を実施例9に記載された画像信号処理装置に替えたものである。その他構成は、実施例17に係る録画再生装置と同じである為、説明を省略する。   The recording / playback apparatus according to Embodiment 18 of the present invention is the same as the recording / playback apparatus according to Embodiment 17, except that the image signal processing unit 3504 shown in FIG. 36 is replaced with the image signal processing apparatus described in Embodiment 9. . Since other configurations are the same as those of the recording / playback apparatus according to the seventeenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例9に記載したとおりであるので、説明を省略する。   Further, the detailed operation of the image signal processing unit 3504 is as described in the ninth embodiment, and thus the description thereof is omitted.

実施例18に係る録画再生装置によれば、入力映像信号または入力画像信号に含まれる2枚の入力画像フレームをもちいて、入力映像または入力画像よりも水平方向、垂直方向および斜め方向について高解像度化した2次元高解像度画像を生成し、これを出力することが可能である。   According to the recording / reproducing apparatus in the eighteenth embodiment, using two input image frames included in the input video signal or the input image signal, the resolution is higher in the horizontal direction, the vertical direction, and the oblique direction than the input video image or the input image. It is possible to generate a two-dimensional high-resolution image and output it.

また、入力映像信号または入力画像信号を記録部に記録しておき、その記録部からの再生時に、映像信号または画像信号に含まれる2枚の入力画像フレームの各画像信号から、水平方向、垂直方向および斜め方向に高解像度化した2次元高解像度画像を生成することができ、これを出力することができる。   Further, the input video signal or the input image signal is recorded in the recording unit, and at the time of reproduction from the recording unit, the horizontal direction and the vertical direction are obtained from each image signal of the two input image frames included in the video signal or the image signal. A two-dimensional high-resolution image with high resolution in the direction and oblique direction can be generated and output.

本発明の実施例19に係る録画再生装置は、実施例17に係る録画再生装置において、図36に示す画像信号処理部3504を実施例11に記載された画像信号処理装置に替えたものである。その他構成は、実施例17に係る録画再生装置と同じである為、説明を省略する。   The recording / playback apparatus according to Embodiment 19 of the present invention is the same as the recording / playback apparatus according to Embodiment 17, except that the image signal processing unit 3504 shown in FIG. 36 is replaced with the image signal processing apparatus described in Embodiment 11. . Since other configurations are the same as those of the recording / playback apparatus according to the seventeenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例11に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is the same as that described in the eleventh embodiment, and a description thereof will be omitted.

実施例19に係る録画再生装置によれば、入力映像信号または入力画像信号に含まれる4枚の入力画像フレームをもちいて、入力映像または入力画像よりも水平方向、垂直方向および斜め方向について高解像度化した2次元高解像度画像を生成し、出力する録画再生装置を実現することができる。   According to the recording / reproducing apparatus in the nineteenth embodiment, four input image frames included in the input video signal or the input image signal are used, and the resolution in the horizontal direction, the vertical direction, and the oblique direction is higher than that of the input video or input image. It is possible to realize a recording / playback apparatus that generates and outputs a converted two-dimensional high-resolution image.

また、入力映像信号または入力画像信号を記録部に記録しておき、その記録部からの再生時に、映像信号または画像信号に含まれる4枚の入力画像フレームの各画像信号から、水平方向、垂直方向および斜め方向に高解像度化した2次元高解像度画像を生成することができ、これを出力することができる。   Further, the input video signal or the input image signal is recorded in the recording unit, and at the time of reproduction from the recording unit, the horizontal direction and the vertical direction are obtained from each image signal of the four input image frames included in the video signal or the image signal. A two-dimensional high-resolution image with high resolution in the direction and oblique direction can be generated and output.

また、実施例19に係る録画再生装置による解像度向上効果は、斜め方向において実施例18に係る録画再生装置よりもさらに高周波成分まで解像度向上が可能であり、より高画質な高解像度画像を出力することができる。   Further, the resolution improvement effect of the recording / playback apparatus according to the nineteenth embodiment can be improved to a higher frequency component in the oblique direction than the recording / playback apparatus according to the eighteenth embodiment, and a higher-resolution image with higher image quality is output. be able to.

本発明の実施例20に係る録画再生装置は、実施例17に係る録画再生装置において、図36に示す画像信号処理部3504を実施例1、実施例3若しくは実施例5の実施例のうち一の実施例に記載された画像信号処理装置に替えたものである。その他構成は、実施例17に係る録画再生装置と同じである為、説明を省略する。   The recording / playback apparatus according to the twentieth embodiment of the present invention is the same as the recording / playback apparatus according to the seventeenth embodiment, but the image signal processing unit 3504 shown in FIG. 36 is one of the first, third, or fifth embodiments. The image signal processing apparatus described in the embodiment is replaced. Since other configurations are the same as those of the recording / playback apparatus according to the seventeenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例1、実施例3若しくは実施例5の実施例に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is the same as that described in the first, third, or fifth embodiment, and thus the description thereof is omitted.

実施例20に係る録画再生装置によれば、入力映像信号または入力画像信号に含まれる2枚の入力画像フレームをもちいて、入力映像または入力画像に比べて一次元方向に高解像度化した高解像度画像を生成し、出力する録画再生装置を実現することができる。   According to the recording / playback device according to the twentieth embodiment, a high resolution in which two input image frames included in the input video signal or the input image signal are used and the resolution is increased in a one-dimensional direction as compared with the input video or the input image. A recording / reproducing apparatus that generates and outputs an image can be realized.

また、入力映像信号または入力画像信号を記録部に記録しておき、その記録部からの再生時に、映像信号または画像信号に含まれる2枚の入力画像フレームの各画像信号から、一次元方向に高解像度化した高解像度画像を生成することができ、これを出力することができる。   In addition, the input video signal or the input image signal is recorded in the recording unit, and at the time of reproduction from the recording unit, from each image signal of the two input image frames included in the video signal or the image signal, in a one-dimensional direction. A high-resolution image with high resolution can be generated and output.

図45に、本発明の実施例21に係る画像信号処理装置を示す。本実施例に係る画像処理装置は、例えばテレビジョン放送信号などの動画像のフレーム列が入力される入力部(1)と、この入力部(1)から入力されたフレームを水平・垂直方向を組み合わせた2次元の高解像度化するための解像度変換部(4)と、更にこの解像度変換部(4)によって高解像度化されたフレームに基づき画像を表示する表示部(3)と、上記解像度変換部(4)にて使用する位相差情報を変換する位相変換部(4501)とを備えている。ここで、本実施例の画像信号処理装置に用いる解像度変換部(4)は、本発明の実施例8と同様の図21に示す解像度変換部(4)であるので、説明は省略する。   FIG. 45 shows an image signal processing apparatus according to Embodiment 21 of the present invention. The image processing apparatus according to the present embodiment includes, for example, an input unit (1) to which a frame sequence of a moving image such as a television broadcast signal is input, and a frame input from the input unit (1) in the horizontal and vertical directions. A resolution conversion unit (4) for increasing the combined two-dimensional resolution, a display unit (3) for displaying an image based on the frame whose resolution has been increased by the resolution conversion unit (4), and the resolution conversion A phase conversion unit (4501) for converting phase difference information used in the unit (4). Here, the resolution conversion unit (4) used in the image signal processing apparatus of the present embodiment is the resolution conversion unit (4) shown in FIG. 21 similar to that of the eighth embodiment of the present invention, and thus the description thereof is omitted.

本発明の実施例21に係る画像信号処理装置では、上記位相変換部(4501)を用いることにより、本発明の実施例8に係る画像信号処理装置では高解像度化に利用できなかった被写体の動きの情報(水平位相差θH(2102)および垂直位相差θV(2103))を、高解像度化に利用できる情報(水平位相差θH’(4502)および垂直位相差θV’(4503))に変換する。以下、位相変換部(4501)の詳細について説明する。   In the image signal processing device according to the twenty-first embodiment of the present invention, by using the phase conversion unit (4501), the movement of the subject that could not be used for high resolution in the image signal processing device according to the eighth embodiment of the present invention. Information (horizontal phase difference θH (2102) and vertical phase difference θV (2103)) is converted into information (horizontal phase difference θH '(4502) and vertical phase difference θV' (4503)) that can be used for higher resolution . Details of the phase conversion unit (4501) will be described below.

図46に、位相変換部(4501)の動作原理を示す。同図(a)は、画像フレーム(4601)にて、被写体が右方向に動いた様子を示している。ここでは一例として、被写体の動き(4602)が水平方向の動きだけを含み、垂直方向の動きを含まないと仮定する。同図(b)は、同図(a)の画像の一部(4603)を拡大したものであり、被写体の動き(4602)に伴って、被写体の輪郭線(4610)が(4611)の位置に変化した様子を示している。   FIG. 46 shows the operating principle of the phase converter (4501). FIG. 5A shows a state in which the subject moves to the right in the image frame (4601). Here, as an example, it is assumed that the movement of the subject (4602) includes only horizontal movement and does not include vertical movement. Figure (b) is an enlarged view of part (4603) of the image in Figure (a), and the subject outline (4610) is positioned at (4611) as the subject moves (4602). It shows how it changed.

ここで、画像フレーム(4601) の上の(x0,y0)の位置の画素(4607)は、1フレーム前の(x1,y1)の位置の画素(4606)が、被写体の動き(4602)に伴って移動してきたものである。このとき、図45に示した位置推定部(2101)が出力する垂直位相差θV(2103)は0となり、図9に示した計算式により、垂直方向の高解像度化に必要な係数C1(およびC3)が不定になってしまうため、垂直位相差θV(2103)をそのまま用いるだけでは、図45に示す折返し成分除去部(2109)では折返し成分を除去することはできなかった。   Here, the pixel (4607) at the position (x0, y0) above the image frame (4601) is the pixel (4606) at the position (x1, y1) one frame before the subject motion (4602). It has moved with it. At this time, the vertical phase difference θV (2103) output from the position estimation unit (2101) shown in FIG. 45 becomes 0, and the coefficient C1 (and the required high resolution in the vertical direction is calculated by the calculation formula shown in FIG. Since C3) becomes unstable, the aliasing component cannot be removed by the aliasing component removal unit (2109) shown in FIG. 45 simply by using the vertical phase difference θV (2103) as it is.

一方、図46(b)に示すように、被写体の輪郭線(4610)の上の画素の輝度値(信号レベル)が同一ならば、画像フレーム(4601) の上の(x0,y0)の位置の画素(4607)は、1フレーム前の(x2,y2)の位置の画素(4608)が下方向(4604)に移動してきた、あるいは、1フレーム前の(x3,y3)の位置の画素(4609)が右上方向(4605)に移動してきた、と考えることもできる。すなわち、下方向(4604)あるいは右上方向(4605)の動き情報を用いれば、値が0でない垂直位相差θV’(4503)を求めることができ、図45に示す折返し成分除去部(2109)にて折返し成分を除去することができるようになる。そこで、被写体の本来の動き(4602)に対応する(x1,y1)の位置の画素(4606)の近傍で、同一輝度となる方向を推定すれば、高解像度化に利用できなかった被写体の動きの情報(水平位相差θH(2102)および垂直位相差θV(2103))を、高解像度化に利用できる情報(水平位相差θH’(4502)および垂直位相差θV’(4503))に変換することができる。   On the other hand, as shown in FIG. 46 (b), if the luminance value (signal level) of the pixel on the contour line (4610) of the subject is the same, the position of (x0, y0) on the image frame (4601) The pixel (4607) at the position (x2, y2) one frame before has moved downward (4604), or the pixel at the position (x3, y3) one frame before ( 4609) may have been moved in the upper right direction (4605). That is, if the motion information in the downward direction (4604) or the upper right direction (4605) is used, the vertical phase difference θV ′ (4503) whose value is not 0 can be obtained, and the aliasing component removal unit (2109) shown in FIG. Thus, the folded component can be removed. Therefore, if the direction of the same luminance is estimated in the vicinity of the pixel (4606) at the position (x1, y1) corresponding to the original motion (4602) of the subject, the motion of the subject that could not be used for higher resolution Information (horizontal phase difference θH (2102) and vertical phase difference θV (2103)) is converted into information (horizontal phase difference θH '(4502) and vertical phase difference θV' (4503)) that can be used for higher resolution be able to.

図46(c)(d)(e)に、位相変換部(4501)の動作をまとめて示す。同図(c)は、本来の水平位相差θH(2102)と垂直位相差θV(2103)を示したものであり、それぞれ(x0-x1)および(y0-y1)の値となる。同図(d)は、同一輝度方向への位相変換の動作を示したものであり、被写体の本来の動き(4602)に対応する(x1,y1)の位置の画素(4606)を、被写体の輪郭線(4610)の上の(x2,y2)の位置の画素(4608)に変換した動作を示している。同図(e)は、同図(c)(d)の動作に基づき、位相変換後の水平位相差θH’(4502)および垂直位相差θV’(4503)を求める動作を示したものであり、それぞれ(x0-x2)および(y0-y2)、すなわち、θH(2102)+(x1-x2)=θH+ΔθH、およびθV(2103)+(y1-y2)=θV+ΔθVとなる。図45に示した解像度変換部(4)にて、この位相変換後の水平位相差θH’(4502)および垂直位相差θV’(4503)を用いて折返し成分除去を行えばよい。なお、図46(b)に示した画素(4606)(4608)(4609)は、実際の画素(実画素)だけでなく、近傍の実画素を用いて補間した画素(補間画素)でもよい。また、各画素(4606)(4607)(4608)(4609)は、被写体の輪郭線の上にある必要はなく、互いに同一の輝度値となるような対応関係にあればよい。   FIGS. 46 (c) (d) (e) collectively show the operation of the phase converter (4501). FIG. 3C shows the original horizontal phase difference θH (2102) and vertical phase difference θV (2103), which are values (x0−x1) and (y0−y1), respectively. FIG. 4D shows the phase conversion operation in the same luminance direction.The pixel (4606) at the position (x1, y1) corresponding to the original motion (4602) of the subject is represented by the subject. The operation converted into the pixel (4608) at the position (x2, y2) on the contour line (4610) is shown. (E) in the figure shows the operation for obtaining the horizontal phase difference θH ′ (4502) and the vertical phase difference θV ′ (4503) after phase conversion based on the operations in (c) and (d) in the figure. (X0−x2) and (y0−y2), that is, θH (2102) + (x1−x2) = θH + ΔθH, and θV (2103) + (y1−y2) = θV + ΔθV, respectively. The resolution conversion unit (4) shown in FIG. 45 may perform the aliasing component removal using the horizontal phase difference θH ′ (4502) and the vertical phase difference θV ′ (4503) after the phase conversion. Note that the pixels (4606), (4608), and (4609) shown in FIG. 46B may be not only actual pixels (real pixels) but also pixels that are interpolated using neighboring real pixels (interpolated pixels). Further, the pixels (4606), (4607), (4608), and (4609) do not have to be on the contour line of the subject, and may have a correspondence relationship that results in the same luminance value.

図47に、図46(e)に示した位相変換の動作を実現する位相変換部(4501)の構成例を示す。同図において、まず、図45に示した入力部(1)から入力されたフレーム#2(4604)をもとに、同一輝度方向推定部(4702)にて水平方向の位相補正値ΔθH(4707)および垂直方向の位相補正値ΔθV(4708)を生成し、図45に示した位相推定部(2101)から出力された水平位相差θH(2102)および垂直位相差θV(2103)と加算器(4703)(4704)にてそれぞれ加算して、切替器(4705)(4706)にそれぞれ入力する。これと並行して、水平位相差θH(2102)および垂直位相差θV(2103)を位相判定部(4701)に入力し、図45に示した解像度変換部(4)にてそのまま折返し成分除去に利用できるかどうかを判定し、「そのまま利用できる」と判定された場合は、切替器(4705)(4706)を上側に切替え、水平位相差θH(2102)および垂直位相差θV(2103)をそのまま位相変換後の水平位相差θH’(4602)および垂直位相差θV’(4603)として位相変換部(4501)から出力する。一方、位相判定部(4701)にて「そのまま利用できない」と判定された場合は、切替器(4705)(4706)を下側に切替え、加算器(4703)(4704)の各出力を位相変換後の水平位相差θH’(4602)および垂直位相差θV’(4603)として、位相変換部(4501)から出力する。   FIG. 47 shows a configuration example of the phase conversion unit (4501) that realizes the phase conversion operation shown in FIG. In FIG. 45, first, based on frame # 2 (4604) input from the input unit (1) shown in FIG. 45, the same luminance direction estimation unit (4702) uses a horizontal phase correction value ΔθH (4707). ) And the vertical phase correction value ΔθV (4708), and the horizontal phase difference θH (2102) and vertical phase difference θV (2103) output from the phase estimation unit (2101) shown in FIG. 4703) and 4704 are added and input to the switches (4705) and (4706), respectively. In parallel with this, the horizontal phase difference θH (2102) and the vertical phase difference θV (2103) are input to the phase determination unit (4701), and the resolution conversion unit (4) shown in FIG. If it is determined that it can be used as it is, the switch (4705) (4706) is switched to the upper side, and the horizontal phase difference θH (2102) and vertical phase difference θV (2103) remain unchanged. The phase conversion unit 4501 outputs the horizontal phase difference θH ′ (4602) and the vertical phase difference θV ′ (4603) after the phase conversion. On the other hand, if the phase determination unit (4701) determines that it cannot be used as it is, the switches (4705) and (4706) are switched to the lower side, and the outputs of the adders (4703) and (4704) are phase-converted. The subsequent horizontal phase difference θH ′ (4602) and vertical phase difference θV ′ (4603) are output from the phase conversion unit (4501).

図48に、位相判定部(4701)において、水平位相差θH(2102)あるいは垂直位相差θV(2103)をそのまま利用できるかどうかを判定する方法を示す。同図において、図9に示した計算式を用いて係数C1(および係数C3)を求めることが可能かどうかを判定し、水平位相差θH(2102)あるいは垂直位相差θV(2103)のどちらか一方が0となって係数C1、C3が不定になる場合や、水平位相差θH(2102)θH(2102)あるいは垂直位相差θV(2103)のどちらか一方が0に近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になる場合に、「水平位相差θH(2102)あるいは垂直位相差θV(2103)は、そのまま利用できない」と判定する。   FIG. 48 shows a method of determining whether the horizontal phase difference θH (2102) or the vertical phase difference θV (2103) can be used as it is in the phase determination unit (4701). In the figure, it is determined whether the coefficient C1 (and coefficient C3) can be obtained using the calculation formula shown in FIG. 9, and either the horizontal phase difference θH (2102) or the vertical phase difference θV (2103) is determined. When one of them becomes 0 and the coefficients C1 and C3 become indefinite, or when one of the horizontal phase difference θH (2102) θH (2102) or the vertical phase difference θV (2103) approaches 0, the coefficients C1 and C3 When it becomes vulnerable to noise or the like due to the increase, it is determined that “the horizontal phase difference θH (2102) or the vertical phase difference θV (2103) cannot be used as it is”.

ここで、図45に示す入力部(1)に入力される信号がインタレース走査の場合について説明する。   Here, the case where the signal input to the input unit (1) shown in FIG. 45 is interlaced scanning will be described.

まず、図37により、一般的なインタレース走査とプログレッシブ走査について説明する。図37(a)にインタレース走査(2:1インタレース)の走査線の位置関係を、同図(b)にプログレッシブ走査の走査線の位置関係を示す。それぞれ、図の水平軸は時間方向(フレーム方向)の位置(t)を表し、垂直軸は垂直位置(v)を表す。   First, referring to FIG. 37, general interlace scanning and progressive scanning will be described. FIG. 37A shows the positional relationship of interlaced scanning (2: 1 interlaced) scanning lines, and FIG. 37B shows the positional relationship of progressive scanning scanning lines. In each figure, the horizontal axis represents the position (t) in the time direction (frame direction), and the vertical axis represents the vertical position (v).

同図(b)にプログレッシブ走査では、フレーム(3705)における走査線は順次に走査される。これに対し、同図(a)のインタレース走査では、伝送あるいは表示される走査線(実走査線)(3701)と飛び越されて伝送される、もしくは表示されない走査線(3702)が交互に繰り返される形態でフィールド(3703)が形成されている。また、次のフィールドでは走査線(3701)と走査線(3702)の位置が逆(相補的)になり、2枚のフィールド(3703)(3704)を合わせて1枚のフレーム(3704)が形成される。   In the progressive scanning shown in FIG. 5B, the scanning lines in the frame (3705) are sequentially scanned. On the other hand, in the interlaced scanning shown in FIG. 5A, scanning lines (3701) to be transmitted or displayed (3701) and scanning lines (3702) to be transmitted or not displayed alternately are alternately displayed. A field (3703) is formed in a repeated manner. In the next field, the positions of the scanning line (3701) and scanning line (3702) are reversed (complementary), and the two fields (3703) (3704) are combined to form one frame (3704). Is done.

このため本実施例において、図45に示す入力部(1)に入力される信号がインタレース走査の場合には、図48に示す各係数C0、C1、C2、C3を、位相差θ(θHあるいはθV)を(θ±π)に置き換えた値とする必要がある。   Therefore, in this embodiment, when the signal input to the input unit (1) shown in FIG. 45 is interlaced scanning, the coefficients C0, C1, C2, and C3 shown in FIG. Alternatively, θV) needs to be a value obtained by replacing (θ ± π).

したがって、位相差θが±πとなって係数C1、C3が不定になる場合や、位相差θが±πに近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になる場合に、「水平位相差θH(2102)あるいは垂直位相差θV(2103)は、そのまま利用できない」と判定すればよい。   Therefore, when the phase difference θ becomes ± π and the coefficients C1 and C3 become indefinite, or when the coefficients C1 and C3 increase as the phase difference θ approaches ± π, the noise becomes weak. The horizontal phase difference θH (2102) or the vertical phase difference θV (2103) cannot be used as it is ”.

図49を用いて、図47に示した同一輝度方向推定部(4702)の動作の一例を説明する。図49(a)において、格子状に並んだ実画素(4901)は、フレーム上にもともと存在する画素を表す。また、補間画素(4903)は、処理対象の画素(4902)を中心として円周上に配置された#1〜#NのN点(Nは正整数)を示しており、近傍の複数の実画素(4901)を用いて補間した画素である。なお、補間画素(4903)の位置は同図(a)に示した位置に限定されるわけではなく、例えば同図(b)に示すように、#1〜#NのN点の補間画素(4904)を、中心の画素(4902)の周囲に矩形状に配置してもよい。このように配置した補間画素(4903)あるいは(4904)の中から、中心の画素(4902)の輝度値との差が最も小さいものを選択し、中心の画素(4902)と、選択された補間画素(4903)あるいは(4904)を結んだ直線の方向から水平方向の位相補正値ΔθH(4707)および垂直方向の位相補正値ΔθV(4708)を求める。   An example of the operation of the same luminance direction estimation unit (4702) shown in FIG. 47 will be described with reference to FIG. In FIG. 49A, real pixels (4901) arranged in a lattice form represent pixels that originally exist on the frame. The interpolation pixel (4903) indicates N points (# 1 to #N) (N is a positive integer) arranged on the circumference centering on the pixel (4902) to be processed. This is a pixel interpolated using the pixel (4901). Note that the position of the interpolation pixel (4903) is not limited to the position shown in FIG. 10 (a) .For example, as shown in FIG. 4904) may be arranged in a rectangular shape around the central pixel (4902). From the interpolation pixels (4903) or (4904) arranged in this way, select the pixel with the smallest difference from the luminance value of the center pixel (4902), and select the center pixel (4902) and the selected interpolation. A horizontal phase correction value ΔθH (4707) and a vertical phase correction value ΔθV (4708) are obtained from the direction of the straight line connecting the pixels (4903) or (4904).

図50に、同一輝度方向推定部(4702)の構成例を示す。同図において、まず、入力されたフレーム#2(4504)の信号に対して、水平ローパスフィルタ(以下、LPF)(5001)と垂直LPFフィルタ(5002)をかけて、中心の画素の値を得る。これらは、同一輝度方向を誤って推定してしまう原因となる折返し成分の影響を少なくするためのフィルタであり、入力信号のナイキスト周波数帯域の約1/2〜1/4の周波数を各LPFのカットオフ周波数とすればよい。続いて、画素補間器#1(5003-1)〜#N(5003-N)を用いて、図49(a)に示した補間画素(4903)、あるいは図49(b)に示した補間画素(4904)の位置の信号を生成する。この画素補間器#1(5003-1)〜#N(5003-N)は、上述したsinc関数を用いて中心の画素(4902)の近傍に位置する実画素(4901)の値から画素補間を行う一般的な補間LPFをそのまま用いることができるため、詳細の図示および説明は省略する。画素補間器#1(5003-1)〜#N(5003-N)の各出力は、減算器(5004-1)〜(5004-N)を用いて、画素補間前の信号(すなわち実画素=垂直LPF(5002)の出力)とのそれぞれ差信号を生成し、絶対値化器(5005-1)〜(5005-N)を用いて、補間画素#1〜#Nごとに輝度値の差の絶対値を求める。この値(輝度値の差の絶対値)が最小となるように、方向選択器(5006)にて補間画素を選択し、選択した補間画素の位置と中心の実画素の位置の水平方向および垂直方向の差分を、水平方向の位相補正値ΔθH(4707)および垂直方向の位相補正値ΔθV(4708)として出力する。なお、水平LPF(5001)と垂直LPF(5002)の各カットオフ周波数を低く設定すると(すなわち、通過帯域を狭くすると)、折返し成分は小さくなるが、同時に、本来の同一輝度方向を表す細かいテクスチャ(模様)の信号成分も減衰してしまう。逆に、カットオフ周波数を高く設定すると(すなわち、通過帯域を広くすると)、細かいテクスチャ(模様)の信号成分は残留するが、折返し成分の影響は大きくなる。従って、両者はトレードオフの関係になるため、水平LPF(5001)と垂直LPF(5002)の特性は、入力したフレーム(4504)の実際の画像と水平方向の位相補正値ΔθH(4707)および垂直方向の位相補正値ΔθV(4708)の結果を確認しながら最適になるように設計するのが好ましい。   FIG. 50 shows a configuration example of the same luminance direction estimation unit (4702). In the figure, first, a horizontal low-pass filter (hereinafter referred to as LPF) (5001) and a vertical LPF filter (5002) are applied to the input signal of frame # 2 (4504) to obtain the value of the center pixel. . These are filters to reduce the influence of aliasing components that cause the same luminance direction to be erroneously estimated, and the frequency of about 1/2 to 1/4 of the Nyquist frequency band of the input signal is The cut-off frequency may be used. Subsequently, using the pixel interpolators # 1 (5003-1) to #N (5003-N), the interpolation pixel (4903) shown in FIG. 49 (a) or the interpolation pixel shown in FIG. 49 (b) A signal at the position (4904) is generated. This pixel interpolator # 1 (5003-1) to #N (5003-N) performs pixel interpolation from the value of the actual pixel (4901) located near the center pixel (4902) using the sinc function described above. Since a general interpolation LPF to be performed can be used as it is, detailed illustration and description are omitted. Each output of the pixel interpolators # 1 (5003-1) to #N (5003-N) is output from the signal before pixel interpolation (i.e., real pixel =) using the subtracters (5004-1) to (5004-N). Output signal of each of the vertical LPFs (5002)), and using the absolute value converters (5005-1) to (5005-N), the luminance value difference is calculated for each interpolation pixel # 1 to #N. Find the absolute value. The direction selector (5006) selects an interpolation pixel so that this value (absolute value of luminance value difference) is minimized, and the horizontal direction and vertical direction of the position of the selected interpolation pixel and the position of the center actual pixel are selected. The direction difference is output as a horizontal phase correction value ΔθH (4707) and a vertical phase correction value ΔθV (4708). Note that if the cutoff frequencies of the horizontal LPF (5001) and vertical LPF (5002) are set low (that is, the passband is narrowed), the aliasing component becomes small, but at the same time, a fine texture that represents the original same luminance direction. The signal component of (pattern) is also attenuated. Conversely, when the cutoff frequency is set high (that is, when the passband is widened), a fine texture (pattern) signal component remains, but the influence of the aliasing component becomes large. Therefore, since the two are in a trade-off relationship, the characteristics of the horizontal LPF (5001) and the vertical LPF (5002) are the actual image of the input frame (4504), the horizontal phase correction value ΔθH (4707), and the vertical It is preferable to design so as to be optimal while confirming the result of the direction phase correction value ΔθV (4708).

なお、図49(a)(b)では、簡単のため、中心の画素(4902)を実画素と同じ位置に図示したが、実際には、図45に示す位置推定部(2101)によって、フレーム#1の上の処理対象の画素と対応するフレーム#2の上の画素の位置を求め、これを中心の画素(4902)の位置とする。従って、水平位相差θH(2102)あるいは垂直位相差θV(2103)の値が実画素の間隔の整数倍(0も含む)にならない場合は、中心の画素(4902)も実画素と同じ位置にならない。この場合、図50に示した水平LPF(5001)のタップ係数を水平位相差θH(2102)によりシフトするとともに、垂直LPF(5002)のタップ係数を垂直位相差θV(2103)によりシフトすればよい。具体的には、水平LPF(5001)のカットオフ周波数をfc(H)、ナイキスト周波数をfn(H)とした場合、水平LPF(5001)のタップ係数Ck(H)(ただし、kは整数)は一般的に知られているsinc関数となり、Ck(H)=2sin(π*fc(H)*k/fn(H)-θH)/(π*fc(H)*k/fn(H)-θH)とすればよい。垂直LPF(5002)のタップ係数Ck(V)も同様に、Ck(V)=2sin(π*fc(V)*k/fn(V)-θV)/(π*fc(V)*k/fn(V)-θV)とすればよい。   In FIGS. 49A and 49B, for the sake of simplicity, the center pixel (4902) is illustrated at the same position as the actual pixel. However, in practice, the position estimation unit (2101) illustrated in FIG. The position of the pixel on frame # 2 corresponding to the pixel to be processed on # 1 is obtained, and this is set as the position of the center pixel (4902). Therefore, if the value of horizontal phase difference θH (2102) or vertical phase difference θV (2103) is not an integer multiple of the actual pixel interval (including 0), the center pixel (4902) is also in the same position as the actual pixel. Don't be. In this case, the tap coefficient of the horizontal LPF (5001) shown in FIG. 50 is shifted by the horizontal phase difference θH (2102), and the tap coefficient of the vertical LPF (5002) is shifted by the vertical phase difference θV (2103). . Specifically, when the cutoff frequency of the horizontal LPF (5001) is fc (H) and the Nyquist frequency is fn (H), the tap coefficient Ck (H) of the horizontal LPF (5001) (where k is an integer) Is a generally known sinc function, Ck (H) = 2sin (π * fc (H) * k / fn (H) -θH) / (π * fc (H) * k / fn (H) -θH). Similarly, tap coefficient Ck (V) of vertical LPF (5002) is Ck (V) = 2sin (π * fc (V) * k / fn (V) -θV) / (π * fc (V) * k / fn (V) −θV).

また、図49(a)における中心の画素(4902)と補間画素(4903)の間隔(=円の半径)や、同図(b)における中心の画素(4902)と補間画素(4904)の間隔(=矩形の各辺の長さの1/2)は、水平方向の位相補正値ΔθH(4707)および垂直方向の位相補正値ΔθV(4708)の各値の大きさに対応するが、これらの間隔(円の半径や、矩形の各辺の長さの1/2)は、固定値としてもよいし、可変値としてもよい。すなわち、図46(e)に示した位相変換後の水平位相差θH’(4502)と垂直位相差θV’(4503)を用いて折返し歪除去を行う際に、図9に示した計算式を用いて係数C1(および係数C3)を求めることが可能になるように、水平方向の位相補正値ΔθH(4707)および垂直方向の位相補正値ΔθV(4708)が実画素(4901)の間隔の約1/2となるようにしてもよいし、水平方向の位相補正値ΔθH(4707)および垂直方向の位相補正値ΔθV(4708)が指す同一輝度方向が変わらないように、ΔθH(4707)とΔθV(4708)の比率を一定に保ったまま、各値を適宜増減してもよい。   Also, the interval between the center pixel (4902) and the interpolation pixel (4903) in FIG. 49 (a) (= the radius of the circle), and the interval between the center pixel (4902) and the interpolation pixel (4904) in FIG. 49 (b). (= 1/2 of the length of each side of the rectangle) corresponds to the magnitude of each of the horizontal phase correction value ΔθH (4707) and the vertical phase correction value ΔθV (4708). The interval (the radius of the circle or the length of each side of the rectangle) may be a fixed value or a variable value. That is, when the aliasing distortion is removed using the horizontal phase difference θH ′ (4502) and the vertical phase difference θV ′ (4503) after the phase conversion shown in FIG. 46 (e), the calculation formula shown in FIG. The horizontal phase correction value ΔθH (4707) and the vertical phase correction value ΔθV (4708) are approximately equal to the actual pixel (4901) interval so that the coefficient C1 (and coefficient C3) can be obtained using Alternatively, ΔθH (4707) and ΔθV may be set so that the same luminance direction indicated by the horizontal phase correction value ΔθH (4707) and the vertical phase correction value ΔθV (4708) does not change. Each value may be increased or decreased as appropriate while the ratio of (4708) is kept constant.

また、水平方向の位相補正値ΔθH(4707)および垂直方向の位相補正値ΔθV(4708)が指す同一輝度方向が変わらないように、ΔθH(4707)とΔθV(4708)の比率を一定に保ったまま、各値を適宜増減しても、図9に示した計算式を用いて係数C1(および係数C3)を求めることが可能にならない場合もある。例えば、図49(a)において、同一輝度方向が水平(#1)の場合、垂直方向の位相補正値ΔθV(4708)は常に0になってしまい、位相変換後の垂直位相差θV’(4603)を用いても、垂直位相差θV(2103)をそのまま用いた場合と同様に、図45に示す折返し成分除去部(2109)にて垂直方向の折返し成分を除去することはできない。この場合は、本発明の実施例5に係る画像信号処理装置と同様に、折返し成分除去部(2108)(2109)の中に図11に示した一般的な補間ローパスフィルタ(1101)をバイパス経路として用意し、係数決定器(1103)にて上述した係数C0、C1のほかに新たにC4を生成して、乗算器(1102)にて補間ローパスフィルタ(1101)の出力と係数C4を乗算し、加算器(1104)で高解像度化した信号に加えて出力するように構成すればよい。なお、補間ローパスフィルタ(1101)、乗算器(1102)、係数決定器(1103)、加算器(1104)、補助的画素補間部(1105)以外の構成は、図10に示した実施例3の構成と同一であるため説明を省略する。また、補間ローパスフィルタ(1101)、乗算器(1102)、係数決定器(1103)、加算器(1104)、補助的画素補間部(1105)の動作および構成は、図12および図13に示した実施例5の動作および構成と同一であるため説明を省略する。   The ratio of ΔθH (4707) and ΔθV (4708) was kept constant so that the same luminance direction indicated by the horizontal phase correction value ΔθH (4707) and the vertical phase correction value ΔθV (4708) did not change. Even if each value is increased or decreased, the coefficient C1 (and coefficient C3) may not be obtained using the calculation formula shown in FIG. For example, in FIG. 49A, when the same luminance direction is horizontal (# 1), the vertical phase correction value ΔθV (4708) is always 0, and the vertical phase difference θV ′ (4603) after phase conversion is obtained. Even if the vertical phase difference θV (2103) is used as it is, the folding component removal unit (2109) shown in FIG. 45 cannot remove the folding component in the vertical direction. In this case, similar to the image signal processing apparatus according to the fifth embodiment of the present invention, the general interpolation low-pass filter (1101) shown in FIG. 11 is bypassed in the aliasing component removal units (2108) and (2109). In addition to the coefficients C0 and C1 described above, the coefficient determiner (1103) newly generates C4, and the multiplier (1102) multiplies the output of the interpolation low-pass filter (1101) by the coefficient C4. The signal may be output in addition to the signal whose resolution has been increased by the adder (1104). The configurations other than the interpolation low-pass filter (1101), multiplier (1102), coefficient determiner (1103), adder (1104), and auxiliary pixel interpolation unit (1105) are the same as those in the third embodiment shown in FIG. Since the configuration is the same, the description thereof is omitted. The operations and configurations of the interpolation low-pass filter (1101), multiplier (1102), coefficient determiner (1103), adder (1104), and auxiliary pixel interpolation unit (1105) are shown in FIGS. Since the operation and configuration are the same as those of the fifth embodiment, description thereof is omitted.

また、図49(a)(b)に示した中心の画素(4902)と補間画素(4903)(4904)の信号値の差の最小値が予め定めた閾値よりも大きい場合には、同一輝度方向が推定できないと判定し、図50に示した同一輝度方向推定部(4702)の中の方向選択器(5006)にて位相補正値ΔθH(4707)およびΔθV(4708)の値をそれぞれ0にするなどして、図45に示した折返し成分除去部(2108)(2109)が誤動作しないようにすればよい。   If the minimum value of the difference between the signal values of the center pixel (4902) and the interpolation pixels (4903) (4904) shown in FIGS. 49 (a) and 49 (b) is larger than a predetermined threshold value, the same luminance It is determined that the direction cannot be estimated, and the phase correction values ΔθH (4707) and ΔθV (4708) are set to 0 by the direction selector (5006) in the same luminance direction estimation unit (4702) shown in FIG. For example, the aliasing component removal units (2108) and (2109) shown in FIG. 45 may be prevented from malfunctioning.

以上説明した実施例21に係る画像信号処理装置によれば、実施例8に係る画像信号処理装置の効果に加えて、実施例8に係る画像信号処理装置では高解像度化に利用できなかった被写体の動きの場合でも、高解像度化を実現することが可能になるという効果がある。   According to the image signal processing device according to the twenty-first embodiment described above, in addition to the effects of the image signal processing device according to the eighth embodiment, the subject that could not be used for higher resolution in the image signal processing device according to the eighth embodiment. Even in the case of movements, there is an effect that it is possible to realize high resolution.

なお、本実施例に係る画像信号処理装置を説明した図45の構成は、本発明の実施例8に係る画像信号処理装置を説明した図21の構成をベースにしているが、これに限定されるものではなく、本発明の他の実施例に係る画像信号処理装置に対して、図45に示す位相変換部(4501)を設けても、同様の効果が得られることは明らかであるので、説明を省略する。   The configuration of FIG. 45 describing the image signal processing apparatus according to the present embodiment is based on the configuration of FIG. 21 illustrating the image signal processing apparatus according to the eighth embodiment of the present invention, but is not limited thereto. However, for the image signal processing apparatus according to another embodiment of the present invention, it is clear that the same effect can be obtained even if the phase converter (4501) shown in FIG. 45 is provided. Description is omitted.

実施例22は、実施例21に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。本実施例の画像信号処理方法を行う画像処理装置は実施例2と同様の図18に示す画像処理装置であるので説明を省略する。   The twenty-second embodiment relates to an image signal processing method that realizes processing equivalent to the image signal processing in the image signal processing apparatus according to the twenty-first embodiment by a control unit that cooperates with software. The image processing apparatus that performs the image signal processing method of the present embodiment is the image processing apparatus shown in FIG.

図51に、本実施例の動作のフローチャートの一例を示す。図51のフローチャートは、本発明の実施例2に係る図14に示したフローチャートにステップ(5103)を加えたものであり、ステップ(1401)〜ステップ(1420)については本発明の実施例2と同様の動作であるので説明を省略する。   FIG. 51 shows an example of a flowchart of the operation of the present embodiment. The flowchart of FIG. 51 is obtained by adding step (5103) to the flowchart shown in FIG. 14 according to the second embodiment of the present invention. Steps (1401) to (1420) are the same as those of the second embodiment of the present invention. Since it is the same operation | movement, description is abbreviate | omitted.

ステップ(5103)において、まずステップ(5101)では、ステップ(1405)にて求めた位相差θ(すなわち、水平位相差θHあるいは垂直位相差θV)をもとに、図9に示した計算式に基づいて決定される係数C1が適切かどうかを判定し、適切であればステップ(1406)とステップ(1409)に進み、適切でなければステップ(5102)に進む。ここで、係数C1が適切かどうかの判定の際に、位相差θが0となって係数C1が不定になる場合や、位相差θが0に近づくにつれて係数C1が大きくなることでノイズ等に脆弱になる場合に、「係数C1は適切ではない」と判定すればよい。   In step (5103), first, in step (5101), based on the phase difference θ (that is, horizontal phase difference θH or vertical phase difference θV) obtained in step (1405), the calculation formula shown in FIG. It is determined whether or not the coefficient C1 determined based on this is appropriate. If appropriate, the process proceeds to step (1406) and step (1409), and if not appropriate, the process proceeds to step (5102). Here, when determining whether the coefficient C1 is appropriate, if the phase difference θ becomes 0 and the coefficient C1 becomes indefinite, or if the coefficient C1 increases as the phase difference θ approaches 0, noise or the like When it becomes vulnerable, it may be determined that “the coefficient C1 is not appropriate”.

なお、実施例21において説明したように、図18に示す入力部(1)に入力される信号がインタレース走査の場合は、図9に示す各係数C0、C1、C2、C3は、位相差θを(θ±π)に置き換えた値となるため、位相差θが±πとなって係数C1が不定になる場合や、位相差θが±πに近づくにつれて係数C1が大きくなることでノイズ等に脆弱になる場合に、「係数C1は適切ではない」と判定すればよい。   As described in the twenty-first embodiment, when the signal input to the input unit (1) shown in FIG. 18 is interlaced scanning, the coefficients C0, C1, C2, and C3 shown in FIG. Since θ is a value obtained by replacing (θ ± π), noise occurs when the phase difference θ becomes ± π and the coefficient C1 becomes indefinite, or when the phase difference θ approaches ± π, the coefficient C1 increases. Or the like, it may be determined that “the coefficient C1 is not appropriate”.

ステップ(5102)では、図46乃至図50を用いて説明した動作と同様にして同一輝度方向を推定し、もともとの位相差θ(すなわち、水平位相差θHあるいは垂直位相差θV)に、水平方向の位相補正値ΔθH(4707)あるいは垂直方向の位相補正値ΔθV(4708)を加えて新たな位相差θに変換し、この新たな位相差θを用いてステップ(1406)とステップ(1409)に進む。   In step (5102), the same luminance direction is estimated in the same manner as the operation described with reference to FIGS. 46 to 50, and the original phase difference θ (that is, horizontal phase difference θH or vertical phase difference θV) is changed to the horizontal direction. The phase correction value ΔθH (4707) or the vertical phase correction value ΔθV (4708) is added to convert it to a new phase difference θ, and the new phase difference θ is used to perform steps (1406) and (1409). move on.

以上のフローチャートに基づき、図51に示すステップ(1401)から処理を開始し、ステップ(1417)にて処理を終了すれば、図18に示すフレームバッファ#3にバッファされた信号は、フレーム単位若しくは画素単位にて表示部(3)に出力することができる。   Based on the above flowchart, if the process starts from step (1401) shown in FIG. 51 and ends in step (1417), the signal buffered in frame buffer # 3 shown in FIG. It can be output to the display unit (3) in pixel units.

以上のような処理を行うことにより、フレームバッファ#1とフレームバッファ#2の画素データを用いて、フレームバッファ#3に高解像度化した信号を出力することができる。動画に応用する場合は、図51に示すステップ(1401)からステップ(1417)に至る処理を、フレームごとに繰り返せばよい。   By performing the processing as described above, it is possible to output a high resolution signal to the frame buffer # 3 using the pixel data of the frame buffer # 1 and the frame buffer # 2. When applied to a moving image, the process from step (1401) to step (1417) shown in FIG. 51 may be repeated for each frame.

なお、本実施例に係る動作を説明した図51のフローチャートは、本発明の実施例2に係る図14に示したフローチャートにステップ(5103)を加えたものであるが、本発明の実施例4に係る図15に示したフローチャートに対してステップ(5103)を加えても同様の効果があることは明らかであるので、説明を省略する。   The flowchart of FIG. 51 for explaining the operation according to the present embodiment is obtained by adding step (5103) to the flowchart shown in FIG. 14 according to the second embodiment of the present invention. It is clear that adding the step (5103) to the flowchart shown in FIG.

また、水平方向の位相補正値ΔθH(4707)および垂直方向の位相補正値ΔθV(4708)が指す同一輝度方向が変わらないように、ΔθH(4707)とΔθV(4708)の比率を一定に保ったまま、各値を適宜増減しても、図9に示した計算式を用いて係数C1(および係数C3)を求めることが可能にならない場合もある。例えば、図49(a)において、同一輝度方向が水平(#1)の場合、垂直方向の位相補正値ΔθV(4708)は常に0になってしまい、位相変換後の垂直位相差θV’(4603)を用いても、垂直位相差θV(2103)をそのまま用いた場合と同様に、ステップ(1420)にて垂直方向の折返し成分を除去することはできない。この場合は、本発明の実施例6に係る画像信号処理方法と同様に、図16に示すステップ(1605)およびステップ(1606)を用意し、変換後の位相差θが0あるいは0近傍になったときにステップ(1606)の処理結果をフレームバッファ#3に出力するように構成すればよい。このステップ(1605)およびステップ(1606)は、実施例6の動作と同一であるため説明を省略する。   The ratio of ΔθH (4707) and ΔθV (4708) was kept constant so that the same luminance direction indicated by the horizontal phase correction value ΔθH (4707) and the vertical phase correction value ΔθV (4708) did not change. Even if each value is increased or decreased, the coefficient C1 (and coefficient C3) may not be obtained using the calculation formula shown in FIG. For example, in FIG. 49A, when the same luminance direction is horizontal (# 1), the vertical phase correction value ΔθV (4708) is always 0, and the vertical phase difference θV ′ (4603) after phase conversion is obtained. Even if the vertical phase difference θV (2103) is used as it is, the vertical folding component cannot be removed in step (1420). In this case, similarly to the image signal processing method according to the sixth embodiment of the present invention, steps (1605) and (1606) shown in FIG. 16 are prepared, and the phase difference θ after conversion becomes 0 or near 0. The processing result of step (1606) may be configured to be output to frame buffer # 3. Since Step (1605) and Step (1606) are the same as the operation of the sixth embodiment, description thereof is omitted.

以上説明した実施例22に係る画像信号処理方法によれば、実施例2に係る画像信号処理方法の効果に加えて、実施例2に係る画像信号処理方法では高解像度化に利用できなかった被写体の動きの場合でも、高解像度化を実現することが可能になるという効果がある。すなわち、より多様な被写体の動きに対応する高解像度化処理を実現できる。   According to the image signal processing method according to the twenty-second embodiment described above, in addition to the effects of the image signal processing method according to the second embodiment, the subject that cannot be used for increasing the resolution in the image signal processing method according to the second embodiment. Even in the case of movements, there is an effect that it is possible to realize high resolution. That is, it is possible to realize a high resolution process corresponding to a variety of subject movements.

本発明の実施例23に係る画像表示装置は、実施例13に係る画像表示装置において、図35に示す画像信号処理部3504を実施例21または実施例22に記載された画像信号処理装置に替えたものである。その他構成は、実施例13に係る画像表示装置と同じである為、説明を省略する。   The image display device according to the twenty-third embodiment of the present invention is the same as the image display device according to the thirteenth embodiment except that the image signal processing unit 3504 shown in FIG. 35 is replaced with the image signal processing device described in the twenty-first or twenty-second embodiment. It is a thing. Since other configurations are the same as those of the image display apparatus according to the thirteenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例21または実施例22に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is as described in the twenty-first or twenty-second embodiment, and thus the description thereof is omitted.

実施例23に係る画像表示装置によれば、実施例13に係る画像表示装置の効果に加えて、実施例13に係る画像表示装置では高解像度化に利用できなかった被写体の動きの場合でも、高解像度化を実現することが可能になるという効果がある。またこの高解像度化処理により生成された画像を表示部に表示する画像表示装置を実現することができる。すなわち、より多様な被写体の動きに対応して高解像度画像を生成し、生成した高解像度画像を表示することができる。   According to the image display device according to the twenty-third embodiment, in addition to the effects of the image display device according to the thirteenth embodiment, even in the case of the movement of the subject that cannot be used for high resolution in the image display device according to the thirteenth embodiment, There is an effect that high resolution can be realized. In addition, it is possible to realize an image display device that displays an image generated by the resolution enhancement processing on the display unit. That is, it is possible to generate a high-resolution image corresponding to a variety of subject movements and display the generated high-resolution image.

本発明の実施例24に係る録画再生装置は、実施例17に係る録画再生装置において、図36に示す画像信号処理部3504を実施例21または実施例22に記載された画像信号処理装置に替えたものである。その他構成は、実施例17に係る録画再生装置と同じである為、説明を省略する。   The recording / playback apparatus according to Embodiment 24 of the present invention is the same as the recording / playback apparatus according to Embodiment 17, except that the image signal processing unit 3504 shown in FIG. 36 is replaced with the image signal processing apparatus described in Embodiment 21 or 22. It is a thing. Since other configurations are the same as those of the recording / playback apparatus according to the seventeenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例21または実施例22に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is as described in the twenty-first or twenty-second embodiment, and thus the description thereof is omitted.

実施例24に係る録画再生装置によれば、実施例17に係る録画再生装置の効果に加えて、実施例17に係る録画再生装置では高解像度化に利用できなかった被写体の動きの場合でも、高解像度化を実現することが可能になるという効果がある。またこの高解像度化処理により生成された画像を出力することができる。すなわち、より多様な被写体の動きに対応して高解像度画像を生成し、生成した高解像度画像を出力することができる。   According to the recording / playback device according to the twenty-fourth embodiment, in addition to the effects of the recording / playback device according to the seventeenth embodiment, even in the case of a subject motion that could not be used for high resolution in the recording / playback device according to the seventeenth embodiment, There is an effect that high resolution can be realized. In addition, an image generated by the resolution enhancement process can be output. That is, it is possible to generate a high-resolution image corresponding to a variety of subject movements and output the generated high-resolution image.

図52に、本発明の実施例25に係る画像信号処理装置を示す。本実施例に係る画像処理装置は、例えばテレビジョン放送信号などの画像フレームが入力される入力部(1)と、この入力部(1)から入力されたフレームを水平・垂直方向を組み合わせた2次元の高解像度化するための解像度変換部(9)と、更にこの解像度変換部(9)によって高解像度化されたフレームに基づき画像を表示する表示部(3)と、上記解像度変換部(9)にて使用する位相差情報を生成する同一輝度方向推定部(4702)とを備えている。ここで、本実施例の画像信号処理装置は、本発明の実施例21と同様の図45に示す画像信号処理装置から、フレーム#2の信号を入力する入力部(1)を除くとともに、位置推定部(2101)を同一輝度方向推定部(4702)に置き換えたものである。その他の構成および動作については、図45に示す画像信号処理装置と同一であるので、説明は省略する。   FIG. 52 shows an image signal processing apparatus according to Embodiment 25 of the present invention. The image processing apparatus according to the present embodiment includes, for example, an input unit (1) to which an image frame such as a television broadcast signal is input, and a frame input from the input unit (1) that combines the horizontal and vertical directions. A resolution conversion unit (9) for increasing the resolution of a dimension, a display unit (3) for displaying an image based on a frame whose resolution has been increased by the resolution conversion unit (9), and the resolution conversion unit (9 The same luminance direction estimator (4702) for generating phase difference information to be used in (1). Here, the image signal processing apparatus according to the present embodiment removes the input unit (1) for inputting the signal of frame # 2 from the image signal processing apparatus shown in FIG. The estimation unit (2101) is replaced with the same luminance direction estimation unit (4702). Other configurations and operations are the same as those of the image signal processing apparatus shown in FIG.

本発明の実施例25に係る画像信号処理装置は、入力部(1)から入力されるフレーム#1の信号だけを用いて高解像度化の処理を実現する解像度変換部(44)を備えている。以下、その詳細について説明する。   The image signal processing device according to the twenty-fifth embodiment of the present invention includes a resolution conversion unit (44) that realizes high resolution processing using only the signal of frame # 1 input from the input unit (1). . The details will be described below.

前述した実施例21に係る画像信号処理装置では、図45に示した位相変換部(4501)を用いることにより、本発明の実施例8に係る画像信号処理装置では高解像度化に利用できなかった被写体の動きの情報(水平位相差θH(2102)および垂直位相差θV(2103))を、高解像度化に利用できる情報(水平位相差θH’(4502)および垂直位相差θV’(4503))に変換した。   In the image signal processing apparatus according to Example 21 described above, the image signal processing apparatus according to Example 8 of the present invention could not be used for high resolution by using the phase converter (4501) shown in FIG. Information on the movement of the subject (horizontal phase difference θH (2102) and vertical phase difference θV (2103)) can be used for higher resolution (horizontal phase difference θH '(4502) and vertical phase difference θV' (4503)) Converted to.

一方、本発明の実施例25では、フレーム#2の信号がフレーム#1の信号と同一、すなわち、画像が完全に静止していると見なすことにより、図45に示した位相変換部(4501)に入力する画像信号をフレーム#1(5201)にするとともに、被写体の動きの情報(水平位相差θH(2102)および垂直位相差θV(2103))を強制的に0にし、図47に示した位相変換部(4501)の構成を同一輝度方向推定部(4702)だけに置き換える。以下、この動作について詳しく説明する。   On the other hand, in the twenty-fifth embodiment of the present invention, assuming that the signal of frame # 2 is the same as the signal of frame # 1, that is, the image is completely stationary, the phase converter (4501) shown in FIG. As shown in FIG. 47, the image signal to be input to the frame is frame # 1 (5201) and the information on the motion of the subject (horizontal phase difference θH (2102) and vertical phase difference θV (2103)) is forcibly set to 0. The configuration of the phase conversion unit (4501) is replaced with only the same luminance direction estimation unit (4702). Hereinafter, this operation will be described in detail.

図53に、本実施例に係る画像信号処理装置における同一輝度方向推定部(4702)の動作原理を示す。同図(a)は、画像フレーム(5301)に、被写体が映っている様子を示している。なお、本実施例に係る画像信号処理装置では、図46(a)に示した画像フレーム(4601)とは異なり、1枚の画像フレーム(5301)の信号だけを扱う。同図(b)は、同図(a)の画像の一部(5302)を拡大したものであり、被写体の輪郭線(5303)の様子を示している。   FIG. 53 shows the operation principle of the same luminance direction estimation unit (4702) in the image signal processing apparatus according to the present embodiment. FIG. 5A shows a state in which the subject is reflected in the image frame (5301). Note that the image signal processing apparatus according to the present embodiment handles only the signal of one image frame (5301), unlike the image frame (4601) shown in FIG. FIG. 5B is an enlarged view of a part (5302) of the image in FIG. 4A, and shows the outline of the subject (5303).

ここで、同図(b)に示すように、被写体の輪郭線(5303)の上の画素の輝度値(信号レベル)が同一ならば、(x1,y1)の位置の画素(5304)は、(x2,y2)の位置の画素(5305)が左下方向(5306)に移動してきた、と考えることもできる。すなわち、1枚の画像フレーム(5301)を仮想的な2枚の画像フレームと考え、画像フレーム(5301)の上の処理対象の画素(5304)ごとに、もう1枚の画像フレーム(5301)の上にある処理対象の近傍の同一輝度の画素(5305)との位置の差(サンプリング位相差)を動き情報と見なして水平位相差θH’(4502)および垂直位相差θV’(4503)を生成すれば、前述した実施例21に係る画像信号処理装置と同様に、高解像度化を実現できるようになる。なお、同図(b)に示した画素(5304)(5305)は、実際の画素(実画素)だけでなく、近傍の実画素を用いて補間した画素(補間画素)でもよい。また、各画素(5304)(5305)は、被写体の輪郭線の上にある必要はなく、互いに同一の輝度値となるような対応関係にあればよい。   If the luminance value (signal level) of the pixel above the contour line (5303) of the subject is the same as shown in FIG. (B), the pixel (5304) at the position (x1, y1) is It can also be considered that the pixel (5305) at the position (x2, y2) has moved in the lower left direction (5306). That is, one image frame (5301) is considered as two virtual image frames, and for each pixel (5304) to be processed on the image frame (5301), another image frame (5301) The horizontal phase difference θH '(4502) and vertical phase difference θV' (4503) are generated by regarding the difference in position (sampling phase difference) from the pixel (5305) in the vicinity of the object to be processed above as motion information. Then, as in the image signal processing apparatus according to the twenty-first embodiment described above, higher resolution can be realized. Note that the pixels (5304) and (5305) shown in FIG. 5B may be not only actual pixels (real pixels) but also pixels (interpolated pixels) interpolated using neighboring real pixels. Further, the pixels (5304) and (5305) do not need to be on the contour line of the subject, and may have a correspondence relationship such that they have the same luminance value.

図53(c)(d)(e)に、同一輝度方向推定部(4702)の動作をまとめて示す。同図(c)は、本来の水平位相差θH(2102)と垂直位相差θV(2103)を示したものであり、1枚の画像フレーム(5301)を静止した2枚の画像フレームと見なすため、本来の水平位相差θH(2102)=(x1-x1)=0、本来の垂直位相差θV(2103)=(y1-y1)=0となる。同図(d)は、同一輝度方向への位相変換の動作を示したものであり、(x1,y1)の位置の画素(5304)を、被写体の輪郭線(5303)の上の(x2,y2)の位置の画素(5305)に変換した動作を示している。同図(e)は、同図(c)(d)の動作に基づき、位相変換後の水平位相差θH’(4502)および垂直位相差θV’(4503)を求める動作を示したものであり、位相変換後の水平位相差θH’(4502)=(x1-x2)=ΔθH、位相変換後の垂直位相差θV’(4503)=(y1-y2)=ΔθV、となる。   53 (c) (d) (e) collectively show the operation of the same luminance direction estimation unit (4702). The figure (c) shows the original horizontal phase difference θH (2102) and vertical phase difference θV (2103), and is used to consider one image frame (5301) as two stationary image frames. The original horizontal phase difference θH (2102) = (x1−x1) = 0 and the original vertical phase difference θV (2103) = (y1−y1) = 0. FIG. 6D shows the phase conversion operation in the same luminance direction.The pixel (5304) at the position (x1, y1) is moved to (x2, y2) above the contour line (5303) of the subject. The operation converted into the pixel (5305) at the position y2) is shown. (E) in the figure shows the operation for obtaining the horizontal phase difference θH ′ (4502) and the vertical phase difference θV ′ (4503) after phase conversion based on the operations in (c) and (d) in the figure. The horizontal phase difference after phase conversion θH ′ (4502) = (x1−x2) = ΔθH, and the vertical phase difference after phase conversion θV ′ (4503) = (y1−y2) = ΔθV.

ここで、図52に示した同一輝度方向推定部(4702)は、図50に示した同一輝度方向推定部(4702)と同一の構成および動作であり、図53(e)に示したΔθHおよびΔθVは、図50に示した同一輝度方向推定部(4702)から出力される水平方向の位相補正値ΔθH(4707)および垂直方向の位相補正値ΔθV(4708)と同一である。   Here, the same luminance direction estimation unit (4702) shown in FIG. 52 has the same configuration and operation as the same luminance direction estimation unit (4702) shown in FIG. 50, and ΔθH and the same luminance direction estimation unit (4702) shown in FIG. ΔθV is the same as the horizontal phase correction value ΔθH (4707) and the vertical phase correction value ΔθV (4708) output from the same luminance direction estimation unit (4702) shown in FIG.

図52に示した解像度変換部(9)では、同一輝度方向推定部(4702)にて生成された水平位相差θH’(4502)=ΔθH(4707)および垂直位相差θV’(4503)=ΔθV(4708)を用いて折返し成分除去を行えばよい。   52, the horizontal phase difference θH ′ (4502) = ΔθH (4707) and the vertical phase difference θV ′ (4503) = ΔθV generated by the same luminance direction estimation unit (4702). The aliasing component may be removed using (4708).

なお、水平方向の位相補正値ΔθH(4707)および垂直方向の位相補正値ΔθV(4708)が指す同一輝度方向が変わらないように、ΔθH(4707)とΔθV(4708)の比率を一定に保ったまま、各値を適宜増減しても、図9に示した計算式を用いて係数C1(および係数C3)を求めることが可能にならない場合もある。例えば、同一輝度方向が水平の場合、垂直方向の位相補正値ΔθV(4708)は常に0になってしまい、図52に示す折返し成分除去部(2109)にて垂直方向の折返し成分を除去することはできない。この場合は、本発明の実施例5に係る画像信号処理装置と同様に、折返し成分除去部(2108)(2109)の中に図11に示した一般的な補間ローパスフィルタ(1101)をバイパス経路として用意し、係数決定器(1103)にて上述した係数C0、C1のほかに新たにC4を生成して、乗算器(1102)にて補間ローパスフィルタ(1101)の出力と係数C4を乗算し、加算器(1104)で高解像度化した信号に加えて出力するように構成すればよい。なお、補間ローパスフィルタ(1101)、乗算器(1102)、係数決定器(1103)、加算器(1104)、補助的画素補間部(1105)以外の構成は、図10に示した実施例3の構成と同一であるため説明を省略する。また、補間ローパスフィルタ(1101)、乗算器(1102)、係数決定器(1103)、加算器(1104)、補助的画素補間部(1105)の動作および構成は、図12および図13に示した実施例5の動作および構成と同一であるため説明を省略する。   The ratio of ΔθH (4707) and ΔθV (4708) was kept constant so that the same luminance direction indicated by the horizontal phase correction value ΔθH (4707) and the vertical phase correction value ΔθV (4708) did not change. Even if each value is increased or decreased, the coefficient C1 (and coefficient C3) may not be obtained using the calculation formula shown in FIG. For example, when the same luminance direction is horizontal, the vertical phase correction value ΔθV (4708) is always 0, and the folding component removal unit (2109) shown in FIG. 52 removes the folding component in the vertical direction. I can't. In this case, similar to the image signal processing apparatus according to the fifth embodiment of the present invention, the general interpolation low-pass filter (1101) shown in FIG. 11 is bypassed in the aliasing component removal units (2108) and (2109). In addition to the coefficients C0 and C1 described above, the coefficient determiner (1103) newly generates C4, and the multiplier (1102) multiplies the output of the interpolation low-pass filter (1101) by the coefficient C4. The signal may be output in addition to the signal whose resolution has been increased by the adder (1104). The configurations other than the interpolation low-pass filter (1101), multiplier (1102), coefficient determiner (1103), adder (1104), and auxiliary pixel interpolation unit (1105) are the same as those in the third embodiment shown in FIG. Since the configuration is the same, the description thereof is omitted. The operations and configurations of the interpolation low-pass filter (1101), multiplier (1102), coefficient determiner (1103), adder (1104), and auxiliary pixel interpolation unit (1105) are shown in FIGS. Since the operation and configuration are the same as those of the fifth embodiment, description thereof is omitted.

以上説明した実施例25に係る画像信号処理装置によれば、従来例よりも少ない1枚の入力画像フレームを用いて、折り返し成分が少なく、入力画像より高解像度な画像を生成することができる。従って、入力される画像フレームが1枚だけの場合、入力される画像フレームの全部あるいは一部分(一領域)が静止している場合の静止部分、被写体が激しく動くなどして前後のフレーム間で対応する画素が推定できない場合、連続フレーム列であるが1枚1枚まったく異なる内容の画像フレームのため前後のフレーム間で対応する画素が推定できない場合などでも、高解像度化を実現することが可能になるという効果がある。   According to the image signal processing apparatus according to the 25th embodiment described above, it is possible to generate an image with fewer aliasing components and higher resolution than the input image by using one input image frame fewer than in the conventional example. Therefore, when only one image frame is input, the entire image frame or part (one area) of the input image is stationary, and the subject moves violently. If it is impossible to estimate the pixels to be processed, it is possible to realize high resolution even if the corresponding pixels cannot be estimated between the previous and subsequent frames because the image frames are continuous frames, but each one has a completely different content. There is an effect of becoming.

また、実施例25に係る画像信号処理装置は、従来例よりも少ない1枚の入力画像フレームを用いるため、必要な画像処理の量を従来例より低減できるという効果がある。   Further, since the image signal processing apparatus according to the twenty-fifth embodiment uses one input image frame that is smaller than that in the conventional example, the amount of necessary image processing can be reduced as compared with the conventional example.

なお、本実施例に係る画像信号処理装置を説明した図52の構成は、本発明の実施例21に係る画像信号処理装置を説明した図45の構成をベースにしているが、これに限定されるものではなく、本発明の他の実施例に係る画像信号処理装置に対して、図52に示す同一輝度方向推定部(4702)を設けて、1枚のフレーム画像のみの入力としても、同様の効果が得られることは明らかであるので、説明を省略する。   The configuration of FIG. 52 describing the image signal processing device according to the present embodiment is based on the configuration of FIG. 45 illustrating the image signal processing device according to the embodiment 21 of the present invention, but is not limited thereto. However, the same luminance direction estimation unit (4702) shown in FIG. 52 is provided for the image signal processing apparatus according to another embodiment of the present invention, and the same applies even when only one frame image is input. Since it is clear that the above effect can be obtained, the description thereof is omitted.

実施例26は、実施例25に係る画像信号処理装置における画像信号処理と等価な処理を、ソフトウェアと協働する制御部により実現する画像信号処理方法に係るものである。本実施例の画像信号処理方法を行う画像処理装置は、図18に示す画像処理装置からフレーム#2を入力する入力部(1)とバッファ#2(22)を除いたものであり、その他は本発明の実施例2と同様の画像処理装置であるので説明を省略する。   The twenty-sixth embodiment relates to an image signal processing method in which processing equivalent to the image signal processing in the image signal processing apparatus according to the twenty-fifth embodiment is realized by a control unit that cooperates with software. The image processing apparatus that performs the image signal processing method of the present embodiment is obtained by removing the input unit (1) for inputting frame # 2 and the buffer # 2 (22) from the image processing apparatus shown in FIG. Since the image processing apparatus is the same as that of the second embodiment of the present invention, description thereof is omitted.

図55に、本実施例の動作のフローチャートの一例を示す。図55のフローチャートは、本発明の実施例2に係る図14に示したフローチャートからステップ(1403)(1405)(1406)(1418)を削除し、新たにステップ(5501)(5502)を加えたものである。以下、図14に示したフローチャートからの変更点について説明する。   FIG. 55 shows an example of a flowchart of the operation of the present embodiment. In the flowchart of FIG. 55, steps (1403) (1405) (1406) (1418) are deleted from the flowchart shown in FIG. 14 according to the second embodiment of the present invention, and steps (5501) (5502) are newly added. Is. Hereinafter, changes from the flowchart shown in FIG. 14 will be described.

まず、本実施例に係る画像信号処理方法では、図18に示す画像処理装置の入力部(1)から入力されるフレーム#1の信号だけを用いて、高解像度化の処理を実現する。このため、図14に示したフローチャートにおけるフレーム#2およびフレームバッファ#2に関する処理ステップは必要ないため、ステップ(1403)(1405)(1406)(1418)を削除する。   First, in the image signal processing method according to the present embodiment, high resolution processing is realized using only the signal of frame # 1 input from the input unit (1) of the image processing apparatus shown in FIG. Therefore, the processing steps relating to frame # 2 and frame buffer # 2 in the flowchart shown in FIG. 14 are not necessary, and steps (1403), (1405), (1406), and (1418) are deleted.

続いて、ステップ(1405)の替わりに設けたステップ(5501)にて、ステップ(1404)で設定した処理対象の画素に対して、図53を用いて説明した動作にて同一輝度方向を推定し、位相差θ(水平位相差θH’(4502)あるいは垂直位相差θV’(4503))を生成し、ステップ(5502)およびステップ(1409)に進む。ステップ(5502)では、ステップ(5501)にて生成した位相差θを動き情報と見なして、フレームバッファ#1の対象画素の近傍の画素を動き補償する。このとき、近傍の画素として、ステップ(1408)のπ/2位相シフトの処理で用いる画素データ、すなわち有限のタップ数が作用する範囲の画素データだけを動き補償すればよい。この動き補償の動作は、図5および図6を用いて説明した動作と同一である。   Subsequently, in step (5501) provided instead of step (1405), the same luminance direction is estimated for the processing target pixel set in step (1404) by the operation described with reference to FIG. Then, a phase difference θ (horizontal phase difference θH ′ (4502) or vertical phase difference θV ′ (4503)) is generated, and the process proceeds to step (5502) and step (1409). In step (5502), the phase difference θ generated in step (5501) is regarded as motion information, and motion compensation is performed on pixels near the target pixel in frame buffer # 1. At this time, only the pixel data used in the π / 2 phase shift processing in step (1408), that is, pixel data in a range where a finite number of taps acts, need to be motion-compensated as neighboring pixels. The motion compensation operation is the same as the operation described with reference to FIGS.

その他のステップ(1401)(1402)、ステップ(1407)〜ステップ(1417)、およびステップ(1419)(1420)については、本発明の実施例2と同様の動作であるので説明を省略する。   The other steps (1401) and (1402), steps (1407) to (1417), and steps (1419) and (1420) are the same operations as those in the second embodiment of the present invention, and thus description thereof is omitted.

以上のような処理を行うことにより、フレームバッファ#1の画素データを用いて、フレームバッファ#3に高解像度化した信号を出力することができる。動画に応用する場合は、ステップ(1401)からステップ(1417)に至る処理を、フレームごとに繰り返せばよい。   By performing the processing as described above, it is possible to output a high resolution signal to the frame buffer # 3 using the pixel data of the frame buffer # 1. When applied to a moving image, the process from step (1401) to step (1417) may be repeated for each frame.

以上説明した実施例26に係る画像信号処理方法によれば、従来例よりも少ない1枚の入力画像フレームを用いて、折り返し成分が少なく、入力画像より高解像度な画像を生成することができる。   According to the image signal processing method according to the twenty-sixth embodiment described above, it is possible to generate an image with fewer aliasing components and higher resolution than the input image using one input image frame that is smaller than that in the conventional example.

また、実施例26に係る画像信号処理方法は、従来例よりも少ない1枚の入力画像フレームを用いるため、必要な画像処理の量を従来例より低減できるという効果がある。   Further, the image signal processing method according to the twenty-sixth embodiment has an effect that the amount of necessary image processing can be reduced as compared with the conventional example because one input image frame that is smaller than that in the conventional example is used.

図54に、本発明の実施例27に係る画像信号処理装置を示す。本実施例に係る画像処理装置は、例えばテレビジョン放送信号などの画像フレームが入力される入力部(1)と、この入力部(1)から入力されたフレームを水平・垂直方向を組み合わせた2次元の高解像度化するための解像度変換部(41)と、更にこの解像度変換部(41)によって高解像度化されたフレームに基づき画像を表示する表示部(3)とを備えている。   FIG. 54 shows an image signal processing apparatus according to Embodiment 27 of the present invention. The image processing apparatus according to the present embodiment includes, for example, an input unit (1) to which an image frame such as a television broadcast signal is input, and a frame input from the input unit (1) that combines the horizontal and vertical directions. A resolution conversion unit (41) for increasing the resolution of a dimension and a display unit (3) for displaying an image based on the frame whose resolution has been increased by the resolution conversion unit (41) are provided.

同図に示す解像度変換部(41)では、入力されたフレーム画像の信号(5201)をもとに、前述した同一輝度方向推定部(4702)にて水平位相差θH’(4502)=ΔθH(4707)および垂直位相差θV’(4503)=ΔθV(4708)を生成し、これらの位相差情報を解像度変換部(9-1)に入力するとともに、乗算器(5401)(5402)を用いて各位相差情報の極性を反転して(すなわち、(-1)を乗じて)、解像度変換部(9-2)に入力する。各解像度変換部(9-1)(9-2)にて高解像度化の処理を行ったのちに、加算器(5403)と乗算器(5404)を用いて、各解像度変換部(9-1)(9-2)の各出力を平均化して出力する。なお、同一輝度方向推定部(4702)と解像度変換部(9-1)(9-2)の動作および構成については、前述した実施例25に係る同一輝度方向推定部(4702)および解像度変換部(9)と同一であるので、説明は省略する。   In the resolution conversion unit (41) shown in the figure, based on the input frame image signal (5201), the same luminance direction estimation unit (4702) described above uses the horizontal phase difference θH ′ (4502) = ΔθH ( 4707) and vertical phase difference θV ′ (4503) = ΔθV (4708), and the phase difference information is input to the resolution conversion unit (9-1) and the multipliers (5401) and (5402) are used. The polarity of each phase difference information is inverted (that is, multiplied by (-1)) and input to the resolution conversion unit (9-2). After each resolution conversion unit (9-1) (9-2) performs high resolution processing, an adder (5403) and a multiplier (5404) are used to convert each resolution conversion unit (9-1 ) (9-2) is averaged and output. The operations and configurations of the same luminance direction estimation unit (4702) and the resolution conversion units (9-1) and (9-2) are the same luminance direction estimation unit (4702) and resolution conversion unit according to Example 25 described above. Since it is the same as (9), the description is omitted.

同一輝度方向推定部(4702)では、前述した図53(b)に、処理対象の画素(5304)に対して同一輝度となる近傍の画素(5305)の方向を推定する様子を示した。一方、図49(a)(b)に示したように、処理対象となる中心の画素(4902)の近傍に着目すると、微小な領域では同一輝度となる方向を直線と見なすことができるため、処理対象の画素(4902)を中心として点対称となるようにこの直線を伸ばしてもよい。   In the same luminance direction estimation unit (4702), FIG. 53 (b) described above shows a state in which the direction of the neighboring pixel (5305) having the same luminance with respect to the processing target pixel (5304) is estimated. On the other hand, as shown in FIGS. 49 (a) and 49 (b), when attention is paid to the vicinity of the central pixel (4902) to be processed, the direction of the same luminance in a minute region can be regarded as a straight line. This straight line may be extended so as to be point-symmetric about the pixel (4902) to be processed.

そこで、同一輝度方向推定部(4702)にて生成した水平位相差θH’(4502)および垂直位相差θV’(4503)の値を、乗算器(5401)(5402)によって極性反転し、処理対象の画素(4902)を中心として点対称となるように各位相差の値を変換したのちに解像度変換部(9-2)に入力しても、水平位相差θH’(4502)および垂直位相差θV’(4503)の値をそのまま用いた解像度変換部(9-1)と同様の出力結果が得られる。   Therefore, the polarity of the horizontal phase difference θH ′ (4502) and vertical phase difference θV ′ (4503) generated by the same luminance direction estimation unit (4702) is inverted by the multipliers (5401) (5402), and the processing target The horizontal phase difference θH ′ (4502) and the vertical phase difference θV can be obtained by converting each phase difference value so that it is point-symmetrical with respect to the pixel (4902) and then inputting it to the resolution converter (9-2). The output result similar to that of the resolution conversion unit (9-1) using the value of '(4503) as it is can be obtained.

仮に、同一輝度方向推定部(4702)にて生成した水平位相差θH’(4502)および垂直位相差θV’(4503)の値に誤差やノイズを含んでいた場合にも、その影響が解像度変換部(9-1)と解像度変換部(9-2)で反対極性となって現れるため、両者の出力を平均化することにより、誤差やノイズを低減することが可能になる。   Even if the horizontal phase difference θH '(4502) and vertical phase difference θV' (4503) generated by the same luminance direction estimator (4702) contain errors and noise, the effect is also affected by resolution conversion. Since the parts (9-1) and the resolution converter (9-2) appear to have opposite polarities, it is possible to reduce errors and noises by averaging the outputs of both.

さらに解像度変換部(9)の個数を増やすとともに、乗算器(5401)(5402)における倍率を(-1)に限定せず、いろいろな倍率で水平位相差θH’(4502)および垂直位相差θV’(4503)の値を変換して高解像度化処理を行ったのちに、各解像度変換部(9)の出力を平均化して出力してもよい。例えば、解像度変換部(9)の個数を図54に示す2個から6個にし、各解像度変換部(9)に入力する水平位相差θH’(4502)および垂直位相差θV’(4503)の倍率を図54に示す1倍および(-1)倍の2種類に0.5倍、(-0.5)倍、1.5倍、(-1.5)倍を追加して合計6種類とし、各解像度変換部(9)の出力をすべて合計して1/6倍することによって平均化して、出力信号としてもよい。このように解像度変換部(9)の個数を増やすことにより、同一輝度方向推定部(4702)にて発生した誤差やノイズを低減することが可能になる。   Furthermore, the number of resolution converters (9) is increased, and the magnification in the multipliers (5401) and (5402) is not limited to (-1), and the horizontal phase difference θH ′ (4502) and the vertical phase difference θV can be set at various magnifications. After converting the value of '(4503) and performing the high resolution processing, the output of each resolution conversion unit (9) may be averaged and output. For example, the number of resolution converters (9) is changed from 2 to 6 shown in FIG. 54, and the horizontal phase difference θH ′ (4502) and the vertical phase difference θV ′ (4503) input to each resolution converter (9). 54 magnifications are added to the two types, 1 × and (−1) times shown in FIG. 54, and 6 types are added by adding 0.5 times, (−0.5) times, 1.5 times, and (−1.5) times. ) Are summed and multiplied by 1/6, and averaged to produce an output signal. Thus, by increasing the number of resolution conversion units (9), it is possible to reduce errors and noises generated in the same luminance direction estimation unit (4702).

以上説明した実施例27に係る画像信号処理装置によれば、実施例25に係る画像信号処理装置の効果に加えて、同一輝度方向推定部(4702)にて発生した誤差やノイズを低減することが可能になるという効果がある。   According to the image signal processing device according to the twenty-seventh embodiment described above, in addition to the effects of the image signal processing device according to the twenty-fifth embodiment, the error and noise generated in the same luminance direction estimation unit (4702) can be reduced. Has the effect of becoming possible.

本発明の実施例28に係る画像表示装置は、実施例13に係る画像表示装置において、図35に示す画像信号処理部3504を実施例25から実施例27に記載された画像信号処理装置に替えたものである。その他構成は、実施例13に係る画像表示装置と同じである為、説明を省略する。   The image display device according to the twenty-eighth embodiment of the present invention is the same as the image display device according to the thirteenth embodiment, except that the image signal processing unit 3504 shown in FIG. 35 is replaced with the image signal processing device described in the twenty-fifth to twenty-seventh embodiments. It is a thing. Since other configurations are the same as those of the image display apparatus according to the thirteenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例25から実施例27に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is the same as that described in the twenty-fifth to twenty-seventh embodiment, and thus the description thereof is omitted.

実施例28に係る画像表示装置によれば、従来例よりも少ない1枚の入力画像フレームを用いるため、必要な画像処理の量をより低減できるという効果がある。   The image display apparatus according to the twenty-eighth embodiment has an effect that the amount of necessary image processing can be further reduced because one input image frame that is smaller than that in the conventional example is used.

本発明の実施例29に係る録画再生装置は、実施例17に係る録画再生装置において、図36に示す画像信号処理部3504を実施例25から実施例27に記載された画像信号処理装置に替えたものである。その他構成は、実施例17に係る録画再生装置と同じである為、説明を省略する。   The recording / playback apparatus according to Embodiment 29 of the present invention is the same as the recording / playback apparatus according to Embodiment 17, except that the image signal processing unit 3504 shown in FIG. 36 is replaced with the image signal processing apparatus described in Embodiments 25 to 27. It is a thing. Since other configurations are the same as those of the recording / playback apparatus according to the seventeenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例25から実施例27に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is the same as that described in the twenty-fifth to twenty-seventh embodiment, and thus the description thereof is omitted.

実施例29に係る録画再生装置によれば、従来例よりも少ない1枚の入力画像フレームを用いるため、必要な画像処理の量をより低減できるという効果がある。   According to the recording / reproducing apparatus in the twenty-ninth embodiment, since one input image frame that is smaller than that in the conventional example is used, the amount of necessary image processing can be further reduced.

図56に、本発明の実施例30に係る画像信号処理装置を示す。本実施例に係る画像処理装置は、例えばテレビジョン放送信号などの動画像のフレーム列が入力される入力部(1)と、この入力部(1)から入力されたフレームを水平・垂直方向を組み合わせた2次元の高解像度化するための解像度変換部(43)と、更にこの解像度変換部(43)によって高解像度化されたフレームに基づき画像を表示する表示部(3)とを備えている。   FIG. 56 shows an image signal processing apparatus according to Embodiment 30 of the present invention. The image processing apparatus according to the present embodiment includes, for example, an input unit (1) to which a frame sequence of a moving image such as a television broadcast signal is input, and a frame input from the input unit (1) in the horizontal and vertical directions. A resolution conversion unit (43) for increasing the combined two-dimensional resolution and a display unit (3) for displaying an image based on the frame whose resolution has been increased by the resolution conversion unit (43) are provided. .

本発明の実施例30に係る画像信号処理装置に備える解像度変換部(43)は、本発明の実施例25に係る画像信号処理装置と同様の解像度変換部(44)と、本発明の実施例8に係る画像信号処理装置と同様の解像度変換部(4)と、その両者の出力信号を混合する混合部(5601)とを備えている。解像度変換部(44)および解像度変換部(4)は、それぞれ図52および図21に示す解像度変換部と同一であるため、説明は省略する。以下、解像度変換部(43)の動作と構成の詳細について説明する。   The resolution conversion unit (43) included in the image signal processing device according to the thirtieth embodiment of the present invention is the same as the resolution conversion unit (44) similar to the image signal processing device according to the twenty-fifth embodiment of the present invention. 8 includes a resolution conversion unit (4) similar to that of the image signal processing apparatus according to 8, and a mixing unit (5601) for mixing the output signals of both. Since the resolution conversion unit (44) and the resolution conversion unit (4) are the same as the resolution conversion units shown in FIGS. 52 and 21, respectively, description thereof will be omitted. The details of the operation and configuration of the resolution conversion unit (43) will be described below.

まず、本発明の実施例25に係る画像信号処理装置と同様の解像度変換部(44)は、入力部(1)から入力されるフレーム#1の信号だけを用いて高解像度化を実現することが可能である。その一方で、前述したように、解像度変換部(44)の中の同一輝度方向推定部(4702)にて生成された水平位相差θH’(4502)=ΔθH(4707)および垂直位相差θV’(4503)=ΔθV(4708)の値によっては、図9に示した計算式を用いて係数C1(および係数C3)を求めることができず、高解像度化の効果が得られない場合がある。例えば、同一輝度方向が水平方向や垂直方向の場合は、高解像度化の効果が得られない。   First, the resolution conversion unit (44) similar to the image signal processing apparatus according to the twenty-fifth embodiment of the present invention realizes high resolution using only the signal of frame # 1 input from the input unit (1). Is possible. On the other hand, as described above, the horizontal phase difference θH ′ (4502) = ΔθH (4707) and the vertical phase difference θV ′ generated by the same luminance direction estimation unit (4702) in the resolution conversion unit (44). Depending on the value of (4503) = ΔθV (4708), the coefficient C1 (and coefficient C3) cannot be obtained using the calculation formula shown in FIG. 9, and the effect of increasing the resolution may not be obtained. For example, when the same luminance direction is the horizontal direction or the vertical direction, the effect of increasing the resolution cannot be obtained.

また、本発明の実施例8に係る画像信号処理装置と同様の解像度変換部(4)は、入力部(1)から入力されるフレーム#1とフレーム#2の信号の両方を用いて高解像度化を実現する。この際、前述したように、解像度変換部(4)の中の位置推定部(2101)にて生成された水平位相差θH(2102)および垂直位相差θV(2103)の値によっては、図9に示した計算式を用いて係数C1(および係数C3)を求めることができず、高解像度化の効果が得られない場合がある。例えば、入力画像がプログレッシブ走査信号の場合は、被写体が静止している領域や、被写体の動きがちょうど整数画素単位になる領域では、高解像度化の効果が得られない。また、入力画像がインタレース走査信号の場合は、フィールド間で画像の信号値が変化しない領域では、高解像度化の効果が得られない。   In addition, the resolution conversion unit (4) similar to the image signal processing apparatus according to the eighth embodiment of the present invention uses both the frame # 1 and frame # 2 signals input from the input unit (1) to achieve high resolution. Realize. At this time, as described above, depending on the values of the horizontal phase difference θH (2102) and the vertical phase difference θV (2103) generated by the position estimation unit (2101) in the resolution conversion unit (4), FIG. In some cases, the coefficient C1 (and the coefficient C3) cannot be obtained using the calculation formula shown in FIG. For example, when the input image is a progressive scanning signal, the effect of increasing the resolution cannot be obtained in a region where the subject is stationary or a region where the movement of the subject is exactly an integer pixel unit. When the input image is an interlaced scanning signal, the effect of increasing the resolution cannot be obtained in a region where the signal value of the image does not change between fields.

従って、本発明の実施例30に係る画像信号処理装置に備える解像度変換部(43)では、解像度変換部(44)の出力信号(SR1(1フレーム型))と解像度変換部(4)の出力信号(SR2(2フレーム型))を混合器(5601)によって混合することにより、高解像度化の効果を高める。   Therefore, in the resolution conversion unit (43) included in the image signal processing apparatus according to the thirtieth embodiment of the present invention, the output signal (SR1 (one frame type)) of the resolution conversion unit (44) and the output of the resolution conversion unit (4) By mixing the signal (SR2 (2-frame type)) with the mixer (5601), the effect of increasing the resolution is enhanced.

図57に、混合器(5601)の第1の構成例を示す。同図において、加算器(5701)と乗算器(5702)を用いて、混合器(5601)に入力されたSR1(1フレーム型)とSR2(2フレーム型)の各信号の平均値を生成して出力する。同図に示す構成は、SR1(1フレーム型)とSR2(2フレーム型)の各解像度向上効果もそれぞれ1/2になってしまうが、混合器(5601)が最も簡単な構成である為、低コストに実現できる。   FIG. 57 shows a first configuration example of the mixer (5601). In the figure, an adder (5701) and a multiplier (5702) are used to generate an average value of each signal of SR1 (1-frame type) and SR2 (2-frame type) input to the mixer (5601). Output. In the configuration shown in the figure, each resolution improvement effect of SR1 (1 frame type) and SR2 (2 frame type) is also halved, but the mixer (5601) is the simplest configuration, It can be realized at low cost.

図58に、混合器(5601)の第2の構成例を示す。同図において、混合器(5601)に入力されたSR1(1フレーム型)とSR2(2フレーム型)の各信号に対し、乗算器(5803)および乗算器(5804)を用いて係数K(SR1)と係数K(SR2)をそれぞれ乗じ、加算器(5805)で両者を加算して出力とする。係数K(SR1)と係数K(SR2)は、それぞれ係数決定器(5801)(5802)にて生成する。以下、この係数決定器(5801)(5802)の動作について説明する。   FIG. 58 shows a second configuration example of the mixer (5601). In the figure, for each signal of SR1 (1-frame type) and SR2 (2-frame type) input to the mixer (5601), a multiplier K (SR3) and a multiplier (5804) are used to obtain a coefficient K (SR1 ) And the coefficient K (SR2), respectively, and the adder (5805) adds both to produce an output. The coefficient K (SR1) and the coefficient K (SR2) are generated by coefficient determiners (5801) and (5802), respectively. The operation of the coefficient determiners (5801) (5802) will be described below.

本発明の実施例7の動作で説明したように、図21に示した折返し成分除去部(2108)(2109)は、同図に示す位相差θH(2102)および位相差θV(2103)をもとに、図1に示す係数決定器(109)にて図9に示す係数C0〜C3を発生して折返し成分除去の演算を行う。このとき、位相差θH(2102)、θV(2103)が0のときに係数C1およびC3が不定になることや、位相差θH(2102)、θV(2103)が0に近づくにつれて係数C1、C3が大きくなることでノイズ等に脆弱になることを防ぐために、図13に示す係数C4(0≦C4≦1)を導入して、図11に示す構成のように補助的画素補間を行うのが好ましい。逆に言えば、係数C4の値が0.0のときは解像度向上の効果があるが、係数C4の値が1.0に近づくにつれて、解像度向上の効果が小さくなることになる。   As described in the operation of the seventh embodiment of the present invention, the aliasing component removal units (2108) and (2109) shown in FIG. 21 have the phase difference θH (2102) and the phase difference θV (2103) shown in FIG. At the same time, the coefficient C0 to C3 shown in FIG. 9 is generated by the coefficient determiner (109) shown in FIG. At this time, the coefficients C1 and C3 become indefinite when the phase differences θH (2102) and θV (2103) are 0, and the coefficients C1 and C3 are increased as the phase differences θH (2102) and θV (2103) approach 0. In order to prevent it from becoming vulnerable to noise and the like by increasing the coefficient, the coefficient C4 (0 ≦ C4 ≦ 1) shown in FIG. 13 is introduced, and auxiliary pixel interpolation is performed as in the configuration shown in FIG. preferable. In other words, the effect of improving the resolution is obtained when the value of the coefficient C4 is 0.0, but the effect of improving the resolution becomes smaller as the value of the coefficient C4 approaches 1.0.

この性質を利用し、本発明の実施例7では、水平位相差θH(2102)が0近傍(すなわち、係数C4(水平)が1.0近傍)のときは垂直解像度変換結果のSR(垂直)が強く反映され、垂直位相差θV(2103)が0近傍(すなわち、係数C4(垂直)が1.0近傍)のときは水平解像度変換結果のSR(水平)が強く反映されるように、水平・垂直方向それぞれの係数C4の値を用いて係数K(水平)と係数K(垂直)を決定する。この動作を実現するため、図23に示す係数決定器(2301)ではK(水平)=C4(水平)+(1-C4(垂直))/2の演算を行ってK(水平)を決定し、係数決定器(2303)ではK(垂直)=C4(垂直)+(1-C4(水平))/2の演算を行ってK(垂直)を決定した。   Using this property, in the seventh embodiment of the present invention, when the horizontal phase difference θH (2102) is near 0 (that is, the coefficient C4 (horizontal) is near 1.0), the SR (vertical) of the vertical resolution conversion result is strong. Reflected, when the vertical phase difference θV (2103) is near 0 (that is, the coefficient C4 (vertical) is near 1.0), the horizontal resolution conversion result SR (horizontal) is reflected strongly, respectively A coefficient K (horizontal) and a coefficient K (vertical) are determined using the value of the coefficient C4. In order to realize this operation, the coefficient determiner (2301) shown in FIG. 23 performs an operation of K (horizontal) = C4 (horizontal) + (1-C4 (vertical)) / 2 to determine K (horizontal). In the coefficient determiner (2303), K (vertical) = C4 (vertical) + (1-C4 (horizontal)) / 2 was calculated to determine K (vertical).

これと同様に、本実施例では、解像度変換部(44)で利用する位相差θH’(4502)および位相差θV’(4503)をもとに係数C4(水平)とC4(垂直)を生成し、これらの平均値をC4(SR1)とする。また、解像度変換部(4)で利用する位相差θH(2102)および位相差θV(2103)をもとに係数C4(水平)とC4(垂直)を生成し、これらの平均値をC4(SR2)とする。すなわち、係数C4(SR1)とC4(SR2)は、解像度変換部(44)と解像度変換部(4)にて高解像度化の効果がそれぞれどの程度あるかを示す指標として使用することができる。   Similarly, in this embodiment, coefficients C4 (horizontal) and C4 (vertical) are generated based on the phase difference θH ′ (4502) and the phase difference θV ′ (4503) used in the resolution converter (44). The average value of these values is C4 (SR1). Also, coefficients C4 (horizontal) and C4 (vertical) are generated based on the phase difference θH (2102) and phase difference θV (2103) used in the resolution converter (4), and the average value of these is calculated as C4 (SR2 ). That is, the coefficients C4 (SR1) and C4 (SR2) can be used as an index indicating the degree of the effect of the high resolution in the resolution converter (44) and the resolution converter (4).

そこで、図58に示す混合器(5601)において、係数決定器(5801)ではK(SR1)=C4(SR1)+(1-C4(SR2)/2の演算を行ってK(SR1)を決定し、係数決定器(5802)ではK(SR2)=C4(SR2)+(1-C4(SR1))/2の演算を行ってK(SR2)を決定したのちに、各係数K(SR1)およびK(SR2)に基づいて、解像度変換部(44)の出力(SR1)と解像度変換部(4)の出力(SR2)を加重加算して混合して出力すれば、出力信号において解像度変換部(44)と解像度変換部(4)の効果が大きいほうの信号が占める割合を高めることができ、高解像度化の効果を高めることが可能になる。   Therefore, in the mixer (5601) shown in FIG. 58, the coefficient determiner (5801) determines K (SR1) by calculating K (SR1) = C4 (SR1) + (1-C4 (SR2) / 2. In the coefficient determiner (5802), K (SR2) = C4 (SR2) + (1-C4 (SR1)) / 2 is calculated to determine K (SR2), and then each coefficient K (SR1) And K (SR2), the output (SR1) of the resolution converter (44) and the output (SR2) of the resolution converter (4) are weighted and mixed and output. It is possible to increase the proportion of the signal having the larger effect of (44) and the resolution conversion unit (4), and to increase the effect of higher resolution.

以上説明した実施例30に係る画像信号処理装置によれば、実施例25および実施例8に係る画像信号処理装置の効果に加えて、実施例25および実施例8に係る画像信号処理装置では高解像度化に利用できなかった被写体の同一輝度方向および被写体動きの場合でも、高解像度化を実現することが可能になり、解像度向上効果をより大きくすることができるという効果がある。   According to the image signal processing device according to the embodiment 30 described above, in addition to the effects of the image signal processing device according to the embodiments 25 and 8, the image signal processing device according to the embodiments 25 and 8 is high. Even in the case of the same luminance direction and subject movement of the subject that could not be used for resolution enhancement, it is possible to achieve higher resolution, and there is an effect that the resolution improvement effect can be further increased.

なお、本実施例に係る画像信号処理装置を説明した図56の構成は、本発明の実施例25に係る画像信号処理装置と同様の解像度変換部(44)と、本発明の実施例8に係る画像信号処理装置と同様の解像度変換部(4)をベースにしているが、これに限定されるものではなく、本発明の他の実施例に係る1フレーム入力型の画像信号処理装置と2フレーム入力型の画像信号処理装置に対して、図56に示す混合部(5601)を設けても、同様の効果が得られることは明らかであるので、説明を省略する。   The configuration of FIG. 56 describing the image signal processing apparatus according to the present embodiment is the same as the resolution conversion unit (44) similar to the image signal processing apparatus according to the embodiment 25 of the present invention and the embodiment 8 of the present invention. Although it is based on the same resolution conversion unit (4) as the image signal processing apparatus according to this embodiment, the present invention is not limited to this, and the one-frame input type image signal processing apparatus according to another embodiment of the present invention and 2 Since it is clear that the same effect can be obtained even if the mixing unit (5601) shown in FIG. 56 is provided for the frame input type image signal processing apparatus, description thereof will be omitted.

本発明の実施例31に係る画像表示装置は、実施例13に係る画像表示装置において、図35に示す画像信号処理部3504を実施例30に記載された画像信号処理装置に替えたものである。その他構成は、実施例13に係る画像表示装置と同じである為、説明を省略する。   An image display apparatus according to Embodiment 31 of the present invention is the same as the image display apparatus according to Embodiment 13, except that the image signal processing unit 3504 shown in FIG. 35 is replaced with the image signal processing apparatus described in Embodiment 30. . Since other configurations are the same as those of the image display apparatus according to the thirteenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例30に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is as described in the thirtieth embodiment, and thus the description thereof is omitted.

実施例31に係る画像表示装置によれば、実施例28および実施例13に係る画像表示装置の効果に加えて、実施例28および実施例13に係る画像表示装置では高解像度化に利用できなかった被写体の同一輝度方向および被写体動きの場合でも、高解像度化を実現することが可能になり、解像度向上効果をより大きくすることができるという効果がある。   According to the image display device according to the example 31, in addition to the effects of the image display device according to the example 28 and the example 13, the image display device according to the example 28 and the example 13 cannot be used for high resolution. Even in the case of the same luminance direction and subject movement of the subject, it is possible to achieve high resolution, and there is an effect that the resolution improvement effect can be further increased.

本発明の実施例32に係る録画再生装置は、実施例17に係る録画再生装置において、図36に示す画像信号処理部3504を実施例30に記載された画像信号処理装置に替えたものである。その他構成は、実施例17に係る録画再生装置と同じである為、説明を省略する。   The recording / playback apparatus according to Embodiment 32 of the present invention is the same as the recording / playback apparatus according to Embodiment 17, except that the image signal processing unit 3504 shown in FIG. 36 is replaced with the image signal processing apparatus described in Embodiment 30. . Since other configurations are the same as those of the recording / playback apparatus according to the seventeenth embodiment, description thereof is omitted.

また、画像信号処理部3504の詳細な動作については、実施例30に記載したとおりであるので、説明を省略する。   The detailed operation of the image signal processing unit 3504 is as described in the thirtieth embodiment, and thus the description thereof is omitted.

実施例32に係る録画再生装置によれば、実施例29及び実施例17に係る録画再生装置の効果に加えて、実施例29及び実施例17に係る録画再生装置では高解像度化に利用できなかった被写体の同一輝度方向および被写体動きの場合でも、高解像度化を実現することが可能になり、解像度向上効果をより大きくすることができるという効果がある。   According to the recording / playback apparatus according to the thirty-second embodiment, in addition to the effects of the recording / playback apparatuses according to the twenty-ninth and seventeenth embodiments, the recording / playback apparatus according to the twenty-ninth and seventeenth embodiments cannot be used for high resolution. Even in the case of the same luminance direction and subject movement of the subject, it is possible to achieve high resolution, and there is an effect that the resolution improvement effect can be further increased.

なお、本発明の各実施例は、上記実施例で説明した装置以外に、例えば、DVDプレーヤー、磁気ディスクプレーヤー、もしくは半導体メモリプレーヤーにも同様に適用できる。また例えば、1セグ放送を受信するための携帯画像表示端末(例えば携帯電話)にも適用できる。   Each embodiment of the present invention can be similarly applied to, for example, a DVD player, a magnetic disk player, or a semiconductor memory player in addition to the devices described in the above embodiments. For example, the present invention can also be applied to a portable image display terminal (for example, a mobile phone) for receiving 1-segment broadcasting.

また画像フレームとしては、テレビジョン放送信号以外の信号の画像フレームを用いてもよい。また、例えば、インターネットを介して送信されるストリーミング画像や、DVDプレーヤーやHDDプレーヤーから再生された画像の画像フレームを用いてもよい。   As the image frame, an image frame of a signal other than the television broadcast signal may be used. Further, for example, a streaming image transmitted via the Internet or an image frame of an image reproduced from a DVD player or an HDD player may be used.

また、上述した各実施例ではフレーム単位での高解像度化を例に挙げて説明した。しかし高解像度化の対象は、必ずしもフレーム全体でなくとも良い。例えば、入力画像または入力映像のフレームの一部分を解像度化の対象としても良い。すなわち、入力映像のフレームの一部分の複数フレーム分を対象として上述した本発明の一の実施例の画像処理を実施すれば、入力画像または入力映像の一部分の高画質な拡大画像を得ることができる。これは、例えば、映像の一部分の拡大表示などに適用できる。   Further, in each of the above-described embodiments, the description has been given by taking as an example high resolution in frame units. However, the target for higher resolution is not necessarily the entire frame. For example, a part of the frame of the input image or input video may be set as the resolution target. That is, if the image processing according to the embodiment of the present invention described above is performed for a plurality of frames of a part of the frame of the input video, a high-quality enlarged image of the input image or a part of the input video can be obtained. . This can be applied to, for example, an enlarged display of a part of an image.

また、本発明の各実施例は、輝度信号(Y)だけでなく、赤(R)、緑(G)、青(B)などの色信号や、一般的な色空間変換処理によってRGB信号から変換されたCb、Cr、Pb、Pr、U、Vなどの色差信号にも適用できる。この場合は、上記説明における「輝度」を、「色」あるいは「色差」と読み替えればよい。   In addition, each embodiment of the present invention is not limited to the luminance signal (Y), but also from color signals such as red (R), green (G), and blue (B), and RGB signals by general color space conversion processing. The present invention can also be applied to color difference signals such as converted Cb, Cr, Pb, Pr, U, and V. In this case, “luminance” in the above description may be read as “color” or “color difference”.

なお、上述した各実施例のいずれを組み合わせても、本発明の一実施の形態となりうる。   It should be noted that any combination of the above-described embodiments can be an embodiment of the present invention.

上述した本発明の各実施例によれば、低解像度の画像を好適に拡大画像に変換する処理
を行うことができ、高画質な高解像度画像を好適に得ることができる。すなわち画像信号
を好適に高解像度化することができる。
According to each of the embodiments of the present invention described above, it is possible to perform processing for suitably converting a low-resolution image into an enlarged image, and it is possible to suitably obtain a high-resolution high-resolution image. That is, it is possible to suitably increase the resolution of the image signal.

また、上述した本発明の各実施例によれば、高画質な高解像度画像を得るために必要な
画像のフレーム数を低減することができる。
In addition, according to the above-described embodiments of the present invention, the number of frames of an image necessary for obtaining a high-quality high-resolution image can be reduced.

本発明に係る実施例1の説明図である。It is explanatory drawing of Example 1 which concerns on this invention. 一般的な高解像度化画像信号処理の動作の一例を説明する図であるIt is a figure explaining an example of operation | movement of the general high resolution image signal processing. 従来技術の動作を説明した図である。It is a figure explaining operation | movement of a prior art. 本発明に係る実施例1の動作を説明した図である。It is a figure explaining operation | movement of Example 1 which concerns on this invention. 本発明に係る実施例1の説明図である。It is explanatory drawing of Example 1 which concerns on this invention. 本発明に係る実施例1の説明図である。It is explanatory drawing of Example 1 which concerns on this invention. 本発明に係る実施例1の説明図である。It is explanatory drawing of Example 1 which concerns on this invention. 本発明に係る実施例1の説明図である。It is explanatory drawing of Example 1 which concerns on this invention. 本発明に係る実施例1の説明図である。It is explanatory drawing of Example 1 which concerns on this invention. 本発明に係る実施例3の説明図である。It is explanatory drawing of Example 3 which concerns on this invention. 本発明に係る実施例5の説明図である。It is explanatory drawing of Example 5 which concerns on this invention. 本発明に係る実施例5の説明図である。It is explanatory drawing of Example 5 which concerns on this invention. 本発明に係る実施例5の説明図である。It is explanatory drawing of Example 5 which concerns on this invention. 本発明に係る実施例2の説明図である。It is explanatory drawing of Example 2 which concerns on this invention. 本発明に係る実施例4の説明図である。It is explanatory drawing of Example 4 which concerns on this invention. 本発明に係る実施例6の説明図である。It is explanatory drawing of Example 6 which concerns on this invention. 本発明の一実施の態様と従来技術の動作の違いを説明した図である。It is a figure explaining the difference of operation of one embodiment of the present invention and the prior art. 本発明に係る実施例2の説明図である。It is explanatory drawing of Example 2 which concerns on this invention. 本発明に係る実施例12の説明図である。It is explanatory drawing of Example 12 which concerns on this invention. 本発明に係る実施例7の説明図である。It is explanatory drawing of Example 7 which concerns on this invention. 本発明に係る実施例8の説明図である。It is explanatory drawing of Example 8 which concerns on this invention. 本発明に係る実施例7の説明図である。It is explanatory drawing of Example 7 which concerns on this invention. 本発明に係る実施例7の説明図である。It is explanatory drawing of Example 7 which concerns on this invention. 本発明に係る実施例7の説明図である。It is explanatory drawing of Example 7 which concerns on this invention. 本発明に係る実施例7の説明図である。It is explanatory drawing of Example 7 which concerns on this invention. 本発明に係る実施例7の説明図である。It is explanatory drawing of Example 7 which concerns on this invention. 本発明に係る実施例9の説明図である。It is explanatory drawing of Example 9 which concerns on this invention. 本発明に係る実施例9の説明図である。It is explanatory drawing of Example 9 which concerns on this invention. 本発明に係る実施例9の説明図である。It is explanatory drawing of Example 9 which concerns on this invention. 本発明に係る実施例9の説明図である。It is explanatory drawing of Example 9 which concerns on this invention. 本発明に係る実施例9の説明図である。It is explanatory drawing of Example 9 which concerns on this invention. 本発明に係る実施例9の説明図である。It is explanatory drawing of Example 9 which concerns on this invention. 本発明に係る実施例10の説明図である。It is explanatory drawing of Example 10 which concerns on this invention. 本発明の一実施の態様と従来技術の動作の違いを説明した図である。It is a figure explaining the difference of operation of one embodiment of the present invention and the prior art. 本発明に係る実施例13の説明図である。It is explanatory drawing of Example 13 which concerns on this invention. 本発明に係る実施例17の説明図である。It is explanatory drawing of Example 17 which concerns on this invention. 従来技術の動作を説明した図である。It is a figure explaining operation | movement of a prior art. 本発明に係る第11の実施例の説明図である。It is explanatory drawing of the 11th Example which concerns on this invention. 本発明に係る第11の実施例の説明図である。It is explanatory drawing of the 11th Example which concerns on this invention. 本発明に係る第11の実施例の説明図である。It is explanatory drawing of the 11th Example which concerns on this invention. 本発明に係る第11の実施例の説明図である。It is explanatory drawing of the 11th Example which concerns on this invention. 本発明に係る第11の実施例の説明図である。It is explanatory drawing of the 11th Example which concerns on this invention. 本発明に係る第12の実施例の説明図である。It is explanatory drawing of the 12th Example which concerns on this invention. 本発明の一実施の態様と従来技術の動作の違いを説明した図である。It is a figure explaining the difference of operation of one embodiment of the present invention and the prior art. 本発明に係る第21の実施例の説明図である。It is explanatory drawing of the 21st Example which concerns on this invention. 本発明に係る第21の実施例の説明図である。It is explanatory drawing of the 21st Example which concerns on this invention. 本発明に係る第21の実施例の説明図である。It is explanatory drawing of the 21st Example which concerns on this invention. 本発明に係る第21の実施例の説明図である。It is explanatory drawing of the 21st Example which concerns on this invention. 本発明に係る第21の実施例の説明図である。It is explanatory drawing of the 21st Example which concerns on this invention. 本発明に係る第21の実施例の説明図である。It is explanatory drawing of the 21st Example which concerns on this invention. 本発明に係る第22の実施例の説明図である。It is explanatory drawing of the 22nd Example which concerns on this invention. 本発明に係る第25の実施例の説明図である。It is explanatory drawing of the 25th Example which concerns on this invention. 本発明に係る第25の実施例の説明図である。It is explanatory drawing of the 25th Example which concerns on this invention. 本発明に係る第27の実施例の説明図である。It is explanatory drawing of the 27th Example which concerns on this invention. 本発明に係る第26の実施例の説明図である。It is explanatory drawing of the 26th Example which concerns on this invention. 本発明に係る第30の実施例の説明図である。It is explanatory drawing of the 30th Example which concerns on this invention. 本発明に係る第30の実施例の説明図である。It is explanatory drawing of the 30th Example which concerns on this invention. 本発明に係る第30の実施例の説明図である。It is explanatory drawing of the 30th Example which concerns on this invention.

符号の説明Explanation of symbols

1…入力部;2,4,9,41,43,44,…解像度変換部;3…表示部;5,6,7…高解像度化タスク;10…制御部;11…記憶部;21,22,23,31,32,33,34,35…バッファ;101,1801,2101,3806,3812…位置推定部;102,211,1802…位相差θ;103,104,1803…アップレート器;105,107,1002,1804,3802…遅延器;106,108,1805…π/2位相シフト器;109,1007,1103,2301,2302,3001,3002,3003, 3004,4101,5801,5802…係数決定器;110,111,112,113,1003,1006,1102,2202,2303,2304,2604,2902,3005, 3006,3007,3008,4102,5401,5402,5404,5702,5803,5804…乗算器;114,1001,1008,1104,2201,2305,2603, 2606,2703,2901,3
009,4103,4703,4704,5403,5701,5805…加算器;115,1806,2110,3810…動き補償・アップレート部;116,1009,1807,2111,3811…位相シフト部;117,1010,1808,2108,2109,2112,2705,2706,3809…折返し成分除去部;201,202,203,20
6,1701, 1702,1703,1704,1705,2010,2011,2012,2013,2014,2015,3401,3402,3403,3404,34
05,4401,4402,4403,4404,4504,4601,5201,5301…フレーム;204…移動;205…水平線;207…動き補償;208,212,4606,4607,4608,4609,5304,5305…画素;209,210…サンプリング位相;301,302,303,401,402…原成分;304,305,306,405,406…折返し成分;403,404…π/2位相シフト後の原成分;407,408…π/2位相シフト後の折返し成分;1004,2704,5004…減算器;1005…ヒルベルト変換器;1101…補間ローパスフィルタ;1105…補助的画素補間部;2001…水平解像度変換部;2002…垂直アップレート器;2003,2007,2710,2711…画素補間器;2004…垂直補間部;2005…垂直解像度変換部;2006…水平アップレート器;2008…水平補間部;2009,2707,5601…混合器;2102,3807,4502…水平位相差θH;2103,3808,4503…垂直位相差θV;2104,2105,3801…水平・垂直アップレート器;2106,3803…水平位相シフト部;2107,3804…垂直位相シフト部;2501…水平解像度変換による効果が大きい周波数領域;2502…垂直解像度変換による効果が大きい周波数領域;2601,2602,2605…2次元フィルタ;2701…斜め(右下)位相シフト部;2702…斜め(右上)位相シフト部;3101…斜め(右上)解像度変換による効果が大きい周波数領域;3102…斜め(右下)解像度変換による効果が大きい周波数領域;3500…画像表示装置;3501…入力部;3502…録画再生部;3503…コンテンツ蓄積部; 3504…画像信号処理部; 3505…表示部; 3506…音声出力部; 3507…制御部;3508…ユーザインターフェース部;3600…録画再生装置;3605…画像映像出力部;3600…音声出力部;3701…実走査線;3702…補間走査線;3703…フィールド;3704,3705…フレーム;4201,4705,4706…切替器;5005…絶対値化器;3805…水平・垂直位相シフト部;4501…位相変換部;4602,4604,4605,5306…被写体の動き;4603,5302…画像の一部;4610,4611,5303…輪郭線;4701…位相判定部;4702…同一輝度方向推定部;4707,4708…位相補正値;4901…実画素;4902…中心の画素;4903,4904…補間画素;5001…水平ローパスフィルタ(LPF);5002…垂直ローパスフィルタ(LPF);5003…画素補間器;5006…方向選択器
1 ... input unit; 2,4,9,41,43,44, ... resolution conversion unit; 3 ... display unit; 5,6,7 ... high resolution task; 10 ... control unit; 11 ... storage unit; 21, 22, 23, 31, 32, 33, 34, 35 ... buffer; 101, 1801, 2101, 3806, 3812 ... position estimation unit; 102, 211, 1802 ... phase difference θ; 103, 104, 1803 ... up-rate device; 105, 107, 1002, 1804,3802 ... delay device; 106,108,1805 ... π / 2 phase shifter; 109,1007,1103,2301,2302,3001,3002,3003, 3004,4101,5801,5802 ... coefficient determiner; 110,111,112,113,1003, 1006,1102,2202,2303,2304,2604,2902,3005, 3006,3007,3008,4102,5401,5402,5404,5702,5803,5804 ... multiplier; 114,1001,1008,1104,2201,2305 , 2603, 2606,2703,2901,3
009,4103,4703,4704,5403,5701,5805 ... adders; 115,1806,2110,3810 ... motion compensation / uprate units; 116,1009,1807,2111,3811 ... phase shift units; 117,1010, 1808, 2108, 2109, 2112, 2705, 2706, 3809 ... aliasing component removal unit; 201, 202, 203, 20
6,1701, 1702,1703,1704,1705,2010,2011,2012,2013,2014,2015,3401,3402,3403,3404,34
05,4401,4402,4403,4404,4504,4601,5201,5301 ... Frame; 204 ... Movement; 205 ... Horizontal line; 207 ... Motion compensation; 208,212,4606,4607,4608,4609,5304,5305 ... Pixels; 209,210 ... Sampling phase; 301,302,303,401,402 ... Original component; 304,305,306,405,406 ... Folded component; 403,404 ... Original component after π / 2 phase shift; 407,408 ... Folded component after π / 2 phase shift; 1004,2704,5004 1101 ... Interpolation low-pass filter; 1105 ... Auxiliary pixel interpolation unit; 2001 ... Horizontal resolution conversion unit; 2002 ... Vertical up-rater; 2003, 2007, 2710, 2711 ... Pixel interpolator; 2004 ... Vertical interpolation unit; ... vertical resolution conversion unit; 2006 ... horizontal up-rate device; 2008 ... horizontal interpolation unit; 2009, 2707, 5601 ... mixer; 2102, 3807, 4502 ... horizontal phase difference θH; 2103, 3808, 4503 ... vertical phase difference θV; 2104, 2105, 3801 ... Horizontal / vertical up-rater; 2106, 3803 ... Horizontal phase shift unit; 2107, 3804 ... Vertical phase shift unit; 2501 ... Horizontal solution Frequency region where effect by degree conversion is large; 2502 ... Frequency region where effect by vertical resolution conversion is large; 2601, 2602, 2605 ... Two-dimensional filter; 2701 ... Diagonal (lower right) phase shift unit; 2702 ... Diagonal (upper right) phase shift 3101 ... diagonal (upper right) frequency region where the effect of resolution conversion is large; 3102 ... frequency region where the effect of diagonal (lower right) resolution conversion is large; 3500 ... image display device; 3501 ... input unit; 3502 ... recording / playback unit; 3503 ... Content storage unit; 3504 ... Image signal processing unit; 3505 ... Display unit; 3506 ... Audio output unit; 3507 ... Control unit; 3508 ... User interface unit; 3600 ... Recording / playback device; 3605 ... Image video output unit; Audio output unit: 3701 ... Actual scan line; 3702 ... Interpolation scan line; 3703 ... Field; 3704, 3705 ... Frame; 4201, 4705, 4706 ... Switcher; 5005 ... Absolute value converter; 3805 ... Horizontal / vertical phase shift unit 4501 ... Phase conversion unit; 4602,4604,4605,5306 ... Subject Motion: 4603, 5302 ... Part of the image; 4610,4611,5303 ... Outline; 4701 ... Phase determination unit; 4702 ... Same luminance direction estimation unit; 4707,4708 ... Phase correction value; 4901 ... Real pixel; 4902 ... Center 4903,4904 ... interpolation pixels; 5001 ... horizontal low-pass filter (LPF); 5002 ... vertical low-pass filter (LPF); 5003 ... pixel interpolator; 5006 ... direction selector

Claims (6)

複数の画像フレームが入力される入力部と、
前記入力された複数の画像フレームを合成することにより、画像フレームを構成する画素数を増加して出力画像フレームを得るための解像度変換部とを備え、
前記解像度変換部は、
基準となる前記入力画像フレーム上の画像データと他の入力画像フレーム上の対応する各画像データを用いてサンプリング位相差を推定する位置推定部と、
前記サンプリング位相差を変換し、変換後のサンプリング位相差を出力する位相変換部と、
前記変換後のサンプリング位相差の情報を用いて各入力画像フレームの画像データを動き補償するとともに画素数を増加する動き補償・アップレート部と、
前記画素数が増加された各画像フレームの画像データを所定量位相シフトする位相シフト部と、
前記位相シフトの前後の各画像データに、前記サンプリング位相差の情報を用いて決定した係数を乗じて加算することにより、折返し成分を除去して出力する折返し成分除去部とを有することを特徴とする画像信号処理装置。
An input unit for inputting a plurality of image frames;
A resolution conversion unit for obtaining an output image frame by increasing the number of pixels constituting the image frame by synthesizing the plurality of input image frames;
The resolution converter
A position estimation unit that estimates a sampling phase difference using image data on the input image frame serving as a reference and corresponding image data on another input image frame;
A phase converter that converts the sampling phase difference and outputs the converted sampling phase difference;
A motion compensation / uprate unit that compensates for motion of the image data of each input image frame using the information of the converted sampling phase difference and increases the number of pixels;
A phase shift unit that phase-shifts the image data of each image frame with the increased number of pixels by a predetermined amount;
A folding component removal unit that removes the folding component and outputs the result by multiplying the image data before and after the phase shift by a coefficient determined using the information of the sampling phase difference, An image signal processing device.
前記位相変換部は、
前記入力画像フレームにおける処理対象画素と同一の輝度方向を推定し、該推定結果をもとにして位相補正値を出力する同一輝度方向推定部を有し、
前記サンプリング位相差に前記位相補正値を加えて、前記変換後のサンプリング位相差とすることを特徴とする請求項1に記載の画像信号処理装置。
The phase converter is
The same luminance direction estimation unit that estimates the same luminance direction as the processing target pixel in the input image frame and outputs a phase correction value based on the estimation result,
The image signal processing apparatus according to claim 1, wherein the phase correction value is added to the sampling phase difference to obtain the converted sampling phase difference.
複数の画像フレームが入力される入力ステップと、
前記入力された複数の画像フレームを合成することにより、画像フレームを構成する画素数を増加して出力画像フレームを得るための解像度変換ステップを備え、
前記解像度変換ステップでは、
基準となる前記入力画像フレーム上の画像データと他の入力画像フレーム上の対応する各画像データを用いてサンプリング位相差を推定する位置推定処理をおこない、
前記サンプリング位相差を変換し、変換後のサンプリング位相差を出力する位相変換処理をおこない、
前記変換後のサンプリング位相差の情報を用いて各入力画像フレームの画像データを動き補償するとともに画素数を増加する動き補償・アップレート処理をおこない、
前記画素数が増加された各画像フレームの画像データを所定量位相シフトする位相シフト処理をおこない、
前記位相シフトの前後の各画像データに、前記サンプリング位相差の情報を用いて決定した係数を乗じて加算することにより、折返し成分を除去して出力する折返し成分除去処理をおこなうことを特徴とする画像信号処理方法。
An input step in which a plurality of image frames are input;
Comprising a resolution conversion step for obtaining an output image frame by increasing the number of pixels constituting the image frame by combining the plurality of input image frames;
In the resolution conversion step,
Perform position estimation processing to estimate the sampling phase difference using the image data on the reference input image frame and the corresponding image data on other input image frames,
Convert the sampling phase difference, perform phase conversion processing to output the converted sampling phase difference,
Performing motion compensation / uprate processing to increase the number of pixels while performing motion compensation on the image data of each input image frame using the information of the sampling phase difference after the conversion,
Perform a phase shift process that phase-shifts the image data of each image frame with the increased number of pixels by a predetermined amount,
A folding component removal process for removing and outputting a folding component is performed by multiplying each image data before and after the phase shift by a coefficient determined by using the information of the sampling phase difference, and performing addition processing. Image signal processing method.
前記位相変換ステップは、
前記入力画像フレームにおける処理対象画素と同一の輝度方向を推定し、該推定結果をもとにして位相補正値を出力する同一輝度方向推定ステップと、
前記サンプリング位相差に前記位相補正値を加えて、前記変換後のサンプリング位相差とするステップを含むことを特徴とする請求項3に記載の画像信号処理方法。
The phase conversion step includes
The same luminance direction estimation step of estimating the same luminance direction as the processing target pixel in the input image frame and outputting a phase correction value based on the estimation result;
The image signal processing method according to claim 3, further comprising a step of adding the phase correction value to the sampling phase difference to obtain the converted sampling phase difference.
複数の画像フレームが入力される入力部と、
前記入力された複数の画像フレームを合成することにより、画像フレームを構成する画素数を増加して出力画像フレームを得るための解像度変換部と、
前記解像度変換部が生成した画像を表示する表示部とを備え、
前記解像度変換部は、
基準となる前記入力画像フレーム上の画像データと他の入力画像フレーム上の対応する各画像データを用いてサンプリング位相差を推定する位置推定部と、
前記サンプリング位相差を変換し、変換後のサンプリング位相差を出力する位相変換部と、
前記変換後のサンプリング位相差の情報を用いて各入力画像フレームの画像データを動き補償するとともに画素数を増加する動き補償・アップレート部と、
前記画素数が増加された各画像フレームの画像データを所定量位相シフトする位相シフト部と、
前記位相シフトの前後の各画像データに、前記サンプリング位相差の情報を用いて決定した係数を乗じて加算することにより、折返し成分を除去して出力する折返し成分除去部と有することを特徴とする画像表示装置。
An input unit for inputting a plurality of image frames;
A resolution converter for obtaining an output image frame by increasing the number of pixels constituting the image frame by combining the plurality of input image frames;
A display unit for displaying the image generated by the resolution conversion unit,
The resolution converter
A position estimation unit that estimates a sampling phase difference using image data on the input image frame serving as a reference and corresponding image data on another input image frame;
A phase converter that converts the sampling phase difference and outputs the converted sampling phase difference;
A motion compensation / uprate unit that compensates for motion of the image data of each input image frame using the information of the converted sampling phase difference and increases the number of pixels;
A phase shift unit that phase-shifts the image data of each image frame with the increased number of pixels by a predetermined amount;
A folding component removing unit that removes the folding component and outputs the result by multiplying each image data before and after the phase shift by a coefficient determined using the information of the sampling phase difference, Image display device.
前記位相変換部は、
前記入力画像フレームにおける処理対象画素と同一の輝度方向を推定し、該推定結果をもとにして位相補正値を出力する同一輝度方向推定部を有し、
前記サンプリング位相差に前記位相補正値を加えて、前記変換後のサンプリング位相差とすることを特徴とする請求項5に記載の画像表示装置。
The phase converter is
The same luminance direction estimation unit that estimates the same luminance direction as the processing target pixel in the input image frame and outputs a phase correction value based on the estimation result,
6. The image display device according to claim 5, wherein the phase correction value is added to the sampling phase difference to obtain the converted sampling phase difference.
JP2007260485A 2007-10-04 2007-10-04 Image signal processing apparatus, image signal processing method, and image display apparatus Active JP5250232B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007260485A JP5250232B2 (en) 2007-10-04 2007-10-04 Image signal processing apparatus, image signal processing method, and image display apparatus
US12/244,826 US8089557B2 (en) 2007-10-04 2008-10-03 Video signal processing apparatus, video signal processing method and video display apparatus
CN2008101682464A CN101404733B (en) 2007-10-04 2008-10-06 Video signal processing apparatus, video signal processing method and video display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007260485A JP5250232B2 (en) 2007-10-04 2007-10-04 Image signal processing apparatus, image signal processing method, and image display apparatus

Publications (2)

Publication Number Publication Date
JP2009094593A true JP2009094593A (en) 2009-04-30
JP5250232B2 JP5250232B2 (en) 2013-07-31

Family

ID=40538584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007260485A Active JP5250232B2 (en) 2007-10-04 2007-10-04 Image signal processing apparatus, image signal processing method, and image display apparatus

Country Status (2)

Country Link
JP (1) JP5250232B2 (en)
CN (1) CN101404733B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8953152B2 (en) 2011-03-24 2015-02-10 Samsung Electronics Co., Ltd. Depth sensors, depth information error compensation methods thereof, and signal processing systems having the depth sensors
US9742986B2 (en) 2015-10-20 2017-08-22 Olympus Corporation Image acquisition apparatus, image obtaining method, image obtaining program, and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3522527B1 (en) * 2016-09-29 2023-09-06 Panasonic Intellectual Property Management Co., Ltd. Reproduction method, creation method, reproduction device, and creation device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08336046A (en) * 1995-06-09 1996-12-17 Ricoh Co Ltd Method and device for processing signal
JP2000244877A (en) * 1999-02-24 2000-09-08 Hitachi Ltd Motion correction double speed conversion circuit for image signal and television device
JP2001084368A (en) * 1999-09-16 2001-03-30 Sony Corp Data processor, data processing method and medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100497725B1 (en) * 2003-08-22 2005-06-23 삼성전자주식회사 Apparatus and method for processing signal for display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08336046A (en) * 1995-06-09 1996-12-17 Ricoh Co Ltd Method and device for processing signal
JP2000244877A (en) * 1999-02-24 2000-09-08 Hitachi Ltd Motion correction double speed conversion circuit for image signal and television device
JP2001084368A (en) * 1999-09-16 2001-03-30 Sony Corp Data processor, data processing method and medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8953152B2 (en) 2011-03-24 2015-02-10 Samsung Electronics Co., Ltd. Depth sensors, depth information error compensation methods thereof, and signal processing systems having the depth sensors
US9742986B2 (en) 2015-10-20 2017-08-22 Olympus Corporation Image acquisition apparatus, image obtaining method, image obtaining program, and storage medium

Also Published As

Publication number Publication date
CN101404733B (en) 2011-12-28
JP5250232B2 (en) 2013-07-31
CN101404733A (en) 2009-04-08

Similar Documents

Publication Publication Date Title
JP4775210B2 (en) Image signal processing apparatus, image resolution increasing method, image display apparatus, recording / reproducing apparatus
JP2009015025A (en) Image signal processing apparatus and image signal processing method
US7830369B2 (en) Video signal processing apparatus, video displaying apparatus and high resolution method for video signal
US8089557B2 (en) Video signal processing apparatus, video signal processing method and video display apparatus
JP4876048B2 (en) Video transmission / reception method, reception device, video storage device
JP2009033581A (en) Image signal recording and reproducing device
EP2012532A2 (en) Video displaying apparatus, video signal processing apparatus and video signal processing method
JP5250232B2 (en) Image signal processing apparatus, image signal processing method, and image display apparatus
JP2009033582A (en) Image signal recording and reproducing device
JP2008182347A (en) Video processing system
JP5250233B2 (en) Image signal processing apparatus, image signal processing method, and image display apparatus
JP2009017242A (en) Image display apparatus, image signal processing apparatus and image signal processing method
JP5103314B2 (en) Image signal processing apparatus, image signal processing method, and video display apparatus
JP4988460B2 (en) Image signal processing apparatus and image signal processing method
JP2009171370A (en) Image signal processing apparatus, image display device, and image signal processing method
JP2009141444A (en) Image signal processor, image display apparatus, image signal processing method
WO2017145752A1 (en) Image processing system and image processing device
JP2009163588A (en) Image signal processor, image resolution enhancement method, and image display device
JP2009163551A (en) Image processing system, and camera and recording and reproducing device used therefor
JP2009111721A (en) Input image control device, imaging apparatus, input image control method and program
JP5416899B2 (en) Video display device
JP5369526B2 (en) Image signal processing device, display device, recording / playback device, and image signal processing method
JP2008098724A (en) Image scaling circuit
JP2009130747A (en) Processing device to high resolution
JP2009105689A (en) Video display device, video display method and method for forming high resolution image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130415

R151 Written notification of patent or utility model registration

Ref document number: 5250232

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250