JP2006332904A - Contour emphasizing circuit - Google Patents

Contour emphasizing circuit Download PDF

Info

Publication number
JP2006332904A
JP2006332904A JP2005151441A JP2005151441A JP2006332904A JP 2006332904 A JP2006332904 A JP 2006332904A JP 2005151441 A JP2005151441 A JP 2005151441A JP 2005151441 A JP2005151441 A JP 2005151441A JP 2006332904 A JP2006332904 A JP 2006332904A
Authority
JP
Japan
Prior art keywords
interpolation
identification information
contour
unit
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005151441A
Other languages
Japanese (ja)
Inventor
Akiyoshi Nagao
章由 長尾
Naohiro Hojo
直大 北城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2005151441A priority Critical patent/JP2006332904A/en
Publication of JP2006332904A publication Critical patent/JP2006332904A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)
  • Picture Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a contour emphasizing circuit for performing process of contour emphasize without damaging a high quality video image as IP transformation result. <P>SOLUTION: Interpolation identification information for identifying the type of interpolation is acquired in correlation with video image region identification information for identifying a video image region for performing the interpolation of the type. Then, by acquiring the weighting information for indicating weight of emphasizing degree at the time of performing contour emphasizing processing, a progressive video signal can be generated in which the video image region was subjected to contour emphasizing processing according to the type of interpolation. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、輪郭強調装置に関する。さらに詳しくは、インターレース映像信号をプログレッシブ映像信号に変換する際の輪郭を強調する輪郭強調装置に関する。   The present invention relates to a contour emphasizing apparatus. More particularly, the present invention relates to a contour emphasizing device that enhances a contour when an interlaced video signal is converted into a progressive video signal.

従来、地上アナログ放送などのテレビ放送では、走査線の数や秒単位におけるフレーム表示数の違いによって、NTSC(National Television Standards Committee)やPAL(Phase Alternation by Line)と呼ばれる規格が採用されている。また最近ではデジタル放送などのハイビジョン放送も行われている。これらの放送では、インターレース方式を利用した信号方式が使用されている。インターレース方式とは、1枚のフレームを表示する際に、奇数ラインの走査線を表示するフィールドと偶数ラインの走査線を表示するフィールドを用いる方式である。   Conventionally, in television broadcasting such as terrestrial analog broadcasting, standards called NTSC (National Television Standards Committee) and PAL (Phase Alternation By Line) are adopted depending on the number of scanning lines and the number of frames displayed per second. Recently, high-definition broadcasting such as digital broadcasting has also been carried out. In these broadcasts, a signal system using an interlace system is used. The interlace method is a method using a field for displaying odd-numbered scanning lines and a field for displaying even-numbered scanning lines when displaying one frame.

一方、LCDパネルを用いたTV等では、CRTを用いたTVとは異なり、表示方式としてプログレッシブ方式を特徴とした信号方式が使用されている。プログレッシブ方式とは、1枚のフレームを表示する際に、1回の走査で全てのラインについての出力を完結する方式であり、ノンインターレース方式ともいう。   On the other hand, in a TV or the like using an LCD panel, a signal system characterized by a progressive system is used as a display system, unlike a TV using a CRT. The progressive method is a method in which when one frame is displayed, the output for all lines is completed in one scan, and is also called a non-interlace method.

プログレッシブ方式はインターレース方式に比べて走査本数が倍になるため、従来のテレビ放送などで使用されるインターレース方式の映像をプログレッシブ方式の映像に変換する必要がある。このようにインターレース信号をプログレッシブ信号に変換することをIP変換という。また,IP変換後に人間の視覚特性に応じた効果的な輪郭強調処理を施すことにより、結果的に高画質な映像を提供することが可能になっている。例えば、特許文献1には、動いている物体よりも静止している物体に対する感度が高いという人間の視覚特性に応じて、効果的な輪郭強調を行うことのできる輪郭強調回路についての発明が開示されている。特許文献1の発明によれば、1画面中の映像の動き量を測定し,静止領域と判断した場合はゲインと呼ばれる重み付けをより強く設定し,動画領域と判断した場合はゲインを弱く設定することで、輪郭強調処理を行っている。
特開平11−289476号公報
Since the progressive method doubles the number of scans compared to the interlace method, it is necessary to convert an interlace method image used in conventional television broadcasting into a progressive method image. Converting an interlace signal into a progressive signal in this way is called IP conversion. In addition, by performing effective edge enhancement processing according to human visual characteristics after IP conversion, it is possible to provide high-quality video as a result. For example, Patent Document 1 discloses an invention relating to a contour emphasizing circuit that can perform effective contour emphasis according to human visual characteristics that the sensitivity to a stationary object is higher than a moving object. Has been. According to the invention of Patent Document 1, the amount of motion of a video in one screen is measured, and when it is determined to be a still area, a weight called a gain is set to be stronger, and when it is determined to be a moving picture area, the gain is set to be weaker. Thus, the contour enhancement process is performed.
JP-A-11-289476

しかしながら、従来技術のように、人間の視覚特性に対応させるべく、動いている物体に対して一律に弱い重み付けを設定してしまうと、輪郭が明確な動画領域であっても輪郭強調を適切に行わないため、IP変換結果の高画質な映像を十分に活用できないという課題がある。例えば、IP変換の補間方法が動きベクトルである場合には、輪郭が明確であるにも関わらず、弱い重み付けをして輪郭処理を行うため、高画質の映像であるにも関わらず、かえって解像度感が損なわれた映像を提供してしまうという課題がある。   However, as in the prior art, if weak weights are uniformly set for moving objects in order to correspond to human visual characteristics, contour enhancement is properly performed even in a moving image region with a clear contour. Since this is not performed, there is a problem that high-quality video as a result of IP conversion cannot be fully utilized. For example, when the IP conversion interpolation method is a motion vector, the contour processing is performed with weak weighting even though the contour is clear. There is a problem of providing images with a sense of loss.

そこで、本発明は、かかる課題に鑑みてなされたものであり、IP変換結果の高画質な映像を損なうことなく輪郭強調処理を行う輪郭強調装置を提供することを目的とする。   Therefore, the present invention has been made in view of such a problem, and an object thereof is to provide a contour emphasizing apparatus that performs contour emphasizing processing without impairing a high-quality image of an IP conversion result.

そこで、本発明においては、かかる問題点を解決するために、インターレース映像信号をプログレッシブ映像信号に変換するための補間を行う補間部と、前記補間部にて行う補間の種別を識別する情報である補間種別識別情報を、その種別の補間を行う映像領域を識別する情報である映像領域識別情報と関連付けて取得する補間種別識別情報取得部と、前記補間種別識別情報に基づいて輪郭強調処理を行う際の強調度合いの重み付けを示す情報である重付情報を映像領域識別情報と関連付けて取得する重付情報取得部と、前記映像信号から輪郭を構成する映像領域である輪郭領域を識別する情報である輪郭領域識別情報を取得する輪郭領域識別情報取得部と、重付情報取得部にて取得する重付情報と、前記輪郭領域識別情報取得部にて取得する輪郭領域識別情報と、に基づいて、前記映像信号に含まれる輪郭領域を輪郭強調処理したプログレッシブ映像信号を生成する輪郭強調済プログレッシブ映像信号生成部と、を有する輪郭強調装置を提供する。また、重付情報取得部は、動画領域の輪郭強調処理の重付情報として、前記補間種別識別情報の補間の種別が動きベクトルを利用した補間である場合には、補間の種別が動きベクトルを利用しない補間である場合の重み付けと異なる重み付けをするための重付情報を取得する動きベクトル対応重付情報取得手段を有していてもよい。   Therefore, in the present invention, in order to solve such a problem, the interpolation unit performs interpolation for converting an interlaced video signal into a progressive video signal, and information for identifying the type of interpolation performed by the interpolation unit. An interpolation type identification information acquisition unit that acquires interpolation type identification information in association with video region identification information that is information for identifying a video region for performing interpolation of that type, and performs contour enhancement processing based on the interpolation type identification information A weighting information acquisition unit for acquiring weighting information, which is information indicating the weighting of the degree of emphasis at the time, in association with video area identification information, and information for identifying a contour area that is a video area constituting a contour from the video signal A contour region identification information acquisition unit that acquires certain contour region identification information, weighting information acquired by a weighting information acquisition unit, and acquired by the contour region identification information acquisition unit The contour area identification information, based on, providing a contour enhancing device comprises a contour enhancement already progressive video signal generating unit, the generating a progressive video signal edge enhancement processing a contour area included in the video signal. Also, the weighting information acquisition unit, as weighting information for the outline enhancement processing of the moving image area, when the interpolation type of the interpolation type identification information is interpolation using a motion vector, the interpolation type is a motion vector. You may have the motion vector corresponding | compatible weight information acquisition means which acquires the weighting information for weighting different from the weighting in the case of the interpolation which is not utilized.

また、アナログ信号をデジタル信号に変換するAD変換部を有し、前記補間部は、前記AD変換部にて変換されたデジタル信号により構成されるインターレース映像信号をプログレッシブ映像信号に変換するための補間を行うAD変換済デジタル信号利用補間手段を有していてもよい。また、RGB信号をコンポーネント信号に変換する色空間変換部を有し、前記補間部は、前記色空間変換部にて変換されたコンポーネント信号により構成されるインターレース映像信号をプログレッシブ映像信号に変換するための補間を行うコンポーネント変換信号利用補間手段を有していてもよい。   Also, an AD conversion unit that converts an analog signal into a digital signal, and the interpolation unit is an interpolation for converting an interlace video signal composed of the digital signal converted by the AD conversion unit into a progressive video signal AD conversion digital signal use interpolation means for performing the above may be provided. A color space conversion unit that converts RGB signals into component signals; and the interpolation unit converts an interlace video signal composed of the component signals converted by the color space conversion unit into a progressive video signal. There may be provided a component conversion signal utilization interpolation means for performing the above interpolation.

また、前記補間種別識別情報取得部は、前記補間種別識別情報を、映像領域識別情報であって、映像領域をフレーム単位で識別する情報であるフレーム識別情報と関連付けて取得するフレーム単位補間種別識別情報取得手段を有していてもよい。また、前記補間種別識別情報取得部は、前記補間種別識別情報を、映像領域識別情報であって、映像領域を画素又はブロック単位で識別する情報である画素ブロック識別情報と関連付けて取得する画素ブロック単位補間種別識別情報取得手段と、前記補間種別識別情報を、前記フレーム単位補間種別識別情報取得手段により取得するか、前記画素ブロック単位補間種別識別情報取得手段により取得するかを選択するための選択手段と、を有していてもよい。   Further, the interpolation type identification information acquisition unit acquires the interpolation type identification information in association with frame identification information which is video region identification information and is information for identifying the video region in units of frames. Information acquisition means may be included. In addition, the interpolation type identification information acquisition unit acquires the interpolation type identification information in association with pixel block identification information which is video area identification information and is information for identifying the video area in units of pixels or blocks. Unit interpolation type identification information acquisition means and a selection for selecting whether the interpolation type identification information is acquired by the frame unit interpolation type identification information acquisition means or the pixel block unit interpolation type identification information acquisition means And means.

本発明は、インターレース映像信号をプログレッシブ映像信号に変換する際の補間種別の情報を取得し、当該補間種別に応じた重み付けを付して輪郭強調処理を行うため、IP変換後の高画質な映像を損なうことなく輪郭強調処理を行うことが可能となる。これにより、人間の視覚特性と補間種別に応じた最適な輪郭強調処理を実現でき、結果として高画質な映像を提供することができる。   The present invention acquires information about an interpolation type when converting an interlaced video signal to a progressive video signal, performs weight enhancement according to the interpolation type, and performs edge emphasis processing. It is possible to perform the contour enhancement process without impairing the image quality. As a result, it is possible to realize an optimum edge enhancement process according to the human visual characteristics and the interpolation type, and as a result, it is possible to provide a high-quality video.

以下に、各発明の実施の形態を説明する。なお、本発明はこれら実施の形態に何ら限定されるものではなく、その要旨を逸脱しない範囲において、種々なる態様で実施しうる。   Hereinafter, embodiments of each invention will be described. Note that the present invention is not limited to these embodiments, and can be implemented in various modes without departing from the spirit of the present invention.

なお、以下の実施形態と請求項の関係は次の通りである。実施形態1は、主に請求項1、7などについて説明する。実施形態2は、主に請求項2などについて説明する。実施形態3は、主に請求項3などについて説明する。実施形態4は、主に請求項4などについて説明する。実施形態5は、主に請求項5などについて説明する。実施形態6は、主に請求項6などについて説明する。   In addition, the relationship between the following embodiment and a claim is as follows. The first embodiment will mainly describe claims 1 and 7. The second embodiment will mainly describe claim 2 and the like. The third embodiment will mainly describe claim 3 and the like. The fourth embodiment will mainly describe claim 4 and the like. In the fifth embodiment, claim 5 will be mainly described. The sixth embodiment will mainly describe claim 6 and the like.

<<実施形態1>>
<実施形態1の概要>
本実施形態は、インターレース映像信号をプログレッシブ映像信号に変換する際の補間種別に応じた輪郭強調処理を行う輪郭強調装置に関するものである。補間種別に応じて輪郭強調処理を行うことにより、人間の視覚特性と補間種別に応じた最適な輪郭強調処理を実現することができ、結果として高画質な映像を提供することができる。
<< Embodiment 1 >>
<Outline of Embodiment 1>
The present embodiment relates to a contour emphasizing apparatus that performs contour emphasis processing according to an interpolation type when an interlace video signal is converted into a progressive video signal. By performing contour emphasis processing according to the interpolation type, it is possible to realize optimal contour emphasis processing according to human visual characteristics and interpolation type, and as a result, it is possible to provide a high-quality video.

<実施形態1の構成>
図1に本実施形態における機能ブロックの一例を示す。図1に示す本実施形態の「輪郭強調装置」(0100)は、「補間部」(0101)と、「補間種別識別情報取得部」(0102)と、「重付情報取得部」(0103)と、「輪郭領域識別情報取得部」(0104)と、「輪郭強調済プログレッシブ映像信号生成部」(0105)と、を有する。
<Configuration of Embodiment 1>
FIG. 1 shows an example of functional blocks in the present embodiment. 1 includes an “interpolation unit” (0101), an “interpolation type identification information acquisition unit” (0102), and a “weighted information acquisition unit” (0103). A “contour region identification information acquisition unit” (0104) and a “contour-enhanced progressive video signal generation unit” (0105).

本件発明の構成要素である各部は、ハードウエア、ソフトウエア、ハードウエアとソフトウエアの両者、のいずれかによって構成される。例えば、これらを実現する一例として、コンピュータを利用する場合には、CPU、メモリ、バス、インターフェイス、周辺装置などから構成されるハードウエアと、これらのハードウエア上にて実行可能なソフトウエアを挙げることができる。具体的には、メモリ上に展開されたプログラムを順次実行することで、メモリ上のデータや、インターフェイスを介して入力されるデータの加工、蓄積、出力などにより各部の機能が実現される(本明細書の全体を通じて同様である)。   Each unit, which is a component of the present invention, is configured by either hardware, software, or both hardware and software. For example, as an example for realizing these, when a computer is used, hardware composed of a CPU, a memory, a bus, an interface, a peripheral device, and the like, and software executable on these hardware are listed. be able to. Specifically, the functions of each part are realized by processing, storing, and outputting data on the memory and data input via the interface by sequentially executing the program expanded on the memory (this book) The same applies throughout the specification).

「補間部」(0101)は、インターレース映像信号をプログレッシブ映像信号に変換するための補間を行う。「インターレース映像信号」とは、従来技術の部分で説明したように、1枚のフレームを時間的に異なる奇数ラインのフィールドと偶数ラインのフィールドで構成する方式を用いた映像信号のことである。なお、フレームとは、一枚の映像画面を構成する単位のことである。また、フィールドとは、1フレームを構成する単位である。図2にインターレース映像信号の概念図を示す。図2(a)は、点線で示す奇数ラインの走査線により構成される第一フィールドの一例である。図2(b)は、実線で示す偶数ラインの走査線により構成される第二フィールドの一例である。そして、図2(a)で示す第一フィールドと、図2(b)で示す第二フィールドとを時間的に連続して映すことにより、図2(c)に示すように、あたかも一枚のフレームを構成しているような映像を提供している。一方、「プログレッシブ映像信号」とは、1枚のフレームについて、1回の走査で出力が完結する方式を用いた映像信号である。図2の例で説明すると、図2(c)の点線部分と実線部分のラインを1回の走査で全て出力する方式である。   The “interpolator” (0101) performs interpolation for converting an interlaced video signal into a progressive video signal. The “interlaced video signal” is a video signal using a method in which one frame is composed of an odd line field and an even line field which are temporally different as described in the prior art. Note that a frame is a unit constituting one video screen. A field is a unit constituting one frame. FIG. 2 shows a conceptual diagram of an interlaced video signal. FIG. 2A shows an example of a first field constituted by odd-numbered scanning lines indicated by dotted lines. FIG. 2B is an example of a second field constituted by even-numbered scanning lines indicated by solid lines. Then, the first field shown in FIG. 2 (a) and the second field shown in FIG. 2 (b) are continuously projected in time, as shown in FIG. It provides images that make up a frame. On the other hand, a “progressive video signal” is a video signal using a method in which output is completed in one scan for one frame. In the example of FIG. 2, this is a system that outputs all the lines of the dotted line portion and the solid line portion of FIG. 2C in one scan.

インターレース映像信号をプログレッシブ映像信号に変換する場合には、他方のフィールドの映像を補間することが必要になる。インターレース映像信号をプログレッシブ映像信号に変換するための補間の方法としては、様々な方法が挙げられる。例えば、フィールドの各ラインを2回出力する方式、2枚のフィールドを重ね合わせる方式、上下のラインから各画素をフィルタリングして補間する方式、前後のフィールドから動きベクトルを算出し,その動きベクトルを用いて補間する方式などが挙げられる。   When an interlaced video signal is converted into a progressive video signal, it is necessary to interpolate the video in the other field. As an interpolation method for converting an interlaced video signal into a progressive video signal, various methods can be cited. For example, a method of outputting each line of the field twice, a method of superimposing two fields, a method of filtering and interpolating each pixel from the upper and lower lines, calculating a motion vector from the preceding and following fields, and calculating the motion vector The method of interpolating using it is mentioned.

図3を用いてこれらの補間方法の概略を説明する。図3は、インターレース映像信号をプログレッシブ映像信号に変換する際の補間処理を行う概念を説明するための一例を示す図である。入力されるインターレース映像信号は、図中の実線枠で囲まれた第一フィールド(0311、0331)及び第二フィールド(0322)であるものとする。なお、第一フィールドは奇数ラインの走査による奇数フィールドとし、第二フィールドは偶数ラインの走査による偶数フィールドとして以下説明する。また、時間軸はフレームA(0310)から開始し、フレームB(0320)、フレームC(0330)の順に推移していくものとし、実際に補間を行う対象をフレームB(0320)として説明する。   The outline of these interpolation methods will be described with reference to FIG. FIG. 3 is a diagram illustrating an example for explaining a concept of performing an interpolation process when an interlaced video signal is converted into a progressive video signal. The input interlaced video signal is assumed to be a first field (0311, 0331) and a second field (0322) surrounded by a solid line frame in the figure. In the following description, the first field is an odd field by scanning an odd line, and the second field is an even field by scanning an even line. Also, the time axis starts from frame A (0310) and transitions in the order of frame B (0320) and frame C (0330), and the target for actual interpolation will be described as frame B (0320).

最初にフィールドの各ラインを2回出力する例について説明する。図3の例では、補間に用いるフィールドは、入力フィールド(0322)のみである。具体的には、偶数ラインの走査線の入力フィールド(0322)の各ラインを、コピーしてそのまま奇数フィールドのライン位置にそれぞれ出力する。これにより1フレーム分のプログレッシブ映像信号に変換することができる。   First, an example in which each line of the field is output twice will be described. In the example of FIG. 3, the field used for interpolation is only the input field (0322). Specifically, each line of the input field (0322) of the even-numbered scanning line is copied and output to the line position of the odd-numbered field as it is. Thereby, it can be converted into a progressive video signal for one frame.

次に、2枚のフィールドを重ね合わせる方式について説明する。図3の例では入力フィールド(0322)と、前後のフィールド(0311、0331)のいずれかと重ね合わせることで、1フレーム分のプログレッシブ映像信号に変換することができる。2枚のフィールドを重ね合わせる方式は、主に静止画領域の補間処理に際して用いられている。静止画像領域の場合には、前後のフィールドには同一の静止画がライン違い状に表されているに過ぎないため、両者を重ね合わせた場合にブレが生じず高画質な映像とすることができる。   Next, a method for superimposing two fields will be described. In the example of FIG. 3, it can be converted into a progressive video signal for one frame by superimposing one of the input field (0322) and the preceding and following fields (0311, 0331). The method of superimposing two fields is mainly used for still image region interpolation processing. In the case of a still image area, only the same still image is displayed in a different line in the preceding and following fields. it can.

次に、上下のラインから各画素をフィルタリングして補間する方法について説明する。図3の例では補間に用いるフィールドは、入力フィールド(0322)のみである。具体的には、上下の偶数ラインから中間値を計算して奇数ラインに当該中間値を割り付けることで、1フレーム分のプログレッシブ映像信号に変換することができる。このように、入力フィールドの各上下ラインの中間値を用いる方法は、主に動画領域の補間処理に際して用いられている。動画領域の場合には、前後のフィールドを用いて補間してしまうと、時間差による映像のズレが生じてしまうからである。   Next, a method of filtering and interpolating each pixel from the upper and lower lines will be described. In the example of FIG. 3, the field used for interpolation is only the input field (0322). Specifically, by calculating an intermediate value from the upper and lower even lines and assigning the intermediate value to the odd lines, it can be converted into a progressive video signal for one frame. As described above, the method using the intermediate values of the upper and lower lines of the input field is mainly used in the interpolation process of the moving image area. This is because, in the case of a moving image area, if interpolation is performed using the preceding and following fields, a video shift due to a time difference occurs.

最後に、動きベクトルを用いて補間する方法について説明する。動きベクトルとは、特定のターゲットが、どちらにどれだけ動いたかを表す量のことである。図3の例では、入力フィールド(0311)と、入力フィールド(0331)とを用いてフィールド(0321)の補間を行っている。具体的には、入力フィールド(0311)と、入力フィールド(0331)にて、同じ形をした領域をそれぞれ探索する。探索した結果、同じ形をした領域があった場合には、その動きベクトルの情報に基づいて、フィールド(0321)の補間を行う。動きベクトルを用いて補間する方式は、より高画質な映像を得るための方式であり、特に画面全体が左右に等速で動くような映像や、映像の一部がその形を保ったまま移動する場合には効果的に働き、物体の形状を損なわずに高画質な映像を得ることができる。   Finally, a method for performing interpolation using motion vectors will be described. A motion vector is a quantity that indicates how much a specific target has moved. In the example of FIG. 3, the field (0321) is interpolated using the input field (0311) and the input field (0331). Specifically, areas having the same shape are searched for in the input field (0311) and the input field (0331), respectively. If there is a region having the same shape as a result of the search, the field (0321) is interpolated based on the motion vector information. Interpolation using motion vectors is a method for obtaining higher-quality images, and in particular, images in which the entire screen moves left and right at a constant speed, or a portion of the image moves while maintaining its shape. In this case, it works effectively, and a high-quality image can be obtained without impairing the shape of the object.

このように補間方法には様々な方法があるが、プログレッシブ映像信号に変換する場合には、各フィールド内において全て同じ補間方法で補間処理を行わなくてもよい。例えば図3の例においては、出力フレーム(0323)の中の移動物体(0324)については動きベクトルを用いて補間処理を行い、他の部分については前後の2枚のフィールドを重ね合わせる補間方法を用いてもよい。このように、映像領域に応じた補間処理を行うことで、インターレース映像信号をプログレッシブ映像信号に変換した場合に高画質な映像を提供することが可能となっている。なお、補間処理を行うに際しては、前後のフィールドを使用する場合があるため、補間部(0101)は、例えばフィールドの情報を一時的に保持しておく保持手段などを有していてもよい。このような様々な補間方法に応じて後述する輪郭強調処理を行うことで、高画質な映像を提供することができる。   As described above, there are various interpolation methods. However, when converting to a progressive video signal, it is not necessary to perform the interpolation process using the same interpolation method in each field. For example, in the example of FIG. 3, an interpolation method is performed in which the moving object (0324) in the output frame (0323) is interpolated using a motion vector, and the other two parts are overlapped with each other. It may be used. As described above, by performing the interpolation processing according to the video area, it is possible to provide a high-quality video when the interlace video signal is converted into the progressive video signal. Note that, when performing the interpolation processing, the preceding and following fields may be used, and therefore the interpolation unit (0101) may include a holding unit that temporarily holds field information, for example. High-quality video can be provided by performing edge enhancement processing described later according to such various interpolation methods.

「補間種別識別情報取得部」(0102)は、前記補間部(0101)にて行う補間の種別を識別する情報である補間種別識別情報を、その種別の補間を行う映像領域を識別する情報である映像領域識別情報と関連付けて取得する。「補間の種別」とは、前述した各補間方法の種別のことである。補間種別識別情報は、補間部(0101)から補間種別識別情報取得部(0102)に送信されることで「取得」されてもよいし、あるいは補間種別識別情報取得部(0102)が補間部(0101)にて行う補間を監視し、その結果適当な補間種別識別情報を生成することで「取得」されてもよい。「映像領域」とは、フレームやフィールド内における特定の領域のことである。例えば、映像を構成する最小単位である画素や、あるいは画素の集合単位であるブロックや、複数のブロックの集合単位であるマクロブロックが挙げられる。なお、フレームやフィールド自体を一つの映像領域としてもよい。補間種別識別情報と映像領域識別情報とを関連付けて取得することで、任意の映像領域について、どのような補間方法によって補間されたか明確になる。   The “interpolation type identification information acquisition unit” (0102) is information that identifies interpolation type identification information that is information for identifying the type of interpolation performed by the interpolation unit (0101), and that identifies a video area for performing interpolation of that type. Acquired in association with certain video area identification information. The “interpolation type” is the type of each interpolation method described above. The interpolation type identification information may be “acquired” by being transmitted from the interpolation unit (0101) to the interpolation type identification information acquisition unit (0102), or the interpolation type identification information acquisition unit (0102) may be the interpolation unit (0102). 0101) may be “acquired” by monitoring the interpolation performed and generating appropriate interpolation type identification information as a result. The “video area” is a specific area within a frame or field. For example, a pixel that is a minimum unit constituting a video, a block that is a set unit of pixels, or a macro block that is a set unit of a plurality of blocks. The frame or field itself may be a single video area. By interpolating and obtaining the interpolation type identification information and the video area identification information, it becomes clear what interpolation method is used for any video area.

「重付情報取得部」(0103)は、前記補間種別識別情報取得部(0101)にて取得する補間種別識別情報に基づいて輪郭強調処理を行う際の強調度合いの重み付けを示す情報である重付情報を映像領域識別情報と関連付けて取得する。「輪郭強調処理」とは、画質補正を実現するために、映像の輪郭を強調する処理のことである。「強調度合いの重み付け」とは、輪郭強調処理をどの程度行うかを示す所定の係数などのことである。例えば、フィールドを重ね合わせた場合の静止画の領域については、人間の視覚特性上感度が高い部分であるため、重み付けを強くして輪郭をより強調することで、結果として高画質な映像を提供することが可能となる。一方、フィールド内でのフィルタリングをした場合の動画の領域については、人間の視覚特性上感度は高くなく、輪郭がはっきりとしなくても画質が悪いと感じることはないため、重み付けを弱くして輪郭処理を行う。これは、動きの映像領域である場合には、輪郭を強調することでかえって画質の悪い映像を提供してしまう可能性があるからである。このように、補間種別識別情報に基づいて重み付けを取得することで、適切な輪郭強調処理を行うことが可能となる。なお、補間の種別が動きベクトルの場合には、動画領域であっても強い重み付けを行ってもよい。動画領域であっても輪郭部分がより明確に補完できているからである。補間の種別が動きベクトルである場合についての詳細は実施形態2で説明するため、ここでは省略する。重付情報を映像領域識別情報と関連付けて取得することで、後述する輪郭強調処理を行う際に適切な重みを付けることができる。   The “weighting information acquisition unit” (0103) is information indicating weighting of the degree of emphasis when performing the contour emphasis processing based on the interpolation type identification information acquired by the interpolation type identification information acquisition unit (0101). The attached information is acquired in association with the video area identification information. The “contour emphasis process” is a process for emphasizing the contour of an image in order to realize image quality correction. “Weighting degree of enhancement” refers to a predetermined coefficient indicating how much edge enhancement processing is performed. For example, the still image area when the fields are overlaid is a part with high sensitivity in terms of human visual characteristics. Therefore, the weight is increased and the contour is emphasized more, resulting in high-quality video. It becomes possible to do. On the other hand, the area of the video when filtering in the field is not sensitive due to human visual characteristics, and even if the outline is not clear, it does not feel that the image quality is bad. Process. This is because, in the case of a motion video area, emphasizing the contour may provide a video with poor image quality. As described above, by acquiring weighting based on the interpolation type identification information, it is possible to perform appropriate edge enhancement processing. When the type of interpolation is a motion vector, strong weighting may be performed even in the moving image area. This is because the outline portion can be complemented more clearly even in the moving image area. Details about the case where the type of interpolation is a motion vector will be described in the second embodiment, and will be omitted here. By acquiring the weighting information in association with the video region identification information, an appropriate weight can be given when performing the edge enhancement process described later.

「輪郭領域識別情報取得部」(0104)は、前記映像信号から輪郭を構成する映像領域である輪郭領域を識別する情報である輪郭領域識別情報を取得する。「前記映像信号」とは、インターレース映像信号やプログレッシブ映像信号のことである。以下、本実施形態において「前記映像信号」は、プログレッシブ映像信号である場合を例にして説明するが、図4に示すように、インターレース映像信号から輪郭領域識別情報を取得してもよい。図4は本実施形態における他の輪郭強調装置(0400)の例を示す機能ブロック図である。図4で示す輪郭強調装置は図1で説明した輪郭強調装置と同様に、補間部(0401)と、補間種別識別情報取得部(0402)と、重付情報取得部(0403)と、輪郭領域識別情報取得部(0404)と、輪郭強調済プログレッシブ映像信号生成部(0405)と、を有する。図1で示す輪郭強調装置(0100)とは、インターレース映像情報から輪郭領域識別情報を取得するという点で異なっている。インターレース映像信号から輪郭領域識別情報を取得することで、補間部と同時並行処理が可能になるため、処理の高速化が期待できる。一方、プログレッシブ映像信号から輪郭領域識別情報を取得する場合には、より精密な輪郭領域を抽出することができる。「輪郭」とは、ある物の外形を形作っている線のことである。輪郭は、具体的にはプログレッシブ映像信号などの輝度成分から抽出される。「輪郭領域」は映像領域に含まれる領域であり、輪郭を構成する画素やブロックなどの集合部分である。   The “contour region identification information acquisition unit” (0104) acquires, from the video signal, contour region identification information that is information for identifying a contour region that is a video region constituting a contour. The “video signal” is an interlace video signal or a progressive video signal. Hereinafter, although the case where the “video signal” is a progressive video signal will be described as an example in the present embodiment, contour region identification information may be acquired from an interlaced video signal as shown in FIG. FIG. 4 is a functional block diagram showing an example of another contour emphasizing device (0400) in the present embodiment. The contour enhancement device shown in FIG. 4 is similar to the contour enhancement device described in FIG. 1, with an interpolation unit (0401), an interpolation type identification information acquisition unit (0402), a weighting information acquisition unit (0403), and a contour region. An identification information acquisition unit (0404), and a contour-enhanced progressive video signal generation unit (0405). It differs from the contour emphasizing device (0100) shown in FIG. 1 in that contour region identification information is acquired from interlaced video information. By acquiring the contour region identification information from the interlaced video signal, simultaneous parallel processing with the interpolation unit becomes possible, so that high-speed processing can be expected. On the other hand, when acquiring the contour region identification information from the progressive video signal, a more precise contour region can be extracted. An “outline” is a line that forms the outline of an object. Specifically, the contour is extracted from a luminance component such as a progressive video signal. The “contour area” is an area included in the video area, and is a set part of pixels, blocks, and the like constituting the outline.

「輪郭強調済プログレッシブ映像信号生成部」(0105)は、重付情報取得部(0103)にて取得する重付情報と、前記輪郭領域識別情報取得部(0104)にて取得する輪郭領域識別情報と、に基づいて、前記映像信号に含まれる輪郭領域を輪郭強調処理したプログレッシブ映像信号を生成する。重付情報は補間の種別の応じた重み付けを示す情報となっているため、補間の種別に応じた輪郭強調処理を実現することができる。輪郭強調処理の具体例としては、輝度成分が急激に変化している部分を輪郭と判断して強調処理を行うことなどが挙げられる。この場合、重付情報に応じて輪郭と判断する輝度成分の閾値を変動させる処理などを行うことで、補間の種別に応じた柔軟な輪郭強調処理を行うことができる。   The “contour-enhanced progressive video signal generation unit” (0105) includes weighting information acquired by the weighting information acquisition unit (0103) and contour region identification information acquired by the contour region identification information acquisition unit (0104). Based on the above, a progressive video signal is generated by performing contour enhancement processing on the contour region included in the video signal. Since the weighting information is information indicating the weighting according to the interpolation type, it is possible to realize the edge enhancement process according to the interpolation type. As a specific example of the contour emphasizing process, it is possible to perform the emphasizing process by determining a portion where the luminance component is abruptly changed as a contour. In this case, a flexible contour emphasis process according to the type of interpolation can be performed by performing a process of changing the threshold value of the luminance component that is determined to be a contour according to the weighting information.

図5に輪郭強調処理をしたプログレッシブ映像信号の一例を示す。図5(a)の斜線で示す領域(0501)は、動きベクトルを用いて補間した動画の映像領域であるものとし、他の領域(0502)については2枚のフィールドを重ね合わせた静止画の映像領域であるものとする。このように異なる補間種別が混在している場合であっても、重付情報は映像領域識別情報と関連付けて取得されているために、各補間種別に応じた輪郭強調処理を行うことができる。図5(b)は、図5(a)のフレームの映像領域識別情報(画素)と、補間種別識別情報との関連付けを示すテーブルの一例である。図5の例においては、映像領域識別情報の一例として画素を示しているが、ブロック単位などであってもよいことは既に説明した通りである。また、図5の例は、所定の映像領域が完全に一致する場合であるが、所定の映像領域の一部に精度が劣る部分がある場合には、映像領域(0501)の一部の領域についてはフィールド内で中間値を計算するなどした補間の種別に応じた輪郭強調処理を行ってもよい。このように、輪郭強調済プログレッシブ映像信号生成部(0105)により、映像領域の補間の種別に応じた輪郭強調処理を行ったプログレッシブ映像信号を生成することが可能となる。なお、輪郭強調済プログレッシブ映像信号生成部(0105)では、輪郭強調処理を行うための信号を生成のみを行い、輪郭強調処理自体については、図外の輪郭強調部などで行ってもよい。   FIG. 5 shows an example of a progressive video signal subjected to contour enhancement processing. A hatched area (0501) in FIG. 5A is a video area of a moving image interpolated using a motion vector, and the other area (0502) is a still image obtained by superimposing two fields. Assume that it is a video area. Thus, even when different interpolation types are mixed, since the weighting information is acquired in association with the video area identification information, it is possible to perform the edge enhancement process according to each interpolation type. FIG. 5B is an example of a table indicating the association between the video area identification information (pixels) of the frame in FIG. 5A and the interpolation type identification information. In the example of FIG. 5, pixels are shown as an example of video area identification information. However, as described above, it may be a block unit. Further, the example of FIG. 5 is a case where the predetermined video area completely matches, but when there is a part of the predetermined video area that is less accurate, a part of the video area (0501). For, contour enhancement processing according to the type of interpolation, such as calculating an intermediate value in the field, may be performed. As described above, the progressive video signal generation unit (0105) with the contour emphasis can generate a progressive video signal subjected to the contour emphasis processing according to the type of interpolation of the video region. Note that the contour-enhanced progressive video signal generation unit (0105) may only generate a signal for performing the edge enhancement process, and the edge enhancement process itself may be performed by an edge enhancement unit or the like outside the drawing.

<実施形態1の具体例>
図6に本実施形態における輪郭強調装置の具体的な例を示す。図6は、本実施形態における輪郭強調装置を回路で構成したブロック図の一例を示すものである。IP変換回路(0602)は、入力端子(0601)に入力したインターレース映像信号をプログレッシブ映像信号に変換する。そして、IP変換回路(0602)では、他方のフィールドを補間してプログレッシブ映像信号SIGを輪郭抽出回路(0604)に送るとともに、補間種別識別情報IAをゲイン算出回路(0605)に送る。
<Specific example of Embodiment 1>
FIG. 6 shows a specific example of the contour emphasizing apparatus in the present embodiment. FIG. 6 shows an example of a block diagram in which the contour emphasis device in this embodiment is configured by a circuit. The IP conversion circuit (0602) converts the interlaced video signal input to the input terminal (0601) into a progressive video signal. The IP conversion circuit (0602) interpolates the other field and sends the progressive video signal SIG to the contour extraction circuit (0604), and sends the interpolation type identification information IA to the gain calculation circuit (0605).

輪郭抽出回路(0604)では、入力信号SIGのY成分から輪郭部分の抽出を行い、輪郭信号RINを生成する。一方、ゲイン算出回路(0605)は、補間種別識別情報IAに応じたゲイン係数GAを算出する。そして、ゲイン係数GAと、輪郭信号RINとに基づいて演算回路(0606)にて演算を行い、補正信号を生成する。そして、輪郭加算回路(0607)にて、生成された補正信号とプログレッシブ映像信号SIGとに基づいて輪郭の強調を行い、結果を出力端子(0608)から出力する。なお、図7には、従来における輪郭強調装置を回路で構成したブロック図の一例を示す。図7に示すように、IP変換回路で行った補間の種別についての情報を取得することなく、動き検出信号MOVに基づいて輪郭強調処理を行っているために、例えば補間の種別が動きベクトルの場合であっても弱い重み付けを行ってしまっていた。   The contour extraction circuit (0604) extracts a contour portion from the Y component of the input signal SIG and generates a contour signal RIN. On the other hand, the gain calculation circuit (0605) calculates a gain coefficient GA corresponding to the interpolation type identification information IA. Based on the gain coefficient GA and the contour signal RIN, an arithmetic circuit (0606) performs an operation to generate a correction signal. The contour addition circuit (0607) emphasizes the contour based on the generated correction signal and progressive video signal SIG, and outputs the result from the output terminal (0608). FIG. 7 shows an example of a block diagram in which a conventional contour emphasis device is configured by a circuit. As shown in FIG. 7, since the contour enhancement processing is performed based on the motion detection signal MOV without acquiring information about the type of interpolation performed by the IP conversion circuit, for example, the type of interpolation is a motion vector. Even in the case, weak weighting has been performed.

<実施形態1の処理の流れ>
図8に本実施形態における処理の流れの一例を示す。本実施形態における処理は、以下に示すステップよりなる。なお、以下に示す処理の流れは、計算機に実行させるためのプログラム、またはそのプログラムが記録された読み取り可能な記録媒体として実施されうる(以下、本明細書における処理の流れの記載についても同様である)。
<Processing flow of Embodiment 1>
FIG. 8 shows an example of the flow of processing in this embodiment. The processing in the present embodiment includes the following steps. Note that the processing flow shown below can be implemented as a program to be executed by a computer or a readable recording medium on which the program is recorded (the same applies to the description of the processing flow in this specification). is there).

最初に、インターレース映像信号をプログレッシブ映像信号に変換するための補間を行う(補間ステップ S0801)。そして、ステップS0801にて行う補間の種別を識別する情報である補間種別識別情報を、映像領域識別情報と関連付けて取得する(補間種別識別情報取得ステップ S0802)。そして、ステップS0802にて取得した補間種別識別情報に基づいて重付情報を映像領域識別情報と関連付けて取得する(重付情報取得ステップ S0803)。また、ステップS0801にて利用した映像信号から輪郭領域識別情報を取得する(輪郭領域識別情報取得ステップ S0804)。そして、ステップS0803にて取得する重付情報と、ステップS0804にて取得する輪郭領域識別情報と、に基づいて、輪郭強調処理したプログレッシブ映像信号を生成する(輪郭強調済プログレッシブ映像信号生成ステップ S0805)。なお、ステップS0801にて補間を行う処理と同時並行して、ステップS0804にて行う輪郭領域識別情報の取得をしてもよい。補間処理と輪郭領域識別情報取得処理とを並行して行うことで、例えばビデオメモリなどの資源を多く使用せずに済む。   First, interpolation is performed to convert an interlace video signal into a progressive video signal (interpolation step S0801). Then, interpolation type identification information, which is information for identifying the type of interpolation performed in step S0801, is acquired in association with the video area identification information (interpolation type identification information acquisition step S0802). Based on the interpolation type identification information acquired in step S0802, the weighting information is acquired in association with the video area identification information (weighting information acquisition step S0803). Also, contour area identification information is acquired from the video signal used in step S0801 (contour area identification information acquisition step S0804). Then, based on the weighting information acquired in step S0803 and the contour region identification information acquired in step S0804, a progressive video signal subjected to contour enhancement is generated (contour-enhanced progressive video signal generation step S0805). . Note that the outline region identification information obtained in step S0804 may be acquired concurrently with the process of performing interpolation in step S0801. By performing the interpolation process and the contour region identification information acquisition process in parallel, it is not necessary to use many resources such as a video memory.

<実施形態1の効果>
本実施形態における輪郭強調装置は、インターレース映像信号をプログレッシブ映像信号に変換するための補間の種別に応じて重み付けを行い、当該重み付けに基づいて輪郭強調処理を行うことにより、補間した画像領域に応じた輪郭強調処理を行うことが可能となり、結果的に人間の視覚特性と補間種別に対応した高画質な映像を提供することが可能となる。
<Effect of Embodiment 1>
The contour emphasizing apparatus according to the present embodiment performs weighting according to the type of interpolation for converting an interlaced video signal into a progressive video signal, and performs contour emphasizing processing based on the weighting, thereby depending on the interpolated image region. Therefore, it is possible to provide a high-quality video corresponding to human visual characteristics and interpolation types.

<<実施形態2>>
<実施形態2の概要>
本実施形態における輪郭強調装置は、補間の種別が動きベクトルを利用した補間である場合には、動画領域であっても強い重み付けを行うことを特徴とする。従来、動画領域にあっては、補間時にブレなどが生じるために、輪郭処理を行う場合には弱い重み付けを行っていたが、動きベクトルを利用する補間の場合には、外形が崩れることがないために、強い重み付けを行い輪郭を強調することで、高画質な映像を提供することができる。
<< Embodiment 2 >>
<Outline of Embodiment 2>
The contour emphasizing apparatus according to the present embodiment is characterized in that when the type of interpolation is interpolation using a motion vector, strong weighting is performed even in a moving image region. Conventionally, in a moving image area, blurring or the like occurs during interpolation, so weak weighting is performed when performing contour processing. However, in the case of interpolation using a motion vector, the outer shape does not collapse. Therefore, high-quality video can be provided by applying strong weighting and emphasizing the contour.

<実施形態2の構成>
図9に本実施形態における機能ブロック図の一例を示す。図9に示す本実施形態の「輪郭強調装置」(0900)は、「補間部」(0901)と、「補間種別識別情報取得部」(0902)と、「重付情報取得部」(0903)と、「輪郭領域識別情報取得部」(0904)と、「輪郭強調済プログレッシブ映像信号生成部」(0905)を有する。「重付情報取得部」(0903)は、「動きベクトル対応重付情報取得手段」(0906)を有する。「動きベクトル対応重付情報取得手段」(0906)を除く各構成については実施形態1で説明したものと同様であるため、ここでの説明は省略する。
<Configuration of Embodiment 2>
FIG. 9 shows an example of a functional block diagram in the present embodiment. The “contour emphasis device” (0900) of this embodiment shown in FIG. 9 includes an “interpolation unit” (0901), an “interpolation type identification information acquisition unit” (0902), and a “weighted information acquisition unit” (0903). And “contour region identification information acquisition unit” (0904) and “contour-enhanced progressive video signal generation unit” (0905). The “weight information acquisition unit” (0903) includes “motion vector correspondence weight information acquisition means” (0906). Since the components other than the “motion vector correspondence weighted information acquisition unit” (0906) are the same as those described in the first embodiment, the description thereof is omitted here.

「動きベクトル対応重付情報取得手段」(0906)は、動画領域の輪郭強調処理の重付情報として、前記補間種別識別情報の補間の種別が動きベクトルを利用した補間である場合には、補間の種別が動きベクトルを利用しない補間である場合の重み付けと異なる重み付けをするための重付情報を取得する。異なる重み付けとは、例えば補間の種別が動きベクトルを利用した補間である場合には、強い重み付けをすることが挙げられる。動画領域の補間種別としては、既に説明したように、前後のフィールドに基づいて動きベクトルを利用して補間する方法や、現在の入力フィールド内の上下ラインに基づいて補間する方法などが挙げられる。ここで、補間の種別が動きベクトルを利用した補間である場合には、当該映像領域については外形を崩すことなくそのまま他の映像領域に位置をずらすに過ぎないため、静止画像と同程度の高画質な映像が期待できる。従って、補間の種別が動きベクトルを利用した補間である場合には、他の動画領域にて行う重み付けよりも強い重み付けをすることで、結果的により高画質な映像を提供することが可能となる。図10は、補間の種別に応じた重み付けをする際に参照する重み付けテーブルの一例を示す図である。図10の例では、第一フィールドと第二フィールドを重ね合わせる補間種別、即ち、静止画領域についての補間方法に対しては最も強い重み付けとしてゲイン係数を大きく設定する。また、動きベクトルを利用した補間種別の場合には、静止画領域ほどの強い重み付けではないが、他の動画領域の補間種別よりも強い重み付けを行う。図10に示すような重み付けをすることで、動画領域であっても鮮明な輪郭強調処理を実現できるため、より高画質な映像を提供することができる。なお、図11で示すように、補間の種別が動きベクトルである場合には、静止画領域と同程度以上の強い重み付けを行ってもよい。   The “motion vector correspondence weighting information acquisition unit” (0906) performs interpolation when the interpolation type of the interpolation type identification information is interpolation using a motion vector as weighting information in the contour enhancement processing of the moving image area. The weighting information for weighting different from the weighting when the type of interpolation is interpolation without using a motion vector is acquired. Different weighting means, for example, when the type of interpolation is interpolation using a motion vector, strong weighting. As already described, the motion region interpolation type includes a method of interpolating using motion vectors based on the preceding and following fields, and a method of interpolating based on the upper and lower lines in the current input field. Here, when the interpolation type is interpolation using a motion vector, the position of the video area is simply shifted to another video area without losing the outer shape, so that it is as high as a still image. Expect high-quality images. Therefore, when the type of interpolation is interpolation using a motion vector, it is possible to provide a video with higher image quality as a result by weighting stronger than the weighting performed in other moving image areas. . FIG. 10 is a diagram illustrating an example of a weighting table that is referred to when weighting is performed according to the type of interpolation. In the example of FIG. 10, the gain coefficient is set to a large value as the strongest weighting for the interpolation type for superimposing the first field and the second field, that is, the interpolation method for the still image region. In the case of an interpolation type using a motion vector, the weighting is not as strong as that of a still image area, but is stronger than the interpolation type of other moving image areas. By weighting as shown in FIG. 10, a clear contour emphasis process can be realized even in a moving image region, so that a higher quality image can be provided. As shown in FIG. 11, when the type of interpolation is a motion vector, the weighting may be as strong as that of the still image area.

<実施形態2の処理の流れ>
図12に本実施形態における処理の流れの一例を示す。ステップS1202までは実施形態1で説明したものと同様である。ステップS1203においては、補間の種別が動きベクトルを利用した補間であるかを判断する。動きベクトルを利用しない補間である場合には、実施形態1で説明したものと同様に、補間種別識別情報に基づいて重付情報を取得する(S1204)。一方、動きベクトルを利用する補間である場合には、動きベクトルを利用しない補間である場合の重み付けよりも強い重み付けをするための重付情報を取得する(S1205)。以降の処理の流れについては実施形態1で説明したものと同様であるため、ここでの説明は省略する。
<Processing flow of Embodiment 2>
FIG. 12 shows an example of the flow of processing in this embodiment. The processes up to step S1202 are the same as those described in the first embodiment. In step S1203, it is determined whether the type of interpolation is interpolation using a motion vector. In the case of interpolation that does not use a motion vector, weighting information is acquired based on the interpolation type identification information as described in the first embodiment (S1204). On the other hand, in the case of interpolation using a motion vector, weighting information for weighting stronger than that in the case of interpolation not using a motion vector is acquired (S1205). Since the subsequent processing flow is the same as that described in the first embodiment, a description thereof is omitted here.

<実施形態2の効果>
本実施形態における輪郭強調装置は、動画領域の輪郭強調処理の重付情報として、補間の種別が動きベクトルを利用した補間の種別である場合には、補間の種別が動きベクトルを利用しない補間である場合の重み付けと異なる重み付けをするための重付情報を取得することにより、動画領域の補間であっても輪郭をより明確にするように輪郭強調処理を行うことが可能となり、結果として高画質の映像を提供することが可能となる。
<Effect of Embodiment 2>
The contour emphasizing apparatus according to the present embodiment uses interpolation that does not use a motion vector when the interpolation type is an interpolation type that uses a motion vector as weighting information for contour enhancement processing of a moving image region. By acquiring weighting information for weighting different from the weighting in some cases, it is possible to perform contour enhancement processing to make the contour more clear even when interpolating the moving image area, resulting in high image quality. Can be provided.

<<実施形態3>>
<実施形態3の概要>
本実施形態における輪郭強調装置は、アナログ信号をデジタル信号に変換するための変換部を有することを特徴とする。アナログ信号をデジタル信号に変換する機能を有することにより、VHSなどの再生時などにおいても同様の輪郭強調処理を実現できる。
<< Embodiment 3 >>
<Outline of Embodiment 3>
The contour emphasizing apparatus according to the present embodiment is characterized by having a conversion unit for converting an analog signal into a digital signal. By having a function of converting an analog signal into a digital signal, the same contour emphasis processing can be realized even when reproducing VHS or the like.

<実施形態3の構成>
図13に本実施形態における機能ブロック図の一例を示す。図13に示す本実施形態における「輪郭強調装置」(1300)は、「補間部」(1301)と、「補間種別識別情報取得部」(1302)と、「重付情報取得部」(1303)と、「輪郭領域識別情報取得部」(1304)と、「輪郭強調済プログレッシブ映像信号生成部」(1305)と、「AD変換部」(1306)と、を有する。「補間部」(1301)は、「AD変換済デジタル信号利用補間手段」(1307)を有する。「AD変換部」(1306)と、「AD変換済デジタル信号利用補間手段」(1307)とを除く各構成については実施形態1で説明したものと同様であるため、ここでの説明は省略する。また、実施形態2とも、「AD変換部」(1306)と、「AD変換済デジタル信号利用補間手段」(1307)とを除いて共通した構成をとることができる。
<Configuration of Embodiment 3>
FIG. 13 shows an example of a functional block diagram in the present embodiment. The “contour emphasis device” (1300) in this embodiment shown in FIG. 13 includes an “interpolation unit” (1301), an “interpolation type identification information acquisition unit” (1302), and a “weight information acquisition unit” (1303). A “contour region identification information acquisition unit” (1304), a “contour emphasized progressive video signal generation unit” (1305), and an “AD conversion unit” (1306). The “interpolator” (1301) includes “AD converted digital signal use interpolation means” (1307). Since the components other than the “AD conversion unit” (1306) and the “AD converted digital signal use interpolation unit” (1307) are the same as those described in the first embodiment, description thereof is omitted here. . In the second embodiment, a common configuration can be adopted except for the “AD conversion unit” (1306) and the “AD converted digital signal use interpolation unit” (1307).

「AD変換部」(1306)は、アナログ信号をデジタル信号に変換する。具体例としては、ADコンバーターなどが挙げられる。アナログ信号をデジタル信号に変換することで、実施形態1又は2で説明した補間処理を行うことができるため、VHS(Video Home System)などからのアナログ信号が入力された場合であっても、結果として高画質な映像を提供することが可能となる。「AD変換済デジタル信号利用補間手段」(1307)は、前記AD変換部(1306)にて変換されたデジタル信号により構成されるインターレース映像信号をプログレッシブ映像信号に変換するための補間を行う。   The “AD converter” (1306) converts an analog signal into a digital signal. Specific examples include an AD converter. Since the interpolation processing described in the first or second embodiment can be performed by converting the analog signal into the digital signal, the result is obtained even when the analog signal from the VHS (Video Home System) or the like is input. As a result, it is possible to provide high-quality video. The “AD converted digital signal using interpolation means” (1307) performs interpolation for converting the interlaced video signal constituted by the digital signal converted by the AD converting unit (1306) into a progressive video signal.

<実施形態3の具体例>
図14に本実施形態におけるAD変換部の一例を示す。ADコンバーター(1401)には、アナログ入力端子(142y、142b、142r)からアナログ信号が入力される。ADコンバーター(1401)ではアナログ信号をデジタル信号に変換する。変換後のデジタル信号は、図6で示す入力端子(0601)に接続され、その後輪郭強調処理が行われる。
<Specific Example of Embodiment 3>
FIG. 14 shows an example of the AD conversion unit in the present embodiment. An analog signal is input to the AD converter (1401) from the analog input terminals (142y, 142b, 142r). The AD converter (1401) converts an analog signal into a digital signal. The converted digital signal is connected to the input terminal (0601) shown in FIG. 6, and then the contour enhancement process is performed.

<実施形態3の処理の流れ、及び効果>
図15に本実施形態における処理の流れの一例を示す。最初にアナログ信号をデジタル信号に変換する(S1501)。そして、ステップS1501にて変換されたデジタル信号により構成されるインターレース映像信号をプログレッシブ映像信号に変換するための補間を行う(S1502)。以降の処理は実施形態1又は2で説明したものと同様であるためここでの説明は省略する。本実施形態における輪郭強調装置は、アナログ信号を映像信号に変換するAD変換部を有していることにより、VHSなどのアナログ信号の再生時においても高画質に輪郭を強調した映像を提供することが可能となる。
<Processing Flow and Effects of Embodiment 3>
FIG. 15 shows an example of the processing flow in this embodiment. First, an analog signal is converted into a digital signal (S1501). Then, interpolation is performed to convert the interlaced video signal composed of the digital signal converted in step S1501 into a progressive video signal (S1502). Since the subsequent processing is the same as that described in the first or second embodiment, description thereof is omitted here. The contour emphasizing apparatus according to the present embodiment includes an AD conversion unit that converts an analog signal into a video signal, thereby providing a video with a contour enhanced with high image quality even during reproduction of an analog signal such as VHS. Is possible.

<<実施形態4>>
<実施形態4の概要>
本実施形態における輪郭強調装置は、RGB信号をコンポーネント信号に変換する色空間変換部を有することを特徴とする。色空間を変換することで、PCから入力されるRGB信号に対しても同様の輪郭強調処理を実現できる。
<< Embodiment 4 >>
<Outline of Embodiment 4>
The contour emphasizing apparatus according to the present embodiment includes a color space conversion unit that converts RGB signals into component signals. By converting the color space, the same contour emphasis processing can be realized for RGB signals input from the PC.

<実施形態4の構成>
図16に本実施形態における機能ブロック図の一例を示す。図16に示す本実施形態における「輪郭強調装置」(1600)は、「補間部」(1601)と、「補間種別識別情報取得部」(1602)と、「重付情報取得部」(1603)と、「輪郭領域識別情報取得部」(1604)と、「輪郭強調済プログレッシブ映像信号生成部」(1605)と、「色空間変換部」(1606)と、を有する。「補間部」(1601)は、「コンポーネント変換信号利用補間手段」(1607)を有する。「色空間変換部」(1606)と、「コンポーネント変換信号利用補間手段」(1607)とを除いた各構成については実施形態1で説明したものと同様であるため、ここでの説明は省略する。また、実施形態2とも「色空間変換部」(1606)と、「コンポーネント変換信号利用補間手段」(1607)とを除いて共通した構成をとることができる。
<Configuration of Embodiment 4>
FIG. 16 shows an example of a functional block diagram in the present embodiment. The “contour emphasis device” (1600) in this embodiment shown in FIG. 16 includes an “interpolation unit” (1601), an “interpolation type identification information acquisition unit” (1602), and a “weight information acquisition unit” (1603). A “contour area identification information acquisition unit” (1604), a “contour-enhanced progressive video signal generation unit” (1605), and a “color space conversion unit” (1606). The “interpolator” (1601) includes “component conversion signal utilization interpolation means” (1607). Since the components other than the “color space conversion unit” (1606) and the “component conversion signal utilization interpolation unit” (1607) are the same as those described in the first embodiment, description thereof is omitted here. . In the second embodiment, a common configuration can be adopted except for the “color space conversion unit” (1606) and the “component conversion signal utilization interpolation unit” (1607).

「色空間変換部」(1606)は、RGB信号をコンポーネント信号に変換する。RGB信号とは色の三原色である赤、緑、青を用いて映像を構成する信号であり、コンピュータなどで使用されている色空間である。コンポーネント信号とは、輝度信号Yと色差信号Cb、Crを用いて映像を構成する信号であり、ビデオ機器などで使用されている色空間である。実施形態1などで説明した輪郭領域を識別する情報は、輝度信号Yに基づいて行われるため、RGB信号をコンポーネント信号に変換することで、既に説明した輪郭強調処理を実現することができる。RGB信号をコンポーネント信号に変換する場合には、例えば、
Y = 0.299R+0.587G+0.114B
Cb = −0.299R−0.587G+0.886B
Cr = 0.701R−0.587G−0.114B
のように演算を行うことにより実現することができる。色空間変換部(1606)の一例としては、マトリックス演算回路などが挙げられる。「コンポーネント変換信号利用補間手段」(1607)は、前記色空間変換部(1606)にて変換されたコンポーネント信号により構成されるインターレース映像信号をプログレッシブ映像信号に変換するための補間を行う。
The “color space conversion unit” (1606) converts RGB signals into component signals. The RGB signal is a signal that constitutes an image using the three primary colors red, green, and blue, and is a color space that is used in computers and the like. The component signal is a signal that forms an image using the luminance signal Y and the color difference signals Cb and Cr, and is a color space that is used in video equipment and the like. Since the information for identifying the contour region described in the first embodiment is performed based on the luminance signal Y, the contour enhancement processing already described can be realized by converting the RGB signal into a component signal. When converting RGB signals into component signals, for example,
Y = 0.299R + 0.587G + 0.114B
Cb = −0.299R−0.587G + 0.886B
Cr = 0.701R-0.587G-0.114B
It can be realized by performing the calculation as follows. An example of the color space conversion unit (1606) is a matrix operation circuit. The “component conversion signal using interpolation means” (1607) performs interpolation for converting the interlaced video signal composed of the component signals converted by the color space conversion unit (1606) into a progressive video signal.

<実施形態4の具体例>
図17に本実施形態における色空間変換部の具体例を示す。マトリックス演算回路(1701)は、RGB信号入力端子から入力されるRGB信号をコンポーネント信号に変換する。変換後のデジタル信号は、図6で示す入力端子(0601)に接続され、その後輪郭強調処理が行われる。
<Specific Example of Embodiment 4>
FIG. 17 shows a specific example of the color space conversion unit in the present embodiment. The matrix operation circuit (1701) converts the RGB signal input from the RGB signal input terminal into a component signal. The converted digital signal is connected to the input terminal (0601) shown in FIG. 6, and then the contour enhancement process is performed.

<実施形態4の処理の流れ、及び効果>
図18に本実施形態における処理の流れの一例を示す。最初にRGB信号をコンポーネント信号に変換する(S1801)。次に、ステップS1801にて変換されたコンポーネント信号により構成されるインターレース映像信号をプログレッシブ映像信号に変換するための補間を行う(S1802)。以降の処理については実施形態1又は2で説明したものと同様であるため、ここでの説明は省略する。本実施形態における輪郭強調装置は、RGB信号をコンポーネント信号に変換するための変換部を有していることにより、コンピュータなどからのRGB信号を利用する場合であっても、高画質に輪郭を強調した映像を提供することができる。
<Processing Flow and Effects of Embodiment 4>
FIG. 18 shows an example of the processing flow in this embodiment. First, the RGB signal is converted into a component signal (S1801). Next, interpolation is performed to convert the interlaced video signal composed of the component signals converted in step S1801 into a progressive video signal (S1802). Since the subsequent processing is the same as that described in the first or second embodiment, description thereof is omitted here. The contour emphasizing apparatus according to the present embodiment has a conversion unit for converting RGB signals into component signals, so that contours are enhanced with high image quality even when RGB signals from a computer or the like are used. Can be provided.

<<実施形態5>>
<実施形態5の概要>
本実施形態における輪郭強調装置は、補間種別識別情報を、映像領域をフレーム単位で識別する情報と関連付けて取得することを特徴とする。映像領域をフレーム単位で取得することにより、重み付けを1フレーム単位で平均化するなど、輪郭強調処理を行う際の重み付けを簡素化することが可能となる。
<< Embodiment 5 >>
<Outline of Embodiment 5>
The contour emphasizing apparatus according to the present embodiment is characterized in that the interpolation type identification information is acquired in association with information for identifying a video area in units of frames. By acquiring the video area in units of frames, it is possible to simplify the weighting when performing the edge enhancement process, such as averaging the weights in units of one frame.

<実施形態5の構成>
図19に本実施形態における機能ブロック図の一例を示す。図19に示す本実施形態における「輪郭強調装置」(1900)は、「補間部」(1901)と、「補間種別識別情報取得部」(1902)と、「重付情報取得部」(1903)と、「輪郭領域識別情報取得部」(1904)と、「輪郭強調済プログレッシブ映像信号生成部」(1905)と、を有する。「補間種別識別情報取得部」(1902)は、「フレーム単位補間種別識別情報取得手段」(1906)を有する。「フレーム単位補間種別識別情報取得手段」(1906)を除く各構成については実施形態1で説明したものと同様であるため、ここでの説明は省略する。また、実施形態2から4のいずれかについても、「フレーム単位補間種別識別情報取得手段」(1906)を除いて共通した構成をとることができる。
<Configuration of Embodiment 5>
FIG. 19 shows an example of a functional block diagram in the present embodiment. The “contour emphasis device” (1900) in this embodiment shown in FIG. 19 includes an “interpolation unit” (1901), an “interpolation type identification information acquisition unit” (1902), and a “weight information acquisition unit” (1903). A “contour area identification information acquisition unit” (1904) and a “contour emphasized progressive video signal generation unit” (1905). The “interpolation type identification information acquisition unit” (1902) includes a “frame unit interpolation type identification information acquisition unit” (1906). Since the components other than the “frame-unit interpolation type identification information acquisition unit” (1906) are the same as those described in the first embodiment, description thereof is omitted here. Further, any of the second to fourth embodiments can have a common configuration except for “frame unit interpolation type identification information acquisition unit” (1906).

「フレーム単位補間種別識別情報取得手段」(1906)は、前記補間種別識別情報を、映像領域識別情報であって、映像領域をフレーム単位で識別する情報であるフレーム識別情報と関連付けて取得する。補間種別識別情報を、フレーム識別情報と関連付けて取得する例としては、画素やブロック単位で異なる補間方法を行った場合には、最も多い補間方法を当該映像領域であるフレームを補間した方法であるもとして取得することが挙げられる。また、他例としては、画素やブロック単位で補間した方法についての所定の方式で平均化処理を行い、当該平均化した結果求められた補間方法を、当該フレームの補間の種別として取得することが挙げられる。補間種別識別情報がフレーム単位で関連付けて取得されることにより、当該フレームを構成するためのフィールド補間時の輪郭強調処理を行う際の重み付けを画一的に決定することが可能となる。従って、輪郭強調処理を行う場合に処理能力の向上が期待できる。また、フレームレートが高い場合などにおいては、フレーム単位で処理を行うことでより処理の効率が向上する。   The “frame unit interpolation type identification information acquisition unit” (1906) acquires the interpolation type identification information in association with frame identification information which is video region identification information and information for identifying a video region in units of frames. As an example of acquiring the interpolation type identification information in association with the frame identification information, when different interpolation methods are performed for each pixel or block, the most interpolation method is a method of interpolating the frame that is the video region. To get as well. Further, as another example, averaging may be performed by a predetermined method for a method of interpolating in units of pixels or blocks, and an interpolation method obtained as a result of the averaging may be acquired as an interpolation type of the frame. Can be mentioned. Since the interpolation type identification information is acquired in association with each frame, it is possible to uniformly determine the weight when performing the contour emphasis processing at the time of field interpolation for constituting the frame. Therefore, an improvement in processing capability can be expected when performing contour enhancement processing. In addition, when the frame rate is high, the processing efficiency is further improved by performing processing in units of frames.

<実施形態5の処理の流れ、及び効果>
図20に本実施形態における処理の流れの一例を示す。ステップS2002を除く各ステップについては実施形態1で説明したものと同様であるため、ここでの説明は省略する。ステップS2002においては、補間種別識別情報を、映像領域識別情報であって、映像領域をフレーム単位で識別する情報であるフレーム識別情報と関連付けて取得する。本実施形態における輪郭強調装置は、補間種別識別情報を、映像領域をフレーム単位で識別する情報と関連付けて取得することにより、変換したプログレッシブ映像信号の輪郭強調処理を効率的に行うことができる。
<Processing Flow and Effects of Embodiment 5>
FIG. 20 shows an example of the flow of processing in this embodiment. Since each step except step S2002 is the same as that described in the first embodiment, description thereof is omitted here. In step S2002, the interpolation type identification information is acquired in association with frame identification information which is video area identification information and is information for identifying the video area in units of frames. The contour emphasizing apparatus according to the present embodiment can efficiently perform the contour emphasizing processing of the converted progressive video signal by acquiring the interpolation type identification information in association with the information for identifying the video region in units of frames.

<<実施形態6>>
<実施形態6の概要>
本実施形態における輪郭強調装置は、補間種別識別情報を、映像領域を画素又はブロック単位で識別する情報と関連付けて取得することができ、補間種別識別情報を、フレーム単位で取得するか、あるいは画素又はブロック単位で取得するかを選択することを特徴とする。1フレーム単位で重み付けを行うか、あるいは、画素又はブロック単位で重み付けを行うかを選択することが可能なため、精密な輪郭強調処理を行って高画質な映像を提供するか、あるいは、処理能力に応じた輪郭強調処理を行って適切な映像を提供するなど、事情に応じた輪郭強調処理を実現することができる。
<< Embodiment 6 >>
<Overview of Embodiment 6>
The contour emphasizing apparatus according to the present embodiment can acquire the interpolation type identification information in association with information for identifying the video region in units of pixels or blocks, and can acquire the interpolation type identification information in units of frames or pixels. Or, it is characterized by selecting whether to obtain in block units. Since it is possible to select whether to perform weighting in units of frames or weighting in units of pixels or blocks, it is possible to provide high-quality video by performing precise edge enhancement processing, or processing capability It is possible to implement contour enhancement processing according to the situation, such as providing an appropriate video by performing contour enhancement processing according to the situation.

<実施形態6の構成>
図21に本実施形態における機能ブロック図の一例を示す。図21に示す本実施形態における「輪郭強調装置」(2100)は、「補間部」(2101)と、「補間種別識別情報取得部」(2102)と、「重付情報取得部」(2103)と、「輪郭領域識別情報取得部」(2104)と、「輪郭強調済プログレッシブ映像信号生成部」(2105)と、を有する。「補間種別識別情報取得部」(2102)は、「フレーム単位補間種別識別情報取得手段」(2106)と、「画素ブロック単位補間種別識別情報取得手段」(2107)と、「選択手段」(2108)と、を有する。「画素ブロック単位補間種別識別情報取得手段」(2107)と、「選択手段」(2108)と、を除く構成については実施形態5で説明したものと同様であるため、ここでの説明は省略する。
<Configuration of Embodiment 6>
FIG. 21 shows an example of a functional block diagram in the present embodiment. The “contour emphasis device” (2100) in this embodiment shown in FIG. 21 includes an “interpolation unit” (2101), an “interpolation type identification information acquisition unit” (2102), and a “weight information acquisition unit” (2103). A “contour area identification information acquisition unit” (2104) and a “contour-enhanced progressive video signal generation unit” (2105). The “interpolation type identification information acquisition unit” (2102) includes a “frame unit interpolation type identification information acquisition unit” (2106), a “pixel block unit interpolation type identification information acquisition unit” (2107), and a “selection unit” (2108). And). Since the configuration excluding the “pixel block unit interpolation type identification information acquisition unit” (2107) and the “selection unit” (2108) is the same as that described in the fifth embodiment, description thereof is omitted here. .

「画素ブロック単位補間種別識別情報取得手段」(2107)は、前記補間種別識別情報を、映像領域識別情報であって、映像領域を画素又はブロック単位で識別する情報である画素ブロック識別情報と関連付けて取得する。「画素又はブロック単位」とは、画素単位又はブロック単位の意味である。ブロックには、例えばMPEG方式におけるマクロブロックなどが含まれていてもよい。画素ブロック単位補間種別識別情報取得手段(2107)は、映像領域を識別する単位が画素又はブロック単位であること以外については実施形態5で説明したフレーム単位補間種別識別情報取得手段と同じである。「選択手段」(2108)は、前記補間種別識別情報を、前記フレーム単位補間種別識別情報取得手段(2106)により取得するか、前記画素ブロック単位補間種別識別情報取得手段(2107)により取得するかを選択する。補間種別識別情報を、映像領域をフレーム単位で識別する情報と関連付けて取得する場合には、その後の輪郭強調処理について効率的に行うことができ、また、映像領域を画素又はブロック単位で識別する情報と関連付けて取得する場合には、精密な輪郭強調処理を行うことができるため、より高画質な映像を提供することができる。   “Pixel block unit interpolation type identification information acquisition unit” (2107) associates the interpolation type identification information with pixel block identification information which is video region identification information and is information for identifying a video region in units of pixels or blocks. Get. “Pixel or block unit” means a pixel unit or a block unit. The block may include, for example, a macro block in the MPEG system. The pixel block unit interpolation type identification information acquisition unit (2107) is the same as the frame unit interpolation type identification information acquisition unit described in the fifth embodiment except that the unit for identifying the video area is a pixel or block unit. Whether the “selection unit” (2108) acquires the interpolation type identification information by the frame unit interpolation type identification information acquisition unit (2106) or the pixel block unit interpolation type identification information acquisition unit (2107). Select. When the interpolation type identification information is acquired in association with the information for identifying the video region in units of frames, the subsequent contour enhancement processing can be efficiently performed, and the video region is identified in units of pixels or blocks. In the case of acquiring in association with information, a precise edge enhancement process can be performed, so that a higher quality image can be provided.

<実施形態6の処理の流れ>
図22及び図23に、本実施形態における処理の流れの一例を示す。図22に示す処理の流れは、補間種別識別情報取得ステップ(S2202)を除いては実施形態1で説明したものと同様である。図23に、補間種別識別情報取得ステップ(S2202)内における処理の流れの一例を示す。まずステップS2301にて、補間種別識別情報を、映像領域をフレーム単位で識別する情報と関連付けて取得するか、映像領域を画素又はブロック単位で識別する情報と関連付けて取得するかを選択する。前者の場合には、ステップS2302に進み、補間種別識別情報を、フレーム識別情報と関連付けて取得する。一方、後者の場合には、ステップS2303に進み、補間種別識別情報を、画素ブロック識別情報と関連付けて取得する。そして、図22の補間種別識別情報取得ステップ(S2202)が終了し、以降のステップに進むことになる。以降の処理の流れについては既に説明したものと同様であるため、ここでの説明は省略する。
<Processing flow of Embodiment 6>
22 and 23 show an example of the processing flow in the present embodiment. The processing flow shown in FIG. 22 is the same as that described in the first embodiment except for the interpolation type identification information acquisition step (S2202). FIG. 23 shows an example of the flow of processing in the interpolation type identification information acquisition step (S2202). First, in step S2301, it is selected whether the interpolation type identification information is acquired in association with information for identifying a video area in units of frames or whether the video area is acquired in association with information for identifying a video area in units of pixels or blocks. In the former case, the process proceeds to step S2302, and the interpolation type identification information is acquired in association with the frame identification information. On the other hand, in the latter case, the process proceeds to step S2303, and the interpolation type identification information is acquired in association with the pixel block identification information. Then, the interpolation type identification information acquisition step (S2202) in FIG. 22 ends, and the process proceeds to the subsequent steps. Since the subsequent processing flow is the same as that already described, description thereof is omitted here.

<実施形態6の効果>
本実施形態における輪郭強調装置は、補間種別識別情報を、フレーム単位で取得するか、あるいは画素又はブロック単位で取得するかを選択することにより、精密に輪郭強調処理を行って高画質な映像を提供するか、あるいは、処理能力に応じた輪郭強調処理を行って適切な映像を提供するかなど、事情に応じた輪郭強調処理を実現することができる。
<Effect of Embodiment 6>
The contour emphasizing apparatus according to the present embodiment performs precise edge emphasis processing by selecting whether to acquire the interpolation type identification information in units of frames, or in units of pixels or blocks, thereby producing a high-quality video. It is possible to realize contour enhancement processing according to circumstances, such as providing or providing an appropriate video by performing contour enhancement processing according to processing capability.

実施形態1を説明するための機能ブロック図Functional block diagram for explaining the first embodiment インターレース映像信号を説明するための図Diagram for explaining interlaced video signal 補間の種別を説明するための図Diagram for explaining the type of interpolation 実施形態1を説明するための機能ブロック第二図Second functional block diagram for explaining the first embodiment 1フレームにおける補間処理を説明するための図The figure for demonstrating the interpolation process in 1 frame 実施形態1の具体的な構成例を示す図The figure which shows the specific structural example of Embodiment 1. FIG. 従来における具体的な構成例を示す図The figure which shows the example of a concrete structure in the past 実施形態1の処理の流れを説明するための図The figure for demonstrating the flow of a process of Embodiment 1. FIG. 実施形態2を説明するための機能ブロック図Functional block diagram for explaining the second embodiment 重み付けテーブルの一例を示す図The figure which shows an example of a weighting table 重み付けテーブルの一例を示す第二図The second figure which shows an example of a weighting table 実施形態2の処理の流れを説明するための図The figure for demonstrating the flow of a process of Embodiment 2. FIG. 実施形態3を説明するための機能ブロック図Functional block diagram for explaining the third embodiment 実施形態3の具体的な構成例を示す図The figure which shows the specific structural example of Embodiment 3. 実施形態3の処理の流れを説明するための図The figure for demonstrating the flow of a process of Embodiment 3. 実施形態4を説明するための機能ブロック図Functional block diagram for explaining the fourth embodiment 実施形態4の具体的な構成例を示す図The figure which shows the specific structural example of Embodiment 4. 実施形態4の処理の流れを説明するための図The figure for demonstrating the flow of a process of Embodiment 4. 実施形態5を説明するための機能ブロック図Functional block diagram for explaining the fifth embodiment 実施形態5の処理の流れを説明するための図The figure for demonstrating the flow of a process of Embodiment 5. 実施形態6を説明するための機能ブロック図Functional block diagram for explaining the sixth embodiment 実施形態6の処理の流れを説明するための図The figure for demonstrating the flow of a process of Embodiment 6. FIG. 実施形態6の補間識別情報取得ステップの処理の流れを説明する図The figure explaining the flow of a process of the interpolation identification information acquisition step of Embodiment 6.

符号の説明Explanation of symbols

0100 輪郭強調装置
0101 補間部
0102 補間種別識別情報取得部
0103 重付情報取得部
0104 輪郭領域識別情報取得部
0105 輪郭強調済プログレッシブ映像信号生成部
0100 Outline enhancement device 0101 Interpolation unit 0102 Interpolation type identification information acquisition unit 0103 Weighted information acquisition unit 0104 Contour region identification information acquisition unit 0105 Contour-enhanced progressive video signal generation unit

Claims (7)

インターレース映像信号をプログレッシブ映像信号に変換するための補間を行う補間部と、
前記補間部にて行う補間の種別を識別する情報である補間種別識別情報を、その種別の補間を行う映像領域を識別する情報である映像領域識別情報と関連付けて取得する補間種別識別情報取得部と、
前記補間種別識別情報取得部にて取得する補間種別識別情報に基づいて輪郭強調処理を行う際の強調度合いの重み付けを示す情報である重付情報を映像領域識別情報と関連付けて取得する重付情報取得部と、
前記映像信号から輪郭を構成する映像領域である輪郭領域を識別する情報である輪郭領域識別情報を取得する輪郭領域識別情報取得部と、
重付情報取得部にて取得する重付情報と、前記輪郭領域識別情報取得部にて取得する輪郭領域識別情報と、に基づいて、前記映像信号に含まれる輪郭領域を輪郭強調処理したプログレッシブ映像信号を生成する輪郭強調済プログレッシブ映像信号生成部と、
を有する輪郭強調装置。
An interpolation unit for performing interpolation for converting an interlaced video signal into a progressive video signal;
Interpolation type identification information acquisition unit for acquiring interpolation type identification information, which is information for identifying the type of interpolation performed by the interpolation unit, in association with video region identification information, which is information for identifying a video region for performing interpolation of that type When,
Weighting information obtained by associating weighting information, which is information indicating weighting of the degree of emphasis when performing the contour enhancement processing based on the interpolation type identification information acquired by the interpolation type identification information acquisition unit, in association with the video area identification information An acquisition unit;
A contour region identification information acquisition unit that acquires contour region identification information that is information for identifying a contour region that is a video region constituting a contour from the video signal;
Progressive video obtained by performing contour enhancement processing on a contour region included in the video signal based on weighting information acquired by a weighting information acquisition unit and contour region identification information acquired by the contour region identification information acquisition unit A contour-enhanced progressive video signal generator for generating a signal;
A contour emphasizing device.
重付情報取得部は、
動画領域の輪郭強調処理の重付情報として、前記補間種別識別情報の補間の種別が動きベクトルを利用した補間である場合には、補間の種別が動きベクトルを利用しない補間である場合の重み付けと異なる重み付けをするための重付情報を取得する動きベクトル対応重付情報取得手段を有する請求項1に記載の輪郭強調装置。
The weighted information acquisition unit
As weighting information for contour enhancement processing of a moving image area, when the interpolation type of the interpolation type identification information is interpolation using a motion vector, weighting when the interpolation type is interpolation not using a motion vector; 2. The contour emphasizing apparatus according to claim 1, further comprising motion vector corresponding weight information acquisition means for acquiring weight information for different weighting.
アナログ信号をデジタル信号に変換するAD変換部を有し、
前記補間部は、
前記AD変換部にて変換されたデジタル信号により構成されるインターレース映像信号をプログレッシブ映像信号に変換するための補間を行うAD変換済デジタル信号利用補間手段を有する請求項1又は2に記載の輪郭強調装置。
Having an AD converter for converting an analog signal into a digital signal;
The interpolation unit
The edge emphasis according to claim 1 or 2, further comprising an AD converted digital signal using interpolation means for performing an interpolation for converting an interlaced video signal composed of the digital signal converted by the AD conversion unit into a progressive video signal. apparatus.
RGB信号をコンポーネント信号に変換する色空間変換部を有し、
前記補間部は、
前記色空間変換部にて変換されたコンポーネント信号により構成されるインターレース映像信号をプログレッシブ映像信号に変換するための補間を行うコンポーネント変換信号利用補間手段を有する請求項1又は2に記載の輪郭強調装置。
A color space conversion unit that converts RGB signals into component signals;
The interpolation unit
The contour emphasizing apparatus according to claim 1, further comprising: a component conversion signal using interpolation unit configured to perform interpolation for converting an interlaced video signal composed of the component signal converted by the color space conversion unit into a progressive video signal. .
前記補間種別識別情報取得部は、
前記補間種別識別情報を、映像領域識別情報であって、映像領域をフレーム単位で識別する情報であるフレーム識別情報と関連付けて取得するフレーム単位補間種別識別情報取得手段を有する請求項1から4のいずれか一に記載の輪郭強調装置。
The interpolation type identification information acquisition unit
5. The frame-unit interpolation type identification information acquisition unit that acquires the interpolation type identification information in association with frame identification information that is video region identification information and is information for identifying a video region in units of frames. The contour emphasizing device according to any one of the above.
前記補間種別識別情報取得部は、
前記補間種別識別情報を、映像領域識別情報であって、映像領域を画素又はブロック単位で識別する情報である画素ブロック識別情報と関連付けて取得する画素ブロック単位補間種別識別情報取得手段と、
前記補間種別識別情報を、前記フレーム単位補間種別識別情報取得手段により取得するか、前記画素ブロック単位補間種別識別情報取得手段により取得するかを選択するための選択手段と、
を有する請求項5に記載の輪郭強調装置。
The interpolation type identification information acquisition unit
Pixel block unit interpolation type identification information acquisition means for acquiring the interpolation type identification information in association with pixel block identification information which is video region identification information and information for identifying a video region in units of pixels or blocks;
A selection unit for selecting whether the interpolation type identification information is acquired by the frame unit interpolation type identification information acquisition unit or the pixel block unit interpolation type identification information acquisition unit;
The contour emphasizing device according to claim 5.
インターレース映像信号をプログレッシブ映像信号に変換するための補間を行う補間ステップと、
前記補間ステップにて行う補間の種別を識別する情報である補間種別識別情報を、その種別の補間を行う映像領域を識別する情報である映像領域識別情報と関連付けて取得する補間種別識別情報取得ステップと、
前記補間種別識別情報取得ステップにて取得した補間種別識別情報に基づいて輪郭強調処理を行う際の強調度合いの重み付けを示す情報である重付情報を映像領域識別情報と関連付けて取得する重付情報取得ステップと、
前記映像信号から輪郭を構成する映像領域である輪郭領域を識別する情報である輪郭領域識別情報を取得する輪郭領域識別情報取得ステップと、
重付情報取得ステップにて取得する重付情報と、前記輪郭領域識別情報取得ステップにて取得する輪郭領域識別情報と、に基づいて、前記映像信号に含まれる輪郭領域を輪郭強調処理したプログレッシブ映像信号を生成する輪郭強調済プログレッシブ映像信号生成ステップと、
を有する輪郭強調方法。
An interpolation step for performing an interpolation for converting an interlaced video signal into a progressive video signal;
Interpolation type identification information acquisition step for acquiring interpolation type identification information, which is information for identifying the type of interpolation performed in the interpolation step, in association with video region identification information, which is information for identifying a video region for performing interpolation of that type When,
Weighting information that is obtained by associating weighting information, which is information indicating weighting of the degree of emphasis when performing the contour emphasis processing based on the interpolation type identification information acquired in the interpolation type identification information acquisition step, in association with the video region identification information An acquisition step;
A contour region identification information acquisition step for acquiring contour region identification information that is information for identifying a contour region that is a video region constituting a contour from the video signal;
Progressive video obtained by performing contour emphasis processing on the contour region included in the video signal based on weighting information acquired in the weighting information acquisition step and contour region identification information acquired in the contour region identification information acquisition step A contour-enhanced progressive video signal generating step for generating a signal;
A contour emphasizing method.
JP2005151441A 2005-05-24 2005-05-24 Contour emphasizing circuit Pending JP2006332904A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005151441A JP2006332904A (en) 2005-05-24 2005-05-24 Contour emphasizing circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005151441A JP2006332904A (en) 2005-05-24 2005-05-24 Contour emphasizing circuit

Publications (1)

Publication Number Publication Date
JP2006332904A true JP2006332904A (en) 2006-12-07

Family

ID=37554143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005151441A Pending JP2006332904A (en) 2005-05-24 2005-05-24 Contour emphasizing circuit

Country Status (1)

Country Link
JP (1) JP2006332904A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008136286A1 (en) * 2007-04-27 2008-11-13 Sharp Kabushiki Kaisha Image processing device and method, and image display device and method
JP2010068102A (en) * 2008-09-09 2010-03-25 Fujitsu Ltd Device, method and program for video signal processing

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008136286A1 (en) * 2007-04-27 2008-11-13 Sharp Kabushiki Kaisha Image processing device and method, and image display device and method
US8462266B2 (en) 2007-04-27 2013-06-11 Sharp Kabushiki Kaisha Image processing device and method, and image display device and method
JP2010068102A (en) * 2008-09-09 2010-03-25 Fujitsu Ltd Device, method and program for video signal processing
US8615036B2 (en) 2008-09-09 2013-12-24 Fujitsu Limited Generating interpolated frame of video signal with enhancement filter

Similar Documents

Publication Publication Date Title
US6118488A (en) Method and apparatus for adaptive edge-based scan line interpolation using 1-D pixel array motion detection
US7477319B2 (en) Systems and methods for deinterlacing video signals
JPS63313979A (en) Interpolation method compensated moving of digital television picture
JPS63313980A (en) Evaluation method for moving vector of television picture
JPS63313984A (en) Television image motion vector processor
JP5133038B2 (en) Image restoration method and image restoration apparatus
JPH02290382A (en) Method for converting video signal into film picture
JP2008509576A (en) Image processor and image processing method using scan rate conversion.
JPWO2017203941A1 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP2006332904A (en) Contour emphasizing circuit
JP3898546B2 (en) Image scanning conversion method and apparatus
JP4470323B2 (en) Image conversion apparatus and method
KR20060029283A (en) Motion-compensated image signal interpolation
JP4734239B2 (en) Spatial signal conversion
JP4470324B2 (en) Image signal conversion apparatus and method
JPH0622210A (en) Method and apparatus for simulation of video film conversion
JP2006229269A (en) Scanning line interpolator
WO2014034242A1 (en) Image processing device, and method and program for image processing
JP2005026885A (en) Television receiver and its control method
JP4869302B2 (en) Image processing apparatus and image processing method
KR100698640B1 (en) Method to interpolate frame using warping transformation and Apparatus thereof
TW391133B (en) Method and apparatus for interpolation with dynamic profile scanning lines using one-dimensional pixel array moving detection
KR100628190B1 (en) Converting Method of Image Data&#39;s Color Format
JP2007019708A (en) Image processing apparatus
JP3292233B2 (en) Interpolation processing circuit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090625

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091109