JP4930761B2 - Content processing apparatus and method, program, and recording medium - Google Patents
Content processing apparatus and method, program, and recording medium Download PDFInfo
- Publication number
- JP4930761B2 JP4930761B2 JP2006128388A JP2006128388A JP4930761B2 JP 4930761 B2 JP4930761 B2 JP 4930761B2 JP 2006128388 A JP2006128388 A JP 2006128388A JP 2006128388 A JP2006128388 A JP 2006128388A JP 4930761 B2 JP4930761 B2 JP 4930761B2
- Authority
- JP
- Japan
- Prior art keywords
- content signal
- content
- signal
- storage unit
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Television Signal Processing For Recording (AREA)
- Television Systems (AREA)
Description
本発明はコンテンツ処理装置および方法、プログラム並びに記録媒体に関し、特に、より高品位のコンテンツ信号を、簡便に、ユーザに提供することができるようにしたコンテンツ処理装置および方法、プログラム並びに記録媒体に関する。 The present invention relates to a content processing apparatus and method, a program, and a recording medium, and more particularly, to a content processing apparatus and method, a program, and a recording medium that can easily provide a higher-quality content signal to a user.
本出願人は、低品位画像の画像信号であるSDTV(Standard Definition Television)信号を、高品位画像の画像信号であるHDTV(High Definition Television)信号に変換して、高品位画像を表示することを先に提案している(例えば、特許文献1)。 The present applicant converts an SDTV (Standard Definition Television) signal, which is an image signal of a low-definition image, into an HDTV (High Definition Television) signal, which is an image signal of a high-definition image, and displays a high-definition image. Previously proposed (for example, Patent Document 1).
先の提案においては、予測係数が、多くの画像を学習することにより、画像の特徴としてのクラス毎に予め求められる。そして、その予測係数をSDTV信号に適用することで、HDTV信号が生成される。 In the previous proposal, a prediction coefficient is obtained in advance for each class as a feature of an image by learning many images. Then, the HDTV signal is generated by applying the prediction coefficient to the SDTV signal.
しかしながら、先の提案においては、予測係数を学習するのに長い時間がかかり、また多くの学習用の画像を用意しなければならず、予測係数を求めるための負担が大きかった。 However, in the previous proposal, it took a long time to learn the prediction coefficient, and many learning images had to be prepared, and the burden for obtaining the prediction coefficient was large.
本発明は、このような状況に鑑みてなされたものであり、より高品位のコンテンツ信号を、簡便に、ユーザに提供することができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to easily provide a user with a higher-quality content signal.
本発明の一側面は、第1のコンテンツ信号から、前記第1のコンテンツ信号よりも高品位な第2のコンテンツ信号を生成するのに必要な第1のパラメータを抽出し、前記第1のパラメータを前記第1のコンテンツ信号に適用して前記第2のコンテンツ信号をリアルタイムで生成する生成手段と、前記第1のコンテンツ信号を、記憶部に記憶させる記憶制御手段と、前記記憶部に記憶された前記第1のコンテンツ信号の読み出しがユーザにより指示されていないとき、前記第1のコンテンツ信号を読み出し、前記第1のコンテンツ信号から、前記第2のコンテンツ信号よりも高品位な第3のコンテンツ信号を生成するのに必要な第2のパラメータを抽出して、前記記憶部に記憶させる抽出手段とを備え、前記生成手段は、前記記憶部に記憶された前記第1のコンテンツ信号の読み出しがユーザにより指示されたとき、前記記憶部に記憶された前記第1のコンテンツ信号と前記第2のパラメータを読み出し、前記第2のパラメータを前記第1のコンテンツ信号に適用して、前記第3のコンテンツ信号をリアルタイムで生成するコンテンツ処理装置である。 One aspect of the present invention extracts, from the first content signal, a first parameter necessary for generating a second content signal having higher quality than the first content signal, and the first parameter Is applied to the first content signal to generate the second content signal in real time, storage control means for storing the first content signal in a storage unit, and stored in the storage unit In addition, when the reading of the first content signal is not instructed by the user, the first content signal is read, and the third content having higher quality than the second content signal is read from the first content signal. extracting a second parameter required to generate a signal, and a extracting means to be stored in the storage unit, the generation unit is stored in the storage unit Wherein when the read of the first content signal is instructed by the user, wherein the first content signal stored in the storage unit and reads the second parameter, the second said parameter of the first content signal it is applied to a content processing apparatus for generating the third content signal in real time.
前記第1乃至第3のコンテンツ信号は画像信号であり、前記第1及び第2のパラメータは、動きベクトル、明るさ、コントラスト、またはフレーム間差分情報とすることができる。 The first to third content signals are image signals, and the first and second parameters may be motion vectors, brightness, contrast, or interframe difference information.
前記第1乃至第3のコンテンツ信号は画像信号であり、前記第1及び第2のパラメータは、インターレース方式の画像信号をプログレッシブ方式の画像信号に変換するためのパラメータ、超解像の画像信号を生成するためのパラメータ、ノイズリダクションのためのパラメータ、手ぶれ補正のためのパラメータ、または輝度信号とクロマ信号とを分離するためのパラメータであるようにすることができる。 The first to third content signals are image signals, the first and second parameters are parameters for converting an interlaced image signal into a progressive image signal, and a super-resolution image signal. It may be a parameter for generating, a parameter for noise reduction, a parameter for camera shake correction, or a parameter for separating a luminance signal and a chroma signal.
前記第1乃至第3のコンテンツ信号は音声信号であり、前記第1及び第2のパラメータは、DSDストリーム変換するためのパラメータ、またはサンプリング変換のためのパラメータとすることができる。 The first to third content signals may be audio signals, and the first and second parameters may be parameters for DSD stream conversion or parameters for sampling conversion.
また、本発明の一側面は、第1のコンテンツ信号から、前記第1のコンテンツ信号よりも高品位な第2のコンテンツ信号を生成するのに必要な第1のパラメータを抽出し、前記第1のパラメータを前記第1のコンテンツ信号に適用して前記第2のコンテンツ信号をリアルタイムで生成する生成ステップと、前記第1のコンテンツ信号を、記憶部に記憶させる記憶制御ステップと、前記記憶部に記憶された前記第1のコンテンツ信号の読み出しがユーザにより指示されていないとき、前記第1のコンテンツ信号を読み出し、前記第1のコンテンツ信号から、前記第2のコンテンツ信号よりも高品位な第3のコンテンツ信号を生成するのに必要な第2のパラメータを抽出して、前記記憶部に記憶させる抽出ステップとを含み、前記生成ステップは、前記記憶部に記憶された前記第1のコンテンツ信号の読み出しがユーザにより指示されたとき、前記記憶部に記憶された前記第1のコンテンツ信号と前記第2のパラメータを読み出し、前記第2のパラメータを前記第1のコンテンツ信号に適用して、前記第3のコンテンツ信号をリアルタイムで生成するコンテンツ処理方法、プログラム、またはプログラムが記録された記録媒体である。 Further, according to one aspect of the present invention, a first parameter necessary for generating a second content signal having higher quality than the first content signal is extracted from the first content signal, and the first content signal is extracted. The parameter is applied to the first content signal to generate the second content signal in real time, the storage control step to store the first content signal in the storage unit, and the storage unit When the reading of the stored first content signal is not instructed by the user, the first content signal is read, and the first content signal has a higher quality than the second content signal. extracting a second parameter required to generate a content signal, and a extraction step of storing in the storage unit, wherein the generating step When a read of the first content signal stored in the storage unit is instructed by the user, wherein the first content signal stored in the storage unit and reads the second parameter, the second parameter Is a content processing method for generating the third content signal in real time by applying the method to the first content signal, a program, or a recording medium on which the program is recorded.
本発明の他の側面は、第1のコンテンツ信号から、前記第1のコンテンツ信号よりも高品位な第2のコンテンツ信号をリアルタイムで生成するリアルタイム処理手段と、記憶部に記憶されている前記第1のコンテンツ信号から、前記第2のコンテンツ信号よりも高品位な第3のコンテンツ信号をノンリアルタイムで生成するノンリアルタイム処理手段と、前記ノンリアルタイム処理手段により生成された前記第3のコンテンツ信号から、前記リアルタイム処理手段により生成された前記第2のコンテンツ信号を減算して得られる差分を演算し、前記記憶部に記憶させる差分演算手段と、前記記憶部に記憶されている前記第1のコンテンツ信号の読み出しがユーザにより指示されたとき、前記記憶部より前記第1のコンテンツ信号と前記差分を読み出し、出力する出力手段と、前記記憶部より読み出された前記第1のコンテンツ信号から、前記リアルタイム処理手段により生成される前記第2のコンテンツ信号と、前記記憶部より読み出された前記差分とを加算して前記第3のコンテンツ信号を生成する加算手段とを備えるコンテンツ処理装置である。 According to another aspect of the present invention, real-time processing means for generating, in real time, a second content signal having higher quality than the first content signal from the first content signal , and the first content signal stored in a storage unit . 1 of the content signal, the second than the content signal and the non-real-time processing means for generating a high-quality third content signal in non-real time, before Symbol non-real-time processing the third content signal generated by the means from the said second content signal generated by the real-time processing means calculates the difference obtained by subtracting a difference computing means for storing in the storage unit, the first stored in the storage unit when the reading of the content signal is instructed by the user, the first content signal from the storage unit and the difference Out look, and output means for outputting, from said first content signal read out from the storage unit, the second content signal generated by the real time processing unit, read from the storage unit the It is a content processing apparatus provided with the addition means which adds a difference and produces | generates a said 3rd content signal .
前記記憶部に記憶されている前記第1のコンテンツ信号の読み出しがユーザにより指示されたとき、前記記憶部より読み出された前記第1のコンテンツ信号と前記差分を多重化して送信する多重化手段をさらに備えることができる。 Multiplexing means for multiplexing and transmitting the first content signal read from the storage unit and the difference when the user instructs to read the first content signal stored in the storage unit Can further be provided.
前記差分のデータ量を平準化する平準化手段をさらに備え、前記多重化手段は、平準化された前記差分を前記第1のコンテンツ信号と多重化することができる。 The apparatus further comprises leveling means for leveling the difference data amount, and the multiplexing means can multiplex the leveled difference with the first content signal.
前記第1乃至第3のコンテンツ信号は画像信号であり、前記第2のコンテンツ信号は、前記第1のコンテンツ信号よりも高解像度の画像信号であり、前記第3のコンテンツ信号は、前記第2のコンテンツ信号よりも高解像度の画像信号であるようにすることができる。 The first to third content signals are image signals, the second content signal is an image signal having a higher resolution than the first content signal, and the third content signal is the second content signal . The image signal can have a resolution higher than that of the content signal .
前記ノンリアルタイム処理手段は、前記第1のコンテンツ信号の画素数を、前記第3のコンテンツ信号の画素数に変換する画素数変換手段と、前記第3のコンテンツ信号の動きベクトルを検出する動きベクトル検出手段と、検出された動きベクトルに基づいて位置を合わせた異なるフレームの前記第3のコンテンツ信号の差分の絶対値が基準値より小さい場合、異なるフレームの前記第3のコンテンツ信号の平均値を選択し、大きい場合、一方のフレームの前記第3のコンテンツ信号を選択する選択手段とを備えることができる。 The non-real time processing unit, the number of pixels first content signal, said third pixel number conversion means for converting the number of pixels content signal, the motion vector detecting a motion vector of the third content signal When the absolute value of the difference between the third content signal of different frames aligned with the detection means based on the detected motion vector is smaller than a reference value, the average value of the third content signals of the different frames is calculated. If the selected large, can be provided with a selection means for selecting the third content signal of one frame.
前記リアルタイム処理手段は、前記第1のコンテンツ信号としてのインターレース方式の低解像度の画像信号の動きを判定する判定手段と、前記第1のコンテンツ信号をフィールド間補間して、新たなラインのコンテンツ信号を生成するフィールド間補間手段と、前記第1のコンテンツ信号をフィールド内補間して、新たなラインのコンテンツ信号を生成するフィールド内補間手段と、判定された動きに基づいて、フィールド間補間により生成されたコンテンツ信号またはフィールド内補間により生成されたコンテンツ信号を選択する選択手段と、前記第1のコンテンツ信号と選択された前記コンテンツ信号とを合成してプログレッシブ方式のコンテンツ信号を生成する合成手段と、合成された前記コンテンツ信号を垂直方向と水平方向に補間して、より画素数が多い高解像度の前記第2のコンテンツ信号を生成する生成手段とを備えることができる。 The real-time processing means, said first determination means for movement of the low-resolution image signal of the interlaced as a content signal, said first content signal by interpolating between fields, a new line content signal Generated by inter-field interpolation based on the determined motion, and inter-field interpolation means for generating a new line of content signal by inter-field interpolation of the first content signal. selection means for selecting a content signal generated by content signal or intra-field interpolation, a synthesizing means for generating a content signal of progressive system by combining with the content signal selected as the first content signal , complement the synthesized the content signal in the vertical and horizontal , It is possible and a generating unit that generates the second content signal more number of pixels is large high resolution.
また、本発明の他の側面は、第1のコンテンツ信号から、前記第1のコンテンツ信号よりも高品位な第2のコンテンツ信号をリアルタイムで生成するリアルタイム処理ステップと、記憶部に記憶されている前記第1のコンテンツ信号から、前記第2のコンテンツ信号よりも高品位な第3のコンテンツ信号をノンリアルタイムで生成するノンリアルタイム処理ステップと、前記ノンリアルタイム処理ステップにより生成された前記第3のコンテンツ信号から、前記リアルタイム処理ステップにより生成された前記第2のコンテンツ信号を減算して得られる差分を演算し、前記記憶部に記憶させる差分演算ステップと、前記記憶部に記憶されている前記第1のコンテンツ信号の読み出しがユーザにより指示されたとき、前記記憶部より前記第1のコンテンツ信号と前記差分を読み出し、出力する出力ステップと、前記記憶部より読み出された前記第1のコンテンツ信号から、前記リアルタイム処理ステップにより生成される前記第2のコンテンツ信号と、前記記憶部より読み出された前記差分とを加算して前記第3のコンテンツ信号を生成する加算ステップとを含むコンテンツ処理方法、プログラム、またはプログラムが記録された記録媒体である。 Another aspect of the present invention, the first content signal, and real-time processing step of generating a high-quality second content signal than the first content signal in real time, stored in the storage unit from said first content signal, and a non-real-time processing step of generating a high-quality third content signal in non-real time than the second content signal, before Symbol non-real-time processing steps said third generated by from a content signal, calculates the difference obtained by subtracting the second content signal generated by the real-time processing step, a difference calculation step of storing in the storage unit, the stored in the storage unit first when reading of one of the content signal is instructed by the user, the first from the storage unit Reading out the difference between content signal, and an output step of outputting, from said first content signal read out from the storage unit, the second content signal generated by the real-time processing step, from the storage unit A content processing method, a program, or a recording medium on which the program is recorded, including an addition step of generating the third content signal by adding the read difference .
本発明の一側面においては、第1のコンテンツ信号から、前記第1のコンテンツ信号よりも高品位な第2のコンテンツ信号を生成するのに必要な第1のパラメータが抽出され、前記第1のパラメータが前記第1のコンテンツ信号に適用されて前記第2のコンテンツ信号がリアルタイムで生成され、前記第1のコンテンツ信号が、記憶部に記憶され、前記記憶部に記憶された前記第1のコンテンツ信号の読み出しがユーザにより指示されていないとき、前記第1のコンテンツ信号が読み出され、前記第1のコンテンツ信号から、前記第2のコンテンツ信号よりも高品位な第3のコンテンツ信号を生成するのに必要な第2のパラメータが抽出されて、前記記憶部に記憶される。そして、前記記憶部に記憶された前記第1のコンテンツ信号の読み出しがユーザにより指示されたとき、前記記憶部に記憶された前記第1のコンテンツ信号と前記第2のパラメータが読み出され、前記第2のパラメータが前記第1のコンテンツ信号に適用されて、前記第3のコンテンツ信号がリアルタイムで生成される。 In one aspect of the present invention, a first parameter necessary for generating a second content signal having higher quality than the first content signal is extracted from the first content signal, and the first content signal is extracted. The parameter is applied to the first content signal to generate the second content signal in real time, the first content signal is stored in the storage unit, and the first content stored in the storage unit when the signal read is not instructed by the user, the first content signal is read out, from said first content signal to generate a high-quality third content signal than the second content signal The second parameter necessary for the process is extracted and stored in the storage unit. When the user instructs to read out the first content signal stored in the storage unit, the first content signal and the second parameter stored in the storage unit are read out, and A second parameter is applied to the first content signal to generate the third content signal in real time.
また、本発明の他の側面においては、第1のコンテンツ信号から、前記第1のコンテンツ信号よりも高品位な第2のコンテンツ信号がリアルタイムで生成され、記憶部に記憶されている前記第1のコンテンツ信号から、前記第2のコンテンツ信号よりも高品位な第3のコンテンツ信号がノンリアルタイムで生成され、生成された前記第3のコンテンツ信号から、生成された前記第2のコンテンツ信号を減算して得られる差分が演算され、前記記憶部に記憶され、前記記憶部に記憶されている前記第1のコンテンツ信号の読み出しがユーザにより指示されたとき、前記記憶部より前記第1のコンテンツ信号と前記差分が読み出され、出力される。そして、前記記憶部より読み出された前記第1のコンテンツ信号から生成される前記第2のコンテンツ信号と、前記記憶部より読み出された前記差分とが加算されて前記第3のコンテンツ信号が生成される。 Further, in another aspect of the present invention, the first content signal, the second content signal high-quality than the first content signal is generated in real time, the first stored in the storage unit A third content signal having higher quality than the second content signal is generated in non-real time from the content signal of the second content signal, and the generated second content signal is subtracted from the generated third content signal and the difference obtained is computed, stored in the storage unit, when the reading of the first content signal stored in the storage unit is instructed by the user, the first content signal from the storage unit And the difference are read out and output. Then, the second content signal generated from the first content signal read from the storage unit and the difference read from the storage unit are added to obtain the third content signal. Generated .
以上のように、本発明の一側面によれば、より高品位のコンテンツ信号をユーザに提供することができる。特に、高品位のコンテンツ信号を、ユーザに負荷を与えることなく、簡便に、また記憶するデータ量の増加を抑制しつつ、効率的に、ユーザに提供することが可能となる。 As described above, according to one aspect of the present invention, a higher-quality content signal can be provided to a user. In particular, a high-quality content signal can be provided to the user simply and efficiently without increasing the amount of data to be stored without imposing a load on the user.
以下、図を参照して本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明を適用したホームネットワークシステムの構成を表すブロック図である。このホームネットワークシステム1は、ネットワーク11、サーバ12、チューナ13、モニタ14、通信装置15により構成されている。
FIG. 1 is a block diagram showing the configuration of a home network system to which the present invention is applied. The home network system 1 includes a
ネットワーク11は、例えば、家庭用LAN(Local Area Network)などで構成される。もちろん、ネットワーク11は各装置を直接接続するコードなどで構成することもできる。
The
サーバ12は、チューナ13が受信したテレビジョン放送信号をネットワーク11を介して受信し、内蔵する記憶部に記憶する。チューナ13は、テレビジョン放送を受信し、受信したテレビジョン放送信号をネットワーク11を介してサーバ12に供給するとともに、モニタ14に出力し、表示させる。モニタ14は、LCD(Liquid Crystal Display)、あるいはCRT(Cathode Ray Tube)などにより構成され、画像を表示する。
The
通信装置15は、例えば、モデム(Modem)、ターミナルアダプタ(Terminal Adapter)などで構成され、インターネットに代表される外部のネットワーク16に接続されている。
The
図2は、サーバ12の具体的構成を表している。このサーバ12は、記録部31、記憶部32、MPEGデコード部33、リアルタイムアップコンバータ34、再生部35、ノンリアルタイム処理部36、DVエンコード部37、およびDVデコード部38により構成されている。
FIG. 2 shows a specific configuration of the
記録部31は、ネットワーク11を介してチューナ13より供給されるテレビジョン放送信号を構成する画像信号(SDTV信号)および音声信号を所定の方式で変調し、記憶部32に供給し、記憶させる。記憶部32は、例えば、ハードディスクドライブなどで構成される。MPEG(Moving Picture Experts Group)デコード部33は、ネットワーク11を介してチューナ13より供給された画像信号としてのSDTV信号をデコードして、リアルタイムアップコンバータ34とノンリアルタイム処理部36に出力する。リアルタイムアップコンバータ34は、MPEGデコード部33より供給されたSDTV信号をリアルタイムでアップコンバートして、HDTV信号を生成し、ネットワーク11を介してモニタ14に出力する。
The
ノンリアルタイム処理部36は、MPEGデコード部33が出力したSDTV信号をノンリアルタイムで処理し、SDTV信号からHDTV信号を生成するのに必要なパラメータを抽出する。DVエンコード部37は、ノンリアルタイム処理部36が出力するパラメータをDVフォーマットでエンコードし、記録部31を介して記憶部32に記憶させる。
The non-real
再生部35は、記憶部32に記憶されているSDTV信号並びにパラメータを再生し記録部31における変調方式に対応する方式で復調し、SDTV信号をMPEGデコード部33に出力し、パラメータをDVデコード部38に出力する。DVデコード部38は入力されたパラメータをDVフォーマットでデコードし、リアルタイムアップコンバータ34に出力する。
The
図3は、リアルタイムアップコンバータ34の具体的構成を表している。このリアルタイムアップコンバータ34は、動き判定部51、フィールド間補間部52、フィールド内補間部53、切り替え部54、線順次変換部55、垂直補間部56、並びに水平補間部57により構成されている。
FIG. 3 shows a specific configuration of the real-
動き判定部51は、MPEGデコード部33より供給されるSDTV信号の動きを判定する。このSDTV信号は、具体的には、480i信号(有効部分の走査線数が480本のインターレース方式の画像信号)とされる。この480iの信号は、垂直ブランキング期間のラインの本数も数えて、525i信号と呼ばれることもある。この動き判定部51には、DVデコード部38の出力も供給されている。
The
フィールド間補間部52は、入力されるSDTV信号のうち、異なるフィールドの信号を利用して、すなわち、フィールド間補間により存在しないラインの画像信号を生成する。フィールド内補間部53は、入力されるSDTV信号のフィールド内のラインを利用して、そのフィールドに存在しないラインの画像信号を生成する。切り替え部54は、動き判定部51からの制御信号に基づいて、フィールド間補間部52が作成したラインの画像信号、またはフィールド内補間部53が作成したラインの画像信号の一方を選択し、線順次変換部55に出力する。
The
線順次変換部55は、MPEGデコード部33から供給されるSDTV信号に現存するラインの信号と、切り替え部54から供給されるフィールド間補間部52またはフィールド内補間部53により生成されたラインの信号とを受け取り、水平ラインの倍速処理を行い、480p(ラインの数が480本のプログレッシブ方式の信号)を生成(合成)する。
The line-sequential conversion unit 55 includes a line signal existing in the SDTV signal supplied from the
垂直補間部56は、線順次変換部55より供給された480pの信号を垂直方向に補間し、ラインの数を1080本にする。水平補間部57は垂直補間部56より供給された信号を水平方向に補間し、水平方向の画素数を増加し、最終的に1080pのHDTV信号を生成、出力する。
The
図2のノンリアルタイム処理部36は、例えば図4に示されるように、動きパラメータ抽出部61により構成される。この動きパラメータ抽出部61は、MPEGデコード部33より供給されたSDTV信号から動きパラメータを抽出し、DVエンコード部37に出力する。動きパラメータ抽出部61は、位相限定相関やフーリエメラン変換などで全体的な動き、回転、ズームを検出し、その後、局所的な異なる動きを検出するような手法で、画素単位以下の高精度の動きベクトルを抽出する。
The non-real-
次に、図5のフローチャートを参照して、ホームネットワークシステム1における受信処理について説明する。この処理は、例えばユーザが所定のチャンネルのテレビジョン放送信号の録画を指令したとき、開始される。 Next, reception processing in the home network system 1 will be described with reference to the flowchart of FIG. This process is started, for example, when the user commands recording of a television broadcast signal of a predetermined channel.
ステップS1において、チューナ13は、ユーザにより指定されたチャンネルのテレビジョン放送信号を受信し、その受信した信号をネットワーク11を介してサーバ12に出力する。ステップS2において、サーバ12の記録部31は、チューナ13によりネットワーク11を介して供給された受信信号を、予め設定されている所定の方式で変調する。ステップS3において、記憶部32は、記録部31により変調された信号を記憶する。
In step S1, the
ステップS4において、MPEGデコード部33は、チューナ13より供給された受信信号をMPEGフォーマットでデコードし、リアルタイムアップコンバータ34に出力する。ステップS5において、リアルタイムアップコンバータ34は、リアルタイムアップコンバート処理を実行する。この処理の詳細は図6のフローチャートを参照して後述するが、この処理によりMPEGデコード部33より入力された信号がリアルタイムでアップコンバートされ、HDTV信号とされる。ステップS6において、モニタ14は、ネットワーク11を介してサーバ12より供給された信号に対応する画像を表示する。
In step S4, the
なお、例えば、いわゆる留守録画が指令された場合には、ステップS4乃至ステップS6の処理は省略される。 For example, when so-called absence recording is instructed, the processing in steps S4 to S6 is omitted.
次に、図6のフローチャートを参照して、リアルタイムアップコンバート処理の詳細について説明する。 Next, details of the real-time up-conversion process will be described with reference to the flowchart of FIG.
ステップS21において、フィールド間補間部52は、入力されたSDTV信号をフィールド間補間する。具体的には、SDTV信号で構成される異なるフィールドの信号を利用して、実際には存在しないラインの信号が生成される。ステップS22において、フィールド内補間部53は、フィールド内補間する。すなわち、フィールド内補間部53は、入力されたSDTV信号の同一のフィールド内のラインを利用して、そのフィールドに存在しないラインの信号を生成する。ステップS23において、動き判定部51は、入力されたSDTV信号の画像の動きを判定する。そして、ステップS24において、動き判定部51は検出した動きに基づいて切り替え部54を制御し、フィールド間補間部52が出力する信号またはフィールド内補間部53が出力する信号のいずれかを選択する。検出された動きが基準値より大きいときフィールド内補間部53が生成した信号が選択され、基準値より小さいときフィールド間補間部52が生成した信号が切り替え、選択される。
In step S21, the
ステップS25において、線順次変換部55は線順次変換する。具体的には、線順次変換部55は、MPEGデコード部33より入力されたSDTV信号と、切り替え部54より入力されたフィールド間補間部52またはフィールド内補間部53により補間生成された信号を合成することで、480pの画像信号を生成する。ステップS26において、垂直補間部56は垂直補間する。そしてステップS27において、水平補間部57は水平補間する。すなわち具体的には、垂直補間部56は、線順次変換部55より入力された480pの信号を垂直方向に補間することで、ラインの数を1080本に変換する。水平補間部57は、1080本のラインの水平方向の画素数を生成、増加することで、1080pの画像信号を生成する。
In step S25, the line sequential conversion unit 55 performs line sequential conversion. Specifically, the line sequential conversion unit 55 synthesizes the SDTV signal input from the
以上のようにして、ユーザが指定したチャンネルのテレビジョン放送信号に基づくHDTV信号の画像がモニタ14に表示されつつ、対応する画像信号(SDTV信号)がサーバ12の記憶部32に記憶される。
As described above, the image of the HDTV signal based on the television broadcast signal of the channel designated by the user is displayed on the
以上のようにして録画処理が実行されると、ユーザがその録画した画像の読み出しを指令していないタイミングにおいて、すなわち、例えば録画処理が昼間行われたとして、深夜等、ユーザがその録画した画像を視聴していないタイミングにおいて、あるいは、録画終了後、ユーザによりそのコンテンツの読み出しが指令されていないことが確認されたタイミングにおいて、ユーザが積極的にその処理を禁止しない限り、図7のフローチャートに示される熟成処理がサーバ12により自動的に実行される。これにより、ユーザに余計な負荷がかかることが防止される。
When the recording process is executed as described above, at the timing when the user does not command reading of the recorded image, that is, for example, when the recording process is performed in the daytime, the image recorded by the user such as midnight Unless the user actively inhibits the processing at the timing when the user is not viewing or at the timing when it is confirmed that the user has not instructed to read the content after the recording is finished, the flowchart of FIG. The aging process shown is automatically executed by the
ステップS41において、再生部35は、記憶部32に記憶されているSDTV信号を再生、復調する。このとき、まだ熟成処理が行われていないSDTV信号が選択される。ステップS42において、MPEGデコード部33は、再生部35により再生されたSDTV信号をMPEGフォーマットでデコードする。ステップS43において、ノンリアルタイム処理部36は、MPEGデコード部33より出力されたSDTV信号をノンリアルタイム処理する。このノンリアルタイム処理の詳細は、図8に示されている。
In step S41, the
すなわち、この実施の形態においては、ステップS61において、ノンリアルタイム処理部36の動きパラメータ抽出部61が、MPEGデコード部33より供給されたSDTV信号の動きパラメータとして動きベクトルを抽出する。
That is, in this embodiment, in step S61, the motion
具体的には、動きパラメータ抽出部61は、位相限定相関で全体的な動き、回転、ズームを検出し、その後、局所的な異なる動きを検出するような手法で、正確に動きを検出する。より詳細には、例えば6フレーム乃至12フレームの画像信号を観測することで、画素単位以下の高精度で動きベクトルが検出される。この検出には時間がかかるが、今、ユーザは処理対象の画像を再生(利用)していないので(画像を表示する必要がないので)、ノンリアルタイムで充分時間をかけて処理を行うことが可能である。
Specifically, the motion
これに対して、図6のステップS23において動き判定部51が行う動き判定処理は、リアルタイムで行われるものであるため(画像を表示する必要があるので)、処理に時間をかけることができず、充分な精度の動きベクトルを検出することが困難である。例えば、フレーム間の輝度の差で動きベクトルを検出する場合、微小振幅のテクスチャの動きを検出することが困難である。また、ブロックマッチングにより動きベクトルを検出する場合には、計算量を軽減するためブロックサイズはあまり大きくすることができない。このため、境界での動き検出が不正確となる。
On the other hand, since the motion determination process performed by the
ステップS44において、DVエンコード部37はノンリアルタイム処理部36により生成された動きベクトルをDVフォーマットでエンコードする。
In step S44, the
ステップS45において、記録部31は、DVエンコード部37によりエンコードされた動きベクトルを変調し、ステップS46において記憶部32は、記録部31により変調された動きベクトルを記憶する。この動きベクトルは、SDTV信号と対応付けて記憶される。
In step S45, the
熟成処理の途中で処理対象のコンテンツの再生がユーザにより指示された場合には、その時点で熟成処理は中断され、コンテンツの再生処理が実行される。その再生が終了した後、中断された後の熟成処理が実行される。 When reproduction of the content to be processed is instructed by the user during the aging process, the aging process is interrupted at that point, and the content reproduction process is executed. After the regeneration is completed, the aging process after the interruption is executed.
次に、図9のフローチャートを参照して再生処理について説明する。この処理は、ユーザが記憶部32に記憶されているコンテンツを指定して、その再生を指示したとき開始される。
Next, the reproduction process will be described with reference to the flowchart of FIG. This process is started when the user designates the content stored in the
ステップS81において、再生部35は、記憶部32に記憶されており、ユーザにより指定されたコンテンツのSDTV信号と、それに対応付けられている動きパラメータ(いまの場合、動きベクトル)を再生、復調する。再生部35は、再生したSDTV信号をMPEGデコード部33に出力し、動きパラメータとしての動きベクトルをDVデコード部38に出力する。ステップS82において、MPEGデコード部33は、SDTV信号をMPEGフォーマットでデコードする。ステップS83において、DVデコード部38は、動きパラメータをDVフォーマットでデコードする。ステップS84において、リアルタイムアップコンバータ34は、リアルタイムアップコンバート処理を実行する。この処理の詳細は、図10を参照して後述するが、これにより、動きパラメータとしての動きベクトルを利用してリアルタイムでアップコンバート処理が実行される。リアルタイムアップコンバータ34は、アップコンバートして生成したHDTV信号をネットワーク11を介してモニタ14に出力する。ステップS85において、モニタ14は、SDTV信号に対応する高品位の画像を表示する。
In step S81, the
次に、図10のフローチャートを参照して、図9のステップS84におけるリアルタイムアップコンバート処理の詳細について説明する。 Next, details of the real-time up-conversion processing in step S84 in FIG. 9 will be described with reference to the flowchart in FIG.
図10のステップS101乃至ステップS107の処理は、図6のステップS21乃至ステップS27の処理と基本的に同様の処理である。ただし、図6のステップS23における動き判定処理に対応する図10のステップS103の処理が、図6における場合と異なっている。すなわち、ステップS103においては、SDTV信号から動き判定する代わりに、動きパラメータを選択する処理が実行される。具体的には、動き判定部51は、動きパラメータが記憶されていない場合には、図6のステップS23における場合と同様にSDTV信号から動き判定を実行するが、動きパラメータが記憶されている場合には(DVデコード部38から動きパラメータが入力された場合には)、その動きパラメータに基づいて切り替え部54の切り替えを制御する。上述した場合と同様に、供給された動きベクトルが基準値より大きければフィールド内補間部53の出力が選択され、小さければ、フィールド間補間部52の出力が選択される。
The processing from step S101 to step S107 in FIG. 10 is basically the same as the processing from step S21 to step S27 in FIG. However, the process in step S103 in FIG. 10 corresponding to the motion determination process in step S23 in FIG. 6 is different from that in FIG. That is, in step S103, a process for selecting a motion parameter is executed instead of determining motion from the SDTV signal. Specifically, when the motion parameter is not stored, the
図6のステップS23において行われる動き判定処理においては、動画像から動きが検出されるため、例えば、輝度のフレーム間差で動きベクトルを検出する場合、微小振幅のテクスチャの動きを検出することが困難である。また、動きベクトルをブロックマッチングで検出する場合、計算量を減少させるためブロックサイズをある程度大きくしなければならず、境界での動き検出が不正確となる。これに対して、図7のステップS43のノンリアルタイム処理において行われる動きパラメータの抽出処理は、充分な時間をかけて行われるため、画素単位以下の高精度の動きベクトルを検出することが可能となる。したがって、切り替え部54をこの動きベクトルに基づいて制御することで、より正確な制御が可能となる。その結果、より高品位のHDTV信号を生成することが可能となる。 In the motion determination process performed in step S23 of FIG. 6, since motion is detected from a moving image, for example, when detecting a motion vector using a difference between luminance frames, it is possible to detect the motion of a texture with a minute amplitude. Have difficulty. In addition, when detecting a motion vector by block matching, the block size must be increased to some extent in order to reduce the amount of calculation, and motion detection at the boundary becomes inaccurate. On the other hand, since the motion parameter extraction processing performed in the non-real time processing in step S43 in FIG. 7 is performed over a sufficient amount of time, it is possible to detect a highly accurate motion vector in units of pixels or less. Become. Therefore, more accurate control can be performed by controlling the switching unit 54 based on the motion vector. As a result, a higher quality HDTV signal can be generated.
図10のその他の処理は、図6における場合と同様であるので、その説明は省略する。 The other processes in FIG. 10 are the same as those in FIG.
図11は、サーバ12の他の実施の形態の構成を表している。この実施の形態においては、図2におけるノンリアルタイム処理部36に代えて、ノンリアルタイムアップコンバータ81が設けられている。そして、ノンリアルタイムアップコンバータ81の出力と、リアルタイムアップコンバータ34の出力の差分が、差分演算手段としての減算部82により演算され、DVエンコード部37に供給されるように構成されている。また、リアルタイムアップコンバータ34の出力が加算部83に供給され、DVデコード部38より供給された差分と加算され、モニタ14に出力されるように構成されている。その他の構成は、図2における場合と同様である。
FIG. 11 shows the configuration of another embodiment of the
ノンリアルタイムアップコンバータ81は、例えば、図12に示されるように構成される。このノンリアルタイムアップコンバータ81は、スケーリング部101、動きベクトル検出部102、動きベクトル保存部103、位置合わせ部104、動き検出部105、並びに切り替え部106により構成されている。
The non-real time up-
スケーリング部101は、MPEGデコード部33より供給されたSDTV信号をHDTV信号の画素数にアップスケーリングする処理を実行する。動きベクトル検出部102は、スケーリング部101より供給されたHDTV信号から動きベクトルを検出する。動きベクトル保存部103は、動きベクトル検出部102により検出された動きベクトルを保存する。位置合わせ部104は、スケーリング部101より供給されたHDTV信号の画像の位置を、動きベクトル保存部103より供給された動きベクトルに基づいて調整し、その調整した後の画像と、スケーリング部101より供給されるHDTV信号の画像の対応する画素同士の平均値を演算し、それにより生成したHDTV信号を切り替え部106に出力する。
The
動き検出部105には、位置を調整した後の画像のHDTV信号と、スケーリング部101より出力された元画像のHDTV信号も、位置合わせ部104から供給されている。動き検出部105は、位置合わせした後の画像と、元画像の各画素の差分絶対値を演算することで画像の動きを検出し、その検出結果に基づいて切り替え部106を制御する。切り替え部106は、スケーリング部101より供給されたHDTV信号と、位置合わせ部104より供給されたHDTV信号のいずれかを動き検出部105の検出結果に基づいて切り替え、出力する。
The
図11のリアルタイムアップコンバータ34は、図3に示される場合と同様に構成される。ただし、動き判定部51には、DVデコード部38の出力が供給されておらず、動き判定部51は、MPEGデコード部33からのSDTV信号の動き判定のみを実行する。すなわち、上述した図6のリアルタイムアップコンバート処理を実行する。
The real-time up-
図11の実施の形態における受信処理は、図5のフローチャートに示される場合と同様であるので、その説明は省略する。次に、図11の実施の形態における熟成処理について、図13のフローチャートを参照して説明する。この処理も、ユーザによりSDTV信号の読み出し処理が実行されていないタイミングにおいて、サーバ12により自動的に実行される。
Since the reception process in the embodiment of FIG. 11 is the same as that shown in the flowchart of FIG. 5, the description thereof is omitted. Next, the aging process in the embodiment of FIG. 11 will be described with reference to the flowchart of FIG. This process is also automatically executed by the
ステップS131において、再生部35は、記憶部32に記憶されているまだ熟成処理していないSDTV信号を再生、復調する。再生されたSDTV信号は、MPEGデコード部33に供給される。ステップS132において、MPEGデコード部33は、再生部35より供給されたSDTV信号をMPEGフォーマットでデコードする。
In step S131, the
ステップS133において、リアルタイムアップコンバータ34は、リアルタイムアップコンバート処理を実行する。この処理は、図6に示される場合と同様の処理である。すなわち、これによりリアルタイムでHDTV信号が生成され、減算部82に供給される。なお、ここにおけるリアルタイムとは、今、ユーザがSDTV信号の再生を指示をしているわけではないので、必ずしもリアルタイムで画像を表示する必要がないのであるが、表示しようとすれば、その画像をリアルタイムで表示することができるという意味である。
In step S133, the real-time up-
次に、ステップS134において、ノンリアルタイムアップコンバータ81により、ノンリアルタイムアップコンバート処理が実行される。このノンリアルタイムアップコンバート処理の詳細は、図14のフローチャートを参照して後述するが、これにより、ノンリアルタイムでHDTV信号が生成され、減算部82に供給される。ステップS135において、減算部82は、ノンリアルタイムアップコンバータ81から供給されたHDTV信号を、リアルタイムアップコンバータ34より供給されたHDTV信号から減算することで、その差分を演算する。
Next, in step S134, non-real-time up-conversion processing is executed by the non-real-time up-
ステップS136において、DVエンコード部37は、減算部82より供給された2つのHDTV信号の差分の信号をDVフォーマットでエンコードする。ステップS137において、記録部31は、DVエンコード部37より供給された信号を所定の変調方式で変調する。ステップS138において、記憶部32は、記録部31より供給されたDVエンコードされた差分信号をSDTV信号に対応付けて記憶する。
In step S136, the
次に、図14を参照して、図13のステップS134におけるノンリアルタイムアップコンバート処理の詳細について説明する。 Next, with reference to FIG. 14, the details of the non-real time up-conversion process in step S134 of FIG. 13 will be described.
ステップS151において、スケーリング部101は、MPEGデコード部33より供給されたSDTV信号をスケーリングする。すなわち、これにより、画像数がSDTV信号の画素数からHDTV信号の画素数にアップスケーリングされる。ステップS152において、動きベクトル検出部102は、スケーリング部101より出力されたHDTV信号から動きベクトルを検出する。今、画像を表示する必要がないので、この動きベクトル検出処理は充分な時間をかけて行われる。これにより、極めて精度の高い画素単位以下の動きベクトルを検出することが可能となる。ステップS153において、動きベクトル保存部103は、動きベクトル検出部102により検出された動きベクトルを保存する。
In step S151, the
ステップS154において、位置合わせ部104は、スケーリング部101より入力されたHDTV信号の画像の位置を合わせる処理を、動きベクトル保存部103より読み出された動きベクトルに基づいて行う。
In step S154, the
例えば、図15に示されるように、スケーリング部101より出力される画像の第1のフレームF1(図15の上の図)に、木122と木122の方向(図中右方向)に移動しているボール121Aが存在するとする。そのフレームF1より時間的に後のフレームF2(図15の下の図)においては、ボール121Bが木122に、より近づいている。すなわち、ボール121Bは動き量Vで図中右方向に移動している。この動き量Vが、フレームF1とフレームF2の間におけるボール121Bの動きベクトルとして動きベクトル検出部102により検出されている。この場合、位置合わせ部104は、図16に示されるように、動きベクトルに基づいて、フレームF2を動き量V分だけその位置をずらしてフレームF1に位置合わせを行うことでフレームF2’を生成する。そして、位置合わせ部104は、フレームF1とフレームF2’を、対応する画素同志を加算することで合成する。その結果、各画素のレベルが枚数倍(今の場合、2倍)になるので、枚数で割り算をすることで画素値を元の値のスケールに戻す。すなわち、平均値が演算される。
For example, as shown in FIG. 15, the first frame F1 (the upper diagram in FIG. 15) of the image output from the
このような合成処理を行うことで、フレーム相関のないランダムノイズを減衰させることができる。また、一般的に、垂直方向に画像が動くと、ラインとの合致に応じて周波数特性が変化する。しかし、変化している複数フレームを重ね合わせることで、インターレース画像特有のラインフリッカを軽減することができる。すなわち、この処理により、高画質化することが可能となる。 By performing such a synthesis process, random noise having no frame correlation can be attenuated. In general, when the image moves in the vertical direction, the frequency characteristic changes according to the match with the line. However, line flicker peculiar to an interlaced image can be reduced by superimposing a plurality of changing frames. That is, this process can improve the image quality.
次に、ステップS155において、動き検出部105は動きを検出する。具体的には、動き検出部105は、位置合わせ部104より供給された元画像としてのフレームF1と、位置合わせした後の画像としてのフレームF2’の対応する画素の差分の絶対値を演算する。図17に示されるように、フレームF1とフレームF2’の差分の絶対値を演算すると、対応する画素が存在し、動きがほとんどない画素の差分の絶対値は、図中、白で示される領域のように、0かまたは充分小さな値となる。これに対して、ボール121A,121Bの画素のように、動きが存在する画素は、その差分絶対値は充分小さくはならない。同様に、対応する画素が存在しない領域(図17において、右端に示される領域)においても、差分の絶対値が充分小さくはならない。動き検出部105は、差分絶対値の値を予め設定されている所定の閾値と比較し、その比較結果を切り替え部106に出力する。
Next, in step S155, the
ステップS156において、切り替え部106は、動き検出部105からの信号に基づいて、元のHDTV信号または合成されたHDTV信号を切り替える。具体的には、切り替え部106は、動き検出部105が出力する信号が閾値より大きいことを示す場合、スケーリング部101より供給された元のHDTV信号(元画像)を選択する。これに対して、動き検出部105が出力する信号が閾値より小さいことを表している場合、切り替え部106は、位置合わせ部104より供給された、合成されたHDTV信号を選択する。これにより、動いている部分の画像が、画像を合成することでぼけてしまうようなことが抑制される。
In step S156, the
以上のようにして、減算部82により、ノンリアルタイムアップコンバータ81により演算されたHDTV信号が、リアルタイムアップコンバータ34により生成されたHDTV信号から減算され、DVエンコード部37によりDVフォーマットでエンコードされて、記憶部32に記憶されることになる。
As described above, the HDTV signal calculated by the non-real-time up-
なお、以上の各実施の形態においては、音声データについてはその説明を省略したが、SDTV信号またはHDTV信号に対応する音声データは、SDTV信号またはHDTV信号と同様に処理される。 In the above embodiments, the description of the audio data is omitted, but the audio data corresponding to the SDTV signal or HDTV signal is processed in the same manner as the SDTV signal or HDTV signal.
次に、図18のフローチャートを参照して、図11の実施の形態の再生処理について説明する。この処理は、ユーザが、所定のコンテンツの再生を指示したとき開始される。 Next, the reproduction processing of the embodiment of FIG. 11 will be described with reference to the flowchart of FIG. This process is started when the user instructs reproduction of predetermined content.
ステップS171において、再生部35は、記憶部32に記憶されているユーザにより指定されたコンテンツのSDTV信号と差分信号を再生、復調する。再生部35は、再生したSDTV信号をMPEGデコード部33に出力し、差分信号をDVデコード部38に出力する。ステップS172において、MPEGデコード部33は、再生部35より供給されたSDTV信号をMPEGフォーマットでデコードする。ステップS173において、リアルタイムアップコンバータ34は、リアルタイムアップコンバート処理を実行する。この処理は、図6のフローチャートに示される場合と同様の処理である。
In step S171, the
ステップS174において、DVデコード部38は、再生部35より供給された差分信号をDVフォーマットでデコードし、加算部83に出力する。ステップS175において、加算部83は差分信号を加算する。すなわち、リアルタイムアップコンバータ34より出力されたリアルタイムで生成されたHDTV信号に、DVデコード部38より供給された差分信号が、加算部83において加算される。これにより、図5のフローチャートに示される受信時の処理のように、差分信号を使用しない場合に較べて、より高品位のHDTV信号が生成されることになる。加算部83は、このHDTV信号をネットワーク11を介してモニタ14に出力する。ステップS176において、モニタ14は、サーバ12よりネットワーク11を介して供給されてきたHDTV信号に対応する高品位の画像を表示する。
In step S174, the
図19は、サーバ12のさらに他の実施の形態を表している。この実施の形態においては、サーバ12は、家庭内のネットワーク11だけではなく、外部のネットワーク16を介して、そこに接続されている他の装置(図示せず)にHDTV信号と差分信号を送信する機能を有している。このため、図19のサーバ12は、DVエンコード部37の出力を平準化する平準化部151を有している。また、サーバ12は、記憶部32に記憶されている画像信号と音声信号に対応するメタデータを記憶する記憶部152、再生部35により再生された音声信号とメタデータをDVエンコードするDVエンコード部153、DVエンコード部153によりDVフォーマットでエンコードされた音声信号とメタデータを、再生部35より出力されたHDTV信号と差分信号にマルチプレクスするマルチプレクサ154、並びにマルチプレクサ154の出力を通信装置15を介してネットワーク16に出力する送信部155とを備えている。
FIG. 19 shows still another embodiment of the
その他の構成は、図11における場合と同様であるので、その説明は繰り返しなので省略する。 The other configuration is the same as that in FIG. 11, and the description thereof is omitted because it is repeated.
次に、図19のサーバ12の処理について説明する。その受信処理と再生処理は、図5と図18に示した場合と同様であるので省略する。
Next, processing of the
図19のサーバ12の熟成処理は、図20のフローチャートに示されるようになる。
The aging process of the
ステップS201乃至ステップS209の処理は、図13におけるステップS131乃至ステップS138の処理と基本的に同様の処理である。ただ、図13のステップS136,S137に対応する図20のステップS206,208の間に、ステップS207の処理が挿入されている点が異なっている。 The processing from step S201 to step S209 is basically the same processing as the processing from step S131 to step S138 in FIG. However, the difference is that the process of step S207 is inserted between steps S206 and 208 of FIG. 20 corresponding to steps S136 and S137 of FIG.
すなわち、図20の熟成処理においては、ステップS206において、DVエンコード部37により減算部82が出力する差分信号が、DVフォーマットでエンコードされた後、ステップS207において、平準化部151は、エンコードされた差分信号を平準化する。すなわち、ネットワーク16を介して送信されるときに、データ量が均一となるような処理がここで実行される。そして、平準化された後の差分信号が、ステップS208において記憶部31により変調され、ステップS209において記憶部32に記憶される。
That is, in the aging process of FIG. 20, after the difference signal output from the subtracting
その他の処理は、図13における場合と同様である。 Other processes are the same as those in FIG.
次に、図21のフローチャートを参照して、図19のサーバ12の送信処理について説明する。この処理は、ユーザによりサーバ12に対してコンテンツの送信が指令されたとき開始される。
Next, the transmission process of the
ステップS231において、再生部35は、ユーザにより指定されたコンテンツのSDTV信号と差分信号を記憶部32から再生、復調する。ステップS232において、再生部35は、記憶部152から指定されたコンテンツのSDTV信号に対応するメタデータを再生する。再生部35は、再生した音声信号とメタデータをDVエンコード部153に出力する。ステップS233において、DVエンコード部153は、入力された音声信号とメタデータをDVフォーマットでエンコードする。ステップS234において、マルチプレクサ154は、再生部35より入力されたSDTV信号と差分信号、並びにDVエンコード部153より供給されたDVフォーマットでエンコードされている音声信号とメタデータをマルチプレクスする。ステップS235において、送信部155は、マルチプレクサ154より入力された信号を送信する。すなわち、この信号が通信装置15を介してネットワーク16に供給され、図示せぬ外部の装置に送信される。
In step S231, the
なお、図19の実施の形態は、ホームネットワーク内で信号を送信する場合に用いるようにしてもよい。 Note that the embodiment of FIG. 19 may be used when signals are transmitted within the home network.
なお、生成したHDTV信号そのものを記憶させることもできるが、そのようにすると、データ量が多くなるので、パラメータあるいは差分信号を記憶するようにした方が、データ量を少なくすることができ、記憶部を効率的に利用することができる。例えば、HDTV信号をDVフォーマットでエンコードして記憶すると、データ量は、SDTV信号を記憶する場合の約7.25倍となり、MPEG4-AVCフォーマットの場合、約2.5倍となるのに対して、パラメータあるいは差分信号を記憶する場合、約1.5倍となる。 Although the generated HDTV signal itself can be stored, doing so increases the amount of data, so storing parameters or difference signals can reduce the amount of data and store it. Can be used efficiently. For example, when an HDTV signal is encoded and stored in DV format, the amount of data is about 7.25 times that of SDTV signals, and about 2.5 times that of MPEG4-AVC formats, whereas parameters or differences When storing the signal, it is about 1.5 times.
以上においては、パラメータを動きベクトルとしたが、明るさ、コントラスト、またはフレーム間差分情報とすることができる。あるいは、パラメータを、インターレース方式の画像信号をプログレッシブ方式の画像信号に変換するためのパラメータ、超解像の画像信号を生成するためのパラメータ、ノイズリダクションのためのパラメータ、手ぶれ補正のためのパラメータ、または輝度信号とクロマ信号とを分離するためのパラメータとすることもできる。 In the above description, the parameter is a motion vector, but it can be brightness, contrast, or interframe difference information. Alternatively, the parameter is a parameter for converting an interlaced image signal into a progressive image signal, a parameter for generating a super-resolution image signal, a parameter for noise reduction, a parameter for camera shake correction, Alternatively, it may be a parameter for separating the luminance signal and the chroma signal.
さらに、処理対象とするコンテンツ信号は音声信号とすることができ、パラメータは、DSD(Direct Stream Digital)ストリーム変換するためのパラメータ、またはサンプリング変換のためのパラメータとすることができる。 Furthermore, the content signal to be processed can be an audio signal, and the parameter can be a parameter for DSD (Direct Stream Digital) stream conversion or a parameter for sampling conversion.
図22は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成を示すブロック図である。CPU(Central Processing Unit)221は、ROM(Read Only Memory)222、または記憶部228に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)223には、CPU221が実行するプログラムやデータなどが適宜記憶される。これらのCPU221、ROM222、およびRAM223は、バス224により相互に接続されている。
FIG. 22 is a block diagram showing a configuration of a personal computer that executes the above-described series of processing by a program. A CPU (Central Processing Unit) 221 executes various processes according to a program stored in a ROM (Read Only Memory) 222 or a
CPU221にはまた、バス224を介して入出力インタフェース225が接続されている。入出力インタフェース225には、キーボード、マウス、マイクロホンなどよりなる入力部226、ディスプレイ、スピーカなどよりなる出力部227が接続されている。CPU221は、入力部226から入力される指令に対応して各種の処理を実行する。そして、CPU221は、処理の結果を出力部227に出力する。
An input /
入出力インタフェース225に接続されている記憶部228は、例えばハードディスクからなり、CPU221が実行するプログラムや各種のデータを記憶する。通信部229は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。また、通信部229を介してプログラムを取得し、記憶部228に記憶してもよい。
The
入出力インタフェース225に接続されているドライブ230は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア231が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部228に転送され、記憶される。
The
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図22に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスクを含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア231、または、プログラムが一時的もしくは永続的に格納されるROM222や、記憶部228を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部229を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
As shown in FIG. 22, a program recording medium for storing a program that is installed in a computer and can be executed by the computer is a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (including Digital Versatile Disc), magneto-optical disk), or
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the order described, but is not necessarily performed in time series. Or the process performed separately is also included.
さらに、ネットワークとは、少なくとも2つの装置が接続され、ある装置から、他の装置に対して、情報の伝達をできるようにした仕組みをいう。ネットワークを介して通信する装置は、独立した装置どうしであっても良いし、1つの装置を構成している内部ブロックどうしであっても良い。 Furthermore, a network refers to a mechanism in which at least two devices are connected and information can be transmitted from one device to another device. The devices that communicate via the network may be independent devices, or may be internal blocks that constitute one device.
また、通信とは、無線通信および有線通信は勿論、無線通信と有線通信とが混在した通信、即ち、ある区間では無線通信が行われ、他の区間では有線通信が行われるようなものであっても良い。さらに、ある装置から他の装置への通信が有線通信で行われ、他の装置からある装置への通信が無線通信で行われるようなものであっても良い。 The communication is not only wireless communication and wired communication, but also communication in which wireless communication and wired communication are mixed, that is, wireless communication is performed in a certain section and wired communication is performed in another section. May be. Further, communication from one device to another device may be performed by wired communication, and communication from another device to one device may be performed by wireless communication.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
1 ホームネットワークシステム, 11 ネットワーク, 12 サーバ, 13 チューナ, 14 モニタ, 15 通信装置, 16 ネットワーク, 31 記録部, 32 記憶部, 33 MPEGデコード部, 34 リアルタイムアップコンバータ, 35 再生部, 36 ノンリアルタイム処理部, 37 DVエンコード部, 38 DVデコード部 1 Home network system, 11 networks, 12 servers, 13 tuners, 14 monitors, 15 communication devices, 16 networks, 31 recording units, 32 storage units, 33 MPEG decoding units, 34 real-time upconverters, 35 playback units, 36 non-real-time processing Part, 37 DV encoding part, 38 DV decoding part
Claims (16)
前記第1のコンテンツ信号を、記憶部に記憶させる記憶制御手段と、
前記記憶部に記憶された前記第1のコンテンツ信号の読み出しがユーザにより指示されていないとき、前記第1のコンテンツ信号を読み出し、前記第1のコンテンツ信号から、前記第2のコンテンツ信号よりも高品位な第3のコンテンツ信号を生成するのに必要な第2のパラメータを抽出して、前記記憶部に記憶させる抽出手段と
を備え、
前記生成手段は、前記記憶部に記憶された前記第1のコンテンツ信号の読み出しがユーザにより指示されたとき、前記記憶部に記憶された前記第1のコンテンツ信号と前記第2のパラメータを読み出し、前記第2のパラメータを前記第1のコンテンツ信号に適用して、前記第3のコンテンツ信号をリアルタイムで生成する
コンテンツ処理装置。 A first parameter required to generate a second content signal having higher quality than the first content signal is extracted from the first content signal, and the first parameter is used as the first content signal. Generating means for generating the second content signal in real time by applying to
Storage control means for storing the first content signal in a storage unit;
When the reading of the first content signal stored in the storage unit is not instructed by the user, the first content signal is read, and is higher than the second content signal from the first content signal. Extraction means for extracting a second parameter necessary for generating a quality third content signal and storing the second parameter in the storage unit ;
With
The generation unit reads the first content signal and the second parameter stored in the storage unit when the user instructs to read the first content signal stored in the storage unit, Applying the second parameter to the first content signal to generate the third content signal in real time
Content processing apparatus.
前記第1及び第2のパラメータは、動きベクトル、明るさ、コントラスト、またはフレーム間差分情報である
請求項1に記載のコンテンツ処理装置。 The first to third content signals are image signals,
The content processing apparatus according to claim 1, wherein the first and second parameters are motion vectors, brightness, contrast, or interframe difference information.
前記第1及び第2のパラメータは、インターレース方式の画像信号をプログレッシブ方式の画像信号に変換するためのパラメータ、超解像の画像信号を生成するためのパラメータ、ノイズリダクションのためのパラメータ、手ぶれ補正のためのパラメータ、または輝度信号とクロマ信号とを分離するためのパラメータである
請求項1に記載のコンテンツ処理装置。 The first to third content signals are image signals,
The first and second parameters are a parameter for converting an interlaced image signal to a progressive image signal, a parameter for generating a super-resolution image signal, a parameter for noise reduction, and a camera shake correction. The content processing apparatus according to claim 1, wherein the parameter is a parameter for separating the luminance signal and the chroma signal.
前記第1及び第2のパラメータは、DSDストリーム変換するためのパラメータ、またはサンプリング変換のためのパラメータである
請求項1に記載のコンテンツ処理装置。 The first to third content signals are audio signals,
The content processing apparatus according to claim 1, wherein the first and second parameters are a parameter for DSD stream conversion or a parameter for sampling conversion.
第1のコンテンツ信号から、前記第1のコンテンツ信号よりも高品位な第2のコンテンツ信号を生成するのに必要な第1のパラメータを抽出し、前記第1のパラメータを前記第1のコンテンツ信号に適用して前記第2のコンテンツ信号をリアルタイムで生成する生成ステップと、
前記第1のコンテンツ信号を、記憶部に記憶させる記憶制御ステップと、
前記記憶部に記憶された前記第1のコンテンツ信号の読み出しがユーザにより指示されていないとき、前記第1のコンテンツ信号を読み出し、前記第1のコンテンツ信号から、前記第2のコンテンツ信号よりも高品位な第3のコンテンツ信号を生成するのに必要な第2のパラメータを抽出して、前記記憶部に記憶させる抽出ステップと
を含み、
前記生成ステップは、前記記憶部に記憶された前記第1のコンテンツ信号の読み出しがユーザにより指示されたとき、前記記憶部に記憶された前記第1のコンテンツ信号と前記第2のパラメータを読み出し、前記第2のパラメータを前記第1のコンテンツ信号に適用して、前記第3のコンテンツ信号をリアルタイムで生成する
コンテンツ処理方法。 In a content processing method of a content processing apparatus that processes a content signal,
A first parameter required to generate a second content signal having higher quality than the first content signal is extracted from the first content signal, and the first parameter is used as the first content signal. Generating the second content signal in real time by applying to
A storage control step of storing the first content signal in a storage unit;
When the reading of the first content signal stored in the storage unit is not instructed by the user, the first content signal is read, and is higher than the second content signal from the first content signal. An extraction step of extracting a second parameter necessary for generating a quality third content signal and storing the second parameter in the storage unit ;
Including
The generation step reads the first content signal and the second parameter stored in the storage unit when the user instructs to read the first content signal stored in the storage unit; Applying the second parameter to the first content signal to generate the third content signal in real time
Content processing method.
前記第1のコンテンツ信号を、記憶部に記憶させる記憶制御ステップと、
前記記憶部に記憶された前記第1のコンテンツ信号の読み出しがユーザにより指示されていないとき、前記第1のコンテンツ信号を読み出し、前記第1のコンテンツ信号から、前記第2のコンテンツ信号よりも高品位な第3のコンテンツ信号を生成するのに必要な第2のパラメータを抽出して、前記記憶部に記憶させる抽出ステップと
を含み、
前記生成ステップは、前記記憶部に記憶された前記第1のコンテンツ信号の読み出しがユーザにより指示されたとき、前記記憶部に記憶された前記第1のコンテンツ信号と前記第2のパラメータを読み出し、前記第2のパラメータを前記第1のコンテンツ信号に適用して、前記第3のコンテンツ信号をリアルタイムで生成する
処理をコンピュータに実行させるためのプログラム。 A first parameter required to generate a second content signal having higher quality than the first content signal is extracted from the first content signal, and the first parameter is used as the first content signal. Generating the second content signal in real time by applying to
A storage control step of storing the first content signal in a storage unit;
When the reading of the first content signal stored in the storage unit is not instructed by the user, the first content signal is read, and is higher than the second content signal from the first content signal. An extraction step of extracting a second parameter necessary for generating a quality third content signal and storing the second parameter in the storage unit ;
Including
The generation step reads the first content signal and the second parameter stored in the storage unit when the user instructs to read the first content signal stored in the storage unit; Applying the second parameter to the first content signal to generate the third content signal in real time
A program that causes a computer to execute processing .
記憶部に記憶されている前記第1のコンテンツ信号から、前記第2のコンテンツ信号よりも高品位な第3のコンテンツ信号をノンリアルタイムで生成するノンリアルタイム処理手段と、
前記ノンリアルタイム処理手段により生成された前記第3のコンテンツ信号から、前記リアルタイム処理手段により生成された前記第2のコンテンツ信号を減算して得られる差分を演算し、前記記憶部に記憶させる差分演算手段と、
前記記憶部に記憶されている前記第1のコンテンツ信号の読み出しがユーザにより指示されたとき、前記記憶部より前記第1のコンテンツ信号と前記差分を読み出し、出力する出力手段と、
前記記憶部より読み出された前記第1のコンテンツ信号から、前記リアルタイム処理手段により生成される前記第2のコンテンツ信号と、前記記憶部より読み出された前記差分とを加算して前記第3のコンテンツ信号を生成する加算手段と
を備えるコンテンツ処理装置。 From the first content signal, and real-time processing means for generating a high-quality second content signal in real time than the first content signal,
Non-real time processing means for generating, in non-real time, a third content signal having higher quality than the second content signal from the first content signal stored in the storage unit;
Difference from the third content signal that is generated by the previous SL non-real-time processing means calculates the difference obtained by subtracting the second content signal generated by the real time processing unit, and stores in the storage unit Computing means;
An output means for reading out and outputting the first content signal and the difference from the storage unit when reading of the first content signal stored in the storage unit is instructed by a user ;
From the first content signal read from the storage unit, the second content signal generated by the real-time processing means and the difference read from the storage unit are added to the third content signal. Content processing apparatus comprising: adding means for generating a content signal of
をさらに備える請求項8に記載のコンテンツ処理装置。 Multiplexing means for multiplexing and transmitting the first content signal read from the storage unit and the difference when the user instructs to read the first content signal stored in the storage unit The content processing apparatus according to claim 8, further comprising:
前記多重化手段は、平準化された前記差分を前記第1のコンテンツ信号と多重化する
請求項9に記載のコンテンツ処理装置。 Further comprising leveling means for leveling the difference data amount;
The content processing apparatus according to claim 9 , wherein the multiplexing unit multiplexes the leveled difference with the first content signal.
前記第2のコンテンツ信号は、前記第1のコンテンツ信号よりも高解像度の画像信号であり、
前記第3のコンテンツ信号は、前記第2のコンテンツ信号よりも高解像度の画像信号である
請求項8に記載のコンテンツ処理装置。 The first to third content signals are image signals,
The second content signal is an image signal having a higher resolution than the first content signal ,
The content processing apparatus according to claim 8, wherein the third content signal is an image signal having a resolution higher than that of the second content signal .
前記第1のコンテンツ信号の画素数を、前記第3のコンテンツ信号の画素数に変換する画素数変換手段と、
前記第3のコンテンツ信号の動きベクトルを検出する動きベクトル検出手段と、
検出された動きベクトルに基づいて位置を合わせた異なるフレームの前記第3のコンテンツ信号の差分の絶対値が基準値より小さい場合、異なるフレームの前記第3のコンテンツ信号の平均値を選択し、大きい場合、一方のフレームの前記第3のコンテンツ信号を選択する選択手段と
を備える請求項11に記載のコンテンツ処理装置。 The non-real time processing means includes
The number of pixels of the first content signal, said third pixel number conversion means for converting the number of pixels content signal,
Motion vector detecting means for detecting a motion vector of the third content signal;
If the absolute value of the difference between the third content signals of different frames aligned based on the detected motion vector is smaller than a reference value, the average value of the third content signals of different frames is selected and larger Selecting means for selecting the third content signal of one frame;
Content processing apparatus according to claim 11 comprising a.
前記第1のコンテンツ信号としてのインターレース方式の低解像度の画像信号の動きを判定する判定手段と、
前記第1のコンテンツ信号をフィールド間補間して、新たなラインのコンテンツ信号を生成するフィールド間補間手段と、
前記第1のコンテンツ信号をフィールド内補間して、新たなラインのコンテンツ信号を生成するフィールド内補間手段と、
判定された動きに基づいて、フィールド間補間により生成されたコンテンツ信号またはフィールド内補間により生成されたコンテンツ信号を選択する選択手段と、
前記第1のコンテンツ信号と選択された前記コンテンツ信号とを合成してプログレッシブ方式のコンテンツ信号を生成する合成手段と、
合成された前記コンテンツ信号を垂直方向と水平方向に補間して、より画素数が多い高解像度の前記第2のコンテンツ信号を生成する生成手段と
を備える請求項11に記載のコンテンツ処理装置。 The real-time processing means includes
Determining means for determining the movement of an interlaced low-resolution image signal as the first content signal;
Said first content signal by interpolating between fields, and inter-field interpolation means for generating a content signal of a new line,
Said first content signal by interpolating the field, and field interpolation means for generating a content signal of a new line,
Selection means for selecting a content signal generated by inter-field interpolation or a content signal generated by intra-field interpolation based on the determined motion;
Synthesizing means for generating a content signal of progressive system by combining with the content signal selected as the first content signal,
Generating means for interpolating the synthesized content signal in a vertical direction and a horizontal direction to generate the second content signal having a higher resolution and a larger number of pixels;
Content processing apparatus according to claim 11 comprising a.
第1のコンテンツ信号から、前記第1のコンテンツ信号よりも高品位な第2のコンテンツ信号をリアルタイムで生成するリアルタイム処理ステップと、
記憶部に記憶されている前記第1のコンテンツ信号から、前記第2のコンテンツ信号よりも高品位な第3のコンテンツ信号をノンリアルタイムで生成するノンリアルタイム処理ステップと、
前記ノンリアルタイム処理ステップにより生成された前記第3のコンテンツ信号から、前記リアルタイム処理ステップにより生成された前記第2のコンテンツ信号を減算して得られる差分を演算し、前記記憶部に記憶させる差分演算ステップと、
前記記憶部に記憶されている前記第1のコンテンツ信号の読み出しがユーザにより指示されたとき、前記記憶部より前記第1のコンテンツ信号と前記差分を読み出し、出力する出力ステップと、
前記記憶部より読み出された前記第1のコンテンツ信号から、前記リアルタイム処理ステップにより生成される前記第2のコンテンツ信号と、前記記憶部より読み出された前記差分とを加算して前記第3のコンテンツ信号を生成する加算ステップと
を含むコンテンツ処理方法。 In a content processing method of a content processing apparatus that processes a content signal,
From the first content signal, and real-time processing step of generating a high-quality second content signal in real time than the first content signal,
A non-real-time processing step for generating, in non-real time, a third content signal having higher quality than the second content signal from the first content signal stored in the storage unit;
Difference from the third content signal that is generated by the previous SL non-real time processing steps, the second content signal generated by the real-time processing step calculates the difference obtained by subtracting, to be stored in the storage unit A calculation step;
An output step of reading out and outputting the first content signal and the difference from the storage unit when reading of the first content signal stored in the storage unit is instructed by a user ;
From the first content signal read from the storage unit, the second content signal generated by the real-time processing step and the difference read from the storage unit are added to add the third content signal. An adding step for generating a content signal of
Content processing method, including.
記憶部に記憶されている前記第1のコンテンツ信号から、前記第2のコンテンツ信号よりも高品位な第3のコンテンツ信号をノンリアルタイムで生成するノンリアルタイム処理ステップと、
前記ノンリアルタイム処理ステップにより生成された前記第3のコンテンツ信号から、前記リアルタイム処理ステップにより生成された前記第2のコンテンツ信号を減算して得られる差分を演算し、前記記憶部に記憶させる差分演算ステップと、
前記記憶部に記憶されている前記第1のコンテンツ信号の読み出しがユーザにより指示されたとき、前記記憶部より前記第1のコンテンツ信号と前記差分を読み出し、出力する出力ステップと、
前記記憶部より読み出された前記第1のコンテンツ信号から、前記リアルタイム処理ステップにより生成される前記第2のコンテンツ信号と、前記記憶部より読み出された前記差分とを加算して前記第3のコンテンツ信号を生成する加算ステップと
を含む処理をコンピュータに実行させるためのプログラム。 From the first content signal, and real-time processing step of generating a high-quality second content signal in real time than the first content signal,
A non-real-time processing step for generating, in non-real time, a third content signal having higher quality than the second content signal from the first content signal stored in the storage unit;
Difference from the third content signal that is generated by the previous SL non-real time processing steps, the second content signal generated by the real-time processing step calculates the difference obtained by subtracting, to be stored in the storage unit A calculation step;
An output step of reading out and outputting the first content signal and the difference from the storage unit when reading of the first content signal stored in the storage unit is instructed by a user ;
From the first content signal read from the storage unit, the second content signal generated by the real-time processing step and the difference read from the storage unit are added to add the third content signal. An adding step for generating a content signal of
A program for causing a computer to execute processing including
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006128388A JP4930761B2 (en) | 2006-05-02 | 2006-05-02 | Content processing apparatus and method, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006128388A JP4930761B2 (en) | 2006-05-02 | 2006-05-02 | Content processing apparatus and method, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007300542A JP2007300542A (en) | 2007-11-15 |
JP4930761B2 true JP4930761B2 (en) | 2012-05-16 |
Family
ID=38769630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006128388A Expired - Fee Related JP4930761B2 (en) | 2006-05-02 | 2006-05-02 | Content processing apparatus and method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4930761B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010045607A (en) * | 2008-08-13 | 2010-02-25 | Sony Corp | Image processing apparatus and method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3363036B2 (en) * | 1996-08-23 | 2003-01-07 | ケイディーディーアイ株式会社 | Video encoding bit stream converter |
JP2002330438A (en) * | 2001-04-27 | 2002-11-15 | Victor Co Of Japan Ltd | Coding system converter |
JP4305904B2 (en) * | 2003-09-22 | 2009-07-29 | Kddi株式会社 | Partial image encoding device |
JP2005184495A (en) * | 2003-12-19 | 2005-07-07 | Kddi Corp | Moving picture encoding apparatus and method therefor |
CN101010949B (en) * | 2004-09-22 | 2012-06-13 | 松下电器产业株式会社 | Recording/reproducing device |
JP2006092399A (en) * | 2004-09-27 | 2006-04-06 | Shibasoku:Kk | Image signal processor |
-
2006
- 2006-05-02 JP JP2006128388A patent/JP4930761B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007300542A (en) | 2007-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8269886B2 (en) | Methods and systems for improving low-resolution video | |
US9094657B2 (en) | Electronic apparatus and method | |
KR100655837B1 (en) | Data processing apparatus, data processing method, and recording medium therefor | |
US8107007B2 (en) | Image processing apparatus | |
US8385422B2 (en) | Image processing apparatus and image processing method | |
CN100417188C (en) | Module self-adaptive motion compensation | |
US8373797B2 (en) | Image display apparatus, signal processing apparatus, image display method, and computer program product | |
JP4534723B2 (en) | Image display device, image processing device, and image processing method | |
KR101098630B1 (en) | Motion adaptive upsampling of chroma video signals | |
JP4513873B2 (en) | Video processing apparatus and video processing method | |
JP2009111442A (en) | Video transmission system and method | |
JP4930761B2 (en) | Content processing apparatus and method, program, and recording medium | |
JP3898546B2 (en) | Image scanning conversion method and apparatus | |
US20100079666A1 (en) | Video processing apparatus and video processing method | |
JP2007311963A (en) | Image display device, signal processor and image processing method, and computer program | |
JP2006074684A (en) | Image processing method and apparatus | |
JP2007288483A (en) | Image converting apparatus | |
TWI245198B (en) | Deinterlace method and method for generating deinterlace algorithm of display system | |
KR101144435B1 (en) | Methods of edge-based deinterlacing using weight and image processing devices using the same | |
KR20110009021A (en) | Display apparatus and method for displaying thereof | |
JP4552263B2 (en) | Digital signal processing apparatus and method, and digital image signal processing apparatus and method | |
WO2022057221A1 (en) | Receiving device and non-volatile storage medium | |
JP2007336239A (en) | Digital broadcast receiver, and storing/reproducing method of digital broadcast signal | |
JP2007019708A (en) | Image processing apparatus | |
JP2008061067A (en) | Image display system, reproducing apparatus, and display apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090422 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120119 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120201 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150224 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |