JP2009194550A - Image quality adjustment device, image quality adjusting method, and program - Google Patents

Image quality adjustment device, image quality adjusting method, and program Download PDF

Info

Publication number
JP2009194550A
JP2009194550A JP2008032106A JP2008032106A JP2009194550A JP 2009194550 A JP2009194550 A JP 2009194550A JP 2008032106 A JP2008032106 A JP 2008032106A JP 2008032106 A JP2008032106 A JP 2008032106A JP 2009194550 A JP2009194550 A JP 2009194550A
Authority
JP
Japan
Prior art keywords
content
image quality
video
feature point
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008032106A
Other languages
Japanese (ja)
Inventor
Hiromasa Naganuma
宏昌 長沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008032106A priority Critical patent/JP2009194550A/en
Publication of JP2009194550A publication Critical patent/JP2009194550A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve output image quality by performing proper image quality adjustment of only a needed part during reproducing content. <P>SOLUTION: There is provided the image quality adjustment device including: a characteristic point extracting part 60 for analyzing a video signal of content recorded in a recording medium and extracting characteristic point information of the content; an output image quality adjusting part 70 for adjusting output image quality of video of the content during reproducing the content recorded in the recording medium; and an image quality adjustment control part 114 for controlling the output image quality adjusting part on the basis of the characteristic point information of the content. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画質調整装置、画質調整方法及びプログラムに関し、特に、出力画質を向上させるための画質調整装置、画質調整方法及びプログラムに関する。   The present invention relates to an image quality adjustment device, an image quality adjustment method, and a program, and more particularly, to an image quality adjustment device, an image quality adjustment method, and a program for improving output image quality.

テレビジョン放送の番組コンテンツなどの映像・音声デジタルデータを記録及び再生可能なデジタル記録再生装置として、例えば、デジタルビデオ装置、DVD(Digital Versatile Disk)レコーダ・プレーヤ、HDD(Hard Disk Drive)レコーダ・プレーヤなどが普及している。これらのデジタル記録再生装置では、従来のアナログ方式の地上波放送、BS放送のみならず、デジタル方式のHDTV(High Definition TeleVision:高精細テレビジョン)放送の高精細画像を記録することができる。   As a digital recording / reproducing apparatus capable of recording and reproducing video / audio digital data such as television broadcast program content, for example, a digital video apparatus, a DVD (Digital Versatile Disk) recorder / player, and an HDD (Hard Disk Drive) recorder / player Etc. are prevalent. These digital recording / reproducing apparatuses can record high-definition images of not only conventional analog terrestrial broadcasting and BS broadcasting, but also digital HDTV (High Definition TeleVision) broadcasting.

かかる記録再生装置では、記録した映像コンテンツの再生時に、出力画質を向上させて、より優れた画質の映像をユーザに提供することが要求されている。このため、従来では、記録再生装置内に設けられた出力画質調整ブロックによって、コンテンツの再生時に、出力画質を独自のアルゴリズムに従って制御する技術が提案されている。   Such a recording / reproducing apparatus is required to improve the output image quality and to provide the user with a better image quality when reproducing the recorded video content. For this reason, conventionally, a technique has been proposed in which an output image quality adjustment block provided in a recording / playback apparatus controls the output image quality according to a unique algorithm during content playback.

特開2005−328395号公報JP 2005-328395 A

しかしながら、上記従来の出力画質制御技術では、出力画質調整ブロックは、コンテンツの映像の特徴に関わらず、予め設定された条件に従って、入力映像に対して画一的な画質制御(例えば、ノイズリダクション機能のオン/オフのみの制御)を行うものであった。また、映像の特徴を考慮して出力画質を制御する技術もあったが、かかる技術であっても、番組コンテンツ全体ではなく、動画の一部分(例えば、前後数フレーム)ずつを参照して画質改善を試みるものであった。例えば、画質改善が作用する箇所の前後数フレームの情報を用いて、出力画質調整ブロックを制御して、ノイズリダクションなどの画質制御を行っていた。   However, in the above-described conventional output image quality control technology, the output image quality adjustment block performs uniform image quality control (for example, noise reduction function) on the input image according to preset conditions regardless of the characteristics of the content image. (Only on / off control). There was also a technology that controls the output image quality in consideration of the video characteristics, but even with this technology, image quality is improved by referring to a part of the video (for example, several frames before and after) instead of the entire program content. It was something to try. For example, image quality control such as noise reduction is performed by controlling the output image quality adjustment block using information of several frames before and after the location where the image quality improvement is applied.

かかる従来の手法では、コンテンツの記録時にコンテンツ全体の解析を行っておらず、そのコンテンツが表す番組の全体構成が分からないため、コンテンツ全体に不必要な画質制御を行ったり、不適切な画質制御を行ってしまう可能性があった。例えば、ノイズのない高画質の映画コンテンツであるにもかかわらず、不必要な画質調整を施してしまったり、番組コンテンツを構成する本編映像とCM映像とに対して、同じような画質調整を施してしまったりする場合がある。   In such a conventional method, the entire content is not analyzed when the content is recorded, and the entire configuration of the program represented by the content is not known. Therefore, unnecessary image quality control or inappropriate image quality control is performed on the entire content. There was a possibility of going. For example, even though it is a high-quality movie content with no noise, unnecessary image quality adjustment is performed, or the same image quality adjustment is applied to the main video and CM video that make up the program content. Sometimes

以上のように従来では、記録したコンテンツの再生時に、再生映像の一部の情報を解析して出力画質を制御する方法はあったが、予めコンテンツ全体の特徴情報を解析しておき、コンテンツの再生時に、その特徴情報を用いて出力画質を制御するものはなかった。   As described above, conventionally, there has been a method of controlling the output image quality by analyzing a part of the information of the reproduced video when reproducing the recorded content. However, by analyzing the characteristic information of the entire content in advance, None of the output image quality was controlled using the feature information during playback.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、コンテンツの再生時に、必要な部分にのみ適切な画質調整を行って、出力画質を向上させることが可能な、新規かつ改良された画質調整装置、画質調整方法及びプログラムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to improve output image quality by performing appropriate image quality adjustment only on necessary portions during content playback. It is an object of the present invention to provide a new and improved image quality adjustment apparatus, image quality adjustment method, and program capable of performing the above.

上記課題を解決するために、本発明のある観点によれば、記録媒体に記録されるコンテンツの映像信号を解析して、前記コンテンツの映像の特徴点情報を抽出する特徴点抽出部と;前記記録媒体に記録された前記コンテンツを再生するときに、前記コンテンツの映像の出力画質を調整する出力画質調整部と;前記コンテンツの前記特徴点情報に基づいて、前記出力画質調整部を制御する画質調整制御部と;を備えることを特徴とする、画質調整装置が提供される。   In order to solve the above-described problem, according to one aspect of the present invention, a feature point extraction unit that analyzes a video signal of content recorded on a recording medium and extracts feature point information of the video of the content; An output image quality adjusting unit that adjusts an output image quality of video of the content when reproducing the content recorded on a recording medium; and an image quality that controls the output image quality adjusting unit based on the feature point information of the content An image quality adjusting apparatus comprising: an adjustment control unit.

かかる構成により、特徴点抽出部により、記録媒体に記録されるコンテンツの映像信号が解析され、コンテンツの映像の特徴点情報が抽出され、記録媒体に記録されたコンテンツを再生するときに、画質調整制御部により、コンテンツの特徴点情報に基づいて、コンテンツの映像の出力画質を調整する出力画質調整部が制御される。これにより、コンテンツの記録時又は再生時に、コンテンツの特徴点情報を予め抽出しておき、コンテンツの次の再生時に、特徴点情報に応じて、コンテンツの映像の出力画質を好適に調整できる。   With this configuration, the feature point extraction unit analyzes the video signal of the content recorded on the recording medium, extracts the feature point information of the video of the content, and adjusts the image quality when reproducing the content recorded on the recording medium. The control unit controls an output image quality adjustment unit that adjusts the output image quality of the content video based on the feature point information of the content. Thereby, the feature point information of the content is extracted in advance at the time of recording or reproducing the content, and the output image quality of the content video can be suitably adjusted according to the feature point information at the next reproduction of the content.

また、前記特徴点情報に基づいて、前記出力画質調整部を制御するための制御ルーチンを前記コンテンツごとに作成する制御ルーチン作成部をさらに備え、前記記録媒体に記録された前記コンテンツを再生するときに、前記画質調整制御部は、当該コンテンツに対応する前記制御ルーチンに基づいて、前記出力画質調整部を制御するようにしてもよい。かかる構成により、制御ルーチン作成部により、特徴点情報に基づいて、出力画質調整部を制御するための制御ルーチンがコンテンツごとに作成され、コンテンツの再生時に、当該コンテンツに対応する制御ルーチンに基づいて、出力画質調整部が制御される。これにより、コンテンツの記録時又は再生時に、コンテンツの特徴点情報に応じた制御ルーチンを予め作成しておき、コンテンツの次の再生時に、当該制御ルーチンに従って、コンテンツの映像の出力画質を好適に調整できる。   In addition, a control routine creating unit that creates a control routine for controlling the output image quality adjusting unit for each content based on the feature point information is provided, and the content recorded on the recording medium is reproduced. The image quality adjustment control unit may control the output image quality adjustment unit based on the control routine corresponding to the content. With this configuration, a control routine for controlling the output image quality adjustment unit is created for each content based on the feature point information by the control routine creation unit, and based on the control routine corresponding to the content when the content is played back The output image quality adjustment unit is controlled. As a result, a control routine corresponding to the feature point information of the content is created in advance at the time of recording or playback of the content, and the output image quality of the content video is suitably adjusted according to the control routine at the next playback of the content. it can.

さらに、前記コンテンツの属性情報を取得する属性情報取得部をさらに備え、前記制御ルーチン作成部は、前記特徴点情報及び前記コンテンツの属性情報に基づいて、前記制御ルーチンを前記コンテンツごとに作成するようにしてもよい。かかる構成により、属性情報取得部により、コンテンツの属性情報が取得され、制御ルーチン作成部により、コンテンツの特徴点情報及び属性情報に基づいて、制御ルーチンがコンテンツごとに作成され、コンテンツの再生時に、この制御ルーチンに基づいて出力画質調整部が制御される。これにより、コンテンツの記録時又は再生時に、コンテンツの特徴点情報及び属性情報に応じた制御ルーチンを予め作成しておき、コンテンツの次の再生時に、当該制御ルーチンに従って、コンテンツの映像の出力画質を好適に調整できる。   Furthermore, an attribute information acquisition unit that acquires attribute information of the content is further provided, and the control routine creation unit creates the control routine for each content based on the feature point information and the content attribute information. It may be. With this configuration, the attribute information acquisition unit acquires content attribute information, and the control routine generation unit generates a control routine for each content based on the feature point information and attribute information of the content. The output image quality adjustment unit is controlled based on this control routine. Thus, a control routine corresponding to the feature point information and attribute information of the content is created in advance at the time of recording or playback of the content, and the output image quality of the content video is set according to the control routine at the next playback of the content. It can adjust suitably.

また、上記課題を解決するために、本発明の別の観点によれば、コンテンツを記録媒体に記録するとき、或いは、前記記録媒体に記録されたコンテンツを再生するときに、前記コンテンツの映像信号を解析して、前記コンテンツの映像の特徴点情報を抽出する特徴点抽出ステップと;前記記録媒体に記録された前記コンテンツを次に再生するときに、前記コンテンツの映像の出力画質を調整する出力画質調整部を、前記コンテンツの前記特徴点情報に基づいて制御しながら、前記コンテンツの映像の出力画質を調整する出力画質調整ステップと;を含むことを特徴とする、画質調整方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a video signal of the content is recorded when the content is recorded on a recording medium or when the content recorded on the recording medium is reproduced. And a feature point extracting step of extracting feature point information of the video of the content; and an output for adjusting an output image quality of the video of the content when the content recorded on the recording medium is reproduced next An image quality adjustment step of adjusting an output image quality of a video of the content while controlling an image quality adjustment unit based on the feature point information of the content. .

また、上記課題を解決するために、本発明の別の観点によれば、コンテンツを記録媒体に記録するとき、或いは、前記記録媒体に記録されたコンテンツを再生するときに、前記コンテンツの映像信号を解析して、前記コンテンツの映像の特徴点情報を抽出する特徴点抽出ステップと;前記記録媒体に記録された前記コンテンツを次に再生するときに、前記コンテンツの映像の出力画質を調整する出力画質調整部を、前記コンテンツの前記特徴点情報に基づいて制御しながら、前記コンテンツの映像の出力画質を調整する出力画質調整ステップと;をコンピュータに実行させるためのプログラムが提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a video signal of the content is recorded when the content is recorded on a recording medium or when the content recorded on the recording medium is reproduced. And a feature point extracting step of extracting feature point information of the video of the content; and an output for adjusting an output image quality of the video of the content when the content recorded on the recording medium is reproduced next There is provided a program for causing a computer to execute an output image quality adjustment step of adjusting an output image quality of a video of the content while controlling an image quality adjustment unit based on the feature point information of the content.

以上のように、予めコンテンツを記録媒体に記録するときなどに、コンテンツの映像全体を解析した特徴点情報を記録しておき、記録媒体に記録されたコンテンツの再生時には、そのコンテンツの特徴点情報に応じて、出力画質調整部を動的に制御しながら再生を行うことができる。   As described above, the feature point information obtained by analyzing the entire video of the content is recorded when the content is recorded in advance on the recording medium, and the feature point information of the content is recorded when the content recorded on the recording medium is reproduced. Accordingly, reproduction can be performed while dynamically controlling the output image quality adjustment unit.

以上説明したように本発明によれば、コンテンツの再生時に、必要な部分にのみ適切な画質調整を行って、出力画質を向上させることができる。   As described above, according to the present invention, it is possible to improve the output image quality by performing appropriate image quality adjustments only on necessary portions during content reproduction.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

まず、本発明の第1の実施形態にかかる画質調整装置が適用された記録再生装置の概要を説明する。本実施形態にかかる記録再生装置は、外部から提供された映像コンテンツを、HDD、光ディスク等の記録媒体に記録し、かつ、当該記録媒体に記録された映像コンテンツを再生可能な装置である。この記録再生装置は、例えば、光ディスクを記録媒体とする光ディスクレコーダと、ハードディスクを記録媒体とするHDDレコーダとの複合機として構成される(図1参照。)。   First, an outline of a recording / reproducing apparatus to which the image quality adjusting apparatus according to the first embodiment of the present invention is applied will be described. The recording / reproducing apparatus according to the present embodiment is an apparatus capable of recording video content provided from the outside on a recording medium such as an HDD or an optical disk and reproducing the video content recorded on the recording medium. This recording / reproducing apparatus is configured, for example, as a composite machine of an optical disk recorder using an optical disk as a recording medium and an HDD recorder using a hard disk as a recording medium (see FIG. 1).

ここで、映像コンテンツ(以下、単に「コンテンツ」と称する場合もある。)は、例えば、放送局から受信したテレビジョン放送の番組コンテンツや、外部入力されたビデオプログラム、セルDVD、BD(Blu−ray DIsk)等から読み出したビデオプログラムなどを含む。なお、テレビジョン放送は、例えば、地上波デジタル/アナログ放送、BS(Broadcasting Satellite)放送、CS(Communication Satellite)放送など、放送電波を介して番組コンテンツを放送するものや、ケーブルテレビ放送、IPTV(Internet Protocol TV)又はVOD(Video On Demand)など、ネットワークを介して番組コンテンツを配信するものも含む。   Here, the video content (hereinafter may be simply referred to as “content”) is, for example, a television broadcast program content received from a broadcasting station, an externally input video program, a cell DVD, or a BD (Blu- video program read out from (ray DISk) or the like. Note that television broadcasts include, for example, terrestrial digital / analog broadcasts, BS (Broadcasting Satellite) broadcasts, CS (Communication Satellite) broadcasts, broadcast program contents via broadcast radio waves, cable TV broadcasts, IPTV ( Also included are programs that distribute program content via a network, such as Internet Protocol TV (VOD) or Video On Demand (VOD).

次に、本実施形態にかかる記録再生装置の特徴を概略的に説明する。本実施形態にかかる記録再生装置は、かかる映像コンテンツの録画時或いは再生時に、映像コンテンツの映像全体を解析して、コンテンツの特徴的な部分を表す特徴点情報を予め取得しておき、その映像コンテンツの次回再生時に、上記特徴点情報を再生映像の画質調整に適用することを特徴としている。即ち、本実施形態にかかる記録再生装置は、番組コンテンツの記録時等に、その番組の内容を解析して、その番組の映像の特徴を表す情報(特徴点情報)を記録しておく。そして、当該記録再生装置は、上記番組コンテンツを次回再生するときに、上記特徴点情報を用いて、その番組コンテンツの出力画質調整機能を動的に制御することにより、出力映像の画質を向上させることができる。   Next, features of the recording / reproducing apparatus according to the present embodiment will be schematically described. The recording / reproducing apparatus according to the present embodiment analyzes the entire video of the video content at the time of recording or reproducing the video content, acquires in advance feature point information representing a characteristic part of the content, and the video The feature point information is applied to image quality adjustment of the reproduced video at the next reproduction of the content. That is, the recording / reproducing apparatus according to the present embodiment analyzes the contents of the program when recording the program content and records information (feature point information) representing the video characteristics of the program. Then, when the program content is reproduced next time, the recording / reproducing apparatus uses the feature point information to dynamically control the output image quality adjustment function of the program content, thereby improving the image quality of the output video. be able to.

より具体的に説明すると、記録再生装置は、テレビジョン放送番組や映画等の映像コンテンツの記録時に、当該映像コンテンツの映像全体を解析して、例えば、番組コンテンツのシーンチェンジ、フェード、クロスフェード、人物の登場シーン、テロップが大きいシーンなどを検出し、これらを特徴点情報として記録しておく。そして、映像コンテンツの再生時において出力画質調整機能を制御する際に、通常の画質調整処理の制御パラメータに、上記特徴点情報でフィードバックをかけて、映像の特徴に応じて出力画質調整を動的に制御する。この際、ユーザは、解放された設定項目を切り替えることで、上記特徴点情報を画質調整にどの程度反映させるかを、選択することが可能となっている。以下に、かかる特徴を実現するための、本実施形態にかかる記録再生装置の構成について詳細に説明する。   More specifically, the recording / reproducing apparatus analyzes the entire video content video when recording video content such as a television broadcast program or a movie, for example, scene change, fade, crossfade, A scene where a person appears or a scene with a large telop is detected and recorded as feature point information. When controlling the output image quality adjustment function during playback of video content, feedback is given to the control parameters for normal image quality adjustment processing using the above feature point information, and output image quality adjustment is dynamically performed according to the video characteristics. To control. At this time, the user can select how much the feature point information is reflected in the image quality adjustment by switching the released setting items. Hereinafter, the configuration of the recording / reproducing apparatus according to the present embodiment for realizing such characteristics will be described in detail.

次に、図1を参照して、本実施形態にかかる記録再生装置10のハードウェア構成について説明する。図1は、本実施形態にかかる記録再生装置10の構成を示すブロック図である。なお、図1中の「A」は音声信号を、「V」は映像信号を示す。   Next, a hardware configuration of the recording / reproducing apparatus 10 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of a recording / reproducing apparatus 10 according to the present embodiment. In FIG. 1, “A” indicates an audio signal, and “V” indicates a video signal.

図1に示すように、記録再生装置10は、アナログチューナー11と、A/D変換器12と、アナログ入力端子13と、DV(Digital Video)入力端子14と、DVデコーダ15と、デジタルチューナー16と、i.LINK端子17と、USB端子18と、通信部19と、AVエンコーダ20と、ストリームプロセッサ30と、AVデコーダ40と、スケーラ(scaler)42と、オーディオプロセッサ44と、ハードディスクドライブ(HDD)52と、光ディスクドライブ54と、特徴点抽出ブロック60と、出力画質調整ブロック70と、グラフィック処理部80と、ディスプレイ処理部82と、D/A変換器84と、ROM(Read Only Memory)92と、RAM(Random Access Memory)94と、ユーザインタフェース96と、CPU(Central Processing Unit)100と、を備える。   As shown in FIG. 1, the recording / reproducing apparatus 10 includes an analog tuner 11, an A / D converter 12, an analog input terminal 13, a DV (Digital Video) input terminal 14, a DV decoder 15, and a digital tuner 16. And i. LINK terminal 17, USB terminal 18, communication unit 19, AV encoder 20, stream processor 30, AV decoder 40, scaler 42, audio processor 44, hard disk drive (HDD) 52, Optical disk drive 54, feature point extraction block 60, output image quality adjustment block 70, graphic processing unit 80, display processing unit 82, D / A converter 84, ROM (Read Only Memory) 92, RAM ( Random Access Memory (94), a user interface 96, and a CPU (Central Processing Unit) 100 are provided.

アナログチューナー11は、アナログ放送用のアンテナ1で受信した放送電波から、目的のチャンネルを選局し、そのチャンネルの電波の復調処理を行って、番組コンテンツの受信信号(映像及び音声アナログ信号)を生成する。さらに、アナログチューナー11は、この受信信号に対して、例えば中間周波の増幅処理、色信号の分離、色差信号の生成、同期信号の抽出などといった所定の映像信号処理を行って、映像信号を出力する。A/D変換器12は、上記アナログチューナー11やアナログ入力端子13等から入力された映像及び音声のアナログ信号を所定のサンプリング周波数でデジタル信号に変換して、AVエンコーダ20に出力する。なお、アナログ入力端子13には、外部機器2から、映像及び音声のアナログ信号が入力される。また、DV入力端子14には、DV方式のデジタルビデオカメラ等の外部機器3から、映像及び音声のDV信号が入力される。DVデコーダ15は、このDV信号をデコードしてAVエンコーダ20に出力する。   The analog tuner 11 selects a target channel from broadcast radio waves received by the antenna 1 for analog broadcasting, performs demodulation processing of the radio waves of the channel, and receives a program content reception signal (video and audio analog signal). Generate. Further, the analog tuner 11 performs predetermined video signal processing such as intermediate frequency amplification processing, color signal separation, color difference signal generation, synchronization signal extraction, and the like on the received signal, and outputs a video signal. To do. The A / D converter 12 converts video and audio analog signals input from the analog tuner 11, the analog input terminal 13, and the like into digital signals at a predetermined sampling frequency, and outputs the digital signals to the AV encoder 20. Note that video and audio analog signals are input from the external device 2 to the analog input terminal 13. The DV input terminal 14 is supplied with video and audio DV signals from an external device 3 such as a DV digital video camera. The DV decoder 15 decodes this DV signal and outputs it to the AV encoder 20.

デジタルチューナー16は、衛生放送又は地上波デジタル放送用のアンテナ4で受信した放送電波から、目的のチャンネルを選局し、そのチャンネルの番組コンテンツの映像及び音声デジタルデータ(ビットストリーム)をストリームプロセッサ30に出力する。また、i.LINK端子17、USB端子18等の外部入力端子には、HDV(High Definition Video)方式のデジタルビデオカメラ等の外部機器5、6が接続される。この外部機器5からIEEE1394方式で転送された映像及び音声のHDV信号(ストリーム)が、i.LINK端子17を介してストリームプロセッサ30に入力される。通信部19は、イーサネット(登録商標)7等のIPネットワークを介して、外部装置(図示せず。)との間で各種データを送受信する。例えば、通信部19は、イーサネット7等を介して配信されるIPTVの番組コンテンツの映像及び音声信号を受信して、ストリームプロセッサ30に出力する。   The digital tuner 16 selects a target channel from broadcast radio waves received by the antenna 4 for sanitary broadcasting or terrestrial digital broadcasting, and the stream processor 30 selects video and audio digital data (bitstream) of program content of the channel. Output to. I. External devices 5 and 6 such as HDV (High Definition Video) type digital video cameras are connected to external input terminals such as the LINK terminal 17 and the USB terminal 18. Video and audio HDV signals (streams) transferred from the external device 5 by the IEEE 1394 method are i. The signal is input to the stream processor 30 via the LINK terminal 17. The communication unit 19 transmits and receives various data to and from an external device (not shown) via an IP network such as Ethernet (registered trademark) 7. For example, the communication unit 19 receives video and audio signals of IPTV program content distributed via the Ethernet 7 or the like, and outputs them to the stream processor 30.

AVエンコーダ20は、映像及び音声信号をエンコード(圧縮符号化)するエンコード部の一例として構成されたハードウェアである。このAVエンコーダ20は、上述のA/D変換器12、DVデコーダ15、後述のスケーラ42、オーディオプロセッサ44等から入力された映像及び音声デジタル信号を、所定の圧縮符号化形式で圧縮符号化する。このAVエンコーダ20は、HD(High Definition)映像及びSD(Standard Definition)映像に対応可能な高性能のエンコーダであり、SD解像度の映像信号のみならず、HD解像度の映像信号もエンコード可能である。また、このAVエンコーダ20は、ステレオ音声及びマルチチャンネル音声に対応可能なエンコーダであり、2チャンネルの音声信号のみならず、マルチチャンネルの音声信号もエンコード可能である。かかるAVエンコーダ20は、記録対象のコンテンツの映像信号又は音声信号を、CPU100により決定された記録モードに対応するビットレートでエンコードする。さらに、AVエンコーダ20は、このようにエンコードした映像/音声信号の圧縮データ(ビットストリーム)を、ストリームプロセッサ30に出力する。   The AV encoder 20 is hardware configured as an example of an encoding unit that encodes (compresses and encodes) video and audio signals. The AV encoder 20 compresses and encodes video and audio digital signals input from the A / D converter 12, DV decoder 15, scaler 42, audio processor 44, and the like described above in a predetermined compression encoding format. . The AV encoder 20 is a high-performance encoder that can handle HD (High Definition) video and SD (Standard Definition) video, and can encode not only SD resolution video signals but also HD resolution video signals. The AV encoder 20 is an encoder that can handle stereo audio and multi-channel audio, and can encode not only 2-channel audio signals but also multi-channel audio signals. The AV encoder 20 encodes the video signal or audio signal of the content to be recorded at a bit rate corresponding to the recording mode determined by the CPU 100. Further, the AV encoder 20 outputs the compressed data (bit stream) of the video / audio signal thus encoded to the stream processor 30.

ストリームプロセッサ30は、記録媒体に対するデータの記録時又は再生時に、記録対象又は再生対象のデータ(ストリーム)に対して所定のデータ処理を行う。例えば、データ記録時には、ストリームプロセッサ30は、上記AVエンコーダ20でエンコードされた圧縮データを多重化(Multiplex)及び暗号化して、バッファ制御しつつ、記録部50(HDD52又は光ディスクドライブ54など)の記録媒体に記録する。また、データ再生時には、ストリームプロセッサ30は、記録部50(HDD52又は光ディスクドライブ54など)の記録媒体から読み出された圧縮データを、暗号解読及び分離化(DeMultiplex)してAVデコーダ40に出力する。   The stream processor 30 performs predetermined data processing on data to be recorded or reproduced (stream) at the time of recording or reproducing data on the recording medium. For example, at the time of data recording, the stream processor 30 multiplexes and encrypts the compressed data encoded by the AV encoder 20 and performs buffer control while recording data in the recording unit 50 (HDD 52 or optical disk drive 54). Record on media. During data reproduction, the stream processor 30 decrypts and separates (DeMultiplex) the compressed data read from the recording medium of the recording unit 50 (such as the HDD 52 or the optical disk drive 54) and outputs the compressed data to the AV decoder 40. .

AVデコーダ40は、圧縮された映像及び音声信号をデコード(復号)するデコード部の一例として構成されたハードウェアである。このAVデコーダ40は、ストリームプロセッサ30から入力された映像及び音声の圧縮データを所定の圧縮符号化方式で復号(圧縮データの伸張)する。   The AV decoder 40 is hardware configured as an example of a decoding unit that decodes (decodes) compressed video and audio signals. The AV decoder 40 decodes (decompresses compressed data) the compressed video and audio data input from the stream processor 30 using a predetermined compression encoding method.

上記のようなAVエンコーダ20及びAVデコーダ40で用いる圧縮符号化方式(コーデックタイプ)としては、映像については、例えば、MPEG2、H.264 AVC(Advanced Video Coding)、VC1等を使用できる。また、音声については、例えば、Dolby AC3、MPEG2 AAC(Advanced Audio Coding)、LPCM(Linear Pulse Code Modulation)等を使用できる。   As the compression encoding method (codec type) used in the AV encoder 20 and the AV decoder 40 as described above, for example, MPEG2, H. H.264 AVC (Advanced Video Coding), VC1 and the like can be used. For audio, for example, Dolby AC3, MPEG2 AAC (Advanced Audio Coding), LPCM (Linear Pulse Code Modulation) and the like can be used.

また、上記のように、記録再生装置10には、外部から多様な形式の映像/音声信号が入力される。この映像信号の形式(画サイズ)としては、映像の品質に応じて、例えば、「480i」、「480p」、「720p」、「1080i」、「1080p」等がある。例えば、「1080i」は、垂直方向の有効走査線が1080本(総走査線が1125本)であり、飛び越し走査(インターレーススキャン)方式で、フレームレートが「30フレーム/秒」で送信される映像信号を表す(解像度:「1920×1080」若しくは「1440×1080」ピクセル)。また、「720p」は、垂直方向の有効走査線が720本(総走査線が750本)であり、順次走査(プログレッシブスキャン)方式で、フレームレートが「60フレーム/秒」で送信される映像信号を表す(解像度:「1280×720」若しくは「960×1080」ピクセル)。これらの映像信号の形式のうち、「480i」及び「480p」等の映像信号は、走査線本数が少なく低解像度のSD映像のカテゴリ(以下「SDカテゴリ」という。)に分類される。一方、「720p」、「1080i」及び「1080p」等の映像信号は、走査線本数が多く高解像度のHD映像のカテゴリ(以下「HDカテゴリ」という。)に分類される。   As described above, various types of video / audio signals are input to the recording / reproducing apparatus 10 from the outside. As the format (image size) of this video signal, there are, for example, “480i”, “480p”, “720p”, “1080i”, “1080p”, etc., depending on the quality of the video. For example, “1080i” has 1080 effective scanning lines in the vertical direction (1125 total scanning lines), is an interlaced scanning method, and is transmitted at a frame rate of “30 frames / second”. Represents a signal (resolution: “1920 × 1080” or “1440 × 1080” pixels). “720p” has 720 effective scanning lines in the vertical direction (total scanning lines of 750), and is transmitted in a progressive scan system with a frame rate of “60 frames / second”. Represents the signal (resolution: “1280 × 720” or “960 × 1080” pixels). Among these video signal formats, video signals such as “480i” and “480p” are classified into categories of SD video with a small number of scanning lines (hereinafter referred to as “SD category”). On the other hand, video signals such as “720p”, “1080i”, and “1080p” are classified into high-definition HD video categories (hereinafter referred to as “HD categories”) having a large number of scanning lines.

また、音声信号の形式(チャンネル数)としては、例えば、「1CH」、「2CH」、「5.1CH」、「6.1CH」、「7.1CH」、「4CH」、「5CH」、「6CH」等がある。例えば、「5.1CH」は、視聴者の正面、右前方、左前方、右後方、左後方に配されるスピーカと、低音出力用サブウーファースピーカ(LFE:Low Frequency Effect)とからなる6つのスピーカから出力されるマルチチャンネルの音声信号を表す。これらの音声信号形式のうち、「1CH(モノラル)」及び「2CH(ステレオ)」等の音声信号は、チャンネル数が比較的少ない低音質のステレオ音声のカテゴリ(以下「ステレオカテゴリ」という。)に分類される。一方、「5.1CH」、「6.1CH」、「7.1CH」、「4CH」、「5CH」及び「6CH」等の音声信号は、チャンネル数が比較的多く高音質のマルチチャンネル音声のカテゴリ(以下「マルチチャンネルカテゴリ」という。)に分類される。   The audio signal format (number of channels) is, for example, “1CH”, “2CH”, “5.1CH”, “6.1CH”, “7.1CH”, “4CH”, “5CH”, “ 6CH "etc. For example, “5.1CH” has six speakers including a speaker arranged in front, right front, left front, right rear, and left rear of a viewer and a low-frequency output subwoofer speaker (LFE: Low Frequency Effect). Represents a multi-channel audio signal output from a speaker. Among these audio signal formats, audio signals such as “1CH (monaural)” and “2CH (stereo)” fall into the category of low-quality stereo audio with a relatively small number of channels (hereinafter referred to as “stereo category”). being classified. On the other hand, audio signals such as “5.1CH”, “6.1CH”, “7.1CH”, “4CH”, “5CH”, and “6CH” have a relatively large number of channels and high-quality multichannel audio. It is classified into a category (hereinafter referred to as “multi-channel category”).

また、記録再生装置10は、上記のように入力された各種の映像/音声信号の形式を、記録媒体に対応した所定の記録形式に変換するための形式変換部を備えている。この形式変換部は、スケーラ42(映像形式変換部)とオーディオプロセッサ44(音声形式変換部)とからなる。   In addition, the recording / reproducing apparatus 10 includes a format conversion unit for converting the format of various video / audio signals input as described above into a predetermined recording format corresponding to the recording medium. The format conversion unit includes a scaler 42 (video format conversion unit) and an audio processor 44 (audio format conversion unit).

スケーラ42は、CPU100からの指示に基づいて、AVデコーダ40から入力された映像信号の形式を所定の記録形式に変換(即ち、画サイズを調整)する。例えば、HDカテゴリに属する「720p」、「1080p」等の形式の映像信号が入力された場合には、スケーラ42は、これらの映像信号を、記録媒体が対応可能な所定の記録形式「1080i」に変換する。かかるスケーラ42は、画サイズを変換した映像信号をAVエンコーダ20に出力する。このようにスケーラ42は、従来のスケーラのようにHD映像とSD映像との間での画サイズ変換機能のみならず、同一の映像形式カテゴリ内に属する多様な形式間での画サイズ変換機能(例えば、HDカテゴリ内で「720p」から「1080i」に変換する機能)をも有する。   The scaler 42 converts the format of the video signal input from the AV decoder 40 into a predetermined recording format (that is, adjusts the image size) based on an instruction from the CPU 100. For example, when video signals in a format such as “720p” and “1080p” belonging to the HD category are input, the scaler 42 converts these video signals into a predetermined recording format “1080i” that can be supported by the recording medium. Convert to The scaler 42 outputs a video signal whose image size has been converted to the AV encoder 20. As described above, the scaler 42 not only has an image size conversion function between HD video and SD video as in the conventional scaler, but also an image size conversion function between various formats belonging to the same video format category ( For example, it also has a function of converting “720p” to “1080i” in the HD category.

オーディオプロセッサ44は、CPU100からの指示に基づいて、AVデコーダ40から入力された音声信号の形式を所定の記録形式に変換(即ち、チャンネル数を変更)する。例えば、マルチチャンネルカテゴリに属する「7.1CH」、「4CH」、「5CH」等の形式の映像信号が入力された場合には、オーディオプロセッサ44は、これらの音声信号を、記録再生装置10が対応可能なマルチチャンネルカテゴリの所定の記録形式「5.1CH」に変換する。かかるオーディオプロセッサ44は、チャンネル数を変換した音声信号をAVエンコーダ20に出力する。このように、オーディオプロセッサ44は、異なる音声形式カテゴリ間でのチャンネル数変換機能のみならず、同一の音声形式カテゴリ内に属する多様な形式間でのチャンネル数変換機能(例えば、マルチチャンネルカテゴリ内で「5CH」から「5.1CH」に変換する機能)をも有する。   The audio processor 44 converts the format of the audio signal input from the AV decoder 40 into a predetermined recording format (that is, changes the number of channels) based on an instruction from the CPU 100. For example, when video signals of a format such as “7.1CH”, “4CH”, “5CH” belonging to the multi-channel category are input, the audio processor 44 causes the recording / reproducing apparatus 10 to output these audio signals. It is converted into a predetermined recording format “5.1CH” of a compatible multi-channel category. The audio processor 44 outputs an audio signal obtained by converting the number of channels to the AV encoder 20. As described above, the audio processor 44 not only converts the number of channels between different audio format categories but also converts the number of channels between various formats belonging to the same audio format category (for example, within the multi-channel category). A function of converting “5CH” to “5.1CH”).

また、記録再生装置10は、コンテンツの映像及び音声データ等を記録媒体に記録する記録部50を備えている。本実施形態にかかる記録再生装置10の記録部50は、例えば、ハードディスクドライブ(HDD)52と、光ディスクドライブ54とからなる。   Further, the recording / reproducing apparatus 10 includes a recording unit 50 that records video and audio data of content on a recording medium. The recording unit 50 of the recording / reproducing apparatus 10 according to the present embodiment includes, for example, a hard disk drive (HDD) 52 and an optical disk drive 54.

HDD52は、記録媒体であるハードディスクに対して、各種の情報を書き込み/読み出しする。例えば、HDD52は、ストリームプロセッサ30から入力された映像/音声信号のストリームを、ハードディスクに記録する。また、HDD52は、ハードディスクに記録されているデータを読み出して、ストリームプロセッサ30に出力する。同様に、光ディスクドライブ54も、記録媒体である光ディスクに対して、各種の情報を書き込み/読み出しする。例えば、映像コンテンツが記録された市販のリムーバブル記録媒体(セルDVD、BD等)を光ディスクドライブ54にロードすることで、当該リムーバブル記録媒体から映像コンテンツを読み出して再生できる。   The HDD 52 writes / reads various information to / from a hard disk as a recording medium. For example, the HDD 52 records the video / audio signal stream input from the stream processor 30 on a hard disk. Also, the HDD 52 reads out data recorded on the hard disk and outputs it to the stream processor 30. Similarly, the optical disc drive 54 also writes / reads various information to / from the optical disc that is a recording medium. For example, by loading a commercially available removable recording medium (cell DVD, BD, etc.) on which video content is recorded onto the optical disc drive 54, the video content can be read from the removable recording medium and reproduced.

このように、本実施形態にかかる記録再生装置10は、2つの記録部50、即ち、HDD52と光ディスクドライブ54とを備えている。これにより、HDD52に記録されたコンテンツを、光ディスクドライブ54に記録したり、その逆を行ったりできる。なお、記録媒体としては、例えば、ハードディスク等の磁気ディスク、又は、次世代DVD(Blu−Rayディスク等)、DVD−R、DVD−RW、DVD−RAM若しくは光磁気ディスク等の光ディスク、又は、フラッシュメモリ等の各種の半導体メモリなど、任意の記録媒体を使用できる。また、記録媒体は、記録再生装置10内に固定される記録媒体であってもよいし、記録再生装置10に着脱可能なリムーバブル記録媒体であってもよい。   As described above, the recording / reproducing apparatus 10 according to the present embodiment includes the two recording units 50, that is, the HDD 52 and the optical disk drive 54. As a result, the content recorded on the HDD 52 can be recorded on the optical disk drive 54 and vice versa. As the recording medium, for example, a magnetic disk such as a hard disk, or an optical disk such as a next-generation DVD (Blu-Ray disk, etc.), DVD-R, DVD-RW, DVD-RAM or magneto-optical disk, or flash Any recording medium such as various semiconductor memories such as a memory can be used. Further, the recording medium may be a recording medium fixed in the recording / reproducing apparatus 10 or a removable recording medium detachable from the recording / reproducing apparatus 10.

特徴点抽出ブロック60は、本発明の特徴点抽出部の一部の構成例である。この特徴点抽出ブロック60は、例えば、映像信号を解析してコンテンツの映像の特徴点に関する情報を抽出する機能を有するハードウェアで構成される。特徴点抽出ブロック60は、外部から入力されたコンテンツを上記記録部50の記録媒体に記録するとき、或いは、当該記録媒体に記録されたコンテンツ再生するときに、CPU100による指示に応じて、コンテンツの映像信号を解析して、当該映像信号から、コンテンツの映像の特徴点を表す情報を抽出して、CPU100に出力する。かかる特徴点抽出ブロック60は、本実施形態にかかる記録再生装置10の特徴部分であるので、詳細は後述する(図2参照。)。   The feature point extraction block 60 is a configuration example of a part of the feature point extraction unit of the present invention. For example, the feature point extraction block 60 is configured by hardware having a function of analyzing a video signal and extracting information on a feature point of a video of content. The feature point extraction block 60, when recording content input from the outside on the recording medium of the recording unit 50 or reproducing the content recorded on the recording medium, in response to an instruction from the CPU 100 The video signal is analyzed, information representing the video feature point of the content is extracted from the video signal, and output to the CPU 100. Since the feature point extraction block 60 is a feature portion of the recording / reproducing apparatus 10 according to the present embodiment, details will be described later (see FIG. 2).

出力画質調整ブロック70は、本発明の出力画質調整部の構成例である。この出力画質調整ブロック70は、例えば、出力画質の調整機能を有するハードウェアで構成される。出力画質調整ブロック70は、上記記録部50の記録媒体に記録されたコンテンツを再生するときに、CPU100による指示に応じて、当該再生対象のコンテンツの出力画質を調整する。このとき、CPU100は、再生対象のコンテンツに関する特徴点情報に基づいて、出力画質調整ブロック70の動作をコンテンツごとに動的に制御する。かかる出力画質調整ブロック70も、本実施形態にかかる記録再生装置10の特徴部分であるので、詳細は後述する(図3参照。)。   The output image quality adjustment block 70 is a configuration example of the output image quality adjustment unit of the present invention. The output image quality adjustment block 70 is constituted by hardware having an output image quality adjustment function, for example. When the content recorded on the recording medium of the recording unit 50 is reproduced, the output image quality adjustment block 70 adjusts the output image quality of the content to be reproduced according to an instruction from the CPU 100. At this time, the CPU 100 dynamically controls the operation of the output image quality adjustment block 70 for each content based on the feature point information regarding the content to be reproduced. Since the output image quality adjustment block 70 is also a characteristic part of the recording / reproducing apparatus 10 according to the present embodiment, details will be described later (see FIG. 3).

グラフィック処理部80は、データ再生時に、記録再生装置10の動作設定や動作状況を示す表示データや、字幕などを生成し、これらの表示データや字幕を、出力画像調整ブロックから出力された再生映像に重畳(オーバレイ)する。ディスプレイ処理部82は、グラフィック処理部80で生成された合成映像に対して、出力形式に応じて画サイズなどを整形する処理を施す。さらに、D/A変換器84は、ディスプレイ処理部82から入力された映像のデジタル信号、AVデコーダ40から入力された音声のデジタル信号を、アナログ信号に変換して、モニタ8又はスピーカ9に出力する。   The graphic processing unit 80 generates display data, subtitles, and the like indicating operation settings and operation states of the recording / reproducing apparatus 10 during data reproduction, and these display data and subtitles are reproduced video output from the output image adjustment block. Overlay (overlay). The display processing unit 82 performs processing for shaping the image size and the like on the synthesized video generated by the graphic processing unit 80 according to the output format. Further, the D / A converter 84 converts the video digital signal input from the display processing unit 82 and the audio digital signal input from the AV decoder 40 into an analog signal and outputs the analog signal to the monitor 8 or the speaker 9. To do.

CPU100は、演算処理装置および制御装置として機能し、記録再生装置10内の各装置を制御する。このCPU100は、ROM92に記憶されているプログラム、或いは、記録部50からRAM94にロードされたプログラムに従って、RAM94を使用しながら、各種の処理を実行する。ROM92は、CPU100が使用するプログラムや演算パラメータ等を記憶するとともに、CPU100から記録部50へのアクセスを軽減するためのバッファとしても機能する。RAM94は、CPU100の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。また、CPU100は、属性情報取得部、解析部、制御ルーチン作成部、画質調整制御部などしても機能するが、その詳細は後述する(図4参照。)。   The CPU 100 functions as an arithmetic processing device and a control device, and controls each device in the recording / reproducing device 10. The CPU 100 executes various processes while using the RAM 94 in accordance with a program stored in the ROM 92 or a program loaded from the recording unit 50 to the RAM 94. The ROM 92 stores programs and calculation parameters used by the CPU 100 and also functions as a buffer for reducing access from the CPU 100 to the recording unit 50. The RAM 94 temporarily stores programs used in the execution of the CPU 100, parameters that change as appropriate during the execution, and the like. The CPU 100 also functions as an attribute information acquisition unit, an analysis unit, a control routine creation unit, an image quality adjustment control unit, etc., details of which will be described later (see FIG. 4).

ユーザインタフェース96は、ユーザが記録再生装置10に対して各種の指示を入力するための入力部として機能する。このユーザインタフェース96は、例えば、ボタン、スイッチ、レバー等の操作キーや、タッチパネル、リモートコントローラなどの操作手段と、この操作手段に対する入力操作に応じて入力信号を生成してCPU100に出力する入力制御回路などから構成されている。記録再生装置10のユーザは、このユーザインタフェース96を操作することにより、記録再生装置10に対して各種のデータを入力したり、処理動作を指示したりすることができる。CPU100は、ユーザインタフェース96に対するユーザ入力を受け付けると、このユーザ入力に基づいて、コンテンツの記録処理や再生処理を制御したり、放送番組の予約録画の設定を行ったりする。   The user interface 96 functions as an input unit for the user to input various instructions to the recording / reproducing apparatus 10. The user interface 96 includes, for example, operation keys such as buttons, switches, and levers, operation means such as a touch panel and a remote controller, and input control that generates an input signal according to an input operation on the operation means and outputs the input signal to the CPU 100. It consists of a circuit. The user of the recording / reproducing apparatus 10 can input various data and instruct processing operations to the recording / reproducing apparatus 10 by operating the user interface 96. When the CPU 100 receives user input to the user interface 96, the CPU 100 controls content recording processing and playback processing, and sets reservation recording of a broadcast program based on the user input.

次に、図1に示す構成の記録再生装置10の記録動作について説明する。この記録動作は、例えば、録画予約された番組コンテンツを録画する場合や、ユーザ指示に応じて番組コンテンツをダイレクト録画する場合、外部入力されたコンテンツを記録する場合、HDD52と光ディスクドライブ54との間でコンテンツをダビングする場合などに実行される。   Next, the recording operation of the recording / reproducing apparatus 10 having the configuration shown in FIG. 1 will be described. This recording operation is performed between the HDD 52 and the optical disc drive 54, for example, when recording program content reserved for recording, directly recording program content according to a user instruction, or recording externally input content. This is executed when the content is dubbed with.

まず、外部から入力されたアナログ信号をエンコードして記録媒体に記録する場合の手順を説明する。   First, a procedure for encoding an analog signal input from the outside and recording it on a recording medium will be described.

例えば、アナログテレビジョン放送をアンテナ1で受信した場合、アナログチューナー11から出力されたアナログ映像信号及びアナログ音声信号は、A/D変換器12でデジタル化される。次いで、当該デジタル映像信号及び音声信号は、AVエンコーダ20でエンコード処理されて、ビットストリームに変換され、さらに、ストリームプロセッサ30で多重化及び暗号化されて、バッファ制御されながら、HDD52又は光ディスクドライブ54の記録媒体に記録される。   For example, when an analog television broadcast is received by the antenna 1, the analog video signal and analog audio signal output from the analog tuner 11 are digitized by the A / D converter 12. Next, the digital video signal and the audio signal are encoded by the AV encoder 20, converted into a bit stream, further multiplexed and encrypted by the stream processor 30, and buffer-controlled, while the HDD 52 or the optical disc drive 54. Recorded on the recording medium.

なお、ここでは、入力信号としてアナログチューナー11から出力されたアナログ信号を記録する例を挙げて説明したが、その他にも、例えば、(1)入力信号が外部機器2からアナログ入力端子13を介して入力された外部アナログ入力信号である場合や、(2)DV方式のデジタルビデオカメラ等の外部機器3からDV入力端子14を介して入力されたDV信号を、DVデコーダ15でデコードして取り込む場合なども、同様の手順となる。   Although an example in which an analog signal output from the analog tuner 11 is recorded as an input signal has been described here, for example, (1) the input signal is transmitted from the external device 2 via the analog input terminal 13. Or (2) a DV signal input from an external device 3 such as a DV digital video camera via the DV input terminal 14 is decoded by the DV decoder 15 and captured. In some cases, the same procedure is performed.

次に、外部から入力されたデジタル信号(ビットストリーム)を、デコードした後に、記録媒体が対応するデジタル記録フォーマットに合わせて再エンコードして記録する場合の手順を説明する。   Next, a procedure when a digital signal (bit stream) input from the outside is decoded and then re-encoded in accordance with a digital recording format supported by the recording medium and recorded will be described.

まず、例えばデジタルテレビジョン放送をアンテナ4で受信した場合、デジタルチューナー16から出力されたビットストリームは、ストリームプロセッサ30により、スクランブル解除された後に、映像信号と音声信号とに分離化されて、AVデコーダ40に入力される。次いで、AVデコーダ40にて、デジタル映像信号及びデジタル音声信号はデコードされる。さらに、デコードされたデジタル映像信号は、必要に応じて、スケーラ42で所定の画サイズにリサイズされて、AVエンコーダ20に入力される。一方、デコードされたデジタル音声信号は、必要に応じて、オーディオプロセッサ44で所定のチャンネル数に変換されて、AVエンコーダ20に入力される。その後、かかる形式変換後のデジタル映像/音声信号は、上述したアナログ信号の場合と同様に、AVエンコーダ20でエンコード処理され(再エンコード処理)、次いで、ストリームプロセッサ30で多重化及び暗号化されて、バッファ制御されつつ、HDD52又は光ディスクドライブ54の記録媒体に記録される。   First, for example, when a digital television broadcast is received by the antenna 4, the bit stream output from the digital tuner 16 is descrambled by the stream processor 30 and then separated into a video signal and an audio signal. Input to the decoder 40. Next, the AV decoder 40 decodes the digital video signal and the digital audio signal. Further, the decoded digital video signal is resized to a predetermined image size by the scaler 42 and input to the AV encoder 20 as necessary. On the other hand, the decoded digital audio signal is converted into a predetermined number of channels by the audio processor 44 as necessary, and input to the AV encoder 20. Thereafter, the digital video / audio signal after the format conversion is encoded by the AV encoder 20 (re-encoding process), and then multiplexed and encrypted by the stream processor 30 as in the case of the analog signal described above. The data is recorded on the recording medium of the HDD 52 or the optical disk drive 54 while being buffer controlled.

このように、記録対象の入力信号が、圧縮符号化されたデジタル信号(ストリーム)である場合には、必要に応じて、再エンコード処理を行う。即ち、圧縮符号化されたデジタル信号をAVデコーダ40でストリームデータに一旦デコードして、スケーラ42やオーディオプロセッサ44で形式変換した後に、AVエンコーダ20で、記録媒体が対応可能な所定の記録形式に再エンコードして記録する。なお、入力されたデジタル信号の形式が元々、記録媒体が対応可能な所定の記録形式である場合には、上記再エンコード処理は不要である。   As described above, when the input signal to be recorded is a compression-encoded digital signal (stream), re-encoding processing is performed as necessary. In other words, the compressed and encoded digital signal is once decoded into stream data by the AV decoder 40, converted into a format by the scaler 42 and the audio processor 44, and then converted into a predetermined recording format that can be supported by the recording medium by the AV encoder 20. Re-encode and record. If the format of the input digital signal is originally a predetermined recording format that can be supported by the recording medium, the re-encoding process is not necessary.

なお、ここでは、デジタルチューナー16から出力されたデジタル放送の映像/音声信号を記録する例を挙げて説明したが、その他にも例えば、(1)入力信号が、HDVビデオカメラ等の外部機器5からi.LINK端子17を介して入力されたストリーム(HDV信号)である場合や、(2)イーサネット7及び通信部19を介して受信したIPTVの入力ストリームである場合、(3)外部からHDD52等にダイレクト記録(例えば、USB端子18を介して接続された外部機器6からの入力ストリームや、受信したデジタル放送のHD映像ストリームをHDD52の記録媒体にダイレクト記録(そのまま記録)した場合)されたストリームを読み出した場合、(4)光ディスクドライブ54の光ディスクから読み出されたストリームをHDD52に記録する場合なども、同様の手順となる。   Although an example of recording a digital broadcast video / audio signal output from the digital tuner 16 has been described here, for example, (1) the input signal is an external device 5 such as an HDV video camera. To i. In the case of a stream (HDV signal) input via the LINK terminal 17, or (2) an IPTV input stream received via the Ethernet 7 and the communication unit 19, (3) direct from the outside to the HDD 52 or the like Reads a stream that has been recorded (for example, when an input stream from an external device 6 connected via the USB terminal 18 or an HD video stream of a received digital broadcast is directly recorded (recorded as it is) on a recording medium of the HDD 52) In the case of (4) a stream read from the optical disk of the optical disk drive 54 is recorded in the HDD 52, the same procedure is performed.

さらに、本実施形態にかかる記録再生装置10では、上記のように外部から提供された各種のコンテンツを記録部50に記録するときには、当該記録対象のコンテンツについて特徴点情報の抽出処理、制御ルーチンの作成処理がなされる。詳細には、コンテンツの記録時には、ストリームプロセッサ30から特徴点抽出ブロック60に、記録対象のコンテンツの映像信号が入力される。そして、特徴点抽出ブロック60とCPU100により、当該映像信号を解析することで、記録対象のコンテンツの映像全体の特徴を表す特徴点情報が抽出される。さらに、この特徴点情報に基づいて、次回再生時の画質調整時に出力画質調整ブロック70を制御するための制御ルーチンが生成され、この制御ルーチンを記録部50のHDD52等に格納される。このように、本実施形態にかかる記録再生装置10では、記録部50に対するコンテンツの記録時に、当該コンテンツの映像の特徴点情報に応じた制御ルーチンを、コンテンツごとに作成して記録しておく。なお、この特徴点抽出処理等の詳細については後述する。   Further, in the recording / reproducing apparatus 10 according to the present embodiment, when various contents provided from the outside as described above are recorded in the recording unit 50, the feature point information extraction process and the control routine of the content to be recorded are recorded. Creation processing is performed. Specifically, when content is recorded, a video signal of the content to be recorded is input from the stream processor 30 to the feature point extraction block 60. Then, the feature point extraction block 60 and the CPU 100 analyze the video signal, thereby extracting feature point information representing the characteristics of the entire video of the content to be recorded. Further, based on the feature point information, a control routine for controlling the output image quality adjustment block 70 at the time of image quality adjustment at the next reproduction is generated, and this control routine is stored in the HDD 52 of the recording unit 50 or the like. As described above, in the recording / reproducing apparatus 10 according to the present embodiment, when content is recorded on the recording unit 50, a control routine corresponding to the feature point information of the video of the content is created and recorded for each content. The details of the feature point extraction process will be described later.

次に、図1に示す構成の記録再生装置10の再生動作について説明する。この再生動作は、過去に録画されたコンテンツを再生する場合や、現在録画中のコンテンツを先頭から再生する追いかけ再生を行う場合などに実行される   Next, the reproducing operation of the recording / reproducing apparatus 10 having the configuration shown in FIG. 1 will be described. This playback operation is executed when a previously recorded content is played back, or when chasing playback is performed to play back the currently recorded content from the beginning.

まず、記録部50のHDD52又は光ディスクドライブ54によって、記録媒体に記録されている再生対象のコンテンツのデータ(映像、音声、字幕等のデータ)が読み出される。読み出されたデータストリームは、ストリームプロセッサ30により、暗号解除されて、映像ストリームと音声ストリームとに分離化される。   First, the content data (video, audio, caption data, etc.) to be reproduced recorded on the recording medium is read by the HDD 52 or the optical disc drive 54 of the recording unit 50. The read data stream is decrypted by the stream processor 30 and separated into a video stream and an audio stream.

次いで、この映像ストリームと音声ストリーム(圧縮データ)はそれぞれ、AVデコーダ40にてデコードされた後に、デコードされた映像ストリーム(再生映像信号)は、出力画質調整ブロック70に入力されて、画質調整処理される。このとき、CPU100は、上記特徴点情報に基づいてコンテンツごとに予め作成しておいた制御ルーチンに従って、出力画質調整ブロックを制御する。これにより、再生対象のコンテンツの映像の適切な箇所に適切な画質調整が施される。   Next, the video stream and the audio stream (compressed data) are respectively decoded by the AV decoder 40, and then the decoded video stream (reproduced video signal) is input to the output image quality adjustment block 70 for image quality adjustment processing. Is done. At this time, the CPU 100 controls the output image quality adjustment block in accordance with a control routine created in advance for each content based on the feature point information. As a result, appropriate image quality adjustment is performed at an appropriate location in the video of the content to be played.

その後、画質調整された映像ストリームは、グラフィック処理部80により、コンテンツの映像にOSD(オン・スクリーン・ディスプレイ)や字幕などが付加される。さらに、この映像ストリームは、ディスプレイ処理部82で出力形式に応じて画サイズなどが整形されて、D/A変換器84に入力される。一方、AVデコーダ40から出力された音声ストリームは、必要に応じて所定の音声処理を施された後に、D/A変換器84に入力される。この結果、D/A変換器84にて映像ストリーム音声ストリームのデジタル信号がそれぞれ、アナログ信号に変換されて、モニタ8やスピーカ9等の外部機器に出力される。この結果、モニタ8は、再生されたコンテンツの映像を表示し、スピーカ9は、再生されたコンテンツの音声を出力する。   Thereafter, an OSD (on-screen display), subtitles, and the like are added to the content video by the graphic processing unit 80 from the video stream whose image quality has been adjusted. Further, the video stream is input to the D / A converter 84 after the image size and the like are shaped according to the output format by the display processing unit 82. On the other hand, the audio stream output from the AV decoder 40 is input to the D / A converter 84 after being subjected to predetermined audio processing as necessary. As a result, each digital signal of the video stream / audio stream is converted into an analog signal by the D / A converter 84 and output to an external device such as the monitor 8 or the speaker 9. As a result, the monitor 8 displays the video of the reproduced content, and the speaker 9 outputs the audio of the reproduced content.

また、本実施形態にかかる記録再生装置10では、以上のようなコンテンツの再生時にも、当該再生対象のコンテンツについて特徴点情報の抽出及び解析処理を実行することができる。例えば、セルDVD、BDなどのリムーバブル記録媒体により、記録再生装置10にコンテンツが提供された場合などには、当該リムーバブル記録媒体に記録されたコンテンツについては、特徴点情報の抽出処理等を行っていない。そこで、かかる場合には、当該コンテンツの再生時(例えば初回再生時)に、特徴点情報の抽出処理等を実行し、当該コンテンツの画質調整に適した制御ルーチンを作成しておく。詳細には、コンテンツの再生時に、記録部50から読み出された再生対象のコンテンツの映像信号を、ストリームプロセッサ30から特徴点抽出ブロック60に入力する。そして、上記記録時と同様にして、映像信号の解析結果に基づいて、再生対象のコンテンツの特徴点情報を抽出し、この特徴点情報等に基づき制御ルーチンを作成して、記録部50に記録しておく。これにより、コンテンツの次回再生時には、当該制御ルーチンに基づいて、再生対象のコンテンツの画質を好適に調整できる。   In the recording / reproducing apparatus 10 according to the present embodiment, the feature point information can be extracted and analyzed for the content to be reproduced even when the content is reproduced as described above. For example, when content is provided to the recording / reproducing apparatus 10 by a removable recording medium such as a cell DVD or BD, the feature point information is extracted from the content recorded on the removable recording medium. Absent. Therefore, in such a case, when the content is reproduced (for example, at the first reproduction), feature point information extraction processing or the like is executed, and a control routine suitable for adjusting the image quality of the content is created. Specifically, when reproducing the content, the video signal of the content to be reproduced read from the recording unit 50 is input from the stream processor 30 to the feature point extraction block 60. Similarly to the above recording, feature point information of the content to be reproduced is extracted based on the analysis result of the video signal, a control routine is created based on the feature point information and the like, and is recorded in the recording unit 50. Keep it. Thereby, at the next reproduction of the content, the image quality of the content to be reproduced can be suitably adjusted based on the control routine.

次に、図2を参照して、本実施形態にかかる特徴点抽出ブロック60の構成について詳細に説明する。図2は、本実施形態にかかる特徴点抽出ブロック60の内部構成を示すブロック図である。   Next, the configuration of the feature point extraction block 60 according to the present embodiment will be described in detail with reference to FIG. FIG. 2 is a block diagram showing an internal configuration of the feature point extraction block 60 according to the present embodiment.

図2に示すように、特徴点抽出ブロック60は、輝度信号解析部61と、色差信号解析部62と、ノイズ信号解析部63と、を備える。   As shown in FIG. 2, the feature point extraction block 60 includes a luminance signal analysis unit 61, a color difference signal analysis unit 62, and a noise signal analysis unit 63.

特徴点抽出ブロック60に入力された映像信号は、まず、輝度信号解析部61に入力される。輝度信号解析部61は、映像信号に含まれる輝度信号を解析し、画像全体の輝度信号を細かいブロックに分けて様々な情報に変換する。この輝度信号ブロック61では、かかる輝度信号の解析結果に基づき、画像における輝度のヒストグラム、シーンチェンジ、テロップ、フェード、クロスフェードの検出、輪郭検出などを行う。輝度信号解析部61は、かかる検出結果を表す情報を、特徴点情報の基礎データとして、CPU100に出力する。   The video signal input to the feature point extraction block 60 is first input to the luminance signal analysis unit 61. The luminance signal analysis unit 61 analyzes the luminance signal included in the video signal and divides the luminance signal of the entire image into fine blocks and converts them into various information. In the luminance signal block 61, based on the analysis result of the luminance signal, a luminance histogram, scene change, telop, fade, cross fade detection, contour detection, and the like in the image are performed. The luminance signal analysis unit 61 outputs information representing the detection result to the CPU 100 as basic data of feature point information.

次に、映像信号は、色差信号解析部62に入力される。色差信号解析部62は、画像全体の色差信号を細かいブロックに分けて様々な情報に変換する。この色差信号解析部62は、かかる色差信号の解析結果と、上記輝度信号解析部61により得られた輝度信号の解析結果とを組み合わせて解析することで、色差のヒストグラム、人物検出、肌色検出などを行う。色差信号解析部62は、かかる検出結果を表す情報を、特徴点情報の基礎データとして、CPU100に出力する。   Next, the video signal is input to the color difference signal analysis unit 62. The color difference signal analysis unit 62 divides the color difference signal of the entire image into fine blocks and converts them into various information. The color difference signal analysis unit 62 analyzes the color difference signal analysis result in combination with the luminance signal analysis result obtained by the luminance signal analysis unit 61, so that a color difference histogram, person detection, skin color detection, etc. I do. The color difference signal analysis unit 62 outputs information representing the detection result to the CPU 100 as basic data of feature point information.

次に、映像信号は、ノイズ信号解析部63に入力される。ノイズ信号解析部63は、上記輝度信号解析部61、色差信号解析部62により得られた輝度信号、色差信号の解析結果を組み合わせて解析することで、ノイズ検出を行う。このノイズ信号解析部63は、例えば、ざわざわしたノイズ、MPEGの量子化ノイズ、輪郭部の周囲に発生するノイズなどを検出する。ノイズ信号解析部63は、かかるノイズ検出結果を表す情報を、特徴点情報の基礎データとして、CPU100に出力する。   Next, the video signal is input to the noise signal analysis unit 63. The noise signal analysis unit 63 performs noise detection by combining and analyzing the analysis result of the luminance signal and the color difference signal obtained by the luminance signal analysis unit 61 and the color difference signal analysis unit 62. The noise signal analysis unit 63 detects, for example, noisy noise, MPEG quantization noise, noise generated around the contour portion, and the like. The noise signal analysis unit 63 outputs information representing the noise detection result to the CPU 100 as basic data of feature point information.

以上のように、特徴点抽出ブロック60は、入力された映像信号を解析し、その解析結果を、映像信号の特徴を表す特徴点情報の基礎データとして、CPU100に出力する。   As described above, the feature point extraction block 60 analyzes the input video signal, and outputs the analysis result to the CPU 100 as basic data of feature point information representing the feature of the video signal.

次に、図3を参照して、本実施形態にかかる出力画質調整ブロック70の構成について詳細に説明する。図3は、本実施形態にかかる出力画質調整ブロック70の内部構成を示すブロック図である。   Next, the configuration of the output image quality adjustment block 70 according to the present embodiment will be described in detail with reference to FIG. FIG. 3 is a block diagram showing an internal configuration of the output image quality adjustment block 70 according to the present embodiment.

図3に示すように、出力画質調整ブロック70は、ノイズリダクション部71と、明るさ・コントラスト調整部72と、色の濃さ・色相調整部73と、シャープネス・ローパスフィルタ調整部74と、を備える。かかる各部71〜74は、コンテンツ記録時等に解析したデータ(コンテンツの特徴点情報、属性情報)に基づいて、CPU100により制御される。   As shown in FIG. 3, the output image quality adjustment block 70 includes a noise reduction unit 71, a brightness / contrast adjustment unit 72, a color density / hue adjustment unit 73, and a sharpness / low-pass filter adjustment unit 74. Prepare. Each of the units 71 to 74 is controlled by the CPU 100 based on data (content feature point information and attribute information) analyzed at the time of recording the content.

出力画質調整ブロック70に入力された映像信号は、まず、ノイズリダクション部71に入力される。ノイズリダクション部71は、入力された映像信号に含まれるノイズを低減・除去する機能を有する。CPU100は、予め映像信号を解析した結果(制御ルーチン)に基づいて、このノイズリダクション部71の動作を制御する。即ち、CPU100は、映像信号が表す映像のうちノイズ低減・除去処理を施す必要がある箇所と、どの種のノイズを低減・除去するかをノイズリダクション部71に指示する。ノイズリダクション部71は、このCPU100からの指示に従って、ノイズ低減・除去処理を実行する。   The video signal input to the output image quality adjustment block 70 is first input to the noise reduction unit 71. The noise reduction unit 71 has a function of reducing and removing noise included in the input video signal. The CPU 100 controls the operation of the noise reduction unit 71 based on the result (control routine) of analyzing the video signal in advance. That is, the CPU 100 instructs the noise reduction unit 71 to determine where noise reduction / removal processing is necessary in the video represented by the video signal and what kind of noise is to be reduced / removed. The noise reduction unit 71 performs noise reduction / removal processing according to the instruction from the CPU 100.

次に、映像信号は、明るさ・コントラスト調整部72に入力される。明るさ・コントラスト調整部72は、入力された映像信号が表す映像の明るさ(BRIGHTNESS)及びコントラスト(CONTRAST)を調整する機能を有する。CPU100は、予め映像信号を解析した結果(制御ルーチン)に基づいて、この明るさ・コントラスト調整部72を制御する。即ち、CPU100は、明るさ及びコントラストを調整する必要がある箇所と、その調整の程度を、明るさ・コントラスト調整部72に指示する。明るさ・コントラスト調整部72は、このCPU100からの指示に従って、映像信号の明るさ及びコントラストの調整処理を実行する。   Next, the video signal is input to the brightness / contrast adjustment unit 72. The brightness / contrast adjustment unit 72 has a function of adjusting the brightness (BRIGHTNESS) and contrast (CONTRAST) of the video represented by the input video signal. The CPU 100 controls the brightness / contrast adjustment unit 72 based on the result of analyzing the video signal in advance (control routine). That is, the CPU 100 instructs the brightness / contrast adjustment unit 72 as to where the brightness and contrast need to be adjusted and the degree of adjustment. The brightness / contrast adjustment unit 72 executes brightness and contrast adjustment processing of the video signal in accordance with the instruction from the CPU 100.

次に、映像信号は、色の濃さ・色相調整部73に入力される。色の濃さ・色相調整部73は、入力された映像信号が表す映像の色の濃さ(TINT)、色相(HUE)、色彩(COLOR)などを調整する機能を有する。CPU100は、予め映像信号を解析した結果(制御ルーチン)に基づいて、この色の濃さ・色相調整部73を制御する。即ち、CPU100は、色の濃さ、色相、色彩などを調整する必要がある箇所と、その調整の程度を、色の濃さ・色相調整部73に指示する。色の濃さ・色相調整部73は、このCPU100からの指示に従って、映像信号の色の濃さ、色相、色彩などの調整処理を実行する。   Next, the video signal is input to the color density / hue adjustment unit 73. The color density / hue adjusting unit 73 has a function of adjusting the color density (TINT), hue (HUE), color (COLOR), and the like of the video represented by the input video signal. The CPU 100 controls the color density / hue adjusting unit 73 based on the result of analyzing the video signal in advance (control routine). That is, the CPU 100 instructs the color density / hue adjustment unit 73 as to where the color density, hue, color, etc. need to be adjusted, and the degree of adjustment. The color density / hue adjustment unit 73 executes adjustment processing such as the color density, hue, and color of the video signal in accordance with the instruction from the CPU 100.

次に、映像信号は、シャープネス・ローパスフィルタ調整部74に入力される。シャープネス・ローパスフィルタ調整部74は、入力された映像信号が表す映像のシャープネスや、ローパスフィルタ(色モアレや擬似色等を低減するためのフィルタ)などを調整する機能を有する。CPU100は、予め映像信号を解析した結果(制御ルーチン)に基づいて、このシャープネス・ローパスフィルタ調整部74を制御する。即ち、CPU100は、シャープネスや、ローパスフィルタなどを調整する必要がある箇所と、その調整の程度を、シャープネス・ローパスフィルタ調整部74に指示する。シャープネス・ローパスフィルタ調整部74は、このCPU100からの指示に従って、映像信号のシャープネスや、ローパスフィルタなどの調整処理を実行する。   Next, the video signal is input to the sharpness / low pass filter adjustment unit 74. The sharpness / low-pass filter adjustment unit 74 has a function of adjusting the sharpness of a video represented by the input video signal, a low-pass filter (a filter for reducing color moire, pseudo color, and the like). The CPU 100 controls the sharpness / low pass filter adjustment unit 74 based on the result (control routine) of analyzing the video signal in advance. That is, the CPU 100 instructs the sharpness / low-pass filter adjustment unit 74 as to where the sharpness or the low-pass filter needs to be adjusted and the degree of adjustment. The sharpness / low pass filter adjustment unit 74 executes adjustment processing such as the sharpness of the video signal and the low pass filter in accordance with the instruction from the CPU 100.

以上のように、出力画質調整ブロック70は、コンテンツの再生時に、当該再生対象のコンテンツの再生映像の画質を調整する機能を有する。CPU100は、再生時における出力画質調整ブロック70による画質調整機能を、予め解析した再生対象のコンテンツの特徴点情報や属性情報に応じて動的に制御する。   As described above, the output image quality adjustment block 70 has a function of adjusting the image quality of the playback video of the content to be played back when the content is played back. The CPU 100 dynamically controls the image quality adjustment function by the output image quality adjustment block 70 at the time of reproduction according to the feature point information and attribute information of the content to be reproduced which has been analyzed in advance.

次に、図4を参照して、本実施形態にかかる記録再生装置10における特徴点抽出処理と出力画質調整処理について、より詳細に説明する。図4は、本実施形態にかかる記録再生装置10の主要部の構成を概略的に示すブロック図である。   Next, with reference to FIG. 4, the feature point extraction process and the output image quality adjustment process in the recording / reproducing apparatus 10 according to the present embodiment will be described in more detail. FIG. 4 is a block diagram schematically showing the configuration of the main part of the recording / reproducing apparatus 10 according to the present embodiment.

図4に示すように、上記のCPU100、ROM92及びRAM94は、記録再生装置10における制御部を構成する。この制御部は、記録再生装置10内の各部の動作を制御する機能を有する。CPU100は、例えばROM92又はHDD52に記憶されているプログラムに従って動作することで、属性情報取得部102、解析部106、制御ルーチン作成部110、画質調整制御部114として機能する。また、上記のROM92等のメモリは、属性情報記憶部104、特徴点情報記憶部108、制御ルーチン記憶部112として機能する。なお、属性情報記憶部104、特徴点情報記憶部108、制御ルーチン記憶部112は、図4の例のようにROM92ではなく、HDD52等の記録部50などの記憶装置に設けてもよい。以下、CPU100(制御部)の各部について説明する。   As shown in FIG. 4, the CPU 100, the ROM 92, and the RAM 94 constitute a control unit in the recording / reproducing apparatus 10. This control unit has a function of controlling the operation of each unit in the recording / reproducing apparatus 10. The CPU 100 functions as an attribute information acquisition unit 102, an analysis unit 106, a control routine creation unit 110, and an image quality adjustment control unit 114 by operating according to a program stored in the ROM 92 or the HDD 52, for example. The memory such as the ROM 92 functions as the attribute information storage unit 104, the feature point information storage unit 108, and the control routine storage unit 112. Note that the attribute information storage unit 104, the feature point information storage unit 108, and the control routine storage unit 112 may be provided in a storage device such as the recording unit 50 such as the HDD 52 instead of the ROM 92 as in the example of FIG. Hereinafter, each part of CPU100 (control part) is demonstrated.

属性情報取得部102は、外部からコンテンツの属性情報を取得して、属性情報記憶部104に記録して管理する。コンテンツの属性情報は、例えば、コンテンツのタイトル(例えば、テレビジョン放送番組の番組名、ビデオプログラムの映画名等)、ジャンル(例えば、映画、ドラマ、スポーツ、コメディー、ニュース)、コンテンツID、チャンネル、放送開始/終了時刻、コンテンツの内容(例えば、登場人物、番組の概要)、コンテンツ時間長、映像/音声信号の形式(例えば、画素数、チャンネル数、ビットレート、品質レベルなど)、圧縮符号化方式、入力形式(例えば、アナログ/デジタルチューナー入力、S端子入力、コンポジット入力、DV入力、USB入力、i.LINK入力、ネットワーク7経由の入力など)などである。これらの属性情報は、後述する画像調整時の制御ルーチンに反映される。   The attribute information acquisition unit 102 acquires attribute information of content from the outside, and records and manages it in the attribute information storage unit 104. The content attribute information includes, for example, a content title (for example, a program name of a television broadcast program, a movie name of a video program, etc.), a genre (for example, movie, drama, sports, comedy, news), content ID, channel, Broadcast start / end time, content details (eg, characters, program overview), content time length, video / audio signal format (eg, number of pixels, number of channels, bit rate, quality level, etc.), compression coding System, input format (for example, analog / digital tuner input, S terminal input, composite input, DV input, USB input, i.LINK input, input via network 7, etc.). Such attribute information is reflected in a control routine at the time of image adjustment described later.

属性情報取得部102がコンテンツの属性情報を取得するタイミングは、コンテンツの記録前又は記録と同時であることが好ましいが、コンテンツ記録後であってもよい。コンテンツの記録前に予め属性情報を取得できる場合、又は、記録と同時に取得できる場合には、後述の制御ルーチン作成部110は、当該コンテンツの記録時にその属性情報に応じた制御ルーチンを作成できる。一方、コンテンツの記録後に当該コンテンツの属性情報を取得した場合は、制御ルーチン作成部110は、当該コンテンツの次の再生時にその属性情報に応じた制御ルーチンを作成できる。   The timing at which the attribute information acquisition unit 102 acquires the attribute information of the content is preferably before or simultaneously with the recording of the content, but may be after the recording of the content. When the attribute information can be acquired in advance before recording the content, or when it can be acquired simultaneously with the recording, the control routine creation unit 110 described later can create a control routine according to the attribute information when the content is recorded. On the other hand, when the attribute information of the content is acquired after the content is recorded, the control routine creating unit 110 can create a control routine according to the attribute information at the next reproduction of the content.

ここで、属性情報の取得例について説明する。例えば、属性情報取得部102は、テレビジョン放送の番組情報を取得し、この番組情報からコンテンツの属性情報を取得する。詳細には、ストリームプロセッサ30は、デジタルチューナー16で現在受信中のデジタルテレビジョン放送のトランスポートストリーム(Tansport Stream:以下「TS」という。)に含まれるサービス情報(Service Information:以下「SI」という。)などから、番組情報を定期的に抽出して、CPU100に送出する。CPU100の属性情報取得部102は、この番組情報のデータベース(図示せず。)を作成・管理しており、このデータベースの中から必要な属性情報を抽出して、属性情報記憶部104に記録し、最新の内容に更新する。番組情報としては、例えば、電子番組表(Electronic Program Guide:以下「EPG」という。)を用いることができ、デジタルチューナー16で受信されるTSに含まれるSIのEIT(Event Information Table)情報から作成可能である。このEPG等の番組情報には、例えば、放送番組のタイトル、ジャンル、コンテンツID、チャンネル、放送時間、番組内容の情報、映像/音声信号の形式情報など、テレビジョン放送の番組コンテンツに関する各種の属性情報が含まれる。   Here, an example of acquiring attribute information will be described. For example, the attribute information acquisition unit 102 acquires television broadcast program information, and acquires content attribute information from the program information. Specifically, the stream processor 30 includes service information (Service Information: hereinafter referred to as “SI”) included in a transport stream (hereinafter referred to as “TS”) of a digital television broadcast currently received by the digital tuner 16. Etc.), the program information is periodically extracted and sent to the CPU 100. The attribute information acquisition unit 102 of the CPU 100 creates and manages a database (not shown) of this program information, extracts necessary attribute information from this database, and records it in the attribute information storage unit 104. Update to the latest content. As the program information, for example, an electronic program guide (hereinafter referred to as “EPG”) can be used, which is created from the EIT (Event Information Table) information included in the TS received by the digital tuner 16. Is possible. The program information such as EPG includes various attributes relating to the program content of the television broadcast, such as broadcast program title, genre, content ID, channel, broadcast time, program content information, video / audio signal format information, and the like. Contains information.

また、記録再生装置10が、外部機器2、3、5、6などから外部入力されたコンテンツをHDD52に記録する場合も、属性情報取得部102は、コンテンツが入力された外部入力端子を識別することによって、コンテンツの入力形式(例えば、S端子入力、コンポジット入力、DV入力、USB端子入力、i.LINK端子入力、ネットワーク7経由の入力など)を表す情報を、当該コンテンツの属性情報として取得する。   Also, when the recording / reproducing apparatus 10 records content externally input from the external devices 2, 3, 5, 6, etc., in the HDD 52, the attribute information acquisition unit 102 identifies the external input terminal to which the content is input. As a result, information representing the content input format (for example, S terminal input, composite input, DV input, USB terminal input, i.LINK terminal input, input via network 7, etc.) is acquired as attribute information of the content. .

以上のように、記録媒体に記録されるコンテンツの番組情報などの属性情報を取得することで、後述の制御ルーチン作成部110は、当該コンテンツの特徴点情報のみならず、当該コンテンツの属性情報をも反映させた適切な画質調整用の制御ルーチンを作成できる。なお、属性情報を取得できない場合には、制御ルーチン作成部110は、特徴点情報のみに基づいて制御ルーチンを作成してもよい。   As described above, by acquiring the attribute information such as the program information of the content recorded on the recording medium, the control routine creation unit 110 to be described later displays not only the feature point information of the content but also the attribute information of the content. Therefore, it is possible to create a control routine for adjusting the image quality that reflects the above. If the attribute information cannot be acquired, the control routine creation unit 110 may create a control routine based only on the feature point information.

解析部106は、特徴点抽出ブロック60から入力されたデータを解析して、解析結果を特徴点情報として特徴点情報記憶部108に保存する。なお、特徴点抽出ブロック60及び解析部106は、本発明の特徴点抽出部に相当し、両者が協働して、コンテンツの映像信号を解析して、当該コンテンツの映像全体の特徴点情報を抽出する。   The analysis unit 106 analyzes the data input from the feature point extraction block 60 and stores the analysis result in the feature point information storage unit 108 as feature point information. Note that the feature point extraction block 60 and the analysis unit 106 correspond to the feature point extraction unit of the present invention, and both cooperate to analyze the video signal of the content and obtain the feature point information of the entire video of the content. Extract.

ここで、コンテンツ記録時における特徴点情報の抽出処理について詳細に説明する。コンテンツ記録時には、記憶対象のコンテンツの映像及び音声信号(映像及び音声ストリーム)は、ストリームプロセッサ30からHDD52に入力されて、HDD52のコンテンツ記憶部521に記録される。このとき、記憶対象のコンテンツの映像信号は、ストリームプロセッサ30から特徴点抽出ブロック60にも入力される。特徴点抽出ブロック60は、かかる映像信号(輝度信号、色差信号等)を解析して、当該映像信号が表す映像の特徴点を検出し、この特徴点を表す特徴点情報の基礎データを生成する(図2参照。)。特徴点抽出ブロック60は、かかる特徴点情報の基礎データを、映像信号の解析結果として、CPU100に出力する。   Here, the feature point information extraction process at the time of content recording will be described in detail. At the time of content recording, video and audio signals (video and audio streams) of the content to be stored are input from the stream processor 30 to the HDD 52 and recorded in the content storage unit 521 of the HDD 52. At this time, the video signal of the content to be stored is also input from the stream processor 30 to the feature point extraction block 60. The feature point extraction block 60 analyzes the video signal (luminance signal, color difference signal, etc.), detects a feature point of the video represented by the video signal, and generates basic data of feature point information representing the feature point. (See FIG. 2). The feature point extraction block 60 outputs the basic data of the feature point information to the CPU 100 as the analysis result of the video signal.

CPU100の解析部106は、特徴点抽出ブロック60から取得した特徴点情報の基礎データを順次解析して、コンテンツ単位(例えば番組単位)でまとめて分析する。これにより、解析部106は、上記記録対象のコンテンツの映像全体の特徴点を抽出して、当該コンテンツの特徴点情報を生成し、かかる特徴点情報を特徴点記憶部108に記録する。   The analysis unit 106 of the CPU 100 sequentially analyzes the basic data of the feature point information acquired from the feature point extraction block 60, and collectively analyzes the content points (for example, program units). Thereby, the analysis unit 106 extracts feature points of the entire video of the content to be recorded, generates feature point information of the content, and records the feature point information in the feature point storage unit 108.

以上のようにして、コンテンツの記録時に、特徴点抽出ブロック60とCPU100の解析部106は協働して、例えば、番組のシーンチェンジ、フェード、クロスフェード、人物の登場シーン、テロップが大きいシーンなどを、記録対象のコンテンツの映像の特徴点情報として抽出して、特徴点情報記憶部108に保存する。   As described above, at the time of content recording, the feature point extraction block 60 and the analysis unit 106 of the CPU 100 cooperate to, for example, a program scene change, fade, cross fade, appearance scene of a person, a scene with a large telop, etc. Are extracted as feature point information of the video of the content to be recorded and stored in the feature point information storage unit 108.

制御ルーチン作成部110は、上記特徴点情報に基づいて、出力画質調整ブロック70における再生コンテンツの画質調整動作を制御するための制御ルーチンを、コンテンツごとに作成する。このとき、上記属性情報取得部102によりコンテンツの属性情報が事前に取得できている場合には、制御ルーチン作成部110は、上記抽出された特徴点情報と、上記取得された属性情報とを組み合わせて、当該コンテンツ用の制御ルーチンを作成する。具体的には、制御ルーチン作成部110は、特徴点情報記憶部108から読み出した特徴点情報と、属性情報記憶部104から読み出した属性情報とに基づいて、コンテンツの映像の各シーンに施すべき適切な画質調整を判断する。そして、制御ルーチン作成部110は、出力画質調整ブロック70を制御するための通常のパラメータを、上記特徴点情報と属性情報に応じて補正することで、各コンテンツの映像の特徴点と各コンテンツの属性とに応じた適切な制御ルーチンを作成する。制御ルーチン作成部110は、このようにコンテンツごとに作成した制御ルーチンを、制御ルーチン記憶部112に保存する。   Based on the feature point information, the control routine creating unit 110 creates a control routine for controlling the image quality adjustment operation of the playback content in the output image quality adjustment block 70 for each content. At this time, if the attribute information acquisition unit 102 can acquire the content attribute information in advance, the control routine creation unit 110 combines the extracted feature point information and the acquired attribute information. Thus, a control routine for the content is created. Specifically, the control routine creation unit 110 should apply to each scene of the content video based on the feature point information read from the feature point information storage unit 108 and the attribute information read from the attribute information storage unit 104. Determine the appropriate image quality adjustment. Then, the control routine creation unit 110 corrects the normal parameters for controlling the output image quality adjustment block 70 according to the feature point information and the attribute information, so that the feature points of the video of each content and the content of each content are corrected. Create an appropriate control routine according to the attribute. The control routine creation unit 110 stores the control routine created for each content in this way in the control routine storage unit 112.

画質調整制御部114は、HDD52に記録されたコンテンツを再生するときに、当該再生対象のコンテンツの特徴点情報及び属性情報に基づいて、出力画質調整ブロック70を制御して、再生されたコンテンツの映像の画質調整を制御する。このとき、画質調整制御部114は、上記制御ルーチン記憶部112から、当該再生対象のコンテンツに対応する制御ルーチンを読み出し、当該制御ルーチンに従って、出力画質調整ブロック70による画質調整機能を制御する。   When reproducing the content recorded on the HDD 52, the image quality adjustment control unit 114 controls the output image quality adjustment block 70 based on the feature point information and attribute information of the content to be reproduced, and Controls image quality adjustment. At this time, the image quality adjustment control unit 114 reads the control routine corresponding to the content to be reproduced from the control routine storage unit 112, and controls the image quality adjustment function by the output image quality adjustment block 70 according to the control routine.

ここで、画質調整制御処理について詳細に説明する。コンテンツの再生時には、まず、ユーザ選択された再生対象のコンテンツの映像及び音声データ等が、HDD52のコンテンツ記憶部521から読み出され、ストリームプロセッサ30を介してAVデコーダ40に入力されて、デコードされる。次いで、デコードされた映像データは、AVデコーダ40から出力画質調整ブロック70に入力されて、例えば、再生映像のノイズリダクション、明度調整、色合い調整、シャープネス調整等の画質調整が行われる。その後、画質調整された映像データは、上記グラフィック処理80、ディスプレイ処理部82(図1参照。)で所定の処理を施された後に、D/A変換器84でアナログ信号に変換されてモニタ8に表示される。   Here, the image quality adjustment control process will be described in detail. At the time of content playback, first, video and audio data of the content to be played back selected by the user is read from the content storage unit 521 of the HDD 52, input to the AV decoder 40 via the stream processor 30, and decoded. The Next, the decoded video data is input from the AV decoder 40 to the output image quality adjustment block 70, and image quality adjustment such as noise reduction, brightness adjustment, hue adjustment, and sharpness adjustment of the reproduced video is performed. Thereafter, the image data whose image quality has been adjusted is subjected to predetermined processing by the graphic processing 80 and the display processing unit 82 (see FIG. 1), and then converted into an analog signal by the D / A converter 84 to be monitored 8. Is displayed.

このような再生処理において、上記複数種類の画質調整機能(図3参照。)を有する出力画質調整ブロック70は、再生されたコンテンツの映像の画質を向上させるために、各種の画質調整を行う。このとき、画質調整制御部114は、再生対象のコンテンツに対応する制御ルーチンに従って、出力画質調整ブロック70の動作を制御し、再生対象のコンテンツの特徴点や属性に応じて、複数の画質調整機能を取捨選択して、映像の必要な箇所に、必要な画質調整を適用するように制御する。   In such a reproduction process, the output image quality adjustment block 70 having the plurality of types of image quality adjustment functions (see FIG. 3) performs various image quality adjustments in order to improve the image quality of the reproduced content video. At this time, the image quality adjustment control unit 114 controls the operation of the output image quality adjustment block 70 according to the control routine corresponding to the content to be reproduced, and a plurality of image quality adjustment functions according to the feature points and attributes of the content to be reproduced. And control to apply the necessary image quality adjustment to the required part of the video.

この画質調整制御に利用される制御ルーチンは、上記制御ルーチン作成部110により、コンテンツの映像内容の解析結果である特徴点情報や、コンテンツの属性情報に応じて、コンテンツごとに予め作成されて、制御ルーチン記憶部112に記憶されている。そこで、コンテンツの再生時には、まず、画質調整制御部114は、制御ルーチン記憶部112内の複数の制御ルーチンの中から、再生対象のコンテンツに対応する制御ルーチンを選択する。次いで、画質調整制御部114は、当該再生対象のコンテンツに対応する制御ルーチンを適用して、出力画質調整ブロック70の各部の動作を動的に制御する。これにより、出力画質調整ブロック70は、画質調整制御部114からの制御信号に基づいて、上記再生対象のコンテンツの映像のうち、画質調整が必要な所定のシーンの映像に対し、そのシーンに適した種類の画質調整を適切な程度で実行する。このとき、上記制御ルーチンは、再生対象のコンテンツの属性情報(例えば番組のジャンル等)に応じて作成されているので、出力画質調整ブロック70は、再生対象のコンテンツが表す番組の全体構成に適した画質調整を施すようになる。   A control routine used for this image quality adjustment control is created in advance for each content by the control routine creation unit 110 in accordance with feature point information that is an analysis result of the video content of the content and attribute information of the content. It is stored in the control routine storage unit 112. Therefore, when reproducing the content, first, the image quality adjustment control unit 114 selects a control routine corresponding to the content to be reproduced from among a plurality of control routines in the control routine storage unit 112. Next, the image quality adjustment control unit 114 dynamically controls the operation of each unit of the output image quality adjustment block 70 by applying a control routine corresponding to the content to be reproduced. As a result, the output image quality adjustment block 70 is suitable for a scene of a predetermined scene that requires image quality adjustment out of the content video to be reproduced, based on a control signal from the image quality adjustment control unit 114. Perform the appropriate type of image quality adjustment to an appropriate degree. At this time, since the control routine is created according to the attribute information (for example, the genre of the program) of the content to be played back, the output image quality adjustment block 70 is suitable for the overall configuration of the program represented by the content to be played back. Adjust the image quality.

例えば、ノイズ除去の必要のない綺麗な高画質映像の映画コンテンツが再生対象である場合には、画質調整制御部114は、映画の本編全体にノイズリダクション処理を施さないように出力画質調整ブロック70を制御する。また、フィルムのノイズが多い古い映画コンテンツが再生対象である場合には、画質調整制御部114は、映画の本編全体に強いノイズリダクション処理を施すように出力画質調整ブロック70を制御する。また、番組本編とCMとからなるテレビジョン放送の番組コンテンツが再生対象である場合には、画質調整制御部114は、番組本編の映像に対しては当該番組本編に適した画質調整を、CMの映像に対しては当該CMに特化した画質調整を行うように出力画質調整ブロック70を制御する。   For example, when a beautiful high-definition video content that does not require noise removal is to be reproduced, the image quality adjustment control unit 114 outputs the image quality adjustment block 70 so that noise reduction processing is not performed on the entire main part of the movie. To control. In addition, when old movie content with a lot of film noise is a playback target, the image quality adjustment control unit 114 controls the output image quality adjustment block 70 so as to perform a strong noise reduction process on the entire main part of the movie. When a television broadcast program content composed of a program main part and a CM is a reproduction target, the image quality adjustment control unit 114 performs an image quality adjustment suitable for the program main part on the program main part video. The output image quality adjustment block 70 is controlled so as to perform image quality adjustment specialized for the CM.

一般的に、コンテンツの番組の種類(例えば、アニメ、ドラマ、映画、バラエティー、ニュースなど)によって、コンテンツの映像データのフレーム枚数や作成方法が異なる。そこで、画質調整制御部114は、上記のように、再生対象のコンテンツの番組の種類、番組の全体構成などに応じて設定された制御ルーチンに従って、出力画質調整ブロック70の各画質調整機能が、必要に応じて選択的に適用されるよう制御する。これによって、再生されたコンテンツの各シーンの映像に対して、適切な画質調整を施すことができる。   In general, the number of frames of image data of the content and the creation method differ depending on the type of content program (for example, animation, drama, movie, variety, news, etc.). Therefore, as described above, the image quality adjustment control unit 114 has each image quality adjustment function of the output image quality adjustment block 70 according to a control routine set according to the type of program of the content to be played back, the overall configuration of the program, etc. Control to be selectively applied as needed. Thus, appropriate image quality adjustment can be performed on the video of each scene of the reproduced content.

以上、本実施形態にかかる画質調整制御部114は、コンテンツ再生時に、コンテンツごとにカスタマイズされた制御ルーチンに従って、出力画質調整ブロック70の動作を動的に制御する。これにより、再生されるコンテンツの番組の全体構成やシーン変化などに応じて、当該コンテンツの映像の適切な箇所(シーン)に、適切な画質調整処理を施すことができ、不適切な箇所に対する画質調整や、不要な画質調整を施さないようにできる。よって、再生されたコンテンツの映像の出力画質を向上させることができる。   As described above, the image quality adjustment control unit 114 according to the present embodiment dynamically controls the operation of the output image quality adjustment block 70 according to the control routine customized for each content during content reproduction. As a result, appropriate image quality adjustment processing can be performed on the appropriate part (scene) of the video of the content in accordance with the overall structure of the program of the content to be played, scene changes, etc. Adjustments and unnecessary image quality adjustments can be avoided. Therefore, the output image quality of the reproduced content video can be improved.

次に、本実施形態にかかる記録再生装置10による記録映像の特徴点情報の抽出処理と、この特徴点情報を用いた、再生映像の画質調整処理について、具体例を挙げてより詳細に説明する。   Next, the feature point information extraction processing of the recorded video by the recording / reproducing apparatus 10 according to the present embodiment and the playback image quality adjustment processing using the feature point information will be described in more detail with specific examples. .

1.特徴点抽出画像解析
まず、図5〜図15を参照しながら、記録映像の特徴点抽出のための画像解析処理について説明する。かかる特徴点抽出のための画像解析処理は、特徴点抽出部(図4の特徴点抽出ブロック60と、CPU100の解析部106とで構成される。)によって行われる。
1. Feature Point Extracted Image Analysis First, image analysis processing for extracting feature points of recorded video will be described with reference to FIGS. Such image analysis processing for feature point extraction is performed by a feature point extraction unit (configured by the feature point extraction block 60 of FIG. 4 and the analysis unit 106 of the CPU 100).

1.1 特徴点抽出画像解析の概要
記録再生装置10の特徴点抽出部は、映像の特徴点を抽出するために、画面内の全画素に対して、特徴点抽出対象画素(以下、単に「対象画素」、「対象画素x」という場合もある。)の周囲にある所定範囲(探索領域)の情報を解析して、特徴点情報を生成する。図5は、対象画素の周囲21×5画素の探索領域を示す説明図である。図5に示すように、例えば、対象画素を中心とした周囲21×5画素(水平方向21画素、垂直方向5画素)を、対象画素の探索領域とすることができる。
1.1 Outline of Feature Point Extraction Image Analysis The feature point extraction unit of the recording / reproducing apparatus 10 extracts feature point extraction target pixels (hereinafter, simply “ Feature point information is generated by analyzing information of a predetermined range (search area) around “target pixel” and “target pixel x”. FIG. 5 is an explanatory diagram showing a search area of 21 × 5 pixels around the target pixel. As shown in FIG. 5, for example, surrounding 21 × 5 pixels (21 pixels in the horizontal direction and 5 pixels in the vertical direction) centering on the target pixel can be set as a search area for the target pixel.

全体の探索領域は21×5画素であるが、単独の検出アルゴリズムでは、この探索領域よりも小さい所定の正方領域(例えば3×3画素)単位で、検出処理を行う。このように検出アルゴリズムの個々の検出単位となる画素領域(例えば3×3画素)を、以下では「検出単位領域」と称する。この検出単位領域(3×3画素)は、探索領域(21×5画素)内であれば、任意の位置に複数設定することができる。例えば、図5に示す探索領域(21×5画素)内の21×3画素の領域(ハッチングを施した範囲)に、検索単位領域(3×3画素)を水平方向に7つ並べて設定してもよい。このように、検出単位領域は、所望の特徴点を検出するために必要な計算部分に応じて、21×3画素の領域のみに設定してもよいし、21×5画素の探索領域全体に設定してもよい。なお、複数の検出単位領域を、それらの一部が相互に重畳するように設定することも可能である。また、検出単位領域のサイズは、3×3画素の例に限定されない。   The entire search area is 21 × 5 pixels, but in a single detection algorithm, detection processing is performed in units of a predetermined square area (for example, 3 × 3 pixels) smaller than the search area. A pixel region (for example, 3 × 3 pixels) serving as an individual detection unit of the detection algorithm is hereinafter referred to as a “detection unit region”. A plurality of detection unit regions (3 × 3 pixels) can be set at arbitrary positions as long as they are within the search region (21 × 5 pixels). For example, seven search unit areas (3 × 3 pixels) are arranged in the horizontal direction in a 21 × 3 pixel area (hatched area) in the search area (21 × 5 pixels) shown in FIG. Also good. As described above, the detection unit area may be set only to a 21 × 3 pixel area or to the entire 21 × 5 pixel search area according to a calculation part necessary for detecting a desired feature point. It may be set. Note that it is also possible to set a plurality of detection unit areas so that some of them overlap each other. Further, the size of the detection unit area is not limited to the example of 3 × 3 pixels.

特徴点抽出部は、上記の探索領域に含まれる画素の情報を解析して、対象画素の特徴点情報を生成し、当該生成した特徴点情報に基づいて、対象画素がフラット部、グレーン部、モスキートノイズ部又はディテール部であるか否かを判別する。   The feature point extraction unit analyzes the information of the pixels included in the search area, generates the feature point information of the target pixel, and based on the generated feature point information, the target pixel is a flat part, a grain part, Whether it is a mosquito noise part or a detail part is determined.

ここで、フラット部は、隣り合った画素の映像信号の振幅が非常に小さい領域である。このフラット部では、点やエッジが存在しない。   Here, the flat portion is a region where the amplitude of the video signal of adjacent pixels is very small. In the flat portion, there are no points or edges.

また、グレーン部は、平坦な領域内に存在する輝点を含む領域である。上記フラット部の領域内に点のようなチラつきが発生する場合がある。グレーンは、絵画などのフィルム素材によく用いられる表現であり、特にフィルムグレーンと呼ばれる。   The grain portion is a region including a bright spot existing in a flat region. There may be a flicker like a dot in the region of the flat portion. Grain is an expression often used for film materials such as paintings, and is particularly called film grain.

モスキートノイズ部は、モスキートノイズを含む領域である。モスキートノイズは、デジタル圧縮画像(特にJPEG画像)を再生するときに、画像の輪郭部などに現れる細かいもやもやとしたノイズである。このノイズは、蚊の大群がまとわりついたように見えることから、この名称で呼ばれる。モスキートノイズは、画像の空間周波数の高周波数成分が失われたために起こる現象であり、高い圧縮率(低いビットレート)を用いたときに、画像の中で背景が平坦な色でコントラストが高い部分の周辺に現れやすい。   The mosquito noise part is an area including mosquito noise. Mosquito noise is fine and haze noise that appears at the contour of an image when a digitally compressed image (particularly a JPEG image) is played back. This noise is called this name because it looks like a group of mosquitoes clinging together. Mosquito noise is a phenomenon that occurs because the high frequency component of the spatial frequency of the image is lost. When a high compression ratio (low bit rate) is used, the image has a flat background and high contrast. It tends to appear around the area.

ディテール部は、隣り合った画素の映像信号に小振幅程度の差がある領域である。視覚的には、洋服の模様や動物の毛並みなどの模様を含む領域が、ディテール部に該当する。   The detail portion is a region where there is a difference of about a small amplitude between the video signals of adjacent pixels. Visually, an area including a pattern such as a clothes pattern or animal fur corresponds to a detail portion.

1.2 特徴点抽出画像解析の具体的手法
次に、特徴点抽出部による特徴点抽出のための画像解析の具体的手法について説明する。かかる解析手法としては、例えば以下に示すような手法(1)〜(7)が挙げられる。
1.2 Specific Method of Feature Point Extraction Image Analysis Next, a specific method of image analysis for feature point extraction by the feature point extraction unit will be described. Examples of such analysis methods include the following methods (1) to (7).

(1)輝度信号の相対オフセット検出
特徴点抽出部は、輝度信号(Y信号)を解析することで、対象画素xの周囲の画素の輝度と、対象画素xの輝度との差分を検出する。当該輝度の差分(変化量の範囲)が所定の指定値以内であれば、対象画素xが平坦領域(フラット部)であると判別できる。
(1) Relative Offset Detection of Luminance Signal The feature point extraction unit detects the difference between the luminance of pixels around the target pixel x and the luminance of the target pixel x by analyzing the luminance signal (Y signal). If the brightness difference (change amount range) is within a predetermined value, it can be determined that the target pixel x is a flat region (flat portion).

(2)輝度信号の変化量検出
特徴点抽出部は、輝度信号(Y信号)を解析することで、対象画素xに対する周囲の画素の輝度の変化量を検出する。図6に輝度変化量検出の具体例を示す。図6では、対象画素x(a5に相当)の周囲(上下左右及び斜め方向)にある8つの画素a1〜a4、a6〜a9について、輝度の変化量が求められる。例えば、特徴点抽出部は、[a4−a6]、[a2−a8]、[a1−a9]の輝度変化量から、画素a1から画素a9の方向に対する輝度のベクトル量を算出する。
(2) Detection of change in luminance signal The feature point extraction unit detects a change in luminance of surrounding pixels with respect to the target pixel x by analyzing the luminance signal (Y signal). FIG. 6 shows a specific example of luminance change amount detection. In FIG. 6, the amount of change in luminance is obtained for the eight pixels a1 to a4 and a6 to a9 around the target pixel x (corresponding to a5) (up and down, left and right, and diagonal directions). For example, the feature point extraction unit calculates a luminance vector amount in the direction from the pixel a1 to the pixel a9 from the luminance change amounts of [a4-a6], [a2-a8], and [a1-a9].

(3)輝度信号のエッジ検出
図7に示すように、特徴点抽出部は、輝度信号(Y信号)を解析することで、対象画素xの輝度とその周囲の画素a1〜a9の輝度との差分の絶対値(V_a=abs[x−a]をそれぞれ計算する。
abs[x−a1]=V_a1
・・・
abs[x−a9]=V_a9
(3) Edge Detection of Luminance Signal As shown in FIG. 7, the feature point extraction unit analyzes the luminance signal (Y signal), thereby obtaining the luminance of the target pixel x and the luminance of the surrounding pixels a1 to a9. The absolute value of the difference (V_a * = abs [x−a * ]) is calculated.
abs [x−a1] = V_a1
...
abs [x−a9] = V_a9

さらに、特徴点抽出部は、V_aが、所定の閾値(edge_TH)以上であれば、「エッジ(edge)」としてカウントする。この結果、カウントした数(edge)が、所定のカウント閾値(edge_TH_cnt)以上であれば、特徴点抽出部は、エッジありと判定する。
edge>=edge_TH_cnt
Furthermore, if V_a * is equal to or greater than a predetermined threshold (edge_TH), the feature point extraction unit counts as “edge”. As a result, if the counted number (edge) is equal to or greater than a predetermined count threshold (edge_TH_cnt), the feature point extraction unit determines that there is an edge.
edge> = edge_TH_cnt

このような輝度エッジ検出を、図7に示すように、全ての計算対象画素について行う。この計算対象画素は、例えば、21×5画素の探索領域内において、縦方向中央で水平方向に配列された第3番目から第19番目の画素である。なお、図7におけるMNR対象画素は、MNR(MPEG Noise Reducer)処理を必要とする画素である。   Such luminance edge detection is performed for all the calculation target pixels as shown in FIG. The calculation target pixels are, for example, the third to the 19th pixels arranged in the horizontal direction at the center in the vertical direction within the search area of 21 × 5 pixels. Note that the MNR target pixel in FIG. 7 is a pixel that requires MNR (MPEG Noise Reducer) processing.

(4)輝度信号の大エッジ検出
特徴点抽出部は、輝度信号を用いたエッジ検出を、対象画素xの周囲の画素のみならず、21×5画素の探索領域(図5参照)内で探索し、探索領域内に大エッジがあるか否かを判定する。この大エッジを検出するために、特徴点抽出部は、輝度信号(Y信号)を解析することで、探索領域内で対象画素から離隔した領域において、センターに位置する画素xの輝度と、その周囲の画素aの輝度との差分の絶対値(V_a=abs[x−a])をそれぞれ求め、所定の閾値と比較する(図14参照。)。
(4) Large Edge Detection of Luminance Signal The feature point extraction unit searches for edge detection using the luminance signal not only in the surrounding pixels of the target pixel x but also in a 21 × 5 pixel search area (see FIG. 5). It is then determined whether there is a large edge in the search area. In order to detect this large edge, the feature point extraction unit analyzes the luminance signal (Y signal), and in the region separated from the target pixel in the search region, Absolute values (V_a * = abs [x−a * ]) of differences from the brightness of the surrounding pixels a are obtained and compared with a predetermined threshold value (see FIG. 14).

(5)色差信号のエッジ検出
図8に示すように、特徴点抽出部は、色差信号(Cb、Cr信号)を解析することで、対象画素の輝度に対してChromaの変化量を求め、求めた変化量が所定の閾値以上である場合に、色差信号のエッジ(Edge)であると判断する。実際の映像信号は、Cb、Cr、Cb、Cr、・・という順序で、Cb、Crが交互に伝送されてくるので、色差エッジ検出のための計算も、この伝送方式に合わせて行う必要がある。そこで、特徴点抽出部は、図8に示すように、6×3画素内にあるCbとCrを分離して、独立した3×3画素の検出単位領域を構成し、CbとCrについてそれぞれ、検出単位領域内の中心にある対象画素と、その周囲にある8画素との色差の差分の絶対値を計算して、この差分の絶対値が所定の閾値以上であるか否かを判定する。この結果、当該差分が所定の閾値以上である場合には、エッジであると判定する。
(5) Edge Detection of Color Difference Signal As shown in FIG. 8, the feature point extraction unit obtains the amount of change of Chroma with respect to the luminance of the target pixel by analyzing the color difference signal (Cb, Cr signal). If the amount of change is equal to or greater than a predetermined threshold, it is determined that the edge of the color difference signal (Edge). In actual video signals, Cb and Cr are alternately transmitted in the order of Cb, Cr, Cb, Cr,..., So it is necessary to perform calculation for color difference edge detection according to this transmission method. is there. Therefore, as shown in FIG. 8, the feature point extraction unit separates Cb and Cr in 6 × 3 pixels to form independent 3 × 3 pixel detection unit regions, and Cb and Cr respectively The absolute value of the difference in color difference between the target pixel at the center in the detection unit region and the eight pixels around it is calculated, and it is determined whether or not the absolute value of this difference is greater than or equal to a predetermined threshold value. As a result, when the difference is equal to or larger than a predetermined threshold, it is determined that the edge is detected.

(6)色差信号の肌色検出
図9に示すように、特徴点抽出部は、色差信号(Cb、Cr信号)を解析することで、CbとCrの値が指定範囲内の場合、肌色部分であると判定する。この際、色差信号に加え、必要であれば輝度信号も使用して解析してもよい。
(6) Skin Color Detection of Color Difference Signal As shown in FIG. 9, the feature point extraction unit analyzes the color difference signal (Cb, Cr signal), and if the values of Cb and Cr are within the specified range, Judge that there is. At this time, in addition to the color difference signal, the luminance signal may be analyzed if necessary.

具体的には、図9に示すように、21×5画素の探索領域内の所定領域(例えば21×3画素領域)における全ての画素のCb、Crの分布に基づいて、中央にある対象画素が肌色部分であるか否かを判定する。例えば、特徴点抽出部は、当該所定領域内にある画素について、Cb、Crの値が、次式のような所定の範囲内であるか否かを判定し、当該所定の範囲内である場合に、肌色検出用のカウンター値としてカウントする。このカウント処理を上記所定領域(21×3画素)内にある全ての画素について行い、カウンター値が所定の閾値以上であれば、図9に示す対象画素が肌色領域であると判定する。
Cbmin<=Cb<=Cbmax
Crmin<=Cr<=Crmax
Specifically, as shown in FIG. 9, based on the distribution of Cb and Cr of all pixels in a predetermined area (for example, 21 × 3 pixel area) in the search area of 21 × 5 pixels, the target pixel at the center It is determined whether or not the skin color portion. For example, the feature point extraction unit determines whether or not the values of Cb and Cr are within a predetermined range such as the following expression for pixels in the predetermined region, and is within the predetermined range In addition, it is counted as a counter value for skin color detection. This counting process is performed for all the pixels in the predetermined area (21 × 3 pixels), and if the counter value is equal to or greater than a predetermined threshold value, it is determined that the target pixel shown in FIG. 9 is the skin color area.
Cbmin <= Cb <= Cbmax
Crmin <= Cr <= Crmax

さらに、対象画素のCb、Crと同じ位相の輝度の値Yが、次の式のように所定の範囲内でない場合には、対象画素が肌色領域ではないと判定する。このように輝度信号も利用して肌色検出することで、画像が極端に暗い又は明るい場合における誤検出を避けることができる。
Ymin<=Y<=Ymax
Further, when the luminance value Y having the same phase as Cb and Cr of the target pixel is not within a predetermined range as in the following expression, it is determined that the target pixel is not a skin color region. Thus, by detecting the skin color using the luminance signal, it is possible to avoid erroneous detection when the image is extremely dark or bright.
Ymin <= Y <= Ymax

(7)輝度信号のヒストグラム
図10に示すように、特徴点抽出部は、輝度信号のヒストグラム(輝度のばらつき情報)を、暗部と明部の判定に使用する。詳細には、特徴点抽出部は、21×5画素の探索領域内の所定領域(例えば21×3画素領域)におけるヒストグラム情報を収集し、ヒストグラムの輝度分布が極端に偏っている場合に、エンハンス処理に反映する。
(7) Luminance Signal Histogram As shown in FIG. 10, the feature point extraction unit uses the luminance signal histogram (luminance variation information) to determine the dark part and the bright part. Specifically, the feature point extraction unit collects histogram information in a predetermined region (for example, a 21 × 3 pixel region) in a 21 × 5 pixel search region, and enhances when the luminance distribution of the histogram is extremely biased. Reflect in processing.

1.3 特徴点情報のカウント、画像判別の概要
特徴点抽出部は、検出した以下のデータを使用して、対象画素がフラット部、グレーン部、モスキートノイズ部又はディテール部に相当するか否かを判別し、画面内において当該各部に相当する画素数をカウントする。さらに、特徴点抽出部は、このカウント情報から、対象画面がどのような画像であるかを判定し、判定した情報を、V単位(即ち、映像信号のフレーム単位。例えば、映像信号が60Hzで伝送されてくる場合、V単位=「60分の1秒」単位)でパケット化して外部記憶装置に蓄積する。
1.3 Overview of Feature Point Information Counting and Image Discrimination The feature point extraction unit uses the following detected data to determine whether the target pixel corresponds to a flat part, a grain part, a mosquito noise part, or a detail part. And the number of pixels corresponding to each part in the screen is counted. Further, the feature point extraction unit determines what kind of image the target screen is from this count information, and determines the determined information as V units (that is, frame units of the video signal. For example, the video signal is 60 Hz). When it is transmitted, it is packetized in units of V = “1 / 60th of a second”) and stored in the external storage device.

1.4 特徴点抽出画像解析の判別動作
次に、対象画素がフラット部、グレーン部、モスキートノイズ部又はディテール部に相当するか否かを判別するための具体的手法について説明する。
1.4 Feature Point Extracted Image Analysis Discrimination Operation Next, a specific method for discriminating whether the target pixel corresponds to a flat portion, a grain portion, a mosquito noise portion, or a detail portion will be described.

(1)フラット部判別
図11に示すように、特徴点抽出部は、21×5画素の探索領域を、対象画素の左右方向に配列された正方形状の分割領域(例えば3×3画素の領域)に分割する。さらに、特徴点抽出部は、当該3×3画素の分割領域ごとに、各分割領域のセンターに位置する画素と、その周囲の画素との輝度の差分を検出する。そして、特徴点抽出部は、当該各分割領域について検出した差分と所定の閾値とを比較することで、対象画素がフラット部であるか否かを判定する。以下に、フラット部判別を行うための計算手法の具体例について説明する。
(1) Discrimination of flat part As shown in FIG. 11, the feature point extraction unit converts a 21 × 5 pixel search area into square divided areas (for example, 3 × 3 pixel areas) arranged in the horizontal direction of the target pixel. ). Further, the feature point extraction unit detects, for each of the 3 × 3 pixel divided regions, a luminance difference between the pixel located at the center of each divided region and the surrounding pixels. Then, the feature point extraction unit determines whether or not the target pixel is a flat part by comparing the difference detected for each of the divided regions with a predetermined threshold value. Below, the specific example of the calculation method for performing flat part discrimination | determination is demonstrated.

まず、図11の下段に示すように、3×3画素の分割領域ごとに、各分割領域のセンターに位置する画素xと、その周囲の各画素a1〜a4、a6〜a9との輝度の差分の絶対値(V_a)をそれぞれ計算する。
abs[x−a1]=V_a1
・・・
abs[x−a9]=V_a9
First, as shown in the lower part of FIG. 11, for each 3 × 3 pixel divided region, the luminance difference between the pixel x located at the center of each divided region and the surrounding pixels a1 to a4 and a6 to a9. The absolute value (V_a * ) is calculated.
abs [x−a1] = V_a1
...
abs [x−a9] = V_a9

この結果、差分の絶対値(V_a)が所定の閾値(Flat_TH)以下であれば、平坦を示すカウンター値(Flat_cnt)としてカウントする。
V_a<=Flat_TH
As a result, if the absolute value of the difference (V_a * ) is less than or equal to a predetermined threshold value (Flat_TH), it is counted as a counter value (Flat_cnt) indicating flatness.
V_a * <= Flat_TH

そして、当該分割領域内の画素a1〜a4、a6〜a9の合計のカウンター値(Flat_cnt)が、所定のカウンター閾値(Flat_TH_cnt)以下であれば、当該分割領域がフラットであると判定し、Flat_cntがFlat_TH_cntより大であれば、当該分割領域がフラットでないと判定する。
Flat_cnt<=Flat_TH_cnt
If the total counter value (Flat_cnt) of the pixels a1 to a4 and a6 to a9 in the divided area is equal to or less than a predetermined counter threshold (Flat_TH_cnt), it is determined that the divided area is flat, and Flat_cnt is If it is larger than Flat_TH_cnt, it is determined that the divided area is not flat.
Flat_cnt <= Flat_TH_cnt

以上のフラット判定を、対象画素の周辺の全ての分割領域(図11の例では7個の分割領域)について行い、全ての分割領域がフラットであると判定された場合、対象画素が平坦(即ち、フラット部)であると判定される。   The flat determination described above is performed for all the divided regions around the target pixel (seven divided regions in the example of FIG. 11), and when it is determined that all the divided regions are flat, the target pixel is flat (that is, , Flat portion).

(2)グレーン部判別
図12に示すように、特徴点抽出部は、上記フラット判定に加えて、対象画素に対するグレーン判定を行う。つまり、特徴点抽出部は、対象画素を含む3×3画素の分割領域について、対象画素と、その周囲の画素との輝度の差分を検出し、当該検出した差分と所定の閾値とを比較することで、対象画素がグレーン部であるか否かを判定する。このグレーン部の判定処理は、上記フラット部の判定の式に合致しなかった画素に対して行われる。以下に、グレーン部判別を行うための輝点の計算手法の具体例について説明する。
(2) Grain part discrimination | determination As shown in FIG. 12, in addition to the said flat determination, the feature point extraction part performs the grain determination with respect to an object pixel. That is, the feature point extraction unit detects a luminance difference between the target pixel and surrounding pixels in a 3 × 3 pixel divided region including the target pixel, and compares the detected difference with a predetermined threshold value. Thus, it is determined whether or not the target pixel is a grain portion. This grain portion determination process is performed on pixels that do not match the flat portion determination formula. Hereinafter, a specific example of the bright spot calculation method for determining the grain portion will be described.

まず、図12の下段に示すように、対象画素を含む3×3画素の分割領域で、対象画素xと、その周囲の各画素a1〜a4、a6〜a9との輝度の差分の絶対値(V_a)をそれぞれ計算する。
abs[x−a1]=V_a1
・・・
abs[x−a9]=V_a9
First, as shown in the lower part of FIG. 12, in the 3 × 3 pixel divided region including the target pixel, the absolute value of the luminance difference between the target pixel x and the surrounding pixels a1 to a4 and a6 to a9 ( V_a * ) is calculated respectively.
abs [x−a1] = V_a1
...
abs [x−a9] = V_a9

この結果、差分の絶対値(V_a)が所定の閾値(Point_TH)以上であれば、輝点を示すカウンター値(Point_cnt)としてカウントする。そして、当該分割領域内の画素a1〜a4、a6〜a9の合計のカウンター値(Point_cnt)が、所定のカウンター閾値(Point_TH_cnt)以下であれば、当該対象画素xが輝点(即ち、グレーン部)であると判定し、Point_cntが、Point_TH_cntより大きければ、当該対象画素xが輝点でないと判定する。
Point_cnt<=Point_TH_cnt
As a result, if the absolute value of the difference (V_a * ) is greater than or equal to a predetermined threshold value (Point_TH), it is counted as a counter value (Point_cnt) indicating a bright spot. If the total counter value (Point_cnt) of the pixels a1 to a4 and a6 to a9 in the divided area is equal to or smaller than a predetermined counter threshold value (Point_TH_cnt), the target pixel x is a bright spot (that is, a grain portion). If Point_cnt is greater than Point_TH_cnt, it is determined that the target pixel x is not a bright spot.
Point_cnt <= Point_TH_cnt

(3)モスキートノイズ部判別
次に、モスキートノイズ部を判別する具体的手法について説明する。例えば、下記のような(3a)センターエッジ検出、(3b)大エッジ検出、(3c)大エッジからの距離判定を利用して、モスキートノイズ部を判別できる。なお、モスキートノイズ部の判定処理は、上記フラット部及びグレーン部の判定処理後に、フラット部及びグレーン部のいずれにも該当しなかった画素に対して行われる。
(3) Determination of Mosquito Noise Part Next, a specific method for determining the mosquito noise part will be described. For example, the mosquito noise part can be determined using the following (3a) center edge detection, (3b) large edge detection, and (3c) distance determination from the large edge. The determination process of the mosquito noise part is performed on the pixels that do not correspond to either the flat part or the grain part after the determination process of the flat part and the grain part.

(3a)センターエッジ検出
図13に示すように、特徴点抽出部は、対象画素をセンターとする3×3画素の領域について、対象画素と、その周囲の画素との輝度の差分を検出し、当該検出した差分が所定範囲にあるか否かに基づいて、対象画素がモスキートノイズ部であるか否かを判定する。以下に、その具体例について説明する。
(3a) Center edge detection As shown in FIG. 13, the feature point extraction unit detects a luminance difference between the target pixel and surrounding pixels in a 3 × 3 pixel region centered on the target pixel, Whether or not the target pixel is a mosquito noise part is determined based on whether or not the detected difference is within a predetermined range. Specific examples thereof will be described below.

まず、図13に示すように、対象画素xの周辺の3×3画素の領域で、対象画素xと、その周囲の各画素a1〜a4、a6〜a9との輝度の差分の絶対値(V_a)をそれぞれ計算する。
abs[x−a1]=V_a1
・・・
abs[x−a9]=V_a9
First, as shown in FIG. 13, in the 3 × 3 pixel area around the target pixel x, the absolute value (V_a) of the luminance difference between the target pixel x and each of the surrounding pixels a1 to a4 and a6 to a9. * Calculate each).
abs [x−a1] = V_a1
...
abs [x−a9] = V_a9

この結果、差分の絶対値(V_a)が、所定の数値範囲内、即ち、所定の下限値(MNRmin_TH)以上、所定の上限値(MNRmax_TH)以下であれば、センターエッジを示すカウンター値(MNR_cnt)としてカウントする。そして、当該領域内の画素a1〜a4、a6〜a9の合計のカウンター値(MNR_cnt)が、所定のカウンター閾値(MNR_TH_cnt)以下であれば、当該対象画素xは、モスキートノイズ部の可能性があると判定する。
MNR_cnt<=MNR_TH_cnt
As a result, if the absolute value of the difference (V_a * ) is within a predetermined numerical range, that is, a predetermined lower limit value (MNRmin_TH) or more and a predetermined upper limit value (MNRmax_TH) or less, the counter value (MNR_cnt) indicating the center edge ). If the total counter value (MNR_cnt) of the pixels a1 to a4 and a6 to a9 in the region is equal to or smaller than a predetermined counter threshold value (MNR_TH_cnt), the target pixel x may be a mosquito noise part. Is determined.
MNR_cnt <= MNR_TH_cnt

(3b)大エッジ検出
図14に示すように、特徴点抽出部は、上記(1)フラット部判定と同様にして、21×5画素の探索領域を複数の分割領域(例えば3×3画素の領域)に分割する。さらに、特徴点抽出部は、対象画素を含む分割領域から所定ブロック(例えば1ブロック)離れた分割領域について、その分割領域のセンターに位置する画素と、その周囲の画素との輝度の差分を検出する。そして、特徴点抽出部は、当該検出した差分と所定の閾値とを比較することで、対象画素がモスキートノイズ部であるか否かを判定する。以下に、その具体例について説明する。
(3b) Large Edge Detection As shown in FIG. 14, the feature point extraction unit performs a 21 × 5 pixel search region into a plurality of divided regions (for example, 3 × 3 pixel, for example) in the same manner as the above (1) flat portion determination. Area). Further, the feature point extraction unit detects a difference in luminance between a pixel located at the center of the divided region and a surrounding pixel with respect to the divided region separated by a predetermined block (for example, one block) from the divided region including the target pixel. To do. The feature point extraction unit determines whether the target pixel is a mosquito noise unit by comparing the detected difference with a predetermined threshold. Specific examples thereof will be described below.

まず、図14に示すように、対象画素を含む分割領域から1ブロック以上離れた分割領域(図示の例では、左から1、2、6、7番目の分割領域)で、当該分割領域のセンターに位置する画素xと、その周囲の各画素a1〜a4、a6〜a9との輝度の差分の絶対値(V_a)をそれぞれ計算する。
abs[x−a1]=V_a1
・・・
abs[x−a9]=V_a9
First, as shown in FIG. 14, in a divided area (in the illustrated example, the first, second, sixth, and seventh divided areas from the left) that is one block or more away from the divided area including the target pixel, The absolute value (V_a * ) of the difference in luminance between the pixel x located in the pixel x and the surrounding pixels a1 to a4 and a6 to a9 is calculated.
abs [x−a1] = V_a1
...
abs [x−a9] = V_a9

この結果、差分の絶対値(V_a)が、所定の閾値(MNRmax_TH)以上であれば、大エッジを示すカウンター値(MNRBig_cnt)としてカウントする。そして、当該領域内の画素a1〜a4、a6〜a9の合計のカウンター値(MNRBig_cnt)が、所定のカウンター閾値(MNRBig_TH_cnt)以上であれば、対象画素は、モスキートノイズ部の可能性があると判定する。
MNRBig_cnt>=MNRBig_TH_cnt
As a result, if the absolute value of the difference (V_a * ) is greater than or equal to a predetermined threshold (MNRmax_TH), it is counted as a counter value (MNRBig_cnt) indicating a large edge. If the total counter value (MNRBig_cnt) of the pixels a1 to a4 and a6 to a9 in the area is equal to or greater than a predetermined counter threshold value (MNRBig_TH_cnt), the target pixel is determined to be a mosquito noise part. To do.
MNRBig_cnt> = MNRBig_TH_cnt

(3c)大エッジからの距離判定
図15に示すように、特徴点抽出部は、上記(1)フラット部判定と同様にして、21×5画素の探索領域を複数の分割領域(例えば3×3画素の領域)に分割する。さらに、特徴点抽出部は、対象画素を含む分割領域に隣接する分割領域について、その分割領域のセンターに位置する画素と、その周囲の画素との輝度の差分を検出する。そして、特徴点抽出部は、当該検出した差分と所定の閾値とを比較することで、対象画素がモスキートノイズ部であるか否かを判定する。以下に、その具体例について説明する。
(3c) Distance Determination from Large Edge As shown in FIG. 15, the feature point extraction unit performs a 21 × 5 pixel search region in a plurality of divided regions (for example, 3 × Divided into 3 pixel regions). Further, the feature point extraction unit detects a difference in luminance between a pixel located at the center of the divided region and pixels around the divided region adjacent to the divided region including the target pixel. The feature point extraction unit determines whether the target pixel is a mosquito noise unit by comparing the detected difference with a predetermined threshold. Specific examples thereof will be described below.

まず、図15に示すように、対象画素を含む分割領域と隣接する分割領域(図示の例では、左から3、5番目の分割領域)で、当該分割領域のセンターに位置する画素xと、その周囲の各画素a1〜a4、a6〜a9との輝度の差分の絶対値(V_a)をそれぞれ計算する。
abs[x−a1]=V_a1
・・・
abs[x−a9]=V_a9
First, as shown in FIG. 15, a pixel x located at the center of the divided region in the divided region including the target pixel (in the illustrated example, the third and fifth divided regions from the left), The absolute value (V_a * ) of the difference in luminance from the surrounding pixels a1 to a4 and a6 to a9 is calculated.
abs [x−a1] = V_a1
...
abs [x−a9] = V_a9

この結果、差分の絶対値(V_a)が、所定の閾値(MNRmax_TH)以上であれば、大エッジを示すカウンター値(MNRFarEdge_cnt)としてカウントする。そして、当該領域内の画素a1〜a4、a6〜a9の合計のカウンター値(MNRFarEdge_cnt)が、所定のカウンター閾値(MNRFarEdge_TH_cnt)以下であれば、対象画素は、モスキートノイズ部の可能性があると判定する。
MNRFarEdge_cnt<=MNRFarEdge_TH_cnt
As a result, if the absolute value of the difference (V_a * ) is greater than or equal to a predetermined threshold (MNRmax_TH), it is counted as a counter value (MNRFarEdge_cnt) indicating a large edge. If the total counter value (MNRFarEdge_cnt) of the pixels a1 to a4 and a6 to a9 in the region is equal to or smaller than a predetermined counter threshold (MNRFarEdge_TH_cnt), it is determined that the target pixel may be a mosquito noise part. To do.
MNRFarEdge_cnt <= MNRFarEdge_TH_cnt

(4)ディテール部判別
以上のような(1)〜(3)の判定の結果、特徴点抽出部は、上記のフラット部、グレーン部、モスキートノイズ部のいずれにも該当しない部分を、ディテール部として判定する。
(4) Detail Part Determination As a result of the determinations (1) to (3) as described above, the feature point extraction unit determines a part that does not correspond to any of the flat part, grain part, and mosquito noise part as the detail part. Judge as.

2.特徴点情報を用いた画質調整処理
次に、以上のようにして求めた映像の特徴点情報を用いた再生画像の画質調整処理について説明する。画質調整処理は、画質調整部(図4のCPU100の制御ルーチン作成部110及び画質調整制御部114と、出力画質調整ブロック70とで構成される。)によって行われる。なお、以下の例では、再生映像をノイズリダクション(Noise Reduction:NR)するときのゲイン(NR強度)を、特徴点情報を用いて制御する例について説明する。
2. Image Quality Adjustment Processing Using Feature Point Information Next, image quality adjustment processing of a reproduced image using image feature point information obtained as described above will be described. The image quality adjustment processing is performed by an image quality adjustment unit (consisting of the control routine creation unit 110 and image quality adjustment control unit 114 of the CPU 100 in FIG. 4 and the output image quality adjustment block 70). In the following example, an example will be described in which gain (NR intensity) when noise reduction (NR) is performed on a reproduced video is controlled using feature point information.

2.1 特徴点情報を用いたノイズリダクションのゲイン制御の概要
記録再生装置10の画質調整部は、上記抽出された特徴点情報に加え、例えば、CM検出機能や番組情報(映像コンテンツの種類など)により得られる映像コンテンツの属性情報などを使用して、映像コンテンツに関する情報を得る。画質調整部は、このようにして最終的に得られた情報を総合して、映像コンテンツを複数の種別に分類する。ここで分類される映像コンテンツを複数の種別は、例えば、アニメの映像(フラット部:多、ノイズ:小)、転送レートが比較的低い汚い映像(モスキートノイズ部:多)、アナログ放送の映像(グレーン部:多、ディテール部:多)、本編放送と関係ないCM部分の映像(CM検出結果より分類可)などである。
2.1 Outline of Noise Reduction Gain Control Using Feature Point Information In addition to the extracted feature point information, the image quality adjustment unit of the recording / reproducing apparatus 10 includes, for example, a CM detection function and program information (such as the type of video content). The information regarding the video content is obtained using the attribute information of the video content obtained by (). The image quality adjustment unit categorizes the video content into a plurality of types by combining the information finally obtained in this way. The video content classified here includes, for example, animation video (flat part: many, noise: small), dirty video with relatively low transfer rate (mosquito noise part: many), analog broadcast video ( Grain part: many, detail part: many), video of CM part unrelated to the main part broadcast (can be classified from CM detection result), and the like.

さらに、画質調整部は、それぞれの種別に合わせてチューニングしたNRの設定値を採用して、映像コンテンツの種別に応じた制御ルーチンを作成する。   Further, the image quality adjustment unit adopts the NR setting value tuned according to each type, and creates a control routine according to the type of video content.

上記に加え、画質調整部は、映像フレーム単位(V単位)での特徴点情報を使用して、画面内のフラット部、グレーン部、モスキートノイズ部、ディテール部の構成比を判定する。そして、画質調整部は、当該構成比が大きく変化する映像フレームをシーンチェンジとみなし、シーンチェンジ後の映像に対するNRの強度設定を標準値に戻す。それ以外の部分に関しては、画質調整部は、NRのセット仕様に応じて、NRの動作を制御する。このために、画質調整部は、映像コンテンツを1Pass記録時に、特徴点情報の増減値を集計し、NRの設定値を予め作成して、それを反映させた制御ルーチンを制御ルーチン記憶部112に保存しておく。   In addition to the above, the image quality adjustment unit determines the composition ratio of the flat portion, the grain portion, the mosquito noise portion, and the detail portion in the screen by using the feature point information in video frame units (V units). Then, the image quality adjustment unit regards the video frame in which the composition ratio greatly changes as a scene change, and returns the NR intensity setting for the video after the scene change to the standard value. For the other parts, the image quality adjustment unit controls the NR operation according to the NR set specification. For this purpose, the image quality adjustment unit aggregates the increase / decrease values of the feature point information when the video content is recorded for 1 Pass, creates a set value of NR in advance, and stores a control routine reflecting the value in the control routine storage unit 112. Save it.

2.2 画面の領域ごとにNR強度を設定できるシステムの場合
画質調整部は、画面内のフラット部、グレーン部、モスキートノイズ部、ディテール部の割合(構成比)の変化に応じて、NR強度を変更する。このとき、画面の領域ごとの各部の変化量情報を使用して、画面の領域ごとにNR強度を変更する。
2.2 In the case of a system that can set the NR intensity for each screen area The image quality adjustment unit adjusts the NR intensity according to changes in the ratio (composition ratio) of the flat part, grain part, mosquito noise part, and detail part in the screen. To change. At this time, the NR intensity is changed for each screen area by using the change amount information of each part for each screen area.

例えば、(1)画面の所定領域がフラット部からグレーン部又はモスキートノイズ部に変化する場合には、画質調整部は、当該領域に対するNR強度を強める。一方、(2)画面の所定領域がグレーン部又はモスキート部からフラット部に変化する場合には、画質調整部は、当該領域に対するNR強度を弱める。また、(3)画面の所定領域がフラット部からディテール部に変化する場合には、画質調整部は、当該領域に対するNR強度を弱める。一方、(4)画面の所定領域がディテール部からフラット部に変化する場合には、画質調整部は、当該領域に対するNR強度を強める。このようにNR強度を制御することで、映像コンテンツを構成する各画面の領域ごとに、その領域の映像の特徴に応じた適切なNR強度で、ノイズ除去処理を実行できる。   For example, (1) when the predetermined area of the screen changes from the flat part to the grain part or the mosquito noise part, the image quality adjustment part increases the NR intensity for the area. On the other hand, (2) when the predetermined area of the screen changes from the grain part or the mosquito part to the flat part, the image quality adjustment unit weakens the NR intensity for the area. (3) When the predetermined area of the screen changes from the flat part to the detail part, the image quality adjustment unit weakens the NR intensity for the area. On the other hand, (4) when the predetermined area of the screen changes from the detail area to the flat area, the image quality adjustment section increases the NR intensity for the area. By controlling the NR intensity in this way, it is possible to execute the noise removal process for each area of each screen constituting the video content with an appropriate NR intensity corresponding to the video characteristics of the area.

2.3 画面単位でNR強度を設定できるシステムの場合
画質調整部は、画面内のフラット部、グレーン部、モスキートノイズ部、ディテール部の割合(構成比)が極端に偏らない場合は、画面全体に対するNR強度を標準値で使用し、
極端に偏った場合のみ、NR制御処理を行う。
2.3 In the case of a system that can set the NR intensity in units of screens The image quality adjustment unit will display the entire screen if the ratio (composition ratio) of the flat, grain, mosquito noise, and detail parts in the screen is not extremely biased Using the NR intensity against the standard value,
Only when it is extremely biased, NR control processing is performed.

例えば、(1)画面内にフラット部、グレーン部、モスキート部が多く存在する場合には、画質調整部は、画面全体に対するNR強度を強める。一方、画面内にディテール部が多く存在する場合には、画質調整部は、画面全体に対するNR強度を弱める。このようにNR強度を制御することで、映像コンテンツを構成する各画面ごとに、その画面の映像の特徴に応じた適切なNR強度で、ノイズ除去処理を実行できる。   For example, (1) when there are many flat parts, grain parts, and mosquito parts in the screen, the image quality adjustment unit increases the NR intensity for the entire screen. On the other hand, when there are many detail portions in the screen, the image quality adjustment portion weakens the NR intensity for the entire screen. By controlling the NR intensity in this way, the noise removal process can be executed for each screen constituting the video content with an appropriate NR intensity according to the video characteristics of the screen.

なお、NR以外の画像調整処理についても同様にして、上記の特等点情報に基づいて、V単位(映像フレーム単位)で出力画質調整ブロック70を制御することで実現できる。   Similarly, image adjustment processing other than NR can be realized by controlling the output image quality adjustment block 70 in V units (video frame units) based on the special point information.

以上、本実施形態にかかる記録再生装置10と、その画質調整方法について詳細に説明した。本実施形態にかかる記録再生装置10によれば、コンテンツの記録時又は再生時に、その映像コンテンツの特徴点情報を記録しておき、そのコンテンツの次回再生時に、当該特徴点情報に応じた制御ルーチンを用いて、再生映像の出力画質調整機能を動的に制御する。さらに、記録再生装置10は、この制御ルーチンを、特徴点情報のみならず、コンテンツの属性情報(番組情報等)も加味して予め設定しておく。これにより、コンテンツの最初の録画時に、コンテンツの番組全体の内容を予め解析しておき、そのコンテンツの次の再生時に、当該解析結果に応じて、再生映像の必要な部分に対し適切な種類の出力画質調整を適切な程度で施すことができる。即ち、記録されたコンテンツごとに、当該各コンテンツの映像の特徴点及び属性に応じて、適切な画質調整を施すことができ、綺麗な再生映像を出力できる。よって、従来よりも効果的かつ効率的な画質改善を実現できる。   Heretofore, the recording / reproducing apparatus 10 according to the present embodiment and the image quality adjustment method thereof have been described in detail. According to the recording / reproducing apparatus 10 according to the present embodiment, the feature point information of the video content is recorded at the time of recording or reproducing the content, and the control routine according to the feature point information at the next reproduction of the content Is used to dynamically control the output image quality adjustment function of the reproduced video. Further, the recording / reproducing apparatus 10 sets the control routine in advance in consideration of not only the feature point information but also content attribute information (program information and the like). As a result, when the content is recorded for the first time, the content of the entire content program is analyzed in advance, and when the content is reproduced next time, an appropriate type of the necessary portion of the reproduced video is selected according to the analysis result. The output image quality can be adjusted to an appropriate level. That is, for each recorded content, appropriate image quality adjustment can be performed according to the feature points and attributes of the video of each content, and a beautiful reproduced video can be output. Therefore, the image quality can be improved more effectively and more efficiently than before.

また、従来では、コンテンツの記録時点でコンテンツの解析を行っていないため、不必要な部分にノイズリダクションをかけてしまうなど、動的に再生画質調整を行うことができなかった。また、従来では、かかる画質調整機能を手動で制御していた。これに対し、本実施形態では、再生画質向上のためにユーザの余計な操作なしで、画質調整機能を動的に制御することができる。結果として、ユーザに快適な再生画質を提供することが可能である。   Conventionally, since the content is not analyzed at the time of recording the content, it has been impossible to dynamically adjust the reproduction image quality such as applying noise reduction to unnecessary portions. Conventionally, the image quality adjustment function is manually controlled. On the other hand, in the present embodiment, the image quality adjustment function can be dynamically controlled without extra user operation to improve the reproduction image quality. As a result, it is possible to provide a user with a comfortable reproduction image quality.

また、CPU100が、予め解析した特徴点情報に応じた制御ルーチンに従って、出力画質調整ブロック70の動作を制御する。従って、既存の出力画質調整ブロック70をそのまま使用することができ、汎用性が高く、製造コストを低減できる。   Further, the CPU 100 controls the operation of the output image quality adjustment block 70 according to a control routine corresponding to the feature point information analyzed in advance. Therefore, the existing output image quality adjustment block 70 can be used as it is, and the versatility is high and the manufacturing cost can be reduced.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

例えば、上記実施形態では、コンテンツを記録及び再生可能な記録再生装置10に、画質調整装置を適用した例について説明したが、本発明はかかる例に限定されない。本発明の画質調整装置は、例えば、記録機能を具備しない再生専用装置、各種の情報処理装置など、任意の画像処理装置に適用できる。   For example, in the above-described embodiment, the example in which the image quality adjustment apparatus is applied to the recording / reproducing apparatus 10 capable of recording and reproducing the content has been described, but the present invention is not limited to such an example. The image quality adjustment apparatus of the present invention can be applied to an arbitrary image processing apparatus such as a reproduction-only apparatus that does not have a recording function and various information processing apparatuses.

また、上記実施形態では、主に、コンテンツを記録媒体に記録するときに、コンテンツの特徴点情報を抽出する例について説明したが、本発明はかかる例に限定されない。例えば、セルDVDなどの記録媒体に記録されたコンテンツを再生するときに、その特徴点情報を抽出し、次回の再生時にその特徴点情報を利用してもよい。   In the above embodiment, an example in which content feature point information is extracted when content is recorded on a recording medium has been described. However, the present invention is not limited to such an example. For example, when reproducing content recorded on a recording medium such as a cell DVD, the feature point information may be extracted, and the feature point information may be used at the next reproduction.

また、上記実施形態では、属性情報取得部102、解析部106、制御ルーチン作成部110、画質調整制御部114は、これら各部の機能をコンピュータに実行させるプログラムをインストールすることで、ソフトウェアとして実現されていたが、かかる例に限定されず、上記各部の機能を有するハードウェアで実現することもできる。   In the above embodiment, the attribute information acquisition unit 102, the analysis unit 106, the control routine creation unit 110, and the image quality adjustment control unit 114 are realized as software by installing a program that causes the computer to execute the functions of these units. However, the present invention is not limited to this example, and can be realized by hardware having the functions of the above-described units.

本発明の一実施形態にかかる記録再生装置の構成を示すブロック図である。It is a block diagram which shows the structure of the recording / reproducing apparatus concerning one Embodiment of this invention. 同実施形態にかかる特徴点抽出ブロックの内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the feature point extraction block concerning the embodiment. 同実施形態にかかる出力画質調整ブロックの内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the output image quality adjustment block concerning the embodiment. 同実施形態にかかる記録再生装置の主要部の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the principal part of the recording / reproducing apparatus concerning the embodiment. 同実施形態にかかる画像解析における対象画素の周囲画素の探索領域を示す説明図である。It is explanatory drawing which shows the search area | region of the surrounding pixel of the object pixel in the image analysis concerning the embodiment. 同実施形態にかかる画像解析における輝度変化量検出の具体例を示す説明図である。It is explanatory drawing which shows the specific example of the luminance variation detection in the image analysis concerning the embodiment. 同実施形態にかかる画像解析における輝度信号のエッジ検出の具体例を示す説明図である。It is explanatory drawing which shows the specific example of the edge detection of the luminance signal in the image analysis concerning the embodiment. 同実施形態にかかる画像解析における色差信号のエッジ検出の具体例を示す説明図である。It is explanatory drawing which shows the specific example of the edge detection of the color difference signal in the image analysis concerning the embodiment. 同実施形態にかかる画像解析における色差信号を用いた肌色検出の具体例を示す説明図である。It is explanatory drawing which shows the specific example of the skin color detection using the color difference signal in the image analysis concerning the embodiment. 同実施形態にかかる画像解析における輝度ヒストグラムによる明部及び暗部検出の具体例を示す説明図である。It is explanatory drawing which shows the specific example of the bright part and dark part detection by the luminance histogram in the image analysis concerning the embodiment. 同実施形態にかかる画像解析におけるフラット部の判別の具体例を示す説明図である。It is explanatory drawing which shows the specific example of discrimination | determination of the flat part in the image analysis concerning the embodiment. 同実施形態にかかる画像解析におけるグレーン部の判別の具体例を示す説明図である。It is explanatory drawing which shows the specific example of discrimination | determination of the grain part in the image analysis concerning the embodiment. 同実施形態にかかる画像解析におけるモスキートノイズ部の判別の具体例を示す説明図である。It is explanatory drawing which shows the specific example of discrimination | determination of the mosquito noise part in the image analysis concerning the embodiment. 同実施形態にかかる画像解析におけるモスキートノイズ部の判別の別の具体例を示す説明図である。It is explanatory drawing which shows another specific example of discrimination | determination of the mosquito noise part in the image analysis concerning the embodiment. 同実施形態にかかる画像解析におけるモスキートノイズ部の判別の別の具体例を示す説明図である。It is explanatory drawing which shows another specific example of discrimination | determination of the mosquito noise part in the image analysis concerning the embodiment.

符号の説明Explanation of symbols

10 記録再生装置
11 アナログチューナー
12 A/D変換器
13 アナログ入力端子
14 DV入力端子
15 DVデコーダ
16 デジタルチューナー
17 i.LINK端子
18 USB端子
19 通信部
20 AVエンコーダ
30 ストリームプロセッサ
40 AVデコーダ
42 スケーラ
44 オーディオプロセッサ
50 記録部
52 ハードディスクドライブ
54 光ディスクドライブ
60 特徴点抽出ブロック
70 出力画質調整ブロック
80 グラフィック処理部
82 ディスプレイ処理部
84 D/A変換器
92 ROM
94 RAM
96 ユーザインタフェース
100 CPU
102 属性情報取得部
104 属性情報記憶部
106 解析部
108 特徴点情報記憶部
110 制御ルーチン作成部
112 制御ルーチン記憶部
114 画質調整制御部
DESCRIPTION OF SYMBOLS 10 Recording / reproducing apparatus 11 Analog tuner 12 A / D converter 13 Analog input terminal 14 DV input terminal 15 DV decoder 16 Digital tuner 17 i. LINK terminal 18 USB terminal 19 communication unit 20 AV encoder 30 stream processor 40 AV decoder 42 scaler 44 audio processor 50 recording unit 52 hard disk drive 54 optical disk drive 60 feature point extraction block 70 output image quality adjustment block 80 graphic processing unit 82 display processing unit 84 D / A converter 92 ROM
94 RAM
96 User interface 100 CPU
102 attribute information acquisition unit 104 attribute information storage unit 106 analysis unit 108 feature point information storage unit 110 control routine creation unit 112 control routine storage unit 114 image quality adjustment control unit

Claims (5)

記録媒体に記録されるコンテンツの映像信号を解析して、前記コンテンツの映像の特徴点情報を抽出する特徴点抽出部と;
前記記録媒体に記録された前記コンテンツを再生するときに、前記コンテンツの映像の出力画質を調整する出力画質調整部と;
前記コンテンツの前記特徴点情報に基づいて、前記出力画質調整部を制御する画質調整制御部と;
を備えることを特徴とする、画質調整装置。
A feature point extraction unit that analyzes a video signal of content recorded on a recording medium and extracts feature point information of the content video;
An output image quality adjustment unit that adjusts an output image quality of a video of the content when reproducing the content recorded on the recording medium;
An image quality adjustment control unit that controls the output image quality adjustment unit based on the feature point information of the content;
An image quality adjusting device comprising:
前記特徴点情報に基づいて、前記出力画質調整部を制御するための制御ルーチンを前記コンテンツごとに作成する制御ルーチン作成部をさらに備え、
前記記録媒体に記録された前記コンテンツを再生するときに、前記画質調整制御部は、当該コンテンツに対応する前記制御ルーチンに基づいて、前記出力画質調整部を制御することを特徴とする、請求項1に記載の画質調整装置。
A control routine creating unit that creates, for each content, a control routine for controlling the output image quality adjusting unit based on the feature point information;
The image quality adjustment control unit controls the output image quality adjustment unit based on the control routine corresponding to the content when reproducing the content recorded on the recording medium. 2. The image quality adjusting apparatus according to 1.
前記コンテンツの属性情報を取得する属性情報取得部をさらに備え、
前記制御ルーチン作成部は、
前記特徴点情報及び前記コンテンツの属性情報に基づいて、前記制御ルーチンを前記コンテンツごとに作成することを特徴とする、請求項2に記載の画質調整装置。
An attribute information acquisition unit for acquiring attribute information of the content;
The control routine creation unit
The image quality adjustment apparatus according to claim 2, wherein the control routine is created for each content based on the feature point information and the attribute information of the content.
コンテンツを記録媒体に記録するとき、或いは、前記記録媒体に記録されたコンテンツを再生するときに、前記コンテンツの映像信号を解析して、前記コンテンツの映像の特徴点情報を抽出する特徴点抽出ステップと;
前記記録媒体に記録された前記コンテンツを次に再生するときに、前記コンテンツの映像の出力画質を調整する出力画質調整部を、前記コンテンツの前記特徴点情報に基づいて制御しながら、前記コンテンツの映像の出力画質を調整する出力画質調整ステップと;
を含むことを特徴とする、画質調整方法。
A feature point extraction step of analyzing the video signal of the content and extracting feature point information of the video of the content when recording the content on a recording medium or reproducing the content recorded on the recording medium When;
The next time the content recorded on the recording medium is reproduced, an output image quality adjustment unit that adjusts the output image quality of the video of the content is controlled based on the feature point information of the content. An output image quality adjustment step for adjusting the output image quality of the video;
An image quality adjustment method comprising:
コンテンツを記録媒体に記録するとき、或いは、前記記録媒体に記録されたコンテンツを再生するときに、前記コンテンツの映像信号を解析して、前記コンテンツの映像の特徴点情報を抽出する特徴点抽出ステップと;
前記記録媒体に記録された前記コンテンツを次に再生するときに、前記コンテンツの映像の出力画質を調整する出力画質調整部を、前記コンテンツの前記特徴点情報に基づいて制御しながら、前記コンテンツの映像の出力画質を調整する出力画質調整ステップと;
をコンピュータに実行させるためのプログラム。

A feature point extraction step of analyzing the video signal of the content and extracting feature point information of the video of the content when recording the content on a recording medium or reproducing the content recorded on the recording medium When;
The next time the content recorded on the recording medium is reproduced, an output image quality adjustment unit that adjusts the output image quality of the video of the content is controlled based on the feature point information of the content. An output image quality adjustment step for adjusting the output image quality of the video;
A program that causes a computer to execute.

JP2008032106A 2008-02-13 2008-02-13 Image quality adjustment device, image quality adjusting method, and program Withdrawn JP2009194550A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008032106A JP2009194550A (en) 2008-02-13 2008-02-13 Image quality adjustment device, image quality adjusting method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008032106A JP2009194550A (en) 2008-02-13 2008-02-13 Image quality adjustment device, image quality adjusting method, and program

Publications (1)

Publication Number Publication Date
JP2009194550A true JP2009194550A (en) 2009-08-27

Family

ID=41076195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008032106A Withdrawn JP2009194550A (en) 2008-02-13 2008-02-13 Image quality adjustment device, image quality adjusting method, and program

Country Status (1)

Country Link
JP (1) JP2009194550A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213178A (en) * 2009-03-12 2010-09-24 Toshiba Corp Broadcast receiving device and method
JP2013016973A (en) * 2011-07-01 2013-01-24 Canon Inc Image processor and image processing method
US9031377B2 (en) 2011-03-28 2015-05-12 Panasonic Intellectual Property Management Co., Ltd. Playback device, playback method, and computer program
WO2020101189A1 (en) * 2018-11-14 2020-05-22 Samsung Electronics Co., Ltd. Image and audio processing apparatus and operating method of the same

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213178A (en) * 2009-03-12 2010-09-24 Toshiba Corp Broadcast receiving device and method
JP4575503B2 (en) * 2009-03-12 2010-11-04 株式会社東芝 Broadcast receiving apparatus and broadcast receiving method
US8175440B2 (en) 2009-03-12 2012-05-08 Kabushiki Kaisha Toshiba Broadcast receiver and broadcast receiving method
US9031377B2 (en) 2011-03-28 2015-05-12 Panasonic Intellectual Property Management Co., Ltd. Playback device, playback method, and computer program
JP2013016973A (en) * 2011-07-01 2013-01-24 Canon Inc Image processor and image processing method
US9292947B2 (en) 2011-07-01 2016-03-22 Canon Kabushiki Kaisha Image processing apparatus and an image processing method for generating mosaic image(s)
WO2020101189A1 (en) * 2018-11-14 2020-05-22 Samsung Electronics Co., Ltd. Image and audio processing apparatus and operating method of the same
US11205391B2 (en) 2018-11-14 2021-12-21 Samsung Electronics Co., Ltd. Image and audio processing apparatus and operating method of the same

Similar Documents

Publication Publication Date Title
US9088686B2 (en) Video signal switching
JP4375837B2 (en) Digital audio / video system and method
US8665372B2 (en) Method and system for key aware scaling
DE10010490A1 (en) Method and device for transferring digital DVD information includes a replay signal processor with a pick-up unit, a radio frequency amplifier and a digital signal processor for demodulating modulated signals from the amplifier.
US20110085077A1 (en) Content reproduction device
US20110019931A1 (en) Image recording device, image recording method and program
JP2009194550A (en) Image quality adjustment device, image quality adjusting method, and program
KR100487396B1 (en) Digital TV system for supporting of film mode and method for the same
JP4735696B2 (en) Image processing apparatus, image processing method, and program
KR20070058927A (en) Recording method of television with personal video recorder
JP2010251988A (en) Video device, video processing method, and image quality mode-setting method in this device
JP2009038791A (en) Recording device, recording method, and program
JP2006060358A (en) Digital broadcast receiver
JP5122696B1 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, DISPLAY DEVICE, TELEVISION RECEIVER, PROGRAM, AND RECORDING MEDIUM
JP5667773B2 (en) Information creating apparatus and control method thereof
JP2011139193A (en) Recording device and recording method
JP4575503B2 (en) Broadcast receiving apparatus and broadcast receiving method
JP2008252752A (en) Video image information reproducing unit and method, and video image information reproducing system and control method thereof
JP2000232627A (en) Decoder
JP2010108064A (en) Image processing apparatus, image processing method, and program
KR101069081B1 (en) An image display device for having a function of auto zoom and method of controlling the same
KR100708375B1 (en) Method for processing digital image of digital television
JP2009105646A (en) Television broadcast recording and reproducing device, and reproducing method for recorded digital broadcast
JP2008301299A (en) Content reproducing device, and content processing system, and method
JP2011130377A (en) Recording/reproducing apparatus and method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110510