JP2008283311A - Image display device, and image display method - Google Patents

Image display device, and image display method Download PDF

Info

Publication number
JP2008283311A
JP2008283311A JP2007123889A JP2007123889A JP2008283311A JP 2008283311 A JP2008283311 A JP 2008283311A JP 2007123889 A JP2007123889 A JP 2007123889A JP 2007123889 A JP2007123889 A JP 2007123889A JP 2008283311 A JP2008283311 A JP 2008283311A
Authority
JP
Japan
Prior art keywords
image data
correction
moving image
input
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007123889A
Other languages
Japanese (ja)
Inventor
Mitsuru Maeda
充 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007123889A priority Critical patent/JP2008283311A/en
Publication of JP2008283311A publication Critical patent/JP2008283311A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Picture Signal Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that it is difficult to make corrections adaptively to various image data and image contents so that, for example, even when image data for broadcasting and user-photographed image data are input both as television signals, similar corrections are not suitably made. <P>SOLUTION: It is decided whether input motion image data is a broadcast signal or non-broadcast signal (S5). When the motion image data is a broadcast signal, it is considered that the broadcast signal is already corrected to some extent, so a non-broadcast signal is corrected to a larger extent (S6, S7 and S8) to make a display (S9). Therefore, suitable corrections can be made based upon properties of the motion image data, and the motion image data can be displayed. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は画像表示装置および画像表示方法に関し、特に、動画像データの表示を行う画像表示装置および画像表示方法に関する。   The present invention relates to an image display device and an image display method, and more particularly to an image display device and an image display method for displaying moving image data.

近年、インターネットの普及に牽引されるようにデジタルビデオカメラの普及が進んでいる。これはデジタルビデオカメラによる撮影画像がコンピュータにとって読み取りが容易であり、該撮影画像を編集することや、WWW(World Wide Web)のサーバ上に保存して他者に対して公開する、といったことが容易に行えるからである。   In recent years, digital video cameras have been popularized by the popularity of the Internet. This is because images captured by a digital video camera are easy for a computer to read, and the captured images can be edited, stored on a WWW (World Wide Web) server, and released to others. This is because it can be easily performed.

これに伴い、ディスプレイなどの表示装置はテレビ放送用の他にも外部端子を設け、デジタルカメラ等を映像ソースとした表示を可能としている。   Along with this, display devices such as displays are provided with external terminals in addition to those for television broadcasting, enabling display using a digital camera or the like as a video source.

一般に、デジタルビデオカメラ等の映像ソースによる動画像を美しく表示するために、該画像を補正することが行われている。   In general, in order to display beautifully a moving image from a video source such as a digital video camera, the image is corrected.

画像を補正する技術としては、画像から算出したヒストグラムに基づいて画像を補正するものが開示されている。たとえば、ヒストグラムに基づいて逆光補正を行う技術が開示されている(例えば、特許文献1参照)。また、例えば図11に示すように、画像のハイライト部における色の偏りの比率によって画像の特徴を判別し、その結果によってホワイトバランス補正の度合いを調整する階調補正方法が開示されている(例えば、特許文献2参照)。該方法によればさらに、同時にコントラスト、ハイライト、シャドウを適切に補正することによって、物体の色を忠実に再現することができる。   A technique for correcting an image based on a histogram calculated from the image is disclosed as a technique for correcting the image. For example, a technique for performing backlight correction based on a histogram is disclosed (for example, see Patent Document 1). Further, for example, as shown in FIG. 11, a gradation correction method is disclosed in which the characteristics of an image are determined based on a color deviation ratio in a highlight portion of the image, and the degree of white balance correction is adjusted based on the result. For example, see Patent Document 2). Further, according to this method, the color of the object can be faithfully reproduced by appropriately correcting the contrast, highlight, and shadow at the same time.

また、テレビジョン(以下、テレビ)等の一般的な公共放送用の映像に対しても、1組の画像信号の入力輝度信号と入力色信号に対して画像を補正する技術が開示されている(例えば、特許文献3参照)。   A technique for correcting an image with respect to an input luminance signal and an input color signal of a set of image signals is also disclosed for a general public broadcast video such as a television (hereinafter referred to as a television). (For example, refer to Patent Document 3).

また、例えばテレビの映像信号と、コンピュータ等の演算装置から出力される画像信号とでは、一般にガンマ特性が異なる。したがって、これらガンマ特性の異なる複数の入力を可能とする表示装置においては、対応するガンマ補正を手動で切り替えていた(例えば、特許文献4参照)。
特開2004−200808号公報 特開平11−317959号公報 特開平3−239072号公報 特開平07−066992号公報
Further, for example, a video signal of a television and an image signal output from an arithmetic device such as a computer generally have different gamma characteristics. Therefore, in the display device that enables a plurality of inputs having different gamma characteristics, the corresponding gamma correction is manually switched (for example, see Patent Document 4).
JP 2004-200808 A JP 11-317959 A JP-A-3-239072 Japanese Unexamined Patent Publication No. 07-066992

上記従来の、ガンマ補正を手動で切り替える方法は、テレビ信号と演算装置信号のように互いのガンマ特性が明らかに異なる映像ソースに対しては有効である。しかしながら、例えば同じテレビ信号であっても、公共放送やパッケージメディアのように制作者側できちんと調整が行われたソースである場合と、個人の作成によるため調整内容が不確定なソースである場合と、が考えられる。したがって、たとえ入力形態はテレビ信号であっても、入力された全ソースに対して画質を最適とするような補正を行うことはできなかった。   The above-described conventional method for manually switching gamma correction is effective for video sources such as television signals and arithmetic device signals that have clearly different gamma characteristics. However, even if it is the same TV signal, for example, it is a source that has been properly adjusted by the producer, such as public broadcasting or package media, or if the adjustment content is uncertain due to personal creation You could think so. Therefore, even if the input form is a television signal, it has not been possible to perform correction to optimize the image quality for all input sources.

すなわち、既に補正済みである、公共放送によるソースに対してさらにガンマ補正を行って表示すると、過度の補正がかかってしまう。また、個人製作によるソースに対して公共放送と同じ補正を行っても、正しく補正されないという不具合が生じる。また、上述した特許文献1〜3は全て、1つの画像データに対する補正技術を示すものであり、様々な画像データや影像コンテンツに対する適応的な補正を可能とするものではない。   That is, if a gamma correction is further performed on a public broadcast source that has already been corrected and displayed, excessive correction will be applied. Moreover, even if the same correction as that for public broadcasting is performed on a personally produced source, there is a problem that the correction is not correctly performed. In addition, Patent Documents 1 to 3 described above all show correction techniques for one image data, and do not enable adaptive correction for various image data and image content.

本発明は上述した問題を解決するためになされたものであり、動画像データの属性に基づいて、適切な補正を行って表示することを可能とする画像表示装置および画像表示方法を提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides an image display device and an image display method that can display images with appropriate correction based on attributes of moving image data. With the goal.

上記目的を達成するための一手段として、本発明の画像表示装置は以下の構成を備える。   As a means for achieving the above object, an image display apparatus of the present invention comprises the following arrangement.

すなわち、動画像データを入力する入力手段と、前記動画像データに対して既に施されている補正の内容を、該動画像データの属性に基づいて判断する判断手段と、前記判断手段における判断結果に応じて、前記動画像データに対する補正を行う補正手段と、前記補正手段による補正後の動画像データを表示する表示手段と、を有することを特徴とする。   That is, input means for inputting moving image data, determination means for determining the content of correction already applied to the moving image data based on the attribute of the moving image data, and a determination result in the determining means And a display unit for displaying the moving image data corrected by the correction unit.

例えば、前記判断手段は、前記動画像データが、公共放送を受信することによって得られた放送用データであるか、それ以外の非放送用データであるかを判断することを特徴とする。   For example, the determination means determines whether the moving image data is broadcast data obtained by receiving a public broadcast or other non-broadcast data.

例えば、前記補正手段は、前記判断手段によって前記画像データが前記非放送用データであると判断された場合には、前記動画像データに対して、前記放送用データであると判断された場合よりも補正の強度を大きくすることを特徴とする。   For example, when the image data is determined to be the non-broadcast data by the determination unit, the correction unit is more than the case where the video data is determined to be the broadcast data. Is also characterized in that the intensity of correction is increased.

以上の構成からなる本発明によれば、動画像データの属性に基づいて、適切な補正を行って表示することが可能となる。   According to the present invention having the above-described configuration, it is possible to perform display with appropriate correction based on the attribute of moving image data.

以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。   Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

<第1実施形態>
図1は、本実施形態における画像表示システムの構成を示すブロック図である。同図において、1が画像表示装置であり、2はテレビの放送信号を受信して画像信号を出力するチューナである。3は画像信号を入力するビデオ端子であり、特に放送に関る機器を接続する。4はユーザが動画像を撮影するカムコーダである。5は画像信号を入力するビデオ端子であり、特にビデオカメラなどのユーザが撮影した画像信号に関る機器を接続する。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of an image display system in the present embodiment. In the figure, reference numeral 1 denotes an image display device, and reference numeral 2 denotes a tuner which receives a television broadcast signal and outputs an image signal. Reference numeral 3 denotes a video terminal for inputting an image signal, to which a device related to broadcasting is connected. Reference numeral 4 denotes a camcorder for a user to capture a moving image. Reference numeral 5 denotes a video terminal for inputting an image signal, to which a device related to the image signal taken by the user such as a video camera is connected.

7はビデオ端子3およびビデオ端子5のいずれかからの入力があるか否かを判定する入力判定器である。8,11,16は、入力判定器7の出力に応じて入出力先を切り替えるセレクタである。9はアナログ信号をデジタル信号に変換するA/D変換器である。   Reference numeral 7 denotes an input determination unit that determines whether there is an input from either the video terminal 3 or the video terminal 5. Reference numerals 8, 11, and 16 denote selectors that switch input / output destinations according to the output of the input determination unit 7. Reference numeral 9 denotes an A / D converter that converts an analog signal into a digital signal.

なお、本実施形態においては入力された画像に対するガンマ補正を行うが、ここでは説明を容易にするために、以下に説明する構成によって、上述した特許文献3と同様の方法を適用するとする。但し、本発明のガンマ補正方法はこの例に限定されるものではない。   In the present embodiment, gamma correction is performed on the input image. Here, for ease of explanation, it is assumed that a method similar to that of Patent Document 3 described above is applied with the configuration described below. However, the gamma correction method of the present invention is not limited to this example.

10は、入力された画像データからフレーム単位で画像特徴を解析する特徴解析器であり、ヒストグラム等を作成して画像特徴を解析し、基準となる補正値を算出する。12は、基準補正値に基づき、テレビ放送に関る画像データに対する補正値(放送系補正値)を算出する補正値算出器であり、14はその結果を格納する補正値メモリである。13は、基準補正値に基づき、ユーザが撮影したコンテンツに関る画像データに対する補正値(非放送系補正値)を算出する補正値算出器であり、15はその結果を格納する補正値メモリである。17は、処理遅延を吸収して同期をとるためのフレームメモリである。   Reference numeral 10 denotes a feature analyzer that analyzes image features in units of frames from input image data. The feature analyzer 10 creates a histogram or the like to analyze image features and calculates a reference correction value. Reference numeral 12 denotes a correction value calculator for calculating a correction value (broadcast system correction value) for image data related to television broadcasting based on the reference correction value, and reference numeral 14 denotes a correction value memory for storing the result. Reference numeral 13 denotes a correction value calculator that calculates a correction value (non-broadcast correction value) for image data related to the content photographed by the user based on the reference correction value, and 15 is a correction value memory for storing the result. is there. Reference numeral 17 denotes a frame memory for absorbing the processing delay and achieving synchronization.

18は、算出された補正値に基づいてガンマ値を補正するガンマ補正器である。19は画像データを表示するディスプレイパネルであり、PDP、液晶、SED、OLED等によって構成される。   Reference numeral 18 denotes a gamma corrector that corrects the gamma value based on the calculated correction value. Reference numeral 19 denotes a display panel for displaying image data, which includes a PDP, liquid crystal, SED, OLED, and the like.

以下、上記のように構成された本実施形態の画像表示システムにおける画像表示動作について説明する。   Hereinafter, an image display operation in the image display system of the present embodiment configured as described above will be described.

まず、チューナ2に電源が投入され、放送に関する画像データを表示する場合について説明する。この場合、チューナ2から出力された画像信号は、ビデオ端子3を介して入力判定器7とセレクタ8に入力される。   First, a case where the tuner 2 is turned on and image data related to broadcasting is displayed will be described. In this case, the image signal output from the tuner 2 is input to the input determination unit 7 and the selector 8 via the video terminal 3.

入力判定器7がビデオ端子3から画像信号が入力されたのを検知すると、それに応じて、セレクタ8の入力をビデオ端子3側とし、セレクタ11の出力先を補正値算出器12側とし、セレクタ16の入力先を補正値メモリ14側とする。   When the input determination unit 7 detects that an image signal is input from the video terminal 3, the input of the selector 8 is set to the video terminal 3 side and the output destination of the selector 11 is set to the correction value calculator 12 side. 16 is the correction value memory 14 side.

ビデオ端子3から入力された画像信号は、セレクタ8を介してA/D変換器9に入力されてデジタルの画像データに変換され、特徴解析器10およびフレームメモリ17に入力される。   The image signal input from the video terminal 3 is input to the A / D converter 9 via the selector 8 and converted to digital image data, and input to the feature analyzer 10 and the frame memory 17.

特徴解析器10では輝度ヒストグラムを作成し、ハイライトの補正点であるハイライトポイントLHとシャドウの補正点であるシャドウポイントLSを算出する。これらの値はセレクタ11を介して補正値算出器12に入力される。   The feature analyzer 10 creates a luminance histogram and calculates a highlight point LH that is a highlight correction point and a shadow point LS that is a shadow correction point. These values are input to the correction value calculator 12 via the selector 11.

補正値算出器12では、入力されたハイライトポイントLH,シャドウポイントLSに対して、放送用コンテンツに適当となるように修正されたハイライトポイントLH`、シャドウポイントLS`を下記の式(1)により算出する。なお、式(1)においてαは、予め定められた、補正の強度を調整する定数である。   In the correction value calculator 12, the highlight point LH` and the shadow point LS`, which are corrected so as to be suitable for the broadcast content, are inputted into the following formula (1) with respect to the inputted highlight point LH and shadow point LS. ). In Expression (1), α is a predetermined constant for adjusting the correction strength.

LH` = α×LH …(1)
LS` = α×LS
これらの結果は補正値メモリ14に格納された後、セレクタ16を介してガンマ補正器18に入力され、ガンマカーブを決定する。ここで図2に、ガンマカーブが決定される様子を示す。図2において、太線51は補正前のガンマカーブであり、これに対し、一点鎖線52は、チューナ2より入力された画像データに対する、修正されたハイライトポイントLH`およびシャドウポイントLS`による補正後のガンマカーブを示す。
LH` = α × LH (1)
LS` = α x LS
These results are stored in the correction value memory 14 and then input to the gamma corrector 18 via the selector 16 to determine the gamma curve. FIG. 2 shows how the gamma curve is determined. In FIG. 2, a thick line 51 is a gamma curve before correction, whereas a dashed-dotted line 52 is the image data input from the tuner 2 after correction by the corrected highlight point LH` and shadow point LS`. The gamma curve of is shown.

補正値メモリ14にハイライトポイントLH`およびシャドウポイントLS`が格納されたら、フレームメモリ17から画像データを読み出し、一点鎖線52で示されるガンマカーブに従ってガンマ補正を施し、ディスプレイパネル19に表示する。   When the highlight point LH` and the shadow point LS` are stored in the correction value memory 14, the image data is read from the frame memory 17, and subjected to gamma correction according to the gamma curve indicated by the alternate long and short dash line 52, and displayed on the display panel 19.

次に、カムコーダ4に電源が投入され、ユーザが撮影したコンテンツに関する画像データを表示する場合について説明する。この場合、カムコーダ4から出力された画像信号は、ビデオ端子5を介して入力判定器7とセレクタ8に入力される。   Next, a case where the camcorder 4 is turned on and image data related to content captured by the user is displayed will be described. In this case, the image signal output from the camcorder 4 is input to the input determination unit 7 and the selector 8 via the video terminal 5.

入力判定器7がビデオ端子5から画像信号が入力されたのを検知すると、それに応じて、セレクタ8の入力をビデオ端子5側とし、セレクタ11の出力先を補正値算出器13側とし、セレクタ16の入力先を補正値メモリ15側とする。   When the input determination unit 7 detects that an image signal is input from the video terminal 5, the input of the selector 8 is set to the video terminal 5 side, the output destination of the selector 11 is set to the correction value calculator 13 side, and the selector 16 is the correction value memory 15 side.

ビデオ端子5から入力された画像信号は、セレクタ8を介してA/D変換器9に入力されてデジタルの画像データに変換され、特徴解析器10およびフレームメモリ17に入力される。   The image signal input from the video terminal 5 is input to the A / D converter 9 via the selector 8 and converted into digital image data, and input to the feature analyzer 10 and the frame memory 17.

特徴解析器10では輝度ヒストグラムを作成し、ハイライトの補正点であるハイライトポイントLHとシャドウの補正点であるシャドウポイントLSを算出する。これらの値はセレクタ11を介して補正値算出器13に入力される。   The feature analyzer 10 creates a luminance histogram and calculates a highlight point LH that is a highlight correction point and a shadow point LS that is a shadow correction point. These values are input to the correction value calculator 13 via the selector 11.

補正値算出器13では入力されたハイライトポイントLH,シャドウポイントLSに対して、放送用以外のコンテンツに適当となるように修正されたハイライトポイントLH`、シャドウポイントLS`を下記の式(2)により算出する。なお、式(2)においてβは、予め定められた、補正の強度を調整する定数である。   In the correction value calculator 13, the highlight point LH` and the shadow point LS` corrected so as to be suitable for contents other than those for broadcasting with respect to the inputted highlight point LH and shadow point LS are expressed by the following formula ( 2). In equation (2), β is a predetermined constant for adjusting the correction strength.

LH` = β×LH …(2)
LS` = β×LS
但し、式(2)の定数βと式(1)の定数αには、以下の関係が成り立つ。
LH` = β × LH (2)
LS` = β × LS
However, the following relationship is established between the constant β in Expression (2) and the constant α in Expression (1).

β≧α …(3)
これらの結果は補正値メモリ15に格納された後、セレクタ16を介してガンマ補正器18に入力され、ガンマカーブを決定する。ここで図2に、ガンマカーブが決定される様子を示す。図2において、補正前のガンマカーブ51に対して、細線53は、カムコーダ4より入力された画像データに対する、修正されたハイライトポイントLH`およびシャドウポイントLS`による補正後のガンマカーブを示す。
β ≧ α (3)
These results are stored in the correction value memory 15 and then input to the gamma corrector 18 via the selector 16 to determine the gamma curve. FIG. 2 shows how the gamma curve is determined. In FIG. 2, the thin line 53 indicates the gamma curve after correction by the corrected highlight point LH ′ and shadow point LS ′ with respect to the image data input from the camcorder 4 with respect to the gamma curve 51 before correction.

補正値メモリ15にハイライトポイントLH`およびシャドウポイントLS`が格納されたら、フレームメモリ17から画像データを読み出し、細線53で示されるガンマカーブに従ってガンマ補正を施し、ディスプレイパネル19に表示する。   When the highlight point LH` and the shadow point LS` are stored in the correction value memory 15, the image data is read from the frame memory 17, subjected to gamma correction according to the gamma curve indicated by the thin line 53, and displayed on the display panel 19.

以上説明した本実施形態の画像表示システムにおける画像表示処理の簡単な流れを、図3のフローチャートを用いて説明する。   A simple flow of the image display process in the image display system of the present embodiment described above will be described with reference to the flowchart of FIG.

まずステップS1にて、各部の初期化を行い、ビデオ端子3またはビデオ端子5からの入力を待つ。入力があればステップS2にて、表示処理の終了が指示されたか否かを判定し、終了指示がなければステップS3に進む。   First, in step S1, each part is initialized, and an input from the video terminal 3 or the video terminal 5 is awaited. If there is an input, it is determined in step S2 whether or not the end of the display process is instructed, and if there is no end instruction, the process proceeds to step S3.

ステップS3においては、ビデオ端子3またはビデオ端子5から入力された信号をA/D変換器9でデジタル化し、フレームメモリ17に格納する。そしてステップS4にて、特徴解析器10において入力された画像データに対する特徴解析を行って、基準補正値を算出する。   In step S 3, the signal input from the video terminal 3 or the video terminal 5 is digitized by the A / D converter 9 and stored in the frame memory 17. In step S4, feature analysis is performed on the image data input in the feature analyzer 10 to calculate a reference correction value.

そしてステップS5において、入力された画像信号が放送に関るものであればステップS6に進み、そうでなければステップS7に進む。ステップS6では補正値算出器12において、ステップS4で算出された基準補正値に対し、放送のコンテンツに適応した放送系補正値になるよう修正を行った後、ステップS8に進む。一方、ステップS7では補正値算出器13において、ステップS4で算出された基準補正値に対し、放送のコンテンツとは異なる、ユーザが撮影したコンテンツに適応した非放送系補正値になるよう修正を行った後、ステップS8に進む。   In step S5, if the input image signal relates to broadcasting, the process proceeds to step S6. Otherwise, the process proceeds to step S7. In step S6, the correction value calculator 12 corrects the reference correction value calculated in step S4 so that it becomes a broadcast correction value adapted to the broadcast content, and then proceeds to step S8. On the other hand, in step S7, the correction value calculator 13 corrects the reference correction value calculated in step S4 so that it becomes a non-broadcast correction value that is different from the broadcast content and adapted to the content photographed by the user. Then, the process proceeds to step S8.

ステップS8では、ガンマ補正器18において、修正された補正値(以下、修正補正値)を用いて画像データを補正する。そしてステップS9にて、補正された画像データを表示し、次の画像データを処理するためにステップS2に戻る。   In step S8, the gamma corrector 18 corrects the image data using the corrected correction value (hereinafter, corrected correction value). In step S9, the corrected image data is displayed, and the process returns to step S2 to process the next image data.

以上説明したように本実施形態によれば、動画像データに対して既に施されている補正の内容を、該動画像データの属性に基づいて判断し、該判断結果に応じた補正を行う。すなわち、公共放送用として既に高度な補正処理が施された放送用データと、個人ユーザにより撮影され、高度な補正処理は施されていないであろう非放送用データと、のそれぞれに対して適切な補正が可能となる。従って、いずれの動画像データの場合であっても、その表示画像の画質を向上させることができる。特に、非放送用データに対しては、放送用データよりも強く補正を行うことにより、画質を好適に向上させることができる。   As described above, according to the present embodiment, the content of the correction already performed on the moving image data is determined based on the attribute of the moving image data, and the correction according to the determination result is performed. That is, it is appropriate for each of broadcast data that has already been subjected to advanced correction processing for public broadcasting and non-broadcast data that has been photographed by an individual user and would not have been subjected to advanced correction processing. Correction is possible. Therefore, in any case of moving image data, the image quality of the display image can be improved. In particular, for non-broadcast data, image quality can be suitably improved by performing correction more strongly than broadcast data.

なお、本実施形態においては画像データとしてアナログ入力を行う例を示したが、デジタル信号を入力して、A/D変換器9を省略した構成としてももちろんかまわない。   In the present embodiment, an example in which analog input is performed as image data has been described. However, a digital signal may be input and the A / D converter 9 may be omitted.

<第2実施形態>
以下、本発明に係る第2実施形態について説明する。
Second Embodiment
Hereinafter, a second embodiment according to the present invention will be described.

図4は、第2実施形態における画像表示装置の構成を示すブロック図である。図4において、上述した第1実施形態の図1と同様の機能を果たす部分に関しては同一番号を付し、説明を省略する。また、第2実施形態においても説明を容易にするために、上述した特許文献3と同様のガンマ補正を行うものとする。   FIG. 4 is a block diagram illustrating the configuration of the image display device according to the second embodiment. In FIG. 4, the same reference numerals are given to portions that perform the same functions as those in FIG. 1 of the first embodiment described above, and description thereof is omitted. In the second embodiment, gamma correction similar to that of Patent Document 3 described above is performed for ease of explanation.

図4に示す画像表示装置101において、102は多重化された符号化データを外部から入力する端子であり、103は多重化された符号化データからビデオに関する符号化データを分離する分離器である。   In the image display apparatus 101 shown in FIG. 4, 102 is a terminal for inputting multiplexed encoded data from the outside, and 103 is a separator for separating encoded data related to video from the multiplexed encoded data. .

104は入力符号判定器であり、入力された符号化データが、カムコーダ等で用いられるDV符号化によるものであるのか、放送系で用いられるMPEG符号化によるものであるのか、を判定する。   An input code determination unit 104 determines whether the input encoded data is based on DV encoding used in a camcorder or the like or MPEG encoding used in a broadcasting system.

105,108は、入力符号判定器104の出力に応じて入出力先を切り替えるセレクタである。106は、DV符号化データを復号して画像データを得るDV復号器である。107は、MPEG−2符号化データを復号して画像データを得るMPEG−2復号器である。   Reference numerals 105 and 108 denote selectors that switch input / output destinations according to the output of the input code determination unit 104. A DV decoder 106 decodes the DV encoded data to obtain image data. An MPEG-2 decoder 107 decodes MPEG-2 encoded data to obtain image data.

109,110は、予め決められたフレーム数分の補正値を格納する補正値メモリである。111,112は、補正値メモリ109,110に格納された複数の補正値に基づき、平滑化された補正値を算出する補正値平滑化器である。   Reference numerals 109 and 110 denote correction value memories for storing correction values for a predetermined number of frames. 111 and 112 are correction value smoothers that calculate smoothed correction values based on a plurality of correction values stored in the correction value memories 109 and 110.

以下、上記のように構成された第2実施形態の画像表示装置における画像表示動作について説明する。   Hereinafter, an image display operation in the image display apparatus according to the second embodiment configured as described above will be described.

まず、符号化データが外部のチューナやカムコーダ等の機器から端子102を介して分離器103に入力される。分離器103では、画像データに関する符号化データのみを抽出し、復号する順番に整列して、入力符号判定器104とセレクタ105へ出力する。   First, encoded data is input to the separator 103 via a terminal 102 from an external device such as a tuner or a camcorder. The separator 103 extracts only the encoded data relating to the image data, arranges them in the decoding order, and outputs them to the input code determination unit 104 and the selector 105.

入力符号判定器104では、入力された符号化データにおける、各符号の特徴的な部位を検出することによって、該符号化データの符号化方法を判定する。例えば、MPEG−2符号化方式であれば先頭4バイトにスタートコードと呼ばれる符号が必ず付与されているため、それを検出すればMPEG符号化であることが判明する。第2実施形態ではこのように、入力された符号化データが放送系のMPEG−2符号化であるか否かを判定し、MPEG−2符号化でなければ、カムコーダ系のDV符号化であるとみなすとする。   The input code determination unit 104 determines the encoding method of the encoded data by detecting a characteristic part of each code in the input encoded data. For example, in the case of the MPEG-2 encoding method, since a code called a start code is always given to the first 4 bytes, if it is detected, it is found that the MPEG encoding is performed. In the second embodiment, as described above, it is determined whether or not the input encoded data is broadcast MPEG-2 encoding, and if it is not MPEG-2 encoding, it is camcorder DV encoding. Suppose that

以下、入力符号判定器104において、入力された符号化データがMPEG−2符号化によるもの、すなわち放送系であった場合について説明する。   Hereinafter, the case where the input code determination unit 104 uses the MPEG-2 encoding, that is, the broadcast system, as input encoded data will be described.

この場合、セレクタ105の出力をMPEG−2復号器107側、セレクタ108の入力をMPEG−2復号器107側とし、また、セレクタ11の出力先を補正値算出器12側、セレクタ16の入力先を補正値平滑化器111側とする。   In this case, the output of the selector 105 is the MPEG-2 decoder 107 side, the input of the selector 108 is the MPEG-2 decoder 107 side, the output destination of the selector 11 is the correction value calculator 12 side, and the input destination of the selector 16 is. Is the correction value smoother 111 side.

セレクタ105を経由して入力されたMPEG−2符号化データは、MPEG−2復号器107で復号され、該復号された画像データがセレクタ108を介して特徴解析器10とフレームメモリ17に入力される。   The MPEG-2 encoded data input via the selector 105 is decoded by the MPEG-2 decoder 107, and the decoded image data is input to the feature analyzer 10 and the frame memory 17 via the selector 108. The

特徴解析器10では、入力されが画像データの輝度ヒストグラムを作成し、上述した第1実施形態と同様に、ハイライトの補正点であるハイライトポイントLHと、シャドウの補正点であるシャドウポイントLSを基準補正値として算出する。算出された基準補正値はセレクタ11を介して補正値算出器12に入力される。   The feature analyzer 10 creates a luminance histogram of the input image data, and, as in the first embodiment described above, the highlight point LH, which is a highlight correction point, and the shadow point LS, which is a shadow correction point. Is calculated as a reference correction value. The calculated reference correction value is input to the correction value calculator 12 via the selector 11.

補正値算出器12では、上述した第1実施形態と同様に、(1)式により修正されたハイライトポイントLH`、シャドウポイントLS`を算出し、これを放送系補正値として補正値メモリ109に格納する。ここで補正値メモリ109には、Mフレーム分の放送系補正値LH`,LS`が格納される。   As in the first embodiment described above, the correction value calculator 12 calculates the highlight point LH` and the shadow point LS` corrected by the equation (1), and uses them as broadcast system correction values as the correction value memory 109. To store. Here, the correction value memory 109 stores broadcast correction values LH` and LS` for M frames.

補正値平滑化器111では、補正値メモリ109に格納されたMフレーム分の補正値を平滑化する。例えば、Tフレーム目のフレーム画像が入力されたときのハイライトポイントをLHTとしたとき、平滑化されたハイライトポイントL'HTは、以下の(4)式に示すように、各値の平均として求められる。但し(4)式において、dは補正値メモリ109に格納されているフレーム数を示す。すなわち、Mフレーム分の補正値が格納されていれば、d=Mとなる。 The correction value smoother 111 smoothes the correction values for M frames stored in the correction value memory 109. For example, when the highlight point when T-th frame of the frame image is input as LH T, highlight points has been smoothed L'H T, as shown in the following (4) equation, the values It is calculated as the average of However, in equation (4), d indicates the number of frames stored in the correction value memory 109. That is, if correction values for M frames are stored, d = M.

L'HT=(ΣT t=(T-d)LHt)/d …(4)
平滑化されたシャドウポイントL'STについても同様に、以下の式(5)で求められる。ここでもdは、補正値メモリ109に格納されているフレーム数である。
L'H T = (Σ T t = (Td) LH t) / d ... (4)
Similarly, the shadow point L'S T smoothed, is determined by the following equation (5). Here again, d is the number of frames stored in the correction value memory 109.

L'ST=(ΣT t=(T-d)LSt)/d …(5)
以上のように平滑化されたL'HT,L'STは、セレクタ16を介してガンマ補正器18に入力され、上述した第1実施形態と同様にガンマカーブが決定される。例えば図2に示すように、修正されたハイライトポイントLH`、シャドウポイントLS`に基づいて補正されたガンマカーブが、一点鎖線52のように得られる。
L'S T = (Σ T t = (Td) LS t) / d ... (5)
Above the smoothed L'H T, L'S T via the selector 16 is inputted to the gamma corrector 18, a gamma curve as in the first embodiment described above is determined. For example, as shown in FIG. 2, a gamma curve corrected based on the corrected highlight point LH ′ and shadow point LS ′ is obtained as indicated by a one-dot chain line 52.

そして、フレームメモリ17から画像データを読み出し、一点鎖線52で示されるガンマカーブに従ってガンマ補正を施し、ディスプレイパネル19に表示する。   Then, the image data is read from the frame memory 17, subjected to gamma correction according to the gamma curve indicated by the alternate long and short dash line 52, and displayed on the display panel 19.

次に、入力符号判定器104において、入力された符号化データがMPEG−2符号化でない、すなわちユーザが撮影した非放送系のコンテンツであり、DV符号化によるものであった場合について説明する。   Next, a description will be given of a case where the input encoded data is not MPEG-2 encoded in the input code determination unit 104, that is, is non-broadcast content photographed by the user and is based on DV encoding.

この場合、セレクタ105の出力をDV復号器106側、セレクタ108の入力をDV復号器106側とし、また、セレクタ11の出力先を補正値算出器13側、セレクタ16の入力先を補正値平滑化器112側とする。   In this case, the output of the selector 105 is the DV decoder 106 side, the input of the selector 108 is the DV decoder 106 side, the output destination of the selector 11 is the correction value calculator 13 side, and the input destination of the selector 16 is the correction value smoothing. It is assumed that the generator 112 side.

セレクタ105を経由して入力されたDV符号化データは、DV復号器106で復号され、該復号された画像データがセレクタ108を介して特徴解析器10とフレームメモリ17に入力される。   The DV encoded data input via the selector 105 is decoded by the DV decoder 106, and the decoded image data is input to the feature analyzer 10 and the frame memory 17 via the selector 108.

特徴解析器10では、入力されが画像データの輝度ヒストグラムを作成し、上述した第1実施形態と同様に、ハイライトの補正点であるハイライトポイントLHと、シャドウの補正点であるシャドウポイントLSを基準補正値として算出する。算出された基準補正値はセレクタ11を介して補正値算出器13に入力される。   The feature analyzer 10 creates a luminance histogram of the input image data, and, as in the first embodiment described above, the highlight point LH, which is a highlight correction point, and the shadow point LS, which is a shadow correction point. Is calculated as a reference correction value. The calculated reference correction value is input to the correction value calculator 13 via the selector 11.

補正値算出器13では、上述した第1実施形態と同様に、(2)式により修正されたハイライトポイントLH`、シャドウポイントLS`を算出し、これを非放送系補正値として補正値メモリ110に格納する。ここで補正値メモリ110には、Nフレーム分の放送系補正値LH`,LS`が格納される。なお、この非放送系のフレーム数Nには、放送系のフレーム数Mに対して、N≦Mという関係がある。   As in the first embodiment described above, the correction value calculator 13 calculates the highlight point LH` and the shadow point LS` corrected by the equation (2), and uses these as the non-broadcast system correction values as a correction value memory. Stored in 110. Here, in the correction value memory 110, broadcast correction values LH` and LS` for N frames are stored. The number N of non-broadcast frames has a relationship of N ≦ M with respect to the number M of broadcast frames.

補正値平滑化器112では、補正値メモリ110に格納されたNフレーム分の補正値を平滑化する。例えば、Tフレーム目のフレーム画像が入力されたときのハイライトポイントをLHTとしたとき、平滑化されたハイライトポイントL'HTは、以下の(6)式に示すように、各値の平均として求められる。但し(6)式において、dは補正値メモリ110に格納されているフレーム数を示す。すなわち、Nフレーム分の補正値が格納されていれば、d=Nとなる。 The correction value smoother 112 smoothes the correction values for N frames stored in the correction value memory 110. For example, when the highlight point when T-th frame of the frame image is input to the LH T, highlight point L'H T which is smoothed, as shown in the following equation (6), respective values It is calculated as the average of In equation (6), d indicates the number of frames stored in the correction value memory 110. That is, if correction values for N frames are stored, d = N.

L'HT=(ΣT t=(T-d)LHt)/d …(6)
平滑化されたシャドウポイントL'STについても同様に、以下の式(7)で求められる。ここでもdは、補正値メモリ109に格納されているフレーム数である。
L'H T = (Σ T t = (Td) LH t) / d ... (6)
Similarly, the shadow point L'S T smoothed, be determined by the following equation (7). Here again, d is the number of frames stored in the correction value memory 109.

L'ST=(ΣT t=(T-d)LSt)/d …(7)
以上のように平滑化されたL'HT,L'STは、セレクタ16を介してガンマ補正器18に入力され、上述した第1実施形態と同様にガンマカーブが決定される。例えば図2に示すように、修正されたハイライトポイントLH`、シャドウポイントLS`に基づいて補正されたガンマカーブが、細線53のように得られる。
L'S T = (Σ T t = (Td) LS t) / d ... (7)
Above the smoothed L'H T, L'S T via the selector 16 is inputted to the gamma corrector 18, a gamma curve as in the first embodiment described above is determined. For example, as shown in FIG. 2, a gamma curve corrected based on the corrected highlight point LH ′ and shadow point LS ′ is obtained as a thin line 53.

そして、フレームメモリ17から画像データを読み出し、細線53で示されるガンマカーブに従ってガンマ補正を施し、ディスプレイパネル19に表示する。   Then, image data is read from the frame memory 17, subjected to gamma correction according to the gamma curve indicated by the thin line 53, and displayed on the display panel 19.

以上説明した第2実施形態の画像表示装置における画像表示処理の簡単な流れを、図5のフローチャートを用いて説明する。なお、図5において上述した第1実施形態の図3と同様の処理を行う工程については同一ステップ番号を付し、説明を省略する。   A simple flow of the image display process in the image display apparatus according to the second embodiment described above will be described with reference to the flowchart of FIG. In FIG. 5, the same step numbers are assigned to the steps for performing the same processing as in FIG. 3 of the first embodiment described above, and the description thereof is omitted.

まずステップS1にて、各部の初期化を行い、ステップS2にて終了判定を行う。   First, in step S1, each unit is initialized, and in step S2, an end determination is performed.

そしてステップS101にて、入力された符号化データの符号化方式を判定し、MPEG−2符号化方式であればステップS102に進み、そうでなければステップS105に進む。   In step S101, the encoding method of the input encoded data is determined. If it is the MPEG-2 encoding method, the process proceeds to step S102, and if not, the process proceeds to step S105.

ステップS102では、入力された符号化データに対してMPEG−2符号化方式の復号を行い、画像データを得る。そしてステップS103にて、第1実施形態の図3におけるステップS4と同様に、特徴解析器10において入力された画像データに対する特徴解析を行って、基準補正値を算出する。   In step S102, the input encoded data is decoded by the MPEG-2 encoding method to obtain image data. In step S103, as in step S4 in FIG. 3 of the first embodiment, feature analysis is performed on the image data input in the feature analyzer 10 to calculate a reference correction value.

そしてステップS6にて、算出された基準補正値に対し、放送のコンテンツに適応した放送系補正値となるように修正を行い、ステップS104にて、Mフレーム分の補正値の平均を求めることにより平滑化した後、ステップS8に進む。   In step S6, the calculated reference correction value is corrected so as to be a broadcast correction value adapted to the broadcast content, and in step S104, an average of correction values for M frames is obtained. After smoothing, the process proceeds to step S8.

一方、ステップS105においては、入力された符号化データに対してDV符号化方式の復号を行い、画像データを得る。そしてステップS106にて、第1実施形態の図3におけるステップS4と同様に、特徴解析器10において入力された画像データに対する特徴解析を行って、基準補正値を算出する。   On the other hand, in step S105, the input encoded data is decoded by the DV encoding method to obtain image data. In step S106, as in step S4 in FIG. 3 of the first embodiment, feature analysis is performed on the image data input in the feature analyzer 10 to calculate a reference correction value.

そしてステップS7にて、算出された基準補正値に対し、ユーザ撮影による、非放送のコンテンツに適応した非放送系補正値になるよう修正を行い、ステップS107にて、Nフレーム分の補正値の平均を求めることにより平滑化した後、ステップS8に進む。   In step S7, the calculated reference correction value is corrected so as to be a non-broadcast correction value adapted to non-broadcast content by user shooting. In step S107, the correction value for N frames is corrected. After smoothing by obtaining the average, the process proceeds to step S8.

ステップS8では、ガンマ補正器18において、修正された補正値を用いて画像データを補正する。そしてステップS9にて、補正された画像データを表示し、次の画像データを処理するためにステップS2に戻る。   In step S8, the gamma corrector 18 corrects the image data using the corrected correction value. In step S9, the corrected image data is displayed, and the process returns to step S2 to process the next image data.

以上説明したように第2実施形態によれば、公共放送用として既に高度な補正処理が施された放送系の画像信号と、個人ユーザにより撮影され、高度な補正処理は施されていないであろう非放送系の画像信号と、のそれぞれに対して適切な補正が可能となる。従って、いずれの画像信号の場合であっても、その表示画像の画質を向上させることができる。特に、非放送系の画像信号に対しては、放送系よりも強く補正を行うことにより、画質を好適に向上させることができる。   As described above, according to the second embodiment, a broadcast-type image signal that has already been subjected to advanced correction processing for public broadcasting and an image taken by an individual user are not subjected to advanced correction processing. Appropriate correction is possible for each of the non-broadcast image signals. Therefore, the image quality of the displayed image can be improved in any image signal. In particular, for non-broadcast image signals, image quality can be suitably improved by performing correction more strongly than the broadcast system.

さらに、入力された符号化データに基づいてコンテンツの種類を自動判別することにより、ユーザによる判別の手間を省くことができる。   Furthermore, by automatically determining the type of content based on the input encoded data, it is possible to save the user from having to make a determination.

また、複数フレーム分の補正値を平滑化することによって、フリッカ等、補正による画像の変動を好適に抑えることができる。さらに、一般的に画質の安定している放送系信号に対しては、平滑化のためのフレーム数を非放送系と比べて少なくすることにより、処理の高速化が実現できる。   Further, by smoothing the correction values for a plurality of frames, it is possible to suitably suppress image fluctuations due to correction such as flicker. Furthermore, for broadcast signals with generally stable image quality, the processing speed can be increased by reducing the number of smoothing frames compared to non-broadcast signals.

なお、第2実施形態においては入力符号化データがMPEG−2符号化であるか否かを、先頭4バイトにて判定する例を示したが、多重化のフォーマットによっては符号化方法が明示されているものもあり、これを入力符号の判定に用いても良い。   In the second embodiment, an example is shown in which whether or not the input encoded data is MPEG-2 encoding is determined by the first 4 bytes. However, depending on the multiplexing format, the encoding method is clearly indicated. May be used to determine the input code.

また、上述した第1および第2実施形態においては、各実施形態の各部または全部の機能をソフトウェアで記述し、CPU等の演算装置によって処理を実行するように構成することももちろん可能である。   Further, in the first and second embodiments described above, it is of course possible to configure each part or all functions of each embodiment by software and execute processing by an arithmetic device such as a CPU.

<第3実施形態>
以下、本発明に係る第3実施形態について説明する。
<Third Embodiment>
The third embodiment according to the present invention will be described below.

図6は、第3実施形態における画像表示装置の構成を示すブロック図である。図6において、300は装置全体の制御、及び種々の処理を行う中央演算装置(CPU)である。301は、本装置の制御に必要なオペレーティングシステム(OS)、ソフトウェア、演算に必要な記憶領域を提供するメモリである。メモリ301にはOSやソフトウェアを格納するエリアの他に、画像データを格納する画像エリア、生成した符号化データを格納する符号エリア、各種演算や符号化の際のパラメータ、透かしに関するデータ等を格納しておくワーキングエリアが存在する。   FIG. 6 is a block diagram illustrating a configuration of the image display device according to the third embodiment. In FIG. 6, reference numeral 300 denotes a central processing unit (CPU) that controls the entire apparatus and performs various processes. Reference numeral 301 denotes a memory that provides an operating system (OS), software, and a storage area necessary for calculation necessary for controlling the apparatus. In addition to the area for storing the OS and software, the memory 301 stores an image area for storing image data, a code area for storing generated encoded data, parameters for various operations and encoding, data on watermarks, and the like. There is a working area to keep.

302は、種々の装置を接続して、データや制御信号をやり取りするバスである。303は、装置の起動、各種条件の設定、再生の指示を行うための端末である。304は、ソフトウェアを蓄積する記憶装置である。305は、符号化データや画像データをストリームとして蓄積する記憶装置である。なお、記憶装置304および305は、システムから切り離して移動できるメディアで構成しても良い。   A bus 302 connects various devices and exchanges data and control signals. A terminal 303 is used to start the apparatus, set various conditions, and issue a playback instruction. A storage device 304 stores software. Reference numeral 305 denotes a storage device that stores encoded data and image data as a stream. Note that the storage devices 304 and 305 may be configured with media that can be moved separately from the system.

306は画像データの入力インターフェースであり、以下に示す信号線を介して、複数種類の画像信号を入力することができる。例えば、310は、パッケージメディアを再生するプレイヤ313からの画像信号を入力する信号線である。311は、カムコーダ等のカメラ314からの画像信号を入力する信号線である。312は、放送信号を受信するチューナ315からの画像信号を入力する信号線である。なお、第3実施形態における信号線の数や接続された外部機器の種類は限定されない。   Reference numeral 306 denotes an image data input interface, which can input a plurality of types of image signals via signal lines shown below. For example, 310 is a signal line for inputting an image signal from the player 313 that plays the package media. Reference numeral 311 denotes a signal line for inputting an image signal from a camera 314 such as a camcorder. Reference numeral 312 denotes a signal line for inputting an image signal from a tuner 315 that receives a broadcast signal. Note that the number of signal lines and the types of connected external devices in the third embodiment are not limited.

307は画像を表示するモニタである。309は通信回線であり、LAN、公衆回線、無線回線、放送電波等で構成されている。308は、通信回線309を介してストリームを送受信する通信インターフェースである。   Reference numeral 307 denotes a monitor that displays an image. Reference numeral 309 denotes a communication line, which includes a LAN, a public line, a wireless line, a broadcast wave, and the like. A communication interface 308 transmits and receives a stream via the communication line 309.

以下、上記のように構成された第3実施形態の画像表示装置における画像表示動作について説明する。   Hereinafter, an image display operation in the image display apparatus according to the third embodiment configured as described above will be described.

処理に先立ち、端末303から装置全体に対して動画像表示処理の起動が指示され、各部が初期化される。すると記憶装置304に格納されている各種ソフトウェアがバス302を介してメモリ301に展開され、起動される。   Prior to the processing, the terminal 303 instructs the entire apparatus to start moving image display processing, and each unit is initialized. Then, various software stored in the storage device 304 is loaded into the memory 301 via the bus 302 and activated.

ここで図7に、メモリ301におけるメモリ使用例を示す。図7に示すようにメモリ301にはまず、装置全体を制御し、各種ソフトウェアを動作させるためのOSが格納されている。その他、MPEG−2符号化データを復号するソフトウェア、符号化データを入力する符ソフトウェア、覆い焼き補正を行うソフトウェア、ガンマ補正を行うソフトウェア、画像データを表示するソフトウェア、等が格納されている。   Here, FIG. 7 shows a memory usage example in the memory 301. As shown in FIG. 7, the memory 301 first stores an OS for controlling the entire apparatus and operating various software. In addition, software for decoding MPEG-2 encoded data, code software for inputting encoded data, software for dodging correction, software for gamma correction, software for displaying image data, and the like are stored.

起動時の初期化処理として、メモリ301上のワーキングエリアには、ユーザが撮影したコンテンツに関する補正値を格納する領域Puと、放送系のコンテンツに関する補正値を格納する領域Pbを確保する。   As an initialization process at the time of activation, a working area on the memory 301 is secured with an area Pu for storing correction values related to content photographed by the user and an area Pb for storing correction values related to broadcast-type content.

同様に、メモリ301の符号エリアには、入力インターフェース306より入力された符号化データを1フレーム分格納するための領域Cを確保する。また画像エリアには、作業用として1フレーム前のフレーム画像を格納する領域IM1、出力するフレーム画像を格納する領域IM2を確保し、さらに、領域判定結果を格納する領域Sが確保される。   Similarly, an area C for storing one frame of encoded data input from the input interface 306 is secured in the code area of the memory 301. In the image area, an area IM1 for storing a frame image one frame before work, an area IM2 for storing an output frame image, and an area S for storing an area determination result are secured.

そして、メモリ301上の符号化データ入力ソフトウェアが起動されると、入力インターフェース306から1フレームずつ符号化データを入力して、符号エリア上の領域Cに格納する。以後、符号化データ入力ソフトウェアは順次、フレーム単位で符号化データを入力して格納する。   When the encoded data input software on the memory 301 is activated, the encoded data is input frame by frame from the input interface 306 and stored in the area C on the code area. Thereafter, the encoded data input software sequentially inputs and stores the encoded data in units of frames.

なお、説明を容易にするため、入力インターフェース306には信号線310のみが接続されており、プレイヤ313に格納されている符号化データはMPEG−2符号化方式によるものであるとして説明するが、第3実施形態はもちろんこの例に限定されない。   For ease of explanation, it is assumed that only the signal line 310 is connected to the input interface 306 and the encoded data stored in the player 313 is based on the MPEG-2 encoding method. Of course, the third embodiment is not limited to this example.

また、MPEG−2符号化方式においては、user data領域にその符号化データがいかなるコンテンツであるかを示す情報がメタ情報として格納されている。第3実施形態における符号化データは、映画コンテンツ、放送を録画した録画コンテンツ、ユーザが撮影した撮影コンテンツ、のいずれかであるとする。   In the MPEG-2 encoding method, information indicating what kind of content the encoded data is stored in the user data area as meta information. It is assumed that the encoded data in the third embodiment is any one of movie content, recorded content obtained by recording a broadcast, and captured content taken by a user.

そして、画像表示ソフトウェアも起動されて、フレーム画像データが画像エリア上のIM2に格納されると、モニタ307への表示を行う。以後、画像表示ソフトウェアは順次、格納されたフレーム画像を表示する。   When the image display software is activated and the frame image data is stored in IM2 on the image area, the image is displayed on the monitor 307. Thereafter, the image display software sequentially displays the stored frame images.

そして、ガンマ補正ソフトウェアが起動され、CPU300の制御によって、第3実施形態における画像表示処理が実行される。   Then, the gamma correction software is activated, and the image display process in the third embodiment is executed under the control of the CPU 300.

以下、第3実施形態における画像表示処理について、図8のフローチャートを用いて説明する。   Hereinafter, image display processing in the third embodiment will be described with reference to the flowchart of FIG.

まずステップS301にて、各メモリ領域を0にクリアして初期化する。   First, in step S301, each memory area is cleared to 0 and initialized.

次にステップS302にて、端末303から終了の指示があった等、プログラムの終了が指示されていた場合には各部をクリアし、確保した領域を開放して処理を終了する。そうでなければステップS303に進む。   In step S302, if the end of the program is instructed from the terminal 303, for example, each unit is cleared, the secured area is released, and the process ends. Otherwise, the process proceeds to step S303.

ステップS303では、符号化データ入力ソフトウェアによって、1フレーム分の符号化データがメモリ301上の符号エリアCに格納される。   In step S <b> 303, encoded data for one frame is stored in the code area C on the memory 301 by the encoded data input software.

そしてステップS304にて、符号エリアCに格納に格納された符号化データからuser data領域を読み出し、そのメタ情報から、該符号化データが映画コンテンツ、録画コンテンツ、撮影コンテンツのいずれかであるかを判定する。この判定結果は、メモリ301上のワーキングエリアにモードmとして格納する。   In step S304, the user data area is read from the encoded data stored in the code area C, and it is determined from the meta information whether the encoded data is movie content, recorded content, or captured content. judge. This determination result is stored in the working area on the memory 301 as mode m.

そしてステップS305において、符号エリアCに格納された符号化データをMPEG−2復号ソフトウェアにて復号し、メモリ301上の画像エリア内における領域IM1に格納する。   In step S305, the encoded data stored in the code area C is decoded by the MPEG-2 decoding software and stored in the area IM1 in the image area on the memory 301.

ステップS306では、上述した第1実施形態のステップS4と同様の方法により、領域IM1の画像データから基準補正値を算出する。   In step S306, the reference correction value is calculated from the image data of the region IM1 by the same method as in step S4 of the first embodiment described above.

ステップS307では、メモリ301上のワーキングエリアにおけるモードmを読み出し、入力された符号化データが映画コンテンツであるか否かを判定する。映画コンテンツであればステップS308に進み、そうでなければステップS309に進む。   In step S307, the mode m in the working area on the memory 301 is read, and it is determined whether or not the input encoded data is movie content. If it is a movie content, the process proceeds to step S308; otherwise, the process proceeds to step S309.

ステップS308では、メモリ301上の画像エリアにおける領域IM1の内容を領域IM2に移動して、ステップS314に進む。   In step S308, the contents of the area IM1 in the image area on the memory 301 are moved to the area IM2, and the process proceeds to step S314.

またステップS309では、メモリ301上のワーキングエリアにおけるモードmを読み出し、入力された符号化データが撮影コンテンツであるか否かを判定する。撮影コンテンツであればステップS310に進み、そうでなければステップS312に進む。   In step S309, the mode m in the working area on the memory 301 is read out, and it is determined whether or not the input encoded data is photographed content. If it is a photographed content, the process proceeds to step S310; otherwise, the process proceeds to step S312.

ステップS310では、上述した第1実施形態のステップS7と同様の方法により、ステップS306で算出された基準補正値に対し、ユーザが撮影したコンテンツに適応した非放送系補正値になるよう修正を行う。そして、修正後の補正値をワーキングエリア上の非放送コンテンツの補正値領域Puに格納する。そしてステップS311において、補正値領域Puに格納された補正値に基づいて、画像エリアの領域IM1に格納された画像データを補正し、領域IM2に格納した後、ステップS314に進む。   In step S310, the reference correction value calculated in step S306 is corrected to be a non-broadcast correction value adapted to the content photographed by the user by the same method as in step S7 of the first embodiment described above. . Then, the corrected correction value is stored in the correction value area Pu of the non-broadcast content on the working area. In step S311, based on the correction value stored in the correction value area Pu, the image data stored in the area IM1 of the image area is corrected and stored in the area IM2. Then, the process proceeds to step S314.

一方、ステップS312では、上述した第1実施形態のステップS6と同様の方法により、ステップS306で算出された基準補正値に対し、放送コンテンツに適応した放送系補正値になるように修正を行う。そして、修正後の補正値をワーキングエリア上の放送コンテンツの補正値領域Pbに格納する。そしてステップS313において、補正値領域Pbに格納された補正値に基づいて、画像エリアの領域IM1に格納された画像データを補正し、領域IM2に格納した後、ステップS314に進む。   On the other hand, in step S312, the reference correction value calculated in step S306 is corrected to the broadcast correction value adapted to the broadcast content by the same method as in step S6 of the first embodiment described above. Then, the corrected correction value is stored in the correction value area Pb of the broadcast content on the working area. In step S313, based on the correction value stored in the correction value area Pb, the image data stored in the area IM1 of the image area is corrected and stored in the area IM2, and then the process proceeds to step S314.

ステップS314では、メモリ301上の画像エリアにおける領域IM2の画像データをモニタ307に表示し、次の画像データを処理するためにステップS302に戻る。そして、端末303から処理の終了が指示されると、全てのソフトウェアを停止する。   In step S314, the image data of the area IM2 in the image area on the memory 301 is displayed on the monitor 307, and the process returns to step S302 to process the next image data. When the end of processing is instructed from the terminal 303, all software is stopped.

以上説明したように第3実施形態によれば、表示対象となるコンテンツの種類に応じて、コンテンツごとに最適な補正を施すことができる。すなわち、既に十分な補正処理が施されており、これ以上の補正を加えるべきでない映画コンテンツに対しては、補正を行わない。また、高度な補正処理が施された放送を録画した録画コンテンツと、個人ユーザにより撮影され、高度な補正処理は施されていないであろう撮影コンテンツとでは、特に後者に対して強く補正を行うことにより、それぞれの画質を適切に向上させることができる。   As described above, according to the third embodiment, optimal correction can be performed for each content according to the type of content to be displayed. That is, correction is not performed for movie content that has already been subjected to sufficient correction processing and should not be corrected any further. In addition, for the recorded content recorded on the broadcast that has been subjected to the advanced correction processing and the captured content that was shot by an individual user and would not have been subjected to the advanced correction processing, particularly the latter is strongly corrected. Thus, each image quality can be improved appropriately.

なお、第3実施形態においては入力された符号化データをモニタ307に表示する例を示したが、通信ソフトウェアを起動し、画像エリア内の画像データを記憶装置305に格納しても良い。さらには、通信インターフェース308を介して通信回線309に送信することも、もちろん可能である。   In the third embodiment, the input encoded data is displayed on the monitor 307. However, the communication software may be activated and the image data in the image area may be stored in the storage device 305. Furthermore, it is of course possible to transmit to the communication line 309 via the communication interface 308.

さらに、ユーザの撮影による撮影コンテンツに対してのみ、覆い焼き補正ソフトウェアを動作させることによって、逆光補正等を行うことも有効である。   Furthermore, it is also effective to perform backlight correction or the like by operating the dodging correction software only for the content captured by the user.

<第4実施形態>
以下、本発明に係る第4実施形態について説明する。第4実施形態における画像表示装置の構成は、上述した第3実施形態と同様である。上述した第3実施形態においては、入力インターフェースに信号線310のみが接続された場合を例として説明したが、第4実施形態においては、入力インターフェース306に信号線310,311,312が全て接続されていることを特徴とする。
<Fourth embodiment>
The fourth embodiment according to the present invention will be described below. The configuration of the image display device in the fourth embodiment is the same as that in the third embodiment described above. In the third embodiment described above, the case where only the signal line 310 is connected to the input interface has been described as an example. However, in the fourth embodiment, all the signal lines 310, 311, and 312 are connected to the input interface 306. It is characterized by.

以下、第4実施形態の画像表示装置における画像表示動作について説明する。   Hereinafter, an image display operation in the image display apparatus according to the fourth embodiment will be described.

まず初期処理として、メモリ301上のワーキングエリアに、ユーザが撮影した撮影コンテンツ用の補正値を格納する領域Pu、放送系のコンテンツ用の補正値を格納する領域Pbと、さらに映画コンテンツ用の補正値を格納する領域Pcを確保する。また、第3実施形態と同様に、画像エリアに領域IM1、領域IM2を確保する。   First, as an initial process, in a working area on the memory 301, an area Pu for storing correction values for photographed content shot by a user, an area Pb for storing correction values for broadcast-related content, and further correction for movie content. An area Pc for storing values is secured. Similarly to the third embodiment, the area IM1 and the area IM2 are secured in the image area.

ここで図9に、メモリ301におけるメモリ使用例を示すが、第3実施形態の図7と同様の内容については説明を省略する。図9に示すように第4実施形態のメモリ301には、端末303で指示された外部機器の信号線から画像データを入力するための、画像入力ソフトウェアが格納されている。また、端末303で指示された外部機器の信号線を介して、該外部機器との通信を行って該機器の特性を取得するための、機器通信ソフトウェアが格納されている。   Here, FIG. 9 shows an example of memory usage in the memory 301, but the description of the same contents as in FIG. 7 of the third embodiment will be omitted. As shown in FIG. 9, the memory 301 of the fourth embodiment stores image input software for inputting image data from the signal line of the external device designated by the terminal 303. In addition, device communication software for communicating with the external device via the signal line of the external device instructed by the terminal 303 and acquiring the characteristics of the device is stored.

第4実施形態においては、画像表示装置の起動に際し、ユーザが端末303を利用して、表示対象となるコンテンツを入力する外部機器として、プレイヤ313、カメラ314、チューナ315のいずれかを選択する。   In the fourth embodiment, when the image display device is activated, the user selects any one of the player 313, the camera 314, and the tuner 315 as an external device for inputting content to be displayed using the terminal 303.

そして、メモリ301上の機器通信ソフトウェアを起動し、外部機器の情報を取得する。例えば、外部機器としてプレイヤ313が選択されていれば、上述した通信を行うことにより、プレイヤ313がパッケージメディア再生機器であるという情報を取得する。また、外部機器がカメラ314であれば、放送とは異なる、ユーザが撮影した撮影コンテンツを出力する機器であるという情報を取得する。また、外部機器がチューナ315であれば、放送に関する画像データを出力する機器であるという情報を取得する。   Then, the device communication software on the memory 301 is activated and information on the external device is acquired. For example, if the player 313 is selected as the external device, information indicating that the player 313 is a package media playback device is acquired by performing the above-described communication. Further, if the external device is the camera 314, information that is different from broadcasting and that is a device that outputs photographed content photographed by the user is acquired. Further, if the external device is the tuner 315, information indicating that the device is a device that outputs image data related to broadcasting is acquired.

そして、メモリ301上の画像データ入力ソフトウェアが起動されると、入力インターフェース306から1フレームずつ画像データを入力し、画像エリア上の領域IM1に格納する。以後、画像データ入力ソフトウェアは順次、フレーム画像を入力して領域IM1に格納する。   When the image data input software on the memory 301 is activated, image data is input frame by frame from the input interface 306 and stored in the area IM1 on the image area. Thereafter, the image data input software sequentially inputs the frame images and stores them in the area IM1.

そしてさらに、第3実施形態と同様に画像表示ソフトウェアも起動されて、フレーム画像データが画像エリア上のIM2に格納されると、モニタ307への表示を行う。以後、画像表示ソフトウェアは順次、格納されたフレーム画像を表示する。   Further, as in the third embodiment, when the image display software is activated and the frame image data is stored in IM2 on the image area, the image is displayed on the monitor 307. Thereafter, the image display software sequentially displays the stored frame images.

そして、ガンマ補正ソフトウェアが起動され、CPU300の制御によって、第4実施形態における画像表示処理が実行される。   Then, the gamma correction software is activated, and the image display process in the fourth embodiment is executed under the control of the CPU 300.

以下、第4実施形態における画像表示処理について、図10のフローチャートを用いて説明する。なお、図10において上述した第3実施形態の図8と同様の処理を行う工程については同一ステップ番号を付し、説明を省略する。   Hereinafter, image display processing in the fourth embodiment will be described with reference to the flowchart of FIG. In FIG. 10, the same step numbers are assigned to the steps for performing the same processing as in FIG. 8 of the third embodiment described above, and the description thereof is omitted.

まずステップS301にて、各メモリ領域を0にクリアして初期化する。   First, in step S301, each memory area is cleared to 0 and initialized.

次にステップS401にて、機器通信ソフトウェアにより外部機器情報を取得し、メモリ301上のワーキングエリアに機器情報mとして記憶する。例えば、パッケージメディア再生機器であるという情報を「1」、ユーザによる撮影コンテンツを再生する機器であるという情報を「2」、放送に関するコンテンツを再生する機器であるという情報を「3」とし、これらの値をmに格納する
そしてステップS302において、端末303から終了の指示があった等、プログラムの終了が指示されていた場合には各部をクリアし、確保した領域を開放して処理を終了する。そうでなければステップS402に進む。
In step S401, external device information is acquired by the device communication software and stored as device information m in the working area on the memory 301. For example, “1” indicates that the device is a packaged media playback device, “2” indicates that the device is a device that plays back captured content by the user, and “3” indicates that the device is a device that plays content related to broadcasting. In step S302, if the termination of the program is instructed from the terminal 303 or the like, the respective units are cleared, the reserved area is released, and the process is terminated. . Otherwise, the process proceeds to step S402.

ステップS402では、画像データ入力ソフトウェアによって、1フレーム分の画像データが、メモリ301上の画像エリアにおける領域IM1に格納される。   In step S <b> 402, image data for one frame is stored in the area IM <b> 1 in the image area on the memory 301 by the image data input software.

そしてステップS306において、領域IM1に格納された画像データに基づいて基準補正値を算出する。   In step S306, a reference correction value is calculated based on the image data stored in the area IM1.

そしてステップS403において、機器情報mの値が「1」、すなわちパッケージメディア再生機器であるか否かを判定する。パッケージメディア再生機器であれば、画像データはパッケージ用データであり、に映画コンテンツが含まれるものとしてステップS404に進み、そうでなければステップS406に進む。   In step S403, it is determined whether the value of the device information m is “1”, that is, whether the device is a package media playback device. If it is a packaged media playback device, the image data is package data and the movie content is included in the image data, and the process proceeds to step S404. Otherwise, the process proceeds to step S406.

ステップS404では、算出された基準補正値に対し、映画コンテンツに適応したパッケージ補正値になるよう、修正を行う。すなわち、映画コンテンツに対し、テレビ放送用のコンテンツに比べて高輝度な部分を少なくして、低輝度での階調を確保するように、補正値を算出する。修正された補正値は領域Pcに格納する。そしてステップS405において、補正値領域Pcに格納された補正値に基づき、画像エリア内の領域IM1に格納された画像データを補正し、これを領域IM2に格納した後、ステップS314に進む。   In step S404, the calculated reference correction value is corrected so as to be a package correction value adapted to the movie content. That is, for the movie content, the correction value is calculated so that the high-luminance portion is reduced and the gradation at the low luminance is ensured as compared with the content for television broadcasting. The corrected correction value is stored in the area Pc. In step S405, based on the correction value stored in the correction value area Pc, the image data stored in the area IM1 in the image area is corrected and stored in the area IM2. Then, the process proceeds to step S314.

一方、ステップS406では、機器情報mの値が「2」、すなわちユーザによる撮影コンテンツの再生機器であるか否かを判定する。撮影コンテンツの再生機器であれば、強い補正が必要なコンテンツが含まれるものとしてステップS310に進み、そうでなければステップS312に進む。   On the other hand, in step S406, it is determined whether or not the value of the device information m is “2”, that is, whether or not the device is a device for reproducing photographed content. If it is a playback device for photographed content, it proceeds to step S310 on the assumption that content requiring strong correction is included, and otherwise proceeds to step S312.

ステップS310では第3実施形態と同様に、ステップS306で算出された基準補正値に対して、撮影コンテンツに適応した修正を行う。そしてステップS311において、補正値領域Puに格納された補正値に基づき、画像エリア内の領域IM1に格納された画像データを補正し、これを領域IM2に格納した後、ステップS314に進む。   In step S310, as in the third embodiment, the reference correction value calculated in step S306 is corrected in accordance with the captured content. In step S311, the image data stored in the area IM1 in the image area is corrected based on the correction value stored in the correction value area Pu, and after this is stored in the area IM2, the process proceeds to step S314.

一方、ステップS312では第3実施形態と同様に、ステップS306で算出された基準補正値に対して、放送コンテンツに適応した修正を行う。そしてステップS313において、補正値領域Pbに格納された補正値に基づき、画像エリア内の領域IM1に格納された画像データを補正し、これを領域IM2に格納した後、ステップS314に進む。   On the other hand, in step S312, similarly to the third embodiment, the reference correction value calculated in step S306 is corrected in accordance with the broadcast content. In step S313, based on the correction value stored in the correction value area Pb, the image data stored in the area IM1 in the image area is corrected and stored in the area IM2. Then, the process proceeds to step S314.

ステップS314では、メモリ301上の画像エリアにおける領域IM2の画像データをモニタ307に表示し、次の画像データを処理するためにステップS302に戻る。そして端末303から処理の終了が指示されると、全てのソフトウェアを停止する。   In step S314, the image data of the area IM2 in the image area on the memory 301 is displayed on the monitor 307, and the process returns to step S302 to process the next image data. When the terminal 303 is instructed to end the process, all software is stopped.

以上説明したように第4実施形態によれば、外部機器として接続された画像再生機器からの情報に基づいて、表示対象として入力されてくるコンテンツの種類を判定することによって、コンテンツごとに最適な補正を施すことができる。すなわち、様々な映像ソースに対応した適切な補正が可能となる。   As described above, according to the fourth embodiment, the optimum type for each content is determined by determining the type of content input as a display target based on information from an image playback device connected as an external device. Corrections can be made. In other words, appropriate correction corresponding to various video sources is possible.

なお、第3および第4実施形態においては画像表示処理をソフトウェアによって実現する例を示したが、これらの実施形態における各部または全部の機能をハードウェアで構成することももちろん可能である。   In the third and fourth embodiments, examples in which the image display processing is realized by software have been described. However, it is of course possible to configure each part or all functions in these embodiments by hardware.

<他の実施形態>
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
<Other embodiments>
Although the embodiment has been described in detail above, the present invention can take an embodiment as a system, apparatus, method, program, recording medium (storage medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.

尚本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される。なお、この場合のプログラムとは、コンピュータ読取可能であり、実施形態において図に示したフローチャートに対応したプログラムである。   In the present invention, a software program for realizing the functions of the above-described embodiments is supplied directly or remotely to a system or apparatus, and the computer of the system or apparatus reads and executes the supplied program code. Is also achieved. The program in this case is a computer-readable program that corresponds to the flowchart shown in the drawing in the embodiment.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。   In this case, as long as it has a program function, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、以下に示す媒体がある。例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD-ROM、CD-R、CD-RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD-ROM,DVD-R)などである。   Recording media for supplying the program include the following media. For example, floppy disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD- R).

プログラムの供給方法としては、以下に示す方法も可能である。すなわち、クライアントコンピュータのブラウザからインターネットのホームページに接続し、そこから本発明のコンピュータプログラムそのもの(又は圧縮され自動インストール機能を含むファイル)をハードディスク等の記録媒体にダウンロードする。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   As a program supply method, the following method is also possible. That is, the browser of the client computer is connected to a home page on the Internet, and the computer program itself (or a compressed file including an automatic installation function) is downloaded from the browser to a recording medium such as a hard disk. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD-ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせることも可能である。すなわち該ユーザは、その鍵情報を使用することによって暗号化されたプログラムを実行し、コンピュータにインストールさせることができる。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. It is also possible to make it. That is, the user can execute the encrypted program by using the key information and install it on the computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。さらに、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. Furthermore, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、実行されることによっても、前述した実施形態の機能が実現される。すなわち、該プログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行うことが可能である。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, and then executed, so that the program of the above-described embodiment can be obtained. Function is realized. That is, based on the instructions of the program, the CPU provided in the function expansion board or function expansion unit can perform part or all of the actual processing.

本発明に係る一実施形態における画像表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image display system in one Embodiment which concerns on this invention. 本実施形態における補正値としてのガンマカーブの一例を示す図である。It is a figure which shows an example of the gamma curve as a correction value in this embodiment. 本実施形態における画像表示処理を示すフローチャートである。It is a flowchart which shows the image display process in this embodiment. 第2実施形態における画像表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image display apparatus in 2nd Embodiment. 第2実施形態における画像表示処理を示すフローチャートである。It is a flowchart which shows the image display process in 2nd Embodiment. 第3実施形態における画像表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image display system in 3rd Embodiment. 第3実施形態におけるメモリの使用例を示す図である。It is a figure which shows the usage example of the memory in 3rd Embodiment. 第3実施形態における画像表示処理を示すフローチャートである。It is a flowchart which shows the image display process in 3rd Embodiment. 第4実施形態におけるメモリの使用例を示す図である。It is a figure which shows the usage example of the memory in 4th Embodiment. 第4実施形態における画像表示処理を示すフローチャートである。It is a flowchart which shows the image display process in 4th Embodiment. 従来の画像補正方法の一例を示す図である。It is a figure which shows an example of the conventional image correction method.

Claims (12)

動画像データを入力する入力手段と、
前記動画像データに対して既に施されている補正の内容を、該動画像データの属性に基づいて判断する判断手段と、
前記判断手段における判断結果に応じて、前記動画像データに対する補正を行う補正手段と、
前記補正手段による補正後の動画像データを表示する表示手段と、
を有することを特徴とする画像表示装置。
Input means for inputting moving image data;
Determination means for determining the content of correction already applied to the moving image data based on the attribute of the moving image data;
Correction means for correcting the moving image data in accordance with a determination result in the determination means;
Display means for displaying moving image data corrected by the correction means;
An image display device comprising:
前記判断手段は、前記動画像データが、公共放送を受信することによって得られた放送用データであるか、それ以外の非放送用データであるかを判断することを特徴とする請求項1に記載の画像表示装置。   2. The determination unit according to claim 1, wherein the determination unit determines whether the moving image data is broadcast data obtained by receiving a public broadcast or other non-broadcast data. The image display device described. 前記補正手段は、前記判断手段によって前記画像データが前記非放送用データであると判断された場合には、前記動画像データに対して、前記放送用データであると判断された場合よりも補正の強度を大きくすることを特徴とする請求項2に記載の画像表示装置。   The correction means corrects the moving image data when the image data is determined to be the non-broadcasting data when compared with the case where the moving image data is determined to be the broadcast data. The image display device according to claim 2, wherein the strength of the image display device is increased. 前記判断手段はさらに、前記動画像データが、パッケージメディアを再生することによって得られたパッケージ用データであるかを判断することを特徴とする請求項2または3に記載の画像表示装置。   4. The image display device according to claim 2, wherein the determination unit further determines whether the moving image data is package data obtained by playing a package medium. 前記補正手段は、前記判断手段によって前記画像データが前記パッケージ用データであると判断された場合には、前記動画像データに対する補正を行わないことを特徴とする請求項4に記載の画像表示装置。   The image display apparatus according to claim 4, wherein the correction unit does not perform correction on the moving image data when the determination unit determines that the image data is the package data. . 前記入力手段は複数の端子を有し、
前記判断手段は、前記入力手段において前記動画像データが入力された端子に基づいて、補正の内容を判断することを特徴とする請求項1乃至5のいずれか1項に記載の画像表示装置。
The input means has a plurality of terminals,
The image display device according to claim 1, wherein the determination unit determines the content of correction based on a terminal to which the moving image data is input by the input unit.
前記入力手段は符号化された動画像データを入力し、
前記判断手段は、前記動画像データの符号化方式に基づいて、補正の内容を判断することを特徴とする請求項1乃至5のいずれか1項に記載の画像表示装置。
The input means inputs encoded video data,
The image display apparatus according to claim 1, wherein the determination unit determines a correction content based on an encoding method of the moving image data.
前記判断手段は、前記動画像データのメタ情報に基づいて、補正の内容を判断することを特徴とする請求項1乃至5のいずれか1項に記載の画像表示装置。   The image display apparatus according to claim 1, wherein the determination unit determines a correction content based on meta information of the moving image data. 前記入力手段は、接続された外部機器から動画像データを入力し、
前記判断手段は、前記外部機器の機器情報に基づいて、補正の内容を判断することを特徴とする請求項1乃至5のいずれか1項に記載の画像表示装置。
The input means inputs moving image data from a connected external device,
The image display device according to claim 1, wherein the determination unit determines a correction content based on device information of the external device.
入力手段が、動画像データを入力する入力ステップと、
判断手段が、前記動画像データに対して既に施されている補正の内容を、該動画像データの属性に基づいて判断する判断ステップと、
補正手段が、前記判断ステップによる判断結果に応じて、前記動画像データに対する補正を行う補正ステップと、
表示手段が、前記補正ステップによる補正後の動画像データを表示する表示ステップと、
を有することを特徴とする画像表示方法。
An input step in which the input means inputs moving image data;
A determination step for determining, based on the attribute of the moving image data, the content of the correction that has already been performed on the moving image data;
A correcting step for correcting the moving image data according to the determination result of the determining step;
A display step for displaying the moving image data corrected by the correction step;
An image display method characterized by comprising:
コンピュータ上で実行されることにより、該コンピュータを請求項1乃至9のいずれか1項に記載の画像表示装置として機能させることを特徴とするコンピュータプログラム。   A computer program that, when executed on a computer, causes the computer to function as the image display device according to any one of claims 1 to 9. 請求項11に記載のコンピュータプログラムを記録したことを特徴とするコンピュータ読取可能な記録媒体。   A computer-readable recording medium having the computer program according to claim 11 recorded thereon.
JP2007123889A 2007-05-08 2007-05-08 Image display device, and image display method Withdrawn JP2008283311A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007123889A JP2008283311A (en) 2007-05-08 2007-05-08 Image display device, and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007123889A JP2008283311A (en) 2007-05-08 2007-05-08 Image display device, and image display method

Publications (1)

Publication Number Publication Date
JP2008283311A true JP2008283311A (en) 2008-11-20

Family

ID=40143782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007123889A Withdrawn JP2008283311A (en) 2007-05-08 2007-05-08 Image display device, and image display method

Country Status (1)

Country Link
JP (1) JP2008283311A (en)

Similar Documents

Publication Publication Date Title
JP4859219B2 (en) Video output apparatus and control method thereof
KR100661895B1 (en) Video data processing apparatus
EP2525321B1 (en) Display image generating method
US8571388B2 (en) Apparatuses and methods for processing video signals
JP2010041336A (en) Image processing unit and image processing method
JP2010041337A (en) Image processing unit and image processing method
JP5142837B2 (en) Display control apparatus and display control method
KR20060008023A (en) Display device and control method of the same
US7324738B2 (en) Video stream processing apparatus and video stream processing method
JP4435251B2 (en) VIDEO DISPLAY DEVICE, VIDEO REPRODUCTION DEVICE, VIDEO DISPLAY METHOD, AND VIDEO REPRODUCTION METHOD
US20090304300A1 (en) Display control apparatus and display control method
JP4528857B2 (en) Image processing apparatus and image processing method
JP5304860B2 (en) Content reproduction apparatus and content processing method
JP2009017418A (en) Moving image playback device, moving image playback method and program for the moving image playback method
JP2005102186A (en) Device and method for processing video stream
EP3522525B1 (en) Method and apparatus for processing video playing
US20070133950A1 (en) Reproduction apparatus, reproduction method, recording method, image display apparatus and recording medium
JP2008283311A (en) Image display device, and image display method
US20110051004A1 (en) Video signal processing apparatus and method and program for processing video signals
JP2009017240A (en) Broadcast receiver and output characteristic adjustment method in the broadcast receiver
JP4991884B2 (en) Image processing apparatus and image processing method
JP5010671B2 (en) VIDEO DISPLAY DEVICE, VIDEO REPRODUCTION DEVICE, VIDEO DISPLAY METHOD, AND VIDEO REPRODUCTION METHOD
JP4679532B2 (en) Display method and display device
JP4821253B2 (en) Image output device
JP2007074158A (en) Reproduction system and reproducing method using the system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100803