JP2010045455A - Image processor, image processing method, and computer program - Google Patents
Image processor, image processing method, and computer program Download PDFInfo
- Publication number
- JP2010045455A JP2010045455A JP2008206390A JP2008206390A JP2010045455A JP 2010045455 A JP2010045455 A JP 2010045455A JP 2008206390 A JP2008206390 A JP 2008206390A JP 2008206390 A JP2008206390 A JP 2008206390A JP 2010045455 A JP2010045455 A JP 2010045455A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- scenes
- base
- image processing
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、画像処理装置、画像処理方法、及びコンピュータプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a computer program.
動画像データの再現において、表示デバイスにおける高画質化再現のため、ユーザが表示デバイスを観察する環境に応じて、さまざまな画像補正処理を施すことが一般的である。動画像データは、場面の切替え時や一連の場面の途中で、明度や鮮やかさが変化する。そのため、動画の高画質化を実現するためには、観察環境に応じ、かつ、シーンごとに最適な補正処理を行う必要がある。 In reproduction of moving image data, in order to reproduce high-quality images on a display device, it is common to perform various image correction processes depending on the environment in which the user observes the display device. The moving image data changes in brightness and vividness when switching scenes or during a series of scenes. Therefore, in order to achieve high image quality of moving images, it is necessary to perform an optimal correction process for each scene according to the observation environment.
従来技術においては、動画のフレーム画像を解析することによって、シーンの切替えやシーン変化を検出する。そして、検出されたシーン切替えやシーン変化のタイミングで、各シーンに最適な補正量を求め、動画像データに対する補正処理を行っている。 In the prior art, scene switching or scene change is detected by analyzing a frame image of a moving image. Then, at the timing of the detected scene change or scene change, an optimal correction amount is obtained for each scene, and correction processing is performed on the moving image data.
一方で、動画像を観察する人間には、シーンの明度や色の変化に対して順応という生理現象がおこる。順応に必要な時間については、非特許文献1のような研究が行われ、定量化されている。 On the other hand, a human being who observes a moving image undergoes a physiological phenomenon of adaptation to changes in scene brightness and color. The time required for adaptation is studied and quantified as in Non-Patent Document 1.
動画像データに対する補正は、観察環境光と表示されたシーンとに視覚が順応していることを条件として、補正量を算出する。そのため、シーン変化に対する順応が完了しない間に次のシーンに切り替わった場合には、観察者は、シーンに順応しない状態で補正処理されたシーンを観察することになる。そして、次のシーンの開始とともに、新たに順応しようとする。 In the correction for the moving image data, the correction amount is calculated on the condition that the vision is adapted to the observation environment light and the displayed scene. Therefore, when switching to the next scene while adaptation to the scene change is not completed, the observer observes the scene that has been subjected to the correction process without being adapted to the scene. And at the start of the next scene, it tries to adapt again.
また、特許文献1に記載の技術は、フレーム数をカウントし、所定のフレーム数を超えた場合に補正量を強制的に更新する。
上記の技術のように、人間の順応時間を考慮せずに補正を行うと、必要のないシーンに対しても補正を行うことになり、画像処理の演算負荷、処理時間を増加させ、非効率的である。 If correction is performed without considering human adaptation time as in the above technology, correction is performed even for scenes that are not necessary, which increases the computational load and processing time of image processing, resulting in inefficiency. Is.
特許文献1に記載の技術においても、フレーム数がカウント条件を超えたら補正量の更新を行ってしまうため、同様のシーンが連続していて補正量の更新が必要でない場合にも補正を行い、非効率的である。 Even in the technique described in Patent Document 1, since the correction amount is updated when the number of frames exceeds the count condition, the correction is performed even when the same scene is continuous and the correction amount need not be updated, Inefficient.
そこで、本発明は、動画像データの補正を効率的に行い、画像処理における演算付加の軽減、処理時間の短縮を目的とする。 In view of the above, an object of the present invention is to efficiently correct moving image data, reduce calculation addition in image processing, and shorten processing time.
上記課題に鑑みて、本発明に係る画像処理装置は、
動画像データを複数のシーンに分割する分割手段と、
前記シーンの画質に関する特徴量を算出する算出手段と、
前記複数のシーンを各シーンの継続時間に基づいて基点シーンと非基点シーンとに分類する分類手段と、
基点シーンと、存在する場合に該基点シーンに後続する一連の非基点シーンと、で構成されるシーン・セットから1以上の参照シーンを選択する選択手段と、
前記1以上の参照シーンの前記特徴量に基づいて、該シーン・セットに適用する補正データを生成する生成手段と、
前記シーン・セットに含まれるすべてのシーンに対して、該シーン・セットについての前記補正データにより変換処理を行う変換手段と
を備え、
前記分類手段は、シーンの継続時間が、該シーンに対する観察者の順応時間よりも短いシーンを前記非基点シーンとして分類することを特徴とする。
In view of the above problems, an image processing apparatus according to the present invention is provided.
A dividing means for dividing moving image data into a plurality of scenes;
Calculating means for calculating a feature amount relating to the image quality of the scene;
Classifying means for classifying the plurality of scenes into a base point scene and a non-base point scene based on the duration of each scene;
Selecting means for selecting one or more reference scenes from a scene set comprising a base scene and a series of non-base scenes that, if present, follow the base scene;
Generating means for generating correction data to be applied to the scene set based on the feature amount of the one or more reference scenes;
Conversion means for performing conversion processing on all scenes included in the scene set using the correction data for the scene set;
The classifying unit classifies a scene whose duration time is shorter than an observer's adaptation time for the scene as the non-base point scene.
本発明によれば、動画像データの補正を効率的に行うことが可能となり、画像処理における演算付加の軽減、処理時間の短縮を実現できる。 According to the present invention, it is possible to efficiently correct moving image data, and it is possible to reduce the addition of computation and shorten the processing time in image processing.
本発明の実施形態について、添付の図面を参照しつつ以下に説明する。 Embodiments of the present invention will be described below with reference to the accompanying drawings.
<第1の実施形態>
図1乃至図3を用いて本実施形態に係る画像処理装置100の構成について説明する。図1は本実施形態に係る画像処理装置100のハードウェア・ブロック図の一例である。
<First Embodiment>
A configuration of the
画像処理装置100は、CPU101、ROM102、RAM103、ハードディスク104、操作部105、入力デバイス106、及び出力デバイス107を備える。
The
CPU101は画像処理装置100全体の制御を司る。ROM102及びハードディスク104は情報データや制御プログラム、OS(オペレーティングシステム)、カラーマッチング処理モジュール、デバイスドライバ等を記憶する。RAM103は各種制御プログラムや入力データの作業領域及び一時待避領域として使用される。
The
操作部105は、ユーザによって画像処理装置100の設定や動画像データの入力に使用され、例えば、キーボード、マウス、ディスプレイ等を備える。
The
入力デバイス106は、CCDセンサを含むビデオカメラ等を備え、動画像データの観察環境における色空間情報を取得する。出力デバイス107は、ディスプレイ等を備え、動画像データの出力する。
The
図2は本実施形態に係る画像処理装置100の機能ブロック図の一例である。画像処理装置100は、記憶部201、環境情報取得部202、色変換部203、算出部204、プロファイル生成部205、及び画像変換部206を備える。
FIG. 2 is an example of a functional block diagram of the
記憶部201は、処理対象の動画像データ(以下、入力動画像データという)や画像処理装置100で使用する補正プロファイル等のその他のデータ等を記憶する。ROM102、RAM103、及びハードディスク104が記憶部201として機能し、データの用途に合わせてそれぞれが使い分けられる。
The
環境情報取得部202は、画像処理装置100の置かれている観察環境に関する情報を取得する。観察環境に関する情報には、環境光における光源の照度や色温度、環境光の表示デバイス白色に対する順応係数などが含まれる。
The environment
色変換部203は、入力動画像データを色空間座標系へ変換する色変換処理を行う。色変換処理の際に必要となる観察環境に関する情報は、環境情報取得部202により適宜取得される。色変換部203による色変換手法には、入力動画像データをCIECAM02によるJCh座標系へ変換する手法やHSV座標系へ変換する手法などがあり、これらの手法が必要に応じて用いられる。
The
算出部204は、色変換部203により変換された色空間座標系に基づいて、入力動画像データに含まれる各フレームにおける特徴量、変動量を算出する。特徴量とは動画像データの画質を特徴付ける値であり、例えばホワイトバランス、明度(コントラスト)、露出、鮮鋭度、彩度等、又はこれらを組み合わせて得られる値である。動画像データの平均的な振る舞いを把握するため、本実施形態においては対象フレームを含む前後数フレームの特徴量に関する平均値を当該対象フレームにおける特徴量として取り扱う。変動量とは、対象フレームにおける特徴量と直前のフレームにおける特徴量との差分である。動画像データの再現内容が大きく変化するほどフレーム間の特徴量の変動量の値も大きくなる。
Based on the color space coordinate system converted by the
プロファイル生成部205は、入力動画像データの高画質な動画像再現を実現するために、動画像データの特徴量に基づいて画像処理装置100の観察環境に対応した補正プロファイルを生成する。
The
画像変換部206は、補正プロファイルを用いて入力動画像データに対する補正を行う。補正後の動画像データ(以下、出力動画像データという)は、出力デバイス107上にそのまま再現されてもよいし、記憶部201に保存されてもよい。
The
続いて、図3を用いてプロファイル生成部205の詳細について説明する。図3はプロファイル生成部205の詳細なブロック図の一例である。プロファイル生成部205は、分割部301、分類部302、選択部303、及び生成部304を備える。
Next, details of the
分割部301は、入力動画像データを複数のシーンに分割する。シーンとは動画像データの一部であり、連続した1以上のフレームで構成される。分割部301によるシーン分割は、従来技術のいかなるものであってもかまわない。例えば、各フレームについての明度検出、彩度検出、露出検出、動き検出等の結果により分割してもよいし、各手法を複合的に用いて分割してもよい。
The dividing
分割の一例を図4を用いて説明する。図4は変動量を用いてシーン分割を行う一例を説明する図である。グラフ400において、横軸は動画像データを構成するフレームの再現時間を表し、縦軸は各フレームにおける変動量を表す。グラフ400において、変動量が急激に上昇し始めるフレームを新たなシーンの開始として規定する。その結果、入力動画像データはシーン401からシーン404までの四つのシーンに分割される。グラフ400に示すとおり、変動量はシーン経過に伴って変動する。
An example of the division will be described with reference to FIG. FIG. 4 is a diagram for explaining an example in which scene division is performed using the fluctuation amount. In the graph 400, the horizontal axis represents the reproduction time of the frames constituting the moving image data, and the vertical axis represents the variation amount in each frame. In the graph 400, a frame in which the fluctuation amount starts to increase rapidly is defined as the start of a new scene. As a result, the input moving image data is divided into four scenes from a
各シーンの特徴量はシーンごとに異なる。ここで、シーンの特徴量とは、シーンを構成するそれぞれのフレームの特徴量に基づいて算出される値のことであり、例えば、それぞれのフレームの特徴量の平均値である。そのため、原則としてシーンごとに適切な補正を行うことが、動画像データの高画質化のためには望ましい。しかし、観察者がシーンに順応した後の状態を想定して補正量は作成される。そのため、シーンの継続時間と、観察者のそのシーンに対する順応が完了するまでの時間(以下、順応時間という)とを比較して、継続時間の方が短い場合には、その補正を行ったとしても効果を発揮し得ない。そこで、継続時間が順応時間よりも短いシーンに関しては補正を行わず、そのシーンよりも前のシーンの補正結果をそのまま利用する。これにより、必要のない処理を省略することが可能となる。 The feature amount of each scene varies from scene to scene. Here, the feature amount of the scene is a value calculated based on the feature amount of each frame constituting the scene, and is, for example, an average value of the feature amount of each frame. Therefore, in principle, it is desirable to perform appropriate correction for each scene in order to improve the quality of moving image data. However, the correction amount is created assuming a state after the observer has adapted to the scene. Therefore, if the duration of the scene is compared with the time until the observer completes adaptation to the scene (hereinafter referred to as adaptation time), and the duration is shorter, the correction is performed. Can not be effective. Therefore, correction is not performed for a scene whose duration is shorter than the adaptation time, and the correction result of the scene before that scene is used as it is. Thereby, unnecessary processing can be omitted.
以下、補正を行うシーンを基点シーンと呼び、補正を行わないシーンを非基点シーンと呼ぶ。また、基点シーンと、存在する場合にはこの基点シーンに後続する一連の非基点シーンとで構成されるシーンの集合をシーン・セットと呼ぶ。非基点シーンについては独自の補正は行われないため、非基点シーンは、同一のシーン・セットに含まれる基点シーンにおいて行われた補正と同一の補正量に基づいて動画像データが再現される。 Hereinafter, a scene to be corrected is referred to as a base scene, and a scene that is not corrected is referred to as a non-base scene. Also, a set of scenes composed of a base point scene and a series of non-base point scenes that follow this base point scene, if present, is called a scene set. Since the original correction is not performed for the non-base scene, the moving image data is reproduced based on the same correction amount as the correction performed in the base scene included in the same scene set.
図3に示す分類部302は、順応時間に基づいて、各シーンを基点シーンと非基点シーンとに分類する。
The
図5を用いて基点シーンと非基点シーンとの分類について説明する。図5はシーンの継続時間と順応時間との比較に基づいて分類を行う動作の一例を説明する図である。グラフ500において、横軸は動画像データを構成するフレームの再現時間を表し、縦軸は各フレームにおける変動量を表す。順応時間511から順応時間514までは、観察者が各シーンに順応するために必要な時間を表す。矢印の始点にあたるシーンの切り替わりから観察者の順応が始まり、矢印の終点において順応が完了する。
The classification of the base scene and the non-base scene will be described with reference to FIG. FIG. 5 is a diagram for explaining an example of an operation for performing classification based on a comparison between the duration of the scene and the adaptation time. In the
分割部301によって、動画像データはシーン501からシーン504までの四つのシーンに分割されている。まず、動画像データの最初のシーン501は、継続時間の長短に関わらず補正を行うこととする。そこで、分類部302は、シーン501を基点シーンに分類する。次に、シーン502の継続時間と順応時間512とを比較する。順応時間512の方が長いため、たとえシーン502のための補正を行ったとしても、観察者の順応が完了する前に次のシーン503に移行してしまう。そこで、分類部302は、シーン502を非基点シーンに分類する。続いて、シーン503の継続時間と順応時間513とを比較すると、順応時間513の方が短い。この場合は、シーン503を補正することで、観察者は順応後に最適な状態のシーンを観察することが可能となる。そこで、分類部302は、シーン503を基点シーンに分類する。
The dividing
なお、最初のシーン501の継続時間が順応時間511よりも短い場合には、シーン501を非基点シーンに分類して、デフォルトの補正量を利用して再現しても良い。
When the duration of the
このとき、基点シーンであるシーン501と、それに後続する非基点シーンであるシーン502とで一つのシーン・セット521を構成する。また、基点シーンであるシーン503、504は、後続する非基点シーンが存在しないので、それぞれが単独で一つのシーン・セット523、524を構成する。このように規定したシーン・セットごとに補正データを作成する。
At this time, the
図3に戻り、プロファイル生成部205の説明を続ける。選択部303は、シーン・セットごとの補正データを生成するために使用される1以上のシーンをそれぞれのシーン・セットから選択する。選択されたシーンを参照シーンという。
Returning to FIG. 3, the description of the
図5において、シーン・セット521はシーン501とシーン502とを含む。シーン502において大きな変動量の値をとっているため、シーン501の特徴量とシーン502の特徴量とは異なる。従って、これらのシーンについて同一の補正量に基づいて補正を行うために、特徴の異なる二つのシーンに対して同時に高画質化を実現する補正データを作成する。そこで、両方のシーンを参照シーンとして選択して、これらに基づいて補正データを生成する。シーン・セット523のように、一つのシーンしか含まないものは、当該シーンを参照シーンとして選択する。
In FIG. 5, the scene set 521 includes a
図3に戻り、プロファイル生成部205の説明を続ける。生成部304は、参照シーンの特徴量に基づいて、各シーン・セットについての補正データを生成する。前述の通り、シーンの特徴量は観察環境に基づいて算出されているため、観察環境に応じた補正データが生成されることになる。参照シーンが複数ある場合には、各シーンごとに補正データを算出し、さらに、各補正データの合成処理を行い、シーン・セットに対する補正データを決定する。ここで、補正データは、動画像再現における高画質化を実現するため、彩度補正、ホワイトバランス補正、明度補正、露出補正、鮮鋭度補正、色補正(記憶色再現など)にかかわる補正量を記述したデータである。さらに、それぞれのシーン・セットに補正データを関連付けた補正プロファイルを作成する。
Returning to FIG. 3, the description of the
図6を用いて補正プロファイルの構成を説明する。図6は補正プロファイル600の構成の一例を説明する図である。
The configuration of the correction profile will be described with reference to FIG. FIG. 6 is a diagram for explaining an example of the configuration of the
補正プロファイル600において、シーンID601には補正を行うシーンを特定する情報が設定される。例えば、シーンのIDや、シーンの最初のフレームの再現時間などを用いる。なお、シーンID601に設定されるシーンは基点シーンである。各種パラメータ602には、それぞれのシーンID601に示すシーンおいて適用するそれぞれの補正データの補正量が設定される。
In the
画像変換部206は記憶部201に保存された補正プロファイルを参照して、基点シーンの開始時点で、入力動画像データに対して各パラメータの補正量に基づく補正を行う。
The
最後に、図7を用いて本実施形態に係る画像処理装置100の動作を説明する。図7は画像処理装置100の動作の一例を説明するフローチャートである。このフローチャートに示す処理は、CPU101がROM102に書き込まれたコンピュータプログラムを実行することで処理される。
Finally, the operation of the
ステップS701で、画像処理装置100は入力動画像データを取得する。
In step S701, the
ステップS702で、観察者は分類部302が使用する順応時間の設定を行う。順応時間は予め記憶部201に保存しておき、その値をデフォルト値として使用してもよい。
In step S <b> 702, the observer sets an adaptation time used by the
ステップS703で、分割部301は入力動画像データを複数のシーンに分割する。
In step S703, the dividing
ステップS704で、分類部302は各シーンを基点シーンと非基点シーンとに分類する。
In step S704, the
ステップS705で、選択部303は、それぞれのシーン・セットから参照シーンを選択する。
In step S705, the
ステップS706で、生成部304は補正プロファイルを生成する。
In step S706, the
ステップS707で、画像変換部206は補正プロファイルに基づいて、入力動画像データを補正して、出力動画像データに変換する。
In step S707, the
以上、本実施形態によれば、動画像データを人間の知覚に応じた順応時間に基づいて補正することで、補正処理における演算負荷の削減、処理時間を短縮することができ、動画像補正処理の効率化を実現する。 As described above, according to the present embodiment, by correcting the moving image data based on the adaptation time according to human perception, it is possible to reduce the calculation load and the processing time in the correction processing, and the moving image correction processing To improve efficiency.
<第2の実施形態>
第1の実施形態においては、順応時間よりも長い継続時間を有するシーンについてはすべて基点シーンとして分類した。しかし、直前のシーンと比較して特徴量の変動が少ないシーンに関しては、それまでのシーンと同一の補正量を用いることで、処理を簡略化することが可能となる。
<Second Embodiment>
In the first embodiment, all scenes having a duration longer than the adaptation time are classified as base scenes. However, for a scene with less variation in the feature amount compared to the immediately preceding scene, it is possible to simplify the processing by using the same correction amount as the previous scene.
図8は閾値を用いてシーンの分類を行う動作の一例を説明する図である。第1の実施形態と同様に、入力動画像データはシーン801からシーン804までの四つのシーンに分割されている。そして、シーン801は基点シーンに分類され、シーン802は非基点シーンに分類される。
FIG. 8 is a diagram for explaining an example of an operation for classifying scenes using threshold values. Similar to the first embodiment, the input moving image data is divided into four scenes from a
シーン803は継続時間が順応時間813よりも長い。しかし、シーン803における変動量は小さい値であるため、直前のシーン802までの補正データと同一の補正量を用いたとしても、効果的な補正を行える。そこで、たとえ継続時間が順応時間よりも長いシーンであったとしても、変動量が閾値830よりも下回るシーンについて、分類部302は非基点シーンとして分類する。その結果、シーン801からシーン803までが一つのシーン・セット821を構成し、同一の補正量を用いて補正がされる。
また、シーン・セット821に含まれる各シーンの特徴量の差は小さいことから、選択部303は、いずれか一つのシーンを参照シーンとして選択すればよい。例えば、基点シーンであるシーン801を参照シーンとして選択することができる。当然のことながら、第1の実施形態と同様に、シーン・セットに含まれるすべてのシーンを参照シーンとして選択してもよい。
In addition, since the difference in feature quantity between scenes included in the scene set 821 is small, the
以上により、さらに効率的な補正処理を提供することが可能となる。 As described above, a more efficient correction process can be provided.
<第3の実施形態>
上述の実施形態においては、順応時間よりも短い継続時間を有するシーンについてはすべて非基点シーンとして分類した。しかし、直前のシーンと比較して特徴量が極端に変化する場合もある。例えば、ホワイトバランスにおける色温度の急激な違いや、明るい画像から暗い画像に切り替わるような明度の急峻な変化が発生することがある。このようなシーンに関しては、たとえそのシーンに対しての順応が完了する前であっても、補正を行わないと観察者が違和感を受けることもある。本実施形態では、このような場合においても適切な補正を行う。図9は本実施形態における閾値を用いてシーンの分類を行う動作の一例を説明する図である。シーン902は継続時間が順応時間912よりも短いが、変動量の値が極端に大きくなっている。そのため、シーン901と同じ補正量を利用すると、十分な補正とならない。そこで、閾値930を上回る変動量を有するシーンについては、継続時間の長短に関わらず、基点シーンに分類する。
<Third Embodiment>
In the above embodiment, all scenes having a duration shorter than the adaptation time are classified as non-base scenes. However, the feature amount may change extremely compared to the immediately preceding scene. For example, there may be a sudden difference in color temperature in white balance, or a sharp change in brightness such as switching from a bright image to a dark image. With respect to such a scene, even if the adaptation to the scene is not completed, the observer may feel uncomfortable if correction is not performed. In the present embodiment, appropriate correction is performed even in such a case. FIG. 9 is a diagram for explaining an example of an operation of classifying scenes using threshold values in the present embodiment. In the
以上により、補正処理を効率化しつつも、観察者に対して違和感のない動画再現を提供することが可能となる。 As described above, it is possible to provide a moving image reproduction with no sense of incongruity to the observer while improving the efficiency of the correction process.
<第4の実施形態>
上述までの実施形態においては、各種の補正データに共通のシーン・セットを規定し、各シーン・セットに対して補正データを生成した。しかし、補正データの種類ごとにシーン・セットを規定してもよい。例えば、シーンの切り替わりにおいて、ホワイトバランスは大きく変化するが、明度はほとんど変化しないような場合もある。このような場合に分類部302は、ホワイトバランスに関しては、切り替わり後のシーンを基点シーンに分類し、明度に関しては、当該シーンを非基点シーンに分類する。
<Fourth Embodiment>
In the embodiments described above, a common scene set is defined for various types of correction data, and correction data is generated for each scene set. However, a scene set may be defined for each type of correction data. For example, when the scene is switched, the white balance may change greatly, but the lightness may hardly change. In such a case, the
本実施形態における補正プロファイル1000の一例を図10に示す。ホワイトバランス補正1001と明度補正1002とで、異なるシーンにおいて補正を行う。
An example of the
さらに、それぞれの補正データの種類に対して、順応時間を個別に設定してもよい。例えば、ホワイトバランスの変化と明度の変化とでは、順応時間が異なる場合がある。また、明度の変化においても、明度変化の傾向の違いを判定し、明順応、暗順応に対応した順応時間を設定してもよい。補正データの種類ごとに順応時間を個別に設定することで、いっそう効率的に補正を行うことができる。 Furthermore, the adaptation time may be set individually for each type of correction data. For example, the adaptation time may be different between the change in white balance and the change in brightness. Also, in the change in brightness, a difference in tendency of brightness change may be determined, and an adaptation time corresponding to light adaptation and dark adaptation may be set. By setting the adaptation time individually for each type of correction data, correction can be performed more efficiently.
<その他の実施形態>
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、ビデオカメラ、モニタなど)から構成されるシステムに適用しても良い。また、一つの機器からなる装置(例えば、液晶モニタ付デジタルビデオカメラ、液晶モニタおよび動画像撮影機能付デジタルカメラ装置、カメラ付携帯電話、など)に適用してもよい。
<Other embodiments>
Note that the present invention may be applied to a system including a plurality of devices (for example, a host computer, an interface device, a video camera, a monitor, etc.). Further, the present invention may be applied to a device composed of a single device (for example, a digital video camera with a liquid crystal monitor, a liquid crystal monitor and a digital camera device with a moving image shooting function, a mobile phone with a camera, etc.).
また、本発明の目的は、前述した機能を実現するコンピュータプログラムのコードを記録した記憶媒体を、システムに供給し、そのシステムがコンピュータプログラムのコードを読み出し実行することによっても達成される。プログラムコードを供給するための記憶媒体としては、例えば、フロッピーディスク(登録商標)、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることが出来る。この場合、記憶媒体から読み出されたコンピュータプログラムのコード自体が前述した実施形態の機能を実現し、そのコンピュータプログラムのコードを記憶した記憶媒体は本発明を構成する。また、そのプログラムのコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した機能が実現される場合も含まれる。 The object of the present invention can also be achieved by supplying, to a system, a storage medium that records the code of a computer program that realizes the functions described above, and the system reads and executes the code of the computer program. As a storage medium for supplying the program code, for example, a floppy disk (registered trademark), a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like is used. I can do it. In this case, the computer program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the computer program code constitutes the present invention. In addition, the operating system (OS) running on the computer performs part or all of the actual processing based on the code instruction of the program, and the above-described functions are realized by the processing. .
さらに、以下の形態で実現しても構わない。すなわち、記憶媒体から読み出されたコンピュータプログラムコードを、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込む。そして、そのコンピュータプログラムのコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行って、前述した機能が実現される場合も含まれる。 Furthermore, you may implement | achieve with the following forms. That is, the computer program code read from the storage medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Then, based on the instruction of the code of the computer program, the above-described functions are realized by the CPU or the like provided in the function expansion card or function expansion unit performing part or all of the actual processing.
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するコンピュータプログラムのコードが格納されることになる。
When the present invention is applied to the above storage medium, the computer program code corresponding to the flowchart described above is stored in the storage medium.
100 画像処理装置
101 CPU
102 ROM
103 RAM
104 ハードディスク
105 操作部
106 入力デバイス
107 出力デバイス
100
102 ROM
103 RAM
104
Claims (12)
前記シーンの画質に関する特徴量を算出する算出手段と、
前記複数のシーンを各シーンの継続時間に基づいて基点シーンと非基点シーンとに分類する分類手段と、
基点シーンと、存在する場合に該基点シーンに後続する一連の非基点シーンと、で構成されるシーン・セットから1以上の参照シーンを選択する選択手段と、
前記1以上の参照シーンの前記特徴量に基づいて、該シーン・セットに適用する補正データを生成する生成手段と、
前記シーン・セットに含まれるすべてのシーンに対して、該シーン・セットについての前記補正データにより変換処理を行う変換手段と
を備え、
前記分類手段は、シーンの継続時間が、該シーンに対する観察者の順応時間よりも短いシーンを前記非基点シーンとして分類することを特徴とする画像処理装置。 A dividing means for dividing moving image data into a plurality of scenes;
Calculating means for calculating a feature amount relating to the image quality of the scene;
Classifying means for classifying the plurality of scenes into a base point scene and a non-base point scene based on the duration of each scene;
Selecting means for selecting one or more reference scenes from a scene set comprising a base scene and a series of non-base scenes that, if present, follow the base scene;
Generating means for generating correction data to be applied to the scene set based on the feature amount of the one or more reference scenes;
Conversion means for performing conversion processing on all scenes included in the scene set using the correction data for the scene set;
The image classification apparatus classifies a scene whose duration time is shorter than an observer's adaptation time for the scene as the non-base scene.
前記分類手段は、前記変動量が常に閾値を下回るシーンを非基点シーンとしてさらに分類することを特徴とする請求項1に記載の画像処理装置。 The calculation means further calculates a variation amount of a feature amount between frames constituting each scene,
The image processing apparatus according to claim 1, wherein the classification unit further classifies a scene in which the variation amount is always below a threshold as a non-base scene.
前記分類手段は、閾値を上回る前記変動量を有するシーンを基点シーンとしてさらに分類することを特徴とする請求項1に記載の画像処理装置。 The calculation means further calculates a variation amount of a feature amount between frames constituting each scene,
The image processing apparatus according to claim 1, wherein the classification unit further classifies a scene having the variation amount exceeding a threshold as a base scene.
算出手段が、前記シーンの画質に関する特徴量を算出する算出工程と、
分類手段が、前記複数のシーンを各シーンの継続時間に基づいて基点シーンと非基点シーンとに分類する分類工程と、
選択手段が、基点シーンと、存在する場合に該基点シーンに後続する一連の非基点シーンと、で構成されるシーン・セットから1以上の参照シーンを選択する選択工程と、
生成手段が、前記1以上の参照シーンの前記特徴量に基づいて、該シーン・セットに適用する補正データを生成する生成工程と、
変換手段が、前記シーン・セットに含まれるすべてのシーンに対して、該シーン・セットについての前記補正データにより変換処理を行う変換工程と
を備え、
前記分類工程において、シーンの継続時間が、該シーンに対する観察者の順応時間よりも短いシーンは前記非基点シーンとして分類されることを特徴とする画像処理方法。 A dividing step of dividing the moving image data into a plurality of scenes;
A calculating step in which a calculating unit calculates a feature amount related to the image quality of the scene;
A classifying step for classifying the plurality of scenes into a base scene and a non-base scene based on the duration of each scene;
A selection step in which the selection means selects one or more reference scenes from a scene set composed of a base scene and a series of non-base scenes that follow the base scene if present;
A generating step of generating correction data to be applied to the scene set based on the feature amount of the one or more reference scenes;
A conversion step of performing conversion processing on all scenes included in the scene set with the correction data for the scene set;
An image processing method, wherein in the classification step, a scene whose duration is shorter than an observer's adaptation time for the scene is classified as the non-base scene.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008206390A JP2010045455A (en) | 2008-08-08 | 2008-08-08 | Image processor, image processing method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008206390A JP2010045455A (en) | 2008-08-08 | 2008-08-08 | Image processor, image processing method, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010045455A true JP2010045455A (en) | 2010-02-25 |
Family
ID=42016503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008206390A Withdrawn JP2010045455A (en) | 2008-08-08 | 2008-08-08 | Image processor, image processing method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010045455A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013150122A (en) * | 2012-01-18 | 2013-08-01 | Toshiba Corp | Image processing device, method, and program |
-
2008
- 2008-08-08 JP JP2008206390A patent/JP2010045455A/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013150122A (en) * | 2012-01-18 | 2013-08-01 | Toshiba Corp | Image processing device, method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5889431B2 (en) | Image processing apparatus and image processing method | |
JP5116393B2 (en) | Image processing apparatus and image processing method | |
JP2010079446A (en) | Electronic apparatus, blurring image selection method and program | |
JP2009038523A (en) | Unit and method for processing image | |
CN108337450B (en) | Image processing apparatus, image processing method, and recording medium | |
JP5870598B2 (en) | Image white balance processing method and apparatus | |
US10237488B2 (en) | Image capturing apparatus and image capturing method | |
JP4595569B2 (en) | Imaging device | |
JP2006018465A5 (en) | ||
JP2008160417A (en) | Image processing apparatus, image processing method, image processing program and storage medium | |
KR101437626B1 (en) | System and method for region-of-interest-based artifact reduction in image sequences | |
JP2007096437A (en) | Determination of image creator's intention | |
JP5504990B2 (en) | Imaging apparatus, image processing apparatus, and program | |
JP2010250726A (en) | Color-image representative color decision apparatus, and method of controlling operation thereof | |
KR20070063781A (en) | Method and apparatus for image adaptive color adjustment of pixel in color gamut | |
JP2010045455A (en) | Image processor, image processing method, and computer program | |
JP5212451B2 (en) | Region specifying method, region specifying device, program, server, and system | |
JP2008263657A (en) | Image processor, thumbnail moving image creation method and thumbnail moving image creation program | |
JP2016129281A (en) | Image processor | |
JP6601725B2 (en) | Image correction device | |
JP2008147714A (en) | Image processor and image processing method | |
JP5227651B2 (en) | Video conversion apparatus, video conversion method, and video conversion program | |
JP6320130B2 (en) | Image processing apparatus, control method thereof, and control program | |
JP2014174855A (en) | Image processor, image processing method and program | |
JP2008312177A (en) | Apparatus, method and program, for converting gradation of video image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20111101 |