JP2010045455A - Image processor, image processing method, and computer program - Google Patents

Image processor, image processing method, and computer program Download PDF

Info

Publication number
JP2010045455A
JP2010045455A JP2008206390A JP2008206390A JP2010045455A JP 2010045455 A JP2010045455 A JP 2010045455A JP 2008206390 A JP2008206390 A JP 2008206390A JP 2008206390 A JP2008206390 A JP 2008206390A JP 2010045455 A JP2010045455 A JP 2010045455A
Authority
JP
Japan
Prior art keywords
scene
scenes
base
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008206390A
Other languages
Japanese (ja)
Inventor
Sachiko Iida
祥子 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008206390A priority Critical patent/JP2010045455A/en
Publication of JP2010045455A publication Critical patent/JP2010045455A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce operation addition in image processing and to shorten a processing time by efficiently making correction of moving image data corresponding to an observation environment. <P>SOLUTION: This image processor is provided with: a dividing means for dividing moving image data into a plurality of scenes; a calculating means for calculating a feature amount about the image quality of a scene; a classifying means for classifying the plurality of scenes into reference point scenes and non-reference point scenes; a selecting means for selecting one or more reference scenes from a scene set comprising the reference point scenes and a series of non-reference point scenes following the reference point scenes when they exist; a generating means for generating correction data that is applied to the scene set on the basis of a feature amount of one or more reference scenes; and a converting means for performing conversion processing of all scenes included in the scene set with correction data about the scene set. The classifying means classifies a scene the scene time duration of which is shorter than an observer's adaptation time to the scene as a non-reference point scene. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法、及びコンピュータプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a computer program.

動画像データの再現において、表示デバイスにおける高画質化再現のため、ユーザが表示デバイスを観察する環境に応じて、さまざまな画像補正処理を施すことが一般的である。動画像データは、場面の切替え時や一連の場面の途中で、明度や鮮やかさが変化する。そのため、動画の高画質化を実現するためには、観察環境に応じ、かつ、シーンごとに最適な補正処理を行う必要がある。   In reproduction of moving image data, in order to reproduce high-quality images on a display device, it is common to perform various image correction processes depending on the environment in which the user observes the display device. The moving image data changes in brightness and vividness when switching scenes or during a series of scenes. Therefore, in order to achieve high image quality of moving images, it is necessary to perform an optimal correction process for each scene according to the observation environment.

従来技術においては、動画のフレーム画像を解析することによって、シーンの切替えやシーン変化を検出する。そして、検出されたシーン切替えやシーン変化のタイミングで、各シーンに最適な補正量を求め、動画像データに対する補正処理を行っている。   In the prior art, scene switching or scene change is detected by analyzing a frame image of a moving image. Then, at the timing of the detected scene change or scene change, an optimal correction amount is obtained for each scene, and correction processing is performed on the moving image data.

一方で、動画像を観察する人間には、シーンの明度や色の変化に対して順応という生理現象がおこる。順応に必要な時間については、非特許文献1のような研究が行われ、定量化されている。   On the other hand, a human being who observes a moving image undergoes a physiological phenomenon of adaptation to changes in scene brightness and color. The time required for adaptation is studied and quantified as in Non-Patent Document 1.

動画像データに対する補正は、観察環境光と表示されたシーンとに視覚が順応していることを条件として、補正量を算出する。そのため、シーン変化に対する順応が完了しない間に次のシーンに切り替わった場合には、観察者は、シーンに順応しない状態で補正処理されたシーンを観察することになる。そして、次のシーンの開始とともに、新たに順応しようとする。   In the correction for the moving image data, the correction amount is calculated on the condition that the vision is adapted to the observation environment light and the displayed scene. Therefore, when switching to the next scene while adaptation to the scene change is not completed, the observer observes the scene that has been subjected to the correction process without being adapted to the scene. And at the start of the next scene, it tries to adapt again.

また、特許文献1に記載の技術は、フレーム数をカウントし、所定のフレーム数を超えた場合に補正量を強制的に更新する。
特開2002−262303号公報 M. D. Fairchild, L. Reniff, “Time Course of Chromatic Adaptation for Color-Appearance Judgments,"(1995)
The technique described in Patent Document 1 counts the number of frames, and forcibly updates the correction amount when a predetermined number of frames is exceeded.
JP 2002-262303 A MD Fairchild, L. Reniff, “Time Course of Chromatic Adaptation for Color-Appearance Judgments,” (1995)

上記の技術のように、人間の順応時間を考慮せずに補正を行うと、必要のないシーンに対しても補正を行うことになり、画像処理の演算負荷、処理時間を増加させ、非効率的である。   If correction is performed without considering human adaptation time as in the above technology, correction is performed even for scenes that are not necessary, which increases the computational load and processing time of image processing, resulting in inefficiency. Is.

特許文献1に記載の技術においても、フレーム数がカウント条件を超えたら補正量の更新を行ってしまうため、同様のシーンが連続していて補正量の更新が必要でない場合にも補正を行い、非効率的である。   Even in the technique described in Patent Document 1, since the correction amount is updated when the number of frames exceeds the count condition, the correction is performed even when the same scene is continuous and the correction amount need not be updated, Inefficient.

そこで、本発明は、動画像データの補正を効率的に行い、画像処理における演算付加の軽減、処理時間の短縮を目的とする。   In view of the above, an object of the present invention is to efficiently correct moving image data, reduce calculation addition in image processing, and shorten processing time.

上記課題に鑑みて、本発明に係る画像処理装置は、
動画像データを複数のシーンに分割する分割手段と、
前記シーンの画質に関する特徴量を算出する算出手段と、
前記複数のシーンを各シーンの継続時間に基づいて基点シーンと非基点シーンとに分類する分類手段と、
基点シーンと、存在する場合に該基点シーンに後続する一連の非基点シーンと、で構成されるシーン・セットから1以上の参照シーンを選択する選択手段と、
前記1以上の参照シーンの前記特徴量に基づいて、該シーン・セットに適用する補正データを生成する生成手段と、
前記シーン・セットに含まれるすべてのシーンに対して、該シーン・セットについての前記補正データにより変換処理を行う変換手段と
を備え、
前記分類手段は、シーンの継続時間が、該シーンに対する観察者の順応時間よりも短いシーンを前記非基点シーンとして分類することを特徴とする。
In view of the above problems, an image processing apparatus according to the present invention is provided.
A dividing means for dividing moving image data into a plurality of scenes;
Calculating means for calculating a feature amount relating to the image quality of the scene;
Classifying means for classifying the plurality of scenes into a base point scene and a non-base point scene based on the duration of each scene;
Selecting means for selecting one or more reference scenes from a scene set comprising a base scene and a series of non-base scenes that, if present, follow the base scene;
Generating means for generating correction data to be applied to the scene set based on the feature amount of the one or more reference scenes;
Conversion means for performing conversion processing on all scenes included in the scene set using the correction data for the scene set;
The classifying unit classifies a scene whose duration time is shorter than an observer's adaptation time for the scene as the non-base point scene.

本発明によれば、動画像データの補正を効率的に行うことが可能となり、画像処理における演算付加の軽減、処理時間の短縮を実現できる。   According to the present invention, it is possible to efficiently correct moving image data, and it is possible to reduce the addition of computation and shorten the processing time in image processing.

本発明の実施形態について、添付の図面を参照しつつ以下に説明する。   Embodiments of the present invention will be described below with reference to the accompanying drawings.

<第1の実施形態>
図1乃至図3を用いて本実施形態に係る画像処理装置100の構成について説明する。図1は本実施形態に係る画像処理装置100のハードウェア・ブロック図の一例である。
<First Embodiment>
A configuration of the image processing apparatus 100 according to the present embodiment will be described with reference to FIGS. 1 to 3. FIG. 1 is an example of a hardware block diagram of an image processing apparatus 100 according to the present embodiment.

画像処理装置100は、CPU101、ROM102、RAM103、ハードディスク104、操作部105、入力デバイス106、及び出力デバイス107を備える。   The image processing apparatus 100 includes a CPU 101, ROM 102, RAM 103, hard disk 104, operation unit 105, input device 106, and output device 107.

CPU101は画像処理装置100全体の制御を司る。ROM102及びハードディスク104は情報データや制御プログラム、OS(オペレーティングシステム)、カラーマッチング処理モジュール、デバイスドライバ等を記憶する。RAM103は各種制御プログラムや入力データの作業領域及び一時待避領域として使用される。   The CPU 101 controls the entire image processing apparatus 100. The ROM 102 and the hard disk 104 store information data, a control program, an OS (Operating System), a color matching processing module, a device driver, and the like. The RAM 103 is used as a work area and a temporary save area for various control programs and input data.

操作部105は、ユーザによって画像処理装置100の設定や動画像データの入力に使用され、例えば、キーボード、マウス、ディスプレイ等を備える。   The operation unit 105 is used by the user for setting the image processing apparatus 100 and inputting moving image data, and includes, for example, a keyboard, a mouse, a display, and the like.

入力デバイス106は、CCDセンサを含むビデオカメラ等を備え、動画像データの観察環境における色空間情報を取得する。出力デバイス107は、ディスプレイ等を備え、動画像データの出力する。   The input device 106 includes a video camera including a CCD sensor, and acquires color space information in an observation environment for moving image data. The output device 107 includes a display and outputs moving image data.

図2は本実施形態に係る画像処理装置100の機能ブロック図の一例である。画像処理装置100は、記憶部201、環境情報取得部202、色変換部203、算出部204、プロファイル生成部205、及び画像変換部206を備える。   FIG. 2 is an example of a functional block diagram of the image processing apparatus 100 according to the present embodiment. The image processing apparatus 100 includes a storage unit 201, an environment information acquisition unit 202, a color conversion unit 203, a calculation unit 204, a profile generation unit 205, and an image conversion unit 206.

記憶部201は、処理対象の動画像データ(以下、入力動画像データという)や画像処理装置100で使用する補正プロファイル等のその他のデータ等を記憶する。ROM102、RAM103、及びハードディスク104が記憶部201として機能し、データの用途に合わせてそれぞれが使い分けられる。   The storage unit 201 stores moving image data to be processed (hereinafter referred to as input moving image data), other data such as a correction profile used in the image processing apparatus 100, and the like. The ROM 102, the RAM 103, and the hard disk 104 function as the storage unit 201, and are used properly according to the use of data.

環境情報取得部202は、画像処理装置100の置かれている観察環境に関する情報を取得する。観察環境に関する情報には、環境光における光源の照度や色温度、環境光の表示デバイス白色に対する順応係数などが含まれる。   The environment information acquisition unit 202 acquires information regarding the observation environment where the image processing apparatus 100 is placed. The information related to the observation environment includes the illuminance and color temperature of the light source in the ambient light, the adaptation coefficient of the ambient light with respect to the white color of the display device, and the like.

色変換部203は、入力動画像データを色空間座標系へ変換する色変換処理を行う。色変換処理の際に必要となる観察環境に関する情報は、環境情報取得部202により適宜取得される。色変換部203による色変換手法には、入力動画像データをCIECAM02によるJCh座標系へ変換する手法やHSV座標系へ変換する手法などがあり、これらの手法が必要に応じて用いられる。   The color conversion unit 203 performs color conversion processing for converting the input moving image data into the color space coordinate system. Information relating to the observation environment necessary for the color conversion process is appropriately acquired by the environment information acquisition unit 202. The color conversion method by the color conversion unit 203 includes a method of converting input moving image data into a JCh coordinate system by CIECAM02, a method of conversion into an HSV coordinate system, and the like, and these methods are used as necessary.

算出部204は、色変換部203により変換された色空間座標系に基づいて、入力動画像データに含まれる各フレームにおける特徴量、変動量を算出する。特徴量とは動画像データの画質を特徴付ける値であり、例えばホワイトバランス、明度(コントラスト)、露出、鮮鋭度、彩度等、又はこれらを組み合わせて得られる値である。動画像データの平均的な振る舞いを把握するため、本実施形態においては対象フレームを含む前後数フレームの特徴量に関する平均値を当該対象フレームにおける特徴量として取り扱う。変動量とは、対象フレームにおける特徴量と直前のフレームにおける特徴量との差分である。動画像データの再現内容が大きく変化するほどフレーム間の特徴量の変動量の値も大きくなる。   Based on the color space coordinate system converted by the color conversion unit 203, the calculation unit 204 calculates a feature amount and a variation amount in each frame included in the input moving image data. The feature amount is a value that characterizes the image quality of moving image data, and is a value obtained by, for example, white balance, brightness (contrast), exposure, sharpness, saturation, etc., or a combination thereof. In order to grasp the average behavior of moving image data, in the present embodiment, an average value related to feature quantities of several frames before and after the target frame is handled as a feature quantity in the target frame. The fluctuation amount is a difference between the feature amount in the target frame and the feature amount in the immediately preceding frame. As the reproduction contents of the moving image data change greatly, the value of the variation amount of the feature amount between frames also increases.

プロファイル生成部205は、入力動画像データの高画質な動画像再現を実現するために、動画像データの特徴量に基づいて画像処理装置100の観察環境に対応した補正プロファイルを生成する。   The profile generation unit 205 generates a correction profile corresponding to the observation environment of the image processing apparatus 100 based on the feature amount of the moving image data in order to realize high-quality moving image reproduction of the input moving image data.

画像変換部206は、補正プロファイルを用いて入力動画像データに対する補正を行う。補正後の動画像データ(以下、出力動画像データという)は、出力デバイス107上にそのまま再現されてもよいし、記憶部201に保存されてもよい。   The image conversion unit 206 corrects the input moving image data using the correction profile. The corrected moving image data (hereinafter referred to as output moving image data) may be reproduced on the output device 107 as it is or may be stored in the storage unit 201.

続いて、図3を用いてプロファイル生成部205の詳細について説明する。図3はプロファイル生成部205の詳細なブロック図の一例である。プロファイル生成部205は、分割部301、分類部302、選択部303、及び生成部304を備える。   Next, details of the profile generation unit 205 will be described with reference to FIG. FIG. 3 is an example of a detailed block diagram of the profile generation unit 205. The profile generation unit 205 includes a division unit 301, a classification unit 302, a selection unit 303, and a generation unit 304.

分割部301は、入力動画像データを複数のシーンに分割する。シーンとは動画像データの一部であり、連続した1以上のフレームで構成される。分割部301によるシーン分割は、従来技術のいかなるものであってもかまわない。例えば、各フレームについての明度検出、彩度検出、露出検出、動き検出等の結果により分割してもよいし、各手法を複合的に用いて分割してもよい。   The dividing unit 301 divides input moving image data into a plurality of scenes. A scene is a part of moving image data and is composed of one or more continuous frames. The scene division by the dividing unit 301 may be any of the conventional techniques. For example, it may be divided according to the results of brightness detection, saturation detection, exposure detection, motion detection, etc. for each frame, or may be divided using each method in combination.

分割の一例を図4を用いて説明する。図4は変動量を用いてシーン分割を行う一例を説明する図である。グラフ400において、横軸は動画像データを構成するフレームの再現時間を表し、縦軸は各フレームにおける変動量を表す。グラフ400において、変動量が急激に上昇し始めるフレームを新たなシーンの開始として規定する。その結果、入力動画像データはシーン401からシーン404までの四つのシーンに分割される。グラフ400に示すとおり、変動量はシーン経過に伴って変動する。   An example of the division will be described with reference to FIG. FIG. 4 is a diagram for explaining an example in which scene division is performed using the fluctuation amount. In the graph 400, the horizontal axis represents the reproduction time of the frames constituting the moving image data, and the vertical axis represents the variation amount in each frame. In the graph 400, a frame in which the fluctuation amount starts to increase rapidly is defined as the start of a new scene. As a result, the input moving image data is divided into four scenes from a scene 401 to a scene 404. As shown in the graph 400, the variation amount varies with the progress of the scene.

各シーンの特徴量はシーンごとに異なる。ここで、シーンの特徴量とは、シーンを構成するそれぞれのフレームの特徴量に基づいて算出される値のことであり、例えば、それぞれのフレームの特徴量の平均値である。そのため、原則としてシーンごとに適切な補正を行うことが、動画像データの高画質化のためには望ましい。しかし、観察者がシーンに順応した後の状態を想定して補正量は作成される。そのため、シーンの継続時間と、観察者のそのシーンに対する順応が完了するまでの時間(以下、順応時間という)とを比較して、継続時間の方が短い場合には、その補正を行ったとしても効果を発揮し得ない。そこで、継続時間が順応時間よりも短いシーンに関しては補正を行わず、そのシーンよりも前のシーンの補正結果をそのまま利用する。これにより、必要のない処理を省略することが可能となる。   The feature amount of each scene varies from scene to scene. Here, the feature amount of the scene is a value calculated based on the feature amount of each frame constituting the scene, and is, for example, an average value of the feature amount of each frame. Therefore, in principle, it is desirable to perform appropriate correction for each scene in order to improve the quality of moving image data. However, the correction amount is created assuming a state after the observer has adapted to the scene. Therefore, if the duration of the scene is compared with the time until the observer completes adaptation to the scene (hereinafter referred to as adaptation time), and the duration is shorter, the correction is performed. Can not be effective. Therefore, correction is not performed for a scene whose duration is shorter than the adaptation time, and the correction result of the scene before that scene is used as it is. Thereby, unnecessary processing can be omitted.

以下、補正を行うシーンを基点シーンと呼び、補正を行わないシーンを非基点シーンと呼ぶ。また、基点シーンと、存在する場合にはこの基点シーンに後続する一連の非基点シーンとで構成されるシーンの集合をシーン・セットと呼ぶ。非基点シーンについては独自の補正は行われないため、非基点シーンは、同一のシーン・セットに含まれる基点シーンにおいて行われた補正と同一の補正量に基づいて動画像データが再現される。   Hereinafter, a scene to be corrected is referred to as a base scene, and a scene that is not corrected is referred to as a non-base scene. Also, a set of scenes composed of a base point scene and a series of non-base point scenes that follow this base point scene, if present, is called a scene set. Since the original correction is not performed for the non-base scene, the moving image data is reproduced based on the same correction amount as the correction performed in the base scene included in the same scene set.

図3に示す分類部302は、順応時間に基づいて、各シーンを基点シーンと非基点シーンとに分類する。   The classification unit 302 illustrated in FIG. 3 classifies each scene into a base scene and a non-base scene based on the adaptation time.

図5を用いて基点シーンと非基点シーンとの分類について説明する。図5はシーンの継続時間と順応時間との比較に基づいて分類を行う動作の一例を説明する図である。グラフ500において、横軸は動画像データを構成するフレームの再現時間を表し、縦軸は各フレームにおける変動量を表す。順応時間511から順応時間514までは、観察者が各シーンに順応するために必要な時間を表す。矢印の始点にあたるシーンの切り替わりから観察者の順応が始まり、矢印の終点において順応が完了する。   The classification of the base scene and the non-base scene will be described with reference to FIG. FIG. 5 is a diagram for explaining an example of an operation for performing classification based on a comparison between the duration of the scene and the adaptation time. In the graph 500, the horizontal axis represents the reproduction time of the frames constituting the moving image data, and the vertical axis represents the variation amount in each frame. The adaptation time 511 to the adaptation time 514 represent the time required for the observer to adapt to each scene. The adaptation of the observer starts from the change of the scene corresponding to the start point of the arrow, and the adaptation is completed at the end point of the arrow.

分割部301によって、動画像データはシーン501からシーン504までの四つのシーンに分割されている。まず、動画像データの最初のシーン501は、継続時間の長短に関わらず補正を行うこととする。そこで、分類部302は、シーン501を基点シーンに分類する。次に、シーン502の継続時間と順応時間512とを比較する。順応時間512の方が長いため、たとえシーン502のための補正を行ったとしても、観察者の順応が完了する前に次のシーン503に移行してしまう。そこで、分類部302は、シーン502を非基点シーンに分類する。続いて、シーン503の継続時間と順応時間513とを比較すると、順応時間513の方が短い。この場合は、シーン503を補正することで、観察者は順応後に最適な状態のシーンを観察することが可能となる。そこで、分類部302は、シーン503を基点シーンに分類する。   The dividing unit 301 divides the moving image data into four scenes from the scene 501 to the scene 504. First, the first scene 501 of the moving image data is corrected regardless of the duration of the duration. Therefore, the classification unit 302 classifies the scene 501 into the base scene. Next, the duration of the scene 502 and the adaptation time 512 are compared. Since the adaptation time 512 is longer, even if the correction for the scene 502 is performed, the process proceeds to the next scene 503 before the adaptation of the observer is completed. Therefore, the classification unit 302 classifies the scene 502 as a non-base scene. Subsequently, when the duration of the scene 503 is compared with the adaptation time 513, the adaptation time 513 is shorter. In this case, by correcting the scene 503, the observer can observe an optimal scene after adaptation. Therefore, the classification unit 302 classifies the scene 503 into the base scene.

なお、最初のシーン501の継続時間が順応時間511よりも短い場合には、シーン501を非基点シーンに分類して、デフォルトの補正量を利用して再現しても良い。   When the duration of the first scene 501 is shorter than the adaptation time 511, the scene 501 may be classified as a non-base scene and reproduced using a default correction amount.

このとき、基点シーンであるシーン501と、それに後続する非基点シーンであるシーン502とで一つのシーン・セット521を構成する。また、基点シーンであるシーン503、504は、後続する非基点シーンが存在しないので、それぞれが単独で一つのシーン・セット523、524を構成する。このように規定したシーン・セットごとに補正データを作成する。   At this time, the scene 501 that is the base scene and the scene 502 that is the subsequent non-base scene constitute one scene set 521. In addition, since the scenes 503 and 504 that are the base point scenes do not have the following non-base point scenes, they constitute a single scene set 523 and 524, respectively. Correction data is created for each scene set defined in this way.

図3に戻り、プロファイル生成部205の説明を続ける。選択部303は、シーン・セットごとの補正データを生成するために使用される1以上のシーンをそれぞれのシーン・セットから選択する。選択されたシーンを参照シーンという。   Returning to FIG. 3, the description of the profile generation unit 205 will be continued. The selection unit 303 selects one or more scenes used for generating correction data for each scene set from each scene set. The selected scene is called a reference scene.

図5において、シーン・セット521はシーン501とシーン502とを含む。シーン502において大きな変動量の値をとっているため、シーン501の特徴量とシーン502の特徴量とは異なる。従って、これらのシーンについて同一の補正量に基づいて補正を行うために、特徴の異なる二つのシーンに対して同時に高画質化を実現する補正データを作成する。そこで、両方のシーンを参照シーンとして選択して、これらに基づいて補正データを生成する。シーン・セット523のように、一つのシーンしか含まないものは、当該シーンを参照シーンとして選択する。   In FIG. 5, the scene set 521 includes a scene 501 and a scene 502. Since the scene 502 has a large variation value, the feature amount of the scene 501 and the feature amount of the scene 502 are different. Therefore, in order to perform correction based on the same correction amount for these scenes, correction data for realizing high image quality is created for two scenes having different characteristics at the same time. Therefore, both scenes are selected as reference scenes, and correction data is generated based on these scenes. For a scene set 523 that includes only one scene, the scene is selected as a reference scene.

図3に戻り、プロファイル生成部205の説明を続ける。生成部304は、参照シーンの特徴量に基づいて、各シーン・セットについての補正データを生成する。前述の通り、シーンの特徴量は観察環境に基づいて算出されているため、観察環境に応じた補正データが生成されることになる。参照シーンが複数ある場合には、各シーンごとに補正データを算出し、さらに、各補正データの合成処理を行い、シーン・セットに対する補正データを決定する。ここで、補正データは、動画像再現における高画質化を実現するため、彩度補正、ホワイトバランス補正、明度補正、露出補正、鮮鋭度補正、色補正(記憶色再現など)にかかわる補正量を記述したデータである。さらに、それぞれのシーン・セットに補正データを関連付けた補正プロファイルを作成する。   Returning to FIG. 3, the description of the profile generation unit 205 will be continued. The generation unit 304 generates correction data for each scene set based on the feature amount of the reference scene. As described above, since the feature amount of the scene is calculated based on the observation environment, correction data corresponding to the observation environment is generated. When there are a plurality of reference scenes, the correction data is calculated for each scene, and further, the correction data is combined to determine correction data for the scene set. Here, the correction data indicates the amount of correction related to saturation correction, white balance correction, brightness correction, exposure correction, sharpness correction, and color correction (memory color reproduction, etc.) in order to achieve high image quality in moving image reproduction. Described data. Further, a correction profile in which correction data is associated with each scene set is created.

図6を用いて補正プロファイルの構成を説明する。図6は補正プロファイル600の構成の一例を説明する図である。   The configuration of the correction profile will be described with reference to FIG. FIG. 6 is a diagram for explaining an example of the configuration of the correction profile 600.

補正プロファイル600において、シーンID601には補正を行うシーンを特定する情報が設定される。例えば、シーンのIDや、シーンの最初のフレームの再現時間などを用いる。なお、シーンID601に設定されるシーンは基点シーンである。各種パラメータ602には、それぞれのシーンID601に示すシーンおいて適用するそれぞれの補正データの補正量が設定される。   In the correction profile 600, the scene ID 601 is set with information for specifying a scene to be corrected. For example, the scene ID or the reproduction time of the first frame of the scene is used. Note that the scene set to the scene ID 601 is a base scene. In the various parameters 602, the correction amount of each correction data applied in the scene indicated by each scene ID 601 is set.

画像変換部206は記憶部201に保存された補正プロファイルを参照して、基点シーンの開始時点で、入力動画像データに対して各パラメータの補正量に基づく補正を行う。   The image conversion unit 206 refers to the correction profile stored in the storage unit 201 and performs correction based on the correction amount of each parameter on the input moving image data at the start of the base scene.

最後に、図7を用いて本実施形態に係る画像処理装置100の動作を説明する。図7は画像処理装置100の動作の一例を説明するフローチャートである。このフローチャートに示す処理は、CPU101がROM102に書き込まれたコンピュータプログラムを実行することで処理される。   Finally, the operation of the image processing apparatus 100 according to the present embodiment will be described with reference to FIG. FIG. 7 is a flowchart for explaining an example of the operation of the image processing apparatus 100. The processing shown in this flowchart is processed by the CPU 101 executing a computer program written in the ROM 102.

ステップS701で、画像処理装置100は入力動画像データを取得する。   In step S701, the image processing apparatus 100 acquires input moving image data.

ステップS702で、観察者は分類部302が使用する順応時間の設定を行う。順応時間は予め記憶部201に保存しておき、その値をデフォルト値として使用してもよい。   In step S <b> 702, the observer sets an adaptation time used by the classification unit 302. The adaptation time may be stored in advance in the storage unit 201 and the value may be used as a default value.

ステップS703で、分割部301は入力動画像データを複数のシーンに分割する。   In step S703, the dividing unit 301 divides the input moving image data into a plurality of scenes.

ステップS704で、分類部302は各シーンを基点シーンと非基点シーンとに分類する。   In step S704, the classification unit 302 classifies each scene into a base scene and a non-base scene.

ステップS705で、選択部303は、それぞれのシーン・セットから参照シーンを選択する。   In step S705, the selection unit 303 selects a reference scene from each scene set.

ステップS706で、生成部304は補正プロファイルを生成する。   In step S706, the generation unit 304 generates a correction profile.

ステップS707で、画像変換部206は補正プロファイルに基づいて、入力動画像データを補正して、出力動画像データに変換する。   In step S707, the image conversion unit 206 corrects the input moving image data based on the correction profile, and converts it into output moving image data.

以上、本実施形態によれば、動画像データを人間の知覚に応じた順応時間に基づいて補正することで、補正処理における演算負荷の削減、処理時間を短縮することができ、動画像補正処理の効率化を実現する。   As described above, according to the present embodiment, by correcting the moving image data based on the adaptation time according to human perception, it is possible to reduce the calculation load and the processing time in the correction processing, and the moving image correction processing To improve efficiency.

<第2の実施形態>
第1の実施形態においては、順応時間よりも長い継続時間を有するシーンについてはすべて基点シーンとして分類した。しかし、直前のシーンと比較して特徴量の変動が少ないシーンに関しては、それまでのシーンと同一の補正量を用いることで、処理を簡略化することが可能となる。
<Second Embodiment>
In the first embodiment, all scenes having a duration longer than the adaptation time are classified as base scenes. However, for a scene with less variation in the feature amount compared to the immediately preceding scene, it is possible to simplify the processing by using the same correction amount as the previous scene.

図8は閾値を用いてシーンの分類を行う動作の一例を説明する図である。第1の実施形態と同様に、入力動画像データはシーン801からシーン804までの四つのシーンに分割されている。そして、シーン801は基点シーンに分類され、シーン802は非基点シーンに分類される。   FIG. 8 is a diagram for explaining an example of an operation for classifying scenes using threshold values. Similar to the first embodiment, the input moving image data is divided into four scenes from a scene 801 to a scene 804. The scene 801 is classified as a base scene, and the scene 802 is classified as a non-base scene.

シーン803は継続時間が順応時間813よりも長い。しかし、シーン803における変動量は小さい値であるため、直前のシーン802までの補正データと同一の補正量を用いたとしても、効果的な補正を行える。そこで、たとえ継続時間が順応時間よりも長いシーンであったとしても、変動量が閾値830よりも下回るシーンについて、分類部302は非基点シーンとして分類する。その結果、シーン801からシーン803までが一つのシーン・セット821を構成し、同一の補正量を用いて補正がされる。   Scene 803 has a longer duration than adaptation time 813. However, since the fluctuation amount in the scene 803 is a small value, even if the same correction amount as that of the correction data up to the immediately preceding scene 802 is used, effective correction can be performed. Therefore, even if the scene has a duration longer than the adaptation time, the classification unit 302 classifies the scene whose fluctuation amount is lower than the threshold value 830 as a non-base scene. As a result, scenes 801 to 803 constitute one scene set 821 and are corrected using the same correction amount.

また、シーン・セット821に含まれる各シーンの特徴量の差は小さいことから、選択部303は、いずれか一つのシーンを参照シーンとして選択すればよい。例えば、基点シーンであるシーン801を参照シーンとして選択することができる。当然のことながら、第1の実施形態と同様に、シーン・セットに含まれるすべてのシーンを参照シーンとして選択してもよい。   In addition, since the difference in feature quantity between scenes included in the scene set 821 is small, the selection unit 303 may select any one scene as a reference scene. For example, a scene 801 that is a base scene can be selected as a reference scene. As a matter of course, as in the first embodiment, all scenes included in the scene set may be selected as reference scenes.

以上により、さらに効率的な補正処理を提供することが可能となる。   As described above, a more efficient correction process can be provided.

<第3の実施形態>
上述の実施形態においては、順応時間よりも短い継続時間を有するシーンについてはすべて非基点シーンとして分類した。しかし、直前のシーンと比較して特徴量が極端に変化する場合もある。例えば、ホワイトバランスにおける色温度の急激な違いや、明るい画像から暗い画像に切り替わるような明度の急峻な変化が発生することがある。このようなシーンに関しては、たとえそのシーンに対しての順応が完了する前であっても、補正を行わないと観察者が違和感を受けることもある。本実施形態では、このような場合においても適切な補正を行う。図9は本実施形態における閾値を用いてシーンの分類を行う動作の一例を説明する図である。シーン902は継続時間が順応時間912よりも短いが、変動量の値が極端に大きくなっている。そのため、シーン901と同じ補正量を利用すると、十分な補正とならない。そこで、閾値930を上回る変動量を有するシーンについては、継続時間の長短に関わらず、基点シーンに分類する。
<Third Embodiment>
In the above embodiment, all scenes having a duration shorter than the adaptation time are classified as non-base scenes. However, the feature amount may change extremely compared to the immediately preceding scene. For example, there may be a sudden difference in color temperature in white balance, or a sharp change in brightness such as switching from a bright image to a dark image. With respect to such a scene, even if the adaptation to the scene is not completed, the observer may feel uncomfortable if correction is not performed. In the present embodiment, appropriate correction is performed even in such a case. FIG. 9 is a diagram for explaining an example of an operation of classifying scenes using threshold values in the present embodiment. In the scene 902, the duration time is shorter than the adaptation time 912, but the value of the fluctuation amount is extremely large. Therefore, if the same correction amount as that of the scene 901 is used, the correction is not sufficient. Therefore, a scene having a fluctuation amount exceeding the threshold 930 is classified as a base point scene regardless of the duration of the duration.

以上により、補正処理を効率化しつつも、観察者に対して違和感のない動画再現を提供することが可能となる。   As described above, it is possible to provide a moving image reproduction with no sense of incongruity to the observer while improving the efficiency of the correction process.

<第4の実施形態>
上述までの実施形態においては、各種の補正データに共通のシーン・セットを規定し、各シーン・セットに対して補正データを生成した。しかし、補正データの種類ごとにシーン・セットを規定してもよい。例えば、シーンの切り替わりにおいて、ホワイトバランスは大きく変化するが、明度はほとんど変化しないような場合もある。このような場合に分類部302は、ホワイトバランスに関しては、切り替わり後のシーンを基点シーンに分類し、明度に関しては、当該シーンを非基点シーンに分類する。
<Fourth Embodiment>
In the embodiments described above, a common scene set is defined for various types of correction data, and correction data is generated for each scene set. However, a scene set may be defined for each type of correction data. For example, when the scene is switched, the white balance may change greatly, but the lightness may hardly change. In such a case, the classification unit 302 classifies the switched scene as the base scene with respect to the white balance, and classifies the scene as a non-base scene with respect to the brightness.

本実施形態における補正プロファイル1000の一例を図10に示す。ホワイトバランス補正1001と明度補正1002とで、異なるシーンにおいて補正を行う。   An example of the correction profile 1000 in this embodiment is shown in FIG. The white balance correction 1001 and the brightness correction 1002 perform correction in different scenes.

さらに、それぞれの補正データの種類に対して、順応時間を個別に設定してもよい。例えば、ホワイトバランスの変化と明度の変化とでは、順応時間が異なる場合がある。また、明度の変化においても、明度変化の傾向の違いを判定し、明順応、暗順応に対応した順応時間を設定してもよい。補正データの種類ごとに順応時間を個別に設定することで、いっそう効率的に補正を行うことができる。   Furthermore, the adaptation time may be set individually for each type of correction data. For example, the adaptation time may be different between the change in white balance and the change in brightness. Also, in the change in brightness, a difference in tendency of brightness change may be determined, and an adaptation time corresponding to light adaptation and dark adaptation may be set. By setting the adaptation time individually for each type of correction data, correction can be performed more efficiently.

<その他の実施形態>
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、ビデオカメラ、モニタなど)から構成されるシステムに適用しても良い。また、一つの機器からなる装置(例えば、液晶モニタ付デジタルビデオカメラ、液晶モニタおよび動画像撮影機能付デジタルカメラ装置、カメラ付携帯電話、など)に適用してもよい。
<Other embodiments>
Note that the present invention may be applied to a system including a plurality of devices (for example, a host computer, an interface device, a video camera, a monitor, etc.). Further, the present invention may be applied to a device composed of a single device (for example, a digital video camera with a liquid crystal monitor, a liquid crystal monitor and a digital camera device with a moving image shooting function, a mobile phone with a camera, etc.).

また、本発明の目的は、前述した機能を実現するコンピュータプログラムのコードを記録した記憶媒体を、システムに供給し、そのシステムがコンピュータプログラムのコードを読み出し実行することによっても達成される。プログラムコードを供給するための記憶媒体としては、例えば、フロッピーディスク(登録商標)、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることが出来る。この場合、記憶媒体から読み出されたコンピュータプログラムのコード自体が前述した実施形態の機能を実現し、そのコンピュータプログラムのコードを記憶した記憶媒体は本発明を構成する。また、そのプログラムのコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した機能が実現される場合も含まれる。   The object of the present invention can also be achieved by supplying, to a system, a storage medium that records the code of a computer program that realizes the functions described above, and the system reads and executes the code of the computer program. As a storage medium for supplying the program code, for example, a floppy disk (registered trademark), a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like is used. I can do it. In this case, the computer program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the computer program code constitutes the present invention. In addition, the operating system (OS) running on the computer performs part or all of the actual processing based on the code instruction of the program, and the above-described functions are realized by the processing. .

さらに、以下の形態で実現しても構わない。すなわち、記憶媒体から読み出されたコンピュータプログラムコードを、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込む。そして、そのコンピュータプログラムのコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行って、前述した機能が実現される場合も含まれる。   Furthermore, you may implement | achieve with the following forms. That is, the computer program code read from the storage medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Then, based on the instruction of the code of the computer program, the above-described functions are realized by the CPU or the like provided in the function expansion card or function expansion unit performing part or all of the actual processing.

本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するコンピュータプログラムのコードが格納されることになる。
When the present invention is applied to the above storage medium, the computer program code corresponding to the flowchart described above is stored in the storage medium.

本発明の実施形態における画像処理装置100のハードウェア・ブロック図の一例である。It is an example of a hardware block diagram of the image processing apparatus 100 in the embodiment of the present invention. 本発明の実施形態における画像処理装置100の機能ブロック図の一例である。It is an example of the functional block diagram of the image processing apparatus 100 in the embodiment of the present invention. 本発明の実施形態におけるプロファイル生成部205の詳細なブロック図の一例である。It is an example of the detailed block diagram of the profile production | generation part 205 in embodiment of this invention. 本発明の実施形態における変動量を用いてシーン分割を行う一例を説明する図である。It is a figure explaining an example which performs a scene division | segmentation using the variation | change_quantity in embodiment of this invention. 本発明の第1の実施形態において、シーンの継続時間と順応時間との比較に基づいて分類を行う動作の一例を説明する図である。It is a figure explaining an example of the operation | movement which classify | categorizes based on the comparison with the continuation time of a scene, and the adaptation time in the 1st Embodiment of this invention. 本発明の第1の実施形態における補正プロファイル600の構成の一例を説明する図である。It is a figure explaining an example of composition of amendment profile 600 in a 1st embodiment of the present invention. 本発明の実施形態における画像処理装置100の動作の一例を説明するフローチャートである。6 is a flowchart illustrating an example of an operation of the image processing apparatus 100 according to the embodiment of the present invention. 本発明の第2の実施形態において、閾値を用いてシーンの分類を行う動作の一例を説明する図である。It is a figure explaining an example of operation which classifies a scene using a threshold in a 2nd embodiment of the present invention. 本発明の第3の実施形態において、閾値を用いてシーンの分類を行う動作の一例を説明する図である。It is a figure explaining an example of the operation | movement which classifies a scene using a threshold value in the 3rd Embodiment of this invention. 本発明の第4の実施形態における補正プロファイル1000の構成の一例を説明する図である。It is a figure explaining an example of composition of amendment profile 1000 in a 4th embodiment of the present invention.

符号の説明Explanation of symbols

100 画像処理装置
101 CPU
102 ROM
103 RAM
104 ハードディスク
105 操作部
106 入力デバイス
107 出力デバイス
100 Image processing apparatus 101 CPU
102 ROM
103 RAM
104 Hard Disk 105 Operation Unit 106 Input Device 107 Output Device

Claims (12)

動画像データを複数のシーンに分割する分割手段と、
前記シーンの画質に関する特徴量を算出する算出手段と、
前記複数のシーンを各シーンの継続時間に基づいて基点シーンと非基点シーンとに分類する分類手段と、
基点シーンと、存在する場合に該基点シーンに後続する一連の非基点シーンと、で構成されるシーン・セットから1以上の参照シーンを選択する選択手段と、
前記1以上の参照シーンの前記特徴量に基づいて、該シーン・セットに適用する補正データを生成する生成手段と、
前記シーン・セットに含まれるすべてのシーンに対して、該シーン・セットについての前記補正データにより変換処理を行う変換手段と
を備え、
前記分類手段は、シーンの継続時間が、該シーンに対する観察者の順応時間よりも短いシーンを前記非基点シーンとして分類することを特徴とする画像処理装置。
A dividing means for dividing moving image data into a plurality of scenes;
Calculating means for calculating a feature amount relating to the image quality of the scene;
Classifying means for classifying the plurality of scenes into a base point scene and a non-base point scene based on the duration of each scene;
Selecting means for selecting one or more reference scenes from a scene set comprising a base scene and a series of non-base scenes that, if present, follow the base scene;
Generating means for generating correction data to be applied to the scene set based on the feature amount of the one or more reference scenes;
Conversion means for performing conversion processing on all scenes included in the scene set using the correction data for the scene set;
The image classification apparatus classifies a scene whose duration time is shorter than an observer's adaptation time for the scene as the non-base scene.
前記算出手段は、各シーンを構成するフレーム間の特徴量の変動量をさらに算出し、
前記分類手段は、前記変動量が常に閾値を下回るシーンを非基点シーンとしてさらに分類することを特徴とする請求項1に記載の画像処理装置。
The calculation means further calculates a variation amount of a feature amount between frames constituting each scene,
The image processing apparatus according to claim 1, wherein the classification unit further classifies a scene in which the variation amount is always below a threshold as a non-base scene.
前記算出手段は、各シーンを構成するフレーム間の特徴量の変動量をさらに算出し、
前記分類手段は、閾値を上回る前記変動量を有するシーンを基点シーンとしてさらに分類することを特徴とする請求項1に記載の画像処理装置。
The calculation means further calculates a variation amount of a feature amount between frames constituting each scene,
The image processing apparatus according to claim 1, wherein the classification unit further classifies a scene having the variation amount exceeding a threshold as a base scene.
前記分類手段は、動画像データの最初のシーンを基点シーンとしてさらに分類することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the classification unit further classifies the first scene of the moving image data as a base scene. 前記選択手段は、前記シーン・セットに含まれる基点シーンを該シーン・セットの前記参照シーンとして選択することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the selection unit selects a base scene included in the scene set as the reference scene of the scene set. 前記選択手段は、前記シーン・セットに含まれるすべてのシーンを該シーン・セットの前記参照シーンとして選択することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the selection unit selects all scenes included in the scene set as the reference scenes of the scene set. 前記選択手段は、前記閾値を上回る変動量を有するシーンを前記参照シーンとして選択することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the selection unit selects a scene having a variation amount exceeding the threshold as the reference scene. 前記分類手段は、前記補正データの種類ごとにシーンの分類を行うことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the classification unit classifies a scene for each type of the correction data. 前記分類手段は、前記補正データの種類ごとの分割において、該種類に応じた順応時間を用いることを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the classification unit uses an adaptation time corresponding to the type of the correction data for each type of division. 前記特徴量は、ホワイトバランス、明度、露出、鮮鋭度、彩度の少なくともいずれかに基づいて定められることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the feature amount is determined based on at least one of white balance, brightness, exposure, sharpness, and saturation. 分割手段が、動画像データを複数のシーンに分割する分割工程と、
算出手段が、前記シーンの画質に関する特徴量を算出する算出工程と、
分類手段が、前記複数のシーンを各シーンの継続時間に基づいて基点シーンと非基点シーンとに分類する分類工程と、
選択手段が、基点シーンと、存在する場合に該基点シーンに後続する一連の非基点シーンと、で構成されるシーン・セットから1以上の参照シーンを選択する選択工程と、
生成手段が、前記1以上の参照シーンの前記特徴量に基づいて、該シーン・セットに適用する補正データを生成する生成工程と、
変換手段が、前記シーン・セットに含まれるすべてのシーンに対して、該シーン・セットについての前記補正データにより変換処理を行う変換工程と
を備え、
前記分類工程において、シーンの継続時間が、該シーンに対する観察者の順応時間よりも短いシーンは前記非基点シーンとして分類されることを特徴とする画像処理方法。
A dividing step of dividing the moving image data into a plurality of scenes;
A calculating step in which a calculating unit calculates a feature amount related to the image quality of the scene;
A classifying step for classifying the plurality of scenes into a base scene and a non-base scene based on the duration of each scene;
A selection step in which the selection means selects one or more reference scenes from a scene set composed of a base scene and a series of non-base scenes that follow the base scene if present;
A generating step of generating correction data to be applied to the scene set based on the feature amount of the one or more reference scenes;
A conversion step of performing conversion processing on all scenes included in the scene set with the correction data for the scene set;
An image processing method, wherein in the classification step, a scene whose duration is shorter than an observer's adaptation time for the scene is classified as the non-base scene.
コンピュータを請求項1乃至10のいずれか1項の記載の画像処理装置として機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 10.
JP2008206390A 2008-08-08 2008-08-08 Image processor, image processing method, and computer program Withdrawn JP2010045455A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008206390A JP2010045455A (en) 2008-08-08 2008-08-08 Image processor, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008206390A JP2010045455A (en) 2008-08-08 2008-08-08 Image processor, image processing method, and computer program

Publications (1)

Publication Number Publication Date
JP2010045455A true JP2010045455A (en) 2010-02-25

Family

ID=42016503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008206390A Withdrawn JP2010045455A (en) 2008-08-08 2008-08-08 Image processor, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP2010045455A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013150122A (en) * 2012-01-18 2013-08-01 Toshiba Corp Image processing device, method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013150122A (en) * 2012-01-18 2013-08-01 Toshiba Corp Image processing device, method, and program

Similar Documents

Publication Publication Date Title
JP5889431B2 (en) Image processing apparatus and image processing method
JP5116393B2 (en) Image processing apparatus and image processing method
JP2010079446A (en) Electronic apparatus, blurring image selection method and program
JP2009038523A (en) Unit and method for processing image
CN108337450B (en) Image processing apparatus, image processing method, and recording medium
JP5870598B2 (en) Image white balance processing method and apparatus
US10237488B2 (en) Image capturing apparatus and image capturing method
JP4595569B2 (en) Imaging device
JP2006018465A5 (en)
JP2008160417A (en) Image processing apparatus, image processing method, image processing program and storage medium
KR101437626B1 (en) System and method for region-of-interest-based artifact reduction in image sequences
JP2007096437A (en) Determination of image creator&#39;s intention
JP5504990B2 (en) Imaging apparatus, image processing apparatus, and program
JP2010250726A (en) Color-image representative color decision apparatus, and method of controlling operation thereof
KR20070063781A (en) Method and apparatus for image adaptive color adjustment of pixel in color gamut
JP2010045455A (en) Image processor, image processing method, and computer program
JP5212451B2 (en) Region specifying method, region specifying device, program, server, and system
JP2008263657A (en) Image processor, thumbnail moving image creation method and thumbnail moving image creation program
JP2016129281A (en) Image processor
JP6601725B2 (en) Image correction device
JP2008147714A (en) Image processor and image processing method
JP5227651B2 (en) Video conversion apparatus, video conversion method, and video conversion program
JP6320130B2 (en) Image processing apparatus, control method thereof, and control program
JP2014174855A (en) Image processor, image processing method and program
JP2008312177A (en) Apparatus, method and program, for converting gradation of video image

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111101