JP2011223054A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2011223054A
JP2011223054A JP2010086381A JP2010086381A JP2011223054A JP 2011223054 A JP2011223054 A JP 2011223054A JP 2010086381 A JP2010086381 A JP 2010086381A JP 2010086381 A JP2010086381 A JP 2010086381A JP 2011223054 A JP2011223054 A JP 2011223054A
Authority
JP
Japan
Prior art keywords
scene
image
image processing
control amount
histogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010086381A
Other languages
Japanese (ja)
Inventor
Shuki Ando
宗棋 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010086381A priority Critical patent/JP2011223054A/en
Publication of JP2011223054A publication Critical patent/JP2011223054A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology to perform control of advanced image processing while suppressing recording capacity in an image processing apparatus at the time of recording.SOLUTION: An image processing apparatus comprises: an image analyzing section for analyzing an input image and calculating a sequential feature amount indicating a feature of an image for each frame; a scene detecting section for dividing the input image into a plurality of scenes; a scene feature analyzing section for calculating a scene feature amount indicating a feature of images of the entire scene from the sequential feature amount of each frame included in the scene; a control amount generating section for generating a control amount for use in an image correction in all the frames included in the scene based on the scene feature amount; an accumulating section for accumulating the input image and the control amount; and an image processing section for performing image processing for the scene of the accumulated input image with use of the control amount corresponding to the scene to be output as a reproduced image.

Description

本発明は、画像処理装置および画像処理方法に関するものである。   The present invention relates to an image processing apparatus and an image processing method.

入力された動画画像を蓄積装置部に蓄積し、後に画像の再生を行う画像処理装置における高画質化画像処理において、従来、画像の特徴量をメタデータ化して記録する手法が知られている。これは静止画や動画の画像を蓄積する際に画像解析を行って、フレーム毎の画像の明るさや色の傾向を特徴量として数値化を行う。そしてその特徴量をメタデータ化して一緒に記録し、画像再生時にはそのメタデータに基づいて画像処理を行うものであった(特許文献1、特許文献2)。   2. Description of the Related Art Conventionally, there has been known a technique of recording image feature amounts as metadata in image-quality image processing in an image processing apparatus that accumulates input moving image images in a storage device unit and later reproduces the images. In this method, image analysis is performed when a still image or a moving image is accumulated, and the brightness or color tendency of the image for each frame is digitized as a feature amount. Then, the feature amount is converted into metadata and recorded together, and image processing is performed based on the metadata during image reproduction (Patent Documents 1 and 2).

また近年の一般的な傾向として、画像処理の実施内容が高度化するにつれて、参照する画像の特徴量が詳細化して情報量が増大してきている。例えば画像信号のダイナミックレンジを補正するために参照する情報として、単なる画像全体の明るさを用いるのではなく、入力信号の輝度ヒストグラムを用いるなどである。具体例としては、輝度ヒストグラムを累積加算して輝度補正カーブを生成し、適応的に輝度補正を行う画像処理法が知られている(特許文献3)。   Further, as a general trend in recent years, as the contents of image processing are advanced, the feature amount of the image to be referred to is detailed and the amount of information is increasing. For example, as information to be referred to for correcting the dynamic range of the image signal, the brightness histogram of the input signal is used instead of the brightness of the entire image. As a specific example, an image processing method is known in which a luminance correction curve is generated by accumulating luminance histograms and adaptively correcting the luminance (Patent Document 3).

また、処理対象画像の空間周波数特性に応じて画像の強調処理を行う画像処理手法が知られている(特許文献4)。
また、画像の特徴をメタデータ化して画像検索などに活用する規格としてMPEG−7規格が定められている。
Further, an image processing method for performing image enhancement processing according to the spatial frequency characteristics of the processing target image is known (Patent Document 4).
In addition, the MPEG-7 standard is defined as a standard for converting image characteristics into metadata and utilizing it for image retrieval and the like.

特開2003−324756号公報JP 2003-324756 A 特開2008−084213号公報JP 2008-084213 A 特開平03−126377号公報Japanese Unexamined Patent Publication No. 03-126377 特開2009−111727号公報JP 2009-1111727 A

しかしながら上述した技術によって、詳細化した特徴量をメタデータ化すると、生成されたメタデータは膨大なデータ量となる。例えば、画像を構成する各々の画素の輝度成分を256段階の明るさに分類して度数を集計した、256カテゴリの輝度ヒストグラムをMPEG−7規格類似の表記法によってメタデータ化すると、図24のように表現できる。この表現では1フレーム毎の輝度ヒストグラムのメタデータとして約9000文字が必要になる。これを映画1本に相当する2時間分の蓄積を行うと、記憶容量は次のように大きくなり、装置のコストが増大する要因となる。
9000字/フレーム × 60フレーム/s × 60秒 × 60分 × 2時間
= 3888000000字 ≒ 3.6GB
However, when the detailed feature amount is converted into metadata by the above-described technique, the generated metadata becomes a huge amount of data. For example, when a luminance histogram of 256 categories obtained by classifying the luminance component of each pixel constituting the image into 256 levels of brightness and totaling the frequency is converted into metadata by a notation similar to the MPEG-7 standard, the metadata shown in FIG. It can be expressed as follows. In this representation, about 9000 characters are required as metadata of the luminance histogram for each frame. If this is accumulated for two hours corresponding to one movie, the storage capacity increases as follows, which causes an increase in the cost of the apparatus.
9000 characters / frame × 60 frames / s × 60 seconds × 60 minutes × 2 hours
= 3888000000 characters ≒ 3.6GB

ここでは輝度ヒストグラムのみのメタデータ化を行ったが、絵作り制御をさらに高度化するために、その他の様々な特徴量も同時にメタデータ化すると、ますますメタデータの容量が増えて装置のコスト上昇の要因となる。   Here, only the luminance histogram was converted to metadata. However, in order to further enhance picture creation control, if other various features are also converted to metadata at the same time, the metadata capacity will increase and the cost of the device will increase. It becomes a factor of the rise.

本発明は上記の課題に鑑みてなされたものであって、画像処理装置における録画の際の
記録容量を抑制し、かつ、高度な画像処理の制御を行うための技術を提供することを目的とする。
The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a technique for controlling recording capacity at the time of recording in an image processing apparatus and performing advanced image processing control. To do.

上述した課題を解決するために、本発明は以下の構成を採用する。すなわち、入力画像を解析してフレーム毎の画像の特徴を表わす逐次特徴量を算出する画像解析部と、前記入力画像を複数のシーンに区分するシーン検出部と、前記シーンに含まれる各フレームの逐次特徴量から前記シーン全体の画像の特徴を表わすシーン特徴量を算出するシーン特徴解析部と、前記シーン特徴量に基づいて前記シーンに含まれる全フレームの画像の補正で用いる制御量を生成する制御量生成部と、前記入力画像および前記制御量を蓄積する蓄積部と、前記蓄積された入力画像のシーンに、当該シーンに対応する制御量を用いて画像処理を行い、再生画像として出力する画像処理部とを有する画像処理装置である。   In order to solve the above-described problems, the present invention employs the following configuration. That is, an image analysis unit that analyzes an input image to calculate a sequential feature amount that represents a feature of the image for each frame, a scene detection unit that divides the input image into a plurality of scenes, and a frame that is included in the scene. A scene feature analysis unit that calculates a scene feature amount representing the image feature of the entire scene from the sequential feature amount, and a control amount that is used for correcting images of all frames included in the scene based on the scene feature amount A control amount generation unit, a storage unit that stores the input image and the control amount, and a scene of the stored input image are subjected to image processing using a control amount corresponding to the scene, and output as a reproduced image An image processing apparatus having an image processing unit.

本発明はまた、以下の構成を採用する。すなわち、画像処理装置により実行される画像処理方法であって、入力画像を解析してフレーム毎の画像の特徴を表わす逐次特徴量を算出する画像解析ステップと、前記入力画像を複数のシーンに区分するシーン検出ステップと、前記シーンに含まれる各フレームの逐次特徴量から前記シーン全体の画像の特徴を表わすシーン特徴量を算出するシーン特徴解析ステップと、前記シーン特徴量に基づいて前記シーンに含まれる全フレームの画像の補正で用いる制御量を生成する制御量生成ステップと、前記入力画像および前記制御量を蓄積する蓄積ステップと、前記蓄積された入力画像のシーンに、当該シーンに対応する制御量を用いて画像処理を行い、再生画像として出力する画像処理ステップとを有する画像処理方法である。   The present invention also employs the following configuration. That is, an image processing method executed by an image processing apparatus, comprising: an image analysis step in which an input image is analyzed to calculate a sequential feature amount representing image features for each frame; and the input image is divided into a plurality of scenes. Included in the scene based on the scene feature amount, a scene feature analysis step for calculating a scene feature amount representing a feature of the image of the entire scene from a sequential feature amount of each frame included in the scene, A control amount generating step for generating a control amount used for correcting the image of all frames, a storage step for storing the input image and the control amount, and a control corresponding to the scene in the stored input image scene And an image processing step of performing image processing using the amount and outputting as a reproduced image.

本発明によれば、画像処理装置における録画の際の記憶容量を抑制し、かつ、高度な画像処理を行うことが可能になる。   According to the present invention, it is possible to suppress the storage capacity at the time of recording in the image processing apparatus and perform advanced image processing.

実施例1における画像処理装置の全体構成図。1 is an overall configuration diagram of an image processing apparatus according to Embodiment 1. FIG. 画像解析部5およびシーン特徴解析部7の詳細なブロック図。The detailed block diagram of the image analysis part 5 and the scene feature analysis part 7. FIG. シーン特徴解析部7の動作を説明するフローチャート。7 is a flowchart for explaining the operation of the scene feature analysis unit 7; シーン特徴解析部7の時間に沿った動作の概念図。The conceptual diagram of the operation | movement along the time of the scene feature analysis part 7. FIG. シーン絵作り解析部8のブロック図。The block diagram of the scene picture creation analysis part 8. FIG. シーン絵作り解析部8で扱う各信号の概念図。The conceptual diagram of each signal handled by the scene picture making analysis part 8. FIG. 輝度補正カーブの概念図。The conceptual diagram of a brightness correction curve. 生成メタデータR30の例。An example of generated metadata R30. 絵作り制御部6のブロック図。The block diagram of the picture making control part 6. FIG. 選択部9のブロック図。The block diagram of the selection part 9. FIG. 補正カーブ復元部95の動作の概念図。The conceptual diagram of operation | movement of the correction curve restoration part 95. FIG. 再生時における画像処理装置の時間に沿った動作の概念図。The conceptual diagram of the operation | movement along the time of the image processing apparatus at the time of reproduction | regeneration. 実施例1での撮影対象を示す図。FIG. 3 is a diagram illustrating a subject to be photographed in the first embodiment. 実施例1で撮影された画像を示す図。FIG. 4 is a diagram illustrating an image photographed in the first embodiment. 実施例1で撮影された画像の輝度ヒストグラムを示す図。FIG. 6 is a diagram illustrating a luminance histogram of an image shot in Example 1. 撮影された画像に逐次最適化をする場合の輝度補正カーブを示す図。The figure which shows the brightness | luminance correction curve in the case of performing optimization sequentially on the image | photographed image. 撮影された画像に逐次最適化をする場合の画像を示す図。The figure which shows the image in the case of performing optimization sequentially on the image | photographed image. 実施例1におけるピークホールドヒストグラムR72を示す図。FIG. 6 is a diagram showing a peak hold histogram R72 in the first embodiment. 実施例1におけるシーン最適化された輝度補正カーブを示す図。FIG. 4 is a diagram illustrating a scene-optimized brightness correction curve according to the first embodiment. 実施例1におけるシーン最適化した画像を示す図。FIG. 3 is a diagram illustrating a scene optimized image according to the first embodiment. 実施例2によって有効な画像処理結果が得られる画像を示す図。FIG. 10 is a diagram illustrating an image from which an effective image processing result is obtained according to the second embodiment. 実施例3によって有効な画像処理結果が得られる画像を示す図。FIG. 10 is a diagram illustrating an image from which an effective image processing result is obtained according to the third embodiment. 実施例4における画像処理装置の全体構成図。FIG. 10 is an overall configuration diagram of an image processing apparatus according to a fourth embodiment. 輝度ヒストグラムをメタデータ化した例を示す図。The figure which shows the example which made the luminance histogram metadata.

以下に図面を参照しつつ、本発明の好適な実施の形態を説明する。以下の画像処理装置は入力画像を録画し、要求に応じて出力するために使用される。画像処理装置を単独の装置とすることもできるし、テレビジョンやSTB(Set Top Box)等の放送受信装置や、
ディスプレイ装置に組み込んで用いることもできる。また、本発明は撮影と画像蓄積を行うカムコーダにも適用できる。画像処理装置の各構成要素は専用の回路で構成されても良く、CPU上で動作するプログラムとして構成されても良い。また、画像処理装置が行う各処理をプログラム等に実行させることにより、本発明を画像処理方法として実現することができる。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. The following image processing apparatus is used to record an input image and output it on demand. The image processing device can be a single device, a broadcast receiving device such as a television or STB (Set Top Box),
It can also be incorporated into a display device. The present invention can also be applied to a camcorder that performs shooting and image storage. Each component of the image processing apparatus may be configured by a dedicated circuit or may be configured as a program that operates on the CPU. Further, the present invention can be realized as an image processing method by causing a program or the like to execute each process performed by the image processing apparatus.

<実施例1>
本発明の実施例1における装置の全体構成図を図1に示す。以下、本図を用いて、実施例1の画像処理装置において画像を録画する時の動作について説明する。
タイムコード付与部2は不図示の画像入力手段から入力された入力画像信号R1にタイムコードを付与してタイムコード付入力画像信号R2を出力する。画像選択部3はタイムコード付入力画像信号R2を選択して選択画像信号R3を出力する。画像解析部5は選択画像信号R3をフレーム毎に解析して逐次特徴量R5をフレーム毎に出力する。画像解析部5が逐次特徴量R5を出力する動作の詳細は後述する。
<Example 1>
FIG. 1 shows an overall configuration diagram of an apparatus according to the first embodiment of the present invention. Hereinafter, the operation when recording an image in the image processing apparatus according to the first embodiment will be described with reference to FIG.
The time code assigning unit 2 assigns a time code to an input image signal R1 input from an image input means (not shown) and outputs an input image signal R2 with time code. The image selector 3 selects the input image signal R2 with time code and outputs the selected image signal R3. The image analysis unit 5 analyzes the selected image signal R3 for each frame and sequentially outputs a feature amount R5 for each frame. Details of the operation in which the image analysis unit 5 sequentially outputs the feature amount R5 will be described later.

シーン特徴解析部7は逐次特徴量R5から連続したフレームのカットの切り替わりを検出して複数のシーンを区分し、シーン全体の画像の特徴であるシーン特徴量R7を出力する。シーン特徴解析部7の動作の詳細は後述する。シーン絵作り解析部8はシーン特徴量R7をシーン毎に入力して、各シーンに対する絵作り制御量となるシーン制御シナリオR8を出力する。シーン絵作り解析部8の処理の詳細は後述する。メタデータ生成部30はシーン制御シナリオR8をメタデータ化して生成メタデータR30を出力する。画像記録部31は選択映像信号R3と生成メタデータR30を関連付けて蓄積用のストリームに変換し、記録信号R31として出力する。蓄積装置部32は記録信号R31をハードディスク装置に記録する。蓄積装置部は、本発明の蓄積部に当たる。   The scene feature analyzing unit 7 sequentially detects cuts between successive frame cuts from the feature amount R5, classifies a plurality of scenes, and outputs a scene feature amount R7 that is an image feature of the entire scene. Details of the operation of the scene feature analysis unit 7 will be described later. The scene picture creation analysis unit 8 inputs a scene feature amount R7 for each scene, and outputs a scene control scenario R8 that is a picture creation control amount for each scene. Details of the processing of the scene picture creation analysis unit 8 will be described later. The metadata generation unit 30 converts the scene control scenario R8 into metadata and outputs the generated metadata R30. The image recording unit 31 associates the selected video signal R3 with the generated metadata R30, converts it into a stream for storage, and outputs it as a recording signal R31. The storage device unit 32 records the recording signal R31 on the hard disk device. The storage device unit corresponds to the storage unit of the present invention.

タイムコード発生部18は録画開始にタイムコードをリセットして、以後録画が停止するまでフレーム単位でカウントアップするタイムコードを発生する。発生したタイムコードは不図示のタイムコードR18として各ブロックに配布される。制御部19は不図示の制御線を通じて装置の各ブロックの動作の制御を行う。   The time code generator 18 resets the time code at the start of recording, and generates a time code that counts up on a frame basis until the recording stops thereafter. The generated time code is distributed to each block as a time code R18 (not shown). The control unit 19 controls the operation of each block of the apparatus through a control line (not shown).

次に、画像録画時における画像解析部5およびシーン特徴解析部7の詳細を説明する。画像解析部5およびシーン特徴解析部7の詳細なブロック図を図2に示す。APL算出部51は選択画像信号R3のAPL(Average Picture Level:平均画像レベル)をフレーム
毎に算出してAPL値R51を出力する。輝度ヒストグラム算出部51は選択画像信号R3の輝度ヒストグラムをフレーム毎に算出して輝度ヒストグラムR52を出力する。逐次特徴量R5はフレーム毎のAPL値R51と輝度ヒストグラムR52からなる構造体である。
Next, details of the image analysis unit 5 and the scene feature analysis unit 7 during image recording will be described. A detailed block diagram of the image analysis unit 5 and the scene feature analysis unit 7 is shown in FIG. The APL calculation unit 51 calculates an APL (Average Picture Level) of the selected image signal R3 for each frame and outputs an APL value R51. The luminance histogram calculation unit 51 calculates a luminance histogram of the selected image signal R3 for each frame and outputs a luminance histogram R52. The sequential feature amount R5 is a structure including an APL value R51 and a luminance histogram R52 for each frame.

シーンチェンジ検出部71はAPL値R51を監視してフレーム間の変化量が閾値を超えたらシーンチェンジが発生したと判断して、シーンチェンジ検出信号R71を出力する。これによりシーン検出がなされ、それぞれ開始点と持続時間を持つ複数のシーンが区分される。ピークホールドヒストグラム生成部72(MaxHist生成部)はフレーム毎の輝度
ヒストグラムR52とシーンチェンジ検出信号R71を受け取る。そして、それらに基づ
いて、シーンチェンジ間の輝度ヒストグラムR52の各カテゴリの度数の最大値を算出し、ピークホールドヒストグラムR72を出力する。ピークホールドヒストグラムR72の生成方法の詳細は後述する。累積ヒストグラム生成部73はフレーム毎の輝度ヒストグラムR52とシーンチェンジ検出信号R71に基づいて、シーンチェンジ間の輝度ヒストグラムR52の各カテゴリの度数の累計を算出し、累積ヒストグラムR73を生成する。累積ヒストグラムR73生成方法の詳細は後述する。シーンヒストグラム生成部74はピークホールドヒストグラムR72と累積ヒストグラムR73に基づいてシーン特徴量R7を生成する。シーンチェンジ検出部は本発明のシーン検出部に当たる。
The scene change detection unit 71 monitors the APL value R51, determines that a scene change has occurred when the amount of change between frames exceeds a threshold value, and outputs a scene change detection signal R71. As a result, scene detection is performed, and a plurality of scenes each having a start point and a duration are segmented. A peak hold histogram generator 72 (MaxHist generator) receives a luminance histogram R52 and a scene change detection signal R71 for each frame. Based on these, the maximum value of the frequency of each category of the luminance histogram R52 between scene changes is calculated, and a peak hold histogram R72 is output. Details of the method of generating the peak hold histogram R72 will be described later. The cumulative histogram generation unit 73 calculates the cumulative frequency of each category of the luminance histogram R52 between scene changes based on the luminance histogram R52 for each frame and the scene change detection signal R71, and generates a cumulative histogram R73. Details of the method of generating the cumulative histogram R73 will be described later. The scene histogram generator 74 generates a scene feature amount R7 based on the peak hold histogram R72 and the cumulative histogram R73. The scene change detection unit corresponds to the scene detection unit of the present invention.

次にシーン特徴解析部7の詳細な動作を説明する。シーン特徴解析部7の動作を示すフローチャートを図3に示す。動作の制御は不図示の制御線を通じて制御部19が行う。また動作の概念図を図4に示す。
以下の説明で用いる4つの配列を、次のように定義する。
InH[ x ] …シーンヒストグラムR7(シーン特徴量)
MaxH[ x ] …ピークホールドヒストグラムR72
TtlH[ x ] …累積ヒストグラムR73
AveH[ x ] …平均ヒストグラム(不図示)
上の配列中、xは集計する輝度のカテゴリの番号で0〜255の範囲をとる。0が最も暗いカテゴリであり255が最も明るいカテゴリである。例えばシーンヒストグラムR7(シーン特徴量)の最も輝度の低いカテゴリの度数は、InH[0]と表す。
Next, the detailed operation of the scene feature analysis unit 7 will be described. A flow chart showing the operation of the scene feature analysis unit 7 is shown in FIG. The control of the operation is performed by the control unit 19 through a control line (not shown). A conceptual diagram of the operation is shown in FIG.
The four arrays used in the following description are defined as follows.
InH [x] ... Scene histogram R7 (scene feature)
MaxH [x] ... peak hold histogram R72
TtlH [x] ... Cumulative histogram R73
AveH [x] ... Average histogram (not shown)
In the above array, x is the number of the category of luminance to be counted and takes a range of 0 to 255. 0 is the darkest category and 255 is the brightest category. For example, the frequency of the category with the lowest luminance in the scene histogram R7 (scene feature amount) is represented as InH [0].

シーン特徴解析部7はフレーム毎に活性化され、図3のフローがスタートする。
ステップS701では、APL値R51、輝度ヒストグラムR52からなる逐次特徴量R5を入力する。
ステップS702では、シーンチェンジ検出部71にてシーンチェンジの有無を判定する。APL値R51の前フレームの値と現フレームの値を比較して、差分の絶対値が閾値以上であればシーンチェンジありと判定してステップS705へ進む。シーンチェンジが無ければステップS703へ進む。
The scene feature analysis unit 7 is activated for each frame, and the flow of FIG. 3 starts.
In step S701, a sequential feature amount R5 including an APL value R51 and a luminance histogram R52 is input.
In step S702, the scene change detection unit 71 determines whether or not there is a scene change. The value of the previous frame of the APL value R51 is compared with the value of the current frame. If the absolute value of the difference is equal to or greater than the threshold, it is determined that there is a scene change, and the process proceeds to step S705. If there is no scene change, the process proceeds to step S703.

ステップS703では、ピークホールドヒストグラム生成部72にてピークホールドヒストグラムの生成演算を行う。保持しているピークホールドヒストグラムR72(MaxH[x])に対して、次の演算を行う。
MaxH[x] = max( MaxH[x], InH[x] )
In step S703, the peak hold histogram generation unit 72 performs a peak hold histogram generation calculation. The following calculation is performed on the held peak hold histogram R72 (MaxH [x]).
MaxH [x] = max (MaxH [x], InH [x])

ステップS704では、累積ヒストグラム生成部73にて累積ヒストグラムの生成演算を行う。保持している累積ヒストグラムR73(TtlH[x])に対して、次の演算を行う。
TtlH[x] = TtlH[x] + InH[x]
シーンチェンジが無い場合はステップS704にてシーン特徴解析のプロセスは終了する。
In step S <b> 704, the cumulative histogram generation unit 73 performs a cumulative histogram generation calculation. The following calculation is performed on the stored cumulative histogram R73 (TtlH [x]).
TtlH [x] = TtlH [x] + InH [x]
If there is no scene change, the scene feature analysis process ends in step S704.

ステップS705では、シーンヒストグラム生成部74にて一つ前のシーンチェンジから現フレームまでのフレーム数(Duration)を算出する。現フレームのタイムコードから、保存しておいたTimePointを減算してDurationとする。例えば概念図(図4)のTbの時点
であれば、Durationは次のようになる。
Duration = Tb - Ta = Da
In step S705, the scene histogram generation unit 74 calculates the number of frames (Duration) from the previous scene change to the current frame. Subtract the saved TimePoint from the time code of the current frame to make Duration. For example, at time Tb in the conceptual diagram (FIG. 4), Duration is as follows.
Duration = Tb-Ta = Da

ステップS706では、シーンヒストグラム生成部74にて不図示の平均ヒストグラムAveH[x]を生成する。保持している累積ヒストグラムR73(TtlH[x])とステップS705で算出したDurationのフレーム数から、次の演算を行う。
AveH[x] = TtlH[x] / Duration
In step S706, the scene histogram generation unit 74 generates an average histogram AveH [x] (not shown). From the accumulated histogram R73 (TtlH [x]) held and the number of duration frames calculated in step S705, the following calculation is performed.
AveH [x] = TtlH [x] / Duration

ステップS707では、シーンヒストグラム生成部74にて不図示のヒストグラム差分絶対値和SAHD ( Sum of Absolute Histogram Differences )を生成する。ピークホールドヒストグラムR72(MaxH[x])と平均ヒストグラムAveH[x]から、次の演算を行う。

Figure 2011223054
In step S707, the scene histogram generator 74 generates a sum of absolute histogram differences SAHD (sum of absolute histogram differences) (not shown). The following calculation is performed from the peak hold histogram R72 (MaxH [x]) and the average histogram AveH [x].
Figure 2011223054

ステップS708では、シーン特徴量R7の出力を行うか否かを判定する。差分絶対値和SAHDと予め定められた閾値とを比較して、差分絶対値和SAHDの方が大きければ、シーンの中で輝度分布の大きな変動があったと判定してシーン最適制御を行うためにシーン特徴量R7を出力するためにステップS709へ進む。差分絶対値和SAHDの方が小さければ逐次適応制御で対応するシーンであると判定してシーン特徴量は出力せずにステップS710へ進む。
ステップS709では、シーンヒストグラム生成部74にてシーン特徴量R7の出力を行う。ピークホールドヒストグラムR72をシーン特徴量R7として出力する。この値がシーン全体の画像の特徴として利用される。
ステップS710では、シーンヒストグラム生成部74内の不図示のレジスタに現時点のタイムコードを新しいTimePointとして記録する。
In step S708, it is determined whether to output the scene feature amount R7. Comparing the difference absolute value sum SAHD with a predetermined threshold, and if the difference absolute value sum SAHD is larger, it is determined that there is a large variation in the luminance distribution in the scene and the scene optimal control is performed. The process advances to step S709 to output the scene feature amount R7. If the difference absolute value sum SAHD is smaller, it is determined that the scene corresponds to the sequential adaptive control, and the process proceeds to step S710 without outputting the scene feature amount.
In step S709, the scene histogram generation unit 74 outputs the scene feature amount R7. The peak hold histogram R72 is output as the scene feature amount R7. This value is used as a feature of the image of the entire scene.
In step S710, the current time code is recorded as a new TimePoint in a register (not shown) in the scene histogram generator 74.

ステップS711では、ピークホールドヒストグラム生成部72にて保持してあったピークホールドヒストグラムR72をクリアする。
ステップS712では、累積ヒストグラム生成部73にて保持してあった累積ヒストグラムR73をクリアする。
以上の制御によってシーン特徴解析部7にてシーン特徴量R7を生成する。
In step S711, the peak hold histogram R72 held in the peak hold histogram generator 72 is cleared.
In step S712, the cumulative histogram R73 held in the cumulative histogram generator 73 is cleared.
With the above control, the scene feature analysis unit 7 generates a scene feature amount R7.

図4の概念図で説明すると、シーンチェンジ検出がされたタイムコードTbの時点は、TimePoint=Ta, Duration=Daで表されるShot-Aの映像区間に対するシーン特徴量R7が生成
された例である。またタイムコードTcの時点は、逐次特徴量R5の変化が大きくなかったためにShot-Bの映像区間に対してシーン特徴量R7が出力されなかった例である。
Referring to the conceptual diagram of FIG. 4, the point of time code Tb when the scene change is detected is an example in which a scene feature amount R7 for the Shot-A video section represented by TimePoint = Ta and Duration = Da is generated. is there. Further, at the time code Tc, the scene feature R7 is not output for the Shot-B video section because the change in the feature R5 is not large.

次に、シーン絵作り解析部8におけるシーン制御シナリオR8の生成方法の詳細を説明する。シーン絵作り解析部8のブロック図を図5に示す。   Next, details of a method for generating the scene control scenario R8 in the scene picture creation analysis unit 8 will be described. A block diagram of the scene picture creation analysis unit 8 is shown in FIG.

ヒストグラム正規化部81は、シーン特徴量R7のヒストグラムを正規化して、正規化ヒストグラムR81を出力する。入力されたシーン特徴量R7の概念図を図6の(a)に、
正規化ヒストグラムR81の概念図を図6の(b)に示す。
ヒストグラム積分部82は、正規化ヒストグラムR81を下位のカテゴリから順に累積加算する(図6(c))。そして、累積加算ヒストグラムから、階調補正を行うための輝度
補正カーブR82を生成する(図6(d))。このように輝度補正カーブが生成され、制御
量生成がなされることから、シーン絵作り解析部は、本発明の制御量生成部に当たる。
標準カーブ格納部83は、画像処理装置の画像補正の方針である絵作りモード毎に標準的な輝度補正カーブセットをROM等に格納する。これら標準的な輝度補正カーブは、本発明の所定の制御量に相当する。本実施例では2セットの絵作りモードを持つものとし、それぞれに対応する図7(a)、図7(b)の2セットの標準輝度補正カーブR83が格納されている。それぞれ横軸が入力画像の階調値、縦軸が出力画像の階調値を示す。図7(a)は
出力画像のビット数を入力画像の各階調に対して均等に割り当てる絵作りモードを示す。一方、図7(b)は入力画像の中間階調に多くのビット数を割り当てる絵作りモードを示す
The histogram normalization unit 81 normalizes the histogram of the scene feature amount R7 and outputs a normalized histogram R81. A conceptual diagram of the input scene feature R7 is shown in FIG.
A conceptual diagram of the normalized histogram R81 is shown in FIG.
The histogram integration unit 82 cumulatively adds the normalized histogram R81 in order from the lower category (FIG. 6 (c)). Then, a brightness correction curve R82 for tone correction is generated from the cumulative addition histogram (FIG. 6 (d)). Since the brightness correction curve is generated and the control amount is generated in this way, the scene picture creation analysis unit corresponds to the control amount generation unit of the present invention.
The standard curve storage unit 83 stores a standard brightness correction curve set in a ROM or the like for each picture making mode that is a policy of image correction of the image processing apparatus. These standard luminance correction curves correspond to the predetermined control amount of the present invention. In this embodiment, it is assumed that there are two sets of picture making modes, and two sets of standard luminance correction curves R83 shown in FIGS. 7A and 7B are stored. The horizontal axis represents the gradation value of the input image, and the vertical axis represents the gradation value of the output image. FIG. 7A shows a picture making mode in which the number of bits of the output image is evenly assigned to each gradation of the input image. On the other hand, FIG. 7B shows a picture making mode in which a large number of bits are assigned to the intermediate gradation of the input image.

代表点差分抽出部84は、生成した輝度補正カーブR82と標準輝度補正カーブR83との差分を抽出してシーン制御シナリオR8を生成する。標準輝度補正カーブR83のセット毎に、各セット固有の代表点における差分を抽出する。絵作りモード毎に重視する階調が異なる場合があるので差分抽出の代表点はモード毎に固有とする。差分抽出の概念図を図7(c)、図7(d)に示す。得られた差分に対象とするシーンの時間情報を関連付けてシーン制御シナリオR8とする。すなわちシーン制御シナリオR8は、次の10要素からなる構造体である。
対象シーンのTimePoint,対象シーンのDuration
モード(a)の代表点1の位置,モード(a)の代表点1の差分
モード(a)の代表点2の位置,モード(a)の代表点2の差分
モード(b)の代表点1の位置,モード(b)の代表点1の差分
モード(b)の代表点2の位置,モード(b)の代表点2の差分
The representative point difference extraction unit 84 extracts a difference between the generated luminance correction curve R82 and the standard luminance correction curve R83 to generate a scene control scenario R8. For each set of the standard luminance correction curve R83, a difference at a representative point unique to each set is extracted. Since the gradation to be emphasized may be different for each picture-making mode, the representative point for difference extraction is unique for each mode. A conceptual diagram of the difference extraction is shown in FIGS. 7 (c) and 7 (d). A scene control scenario R8 is obtained by associating the obtained difference with the time information of the target scene. That is, the scene control scenario R8 is a structure including the following ten elements.
TimePoint of the target scene, Duration of the target scene
Position of representative point 1 of mode (a), difference of representative point 1 of mode (a) Position of representative point 2 of mode (a), difference of representative point 2 of mode (a) Representative point 1 of mode (b) Position, difference of representative point 1 of mode (b) position of representative point 2 of mode (b), difference of representative point 2 of mode (b)

以上の動作によって実施例1の装置において画像の録画が可能となる。なお、シーン制御シナリオは本発明の差分情報に当たる。シーン絵作り解析部は本発明の差分情報生成部に当たる。
また、シーン特徴量R7が出力されていなかった場合はシーン制御シナリオR8も出力無しとする。
また、メタデータ生成部30にてシーン制御シナリオR8をメタデータ化した生成メタデータR30を図8に示す。
With the above operation, it is possible to record an image in the apparatus of the first embodiment. The scene control scenario corresponds to the difference information of the present invention. The scene picture creation analysis unit corresponds to the difference information generation unit of the present invention.
If the scene feature amount R7 is not output, the scene control scenario R8 is also not output.
FIG. 8 shows generated metadata R30 obtained by converting the scene control scenario R8 into metadata by the metadata generating unit 30.

次に、実施例1の画像処理装置において画像を再生するときの動作について説明する。
画像再生部33は蓄積装置部32から再生対象の画像に対応する再生信号R32を取得し、メタデータと画像のストリームに分離して再生メタデータR33と再生画像信号R13を出力する。メタデータ解析部34は制御選択部9からのシナリオリクエスト信号R99がEnableにされたら、再生メタデータR33を解析してタイムコードに関連付けられた再生シーン制御シナリオR34を出力する。
Next, an operation for reproducing an image in the image processing apparatus according to the first embodiment will be described.
The image reproduction unit 33 acquires the reproduction signal R32 corresponding to the image to be reproduced from the storage device unit 32, separates it into a metadata and image stream, and outputs the reproduction metadata R33 and the reproduction image signal R13. When the scenario request signal R99 from the control selection unit 9 is set to Enable, the metadata analysis unit 34 analyzes the reproduction metadata R33 and outputs a reproduction scene control scenario R34 associated with the time code.

画像選択部3は再生画像信号R13を選択して選択画像信号R3を出力する。画像解析部5は録画時と同様に選択画像信号R3をフレーム毎に解析して逐次特徴量R5をフレーム毎に出力する。逐次特徴量R5を受けた絵作り制御部6は、画像処理部4を制御して逐次適応絵作りを行う逐次制御量R6をフレーム毎に出力する。絵作り制御部6の処理の詳細は後述する。制御選択部9は逐次制御量R6と再生シーン制御シナリオR34のいずれかを選択して選択制御量R9を出力する。制御選択部9の処理の詳細は後述する。画像処理部4は選択制御量R9に従って選択画像信号R3に画像処理を施して表示画像信号R4を出力する。画像処理部4における画像処理の詳細は後述する。画像表示部10は表示映像信号R4に従って画像を表示する。   The image selection unit 3 selects the reproduction image signal R13 and outputs a selection image signal R3. The image analysis unit 5 analyzes the selected image signal R3 for each frame, and sequentially outputs the feature amount R5 for each frame, as in recording. The picture making control unit 6 that has received the sequential feature quantity R5 outputs a sequential control quantity R6 for performing the adaptive picture making by controlling the image processing unit 4 for each frame. Details of the processing of the picture making control unit 6 will be described later. The control selection unit 9 selects either the sequential control amount R6 or the reproduction scene control scenario R34 and outputs the selected control amount R9. Details of the processing of the control selection unit 9 will be described later. The image processing unit 4 performs image processing on the selected image signal R3 according to the selection control amount R9 and outputs a display image signal R4. Details of the image processing in the image processing unit 4 will be described later. The image display unit 10 displays an image according to the display video signal R4.

なお、上記の各処理はタイムコードを参照した制御処理により行われている。タイムコード発生部18は再生画像信号R13からタイムコードを取得して、取得したタイムコードを不図示のタイムコードR18としてシステム内の各ブロックに配布する。制御部19は不図示の制御線を通じてシステムの各ブロックの動作の制御を行う。   Each of the above processes is performed by a control process that refers to a time code. The time code generator 18 acquires a time code from the reproduced image signal R13, and distributes the acquired time code to each block in the system as a time code R18 (not shown). The control unit 19 controls the operation of each block of the system through a control line (not shown).

次に、絵作り制御部6における逐次適応絵作りの詳細を説明する。絵作り制御部6のブロック図を図9に示す。絵作り制御部6では逐次特徴量R5の内、輝度ヒストグラムR52のみを使用する。
逐次正規化部61は輝度ヒストグラムR52の正規化を行って逐次正規化ヒストグラムR61を出力する。正規化処理の詳細はヒストグラム正規化部81と同様である。
逐次ヒストグラム積分部62は、逐次正規化ヒストグラムR61を下位のカテゴリから
順に累積加算して階調補正を行うための輝度補正カーブである逐次制御量R6を生成する。生成方法の詳細はヒストグラム積分部82と同様である。
Next, details of the sequential adaptive picture making in the picture making control unit 6 will be described. A block diagram of the picture making control unit 6 is shown in FIG. The picture making control unit 6 uses only the luminance histogram R52 in the sequential feature amount R5.
The sequential normalization unit 61 normalizes the luminance histogram R52 and outputs a sequential normalized histogram R61. Details of the normalization processing are the same as those of the histogram normalization unit 81.
The sequential histogram integration unit 62 generates a sequential control amount R6 that is a luminance correction curve for performing gradation correction by cumulatively adding the sequential normalized histogram R61 in order from the lower category. Details of the generation method are the same as those of the histogram integration unit 82.

次に、選択制御部9の動作の詳細を説明する。選択部9のブロック図を図10に示す。
タイムコード比較部91は、タイムコードR18と区間タイムコードR93を比較して、カーブ選択信号R91およびシナリオ更新信号R92を出力する。現在処理対象となる画像のタイムコードR18をNTC、区間タイムコードR93のTimePointをSTP、区間タイ
ムコードR93のDurationをSDRとしたときに、次の式が成立するか判断する。
STP ≦ NTC < STP+SDR
成立したら、カーブ選択信号R91をEnableにする。成立していなければカーブ選択信号R91をDisableにする。
Next, details of the operation of the selection control unit 9 will be described. A block diagram of the selector 9 is shown in FIG.
The time code comparison unit 91 compares the time code R18 and the section time code R93, and outputs a curve selection signal R91 and a scenario update signal R92. When the time code R18 of the image to be currently processed is NTC, the time point of the section time code R93 is STP, and the duration of the section time code R93 is SDR, it is determined whether the following equation holds.
STP ≤ NTC <STP + SDR
If established, the curve selection signal R91 is set to Enable. If not established, the curve selection signal R91 is set to Disable.

タイムコード比較部93はまた、次の式が成立するか判断する。
NTC ≧ STP+SDR
成立したら、シナリオ更新信号R92をEnableにする。成立していなければシナリオ更新信号R92をDisableにする。
The time code comparison unit 93 also determines whether the following equation is established.
NTC ≧ STP + SDR
If established, the scenario update signal R92 is set to Enable. If not established, the scenario update signal R92 is set to Disable.

シナリオキュー93は再生シーン制御シナリオを一時的に蓄えるキューである。キューの出力として、キューの先頭のシナリオが対象とする時間区間のTimePointとDurationを
含む区間タイムコードR93と、その時間区間に対応する制御値であるシナリオ制御値R94とを常に出力している。また、シナリオ更新信号R92がEnableになったら、キューの先頭を1つ廃棄する。キューに空きができたら、シナリオリクエスト信号R99をEnableにしてメタデータ解析部34より再生シーン制御シナリオR34を取得してキューの後端にストアする。
The scenario queue 93 is a queue for temporarily storing playback scene control scenarios. As the output of the queue, the section time code R93 including the TimePoint and Duration of the time section targeted by the scenario at the head of the queue and the scenario control value R94 that is the control value corresponding to the time section are always output. Further, when the scenario update signal R92 becomes Enable, one head of the queue is discarded. When the queue is empty, the scenario request signal R99 is enabled and the reproduction scene control scenario R34 is acquired from the metadata analysis unit 34 and stored at the rear end of the queue.

補正カーブ復元部95はシナリオ制御値R94に基づいて輝度補正カーブの特徴を復元して、逆γ変換カーブを修正した修正輝度補正カーブR95を出力する。処理の詳細を以下に説明する。処理システム全体の特性及び処理モードに応じて、基準となる逆γ変換カーブを選択する(図11(a))。次に、シナリオ制御値R94に含まれる2箇所の代表点位置Pa,Pbを参照する(図11(b))。次に、代表点位置における基準カーブから代表点
差分Va,Vbを加えて修正代表点Na,Nbを算出する(図11(c))。次に、原点B(黒色点)から修正代表点Na,Nbを通って終点W(白色点)を結ぶスプライン曲線を算出して修正輝
度補正カーブR95とする(図11(d))。
The correction curve restoration unit 95 restores the characteristics of the luminance correction curve based on the scenario control value R94, and outputs a corrected luminance correction curve R95 in which the inverse γ conversion curve is corrected. Details of the processing will be described below. A reference inverse γ conversion curve is selected according to the characteristics and processing mode of the entire processing system (FIG. 11A). Next, the two representative point positions Pa and Pb included in the scenario control value R94 are referred to (FIG. 11B). Next, the corrected representative points Na and Nb are calculated by adding the representative point differences Va and Vb from the reference curve at the representative point position (FIG. 11C). Next, a spline curve connecting the end point W (white point) from the origin B (black point) through the corrected representative points Na and Nb is calculated as a corrected luminance correction curve R95 (FIG. 11 (d)).

カーブ選択部96はカーブ選択信号R91に基づいて修正輝度補正カーブR95もしくは逐次制御量R6のいずれかを選択して選択制御量R9として出力する。これにより、画像の区間に対して制御シナリオが存在した場合には制御シナリオに従った画像処理が行われ、また存在しなかった場合には逐次適応型の画像処理が行われることになる。   The curve selection unit 96 selects either the corrected luminance correction curve R95 or the sequential control amount R6 based on the curve selection signal R91 and outputs it as the selected control amount R9. As a result, when a control scenario exists for an image section, image processing according to the control scenario is performed, and when there is no control scenario, adaptive image processing is sequentially performed.

次に、画像処理部4における画像処理の詳細を説明する。画像処理部4はRAMで構成されるルックアップテーブルとなっている。選択制御量R9はRAMのライトポートに接続され、選択画像信号R3のフレーム間のブランキング期間に選択制御量R9の内容が書き込まれる。選択画像信号R3はRAMのリードのアドレスポートに接続され、テーブルに書き込まれている選択制御量R9を参照する。RAMのリードのデータポートからテーブルの参照によって変換された値が出力され、表示画像信号R4として出力される。   Next, details of image processing in the image processing unit 4 will be described. The image processing unit 4 is a lookup table composed of a RAM. The selection control amount R9 is connected to the RAM write port, and the content of the selection control amount R9 is written in the blanking period between frames of the selection image signal R3. The selection image signal R3 is connected to the read address port of the RAM, and refers to the selection control amount R9 written in the table. A value converted by referring to the table is output from the read data port of the RAM, and is output as a display image signal R4.

以上説明した再生時におけるシステムの動作の概念図を図12に示す。
画像の再生に先立って、シナリオキュー93は空の状態であるのでシナリオリクエスト信号R92を必要な回数発生してキューを埋める。
タイムコードのTimePoint TaからDuration Daで示される選択画像信号R3について検
討する。このとき、Shot-Aの映像区間では、シナリオキュー93から出力される区間タイムコードR93との比較において条件が一致するので、カーブ選択信号R91はEnableとなる。またそのカーブ選択信号R91に基づいて、選択制御量R9は再生シーン制御シナリオR34に基づいたVaが選択される。
FIG. 12 shows a conceptual diagram of the operation of the system at the time of reproduction described above.
Prior to image reproduction, the scenario queue 93 is empty, so that the scenario request signal R92 is generated as many times as necessary to fill the queue.
Consider the selected image signal R3 indicated by the time code from TimePoint Ta to Duration Da. At this time, in the Shot-A video section, the condition matches in the comparison with the section time code R93 output from the scenario queue 93, so the curve selection signal R91 becomes Enable. Based on the curve selection signal R91, Va based on the reproduction scene control scenario R34 is selected as the selection control amount R9.

Shot-Aの映像区間が終了したら、シナリオ更新信号R92が発生してシナリオキュー93の先頭に入っていたシナリオVaが破棄される。また続いてキューの空きの発生によってシナリオリクエスト信号R99が発生して次の制御シナリオVdがキューに補充される。
選択画像信号R3がShot-Bの映像区間では、区間タイムコードR93との比較において条件が一致しないので、カーブ選択信号R91はDisableとなる。またそのカーブ選択信
号R91に基づいて、Shot-Bの映像区間内では選択制御量R9に逐次制御量R6に基づいたVXが選択される。
以後、同様にしてShot-Cの映像区間では再生シーン制御シナリオR34に基づいたVcが選択される。
When the shot-A video section ends, a scenario update signal R92 is generated and the scenario Va at the head of the scenario queue 93 is discarded. Further, subsequently, a scenario request signal R99 is generated due to the occurrence of an empty queue, and the next control scenario Vd is replenished to the queue.
In the video section in which the selected image signal R3 is Shot-B, the condition does not match in the comparison with the section time code R93, so the curve selection signal R91 is disabled. Based on the curve selection signal R91, VX based on the sequential control amount R6 is selected as the selection control amount R9 in the Shot-B video section.
Thereafter, Vc based on the playback scene control scenario R34 is selected in the same manner in the Shot-C video section.

以上説明した構成及びその制御にて、画像録画時にメタデータ化したシナリオ制御量を同時記録し、再生時にそれを読み出して画像処理を行うことが可能となる。この構成による再生時の画像処理では再生する画像区間に対応するメタデータを先行して読み出して、最適化された画像処理シナリオを予め準備しておく。それにより、画像自体を先読みせずとも区間最適化された絵作り制御をその区間の始めから適用することが可能となる。   With the configuration and control described above, it is possible to simultaneously record the scenario control amount converted to metadata at the time of image recording and read it at the time of reproduction to perform image processing. In the image processing at the time of reproduction with this configuration, metadata corresponding to the image section to be reproduced is read in advance, and an optimized image processing scenario is prepared in advance. As a result, it is possible to apply the picture optimization control optimized for the section from the beginning of the section without prefetching the image itself.

例えば、図13に示すような薄暗い部屋の中をカメラが左から右へパンしながら撮影すると、図14(a)〜(c)のような画像信号が得られる。このそれぞれの瞬間における輝度ヒストグラムR52はそれぞれ図15(a)〜(c)のような形が得られる。
この画像信号に対して従来知られている逐次最適化した輝度補正カーブ生成を行うと、それぞれ図16(a)〜(c)のような補正カーブが得られる。この補正を行った画像は図17(a)〜(c)のように、同一シーン内で大きく明るさが変動して見苦しい画像となる場合があった。
For example, when the camera pans from left to right in a dim room as shown in FIG. 13, image signals as shown in FIGS. 14 (a) to (c) are obtained. The luminance histograms R52 at the respective moments are obtained as shown in FIGS. 15 (a) to 15 (c).
When a conventionally known brightness correction curve generation is performed on this image signal, correction curves as shown in FIGS. 16A to 16C are obtained. As shown in FIGS. 17 (a) to 17 (c), the image subjected to this correction sometimes becomes unsightly because the brightness greatly fluctuates within the same scene.

しかし本実施例の装置構成によれば、図14(a)〜(c)までを単一の画像区間と認識してシーン内の全フレームに対して最適な補正カーブを求めることができる。具体的には図18に示すようなピークホールドヒストグラムR72が得られ、図19に示すような輝度補正カーブが、図14(a)〜(c)対応するシーン制御シナリオR8として得られる。シーン制御シナリオR8が得られた区間画像は、その区間に渡って単一の補正カーブが適用されるので、パン途中で映像全体の輝度変動は発生せず、図20(a)〜(c)に示したような安定した画像処理結果が得られる。   However, according to the apparatus configuration of the present embodiment, it is possible to recognize FIGS. 14 (a) to 14 (c) as a single image section and obtain an optimum correction curve for all the frames in the scene. Specifically, a peak hold histogram R72 as shown in FIG. 18 is obtained, and a luminance correction curve as shown in FIG. 19 is obtained as the corresponding scene control scenario R8 in FIGS. Since a single correction curve is applied to the section image from which the scene control scenario R8 is obtained, the luminance fluctuation of the entire video does not occur during panning, and FIGS. 20 (a) to (c). A stable image processing result as shown in FIG.

以上、本発明を適用した実施例1の構成及びその制御にて、従来知られていた画像処理方法よりも更に高度な画像処理結果が得られることを示した。またこのとき、シーン特徴量R7が出力されるシーンでは、シーン制御シナリオR8が出力され、録画時にはシーン制御シナリオR8に基づく生成メタデータR30が記録される。その結果、フレームごとにメタデータを記録する場合に比べメタデータが削減される。   As described above, it has been shown that the image processing result higher than that of the conventionally known image processing method can be obtained by the configuration and control of the first embodiment to which the present invention is applied. At this time, the scene control scenario R8 is output in the scene where the scene feature amount R7 is output, and the generated metadata R30 based on the scene control scenario R8 is recorded during recording. As a result, the metadata is reduced as compared with the case where the metadata is recorded for each frame.

また、画像の再生を行っている時に早送りや巻戻しなどのトリックプレイが発生する可能性のあるシステムであっても、本実施例の構成にて対応が可能である。   Further, even the system in which trick play such as fast-forwarding or rewinding may occur during image reproduction can be handled by the configuration of this embodiment.

制御選択部9は、トリックプレイが発生したら制御部19からの通知によってシナリオキュー93に保持されている制御シナリオをすべて破棄する。
画像再生部33は、トリックプレイ中はメタデータの読出しを停止する。また、トリックプレイが終了して通常の再生モードになったら、メタデータの読出しポインタをメタデ
ータファイルの先頭に戻して最初から順にメタデータを読出す。
The control selection unit 9 discards all control scenarios held in the scenario queue 93 by notification from the control unit 19 when trick play occurs.
The image playback unit 33 stops reading metadata during trick play. When trick play ends and the normal playback mode is set, the metadata read pointer is returned to the beginning of the metadata file, and the metadata is read sequentially from the beginning.

この状態では、タイムコード比較部91の判断において、次の条件が連続して成立している。
NTC ≧ STP+SDR
そのため、画像再生している時点に追いつくまでメタデータが連続して読み飛ばされる。メタデータのデータ量は画像のストリームに比べて非常に小さいので、ファイルの先頭から読み直しを行ってもユーザが認識できない程度の短時間で読み出しポインタを同期させることが可能である。
In this state, the following conditions are continuously satisfied in the determination by the time code comparison unit 91.
NTC ≧ STP + SDR
Therefore, the metadata is skipped continuously until it catches up with the time when the image is being reproduced. Since the amount of metadata data is very small compared to the image stream, it is possible to synchronize the read pointers in such a short time that the user cannot recognize even if rereading from the beginning of the file.

あるいは、何らかの検索技術を用いてタイムコードとメタデータの読出しポインタの同期を図っても良い。   Alternatively, the time code and the metadata read pointer may be synchronized using some search technique.

このように制御を行うことで、トリックプレイが発生する可能性のあるシステムに対しても本実施例を適用することが可能である。   By performing control in this way, this embodiment can be applied to a system in which trick play may occur.

また、本実施例に示した画像処理装置の構成要素の具体例を置き換えることによって、様々な画像処理効果を得ることが可能となる。   Also, by replacing specific examples of the components of the image processing apparatus shown in the present embodiment, various image processing effects can be obtained.

例えば、シーン制御シナリオを区分する区間は、シーンチェンジ検出部71の検出方法を置き換えることでシステムの用途に応じた区分とすることが可能となる。例えば区切りの検出方法として、フレーム毎の輝度ヒストグラムR52の変化を検出しても良いし、画像に付随する音声データの変化から検出してもよい。検出対象とする区分もショットの切り替わりの他、番組の切り替わりやCMの検出を行っても良い。システムを単純化する場合にはタイマを用いて一定時間で区分することも可能である。   For example, the section for dividing the scene control scenario can be classified according to the use of the system by replacing the detection method of the scene change detection unit 71. For example, as a method for detecting a break, a change in the luminance histogram R52 for each frame may be detected, or may be detected from a change in audio data accompanying the image. In addition to the shot change, the category to be detected may be a program change or a CM detection. In the case of simplifying the system, it is also possible to classify at a fixed time using a timer.

また、シーン特徴解析部7で算出するシーン特徴量R7は、本実施例で示した例の他、シーン中の平均値を用いたり、特異値を除外して算出したりすることも可能である。   In addition to the example shown in the present embodiment, the scene feature amount R7 calculated by the scene feature analysis unit 7 can be calculated using an average value in the scene or excluding singular values. .

また、本実施例では、シーン特徴量R7のヒストグラムから輝度補正カーブR82を生成した後、代表点で標準輝度補正カーブとの差分を抽出してシーン制御シナリオR8を作り、メタデータ化して蓄積している。しかし、メタデータ化する前の輝度補正カーブを入力画像とともに蓄積して、画像再生時の補正処理に用いることもできる。あるいはシーン特徴量を蓄積して、再生時に輝度補正カーブを求めて補正処理を行うこともできる。この場合でも、フレーム毎にヒストグラムを作成、蓄積する場合に比べて記憶容量の抑制が可能である。   Further, in this embodiment, after generating the brightness correction curve R82 from the histogram of the scene feature amount R7, the difference from the standard brightness correction curve is extracted at the representative point to create a scene control scenario R8, which is converted into metadata and stored. ing. However, the luminance correction curve before being converted to metadata can be stored together with the input image and used for correction processing during image reproduction. Alternatively, scene feature amounts can be accumulated, and a correction process can be performed by obtaining a luminance correction curve during reproduction. Even in this case, the storage capacity can be reduced as compared with the case where a histogram is created and stored for each frame.

また、シーン絵作り解析部8で算出する輝度補正カーブR82は、本実施例で示した例の他、ヒストグラムの形状でパターン分類を用いるなどの方法を用いることも可能である。   In addition to the example shown in the present embodiment, the luminance correction curve R82 calculated by the scene picture creation analysis unit 8 can use a method such as pattern classification based on the shape of a histogram.

また、シーン絵作り解析部8で算出するシーン制御シナリオR8は、本実施例で示したように2次的な形式に変換する例の他、ヒストグラムの構成数値そのものを用いることも可能である。   Further, the scene control scenario R8 calculated by the scene picture creation analysis unit 8 can use the constituent numerical value of the histogram itself in addition to the example of conversion into the secondary format as shown in the present embodiment.

また、メタデータ生成部30にて生成する生成メタデータR30は、本実施例で示した例の他、独自のテキスト形式でも良いし、バイナリ形式を用いることも可能である。   In addition, the generated metadata R30 generated by the metadata generating unit 30 may be in a unique text format or in a binary format in addition to the example shown in the present embodiment.

<実施例2>
実施例1では画像処理のために画像解析部5で検出する逐次特徴量R5は輝度ヒストグ
ラムであったが、それ以外の特徴量を用いた画像処理を行うシステムであってもことも本発明を適用することが可能である。
実施例2では、色ヒストグラムを用いて画像処理を行う装置について説明する。本実施例のシステムの全体構成図は、図1に示す実施例1の全体構成図と同様であり、一部の構成要素の機能が異なる。
<Example 2>
In the first embodiment, the sequential feature amount R5 detected by the image analysis unit 5 for image processing is a luminance histogram. However, the present invention may be applied to a system that performs image processing using other feature amounts. It is possible to apply.
In the second embodiment, an apparatus that performs image processing using a color histogram will be described. The overall configuration diagram of the system of the present embodiment is the same as the overall configuration diagram of the first embodiment shown in FIG. 1, and the functions of some components are different.

本実施例においては、画像解析部5は選択画像信号R3の色解析を行い、彩度ヒストグラムを生成する。また、画像処理部4は、選択制御量R9に従って選択画像信号R3の彩度を変化させる。また、絵作り制御部6は、解析した画像の全体的な彩度が低ければ、色飽和が起こらない程度に彩度を上げる制御を行う逐次制御量R6を出力する。   In this embodiment, the image analysis unit 5 performs color analysis of the selected image signal R3 and generates a saturation histogram. The image processing unit 4 changes the saturation of the selected image signal R3 according to the selection control amount R9. In addition, if the overall saturation of the analyzed image is low, the picture making control unit 6 outputs a sequential control amount R6 that performs control to increase the saturation to such an extent that color saturation does not occur.

また、シーン特徴解析部7は、実施例1と同様にして区間画像に対する彩度ヒストグラムのピークホールドヒストグラムを生成する。また、シーン絵作り解析部8は彩度のピークホールドヒストグラムに最適化した、彩度の制御量を制御シナリオR8として算出する。
他の構成要素は、実施例1と同様の動作および制御を行う。
Further, the scene feature analysis unit 7 generates a peak hold histogram of the saturation histogram for the section image in the same manner as in the first embodiment. In addition, the scene picture creation analysis unit 8 calculates the saturation control amount optimized for the saturation peak hold histogram as the control scenario R8.
Other components perform the same operation and control as in the first embodiment.

図21に、本実施例のシステムを屋内のシーンに適用する例を示す。まず図21(a)のように全体的に彩度の低いインテリアが置かれていて、続いて図21(b)に示したように
その画面内に鮮やかな色の服を着た人物が画面内に歩いてきた。というシーンを想定する。
FIG. 21 shows an example in which the system of this embodiment is applied to an indoor scene. First, an interior with a low saturation as shown in FIG. 21 (a) is placed. Subsequently, as shown in FIG. 21 (b), a person wearing brightly colored clothes is displayed on the screen. I walked inside. Assume the scene.

この場合、従来知られている逐次制御による画像処理では、図21(a)の時点では画面
全体の彩度を上げるように制御を行う。また図21(b)の時点では人物の服の色が飽和し
ないように彩度の向上を控えめにする。この制御によって単一のシーンであっても背景の色調が変化してしまい、違和感のある画像処理となってしまう。また、逐次制御に時定数を持たせて急激な制御の変化を抑制する技術も知られているが、その場合は図21(a)の
時点で最適化された彩度を向上させる制御を図21(b)にも適用することになる。それに
よって人物の服の色が飽和してしまい、画質がかえって低下してしまう可能性がある。
In this case, in conventionally known image processing by sequential control, control is performed so as to increase the saturation of the entire screen at the time of FIG. Further, at the time of FIG. 21 (b), improvement in saturation is conservative so that the color of the clothes of the person is not saturated. This control changes the color tone of the background even in a single scene, resulting in a strange image processing. In addition, there is known a technique for suppressing a sudden change in control by giving a time constant to sequential control. In this case, control for improving saturation optimized at the time of FIG. This also applies to 21 (b). As a result, the color of the clothes of the person is saturated, and the image quality may be lowered.

しかし、本発明を適用した実施例2の装置構成に拠れば、図21(a)〜(b)を連続した単一のシーンとして最適化した制御を行うことができる。その結果、図21(a)の時点から
その後の画像にも適応する彩度に制御を行い、違和感無く高画質化を行うことが可能となる。
However, according to the apparatus configuration of the second embodiment to which the present invention is applied, it is possible to perform control that optimizes FIGS. 21A to 21B as a continuous single scene. As a result, it is possible to control the saturation to be applied to the subsequent images from the time point shown in FIG.

以上説明した構成によって色の彩度に対しても区間画像に最適化した制御シナリオを適用した高度な画像処理を行うことが可能となる。その際のメタデータはシーン制御シナリオに基づいて生成されているので、フレームごとにメタデータを生成する場合よりも量を削減することができる。   With the configuration described above, it is possible to perform advanced image processing that applies a control scenario optimized for a section image even for color saturation. Since the metadata at that time is generated based on the scene control scenario, the amount can be reduced as compared with the case where the metadata is generated for each frame.

<実施例3>
以上説明した実施例では画像処理のために画像解析部5で検出する逐次特徴量R5は何らかのヒストグラムであったが、それ以外の特徴量を用いた画像処理を行うシステムであってもことも本発明を適用することが可能である。
実施例3では、空間周波数パワースペクトルを用いて画像処理を行う装置について説明する。本実施例のシステムの全体構成図は、図1に示す実施例1の全体構成図と同様であり、一部の構成要素の機能が異なる。
<Example 3>
In the embodiment described above, the sequential feature amount R5 detected by the image analysis unit 5 for image processing is some sort of histogram, but it may be a system that performs image processing using other feature amounts. The invention can be applied.
In the third embodiment, an apparatus that performs image processing using a spatial frequency power spectrum will be described. The overall configuration diagram of the system of the present embodiment is the same as the overall configuration diagram of the first embodiment shown in FIG. 1, and the functions of some components are different.

本実施例においては、画像解析部5は選択画像信号R3に対してFFT解析を行って空間周波数パワースペクトルを生成する。また、画像処理部4は、選択制御量R9に従って
選択画像信号R3の鮮鋭度を変化させる。また、絵作り制御部6は、解析した画像の全体的な鮮鋭度が低ければ、画像のエッジにリンギングが起こらない程度に鮮鋭度を上げる制御を行う逐次制御量R6を出力する。
In this embodiment, the image analysis unit 5 performs FFT analysis on the selected image signal R3 to generate a spatial frequency power spectrum. The image processing unit 4 changes the sharpness of the selected image signal R3 according to the selection control amount R9. Further, if the overall sharpness of the analyzed image is low, the picture making control unit 6 outputs a sequential control amount R6 for performing control to increase the sharpness so that no ringing occurs at the edge of the image.

また、シーン特徴解析部7は、実施例1とほぼ同様の手法にて区間画像に対する空間周波数パワースペクトルのピークホールドスペクトルを生成する。また、シーン絵作り解析部8は空間周波数パワースペクトルのピークホールドスペクトルに最適化した、鮮鋭度の制御量を制御シナリオR8として算出する。
他の構成要素は、実施例1と同様の動作および制御を行う。
In addition, the scene feature analysis unit 7 generates a peak hold spectrum of the spatial frequency power spectrum for the section image by a method almost the same as that of the first embodiment. In addition, the scene picture creation analysis unit 8 calculates a control amount of sharpness optimized as a peak hold spectrum of the spatial frequency power spectrum as a control scenario R8.
Other components perform the same operation and control as in the first embodiment.

図22に、本実施例のシステムを屋外のシーンに適用する例を示す。まず図22(a)のように全体的にフォーカスが甘めに撮影された風景が表示されていて、続いて図22(b)
に示したようにその画面内に多量の文字テロップがスクロールインする。というシーンを想定する。
FIG. 22 shows an example in which the system of this embodiment is applied to an outdoor scene. First, as shown in FIG. 22 (a), a landscape photographed with a soft focus as a whole is displayed, and subsequently, FIG. 22 (b).
As shown in, a large number of character telops scroll in the screen. Assume the scene.

この場合、従来知られている逐次制御による画像処理では、図22(a)の時点では画面
全体の鮮鋭度を上げるように制御を行う。また図22(b)の時点では文字テロップにリン
ギングが生じないように鮮鋭度の向上を控えめにする。この制御によって単一のシーンであっても背景の鮮鋭度が変化してしまい、違和感のある画像処理となってしまう。また、逐次制御に時定数を持たせて急激な制御の変化を抑制する技術も知られているが、その場合は図22(a)の時点で最適化された鮮鋭度を向上させる制御を図22(b)にも適用することになる。それによって文字テロップの周囲にリンギングが発生していまい、画質がかえって低下してしまう可能性がある。
In this case, in conventionally known image processing by sequential control, control is performed so as to increase the sharpness of the entire screen at the time of FIG. Further, at the time of FIG. 22 (b), sharpness improvement is conservative so as not to cause ringing in the character telop. This control changes the sharpness of the background even in a single scene, resulting in a strange image processing. Further, there is known a technique for suppressing a sudden change in control by giving a time constant to sequential control. In this case, control for improving the sharpness optimized at the time of FIG. This also applies to 22 (b). As a result, ringing does not occur around the character telop, and the image quality may be deteriorated.

しかし、本発明を適用した実施例3の装置構成に拠れば、図22(a)〜(b)を連続した単一のシーンとして最適化した制御を行うことができる。その結果、図22(a)の時点から
その後の画像にも適応する鮮鋭度に制御を行い、違和感無く高画質化を行うことが可能となる。
However, according to the apparatus configuration of the third embodiment to which the present invention is applied, it is possible to perform control that optimizes FIGS. 22A to 22B as a continuous single scene. As a result, it is possible to control the sharpness that can be applied to subsequent images from the time point shown in FIG.

以上説明した構成によって画像の鮮鋭度に対しても区間画像に最適化した制御シナリオを適用した高度な画像処理を行うことが可能となる。その際のメタデータはシーン制御シナリオに基づいて生成されているので、フレームごとにメタデータを生成する場合よりも量を削減することができる。   With the configuration described above, it is possible to perform advanced image processing that applies a control scenario optimized for a section image with respect to image sharpness. Since the metadata at that time is generated based on the scene control scenario, the amount can be reduced as compared with the case where the metadata is generated for each frame.

<実施例4>
本実施例では、入力部に撮像素子を用いた、撮影および撮影した画像の蓄積をするカムコーダに本発明を適用する例を説明する。本実施例においても、実施例1とほぼ同様の構成にて本発明を適用することが可能である。
<Example 4>
In the present embodiment, an example will be described in which the present invention is applied to a camcorder that uses an imaging device as an input unit and that captures and stores captured images. Also in the present embodiment, the present invention can be applied with a configuration substantially similar to that of the first embodiment.

実施例4における装置の全体構成図を図23に示す。撮像部21は録画モード時、撮像素子に撮影された撮影画像R21を出力する。外部出力部22は表示画像信号R4をHDMIなど規格に準拠した映像信号に変換して、外部出力信号R22を出力する。   FIG. 23 shows an overall configuration diagram of an apparatus according to the fourth embodiment. The imaging unit 21 outputs a captured image R21 captured by the imaging element in the recording mode. The external output unit 22 converts the display image signal R4 into a video signal conforming to a standard such as HDMI, and outputs an external output signal R22.

その他の構成及び制御は実施例1と同様である。すなわち画像処理装置は、録画時にシーンチェンジを検出し、シーン制御シナリオをメタデータ化して保存する。これにより、メタデータの量を削減することができる。そして再生時にはシーン制御シナリオを適用した高度な画像処理が可能になる。このようにすれば、カムコーダに対しても本発明を適用することが可能となる。   Other configurations and controls are the same as those in the first embodiment. That is, the image processing apparatus detects a scene change at the time of recording, and stores the scene control scenario as metadata. Thereby, the amount of metadata can be reduced. In playback, advanced image processing using a scene control scenario is possible. If it does in this way, it will become possible to apply the present invention also to a camcorder.

4:画像処理部,5:画像解析部,7:シーン特徴解析部,10:画像表示部,32:蓄積装置部,33:画像再生部   4: image processing unit, 5: image analysis unit, 7: scene feature analysis unit, 10: image display unit, 32: storage device unit, 33: image reproduction unit

Claims (7)

入力画像を解析してフレーム毎の画像の特徴を表わす逐次特徴量を算出する画像解析部と、
前記入力画像を複数のシーンに区分するシーン検出部と、
前記シーンに含まれる各フレームの逐次特徴量から前記シーン全体の画像の特徴を表わすシーン特徴量を算出するシーン特徴解析部と、
前記シーン特徴量に基づいて前記シーンに含まれる全フレームの画像の補正で用いる制御量を生成する制御量生成部と、
前記入力画像および前記制御量を蓄積する蓄積部と、
前記蓄積された入力画像のシーンに、当該シーンに対応する制御量を用いて画像処理を行い、再生画像として出力する画像処理部と
を有する画像処理装置。
An image analysis unit for analyzing the input image and calculating a sequential feature amount representing the feature of the image for each frame;
A scene detector for dividing the input image into a plurality of scenes;
A scene feature analysis unit that calculates a scene feature amount representing a feature of an image of the entire scene from a sequential feature amount of each frame included in the scene;
A control amount generating unit that generates a control amount to be used for correcting images of all frames included in the scene based on the scene feature amount;
An accumulation unit for accumulating the input image and the control amount;
An image processing apparatus comprising: an image processing unit configured to perform image processing on a scene of the accumulated input image using a control amount corresponding to the scene and output the image as a reproduction image.
フレームの画像に標準的な補正を行うときの所定の制御量と、前記制御量生成部が生成した制御量との差分を表わす情報である差分情報を生成する差分情報生成部をさらに有し、
前記蓄積部は、前記制御量に替えて前記差分情報を前記入力画像とともに蓄積し、
前記画像処理部は、前記差分情報および標準的な補正を行うときの所定の制御量からフレームの画像の補正で用いる制御量を求めて画像処理を行う
ことを特徴とする請求項1に記載の画像処理装置。
A difference information generation unit that generates difference information that is information representing a difference between a predetermined control amount when performing standard correction on the image of the frame and the control amount generated by the control amount generation unit;
The storage unit stores the difference information together with the input image instead of the control amount,
2. The image processing unit according to claim 1, wherein the image processing unit performs image processing by obtaining a control amount used in correction of a frame image from the difference information and a predetermined control amount when performing standard correction. Image processing device.
前記シーン特徴解析部は、前記シーンに含まれる各フレームの輝度分布の変動が所定の値より大きいかを判断し、大きいと判断されたシーンについてのみ前記シーン特徴量を算出し、
前記画像処理部は、前記シーン特徴量が算出されなかったシーンにおいては、フレームごとに、フレームの逐次特徴量に基づいて制御量を求めて画像処理を行う
ことを特徴とする請求項1または2に記載の画像処理装置。
The scene feature analysis unit determines whether a variation in luminance distribution of each frame included in the scene is larger than a predetermined value, calculates the scene feature amount only for a scene determined to be large,
The image processing unit performs image processing by obtaining a control amount based on a sequential feature amount of each frame in a scene in which the scene feature amount is not calculated. An image processing apparatus according to 1.
前記逐次特徴量は、フレームの画像から算出した輝度ヒストグラムであり、
前記シーン特徴量は、前記シーンに含まれる各フレームの前記輝度ヒストグラムを比較して、階調値ごとに、前記シーンの中で最も大きい度数を選択したピークホールドヒストグラムであり、
前記制御量生成部が生成する制御量は、前記ピークホールドヒストグラムを低い側の階調値から累積加算したヒストグラムに基づいて生成される、入力画像の輝度と再生画像の輝度を対応させる輝度補正カーブであり、
前記画像処理部は、前記輝度補正カーブを用いて画像処理を行う
ことを特徴とする請求項1に記載の画像処理装置。
The sequential feature amount is a luminance histogram calculated from a frame image,
The scene feature amount is a peak hold histogram in which the luminance histogram of each frame included in the scene is compared and the highest frequency in the scene is selected for each gradation value.
The control amount generated by the control amount generation unit is generated based on a histogram obtained by accumulating the peak hold histogram from the lower gradation value, and a luminance correction curve that associates the luminance of the input image with the luminance of the reproduced image. And
The image processing apparatus according to claim 1, wherein the image processing unit performs image processing using the luminance correction curve.
前記逐次特徴量は、フレームの画像から算出した輝度ヒストグラムであり、
前記シーン特徴量は、前記シーンに含まれる各フレームの前記輝度ヒストグラムを比較して、階調値ごとに、前記シーンの中で最も大きい度数を選択したピークホールドヒストグラムであり、
前記制御量生成部が生成する制御量は、前記ピークホールドヒストグラムを低い側の階調値から累積加算したヒストグラムに基づいて生成される、入力画像の輝度と再生画像の輝度を対応させる輝度補正カーブであり、
前記所定の制御量とは、標準的な補正を行う時の輝度補正カーブであり、
前記差分情報生成部は、前記制御量生成部が生成する輝度補正カーブと、前記標準的な補正を行う時の輝度補正カーブとの、所定の階調値における差分に基づいて前記差分情報を生成するものであり、
前記画像処理部は、前記差分情報および標準的な補正を行う時の輝度補正カーブから、フレームの画像の補正で用いる輝度補正カーブを生成して画像処理を行う
ことを特徴とする請求項2に記載の画像処理装置。
The sequential feature amount is a luminance histogram calculated from a frame image,
The scene feature amount is a peak hold histogram in which the luminance histogram of each frame included in the scene is compared and the highest frequency in the scene is selected for each gradation value.
The control amount generated by the control amount generation unit is generated based on a histogram obtained by accumulating the peak hold histogram from the lower gradation value, and a luminance correction curve that associates the luminance of the input image with the luminance of the reproduced image. And
The predetermined control amount is a luminance correction curve when performing standard correction,
The difference information generation unit generates the difference information based on a difference in a predetermined gradation value between the luminance correction curve generated by the control amount generation unit and the luminance correction curve when the standard correction is performed. Is what
The image processing unit performs image processing by generating a luminance correction curve used for correcting a frame image from the difference information and a luminance correction curve when performing standard correction. The image processing apparatus described.
前記画像処理部は、複数の絵作りモードの中から選択した絵作りモードで画像処理を行うものであり、絵作りモードに応じて前記標準的な補正を行う時の輝度補正カーブを選択する
ことを特徴とする請求項5に記載の画像処理装置。
The image processing unit performs image processing in a picture making mode selected from a plurality of picture making modes, and selects a luminance correction curve for performing the standard correction according to the picture making mode. The image processing apparatus according to claim 5.
画像処理装置により実行される画像処理方法であって、
入力画像を解析してフレーム毎の画像の特徴を表わす逐次特徴量を算出する画像解析ステップと、
前記入力画像を複数のシーンに区分するシーン検出ステップと、
前記シーンに含まれる各フレームの逐次特徴量から前記シーン全体の画像の特徴を表わすシーン特徴量を算出するシーン特徴解析ステップと、
前記シーン特徴量に基づいて前記シーンに含まれる全フレームの画像の補正で用いる制御量を生成する制御量生成ステップと、
前記入力画像および前記制御量を蓄積する蓄積ステップと、
前記蓄積された入力画像のシーンに、当該シーンに対応する制御量を用いて画像処理を行い、再生画像として出力する画像処理ステップと
を有する画像処理方法。
An image processing method executed by an image processing apparatus,
An image analysis step of analyzing the input image and calculating a sequential feature amount representing the feature of the image for each frame;
A scene detection step of dividing the input image into a plurality of scenes;
A scene feature analysis step of calculating a scene feature amount representing a feature of an image of the entire scene from a sequential feature amount of each frame included in the scene;
A control amount generating step for generating a control amount to be used for correcting images of all frames included in the scene based on the scene feature amount;
An accumulation step for accumulating the input image and the control amount;
An image processing method comprising: an image processing step of performing image processing on the accumulated scene of the input image using a control amount corresponding to the scene and outputting as a reproduced image.
JP2010086381A 2010-04-02 2010-04-02 Image processing apparatus and image processing method Withdrawn JP2011223054A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010086381A JP2011223054A (en) 2010-04-02 2010-04-02 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010086381A JP2011223054A (en) 2010-04-02 2010-04-02 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2011223054A true JP2011223054A (en) 2011-11-04

Family

ID=45039520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010086381A Withdrawn JP2011223054A (en) 2010-04-02 2010-04-02 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2011223054A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0544886A (en) * 1991-08-12 1993-02-23 Osaka Gas Co Ltd Pipe repairing tool
WO2016038950A1 (en) * 2014-09-11 2016-03-17 ソニー株式会社 Image-processing device, and image-processing method
JP2016528826A (en) * 2013-07-30 2016-09-15 ドルビー ラボラトリーズ ライセンシング コーポレイション System and method for generating scene invariant metadata
JP2020077964A (en) * 2018-11-07 2020-05-21 キヤノン株式会社 Imaging apparatus and control method thereof

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0544886A (en) * 1991-08-12 1993-02-23 Osaka Gas Co Ltd Pipe repairing tool
JP2016528826A (en) * 2013-07-30 2016-09-15 ドルビー ラボラトリーズ ライセンシング コーポレイション System and method for generating scene invariant metadata
JP2018042253A (en) * 2013-07-30 2018-03-15 ドルビー ラボラトリーズ ライセンシング コーポレイション System and method for forming metadata in which scene is unchanged
US10553255B2 (en) 2013-07-30 2020-02-04 Dolby Laboratories Licensing Corporation System and methods for generating scene stabilized metadata
WO2016038950A1 (en) * 2014-09-11 2016-03-17 ソニー株式会社 Image-processing device, and image-processing method
US9501855B2 (en) 2014-09-11 2016-11-22 Sony Corporation Image processing apparatus and image processing method
US9665964B2 (en) 2014-09-11 2017-05-30 Sony Corporation Image processing apparatus and image processing method
JPWO2016038950A1 (en) * 2014-09-11 2017-06-22 ソニー株式会社 Image processing apparatus and image processing method
US10032300B2 (en) 2014-09-11 2018-07-24 Sony Corporation Image processing apparatus and image processing method
US10402681B2 (en) 2014-09-11 2019-09-03 Sony Corporation Image processing apparatus and image processing method
JP2020077964A (en) * 2018-11-07 2020-05-21 キヤノン株式会社 Imaging apparatus and control method thereof
JP7246894B2 (en) 2018-11-07 2023-03-28 キヤノン株式会社 Imaging device and its control method

Similar Documents

Publication Publication Date Title
US7884860B2 (en) Content shooting apparatus
US8208792B2 (en) Content shooting apparatus for generating scene representation metadata
US7873221B2 (en) Image processing apparatus, image processing method, program for image processing method, and recording medium which records program for image processing method
US9860454B2 (en) Reproducing apparatus and reproducing method
JP4644108B2 (en) Mobile communication terminal, moving picture search apparatus and moving picture search method for mobile communication terminal
WO2008118604A1 (en) Automatic detection, removal, replacement and tagging of flash frames in a video
US20160381302A1 (en) Image-processing apparatus and image-processing method
TWI408623B (en) Monitoring system and related recording methods for recording motioned image, and machine readable medium thereof
JP4992639B2 (en) Content shooting device
JP2011223054A (en) Image processing apparatus and image processing method
US9826148B2 (en) Image processing apparatus and image processing method for adjusting texture of an image
JP5655668B2 (en) Imaging apparatus, image processing method, and program
JP2009124264A (en) Image processing apparatus and image processing method
US8682148B2 (en) Delta-sigma modulated video playback apparatus, method, and computer-readable medium
US20060164519A1 (en) Data processing apparatus
JP2010183460A (en) Image capturing apparatus and method of controlling the same
US8405768B2 (en) Moving image processing apparatus and method thereof
JP2009296113A (en) Image display device
JP2003304417A (en) Imaging system
US11184551B2 (en) Imaging apparatus and control method thereof
JP6582994B2 (en) Image processing apparatus, image processing method, and program
JP4298743B2 (en) Image display device
JP2017011676A (en) Image-processing apparatus and image-processing method
JP5761991B2 (en) Image processing apparatus, control method therefor, and program
JP5451494B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130604