JP2010154484A - Device, method and program for video conversion - Google Patents
Device, method and program for video conversion Download PDFInfo
- Publication number
- JP2010154484A JP2010154484A JP2009009862A JP2009009862A JP2010154484A JP 2010154484 A JP2010154484 A JP 2010154484A JP 2009009862 A JP2009009862 A JP 2009009862A JP 2009009862 A JP2009009862 A JP 2009009862A JP 2010154484 A JP2010154484 A JP 2010154484A
- Authority
- JP
- Japan
- Prior art keywords
- video
- conversion
- color
- color conversion
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Processing Of Color Television Signals (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
本発明は、映像の階調を自動で変換する技術に関するものであり、特に、デジタル映像処理装置において、入力された映像の階調を変換する技術に関する。 The present invention relates to a technique for automatically converting the gradation of an image, and more particularly to a technique for converting the gradation of an input image in a digital image processing apparatus.
映像のヒストグラムは、映像内の各ピクセルに対する明暗値の分布を示したものである。コントラストストレッチングは、明暗値の分布が偏った画像について明暗値を低い値から高い値まで広く分布させることによって映像のコントラストを向上させる手法である。コントラストストレッチングを通して暗すぎる映像は明るくなり、明るすぎる映像は暗くなって適当な明暗値を維持する。すなわち、映像の輝度値分布を修正することによって、映像の全体的なコントラストバランスが改善される。 The histogram of the video shows the distribution of light and dark values for each pixel in the video. Contrast stretching is a technique for improving the contrast of an image by widely distributing the light and dark values from a low value to a high value for an image with a skewed light and dark value distribution. Through contrast stretching, an image that is too dark becomes brighter, and an image that is too bright becomes darker to maintain an appropriate brightness value. That is, the overall contrast balance of the video is improved by correcting the luminance value distribution of the video.
図17は、従来のコントラストストレッチング装置の構成を示すブロック図である。同図に示すように、従来のコントラストストレッチング装置は、分布計算部42及びストレッチング部43を有する。
FIG. 17 is a block diagram showing a configuration of a conventional contrast stretching apparatus. As shown in the figure, the conventional contrast stretching apparatus has a
分布計算部42は、入力された映像から明暗値を計数してヒストグラム値またはヒストグラム関数を求める。目標値入力部は目標最低値と目標最高値とが入力され、入力された値をストレッチング部43に出力する。ストレッチング部43は、分布計算部42で求めたヒストグラム関数を用いて最低値と最高値を有する明暗値を求め、入力映像の明度の最低値と最高値が目標分布入力部に入力された目標最低値と目標最高値とに一致するようにヒストグラムを変換する。ストレッチング部43の処理において、目標最低値が0であり、目標最高値が255であれば、映像は0から255までの明暗値を有し映像のコントラストが増加する。
The
また、上述したヒストグラムの拡大処理を映像のR成分とG成分とB成分とに対して同様に施すことで色味を保ったままコントラストを増加させることが可能となる。或いは、R成分とG成分とB成分とに対してそれぞれ独立にヒストグラムの拡大処理を施すことで、色味の偏りが少ないコントラストが増加した映像を作成することが可能となる。なお、本願に関連する先行技術文献としては、次のものがある。 Further, the above-described histogram enlarging process is similarly applied to the R component, the G component, and the B component of the video, so that the contrast can be increased while maintaining the color. Alternatively, it is possible to create a video with an increased contrast with little color bias by performing histogram enlargement processing independently on the R component, the G component, and the B component. As prior art documents related to the present application, there are the following.
しかし、従来の技術に係るコントラストストレッチングの場合、全体のコントラストを向上させることは可能であったが、映像内に含まれる複数の被写体の色を望み通りの色に調整することができなかった。特に複数の人物を被写体として撮影された画像に対する明るさや色味を望み通りに調整することができなかった。 However, in the case of contrast stretching according to the prior art, it was possible to improve the overall contrast, but it was not possible to adjust the colors of multiple subjects included in the video to the desired color . In particular, it has been impossible to adjust the brightness and color tone of an image taken with a plurality of persons as subjects.
本発明は、上記各問題を解決するためになされたものであり、その課題とするところは、映像内に含まれる複数の被写体の色を適切に変換でき、特に複数の人物を被写体として撮影された画像に対する明るさや色味を望み通りに調整できる映像変換装置を提供することにある。 The present invention has been made to solve the above problems, and the problem is that the colors of a plurality of subjects included in an image can be appropriately converted, and in particular, a plurality of persons are photographed as subjects. Another object of the present invention is to provide a video conversion device that can adjust the brightness and color tone of an image as desired.
第1の本発明に係る映像変換装置は、入力された映像を記憶する記憶手段と、前記映像を読み出し、複数の領域に分割して記憶手段に記憶させる領域分割手段と、所望の色成分における前記各領域のヒストグラムを作成するヒストグラム作成手段と、前記各ヒストグラムに対して目標とする分布範囲を指定する目標範囲指定手段と、前記各ヒストグラムを前記目標の分布範囲に分布させるように前記映像を変換するための変換パラメタを作成する変換パラメタ作成手段と、前記変換パラメタを用いて色変換関数を作成する色変換関数作成手段と、前記色変換関数を合成するための合成係数を算出し、該合成係数を用いて、複数の前記色変換関数を合成する色変換関数合成手段と、前記合成後の色変換関数を前記映像に適用して映像を変換する映像変換手段とを有し、前記色変換関数作成手段は、複数の顔の領域に対応してそれぞれ色変換関数を作成し、前記色変換関数合成手段は、複数の顔の領域に対応して作成された色変換関数を合成した色変換関数を作成することを特徴とする。 According to a first aspect of the present invention, there is provided a video conversion device, a storage unit that stores an input video, a region dividing unit that reads the video, divides it into a plurality of regions and stores the divided video in a storage unit, and a desired color component Histogram creation means for creating a histogram of each region; target range designating means for designating a target distribution range for each histogram; and the video so that each histogram is distributed in the target distribution range. A conversion parameter creating means for creating a conversion parameter for conversion; a color conversion function creating means for creating a color conversion function using the conversion parameter; and a synthesis coefficient for synthesizing the color conversion function; Color conversion function combining means for combining a plurality of the color conversion functions using a combination coefficient, and converting the image by applying the combined color conversion function to the image Image conversion means, the color conversion function creating means creates color conversion functions corresponding to a plurality of face areas, and the color conversion function combining means corresponds to a plurality of face areas. A color conversion function is created by synthesizing the generated color conversion functions.
本発明にあっては、映像を複数の領域に分割し、各領域のヒストグラムを目標の分布範囲に分布させるべく変換パラメタを作成し、変換パラメタを用いて色変換関数を作成し、色変換関数を合成するための合成係数を算出し、該合成係数を用いて、複数の色変換関数を合成し、合成後の色変換関数を映像に適用し、その際、複数の顔の領域に対応してそれぞれ色変換関数を作成し、複数の顔の領域に対応して作成された色変換関数を合成した色変換関数を作成することで、映像内に含まれる複数の被写体の色を適切に変換することができ、特に複数の人物を被写体として撮影された画像に対する明るさや色味を望み通りに調整することができる。 In the present invention, the image is divided into a plurality of regions, a conversion parameter is created to distribute the histogram of each region in the target distribution range, a color conversion function is created using the conversion parameter, and the color conversion function A composite coefficient is calculated for combining the image, and a plurality of color conversion functions are combined using the composite coefficient, and the combined color conversion function is applied to the video. Each color conversion function is created, and the color conversion function created by combining the color conversion functions created for multiple face areas is created to properly convert the colors of multiple subjects in the video. In particular, it is possible to adjust the brightness and color tone of an image taken with a plurality of persons as subjects, as desired.
上記映像変換装置において、前記色変換関数合成手段は、顔の領域の面積が大きいほど合成の際の重みを大きくすることを特徴とする。本発明にあっては、面積の大きい顔の領域の色の重みを大きくする。 In the video conversion apparatus, the color conversion function combining means increases the weight of the combination as the area of the face area increases. In the present invention, the color weight of the face area having a large area is increased.
上記映像変換装置において、前記色変換関数合成手段は、顔の領域から映像の中央までの距離が小さいほど合成の際の重みを大きくすることを特徴とする。本発明にあっては、映像の中央までの距離が小さい顔の領域の色の重みを大きくする。 In the video conversion apparatus, the color conversion function combining means increases the weight at the time of combining as the distance from the face region to the center of the video is smaller. In the present invention, the color weight of the face region having a small distance to the center of the video is increased.
上記映像変換装置において、前記色変換関数合成手段は、顔の領域の色が明るいほど合成の際の重みを大きくすることを特徴とする。本発明にあっては、明るい色の顔の領域の色の重みを大きくする。 In the video conversion apparatus, the color conversion function combining means increases the weight at the time of combination as the color of the face region becomes brighter. In the present invention, the color weight of the bright face area is increased.
上記映像変換装置において、前記目標範囲指定手段は、前記入力された映像の表示領域にドラッグアンドドロップされたモデル映像に基づいて前記目標の分布範囲を指定することを特徴とする。本発明にあっては、入力された映像をモデル映像に基づいて変換する。 In the video conversion apparatus, the target range designating unit designates the target distribution range based on a model video dragged and dropped onto the input video display area. In the present invention, the input video is converted based on the model video.
上記映像変換装置において、前記映像変換手段は、前記ドラッグアンドドロップで使用されたポインタの場所に応じて変換強度を変更することを特徴とする。本発明にあっては、モデル映像に基づいて映像を変換する際に、ポインタの場所に応じて変換強度を変更する。 In the video conversion apparatus, the video conversion means changes the conversion intensity according to the location of the pointer used in the drag and drop. In the present invention, when the video is converted based on the model video, the conversion strength is changed according to the location of the pointer.
上記映像変換装置において、前記映像変換手段は、前記ドラッグアンドドロップで使用されたポインタの周辺部のみを変換することを特徴とする。本発明にあっては、モデル映像に基づいて映像を変換する際に、ポインタの周辺部のみを変換する。 In the video conversion apparatus, the video conversion means converts only a peripheral portion of a pointer used in the drag and drop. In the present invention, when the video is converted based on the model video, only the peripheral portion of the pointer is converted.
上記映像変換装置において、前記映像変換手段は、前記ドラッグアンドドロップにおけるドラッグの時間の長さに応じて変換強度を変更することを特徴とする。本発明にあっては、モデル映像に基づいて映像を変換する際に、ドラッグの時間の長さに応じて変換強度を変更する。 In the video conversion apparatus, the video conversion means changes the conversion strength in accordance with a drag time length in the drag and drop. In the present invention, when converting the video based on the model video, the conversion intensity is changed according to the length of the drag time.
上記映像変換装置において、前記映像変換手段は、前記ドラッグアンドドロップのドロップの際のポインタの位置から最も近くに位置する顔の領域を変換の対象とすることを特徴とする。本発明にあっては、モデル映像に基づいて映像を変換する際に、ポインタの位置から最も近くに位置する顔の領域を変換の対象とする。 In the video conversion apparatus, the video conversion means uses a face region located closest to a pointer position when the drag-and-drop is performed as a conversion target. In the present invention, when a video is converted based on the model video, the face area located closest to the position of the pointer is set as a conversion target.
第2の本発明に係る映像変換方法は、映像変換装置により行う映像変換方法であって、入力された映像を記憶手段に記憶させるステップと、前記映像を読み出し、複数の領域に分割して記憶手段に記憶させるステップと、所望の色成分における前記各領域のヒストグラムを作成するステップと、前記各ヒストグラムに対して目標とする分布範囲を指定するステップと、前記各ヒストグラムを前記目標の分布範囲に分布させるように前記映像を変換するための変換パラメタを作成するステップと、前記変換パラメタを用いて色変換関数を作成するステップと、前記色変換関数を合成するための合成係数を算出し、該合成係数を用いて、複数の前記色変換関数を合成するステップと、前記合成後の色変換関数を前記映像に適用して映像を変換するステップとを有し、前記色変換関数を作成するステップでは、複数の顔の領域に対応してそれぞれ色変換関数を作成し、前記色変換関数を合成するステップでは、複数の顔の領域に対応して作成された色変換関数を合成した色変換関数を作成することを特徴とする。 A video conversion method according to a second aspect of the present invention is a video conversion method performed by a video conversion device, the step of storing an input video in a storage means, and the video is read out and divided into a plurality of areas and stored. Means for storing, a step of creating a histogram of each region in a desired color component, a step of designating a target distribution range for each histogram, and each histogram as the target distribution range Creating a conversion parameter for converting the video to be distributed, creating a color conversion function using the conversion parameter, calculating a synthesis coefficient for synthesizing the color conversion function, A step of combining a plurality of the color conversion functions using a combination coefficient, and converting the image by applying the combined color conversion function to the image In the step of creating the color conversion function, a color conversion function is created for each of a plurality of face regions, and in the step of synthesizing the color conversion function, a plurality of face regions are handled. A color conversion function obtained by synthesizing the color conversion functions generated in this way is created.
第3の本発明に係る映像変換プログラムは、入力された映像を記憶手段に記憶させる処理と、前記映像を読み出し、複数の領域に分割して記憶手段に記憶させる処理と、所望の色成分における前記各領域のヒストグラムを作成する処理と、前記各ヒストグラムに対して目標とする分布範囲を指定する処理と、前記各ヒストグラムを前記目標の分布範囲に分布させるように前記映像を変換するための変換パラメタを作成する処理と、前記変換パラメタを用いて色変換関数を作成する処理と、前記色変換関数を合成するための合成係数を算出し、該合成係数を用いて、複数の前記色変換関数を合成する処理と、前記合成後の色変換関数を前記映像に適用して映像を変換する処理とをコンピュータに実行させ、前記色変換関数を作成する処理では、複数の顔の領域に対応してそれぞれ色変換関数を作成させ、前記色変換関数を合成する処理では、複数の顔の領域に対応して作成された色変換関数を合成した色変換関数を作成させることを特徴とする。 According to a third aspect of the present invention, there is provided a video conversion program, a process for storing an input video in a storage unit, a process for reading the video, dividing it into a plurality of areas and storing it in a storage unit, and a desired color component A process for creating a histogram for each region; a process for specifying a target distribution range for each histogram; and a conversion for converting the video so that each histogram is distributed in the target distribution range. A process for creating a parameter, a process for creating a color conversion function using the conversion parameter, a synthesis coefficient for synthesizing the color conversion function, and a plurality of the color conversion functions using the synthesis coefficient In the process of creating the color conversion function by causing the computer to execute the process of combining the image and the process of converting the image by applying the combined color conversion function to the image, In the process of creating color conversion functions corresponding to a number of face areas and synthesizing the color conversion functions, a color conversion function is created by synthesizing color conversion functions created corresponding to a plurality of face areas. It is characterized by making it.
本発明によれば、映像内に含まれる複数の被写体の色を適切に変換することができ、特に複数の人物を被写体として撮影された画像に対する明るさや色味を望み通りに調整することができる。 According to the present invention, it is possible to appropriately convert the colors of a plurality of subjects included in an image, and in particular, it is possible to adjust the brightness and color tone of an image shot using a plurality of persons as subjects. .
[第1の実施の形態]
図1は、第1の実施の形態に係る映像変換装置の全体的な構成を示すブロック図である。同図に示すように、映像変換装置は、入力装置1、中央処理制御装置2、記憶装置3を有する。入力装置1は、映像信号入力部11、シャッター入力部12、目標分布選択部13を有し、中央処理制御装置2は、フレーム抽出部21、領域分割部22、RGB変換パラメタ作成部23、目標RGB分布作成部24、RGB変換関数作成部25、変換LUT(ルックアッフ゜テーフ゛ル)作成部26、映像変換部27、RGB変換関数合成部28を有し、記憶装置3は、各部が出力する情報を記憶する記憶部の他、RGB分布記憶部31、変換LUT記憶部32を有する。
[First Embodiment]
FIG. 1 is a block diagram showing the overall configuration of the video conversion apparatus according to the first embodiment. As shown in the figure, the video conversion device includes an
本映像変換装置は、専用のハードウェアとして構成してもよいし、汎用的なコンピュータを用いて構成し、各部の処理をコンピュータプログラムによって実行させるようにしてもよい。尚、各部が処理した結果は、記憶部に読み出し可能に記憶される。 The video conversion apparatus may be configured as dedicated hardware, or may be configured using a general-purpose computer so that the processing of each unit is executed by a computer program. The results processed by each unit are stored in the storage unit so as to be readable.
映像信号入力部11は、映像信号が入力されると、これをフレーム抽出部21と映像変換部27に出力する。ここでは、映像信号入力部11が出力する映像を入力映像と呼ぶ。
When the video signal is input, the video
本実施形態で扱う入力映像は、複数のフレームによって構成される動画であり、各フレームは、複数のピクセルによって構成される静止画像である。入力映像の幅をwidth、高さをheightで表すと、各フレームは、width×height個のピクセルによって構成される。各ピクセルは、RGBカラーモデルで色を表現するデータであり、フレームにおけるx座標値とy座標値とR値とG値とB値によって構成され、x座標値は1以上width以下の整数値であり、y座標値は1以上height以下の整数値であり、R値とG値とB値はそれぞれ0以上255以下の整数値である。 The input video handled in the present embodiment is a moving image composed of a plurality of frames, and each frame is a still image composed of a plurality of pixels. When the width of the input video is represented by width and the height is represented by height, each frame is composed of width × height pixels. Each pixel is data representing a color in the RGB color model, and is composed of an x coordinate value, a y coordinate value, an R value, a G value, and a B value in the frame. The x coordinate value is an integer value of 1 or more and width or less. Yes, the y-coordinate value is an integer value between 1 and height, and the R value, G value, and B value are integer values between 0 and 255, respectively.
目標分布選択部13では、ユーザが選択した目標RGB分布名を目標RGB分布作成部24に出力する。
The target
目標RGB分布作成部24は、目標RGB分布名とRGB分布情報群が入力され、目標RGB分布情報を作成し、作成された目標RGB分布情報はRGB変換パラメタ作成部23に出力される。なお、RGB分布情報群は、RGB分布記憶部31から読み出すことで入力される。
The target RGB
シャッター入力部12は、ユーザによりシャッター操作が行われると、フレーム抽出部21にシャッター操作を伝えるシャッター信号を出力する。
When a shutter operation is performed by the user, the
フレーム抽出部21は、映像信号とシャッター信号が入力され、静止画像を出力する。フレーム抽出部21が出力する静止画像は入力映像から取り出した1フレームの静止画像である。
The
領域分割部22は、入力映像を複数の対象物の領域に分割する。
The
RGB変換パラメタ作成部23は、R成分・G成分・B成分における各領域のヒストグラムを作成すると共に目標RGB分布作成部24が出力する目標値を入力として受け取り、RGB変換パラメタを作成する。
The RGB conversion
RGB変換関数作成部25は、RGB変換パラメタが入力され、R成分・G成分・B成分のヒストグラムがRGB変換パラメタに合致する分布範囲となるように各ヒストグラムに対応したR変換関数とG変換関数とB変換関数とを作成する。
The RGB conversion
領域分割部22は、静止画像が入力され、領域情報群を出力する。領域情報群は、複数の領域情報によって構成され、各領域情報は領域名Rと領域集合RegionR によって構成される。ピクセルpのx座標値をxp 、y座標値をyp とすると領域集合RegionR は
と表される。領域分割部22では、静止画像の被写体が人物である場合は、全体領域情報と顔領域情報と黒目領域情報を検出してもよい。或いは静止画像の被写体が物体である場合には、全体領域情報と被写体領域情報と背景領域情報を検出してもよい。以下では被写体が人物である場合に、全体領域情報と顔領域情報と黒目領域情報を検出するときの例について説明する。
It is expressed. The
ここでは、全体領域情報は領域名WHOLEと全体領域集合RegionWHOLEによって構成され、顔領域集合は領域名FACEと顔領域集合RegionFACEによって構成され、黒目領域集合は領域名EYEと黒目領域集合RegionEYEによって構成されるものとする。なお、全体領域集合RegionWHOLEとは、入力された静止画像に含まれるすべてのピクセルを含む集合である。 Here, the whole area information is composed of the area name WHOLE and the whole area set Region WHOLE , the face area set is composed of the area name FACE and the face area set Region FACE , and the black eye area set is the area name EYE and the black eye area set Region EYE. It shall be comprised by. The whole region set Region WHOLE is a set including all pixels included in the input still image.
図2は、顔領域情報と黒目領域情報を検出し、入力映像を顔領域と黒目領域に分割するための領域分割部22の構成を示すブロック図である。領域分割部22は、画像スケール変換部221と、検出対象領域切出部222と、空間周波数分析部223と、顔候補判定部224と、肌領域抽出部226と、黒目領域抽出部227と、によって構成される。
FIG. 2 is a block diagram showing a configuration of the
領域分割部22における顔候補の選択はHaar型の特徴量を用い、AdaBoost学習法、及びカスケード構造検出器による方法を用いる(例えば、特開2006−293720号公報参照)。
Selection of face candidates in the
検出対象領域切出部222では、スケール変換された画像から既定のサイズの領域の切り出しを行う。ただし、ここで扱う領域の形状は、任意形状であってよいものとする。
The detection target
空間周波数分析部223では、切り出された領域に対し空間周波数フィルタリングを行う。例えば、AdaBoost学習法、及びカスケード検出器構造をもつ、Haar型の特徴量検出による手法を用いてもよい。
The spatial
顔候補判定部224では、空間周波数分析部223の出力値をもとに、領域が顔領域候補となり得るかを判定する。
The face
肌領域抽出部226では、顔領域候補を入力として顔領域集合RegionFACEを出力する。顔領域集合RegionFACEは、顔領域候補内に含まれるピクセルのうち、ピクセルの色が肌色であるものによって構成される。すなわちRegionFACEは、ピクセルpのx座標値をxp 、y座標値をyp 、R値をrp、G値をgp 、B値をbp とすると
と表される。なお、肌色として扱うRGB値は予め設定してあるものとする。例えばYUVカラーモデルにおいてCb 値が−40以上−20以下でありCb 値が15以上35以下の値を肌色とするなどの手法を用いる。 It is expressed. Note that the RGB values handled as skin color are set in advance. For example, in the YUV color model, a method is used in which the Cb value is -40 or more and -20 or less and the Cb value is 15 or more and 35 or less as skin color.
黒目領域抽出部227では、顔領域候補を入力として黒目領域集合RegionEYEを出力する。黒目領域集合RegionEYEは、顔領域候補内に含まれるピクセルのうち、輝度値が低いピクセルによって構成される。より具体的には顔領域候補内に含まれるピクセルのうち輝度値の低い順に1%のピクセル群を黒目領域集合とする。図3は、領域分割部22で人の顔を検出する際の処理の一例を示す図である。
The black eye
なお、顔領域集合RegionFACE及び黒目領域集合RegionEYEは一つの顔領域候補に対してそれぞれ一つずつ作成する。以下では、まず顔領域候補が一つのみであった場合の処理方法について説明する。 One face area set Region FACE and one black eye area set Region EYE are created for each face area candidate. Hereinafter, a processing method when there is only one face area candidate will be described.
目標RGB分布作成部24は、目標RGB分布名とRGB分布情報群が入力され、目標RGB分布情報を出力する。RGB分布情報群はRGB分布記憶部31より読み出される。RGB分布情報群は複数のRGB分布情報によって構成され、各RGB分布情報はRGB分布名を持ち、複数のRGB分布レコードによって構成される。図4は、RGB分布情報の一例を示す図である。各RGB分布レコードはレコード番号と領域名と累積割合値と目標色によって構成される。ここで累積割合値0以上1以下の少数値である。
The target RGB
本実施形態において扱う色成分について説明すると、Luminance(輝度:YCb CrカラーモデルにおけるY成分)、Cb(YCbCrカラーモデルにおけるCb成分)、Cr(YCbCrカラーモデルにおけるCr成分)、墨(CMYKカラーモデルにおけるK成分)、レッド(RGBカラーモデルにおけるR成分)、グリーン(RGBカラーモデルにおけるG成分)、ブルー(RGBカラーモデルにおけるB成分)、色相(HSVカラーモデルにおけるH成分)、彩度(HSVカラーモデルにおけるS成分)、明度(HSVカラーモデルにおけるV成分)の10種類であり、全ての色成分において最小値は0、最大値は255とする。 The color components handled in this embodiment will be described. Luminance (luminance: Y component in the YCbCr color model), Cb (Cb component in the YCbCr color model), Cr (Cr component in the YCbCr color model), black (in the CMYK color model) K component), red (R component in RGB color model), green (G component in RGB color model), blue (B component in RGB color model), hue (H component in HSV color model), saturation (HSV color model) S component) and brightness (V component in the HSV color model), and the minimum value is 0 and the maximum value is 255 in all color components.
RGB変換パラメタ作成部23は静止画像と領域情報群と目標RGB分布情報が入力され、RGB変換パラメタを作成し、出力する。RGB変換パラメタは、以下の手順によって作成される。
The RGB conversion
まず、色成分Componentにおけるピクセルpの色値を返す色値算出関数を
とする。ここでg(Component,p,x)を
と定義すると、ピクセルの集合Pにおいて領域集合RegionR にも含まれるピクセルpを取り出したとき、色成分Componentにおけるピクセルpの色値がxとなる確率、すなわちcolor(p,Component)=xとなる確率を表す確率密度関数(ヒストグラム関数)frequency(P,RegionR,Component,x)は
と定義される。 Is defined.
例えば、画像全体領域情報(領域名WHOLE、領域集合RegionWHOLE)と、顔領域情報(領域名FACE、領域集合RegionFACE)と、黒目領域情報(領域名EYE、領域集合RegionEYE)との領域情報があったとしたとき、ある画像を表すピクセルの集合をPyとし、輝度の色成分をYとすると、全体領域の輝度のヒストグラムは、frequency(Py,RegionWHOLE,Y,x)と表され、同様に顔領域の輝度のヒストグラムは、frequency(P,RegionFACE,Y,x)と表され、黒目領域の輝度のヒストグラムは、frequency(P,RegionEYE,Y,x)と表される。 For example, region information of whole image region information (region name WHOLE, region set Region WHOLE ), face region information (region name FACE, region set Region FACE ), and black eye region information (region name EYE, region set Region EYE ) If the set of pixels representing an image is Py and the luminance color component is Y, the luminance histogram of the entire area is expressed as frequency (Py, Region WHOLE , Y, x). In addition, the luminance histogram of the face region is represented as frequency (P, Region FACE , Y, x), and the luminance histogram of the black eye region is represented as frequency (P, Region EYE , Y, x).
また、色成分Componentのヒストグラムを表す確率密度関数frequency(P,RegionR,Component,x)から導き出される累積分布関数cumulative(P,RegionR,Component,x)は
と表される。 It is expressed.
確率密度関数が図5の曲線で表されたとすると、その累積分布関数は、図6のように表される曲線となる。さらに、累積分布関数のxに関する逆関数は
と表される。ただし、ここで、yはy=cumulative(P,RegionR,Component,x)の関係を満たす値である。 It is expressed. Here, y is a value satisfying the relationship y = cumulative (P, Region R , Component, x).
ここで、制御値算出関数control(P,RegionR,Component,A)を前記累積分布関数cumulativeを用いて下記のように定義する。
ただし、ここでは入力された静止画像に含まれるピクセルの集合をP、目標のRGB分布レコードにおける領域名をR、静止画像を領域分割して作成した領域名Rに対応する領域集合をRegionR、色成分をComponent、累積割合値をAとしている。 However, here, the set of pixels included in the input still image is P, the region name in the target RGB distribution record is R, the region set corresponding to the region name R created by dividing the still image into regions is Region R , The color component is Component, and the cumulative ratio value is A.
この制御値算出関数を累積割合値Aに適用することによって、図7に示されるように、
より、累積割合値Aに対応する制御値Cが算出される。 Thus, the control value C corresponding to the cumulative ratio value A is calculated.
また、制御値数列{Ck}k=1,2,…,n(ただしC1≦C2≦…≦Cn)と、目標値数列{Tk}k=1,2,…,nを用いて、色値xの変換を行う色変換関数convert({Ck}k=1,2,…,n,{Tk}k=1,2,…,n,x)を
と定義する。 It is defined as
ここで、例えば静止画像の輝度ヒストグラムが図9のように分布しており、制御値{C1,C2,C3,C4}と目標値{T1,T2,T3,T4}が図のように定められていたとすると、色変換関数convert({C1,C2,C3,C4),{T1,T2,T3,T4},x)を適用して輝度値の変換を行った後のヒストグラムは図10のようになる。同図に示すように、色変換関数は制御値と目標値が合致するようにヒストグラムを変換する。 Here, for example, a luminance histogram of a still image is distributed as shown in FIG. 9, and control values {C1, C2, C3, C4} and target values {T1, T2, T3, T4} are determined as shown in the figure. Assuming that the luminance value is converted by applying the color conversion function convert ({C1, C2, C3, C4), {T1, T2, T3, T4}, x), the histogram is as shown in FIG. become. As shown in the figure, the color conversion function converts the histogram so that the control value matches the target value.
ここで図11に示すように各目標RGB分布レコードに対して目標色のR値をR目標値、G値をG目標値、B値をB目標値として設定する。 Here, as shown in FIG. 11, the R value of the target color is set as the R target value, the G value as the G target value, and the B value as the B target value for each target RGB distribution record.
また、静止画像のピクセルの集合をP、ある目標RGB分布レコードRecordの領域名をAREA、累積割合値をAとすると、制御値算出関数controlを用いて、R制御値CRは
と算出され、全目標RGB分布レコードについて制御値を算出することでR制御値列{CR,k}k=1,2,…,n(ただしCR,1≦CR,2≦…≦CR,n)を算出できる。 R control value sequence {C R, k } k = 1, 2,..., N (where C R, 1 ≦ C R, 2 ≦ ... ≦) by calculating control values for all target RGB distribution records. C R, n ) can be calculated.
同様に、RecordのG制御値CGは
と算出され、G制御値列{CG,k}k=1,2,…,nが算出できる。 And the G control value sequence {C G, k } k = 1, 2,..., N can be calculated.
また、RecordのB制御値CBは
と算出され、B制御値列{CB,k}k=1,2,…,nが算出できる。 And B control value sequence {C B, k } k = 1, 2,..., N can be calculated.
RGB変換関数作成部25は、RGB変換パラメタが入力され、R変換関数、G変換関数、B変換関数を出力する。
The RGB conversion
ここで、R制御値列{CR,k}k=1,2,…,n(ただしCR,1≦CR,2≦…≦CR,n)と、R目標値列{TR,k}k=1,2,…,nを用いてR値の変換を行うR変換関数convertR(x)を
と定義し、G制御値列{CG,k}k=1,2,…,nと、G目標値列{TG,k}k=1,2,…,nを用いてG値の変換を行うG変換関数convertG(x)を
B制御値列{CB,k}k=1,2,…,nと、B目標値列{TB,k}k=1,2,…,nを用いてB値の変換を行うB変換関数convertB(x)を
と定義する。 It is defined as
RGB変換関数作成部25は、上記のR変換関数convertR(x)とG変換関数convertG(x)とB変換関数convertB(x)を出力する。
The RGB conversion
以上の処理は領域分割部22において顔領域候補が一つのみであった場合のRGB変換関数作成手順であるが、顔領域候補がN個(Nは2以上の整数)存在した場合はRGB変換関数合成部28においてN個のR変換関数、G変換関数、B変換関数をそれぞれ合成し、合成後のR変換関数(以下、R変換合成関数)、合成後のG変換関数(以下、G変換合成関数)、合成後のB変換関数(以下、B変換合成関数)を作成し、出力する。
The above processing is a procedure for creating an RGB conversion function when there is only one face area candidate in the
図12は、RGB変換関数合成部28で3人の顔を検出した際に合成関数を作成する場合の例を示す図である。
FIG. 12 is a diagram illustrating an example in which a synthesis function is created when three faces are detected by the RGB conversion
まず、0≦n<Nとし、n番目の顔領域候補に対応する合成係数算出関数synth(n)を定義する。例えば全ての被写体について重みを均等にする場合は
とする。あるいは顔の大きさが大きいほど重みを大きくする場合はn番目の顔領域候補の面積をfaceSize(n)として、
とする。ここでCは定数である。 And Here, C is a constant.
また、逆に小さい顔ほど重みを大きくすることで子供の顔を重視することもできる。その場合は例えば
とする。ここで定数Cは例えばfaceSize(n)の最大値などを利用する。 And Here, the constant C uses, for example, the maximum value of faceSize (n).
また、映像の中心寄りの顔の重みを大きくする場合は映像の中心座標から検出された顔の中央の座標へのユークリッド距離をfaceDistance(n)として定数Cを用いて
とする。 And
あるいは検出した顔領域の色情報を利用することも可能であり、例えば顔領域内のピクセルのRGB値の平均値を算出し、その輝度値をskinLuminance(n)として定数Cを用いて
とすることで明るい肌色の重みを大きくすることが可能であり、男性の重みを小さく、女性の重みを大きくすることができる。 By doing so, it is possible to increase the weight of light skin color, to decrease the weight of men, and to increase the weight of women.
以上に合成係数算出関数について複数の定義を示したが、それぞれを組み合わせて掛け合わせることで複数の効果を実現することが可能となる。例えば
とすると、中央の女性の重みを大きくすることができる。なお、CおよびDは定数である。 Then, the weight of the central woman can be increased. C and D are constants.
ここで、n番目の顔領域候補に対応するR変換関数、G変換関数、B変換関数をそれぞれ
とし、合成係数の和Sを
として、R変換合成関数convertSynthR(x)、G変換合成関数convertSynthG(x)、B変換合成関数convertSynthB(x)をそれぞれ
として出力する。 Output as.
変換LUT作成部26は、R変換合成関数とG変換合成関数とB変換合成関数を入力として、R変換LUTとG変換LUTとB変換LUTを出力する。具体的には、値として取り得る全てのR値、G値、B値に対して、それぞれR変換関数、G変換関数、B変換関数を適用した値が対応する図13に示すようなLUTを作成し、変換LUT記憶部32に記憶させる。
The conversion
映像変換部27は、入力映像と色変換LUTを入力として変換映像を出力する。具体的には、入力映像の各フレームの各ピクセルについて色変換LUTを参照してR値、G値、B値を変換して変換フレームを作成し、作成した変換フレームを順次出力することで最終的な変換映像を出力する。
The
(実施例)
ここで、図12を参照し、RGB変換関数合成部28で3人の顔を検出した際に合成関数を作成する場合の処理を説明する。
(Example)
Here, with reference to FIG. 12, a process for creating a synthesis function when the RGB conversion
領域分割部22は、入力画像から3人の各顔の領域を検出する。RGB変換関数作成部25は、各人について、R変換関数convertR(x)とG変換関数convertG(x)とB変換関数convertB(x)を作成する。RGB変換関数合成部28は、合成係数を算出する。RGB変換関数合成部28は、合成係数を用いて、各R変換関数convertR(x)を合成し、合成後のR変換関数convertR(x)を得る。RGB変換関数合成部28は、合成係数を用いて、各G変換関数convertG(x)を合成し、合成後のG変換関数convertG(x)を得る。RGB変換関数合成部28は、合成係数を用いて、各B変換関数convertB(x)を合成し、合成後のB変換関数convertB(x)を得る。
The
以上説明したように、第1の実施の形態によれば、映像内に含まれる複数の被写体の色を適切に変換でき、望み通りの色に調整することができる。特に複数の人物を被写体として撮影された画像に対する明るさや色味を望み通りに調整することができる。 As described above, according to the first embodiment, the colors of a plurality of subjects included in a video can be appropriately converted and adjusted to a desired color. In particular, it is possible to adjust the brightness and color of an image taken with a plurality of persons as subjects as desired.
次に、本発明の第2の実施の形態について説明する。なお、基本的な構成および動作は、第1の実施の形態と同様であり、ここでは差異を中心に説明する。 Next, a second embodiment of the present invention will be described. Note that the basic configuration and operation are the same as those in the first embodiment, and here, differences will be mainly described.
[第2の実施の形態]
図14は、第2の実施の形態に係る映像変換装置の全体的な構成を示すブロック図である。同図に示すように、映像変換装置は、入力装置1、中央処理制御装置2、記憶装置3を有する。入力装置1は、映像信号入力部11、モデル映像入力部14、目標分布選択部13を有し、中央処理制御装置2は、フレーム抽出部21、領域分割部22、RGB変換パラメタ作成部23、目標RGB分布作成部24、RGB変換関数作成部25、変換LUT(ルックアッフ゜テーフ゛ル)作成部26、映像変換部27、RGB変換関数合成部28を有し、記憶装置3は、各部が出力する情報を記憶する記憶部の他、分布特徴記憶部33、変換LUT記憶部32を有する。
[Second Embodiment]
FIG. 14 is a block diagram illustrating an overall configuration of a video conversion apparatus according to the second embodiment. As shown in the figure, the video conversion device includes an
図15は、映像変換装置の利用方法の一例を示す図である。 FIG. 15 is a diagram illustrating an example of a method of using the video conversion apparatus.
映像変換装置は、同図に示すように、ユーザがドラッグアンドドロップしたモデル映像に基づいて映像変換のための目標色を求め、目標色を利用して入力映像を変換する。 As shown in the figure, the video conversion apparatus obtains a target color for video conversion based on the model video dragged and dropped by the user, and converts the input video using the target color.
モデル映像入力部14は、入力映像の表示領域(例えば液晶表示装置における表示画面の一部)にユーザが例えばマウス(入力装置)を使用してドラッグアンドドロップしたモデル映像を受け取り、目標RGB分布作成部24に出力する。なお、ドラッグアンドドロップされたモデル映像は、例えば液晶表示装置における表示画面の一部に表示されているものである。モデル映像は静止画でもよいし、動画でもよい。また、ユーザによりモデル映像のドラッグアンドドロップ操作が行われると、モデル映像入力部14は、フレーム抽出部21にシャッター信号を出力する。
The model
目標RGB分布作成部24は、モデル映像と分布特徴情報群が入力され、目標RGB分布情報を作成し、作成された目標RGB分布情報はRGB変換パラメタ作成部23に出力されるようになっている。
The target RGB
第2の実施の形態でも、顔領域集合RegionFACE及び黒目領域集合RegionEYEは一つの顔領域候補に対してそれぞれ一つずつ作成する。顔領域候補が複数あった場合は、例えばドラッグアンドドロップの操作の際にマウスなどのボタンを離した際(ドロップの際)のポインタの位置から最も近くに位置する顔領域候補を変換の対象とする。 Also in the second embodiment, one face area set Region FACE and one black eye area set Region EYE are created for each face area candidate. If there are multiple face area candidates, for example, the face area candidate closest to the position of the pointer when the mouse or other button is released (drag) during the drag and drop operation is selected as the conversion target. To do.
目標RGB分布作成部24は、モデル映像と分布特徴情報群が入力され、目標RGB分布情報を出力する。分布特徴情報群は、分布特徴記憶部33より読み出される。
The target RGB
図16は、分布特徴情報の一例を示す図である。 FIG. 16 is a diagram illustrating an example of distribution feature information.
分布特徴情報は、複数の分布特徴レコードによって構成され、各分布特徴レコードはレコード番号と領域名と累積割合値によって構成される。ここで累積割合値は0以上1以下の小数値である。 The distribution feature information is composed of a plurality of distribution feature records, and each distribution feature record is composed of a record number, a region name, and a cumulative ratio value. Here, the cumulative ratio value is a decimal value between 0 and 1.
図4に示すように、目標RGB分布情報は、第1の実施の形態と同様に、複数のRGB分布レコードによって構成される。各RGB分布レコードはレコード番号と領域名と累積割合値と目標色によって構成される。ここで累積割合値0以上1以下の少数値である。 As shown in FIG. 4, the target RGB distribution information is composed of a plurality of RGB distribution records, as in the first embodiment. Each RGB distribution record is composed of a record number, a region name, a cumulative ratio value, and a target color. Here, the cumulative ratio value is a decimal value between 0 and 1.
ここで、モデル映像が静止画の場合の目標RGB分布情報の作成手順について説明する。 Here, a procedure for creating target RGB distribution information when the model video is a still image will be described.
モデル映像のピクセルの集合をM、ある分布特徴レコードの領域名をAREA、累積割合値をAとし、モデル映像から検出したAREAの領域をMRegionAREAとして、目標色(TR,TG,TB)を
によって求める。 Ask for.
上記手順によりモデル映像と分布特徴情報を用いて目標RGB分布情報を作成する。 The target RGB distribution information is created using the model image and the distribution feature information by the above procedure.
図4は、図16の分布特徴情報から作成された目標RGB分布情報の例である。 FIG. 4 is an example of target RGB distribution information created from the distribution feature information of FIG.
以上の手順によってモデル映像から目標RGB分布情報を作成する。また、モデル映像が動画の場合は、映像から切り出した1フレームの静止画像を用いて同様の手順によって目標RGB分布情報を作成する。 The target RGB distribution information is created from the model video by the above procedure. When the model video is a moving image, the target RGB distribution information is created by the same procedure using a still image cut out from the video.
次に、入力映像をモデル画像の色合いに近づける色変換の手順について説明する。 Next, a color conversion procedure for bringing the input video closer to the shade of the model image will be described.
上記制御値算出関数controlを用いて各分布レコードに対応して、ある色成分における制御値が算出される。例えば、あるRGB分布レコードに含まれる領域名をAREA、累積割合値をAとし、静止画像のピクセルの集合をP、静止画像から検出したAREAの領域をRegionAREAとすると、R成分における制御値は、上記制御値算出関数controlを用いて
によって算出される。また、各RGB分布レコードについて、ある色成分における目標色の値を算出することで、目標値Tが設定可能となる。各RGB分布レコードに対応して制御値及び目標値を算出した例は、第1の実施の形態と同様に、図8のようになる。 Is calculated by Further, for each RGB distribution record, a target value T can be set by calculating a target color value for a certain color component. An example in which the control value and the target value are calculated corresponding to each RGB distribution record is as shown in FIG. 8 as in the first embodiment.
その他については、第1の実施の形態と同様であり、最終的には変換された映像が出力される。 Others are the same as in the first embodiment, and finally a converted video is output.
なお、映像変換部27は、色変換LUTによる色変換の強度を調整してもよい。
Note that the
例えば、モデル映像を入力映像の表示領域にドラッグしている間に上記手順により色変換LUTを作成し、映像変換部27においてドラッグしているポインタの周辺部のみで色変換を行ってもよい。
For example, the color conversion LUT may be created by the above procedure while the model video is being dragged to the display area of the input video, and the color conversion may be performed only at the peripheral portion of the dragged pointer in the
具体的には、まず、R、G、BそれぞれのLUTをLUTr、LUTg、LUTbとして、変換強度intensityに応じて色変換調整関数convertControl(r,g,b,intensity)を
とする。 And
次に、入力映像の表示領域上におけるドラッグポインタの座標を(px,py)として、半径r1、r2(r1<r2)を用いて色変換強度算出関数convertWeightを
とし、入力映像の各ピクセルにおける変換強度を算出する。ここで、色変換調整関数convertControl(r,g,b,intensity)を利用して、座標(x,y)におけるピクセルのRGB値(r,g,b)を
によって変換することで、ポインタに近い領域ほど色変換の強度を強くして色変換を行う。 Thus, the color conversion is performed by increasing the intensity of color conversion in the region closer to the pointer.
あるいは、ドラッグしている時間の長さに応じて変換の強度を調整する場合は、ドラッグ時間をtとして定数TMAXを用いて色変換強度算出関数convertWeightを
とし、convertControl(r,g,b,convertWeight(t))によって変換を行う。 And convert by convertControl (r, g, b, convertWeight (t)).
また、ドラッグしている座標位置に応じて明るさと色味それぞれの変換強度を調整することも可能である。 It is also possible to adjust the conversion strengths of brightness and color according to the coordinate position being dragged.
x座標値に合わせて明るさの変換強度を調整し、y座標値に合わせて色合いの変換強度を調整する場合は、ドラッグポインタの座標(x,y)からそれぞれ
として明るさと色合いの変換強度算出関数を定義する。ここで、あるピクセルのRGB(r,g,b)から輝度算出関数RGBtoY(r,g,b)を用いて
によって変換前の輝度LとLUT変換後の輝度L’を算出し、色変換調整後の輝度L”を
によって算出する。また、変換前の色合い(colorR,colorG,colorB)とLUT変換後の色合い(color'R,color'G,color'B)を
によって算出し、色変換関数後の色合い(color"R,color"G,color"B)を
によって算出する。上記にて算出した色変換調整後の輝度値と色合いを用いて
によって色変換調整後のRGB値を算出する。 To calculate the RGB value after the color conversion adjustment.
以上説明したように、第2の実施の形態によれば、ドラッグアンドドロップという一般的なコンピュータ操作により選択されたモデル映像に基づいて被写体の色を適切に変換できる。また、モデル映像から数式26を使用して目標色を算出するので、第1の実施の形態のように目標色を予め記憶しておく必要がなく、利便性が高い。
As described above, according to the second embodiment, the color of a subject can be appropriately converted based on a model video selected by a general computer operation called drag and drop. Further, since the target color is calculated from the model
1…入力装置
2…中央処理制御装置
3…記憶装置
11…映像信号入力部
12…シャッター入力部
13…目標分布選択部
14…モデル映像入力部
21…フレーム抽出部
22…領域分割部
23…RGB変換パラメタ作成部
24…目標RGB分布作成部
25…RGB変換関数作成部
26…変換LUT作成部
27…映像変換部
28…RGB変換関数合成部
31…RGB分布記憶部
32…変換LUT記憶部
33…分布特徴記憶部
221…画像スケール変換部
222…検出対象領域切出部
223…空間周波数分析部
224…顔候補判定部
226…肌領域抽出部
227…黒目領域抽出部
DESCRIPTION OF
Claims (19)
前記映像を読み出し、複数の領域に分割して記憶手段に記憶させる領域分割手段と、
所望の色成分における前記各領域のヒストグラムを作成するヒストグラム作成手段と、
前記各ヒストグラムに対して目標とする分布範囲を指定する目標範囲指定手段と、
前記各ヒストグラムを前記目標の分布範囲に分布させるように前記映像を変換するための変換パラメタを作成する変換パラメタ作成手段と、
前記変換パラメタを用いて色変換関数を作成する色変換関数作成手段と、
前記色変換関数を合成するための合成係数を算出し、該合成係数を用いて、複数の前記色変換関数を合成する色変換関数合成手段と、
前記合成後の色変換関数を前記映像に適用して映像を変換する映像変換手段と
を有し、
前記色変換関数作成手段は、
複数の顔の領域に対応してそれぞれ色変換関数を作成し、
前記色変換関数合成手段は、
複数の顔の領域に対応して作成された色変換関数を合成した色変換関数を作成する
ことを特徴とする映像変換装置。 Storage means for storing the input video;
Area dividing means for reading out the video, dividing it into a plurality of areas and storing it in a storage means;
A histogram creating means for creating a histogram of each region in a desired color component;
Target range specifying means for specifying a target distribution range for each histogram;
Conversion parameter creating means for creating a conversion parameter for converting the video so that each histogram is distributed in the target distribution range;
Color conversion function creating means for creating a color conversion function using the conversion parameter;
A color conversion function synthesis means for calculating a synthesis coefficient for synthesizing the color conversion function and synthesizing a plurality of the color conversion functions using the synthesis coefficient;
Image conversion means for converting the image by applying the composite color conversion function to the image; and
The color conversion function creating means includes:
Create color conversion functions for each face area,
The color conversion function synthesis means includes:
A video conversion device that creates a color conversion function by combining color conversion functions created corresponding to a plurality of face regions.
顔の領域の面積が大きいほど合成の際の重みを大きくすることを特徴とする請求項1記載の映像変換装置。 The color conversion function synthesis means includes:
2. The video conversion apparatus according to claim 1, wherein the weight of the composition is increased as the area of the face area is larger.
顔の領域から映像の中央までの距離が小さいほど合成の際の重みを大きくすることを特徴とする請求項1記載の映像変換装置。 The color conversion function synthesis means includes:
2. The video conversion apparatus according to claim 1, wherein the weight at the time of composition is increased as the distance from the face region to the center of the video is smaller.
顔の領域の色が明るいほど合成の際の重みを大きくすることを特徴とする請求項1記載の映像変換装置。 The color conversion function synthesis means includes:
2. The video conversion apparatus according to claim 1, wherein the weight of the composition is increased as the color of the face area becomes brighter.
前記入力された映像の表示領域にドラッグアンドドロップされたモデル映像に基づいて前記目標の分布範囲を指定する
ことを特徴とする請求項1ないし4のいずれかに記載の映像変換装置。 The target range specifying means includes
5. The video conversion device according to claim 1, wherein the target distribution range is specified based on a model video dragged and dropped onto the display area of the input video.
前記ドラッグアンドドロップで使用されたポインタの場所に応じて変換強度を変更する
ことを特徴とする請求項5記載の映像変換装置。 The video conversion means includes
The video conversion apparatus according to claim 5, wherein the conversion strength is changed according to a location of the pointer used in the drag and drop.
前記ドラッグアンドドロップで使用されたポインタの周辺部のみを変換する
ことを特徴とする請求項5記載の映像変換装置。 The video conversion means includes
The video conversion apparatus according to claim 5, wherein only a peripheral portion of the pointer used in the drag and drop is converted.
前記ドラッグアンドドロップにおけるドラッグの時間の長さに応じて変換強度を変更する
ことを特徴とする請求項5記載の映像変換装置。 The video conversion means includes
The video conversion apparatus according to claim 5, wherein the conversion strength is changed according to a drag time length in the drag and drop.
前記ドラッグアンドドロップのドロップの際のポインタの位置から最も近くに位置する顔の領域を変換の対象とする
ことを特徴とする請求項5記載の映像変換装置。 The video conversion means includes
6. The video conversion apparatus according to claim 5, wherein a face area located closest to a position of a pointer at the time of the drag-and-drop is set as a conversion target.
入力された映像を記憶手段に記憶させるステップと、
前記映像を読み出し、複数の領域に分割して記憶手段に記憶させるステップと、
所望の色成分における前記各領域のヒストグラムを作成するステップと、
前記各ヒストグラムに対して目標とする分布範囲を指定するステップと、
前記各ヒストグラムを前記目標の分布範囲に分布させるように前記映像を変換するための変換パラメタを作成するステップと、
前記変換パラメタを用いて色変換関数を作成するステップと、
前記色変換関数を合成するための合成係数を算出し、該合成係数を用いて、複数の前記色変換関数を合成するステップと、
前記合成後の色変換関数を前記映像に適用して映像を変換するステップと
を有し、
前記色変換関数を作成するステップでは、
複数の顔の領域に対応してそれぞれ色変換関数を作成し、
前記色変換関数を合成するステップでは、
複数の顔の領域に対応して作成された色変換関数を合成した色変換関数を作成する
ことを特徴とする映像変換方法。 A video conversion method performed by a video conversion device,
Storing the input video in a storage means;
Reading the video, dividing it into a plurality of areas and storing it in a storage means;
Creating a histogram of each region in a desired color component;
Designating a target distribution range for each of the histograms;
Creating a conversion parameter for converting the video so that each histogram is distributed in the target distribution range;
Creating a color conversion function using the conversion parameters;
Calculating a synthesis coefficient for synthesizing the color conversion function, and using the synthesis coefficient to synthesize a plurality of the color conversion functions;
Applying the combined color conversion function to the video and converting the video;
In the step of creating the color conversion function,
Create color conversion functions for each face area,
In the step of synthesizing the color conversion function,
A video conversion method characterized by creating a color conversion function by combining color conversion functions created corresponding to a plurality of face regions.
顔の領域の面積が大きいほど合成の際の重みを大きくすることを特徴とする請求項10記載の映像変換方法。 In the step of synthesizing the color conversion function,
11. The video conversion method according to claim 10, wherein the weight at the time of composition is increased as the area of the face region is larger.
顔の領域から映像の中央までの距離が小さいほど合成の際の重みを大きくすることを特徴とする請求項10記載の映像変換方法。 In the step of synthesizing the color conversion function,
11. The video conversion method according to claim 10, wherein the weight at the time of composition is increased as the distance from the face region to the center of the video is smaller.
顔の領域の色が明るいほど合成の際の重みを大きくすることを特徴とする請求項10記載の映像変換方法。 In the step of synthesizing the color conversion function,
11. The video conversion method according to claim 10, wherein the weight in the composition is increased as the color of the face region is brighter.
前記入力された映像の表示領域にドラッグアンドドロップされたモデル映像に基づいて前記目標の分布範囲を指定する
ことを特徴とする請求項10ないし13のいずれかに記載の映像変換方法。 In the step of specifying the target distribution range,
The video conversion method according to any one of claims 10 to 13, wherein the target distribution range is specified based on a model video dragged and dropped onto the display area of the input video.
前記ドラッグアンドドロップで使用されたポインタの場所に応じて変換強度を変更する
ことを特徴とする請求項14記載の映像変換方法。 In the step of converting the video,
The video conversion method according to claim 14, wherein the conversion intensity is changed according to a location of a pointer used in the drag and drop.
前記ドラッグアンドドロップで使用されたポインタの周辺部のみを変換する
ことを特徴とする請求項14記載の映像変換方法。 In the step of converting the video,
The video conversion method according to claim 14, wherein only a peripheral portion of the pointer used in the drag and drop is converted.
前記ドラッグアンドドロップにおけるドラッグの時間の長さに応じて変換強度を変更する
ことを特徴とする請求項14記載の映像変換方法。 In the step of converting the video,
The video conversion method according to claim 14, wherein the conversion intensity is changed according to a drag time length in the drag and drop.
前記ドラッグアンドドロップのドロップの際のポインタの位置から最も近くに位置する顔の領域を変換の対象とする
ことを特徴とする請求項14記載の映像変換方法。 In the step of converting the video,
The video conversion method according to claim 14, wherein the face area located closest to the position of the pointer at the time of the drag-and-drop drop is a conversion target.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009009862A JP2010154484A (en) | 2008-11-18 | 2009-01-20 | Device, method and program for video conversion |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008294789 | 2008-11-18 | ||
JP2009009862A JP2010154484A (en) | 2008-11-18 | 2009-01-20 | Device, method and program for video conversion |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010154484A true JP2010154484A (en) | 2010-07-08 |
Family
ID=42572980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009009862A Pending JP2010154484A (en) | 2008-11-18 | 2009-01-20 | Device, method and program for video conversion |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010154484A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013138407A (en) * | 2011-11-30 | 2013-07-11 | Ricoh Co Ltd | Image processor, image processing system, image processing method, program and storage medium |
JP2017518694A (en) * | 2014-05-14 | 2017-07-06 | セラビジョン、アクチボラグCella Vision Ab | Image conversion based on classification |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000207570A (en) * | 1999-01-18 | 2000-07-28 | Canon Inc | Device and method for extracting contour line and storage medium |
JP2001251530A (en) * | 1999-12-27 | 2001-09-14 | Fuji Photo Film Co Ltd | Image processing method, image processor and recording medium |
JP2005051407A (en) * | 2003-07-31 | 2005-02-24 | Canon Inc | Image processing method and device |
JP2005080239A (en) * | 2003-09-03 | 2005-03-24 | Olympus Corp | Image display program, image display device and image display method |
JP2007194683A (en) * | 2006-01-17 | 2007-08-02 | Fuji Xerox Co Ltd | Color adjustment method, color adjustment apparatus, and color adjustment program |
JP2007249802A (en) * | 2006-03-17 | 2007-09-27 | Noritsu Koki Co Ltd | Image processor and image processing method |
JP2007281858A (en) * | 2006-04-06 | 2007-10-25 | Omron Corp | Animation editing device |
-
2009
- 2009-01-20 JP JP2009009862A patent/JP2010154484A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000207570A (en) * | 1999-01-18 | 2000-07-28 | Canon Inc | Device and method for extracting contour line and storage medium |
JP2001251530A (en) * | 1999-12-27 | 2001-09-14 | Fuji Photo Film Co Ltd | Image processing method, image processor and recording medium |
JP2005051407A (en) * | 2003-07-31 | 2005-02-24 | Canon Inc | Image processing method and device |
JP2005080239A (en) * | 2003-09-03 | 2005-03-24 | Olympus Corp | Image display program, image display device and image display method |
JP2007194683A (en) * | 2006-01-17 | 2007-08-02 | Fuji Xerox Co Ltd | Color adjustment method, color adjustment apparatus, and color adjustment program |
JP2007249802A (en) * | 2006-03-17 | 2007-09-27 | Noritsu Koki Co Ltd | Image processor and image processing method |
JP2007281858A (en) * | 2006-04-06 | 2007-10-25 | Omron Corp | Animation editing device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013138407A (en) * | 2011-11-30 | 2013-07-11 | Ricoh Co Ltd | Image processor, image processing system, image processing method, program and storage medium |
JP2017518694A (en) * | 2014-05-14 | 2017-07-06 | セラビジョン、アクチボラグCella Vision Ab | Image conversion based on classification |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3880553B2 (en) | Image processing method and apparatus | |
JP5205968B2 (en) | Gradation correction method, gradation correction apparatus, gradation correction program, and image device | |
JP5397059B2 (en) | Image processing apparatus and method, program, and recording medium | |
US7466868B2 (en) | Determining parameters for adjusting images | |
JP2009038523A (en) | Unit and method for processing image | |
JP5235759B2 (en) | Image processing apparatus, image processing method, and program | |
JP2005277981A (en) | Target image selection for image processing | |
JP3673092B2 (en) | Image quality adjusting apparatus, image quality adjusting method, and recording medium recording image adjusting program | |
JP2008072604A (en) | Image processing system, apparatus, medium, and program | |
JP2007087123A (en) | Image correction method, device and program | |
JP2003309859A (en) | Image processing apparatus, image processing method, and image processing program | |
JP2014078808A (en) | Image processing apparatus and image processing method | |
JP2007042033A (en) | Color correction apparatus and image display device | |
JP2010154484A (en) | Device, method and program for video conversion | |
JP5203159B2 (en) | Image processing method, image processing system, and image processing program | |
JP2006114006A (en) | Gradation conversion apparatus, program, electronic camera, and method therefor | |
JP2002140700A (en) | Method and device for processing color image | |
JP2012083848A (en) | Image processing device, image processing method, imaging device, and image processing program | |
JP2008294969A (en) | Video image conversion apparatus, method, and program | |
JP2007243987A (en) | Image processing method, image processing system, and image processing program | |
JP5069599B2 (en) | Video conversion apparatus, video conversion method, and video conversion program | |
JP5227651B2 (en) | Video conversion apparatus, video conversion method, and video conversion program | |
JP2008312177A (en) | Apparatus, method and program, for converting gradation of video image | |
JP4838224B2 (en) | Gradation conversion device and method, program | |
JP2007158446A (en) | Image processor, image processing method and program, recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110114 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20120509 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20120511 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120918 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121127 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130709 |