JP2010154484A - Device, method and program for video conversion - Google Patents

Device, method and program for video conversion Download PDF

Info

Publication number
JP2010154484A
JP2010154484A JP2009009862A JP2009009862A JP2010154484A JP 2010154484 A JP2010154484 A JP 2010154484A JP 2009009862 A JP2009009862 A JP 2009009862A JP 2009009862 A JP2009009862 A JP 2009009862A JP 2010154484 A JP2010154484 A JP 2010154484A
Authority
JP
Japan
Prior art keywords
video
conversion
color
color conversion
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009009862A
Other languages
Japanese (ja)
Inventor
Kenji Hara
謙治 原
Atsuhiko Maeda
篤彦 前田
Hiroto Inagaki
博人 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009009862A priority Critical patent/JP2010154484A/en
Publication of JP2010154484A publication Critical patent/JP2010154484A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To suitably convert colors of a plurality of subjects contained in a video. <P>SOLUTION: An area division unit 22 divides the video into areas of a plurality of objects, and an RGB conversion parameter generation unit 23 generates histograms of the respective areas to generate RGB conversion parameters for distributing the histograms of the respective areas to a target distribution range. An RGB conversion function generation unit 25 generates color conversion functions by using the RGB conversion parameters. An RGB conversion function composition unit 28 calculates a composition coefficient for synthesizing color conversion function, and synthesizes a color conversion function of a plurality of color conversion functions by using the composition coefficient. A video conversion unit 27 applies the synthesized color conversion function to the video. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、映像の階調を自動で変換する技術に関するものであり、特に、デジタル映像処理装置において、入力された映像の階調を変換する技術に関する。   The present invention relates to a technique for automatically converting the gradation of an image, and more particularly to a technique for converting the gradation of an input image in a digital image processing apparatus.

映像のヒストグラムは、映像内の各ピクセルに対する明暗値の分布を示したものである。コントラストストレッチングは、明暗値の分布が偏った画像について明暗値を低い値から高い値まで広く分布させることによって映像のコントラストを向上させる手法である。コントラストストレッチングを通して暗すぎる映像は明るくなり、明るすぎる映像は暗くなって適当な明暗値を維持する。すなわち、映像の輝度値分布を修正することによって、映像の全体的なコントラストバランスが改善される。   The histogram of the video shows the distribution of light and dark values for each pixel in the video. Contrast stretching is a technique for improving the contrast of an image by widely distributing the light and dark values from a low value to a high value for an image with a skewed light and dark value distribution. Through contrast stretching, an image that is too dark becomes brighter, and an image that is too bright becomes darker to maintain an appropriate brightness value. That is, the overall contrast balance of the video is improved by correcting the luminance value distribution of the video.

図17は、従来のコントラストストレッチング装置の構成を示すブロック図である。同図に示すように、従来のコントラストストレッチング装置は、分布計算部42及びストレッチング部43を有する。   FIG. 17 is a block diagram showing a configuration of a conventional contrast stretching apparatus. As shown in the figure, the conventional contrast stretching apparatus has a distribution calculation unit 42 and a stretching unit 43.

分布計算部42は、入力された映像から明暗値を計数してヒストグラム値またはヒストグラム関数を求める。目標値入力部は目標最低値と目標最高値とが入力され、入力された値をストレッチング部43に出力する。ストレッチング部43は、分布計算部42で求めたヒストグラム関数を用いて最低値と最高値を有する明暗値を求め、入力映像の明度の最低値と最高値が目標分布入力部に入力された目標最低値と目標最高値とに一致するようにヒストグラムを変換する。ストレッチング部43の処理において、目標最低値が0であり、目標最高値が255であれば、映像は0から255までの明暗値を有し映像のコントラストが増加する。   The distribution calculation unit 42 counts the brightness value from the input video to obtain a histogram value or a histogram function. The target value input unit receives the target minimum value and the target maximum value, and outputs the input values to the stretching unit 43. The stretching unit 43 obtains a light / dark value having a minimum value and a maximum value using the histogram function obtained by the distribution calculation unit 42, and a target value in which the minimum value and the maximum value of the brightness of the input video are input to the target distribution input unit. Transform the histogram to match the lowest and target highest values. In the processing of the stretching unit 43, if the target minimum value is 0 and the target maximum value is 255, the image has brightness values from 0 to 255, and the contrast of the image increases.

また、上述したヒストグラムの拡大処理を映像のR成分とG成分とB成分とに対して同様に施すことで色味を保ったままコントラストを増加させることが可能となる。或いは、R成分とG成分とB成分とに対してそれぞれ独立にヒストグラムの拡大処理を施すことで、色味の偏りが少ないコントラストが増加した映像を作成することが可能となる。なお、本願に関連する先行技術文献としては、次のものがある。   Further, the above-described histogram enlarging process is similarly applied to the R component, the G component, and the B component of the video, so that the contrast can be increased while maintaining the color. Alternatively, it is possible to create a video with an increased contrast with little color bias by performing histogram enlargement processing independently on the R component, the G component, and the B component. As prior art documents related to the present application, there are the following.

特開平4−257082号公報Japanese Patent Laid-Open No. 4-257082

しかし、従来の技術に係るコントラストストレッチングの場合、全体のコントラストを向上させることは可能であったが、映像内に含まれる複数の被写体の色を望み通りの色に調整することができなかった。特に複数の人物を被写体として撮影された画像に対する明るさや色味を望み通りに調整することができなかった。   However, in the case of contrast stretching according to the prior art, it was possible to improve the overall contrast, but it was not possible to adjust the colors of multiple subjects included in the video to the desired color . In particular, it has been impossible to adjust the brightness and color tone of an image taken with a plurality of persons as subjects.

本発明は、上記各問題を解決するためになされたものであり、その課題とするところは、映像内に含まれる複数の被写体の色を適切に変換でき、特に複数の人物を被写体として撮影された画像に対する明るさや色味を望み通りに調整できる映像変換装置を提供することにある。   The present invention has been made to solve the above problems, and the problem is that the colors of a plurality of subjects included in an image can be appropriately converted, and in particular, a plurality of persons are photographed as subjects. Another object of the present invention is to provide a video conversion device that can adjust the brightness and color tone of an image as desired.

第1の本発明に係る映像変換装置は、入力された映像を記憶する記憶手段と、前記映像を読み出し、複数の領域に分割して記憶手段に記憶させる領域分割手段と、所望の色成分における前記各領域のヒストグラムを作成するヒストグラム作成手段と、前記各ヒストグラムに対して目標とする分布範囲を指定する目標範囲指定手段と、前記各ヒストグラムを前記目標の分布範囲に分布させるように前記映像を変換するための変換パラメタを作成する変換パラメタ作成手段と、前記変換パラメタを用いて色変換関数を作成する色変換関数作成手段と、前記色変換関数を合成するための合成係数を算出し、該合成係数を用いて、複数の前記色変換関数を合成する色変換関数合成手段と、前記合成後の色変換関数を前記映像に適用して映像を変換する映像変換手段とを有し、前記色変換関数作成手段は、複数の顔の領域に対応してそれぞれ色変換関数を作成し、前記色変換関数合成手段は、複数の顔の領域に対応して作成された色変換関数を合成した色変換関数を作成することを特徴とする。   According to a first aspect of the present invention, there is provided a video conversion device, a storage unit that stores an input video, a region dividing unit that reads the video, divides it into a plurality of regions and stores the divided video in a storage unit, and a desired color component Histogram creation means for creating a histogram of each region; target range designating means for designating a target distribution range for each histogram; and the video so that each histogram is distributed in the target distribution range. A conversion parameter creating means for creating a conversion parameter for conversion; a color conversion function creating means for creating a color conversion function using the conversion parameter; and a synthesis coefficient for synthesizing the color conversion function; Color conversion function combining means for combining a plurality of the color conversion functions using a combination coefficient, and converting the image by applying the combined color conversion function to the image Image conversion means, the color conversion function creating means creates color conversion functions corresponding to a plurality of face areas, and the color conversion function combining means corresponds to a plurality of face areas. A color conversion function is created by synthesizing the generated color conversion functions.

本発明にあっては、映像を複数の領域に分割し、各領域のヒストグラムを目標の分布範囲に分布させるべく変換パラメタを作成し、変換パラメタを用いて色変換関数を作成し、色変換関数を合成するための合成係数を算出し、該合成係数を用いて、複数の色変換関数を合成し、合成後の色変換関数を映像に適用し、その際、複数の顔の領域に対応してそれぞれ色変換関数を作成し、複数の顔の領域に対応して作成された色変換関数を合成した色変換関数を作成することで、映像内に含まれる複数の被写体の色を適切に変換することができ、特に複数の人物を被写体として撮影された画像に対する明るさや色味を望み通りに調整することができる。   In the present invention, the image is divided into a plurality of regions, a conversion parameter is created to distribute the histogram of each region in the target distribution range, a color conversion function is created using the conversion parameter, and the color conversion function A composite coefficient is calculated for combining the image, and a plurality of color conversion functions are combined using the composite coefficient, and the combined color conversion function is applied to the video. Each color conversion function is created, and the color conversion function created by combining the color conversion functions created for multiple face areas is created to properly convert the colors of multiple subjects in the video. In particular, it is possible to adjust the brightness and color tone of an image taken with a plurality of persons as subjects, as desired.

上記映像変換装置において、前記色変換関数合成手段は、顔の領域の面積が大きいほど合成の際の重みを大きくすることを特徴とする。本発明にあっては、面積の大きい顔の領域の色の重みを大きくする。   In the video conversion apparatus, the color conversion function combining means increases the weight of the combination as the area of the face area increases. In the present invention, the color weight of the face area having a large area is increased.

上記映像変換装置において、前記色変換関数合成手段は、顔の領域から映像の中央までの距離が小さいほど合成の際の重みを大きくすることを特徴とする。本発明にあっては、映像の中央までの距離が小さい顔の領域の色の重みを大きくする。   In the video conversion apparatus, the color conversion function combining means increases the weight at the time of combining as the distance from the face region to the center of the video is smaller. In the present invention, the color weight of the face region having a small distance to the center of the video is increased.

上記映像変換装置において、前記色変換関数合成手段は、顔の領域の色が明るいほど合成の際の重みを大きくすることを特徴とする。本発明にあっては、明るい色の顔の領域の色の重みを大きくする。   In the video conversion apparatus, the color conversion function combining means increases the weight at the time of combination as the color of the face region becomes brighter. In the present invention, the color weight of the bright face area is increased.

上記映像変換装置において、前記目標範囲指定手段は、前記入力された映像の表示領域にドラッグアンドドロップされたモデル映像に基づいて前記目標の分布範囲を指定することを特徴とする。本発明にあっては、入力された映像をモデル映像に基づいて変換する。   In the video conversion apparatus, the target range designating unit designates the target distribution range based on a model video dragged and dropped onto the input video display area. In the present invention, the input video is converted based on the model video.

上記映像変換装置において、前記映像変換手段は、前記ドラッグアンドドロップで使用されたポインタの場所に応じて変換強度を変更することを特徴とする。本発明にあっては、モデル映像に基づいて映像を変換する際に、ポインタの場所に応じて変換強度を変更する。   In the video conversion apparatus, the video conversion means changes the conversion intensity according to the location of the pointer used in the drag and drop. In the present invention, when the video is converted based on the model video, the conversion strength is changed according to the location of the pointer.

上記映像変換装置において、前記映像変換手段は、前記ドラッグアンドドロップで使用されたポインタの周辺部のみを変換することを特徴とする。本発明にあっては、モデル映像に基づいて映像を変換する際に、ポインタの周辺部のみを変換する。   In the video conversion apparatus, the video conversion means converts only a peripheral portion of a pointer used in the drag and drop. In the present invention, when the video is converted based on the model video, only the peripheral portion of the pointer is converted.

上記映像変換装置において、前記映像変換手段は、前記ドラッグアンドドロップにおけるドラッグの時間の長さに応じて変換強度を変更することを特徴とする。本発明にあっては、モデル映像に基づいて映像を変換する際に、ドラッグの時間の長さに応じて変換強度を変更する。   In the video conversion apparatus, the video conversion means changes the conversion strength in accordance with a drag time length in the drag and drop. In the present invention, when converting the video based on the model video, the conversion intensity is changed according to the length of the drag time.

上記映像変換装置において、前記映像変換手段は、前記ドラッグアンドドロップのドロップの際のポインタの位置から最も近くに位置する顔の領域を変換の対象とすることを特徴とする。本発明にあっては、モデル映像に基づいて映像を変換する際に、ポインタの位置から最も近くに位置する顔の領域を変換の対象とする。   In the video conversion apparatus, the video conversion means uses a face region located closest to a pointer position when the drag-and-drop is performed as a conversion target. In the present invention, when a video is converted based on the model video, the face area located closest to the position of the pointer is set as a conversion target.

第2の本発明に係る映像変換方法は、映像変換装置により行う映像変換方法であって、入力された映像を記憶手段に記憶させるステップと、前記映像を読み出し、複数の領域に分割して記憶手段に記憶させるステップと、所望の色成分における前記各領域のヒストグラムを作成するステップと、前記各ヒストグラムに対して目標とする分布範囲を指定するステップと、前記各ヒストグラムを前記目標の分布範囲に分布させるように前記映像を変換するための変換パラメタを作成するステップと、前記変換パラメタを用いて色変換関数を作成するステップと、前記色変換関数を合成するための合成係数を算出し、該合成係数を用いて、複数の前記色変換関数を合成するステップと、前記合成後の色変換関数を前記映像に適用して映像を変換するステップとを有し、前記色変換関数を作成するステップでは、複数の顔の領域に対応してそれぞれ色変換関数を作成し、前記色変換関数を合成するステップでは、複数の顔の領域に対応して作成された色変換関数を合成した色変換関数を作成することを特徴とする。   A video conversion method according to a second aspect of the present invention is a video conversion method performed by a video conversion device, the step of storing an input video in a storage means, and the video is read out and divided into a plurality of areas and stored. Means for storing, a step of creating a histogram of each region in a desired color component, a step of designating a target distribution range for each histogram, and each histogram as the target distribution range Creating a conversion parameter for converting the video to be distributed, creating a color conversion function using the conversion parameter, calculating a synthesis coefficient for synthesizing the color conversion function, A step of combining a plurality of the color conversion functions using a combination coefficient, and converting the image by applying the combined color conversion function to the image In the step of creating the color conversion function, a color conversion function is created for each of a plurality of face regions, and in the step of synthesizing the color conversion function, a plurality of face regions are handled. A color conversion function obtained by synthesizing the color conversion functions generated in this way is created.

第3の本発明に係る映像変換プログラムは、入力された映像を記憶手段に記憶させる処理と、前記映像を読み出し、複数の領域に分割して記憶手段に記憶させる処理と、所望の色成分における前記各領域のヒストグラムを作成する処理と、前記各ヒストグラムに対して目標とする分布範囲を指定する処理と、前記各ヒストグラムを前記目標の分布範囲に分布させるように前記映像を変換するための変換パラメタを作成する処理と、前記変換パラメタを用いて色変換関数を作成する処理と、前記色変換関数を合成するための合成係数を算出し、該合成係数を用いて、複数の前記色変換関数を合成する処理と、前記合成後の色変換関数を前記映像に適用して映像を変換する処理とをコンピュータに実行させ、前記色変換関数を作成する処理では、複数の顔の領域に対応してそれぞれ色変換関数を作成させ、前記色変換関数を合成する処理では、複数の顔の領域に対応して作成された色変換関数を合成した色変換関数を作成させることを特徴とする。   According to a third aspect of the present invention, there is provided a video conversion program, a process for storing an input video in a storage unit, a process for reading the video, dividing it into a plurality of areas and storing it in a storage unit, and a desired color component A process for creating a histogram for each region; a process for specifying a target distribution range for each histogram; and a conversion for converting the video so that each histogram is distributed in the target distribution range. A process for creating a parameter, a process for creating a color conversion function using the conversion parameter, a synthesis coefficient for synthesizing the color conversion function, and a plurality of the color conversion functions using the synthesis coefficient In the process of creating the color conversion function by causing the computer to execute the process of combining the image and the process of converting the image by applying the combined color conversion function to the image, In the process of creating color conversion functions corresponding to a number of face areas and synthesizing the color conversion functions, a color conversion function is created by synthesizing color conversion functions created corresponding to a plurality of face areas. It is characterized by making it.

本発明によれば、映像内に含まれる複数の被写体の色を適切に変換することができ、特に複数の人物を被写体として撮影された画像に対する明るさや色味を望み通りに調整することができる。   According to the present invention, it is possible to appropriately convert the colors of a plurality of subjects included in an image, and in particular, it is possible to adjust the brightness and color tone of an image shot using a plurality of persons as subjects. .

第1の実施の形態に係る映像変換装置の全体的な構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of a video conversion apparatus according to a first embodiment. 顔領域情報と黒目領域情報を検出し、入力映像を顔領域と黒目領域に分割するための領域分割部22の構成を示すブロック図である。It is a block diagram which shows the structure of the area division part 22 for detecting face area information and black eye area information, and dividing an input image | video into a face area and a black eye area. 領域分割部22で人の顔を検出する際の処理の一例を示す図である。It is a figure which shows an example of the process at the time of detecting a human face in the area | region division part. RGB分布情報の一例を示す図である。It is a figure which shows an example of RGB distribution information. ある色成分におけるピクセルpの色値がxとなる確率を表す確率密度関数(ヒストグラム関数)の一例を示す図である。It is a figure which shows an example of the probability density function (histogram function) showing the probability that the color value of the pixel p in a certain color component will be x. 図5に示す確率密度関数についての累積分布関数を示す図である。It is a figure which shows the cumulative distribution function about the probability density function shown in FIG. 累積割合値Aから制御値を算出するための制御値算出関数の一例を示す図である。It is a figure which shows an example of the control value calculation function for calculating a control value from the accumulation ratio value A. 図4の各RGB分布レコードに制御値と目標値の情報を追加したものを示す図である。It is a figure which shows what added the information of the control value and the target value to each RGB distribution record of FIG. 入力映像の輝度ヒストグラムの一例を示す図である。It is a figure which shows an example of the brightness | luminance histogram of an input image | video. 図9に用いた入力映像のRGBデータに色変換関数を適用した後の映像の輝度ヒストグラムを示す図である。It is a figure which shows the luminance histogram of the image | video after applying a color conversion function to the RGB data of the input image | video used for FIG. 図4の各RGB分布レコードにR目標値、G目標値、B目標値の情報を追加したものを示す図である。FIG. 5 is a diagram showing information obtained by adding R target value, G target value, and B target value information to each RGB distribution record of FIG. 4. RGB変換関数合成部28で3人の顔を検出した際に合成関数を作成する場合の例を示す図である。It is a figure which shows the example in the case of producing | generating a synthetic | combination function when the RGB conversion function synthetic | combination part 28 detects the face of three people. R成分、G成分、B成分のそれぞれの色変換用のルックアップテーブルの一例を示す図である。It is a figure which shows an example of the look-up table for each color conversion of R component, G component, and B component. 第2の実施の形態に係る映像変換装置の全体的な構成を示すブロック図である。It is a block diagram which shows the whole structure of the video converter which concerns on 2nd Embodiment. 映像変換装置の利用方法の一例を示す図である。It is a figure which shows an example of the utilization method of a video converter. 分布特徴情報の一例を示す図である。It is a figure which shows an example of distribution feature information. 従来のコントラストストレッチング装置の構成を示すブロック図である。It is a block diagram which shows the structure of the conventional contrast stretching apparatus.

[第1の実施の形態]
図1は、第1の実施の形態に係る映像変換装置の全体的な構成を示すブロック図である。同図に示すように、映像変換装置は、入力装置1、中央処理制御装置2、記憶装置3を有する。入力装置1は、映像信号入力部11、シャッター入力部12、目標分布選択部13を有し、中央処理制御装置2は、フレーム抽出部21、領域分割部22、RGB変換パラメタ作成部23、目標RGB分布作成部24、RGB変換関数作成部25、変換LUT(ルックアッフ゜テーフ゛ル)作成部26、映像変換部27、RGB変換関数合成部28を有し、記憶装置3は、各部が出力する情報を記憶する記憶部の他、RGB分布記憶部31、変換LUT記憶部32を有する。
[First Embodiment]
FIG. 1 is a block diagram showing the overall configuration of the video conversion apparatus according to the first embodiment. As shown in the figure, the video conversion device includes an input device 1, a central processing control device 2, and a storage device 3. The input device 1 includes a video signal input unit 11, a shutter input unit 12, and a target distribution selection unit 13. The central processing control device 2 includes a frame extraction unit 21, a region division unit 22, an RGB conversion parameter creation unit 23, a target An RGB distribution creation unit 24, an RGB conversion function creation unit 25, a conversion LUT (lookup table) creation unit 26, a video conversion unit 27, and an RGB conversion function synthesis unit 28 are included. The storage device 3 stores information output by each unit. In addition to the storage unit for storing, an RGB distribution storage unit 31 and a conversion LUT storage unit 32 are provided.

本映像変換装置は、専用のハードウェアとして構成してもよいし、汎用的なコンピュータを用いて構成し、各部の処理をコンピュータプログラムによって実行させるようにしてもよい。尚、各部が処理した結果は、記憶部に読み出し可能に記憶される。   The video conversion apparatus may be configured as dedicated hardware, or may be configured using a general-purpose computer so that the processing of each unit is executed by a computer program. The results processed by each unit are stored in the storage unit so as to be readable.

映像信号入力部11は、映像信号が入力されると、これをフレーム抽出部21と映像変換部27に出力する。ここでは、映像信号入力部11が出力する映像を入力映像と呼ぶ。   When the video signal is input, the video signal input unit 11 outputs the video signal to the frame extraction unit 21 and the video conversion unit 27. Here, the video output from the video signal input unit 11 is referred to as an input video.

本実施形態で扱う入力映像は、複数のフレームによって構成される動画であり、各フレームは、複数のピクセルによって構成される静止画像である。入力映像の幅をwidth、高さをheightで表すと、各フレームは、width×height個のピクセルによって構成される。各ピクセルは、RGBカラーモデルで色を表現するデータであり、フレームにおけるx座標値とy座標値とR値とG値とB値によって構成され、x座標値は1以上width以下の整数値であり、y座標値は1以上height以下の整数値であり、R値とG値とB値はそれぞれ0以上255以下の整数値である。   The input video handled in the present embodiment is a moving image composed of a plurality of frames, and each frame is a still image composed of a plurality of pixels. When the width of the input video is represented by width and the height is represented by height, each frame is composed of width × height pixels. Each pixel is data representing a color in the RGB color model, and is composed of an x coordinate value, a y coordinate value, an R value, a G value, and a B value in the frame. The x coordinate value is an integer value of 1 or more and width or less. Yes, the y-coordinate value is an integer value between 1 and height, and the R value, G value, and B value are integer values between 0 and 255, respectively.

目標分布選択部13では、ユーザが選択した目標RGB分布名を目標RGB分布作成部24に出力する。   The target distribution selection unit 13 outputs the target RGB distribution name selected by the user to the target RGB distribution creation unit 24.

目標RGB分布作成部24は、目標RGB分布名とRGB分布情報群が入力され、目標RGB分布情報を作成し、作成された目標RGB分布情報はRGB変換パラメタ作成部23に出力される。なお、RGB分布情報群は、RGB分布記憶部31から読み出すことで入力される。   The target RGB distribution creation unit 24 receives the target RGB distribution name and the RGB distribution information group, creates the target RGB distribution information, and outputs the created target RGB distribution information to the RGB conversion parameter creation unit 23. Note that the RGB distribution information group is input by reading from the RGB distribution storage unit 31.

シャッター入力部12は、ユーザによりシャッター操作が行われると、フレーム抽出部21にシャッター操作を伝えるシャッター信号を出力する。   When a shutter operation is performed by the user, the shutter input unit 12 outputs a shutter signal that tells the frame extraction unit 21 of the shutter operation.

フレーム抽出部21は、映像信号とシャッター信号が入力され、静止画像を出力する。フレーム抽出部21が出力する静止画像は入力映像から取り出した1フレームの静止画像である。   The frame extraction unit 21 receives a video signal and a shutter signal and outputs a still image. The still image output from the frame extraction unit 21 is a one-frame still image extracted from the input video.

領域分割部22は、入力映像を複数の対象物の領域に分割する。   The area dividing unit 22 divides the input image into a plurality of object areas.

RGB変換パラメタ作成部23は、R成分・G成分・B成分における各領域のヒストグラムを作成すると共に目標RGB分布作成部24が出力する目標値を入力として受け取り、RGB変換パラメタを作成する。   The RGB conversion parameter creation unit 23 creates a histogram of each region in the R component, the G component, and the B component, receives the target value output from the target RGB distribution creation unit 24 as an input, and creates an RGB conversion parameter.

RGB変換関数作成部25は、RGB変換パラメタが入力され、R成分・G成分・B成分のヒストグラムがRGB変換パラメタに合致する分布範囲となるように各ヒストグラムに対応したR変換関数とG変換関数とB変換関数とを作成する。   The RGB conversion function creating unit 25 receives the RGB conversion parameters, and the R conversion function and the G conversion function corresponding to each histogram so that the histograms of the R component, the G component, and the B component are in a distribution range that matches the RGB conversion parameters. And B conversion function.

領域分割部22は、静止画像が入力され、領域情報群を出力する。領域情報群は、複数の領域情報によって構成され、各領域情報は領域名Rと領域集合RegionR によって構成される。ピクセルpのx座標値をxp 、y座標値をyp とすると領域集合RegionR

Figure 2010154484
The region dividing unit 22 receives a still image and outputs a region information group. The area information group includes a plurality of area information, and each area information includes an area name R and an area set Region R. If the x coordinate value of pixel p is xp and the y coordinate value is yp, the region set Region R is
Figure 2010154484

と表される。領域分割部22では、静止画像の被写体が人物である場合は、全体領域情報と顔領域情報と黒目領域情報を検出してもよい。或いは静止画像の被写体が物体である場合には、全体領域情報と被写体領域情報と背景領域情報を検出してもよい。以下では被写体が人物である場合に、全体領域情報と顔領域情報と黒目領域情報を検出するときの例について説明する。   It is expressed. The area dividing unit 22 may detect the entire area information, the face area information, and the black eye area information when the subject of the still image is a person. Alternatively, when the subject of the still image is an object, the entire region information, the subject region information, and the background region information may be detected. Hereinafter, an example in which the entire area information, the face area information, and the black eye area information are detected when the subject is a person will be described.

ここでは、全体領域情報は領域名WHOLEと全体領域集合RegionWHOLEによって構成され、顔領域集合は領域名FACEと顔領域集合RegionFACEによって構成され、黒目領域集合は領域名EYEと黒目領域集合RegionEYEによって構成されるものとする。なお、全体領域集合RegionWHOLEとは、入力された静止画像に含まれるすべてのピクセルを含む集合である。 Here, the whole area information is composed of the area name WHOLE and the whole area set Region WHOLE , the face area set is composed of the area name FACE and the face area set Region FACE , and the black eye area set is the area name EYE and the black eye area set Region EYE. It shall be comprised by. The whole region set Region WHOLE is a set including all pixels included in the input still image.

図2は、顔領域情報と黒目領域情報を検出し、入力映像を顔領域と黒目領域に分割するための領域分割部22の構成を示すブロック図である。領域分割部22は、画像スケール変換部221と、検出対象領域切出部222と、空間周波数分析部223と、顔候補判定部224と、肌領域抽出部226と、黒目領域抽出部227と、によって構成される。   FIG. 2 is a block diagram showing a configuration of the area dividing unit 22 for detecting face area information and black eye area information and dividing an input image into a face area and a black eye area. The region dividing unit 22 includes an image scale converting unit 221, a detection target region extracting unit 222, a spatial frequency analyzing unit 223, a face candidate determining unit 224, a skin region extracting unit 226, a black eye region extracting unit 227, Consists of.

領域分割部22における顔候補の選択はHaar型の特徴量を用い、AdaBoost学習法、及びカスケード構造検出器による方法を用いる(例えば、特開2006−293720号公報参照)。   Selection of face candidates in the region dividing unit 22 uses Haar-type feature values, and uses an AdaBoost learning method and a method using a cascade structure detector (see, for example, JP-A-2006-293720).

検出対象領域切出部222では、スケール変換された画像から既定のサイズの領域の切り出しを行う。ただし、ここで扱う領域の形状は、任意形状であってよいものとする。   The detection target region cutout unit 222 cuts out a region having a predetermined size from the scale-converted image. However, the shape of the region handled here may be an arbitrary shape.

空間周波数分析部223では、切り出された領域に対し空間周波数フィルタリングを行う。例えば、AdaBoost学習法、及びカスケード検出器構造をもつ、Haar型の特徴量検出による手法を用いてもよい。   The spatial frequency analysis unit 223 performs spatial frequency filtering on the cut out region. For example, an AdaBoost learning method and a Haar type feature amount detection method having a cascade detector structure may be used.

顔候補判定部224では、空間周波数分析部223の出力値をもとに、領域が顔領域候補となり得るかを判定する。   The face candidate determination unit 224 determines whether the region can be a face region candidate based on the output value of the spatial frequency analysis unit 223.

肌領域抽出部226では、顔領域候補を入力として顔領域集合RegionFACEを出力する。顔領域集合RegionFACEは、顔領域候補内に含まれるピクセルのうち、ピクセルの色が肌色であるものによって構成される。すなわちRegionFACEは、ピクセルpのx座標値をxp 、y座標値をyp 、R値をrp、G値をgp 、B値をbp とすると

Figure 2010154484
The skin area extraction unit 226 receives a face area candidate and outputs a face area set Region FACE . The face area set Region FACE is composed of pixels included in face area candidates whose pixel color is skin color. In other words, the Region FACE has xp as the x coordinate value of pixel p, yp as the y coordinate value, rp as the R value, gp as the G value, and bp as the B value.
Figure 2010154484

と表される。なお、肌色として扱うRGB値は予め設定してあるものとする。例えばYUVカラーモデルにおいてCb 値が−40以上−20以下でありCb 値が15以上35以下の値を肌色とするなどの手法を用いる。   It is expressed. Note that the RGB values handled as skin color are set in advance. For example, in the YUV color model, a method is used in which the Cb value is -40 or more and -20 or less and the Cb value is 15 or more and 35 or less as skin color.

黒目領域抽出部227では、顔領域候補を入力として黒目領域集合RegionEYEを出力する。黒目領域集合RegionEYEは、顔領域候補内に含まれるピクセルのうち、輝度値が低いピクセルによって構成される。より具体的には顔領域候補内に含まれるピクセルのうち輝度値の低い順に1%のピクセル群を黒目領域集合とする。図3は、領域分割部22で人の顔を検出する際の処理の一例を示す図である。 The black eye region extraction unit 227 outputs a black eye region set Region EYE with the face region candidate as an input. The black eye region set Region EYE is composed of pixels with low luminance values among the pixels included in the face region candidate. More specifically, among the pixels included in the face area candidate, a 1% pixel group is set as a black eye area set in order of increasing luminance value. FIG. 3 is a diagram illustrating an example of processing when the area dividing unit 22 detects a human face.

なお、顔領域集合RegionFACE及び黒目領域集合RegionEYEは一つの顔領域候補に対してそれぞれ一つずつ作成する。以下では、まず顔領域候補が一つのみであった場合の処理方法について説明する。 One face area set Region FACE and one black eye area set Region EYE are created for each face area candidate. Hereinafter, a processing method when there is only one face area candidate will be described.

目標RGB分布作成部24は、目標RGB分布名とRGB分布情報群が入力され、目標RGB分布情報を出力する。RGB分布情報群はRGB分布記憶部31より読み出される。RGB分布情報群は複数のRGB分布情報によって構成され、各RGB分布情報はRGB分布名を持ち、複数のRGB分布レコードによって構成される。図4は、RGB分布情報の一例を示す図である。各RGB分布レコードはレコード番号と領域名と累積割合値と目標色によって構成される。ここで累積割合値0以上1以下の少数値である。   The target RGB distribution creation unit 24 receives the target RGB distribution name and the RGB distribution information group and outputs target RGB distribution information. The RGB distribution information group is read from the RGB distribution storage unit 31. The RGB distribution information group includes a plurality of RGB distribution information, and each RGB distribution information has an RGB distribution name and includes a plurality of RGB distribution records. FIG. 4 is a diagram illustrating an example of RGB distribution information. Each RGB distribution record is composed of a record number, a region name, a cumulative ratio value, and a target color. Here, the cumulative ratio value is a decimal value between 0 and 1.

本実施形態において扱う色成分について説明すると、Luminance(輝度:YCb CrカラーモデルにおけるY成分)、Cb(YCbCrカラーモデルにおけるCb成分)、Cr(YCbCrカラーモデルにおけるCr成分)、墨(CMYKカラーモデルにおけるK成分)、レッド(RGBカラーモデルにおけるR成分)、グリーン(RGBカラーモデルにおけるG成分)、ブルー(RGBカラーモデルにおけるB成分)、色相(HSVカラーモデルにおけるH成分)、彩度(HSVカラーモデルにおけるS成分)、明度(HSVカラーモデルにおけるV成分)の10種類であり、全ての色成分において最小値は0、最大値は255とする。   The color components handled in this embodiment will be described. Luminance (luminance: Y component in the YCbCr color model), Cb (Cb component in the YCbCr color model), Cr (Cr component in the YCbCr color model), black (in the CMYK color model) K component), red (R component in RGB color model), green (G component in RGB color model), blue (B component in RGB color model), hue (H component in HSV color model), saturation (HSV color model) S component) and brightness (V component in the HSV color model), and the minimum value is 0 and the maximum value is 255 in all color components.

RGB変換パラメタ作成部23は静止画像と領域情報群と目標RGB分布情報が入力され、RGB変換パラメタを作成し、出力する。RGB変換パラメタは、以下の手順によって作成される。   The RGB conversion parameter creation unit 23 receives a still image, a region information group, and target RGB distribution information, and creates and outputs an RGB conversion parameter. The RGB conversion parameter is created by the following procedure.

まず、色成分Componentにおけるピクセルpの色値を返す色値算出関数を

Figure 2010154484
First, a color value calculation function that returns the color value of the pixel p in the color component Component
Figure 2010154484

とする。ここでg(Component,p,x)を

Figure 2010154484
And Where g (Component, p, x)
Figure 2010154484

と定義すると、ピクセルの集合Pにおいて領域集合RegionR にも含まれるピクセルpを取り出したとき、色成分Componentにおけるピクセルpの色値がxとなる確率、すなわちcolor(p,Component)=xとなる確率を表す確率密度関数(ヒストグラム関数)frequency(P,RegionR,Component,x)は

Figure 2010154484
If the pixel p included in the region set Region R in the pixel set P is extracted, the probability that the color value of the pixel p in the color component Component is x, that is, color (p, Component) = x. Probability density function (histogram function) frequency (P, Region R , Component, x)
Figure 2010154484

と定義される。   Is defined.

例えば、画像全体領域情報(領域名WHOLE、領域集合RegionWHOLE)と、顔領域情報(領域名FACE、領域集合RegionFACE)と、黒目領域情報(領域名EYE、領域集合RegionEYE)との領域情報があったとしたとき、ある画像を表すピクセルの集合をPyとし、輝度の色成分をYとすると、全体領域の輝度のヒストグラムは、frequency(Py,RegionWHOLE,Y,x)と表され、同様に顔領域の輝度のヒストグラムは、frequency(P,RegionFACE,Y,x)と表され、黒目領域の輝度のヒストグラムは、frequency(P,RegionEYE,Y,x)と表される。 For example, region information of whole image region information (region name WHOLE, region set Region WHOLE ), face region information (region name FACE, region set Region FACE ), and black eye region information (region name EYE, region set Region EYE ) If the set of pixels representing an image is Py and the luminance color component is Y, the luminance histogram of the entire area is expressed as frequency (Py, Region WHOLE , Y, x). In addition, the luminance histogram of the face region is represented as frequency (P, Region FACE , Y, x), and the luminance histogram of the black eye region is represented as frequency (P, Region EYE , Y, x).

また、色成分Componentのヒストグラムを表す確率密度関数frequency(P,RegionR,Component,x)から導き出される累積分布関数cumulative(P,RegionR,Component,x)は

Figure 2010154484
The cumulative distribution function cumulative (P, Region R , Component, x) derived from the probability density function frequency (P, Region R , Component, x) representing the histogram of the color component Component is
Figure 2010154484

と表される。   It is expressed.

確率密度関数が図5の曲線で表されたとすると、その累積分布関数は、図6のように表される曲線となる。さらに、累積分布関数のxに関する逆関数は

Figure 2010154484
If the probability density function is represented by the curve of FIG. 5, the cumulative distribution function is a curve represented as shown in FIG. Furthermore, the inverse function of the cumulative distribution function with respect to x is
Figure 2010154484

と表される。ただし、ここで、yはy=cumulative(P,RegionR,Component,x)の関係を満たす値である。 It is expressed. Here, y is a value satisfying the relationship y = cumulative (P, Region R , Component, x).

ここで、制御値算出関数control(P,RegionR,Component,A)を前記累積分布関数cumulativeを用いて下記のように定義する。

Figure 2010154484
Here, the control value calculation function control (P, Region R , Component, A) is defined as follows using the cumulative distribution function cumulative.
Figure 2010154484

ただし、ここでは入力された静止画像に含まれるピクセルの集合をP、目標のRGB分布レコードにおける領域名をR、静止画像を領域分割して作成した領域名Rに対応する領域集合をRegionR、色成分をComponent、累積割合値をAとしている。 However, here, the set of pixels included in the input still image is P, the region name in the target RGB distribution record is R, the region set corresponding to the region name R created by dividing the still image into regions is Region R , The color component is Component, and the cumulative ratio value is A.

この制御値算出関数を累積割合値Aに適用することによって、図7に示されるように、

Figure 2010154484
By applying this control value calculation function to the cumulative ratio value A, as shown in FIG.
Figure 2010154484

より、累積割合値Aに対応する制御値Cが算出される。   Thus, the control value C corresponding to the cumulative ratio value A is calculated.

また、制御値数列{Ck}k=1,2,…,n(ただしC1≦C2≦…≦Cn)と、目標値数列{Tk}k=1,2,…,nを用いて、色値xの変換を行う色変換関数convert({Ck}k=1,2,…,n,{Tk}k=1,2,…,n,x)を

Figure 2010154484
Further, using the control value sequence {C k } k = 1,2, ..., n (where C1 ≦ C2 ≦ ... ≦ Cn) and the target value sequence {T k } k = 1,2, ..., n , The color conversion function convert ({C k } k = 1,2, ..., n , {T k } k = 1,2, ..., n , x) that converts the color value x
Figure 2010154484

と定義する。 It is defined as

ここで、例えば静止画像の輝度ヒストグラムが図9のように分布しており、制御値{C1,C2,C3,C4}と目標値{T1,T2,T3,T4}が図のように定められていたとすると、色変換関数convert({C1,C2,C3,C4),{T1,T2,T3,T4},x)を適用して輝度値の変換を行った後のヒストグラムは図10のようになる。同図に示すように、色変換関数は制御値と目標値が合致するようにヒストグラムを変換する。   Here, for example, a luminance histogram of a still image is distributed as shown in FIG. 9, and control values {C1, C2, C3, C4} and target values {T1, T2, T3, T4} are determined as shown in the figure. Assuming that the luminance value is converted by applying the color conversion function convert ({C1, C2, C3, C4), {T1, T2, T3, T4}, x), the histogram is as shown in FIG. become. As shown in the figure, the color conversion function converts the histogram so that the control value matches the target value.

ここで図11に示すように各目標RGB分布レコードに対して目標色のR値をR目標値、G値をG目標値、B値をB目標値として設定する。   Here, as shown in FIG. 11, the R value of the target color is set as the R target value, the G value as the G target value, and the B value as the B target value for each target RGB distribution record.

また、静止画像のピクセルの集合をP、ある目標RGB分布レコードRecordの領域名をAREA、累積割合値をAとすると、制御値算出関数controlを用いて、R制御値CR

Figure 2010154484
Further, assuming that a set of pixels of a still image is P, an area name of a certain target RGB distribution record Record is AREA, and an accumulation ratio value is A, an R control value C R is calculated using a control value calculation function control.
Figure 2010154484

と算出され、全目標RGB分布レコードについて制御値を算出することでR制御値列{CR,kk=1,2,…,n(ただしCR,1≦CR,2≦…≦CR,n)を算出できる。 R control value sequence {C R, k } k = 1, 2,..., N (where C R, 1 ≦ C R, 2 ≦ ... ≦) by calculating control values for all target RGB distribution records. C R, n ) can be calculated.

同様に、RecordのG制御値CG

Figure 2010154484
Similarly, G control value C G of Record is
Figure 2010154484

と算出され、G制御値列{CG,kk=1,2,…,nが算出できる。 And the G control value sequence {C G, k } k = 1, 2,..., N can be calculated.

また、RecordのB制御値CB

Figure 2010154484
Also, the B control value C B of Record is
Figure 2010154484

と算出され、B制御値列{CB,kk=1,2,…,nが算出できる。 And B control value sequence {C B, k } k = 1, 2,..., N can be calculated.

RGB変換関数作成部25は、RGB変換パラメタが入力され、R変換関数、G変換関数、B変換関数を出力する。   The RGB conversion function creation unit 25 receives RGB conversion parameters and outputs an R conversion function, a G conversion function, and a B conversion function.

ここで、R制御値列{CR,kk=1,2,…,n(ただしCR,1≦CR,2≦…≦CR,n)と、R目標値列{TR,kk=1,2,…,nを用いてR値の変換を行うR変換関数convertR(x)を

Figure 2010154484
Here, the R control value sequence {C R, k } k = 1, 2,..., N (where C R, 1 ≦ C R, 2 ≦... C R, n ) and the R target value sequence {T R , k } k = 1,2, ..., n , an R conversion function convert R (x) that converts R values using
Figure 2010154484

と定義し、G制御値列{CG,kk=1,2,…,nと、G目標値列{TG,kk=1,2,…,nを用いてG値の変換を行うG変換関数convertG(x)を

Figure 2010154484
And G control value sequence {C G, k } k = 1, 2,..., N and G target value sequence {T G, k } k = 1, 2,. G conversion function convert G (x)
Figure 2010154484

B制御値列{CB,kk=1,2,…,nと、B目標値列{TB,kk=1,2,…,nを用いてB値の変換を行うB変換関数convertB(x)を

Figure 2010154484
B value is converted using the B control value sequence {C B, k } k = 1, 2,..., N and the B target value sequence {T B, k } k = 1, 2 ,. Convert function convert B (x)
Figure 2010154484

と定義する。 It is defined as

RGB変換関数作成部25は、上記のR変換関数convertR(x)とG変換関数convertG(x)とB変換関数convertB(x)を出力する。 The RGB conversion function creation unit 25 outputs the R conversion function convert R (x), the G conversion function convert G (x), and the B conversion function convert B (x).

以上の処理は領域分割部22において顔領域候補が一つのみであった場合のRGB変換関数作成手順であるが、顔領域候補がN個(Nは2以上の整数)存在した場合はRGB変換関数合成部28においてN個のR変換関数、G変換関数、B変換関数をそれぞれ合成し、合成後のR変換関数(以下、R変換合成関数)、合成後のG変換関数(以下、G変換合成関数)、合成後のB変換関数(以下、B変換合成関数)を作成し、出力する。   The above processing is a procedure for creating an RGB conversion function when there is only one face area candidate in the area dividing unit 22, but when there are N face area candidates (N is an integer of 2 or more), RGB conversion is performed. The function synthesis unit 28 synthesizes each of the N R conversion functions, the G conversion function, and the B conversion function, combines the R conversion function (hereinafter referred to as R conversion synthesis function), and the combined G conversion function (hereinafter referred to as G conversion). Composite function) and B conversion function after synthesis (hereinafter referred to as B conversion composite function) are generated and output.

図12は、RGB変換関数合成部28で3人の顔を検出した際に合成関数を作成する場合の例を示す図である。   FIG. 12 is a diagram illustrating an example in which a synthesis function is created when three faces are detected by the RGB conversion function synthesis unit 28.

まず、0≦n<Nとし、n番目の顔領域候補に対応する合成係数算出関数synth(n)を定義する。例えば全ての被写体について重みを均等にする場合は

Figure 2010154484
First, with 0 ≦ n <N, a synthesis coefficient calculation function synth (n) corresponding to the nth face region candidate is defined. For example, to make the weights uniform for all subjects
Figure 2010154484

とする。あるいは顔の大きさが大きいほど重みを大きくする場合はn番目の顔領域候補の面積をfaceSize(n)として、

Figure 2010154484
And Alternatively, if the weight is increased as the face size increases, the area of the nth face region candidate is set to faceSize (n)
Figure 2010154484

とする。ここでCは定数である。 And Here, C is a constant.

また、逆に小さい顔ほど重みを大きくすることで子供の顔を重視することもできる。その場合は例えば

Figure 2010154484
Conversely, the child's face can be emphasized by increasing the weight of the smaller face. In that case, for example
Figure 2010154484

とする。ここで定数Cは例えばfaceSize(n)の最大値などを利用する。 And Here, the constant C uses, for example, the maximum value of faceSize (n).

また、映像の中心寄りの顔の重みを大きくする場合は映像の中心座標から検出された顔の中央の座標へのユークリッド距離をfaceDistance(n)として定数Cを用いて

Figure 2010154484
In addition, when increasing the weight of the face near the center of the video, a constant C is used with the Euclidean distance from the center coordinate of the video to the detected center coordinate of the face as faceDistance (n).
Figure 2010154484

とする。 And

あるいは検出した顔領域の色情報を利用することも可能であり、例えば顔領域内のピクセルのRGB値の平均値を算出し、その輝度値をskinLuminance(n)として定数Cを用いて

Figure 2010154484
Alternatively, the color information of the detected face area can be used. For example, the average value of the RGB values of the pixels in the face area is calculated, and the luminance value is used as a skinLuminance (n) by using a constant C.
Figure 2010154484

とすることで明るい肌色の重みを大きくすることが可能であり、男性の重みを小さく、女性の重みを大きくすることができる。 By doing so, it is possible to increase the weight of light skin color, to decrease the weight of men, and to increase the weight of women.

以上に合成係数算出関数について複数の定義を示したが、それぞれを組み合わせて掛け合わせることで複数の効果を実現することが可能となる。例えば

Figure 2010154484
Although a plurality of definitions for the synthesis coefficient calculation function have been described above, a plurality of effects can be realized by combining and multiplying each. For example
Figure 2010154484

とすると、中央の女性の重みを大きくすることができる。なお、CおよびDは定数である。 Then, the weight of the central woman can be increased. C and D are constants.

ここで、n番目の顔領域候補に対応するR変換関数、G変換関数、B変換関数をそれぞれ

Figure 2010154484
Here, the R conversion function, G conversion function, and B conversion function corresponding to the nth face region candidate are respectively
Figure 2010154484

とし、合成係数の和Sを

Figure 2010154484
And the sum S of the composite coefficients is
Figure 2010154484

として、R変換合成関数convertSynthR(x)、G変換合成関数convertSynthG(x)、B変換合成関数convertSynthB(x)をそれぞれ

Figure 2010154484
R conversion synthesis function convertSynth R (x), G conversion synthesis function convertSynth G (x), B conversion synthesis function convertSynth B (x)
Figure 2010154484

として出力する。 Output as.

変換LUT作成部26は、R変換合成関数とG変換合成関数とB変換合成関数を入力として、R変換LUTとG変換LUTとB変換LUTを出力する。具体的には、値として取り得る全てのR値、G値、B値に対して、それぞれR変換関数、G変換関数、B変換関数を適用した値が対応する図13に示すようなLUTを作成し、変換LUT記憶部32に記憶させる。   The conversion LUT creation unit 26 receives the R conversion synthesis function, the G conversion synthesis function, and the B conversion synthesis function, and outputs an R conversion LUT, a G conversion LUT, and a B conversion LUT. Specifically, an LUT as shown in FIG. 13 corresponding to values obtained by applying the R conversion function, the G conversion function, and the B conversion function to all R values, G values, and B values that can be taken as values, respectively. It is created and stored in the conversion LUT storage unit 32.

映像変換部27は、入力映像と色変換LUTを入力として変換映像を出力する。具体的には、入力映像の各フレームの各ピクセルについて色変換LUTを参照してR値、G値、B値を変換して変換フレームを作成し、作成した変換フレームを順次出力することで最終的な変換映像を出力する。   The video conversion unit 27 receives the input video and the color conversion LUT and outputs a converted video. Specifically, with reference to the color conversion LUT for each pixel of each frame of the input video, the R value, the G value, and the B value are converted to create a converted frame, and the generated converted frame is sequentially output to finally A typical converted video.

(実施例)
ここで、図12を参照し、RGB変換関数合成部28で3人の顔を検出した際に合成関数を作成する場合の処理を説明する。
(Example)
Here, with reference to FIG. 12, a process for creating a synthesis function when the RGB conversion function synthesis unit 28 detects three faces will be described.

領域分割部22は、入力画像から3人の各顔の領域を検出する。RGB変換関数作成部25は、各人について、R変換関数convertR(x)とG変換関数convertG(x)とB変換関数convertB(x)を作成する。RGB変換関数合成部28は、合成係数を算出する。RGB変換関数合成部28は、合成係数を用いて、各R変換関数convertR(x)を合成し、合成後のR変換関数convertR(x)を得る。RGB変換関数合成部28は、合成係数を用いて、各G変換関数convertG(x)を合成し、合成後のG変換関数convertG(x)を得る。RGB変換関数合成部28は、合成係数を用いて、各B変換関数convertB(x)を合成し、合成後のB変換関数convertB(x)を得る。 The area dividing unit 22 detects the areas of the faces of three people from the input image. The RGB conversion function creation unit 25 creates an R conversion function convert R (x), a G conversion function convert G (x), and a B conversion function convert B (x) for each person. The RGB conversion function synthesis unit 28 calculates a synthesis coefficient. RGB conversion function composition unit 28 uses the synthesis coefficient, combines the R transformation function the convert R (x), obtained after combining R transformation function the convert R a (x). RGB conversion function composition unit 28 uses the synthesis coefficient, combines the G transformation function the convert G (x), obtained G transformation function the convert G after combining the (x). The RGB conversion function synthesis unit 28 synthesizes each B conversion function convert B (x) using the synthesis coefficient, and obtains a B conversion function convert B (x) after synthesis.

以上説明したように、第1の実施の形態によれば、映像内に含まれる複数の被写体の色を適切に変換でき、望み通りの色に調整することができる。特に複数の人物を被写体として撮影された画像に対する明るさや色味を望み通りに調整することができる。   As described above, according to the first embodiment, the colors of a plurality of subjects included in a video can be appropriately converted and adjusted to a desired color. In particular, it is possible to adjust the brightness and color of an image taken with a plurality of persons as subjects as desired.

次に、本発明の第2の実施の形態について説明する。なお、基本的な構成および動作は、第1の実施の形態と同様であり、ここでは差異を中心に説明する。   Next, a second embodiment of the present invention will be described. Note that the basic configuration and operation are the same as those in the first embodiment, and here, differences will be mainly described.

[第2の実施の形態]
図14は、第2の実施の形態に係る映像変換装置の全体的な構成を示すブロック図である。同図に示すように、映像変換装置は、入力装置1、中央処理制御装置2、記憶装置3を有する。入力装置1は、映像信号入力部11、モデル映像入力部14、目標分布選択部13を有し、中央処理制御装置2は、フレーム抽出部21、領域分割部22、RGB変換パラメタ作成部23、目標RGB分布作成部24、RGB変換関数作成部25、変換LUT(ルックアッフ゜テーフ゛ル)作成部26、映像変換部27、RGB変換関数合成部28を有し、記憶装置3は、各部が出力する情報を記憶する記憶部の他、分布特徴記憶部33、変換LUT記憶部32を有する。
[Second Embodiment]
FIG. 14 is a block diagram illustrating an overall configuration of a video conversion apparatus according to the second embodiment. As shown in the figure, the video conversion device includes an input device 1, a central processing control device 2, and a storage device 3. The input device 1 includes a video signal input unit 11, a model video input unit 14, and a target distribution selection unit 13. The central processing control device 2 includes a frame extraction unit 21, a region division unit 22, an RGB conversion parameter creation unit 23, The storage device 3 includes a target RGB distribution creation unit 24, an RGB conversion function creation unit 25, a conversion LUT (lookup table) creation unit 26, a video conversion unit 27, and an RGB conversion function synthesis unit 28. In addition to the storage unit for storing the data, the distribution feature storage unit 33 and the conversion LUT storage unit 32 are provided.

図15は、映像変換装置の利用方法の一例を示す図である。   FIG. 15 is a diagram illustrating an example of a method of using the video conversion apparatus.

映像変換装置は、同図に示すように、ユーザがドラッグアンドドロップしたモデル映像に基づいて映像変換のための目標色を求め、目標色を利用して入力映像を変換する。   As shown in the figure, the video conversion apparatus obtains a target color for video conversion based on the model video dragged and dropped by the user, and converts the input video using the target color.

モデル映像入力部14は、入力映像の表示領域(例えば液晶表示装置における表示画面の一部)にユーザが例えばマウス(入力装置)を使用してドラッグアンドドロップしたモデル映像を受け取り、目標RGB分布作成部24に出力する。なお、ドラッグアンドドロップされたモデル映像は、例えば液晶表示装置における表示画面の一部に表示されているものである。モデル映像は静止画でもよいし、動画でもよい。また、ユーザによりモデル映像のドラッグアンドドロップ操作が行われると、モデル映像入力部14は、フレーム抽出部21にシャッター信号を出力する。   The model video input unit 14 receives a model video dragged and dropped by a user using, for example, a mouse (input device) in a display area of the input video (for example, a part of a display screen in a liquid crystal display device), and creates a target RGB distribution To the unit 24. The dragged and dropped model video is displayed on a part of the display screen in the liquid crystal display device, for example. The model video may be a still image or a video. When the user performs a drag and drop operation on the model video, the model video input unit 14 outputs a shutter signal to the frame extraction unit 21.

目標RGB分布作成部24は、モデル映像と分布特徴情報群が入力され、目標RGB分布情報を作成し、作成された目標RGB分布情報はRGB変換パラメタ作成部23に出力されるようになっている。   The target RGB distribution creation unit 24 receives the model video and the distribution feature information group, creates target RGB distribution information, and the created target RGB distribution information is output to the RGB conversion parameter creation unit 23. .

第2の実施の形態でも、顔領域集合RegionFACE及び黒目領域集合RegionEYEは一つの顔領域候補に対してそれぞれ一つずつ作成する。顔領域候補が複数あった場合は、例えばドラッグアンドドロップの操作の際にマウスなどのボタンを離した際(ドロップの際)のポインタの位置から最も近くに位置する顔領域候補を変換の対象とする。 Also in the second embodiment, one face area set Region FACE and one black eye area set Region EYE are created for each face area candidate. If there are multiple face area candidates, for example, the face area candidate closest to the position of the pointer when the mouse or other button is released (drag) during the drag and drop operation is selected as the conversion target. To do.

目標RGB分布作成部24は、モデル映像と分布特徴情報群が入力され、目標RGB分布情報を出力する。分布特徴情報群は、分布特徴記憶部33より読み出される。   The target RGB distribution creation unit 24 receives the model video and the distribution feature information group and outputs target RGB distribution information. The distribution feature information group is read from the distribution feature storage unit 33.

図16は、分布特徴情報の一例を示す図である。   FIG. 16 is a diagram illustrating an example of distribution feature information.

分布特徴情報は、複数の分布特徴レコードによって構成され、各分布特徴レコードはレコード番号と領域名と累積割合値によって構成される。ここで累積割合値は0以上1以下の小数値である。   The distribution feature information is composed of a plurality of distribution feature records, and each distribution feature record is composed of a record number, a region name, and a cumulative ratio value. Here, the cumulative ratio value is a decimal value between 0 and 1.

図4に示すように、目標RGB分布情報は、第1の実施の形態と同様に、複数のRGB分布レコードによって構成される。各RGB分布レコードはレコード番号と領域名と累積割合値と目標色によって構成される。ここで累積割合値0以上1以下の少数値である。   As shown in FIG. 4, the target RGB distribution information is composed of a plurality of RGB distribution records, as in the first embodiment. Each RGB distribution record is composed of a record number, a region name, a cumulative ratio value, and a target color. Here, the cumulative ratio value is a decimal value between 0 and 1.

ここで、モデル映像が静止画の場合の目標RGB分布情報の作成手順について説明する。   Here, a procedure for creating target RGB distribution information when the model video is a still image will be described.

モデル映像のピクセルの集合をM、ある分布特徴レコードの領域名をAREA、累積割合値をAとし、モデル映像から検出したAREAの領域をMRegionAREAとして、目標色(TR,TG,TB)を

Figure 2010154484
A set of model image pixel M, the area name of a certain distribution characteristic record AREA, the cumulative percentage value is A, the area of AREA detected from the model image as mRegion AREA, target color (T R, T G, T B )
Figure 2010154484

によって求める。 Ask for.

上記手順によりモデル映像と分布特徴情報を用いて目標RGB分布情報を作成する。   The target RGB distribution information is created using the model image and the distribution feature information by the above procedure.

図4は、図16の分布特徴情報から作成された目標RGB分布情報の例である。    FIG. 4 is an example of target RGB distribution information created from the distribution feature information of FIG.

以上の手順によってモデル映像から目標RGB分布情報を作成する。また、モデル映像が動画の場合は、映像から切り出した1フレームの静止画像を用いて同様の手順によって目標RGB分布情報を作成する。   The target RGB distribution information is created from the model video by the above procedure. When the model video is a moving image, the target RGB distribution information is created by the same procedure using a still image cut out from the video.

次に、入力映像をモデル画像の色合いに近づける色変換の手順について説明する。   Next, a color conversion procedure for bringing the input video closer to the shade of the model image will be described.

上記制御値算出関数controlを用いて各分布レコードに対応して、ある色成分における制御値が算出される。例えば、あるRGB分布レコードに含まれる領域名をAREA、累積割合値をAとし、静止画像のピクセルの集合をP、静止画像から検出したAREAの領域をRegionAREAとすると、R成分における制御値は、上記制御値算出関数controlを用いて

Figure 2010154484
A control value for a certain color component is calculated corresponding to each distribution record using the control value calculation function control. For example, if the area name included in a certain RGB distribution record is AREA, the cumulative ratio value is A, the set of pixels of the still image is P, and the area of AREA detected from the still image is Region AREA , the control value in the R component is Using the control value calculation function control
Figure 2010154484

によって算出される。また、各RGB分布レコードについて、ある色成分における目標色の値を算出することで、目標値Tが設定可能となる。各RGB分布レコードに対応して制御値及び目標値を算出した例は、第1の実施の形態と同様に、図8のようになる。 Is calculated by Further, for each RGB distribution record, a target value T can be set by calculating a target color value for a certain color component. An example in which the control value and the target value are calculated corresponding to each RGB distribution record is as shown in FIG. 8 as in the first embodiment.

その他については、第1の実施の形態と同様であり、最終的には変換された映像が出力される。   Others are the same as in the first embodiment, and finally a converted video is output.

なお、映像変換部27は、色変換LUTによる色変換の強度を調整してもよい。   Note that the video conversion unit 27 may adjust the strength of color conversion by the color conversion LUT.

例えば、モデル映像を入力映像の表示領域にドラッグしている間に上記手順により色変換LUTを作成し、映像変換部27においてドラッグしているポインタの周辺部のみで色変換を行ってもよい。   For example, the color conversion LUT may be created by the above procedure while the model video is being dragged to the display area of the input video, and the color conversion may be performed only at the peripheral portion of the dragged pointer in the video conversion unit 27.

具体的には、まず、R、G、BそれぞれのLUTをLUTr、LUTg、LUTbとして、変換強度intensityに応じて色変換調整関数convertControl(r,g,b,intensity)を

Figure 2010154484
Specifically, first, R, G, B the respective LUT LUT r, LUT g, the LUT b, color conversion adjustment function convertControl depending on the conversion strength intensity (r, g, b, intensity) the
Figure 2010154484

とする。 And

次に、入力映像の表示領域上におけるドラッグポインタの座標を(px,py)として、半径r1、r2(r1<r2)を用いて色変換強度算出関数convertWeightを

Figure 2010154484
Next, assuming that the coordinates of the drag pointer on the display area of the input video are (px, py), the color conversion intensity calculation function convertWeight is set using radii r1 and r2 (r1 <r2).
Figure 2010154484

とし、入力映像の各ピクセルにおける変換強度を算出する。ここで、色変換調整関数convertControl(r,g,b,intensity)を利用して、座標(x,y)におけるピクセルのRGB値(r,g,b)を

Figure 2010154484
The conversion intensity at each pixel of the input video is calculated. Here, using the color conversion adjustment function convertControl (r, g, b, intensity), the RGB value (r, g, b) of the pixel at the coordinates (x, y) is calculated.
Figure 2010154484

によって変換することで、ポインタに近い領域ほど色変換の強度を強くして色変換を行う。 Thus, the color conversion is performed by increasing the intensity of color conversion in the region closer to the pointer.

あるいは、ドラッグしている時間の長さに応じて変換の強度を調整する場合は、ドラッグ時間をtとして定数TMAXを用いて色変換強度算出関数convertWeightを

Figure 2010154484
Alternatively, when the conversion intensity is adjusted according to the length of the dragging time, the color conversion intensity calculation function convertWeight is set using the constant T MAX with the drag time t.
Figure 2010154484

とし、convertControl(r,g,b,convertWeight(t))によって変換を行う。 And convert by convertControl (r, g, b, convertWeight (t)).

また、ドラッグしている座標位置に応じて明るさと色味それぞれの変換強度を調整することも可能である。   It is also possible to adjust the conversion strengths of brightness and color according to the coordinate position being dragged.

x座標値に合わせて明るさの変換強度を調整し、y座標値に合わせて色合いの変換強度を調整する場合は、ドラッグポインタの座標(x,y)からそれぞれ

Figure 2010154484
When adjusting the conversion strength of brightness according to the x coordinate value and adjusting the conversion strength of the hue according to the y coordinate value, respectively, from the coordinates (x, y) of the drag pointer
Figure 2010154484

として明るさと色合いの変換強度算出関数を定義する。ここで、あるピクセルのRGB(r,g,b)から輝度算出関数RGBtoY(r,g,b)を用いて

Figure 2010154484
Let us define a conversion strength calculation function for brightness and hue. Here, luminance calculation function RGBtoY (r, g, b) is used from RGB (r, g, b) of a certain pixel.
Figure 2010154484

によって変換前の輝度LとLUT変換後の輝度L’を算出し、色変換調整後の輝度L”を

Figure 2010154484
To calculate the luminance L before conversion and the luminance L ′ after LUT conversion, and calculate the luminance L ″ after color conversion adjustment.
Figure 2010154484

によって算出する。また、変換前の色合い(colorR,colorG,colorB)とLUT変換後の色合い(color'R,color'G,color'B)を

Figure 2010154484
Calculated by The color before conversion (color R , color G , color B ) and the color after LUT conversion (color ' R , color' G , color ' B )
Figure 2010154484

によって算出し、色変換関数後の色合い(color"R,color"G,color"B)を

Figure 2010154484
The color after the color conversion function (color " R , color" G , color " B )
Figure 2010154484

によって算出する。上記にて算出した色変換調整後の輝度値と色合いを用いて

Figure 2010154484
Calculated by Using the brightness value and hue after color conversion adjustment calculated above
Figure 2010154484

によって色変換調整後のRGB値を算出する。 To calculate the RGB value after the color conversion adjustment.

以上説明したように、第2の実施の形態によれば、ドラッグアンドドロップという一般的なコンピュータ操作により選択されたモデル映像に基づいて被写体の色を適切に変換できる。また、モデル映像から数式26を使用して目標色を算出するので、第1の実施の形態のように目標色を予め記憶しておく必要がなく、利便性が高い。   As described above, according to the second embodiment, the color of a subject can be appropriately converted based on a model video selected by a general computer operation called drag and drop. Further, since the target color is calculated from the model video using Formula 26, it is not necessary to store the target color in advance as in the first embodiment, which is highly convenient.

1…入力装置
2…中央処理制御装置
3…記憶装置
11…映像信号入力部
12…シャッター入力部
13…目標分布選択部
14…モデル映像入力部
21…フレーム抽出部
22…領域分割部
23…RGB変換パラメタ作成部
24…目標RGB分布作成部
25…RGB変換関数作成部
26…変換LUT作成部
27…映像変換部
28…RGB変換関数合成部
31…RGB分布記憶部
32…変換LUT記憶部
33…分布特徴記憶部
221…画像スケール変換部
222…検出対象領域切出部
223…空間周波数分析部
224…顔候補判定部
226…肌領域抽出部
227…黒目領域抽出部
DESCRIPTION OF SYMBOLS 1 ... Input device 2 ... Central processing control device 3 ... Memory | storage device 11 ... Video signal input part 12 ... Shutter input part 13 ... Target distribution selection part 14 ... Model video input part 21 ... Frame extraction part 22 ... Area division part 23 ... RGB Conversion parameter creation unit 24 ... Target RGB distribution creation unit 25 ... RGB conversion function creation unit 26 ... Conversion LUT creation unit 27 ... Video conversion unit 28 ... RGB conversion function synthesis unit 31 ... RGB distribution storage unit 32 ... Conversion LUT storage unit 33 ... Distribution feature storage unit 221 ... Image scale conversion unit 222 ... Detection target region extraction unit 223 ... Spatial frequency analysis unit 224 ... Face candidate determination unit 226 ... Skin region extraction unit 227 ... Black eye region extraction unit

Claims (19)

入力された映像を記憶する記憶手段と、
前記映像を読み出し、複数の領域に分割して記憶手段に記憶させる領域分割手段と、
所望の色成分における前記各領域のヒストグラムを作成するヒストグラム作成手段と、
前記各ヒストグラムに対して目標とする分布範囲を指定する目標範囲指定手段と、
前記各ヒストグラムを前記目標の分布範囲に分布させるように前記映像を変換するための変換パラメタを作成する変換パラメタ作成手段と、
前記変換パラメタを用いて色変換関数を作成する色変換関数作成手段と、
前記色変換関数を合成するための合成係数を算出し、該合成係数を用いて、複数の前記色変換関数を合成する色変換関数合成手段と、
前記合成後の色変換関数を前記映像に適用して映像を変換する映像変換手段と
を有し、
前記色変換関数作成手段は、
複数の顔の領域に対応してそれぞれ色変換関数を作成し、
前記色変換関数合成手段は、
複数の顔の領域に対応して作成された色変換関数を合成した色変換関数を作成する
ことを特徴とする映像変換装置。
Storage means for storing the input video;
Area dividing means for reading out the video, dividing it into a plurality of areas and storing it in a storage means;
A histogram creating means for creating a histogram of each region in a desired color component;
Target range specifying means for specifying a target distribution range for each histogram;
Conversion parameter creating means for creating a conversion parameter for converting the video so that each histogram is distributed in the target distribution range;
Color conversion function creating means for creating a color conversion function using the conversion parameter;
A color conversion function synthesis means for calculating a synthesis coefficient for synthesizing the color conversion function and synthesizing a plurality of the color conversion functions using the synthesis coefficient;
Image conversion means for converting the image by applying the composite color conversion function to the image; and
The color conversion function creating means includes:
Create color conversion functions for each face area,
The color conversion function synthesis means includes:
A video conversion device that creates a color conversion function by combining color conversion functions created corresponding to a plurality of face regions.
前記色変換関数合成手段は、
顔の領域の面積が大きいほど合成の際の重みを大きくすることを特徴とする請求項1記載の映像変換装置。
The color conversion function synthesis means includes:
2. The video conversion apparatus according to claim 1, wherein the weight of the composition is increased as the area of the face area is larger.
前記色変換関数合成手段は、
顔の領域から映像の中央までの距離が小さいほど合成の際の重みを大きくすることを特徴とする請求項1記載の映像変換装置。
The color conversion function synthesis means includes:
2. The video conversion apparatus according to claim 1, wherein the weight at the time of composition is increased as the distance from the face region to the center of the video is smaller.
前記色変換関数合成手段は、
顔の領域の色が明るいほど合成の際の重みを大きくすることを特徴とする請求項1記載の映像変換装置。
The color conversion function synthesis means includes:
2. The video conversion apparatus according to claim 1, wherein the weight of the composition is increased as the color of the face area becomes brighter.
前記目標範囲指定手段は、
前記入力された映像の表示領域にドラッグアンドドロップされたモデル映像に基づいて前記目標の分布範囲を指定する
ことを特徴とする請求項1ないし4のいずれかに記載の映像変換装置。
The target range specifying means includes
5. The video conversion device according to claim 1, wherein the target distribution range is specified based on a model video dragged and dropped onto the display area of the input video.
前記映像変換手段は、
前記ドラッグアンドドロップで使用されたポインタの場所に応じて変換強度を変更する
ことを特徴とする請求項5記載の映像変換装置。
The video conversion means includes
The video conversion apparatus according to claim 5, wherein the conversion strength is changed according to a location of the pointer used in the drag and drop.
前記映像変換手段は、
前記ドラッグアンドドロップで使用されたポインタの周辺部のみを変換する
ことを特徴とする請求項5記載の映像変換装置。
The video conversion means includes
The video conversion apparatus according to claim 5, wherein only a peripheral portion of the pointer used in the drag and drop is converted.
前記映像変換手段は、
前記ドラッグアンドドロップにおけるドラッグの時間の長さに応じて変換強度を変更する
ことを特徴とする請求項5記載の映像変換装置。
The video conversion means includes
The video conversion apparatus according to claim 5, wherein the conversion strength is changed according to a drag time length in the drag and drop.
前記映像変換手段は、
前記ドラッグアンドドロップのドロップの際のポインタの位置から最も近くに位置する顔の領域を変換の対象とする
ことを特徴とする請求項5記載の映像変換装置。
The video conversion means includes
6. The video conversion apparatus according to claim 5, wherein a face area located closest to a position of a pointer at the time of the drag-and-drop is set as a conversion target.
映像変換装置により行う映像変換方法であって、
入力された映像を記憶手段に記憶させるステップと、
前記映像を読み出し、複数の領域に分割して記憶手段に記憶させるステップと、
所望の色成分における前記各領域のヒストグラムを作成するステップと、
前記各ヒストグラムに対して目標とする分布範囲を指定するステップと、
前記各ヒストグラムを前記目標の分布範囲に分布させるように前記映像を変換するための変換パラメタを作成するステップと、
前記変換パラメタを用いて色変換関数を作成するステップと、
前記色変換関数を合成するための合成係数を算出し、該合成係数を用いて、複数の前記色変換関数を合成するステップと、
前記合成後の色変換関数を前記映像に適用して映像を変換するステップと
を有し、
前記色変換関数を作成するステップでは、
複数の顔の領域に対応してそれぞれ色変換関数を作成し、
前記色変換関数を合成するステップでは、
複数の顔の領域に対応して作成された色変換関数を合成した色変換関数を作成する
ことを特徴とする映像変換方法。
A video conversion method performed by a video conversion device,
Storing the input video in a storage means;
Reading the video, dividing it into a plurality of areas and storing it in a storage means;
Creating a histogram of each region in a desired color component;
Designating a target distribution range for each of the histograms;
Creating a conversion parameter for converting the video so that each histogram is distributed in the target distribution range;
Creating a color conversion function using the conversion parameters;
Calculating a synthesis coefficient for synthesizing the color conversion function, and using the synthesis coefficient to synthesize a plurality of the color conversion functions;
Applying the combined color conversion function to the video and converting the video;
In the step of creating the color conversion function,
Create color conversion functions for each face area,
In the step of synthesizing the color conversion function,
A video conversion method characterized by creating a color conversion function by combining color conversion functions created corresponding to a plurality of face regions.
前記色変換関数を合成するステップでは、
顔の領域の面積が大きいほど合成の際の重みを大きくすることを特徴とする請求項10記載の映像変換方法。
In the step of synthesizing the color conversion function,
11. The video conversion method according to claim 10, wherein the weight at the time of composition is increased as the area of the face region is larger.
前記色変換関数を合成するステップでは、
顔の領域から映像の中央までの距離が小さいほど合成の際の重みを大きくすることを特徴とする請求項10記載の映像変換方法。
In the step of synthesizing the color conversion function,
11. The video conversion method according to claim 10, wherein the weight at the time of composition is increased as the distance from the face region to the center of the video is smaller.
前記色変換関数を合成するステップでは、
顔の領域の色が明るいほど合成の際の重みを大きくすることを特徴とする請求項10記載の映像変換方法。
In the step of synthesizing the color conversion function,
11. The video conversion method according to claim 10, wherein the weight in the composition is increased as the color of the face region is brighter.
前記目標とする分布範囲を指定するステップでは、
前記入力された映像の表示領域にドラッグアンドドロップされたモデル映像に基づいて前記目標の分布範囲を指定する
ことを特徴とする請求項10ないし13のいずれかに記載の映像変換方法。
In the step of specifying the target distribution range,
The video conversion method according to any one of claims 10 to 13, wherein the target distribution range is specified based on a model video dragged and dropped onto the display area of the input video.
前記映像を変換するステップでは、
前記ドラッグアンドドロップで使用されたポインタの場所に応じて変換強度を変更する
ことを特徴とする請求項14記載の映像変換方法。
In the step of converting the video,
The video conversion method according to claim 14, wherein the conversion intensity is changed according to a location of a pointer used in the drag and drop.
前記映像を変換するステップでは、
前記ドラッグアンドドロップで使用されたポインタの周辺部のみを変換する
ことを特徴とする請求項14記載の映像変換方法。
In the step of converting the video,
The video conversion method according to claim 14, wherein only a peripheral portion of the pointer used in the drag and drop is converted.
前記映像を変換するステップでは、
前記ドラッグアンドドロップにおけるドラッグの時間の長さに応じて変換強度を変更する
ことを特徴とする請求項14記載の映像変換方法。
In the step of converting the video,
The video conversion method according to claim 14, wherein the conversion intensity is changed according to a drag time length in the drag and drop.
前記映像を変換するステップでは、
前記ドラッグアンドドロップのドロップの際のポインタの位置から最も近くに位置する顔の領域を変換の対象とする
ことを特徴とする請求項14記載の映像変換方法。
In the step of converting the video,
The video conversion method according to claim 14, wherein the face area located closest to the position of the pointer at the time of the drag-and-drop drop is a conversion target.
請求項1ないし9のいずれかに記載の映像変換装置としてのコンピュータに当該映像変換装置が行う処理を実行させることを特徴とする映像変換プログラム。   10. A video conversion program that causes a computer as the video conversion device according to claim 1 to execute processing performed by the video conversion device.
JP2009009862A 2008-11-18 2009-01-20 Device, method and program for video conversion Pending JP2010154484A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009009862A JP2010154484A (en) 2008-11-18 2009-01-20 Device, method and program for video conversion

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008294789 2008-11-18
JP2009009862A JP2010154484A (en) 2008-11-18 2009-01-20 Device, method and program for video conversion

Publications (1)

Publication Number Publication Date
JP2010154484A true JP2010154484A (en) 2010-07-08

Family

ID=42572980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009009862A Pending JP2010154484A (en) 2008-11-18 2009-01-20 Device, method and program for video conversion

Country Status (1)

Country Link
JP (1) JP2010154484A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013138407A (en) * 2011-11-30 2013-07-11 Ricoh Co Ltd Image processor, image processing system, image processing method, program and storage medium
JP2017518694A (en) * 2014-05-14 2017-07-06 セラビジョン、アクチボラグCella Vision Ab Image conversion based on classification

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207570A (en) * 1999-01-18 2000-07-28 Canon Inc Device and method for extracting contour line and storage medium
JP2001251530A (en) * 1999-12-27 2001-09-14 Fuji Photo Film Co Ltd Image processing method, image processor and recording medium
JP2005051407A (en) * 2003-07-31 2005-02-24 Canon Inc Image processing method and device
JP2005080239A (en) * 2003-09-03 2005-03-24 Olympus Corp Image display program, image display device and image display method
JP2007194683A (en) * 2006-01-17 2007-08-02 Fuji Xerox Co Ltd Color adjustment method, color adjustment apparatus, and color adjustment program
JP2007249802A (en) * 2006-03-17 2007-09-27 Noritsu Koki Co Ltd Image processor and image processing method
JP2007281858A (en) * 2006-04-06 2007-10-25 Omron Corp Animation editing device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207570A (en) * 1999-01-18 2000-07-28 Canon Inc Device and method for extracting contour line and storage medium
JP2001251530A (en) * 1999-12-27 2001-09-14 Fuji Photo Film Co Ltd Image processing method, image processor and recording medium
JP2005051407A (en) * 2003-07-31 2005-02-24 Canon Inc Image processing method and device
JP2005080239A (en) * 2003-09-03 2005-03-24 Olympus Corp Image display program, image display device and image display method
JP2007194683A (en) * 2006-01-17 2007-08-02 Fuji Xerox Co Ltd Color adjustment method, color adjustment apparatus, and color adjustment program
JP2007249802A (en) * 2006-03-17 2007-09-27 Noritsu Koki Co Ltd Image processor and image processing method
JP2007281858A (en) * 2006-04-06 2007-10-25 Omron Corp Animation editing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013138407A (en) * 2011-11-30 2013-07-11 Ricoh Co Ltd Image processor, image processing system, image processing method, program and storage medium
JP2017518694A (en) * 2014-05-14 2017-07-06 セラビジョン、アクチボラグCella Vision Ab Image conversion based on classification

Similar Documents

Publication Publication Date Title
JP3880553B2 (en) Image processing method and apparatus
JP5205968B2 (en) Gradation correction method, gradation correction apparatus, gradation correction program, and image device
JP5397059B2 (en) Image processing apparatus and method, program, and recording medium
US7466868B2 (en) Determining parameters for adjusting images
JP2009038523A (en) Unit and method for processing image
JP5235759B2 (en) Image processing apparatus, image processing method, and program
JP2005277981A (en) Target image selection for image processing
JP3673092B2 (en) Image quality adjusting apparatus, image quality adjusting method, and recording medium recording image adjusting program
JP2008072604A (en) Image processing system, apparatus, medium, and program
JP2007087123A (en) Image correction method, device and program
JP2003309859A (en) Image processing apparatus, image processing method, and image processing program
JP2014078808A (en) Image processing apparatus and image processing method
JP2007042033A (en) Color correction apparatus and image display device
JP2010154484A (en) Device, method and program for video conversion
JP5203159B2 (en) Image processing method, image processing system, and image processing program
JP2006114006A (en) Gradation conversion apparatus, program, electronic camera, and method therefor
JP2002140700A (en) Method and device for processing color image
JP2012083848A (en) Image processing device, image processing method, imaging device, and image processing program
JP2008294969A (en) Video image conversion apparatus, method, and program
JP2007243987A (en) Image processing method, image processing system, and image processing program
JP5069599B2 (en) Video conversion apparatus, video conversion method, and video conversion program
JP5227651B2 (en) Video conversion apparatus, video conversion method, and video conversion program
JP2008312177A (en) Apparatus, method and program, for converting gradation of video image
JP4838224B2 (en) Gradation conversion device and method, program
JP2007158446A (en) Image processor, image processing method and program, recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110114

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20120509

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130709