JP5421939B2 - Color correction apparatus, color correction method, and color correction program - Google Patents
Color correction apparatus, color correction method, and color correction program Download PDFInfo
- Publication number
- JP5421939B2 JP5421939B2 JP2011024749A JP2011024749A JP5421939B2 JP 5421939 B2 JP5421939 B2 JP 5421939B2 JP 2011024749 A JP2011024749 A JP 2011024749A JP 2011024749 A JP2011024749 A JP 2011024749A JP 5421939 B2 JP5421939 B2 JP 5421939B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- region
- scanning
- area
- color correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Processing (AREA)
Description
本発明は、動画像の色を補正する技術に関する。 The present invention relates to a technique for correcting the color of a moving image.
視差を利用して立体視可能な立体映像を生成する際、異なる位置に配置された一対の撮影手段、例えばステレオカメラ等の複眼撮影装置を用いる。一般的に同機種のカメラであれば、カメラの設定のみで獲得する映像の色味の調整が容易に行えるので、映像間の色差を減らすことが容易である。 When generating stereoscopic images that can be stereoscopically viewed using parallax, a pair of photographing means arranged at different positions, for example, a compound eye photographing device such as a stereo camera is used. In general, cameras of the same model can easily adjust the color tone of an image acquired only by setting the camera, so that it is easy to reduce the color difference between images.
機種の異なる2台のカメラ間で色差を減らすために色補正を行う従来の技術としては、変換多項式を利用して色補正を行う手法(非特許文献1参照)や、画像のヒストグラムが一致するように色補正を行う手法(非特許文献2参照)が開示されている。 Conventional techniques for performing color correction in order to reduce the color difference between two cameras of different models include a method of performing color correction using a conversion polynomial (see Non-Patent Document 1) and image histograms. Thus, a method of performing color correction (see Non-Patent Document 2) is disclosed.
しかしながら、非特許文献1では被写体にカラーチャートを含める必要がある。非特許文献2では2台のカメラが離れている場合や角度が大きい場合、例えば、対象の色が一方の画像には見えているが他方の画像には角度の問題から見えていないといったシーンにおける色補正に対応していないという問題があった。
However, in
本発明は、上記に鑑みてなされたものであり、同じ被写体を2台の仕様の異なるカメラを並べて撮影した際に得られる2つの動画像の間に生じる色差を減らすことを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to reduce a color difference generated between two moving images obtained when two cameras with different specifications are photographed side by side with the same subject.
第1の本発明に係る色補正装置は、同一の被写体を撮影した2つの動画像を入力して蓄積手段に蓄積させる入力手段と、前記蓄積手段に蓄積された前記2つの動画像それぞれから同時刻におけるフレーム画像を抽出する抽出手段と、前記フレーム画像それぞれの各画素を複数の領域のいずれかに分類する領域分割手段と、前記フレーム画像間で対応する領域を判定し、前記領域毎に色の対応関係を求める領域判定手段と、前記色の対応関係に基づいて一方の色を変換したときに他方の色となる変換規則を学習する学習手段と、前記変換規則を用いて前記動画像の一方の色を補正する色補正手段と、を有することを特徴とする。 According to a first aspect of the present invention, there is provided a color correction apparatus comprising: an input unit that inputs two moving images obtained by photographing the same subject and stores them in a storage unit; and the two moving images stored in the storage unit. Extraction means for extracting a frame image at a time, area division means for classifying each pixel of each frame image into one of a plurality of areas, a corresponding area between the frame images is determined, and a color for each area Region determining means for obtaining a correspondence relationship between the color image, learning means for learning a conversion rule to be the other color when one color is converted based on the color correspondence relationship, and using the conversion rule, And color correction means for correcting one of the colors.
上記色補正装置において、前記領域判定手段は、前記フレーム画像それぞれに走査領域を設定して前記フレーム画像それぞれを走査し、前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を求めて、前記フレーム画像それぞれの対応する前記走査領域間で当該走査領域内に存在する前記領域の色を比較して対応する領域を判定することを特徴とする。 In the color correction apparatus, the area determination unit sets a scanning area for each frame image and scans each frame image, and the area existing in the scanning area for each scanning area and the color of the area And the corresponding region is determined by comparing the color of the region existing in the scanning region between the corresponding scanning regions of each of the frame images.
上記色補正装置において、前記領域判定手段は、前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を記載した走査結果表を作成し、前記走査結果表の前記走査領域を検索し、前記フレーム画像それぞれの対応する走査領域内に存在する前記領域の数が少ない前記走査領域から順に、前記対応する走査領域間で前記領域の色のユークリッド距離を求めて、所定の閾値以下で前記ユークリッド距離が最も近い領域を対応する領域として判定することを特徴とする。 In the color correction apparatus, the area determination unit creates a scan result table in which the area existing in the scan area and the color of the area are described for each scan area, and the scan area of the scan result table is displayed. A search is performed to obtain the Euclidean distance of the color of the region between the corresponding scanning regions in order from the scanning region in which the number of the regions existing in the corresponding scanning region of each of the frame images is small. The region having the closest Euclidean distance is determined as the corresponding region.
上記色補正装置において、色補正手段が補正した動画像と他方の動画像のそれぞれから同時刻におけるフレーム画像を抽出して色の対応関係を求め、対応する色間の色差が所定の閾値を上回る場合は、追加学習を行わせる判定手段を有することを特徴とする。 In the color correction apparatus, a frame image at the same time is extracted from each of the moving image corrected by the color correcting unit and the other moving image to obtain a color correspondence relationship, and a color difference between corresponding colors exceeds a predetermined threshold value. In such a case, it is characterized by having determination means for performing additional learning.
第2の本発明に係る色補正方法は、同一の被写体を撮影した2つの動画像を入力して蓄積手段に蓄積させるステップと、前記蓄積手段に蓄積された前記2つの動画像それぞれから同時刻におけるフレーム画像を抽出するステップと、前記フレーム画像それぞれの各画素を複数の領域のいずれかに分類するステップと、前記フレーム画像間で対応する領域を判定するステップと、前記対応する領域毎に色の対応関係を求めるステップと、前記色の対応関係に基づいて一方の色を変換したときに他方の色となる変換規則を学習するステップと、前記変換規則を用いて前記動画像の一方の色を補正するステップと、を有することを特徴とする。 In the color correction method according to the second aspect of the present invention, the step of inputting two moving images obtained by photographing the same subject and storing them in the storage means and the two moving images stored in the storage means at the same time Extracting a frame image in each of the above, a step of classifying each pixel of each of the frame images into one of a plurality of regions , a step of determining a corresponding region between the frame images, and a color for each corresponding region A step of obtaining a correspondence relationship, a step of learning a conversion rule that becomes the other color when one color is converted based on the correspondence relationship of the color, and one color of the moving image using the conversion rule And a step of correcting.
上記色補正方法において、前記対応する領域を判定するステップは、前記フレーム画像それぞれに走査領域を設定して前記フレーム画像それぞれを走査し、前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を求めて、前記フレーム画像それぞれの対応する前記走査領域間で当該走査領域内に存在する前記領域の色を比較して対応する領域を判定することを特徴とする。 In the color correction method, the step of determining the corresponding area sets a scanning area for each of the frame images, scans each of the frame images, and each of the scanning areas includes the area existing in the scanning area. The color of the region is obtained, and the corresponding region is determined by comparing the color of the region existing in the scanning region between the corresponding scanning regions of each of the frame images.
上記色補正方法において、前記対応する領域を判定するステップは、前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を記載した走査結果表を作成し、前記走査結果表の前記走査領域を検索し、前記フレーム画像それぞれの対応する走査領域内に存在する前記領域の数が少ない前記走査領域から順に、前記対応する走査領域間で前記領域の色のユークリッド距離を求めて、所定の閾値以下で前記ユークリッド距離が最も近い領域を対応する領域として判定することを特徴とする。 In the color correction method, the step of determining the corresponding region creates a scanning result table in which the region existing in the scanning region and the color of the region are described for each scanning region, The scanning area is searched, and the Euclidean distance of the color of the area is determined between the corresponding scanning areas in order from the scanning area where the number of the areas existing in the corresponding scanning area of each of the frame images is small, The region having the Euclidean distance that is equal to or smaller than a predetermined threshold is determined as a corresponding region.
上記色補正方法において、補正した動画像と他方の動画像のそれぞれから同時刻におけるフレーム画像を抽出して色の対応関係を求め、対応する色間の色差が所定の閾値を上回る場合は、追加学習を行わせるステップを有することを特徴とする。 In the above color correction method, a frame image at the same time is extracted from each of the corrected moving image and the other moving image to obtain a color correspondence relationship, and if the color difference between the corresponding colors exceeds a predetermined threshold value, add It has the step which performs learning, It is characterized by the above-mentioned.
第3の本発明に係る色補正プログラムは、上記色補正方法をコンピュータに実行させることを特徴とする。 A color correction program according to a third aspect of the present invention causes a computer to execute the color correction method.
本発明によれば、同じ被写体を2台の仕様の異なるカメラを並べて撮影した際に得られる2つの動画像の間に生じる色差を減らすことができる。 According to the present invention, it is possible to reduce the color difference between two moving images obtained when two cameras with different specifications are photographed side by side with the same subject.
以下、本発明の実施の形態について図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本実施の形態における色補正装置の構成を示すブロック図である。同図に示す色補正装置1は、フレーム抽出部2、領域分割部3、領域比較部4、対応色学習部5、色補正動画像生成部6、色差評価部7、メディア制御部8、および表示部9を備える。色補正装置1が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは色補正装置1が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。
FIG. 1 is a block diagram showing the configuration of the color correction apparatus according to this embodiment. The
フレーム抽出部2は、2つの動画像それぞれから同時刻のフレーム画像を所定の枚数抽出する。
The
領域分割部3は、フレーム抽出部2が抽出したフレーム画像に対して領域分割処理を行い、フレーム画像に領域情報が付与された領域画像を生成する。
The
領域比較部4は、同時刻のフレーム画像から生成された領域画像を比較し、2つの画像間における領域の対応関係、領域毎の色の対応関係を記録した対応関係表を生成する。
The
対応色学習部5は、領域比較部4が生成した対応関係表の色の対応関係を学習して、対応する領域間の色の変換規則を得る。
The corresponding
色補正動画像生成部6は、対応色学習部5で作成した学習結果を用いて一方の動画像に対して色変換を行う。
The color correction moving
色差評価部7は、色変換後の動画像間の色差を評価する。
The color
メディア制御部8は、メディア8Aから動画像を読み出す。
The
表示部9は、動画像の再生を行う。
The
次に、色補正装置1の処理の流れについて説明する。
Next, the processing flow of the
図2は、本実施の形態における色補正装置1が動画像間の色差を減らす処理の流れを示すフローチャートである。色補正装置1の処理は、学習フェーズ、補正フェーズ、判定フェーズの3段階に分けることができる。
FIG. 2 is a flowchart showing a flow of processing in which the
まず、学習フェーズ(ステップST1〜ST5)について説明する。 First, the learning phase (steps ST1 to ST5) will be described.
メディア制御部8は、動画像MA,MBをメディア8Aから読み出し、色補正装置1の備えた記憶手段に記憶させる(ステップST1)。動画像MA,MBは、機種の異なる2台のカメラで得られたものであり、フレームレート、動画像サイズ、時刻などのカメラ側で調整できるパラメータを一致させ、同一の被写体を同タイミングで異なる視点から撮影したものである。
The
続いて、フレーム抽出部2は、読み込んだ2つの動画像MA,MBから、同時刻のフレーム画像MA(t),MB(t)をランダムに適当な枚数だけ抽出する(ステップST2)。図3に示す例では、ランダムに選択した時刻t=0,5,9のときの動画像MAのフレーム画像MA(0),MA(5),MA(9)と、動画像MBのフレーム画像MB(0),MB(5),MB(9)を抽出している。
Subsequently, the
続いて、領域分割部3は、フレーム抽出部2が抽出したフレーム画像MA(t),MB(t)に対して領域分割処理を行い、領域画像RA(t),RB(t)を生成する(ステップST3)。領域分割法として、k−means法、Mean Shift法、領域拡張法など既存の各種領域分割の手法を用いることができる。図4は、フレーム画像から領域画像を生成した例を示す図である。同図に示す例では、図4(a)に示すフレーム画像MA(0),MB(0)に対してMean Shift法を用いて領域分割処理を施し、それぞれa〜e,f〜kの部分領域に分割された図4(b)に示す領域画像RA(0),RB(0)が生成された。領域画像RA(0),RB(0)は、部分領域を識別する領域番号情報に元のフレーム画像MA(0),MB(0)の情報を加えたものである。つまり、領域画像RA(0),RB(0)は、画素毎にRGB値と領域番号を持つデータとなる。
Subsequently, the
続いて、領域比較部4は、領域分割部3が生成した領域画像RA(t),RB(t)を比較し、座標と色の類似性から2つの画像間における領域の対応関係と領域毎の色の対応関係を記載した対応関係表を生成する(ステップST4)。領域比較部4が生成した対応関係表の例を図5に示す。なお、対応関係を決定する処理の詳細については後述する。
Subsequently, the
続いて、対応色学習部5は、領域比較部4が生成した対応関係表の色の対応関係を学習して、対応する2つの領域のうち一方の領域の色からもう一方の領域の色への変換規則を得る(ステップST5)。例えば、フィードフォワード型のニューラルネットワークで誤差逆伝播法を用いて学習を行う場合、図6に示す構成が考えられる。領域画像RA(t)のある領域の平均RGB値を入力値R,G,Bとして入力層50に入力すると、中間層51を経て出力層52から出力値R’,G’,B’として出力される。領域画像RB(t)の対応する領域の平均RGB値は正解値(教師値)53に相当する。この正解値R”,G”,B”と出力値R’,G’,B’を比較したときの誤差が最小となるように中間層51のパラメータ調整を行う。これを領域比較部4が生成した色の対応関係の組み合わせで行うことで学習する。なお、図5の領域kのように対応する領域がない場合は、その領域の色は学習に使用しない。
Subsequently, the correspondence
次に、補正フェーズ(ステップST6)の処理内容について説明する。 Next, the processing content of the correction phase (step ST6) will be described.
色補正動画像生成部6は、対応色学習部5で作成した学習結果を用い、動画像MAの全フレーム画像MA(t)に対して色変換を行い、色補正した動画像MA’を生成する(ステップST6)。
The color correction moving
次に、判定フェーズ(ステップST6〜ST11)の処理内容について説明する。 Next, processing contents of the determination phase (steps ST6 to ST11) will be described.
まず、色補正した動画像MA’と動画像MBに対して、ステップST2〜ST4の処理と同様の処理を行って色の対応関係を決定する(ステップST7〜ST9)。具体的には、まず、フレーム抽出部2が、動画像MB,MA’から同時刻のフレーム画像MB(t),MA’(t)のランダム抽出を行う(ステップST7)。続いて、領域分割部3が、抽出したフレーム画像MB(t),MA’(t)に対して領域分割処理を行って領域画像RB(t),RA’(t)を生成する。さらに、領域比較部4が、領域画像RB(t),RA’(t)の領域同士の対応関係と色の対応関係を決定する(ステップST9)。
First, the color-corresponding relationship is determined by performing the same processing as the processing in steps ST2 to ST4 on the color-corrected moving image MA 'and moving image MB (steps ST7 to ST9). Specifically, first, the
そして、色差評価部7が、対応する各領域の平均RGB値のユークリッド距離を基準に色差を評価し(ステップST10)、色差が別途設定する閾値を下回る場合は(ステップST11のNo)、色補正した動画像MA’が生成されたとみなし処理を終了する。色差が別途設定する閾値を上回る場合は(ステップST11のYes)、ステップST2に戻り、新たなフレーム画像MA(t),MB(t)を用いて追加学習を行う。なお、色差の評価方法は、上記の方法に限らず、他の方法を用いるものでもよい。
Then, the color
次に、領域比較部4が対応関係を決定する処理について説明する。対応関係の決定は、領域画像の走査と走査結果から対応関係を生成する処理からなる。
Next, the process in which the
まず、領域画像を走査する処理について説明する。図7は、領域比較部4が領域画像を走査する処理の流れを示すフローチャートである。
First, processing for scanning a region image will be described. FIG. 7 is a flowchart showing a flow of processing in which the
領域画像RA(t),RB(t)上に、画像左上の座標(0,0)を基準とした、横幅が画像の最大横幅サイズ、縦幅が所定のサイズとなる画像走査用の窓を配置する(ステップST31)。図8に画像走査用の窓の例を示す。同図に示す例では、領域画像RA(t),RB(t)それぞれの画像サイズは320×240画素であり、窓サイズを320×10画素と設定した。なお、窓の画素数は任意に設定可能である。 On the region images RA (t) and RB (t), an image scanning window having a horizontal width that is the maximum horizontal width size of the image and a vertical width that is a predetermined size on the basis of the coordinates (0, 0) at the upper left of the image. Arrange (step ST31). FIG. 8 shows an example of an image scanning window. In the example shown in the figure, the image size of each of the area images RA (t) and RB (t) is 320 × 240 pixels, and the window size is set to 320 × 10 pixels. The number of pixels in the window can be arbitrarily set.
続いて、窓内の左上の画素から順にRGB値と領域情報を読み出して一時的に記憶し(ステップST32)、窓内を左上から右下へ向って走査するように次の画素を選択する(ステップST33)。選択した画素が窓内であれば(ステップST34のYes)、ステップST32に戻りRGB値と領域情報を読み出す。 Subsequently, RGB values and area information are read out in order from the upper left pixel in the window and temporarily stored (step ST32), and the next pixel is selected so as to scan the window from the upper left to the lower right ( Step ST33). If the selected pixel is within the window (Yes in step ST34), the process returns to step ST32 to read out the RGB value and area information.
窓内の画素を全て走査し終えたら(ステップST34のNo)、一時的に記憶しておいたRGB値を領域毎に平均し(ステップST35)、走査結果として、窓内に存在する領域情報、窓内の領域毎の平均RGB値、窓内の領域数を記録する(ステップST36)。 When all the pixels in the window have been scanned (No in step ST34), the temporarily stored RGB values are averaged for each region (step ST35), and as a scanning result, region information existing in the window, The average RGB value for each area in the window and the number of areas in the window are recorded (step ST36).
そして、窓の縦の画素数分だけ窓の配置位置をy軸方向に移動させる(ステップST37)。窓が領域画像RA(t),RB(t)内に配置されている場合は(ステップST38のYes)、ステップST32〜ST37の処理を繰り返す。これにより、図9に示すように、領域画像RA(t),RB(t)が上から順に走査される。 Then, the window arrangement position is moved in the y-axis direction by the number of vertical pixels of the window (step ST37). When the window is arranged in the area images RA (t) and RB (t) (Yes in step ST38), the processes in steps ST32 to ST37 are repeated. Thereby, as shown in FIG. 9, the area images RA (t) and RB (t) are scanned in order from the top.
図10に、図7に示す処理により生成された走査結果表を示す。図10に示すように、走査結果表には、走査領域S1〜S24毎に、検出された領域数、領域情報、平均RGB値が記録される。領域情報と平均RGB値の組みは各走査領域S1〜S24の領域数記録される。例えば、図10の領域画像RA(t)の走査領域S3では、平均RGB値が(88,2,9)の領域aと平均RGB値が(90,13,6)の領域cの2つの領域が存在する。 FIG. 10 shows a scanning result table generated by the processing shown in FIG. As shown in FIG. 10, the number of detected areas, area information, and average RGB values are recorded in the scanning result table for each of the scanning areas S1 to S24. The combination of the area information and the average RGB value is recorded as the number of areas in each of the scanning areas S1 to S24. For example, in the scanning region S3 of the region image RA (t) in FIG. 10, two regions, a region a having an average RGB value of (88, 2, 9) and a region c having an average RGB value of (90, 13, 6). Exists.
続いて、走査結果表から対応関係を生成する処理について説明する。図11は、走査結果表から対応関係を生成する処理の流れを示すフローチャートである。 Next, processing for generating a correspondence relationship from the scanning result table will be described. FIG. 11 is a flowchart showing a flow of processing for generating a correspondence from the scanning result table.
走査結果表から領域数が最も少ない走査領域を検索する(ステップST39)。 The scanning area with the smallest number of areas is searched from the scanning result table (step ST39).
領域画像RA(t),RB(t)ともに領域数が1の場合(ステップST40のYes)、その領域は対応する関係にあると判定する(ステップST41)。 When the number of regions is 1 for both the region images RA (t) and RB (t) (Yes in step ST40), it is determined that the regions have a corresponding relationship (step ST41).
領域画像RA(t),RB(t)ともに領域数が1ではない場合(ステップST40のNo)、図12に示すように、領域画像RA(t),RB(t)の領域間の平均RGB値のユークリッド距離を求め、閾値Lを下回る最も距離の近いものから順番に対応関係にあると判定する(ステップST42)。なお、RGB値が8bit(0〜255)の場合、閾値Lは(0<L≦255√3)の範囲内で設定される。求めたユークリッド距離が閾値Lを上回る領域同士は対応付けを行わない。 When the number of regions is not 1 in both the region images RA (t) and RB (t) (No in step ST40), as shown in FIG. 12, the average RGB between the regions of the region images RA (t) and RB (t) The Euclidean distance of the value is obtained, and it is determined that there is a correspondence in order from the closest distance below the threshold L (step ST42). When the RGB value is 8 bits (0 to 255), the threshold value L is set within the range of (0 <L ≦ 255√3). The areas where the obtained Euclidean distance exceeds the threshold L are not associated.
また、領域の総数の最も少ない走査領域が複数検索されたときに、領域画像RA(t),RB(t)それぞれの領域数が同じ場合は(1:1,2:2など)、早く検索された側を優先して処理し、領域画像RA(t),RB(t)それぞれの領域数が異なる場合は(1:3,2:3など)、最小の総数が入っている側(この場合は1:3)を優先して処理する。 In addition, when a plurality of scanning areas having the smallest total number of areas are searched and the area images RA (t) and RB (t) have the same number of areas (1: 1, 2: 2, etc.), the search is quickly performed. If the number of regions of the region images RA (t) and RB (t) is different (1: 3, 2: 3, etc.), the side with the smallest total number (this In this case, 1: 3) is preferentially processed.
対応する領域が判明したら、対応する領域それぞれの走査結果表全体における平均RGB値を求め(ステップST43)、対応する領域情報と求めた平均RGB値を対応関係表に記録する(ステップST44)。具体的には、図10において、領域aと領域fが対応する関係であると判定した場合、領域aの平均RGB値は、走査領域S1のRGB値(90,2,10)、走査領域S2のRGB値(90,0,3)、走査領域S3のRGB値(88,2,9)などを平均して求める。そして、対応関係表の領域の対応欄に領域aと領域fを、色の対応欄に領域aの平均RGB値(90,2,12)と領域fの平均RGB値(80,2,17)を記録する。 When the corresponding area is found, the average RGB value in the entire scanning result table of each corresponding area is obtained (step ST43), and the corresponding area information and the obtained average RGB value are recorded in the correspondence table (step ST44). Specifically, in FIG. 10, when it is determined that the region a and the region f have a corresponding relationship, the average RGB value of the region a is the RGB value (90, 2, 10) of the scanning region S1, and the scanning region S2. Are obtained by averaging the RGB values (90, 0, 3) and the RGB values (88, 2, 9) of the scanning region S3. Then, the region a and the region f are displayed in the corresponding column of the region of the correspondence table, and the average RGB value (90, 2, 12) of the region a and the average RGB value (80, 2, 17) of the region f are stored in the color corresponding column. Record.
その後、判定済みの領域情報を走査結果表から削除し、領域数を減らす(ステップST45)。具体的には、図10に示す走査結果表から判定済みの領域a,fの情報を削除する。図13に、領域a,fの情報を削除した走査結果表を示す。 Thereafter, the determined area information is deleted from the scan result table to reduce the number of areas (step ST45). Specifically, information on the determined areas a and f is deleted from the scanning result table shown in FIG. FIG. 13 shows a scanning result table in which information on the areas a and f is deleted.
そして、走査結果表に未判定領域が残っているか否かを確認し(ステップST46)、未判定領域が残っている場合はステップST39に戻り、全て判定済みの場合は対応関係表の生成を終了する。 Then, it is confirmed whether or not an undetermined area remains in the scanning result table (step ST46). If there is an undetermined area remaining, the process returns to step ST39. To do.
なお、本実施の形態では、領域の色情報として平均RGB値を用いたが、これに限るものではなく、中央値、最頻値などの別の統計値を用いるものでもよく、RGB値の代わりにHSVなどの別の色空間を用いてもよい。 In this embodiment, the average RGB value is used as the color information of the area. However, the present invention is not limited to this, and another statistical value such as a median value or a mode value may be used instead of the RGB value. Alternatively, another color space such as HSV may be used.
次に、本実施の形態における別の色補正装置について説明する。 Next, another color correction apparatus according to the present embodiment will be described.
図14、本実施の形態における別の色補正装置の構成を示すブロック図である。同図に示す色補正装置1は、図1に示す色補正装置に立体動画像生成部11を追加し、立体動画像を生成するものである。
FIG. 14 is a block diagram illustrating a configuration of another color correction apparatus according to the present embodiment. The
図2のステップST11の処理の後に、立体動画像生成部11は、色補正した動画像MA’と動画像MBに対して動画像合成処理を行う。立体動画像は、フレームシーケンシャル方式やサイドバイサイド方式など、視聴形態、視聴環境に合ったフォーマットで生成する。
After the process of step ST11 in FIG. 2, the stereoscopic moving
以上説明したように、本実施の形態によれば、同一の被写体を撮影した2つの動画像MA,MBそれぞれから同時刻におけるフレーム画像MA(t),MB(t)を抽出し、フレーム画像MA(t),MB(t)を複数の領域に分割した領域画像RA(t),RB(t)を生成し、領域画像RA(t),RB(t)間で領域の対応関係および領域毎の色の対応関係を求め、色の対応関係に基づいてフレーム画像MA(t)からMB(t)への色の変換規則を学習し、学習した変換規則に基づいて動画像MAを色補正した動画像MA’を生成することにより、2つの動画像MA,MBの間に生じる色差を減らすことが可能となる。 As described above, according to the present embodiment, the frame images MA (t) and MB (t) at the same time are extracted from the two moving images MA and MB obtained by photographing the same subject, and the frame image MA is extracted. Region images RA (t) and RB (t) obtained by dividing (t) and MB (t) into a plurality of regions are generated, and the region correspondences between the region images RA (t) and RB (t) and for each region The color correspondence from the frame image MA (t) to MB (t) is learned based on the color correspondence, and the moving image MA is color-corrected based on the learned conversion rule. By generating the moving image MA ′, it is possible to reduce the color difference generated between the two moving images MA and MB.
本実施の形態によれば、色補正した動画像MA’と動画像MBそれぞれから同時刻におけるフレーム画像MA’(t),MB(t)を抽出し、領域の分割、領域の対応関係、領域毎の色の対応関係を求め、対応する色間の色差が所定の閾値を上回る場合は、新たなフレーム画像MA(t),MB(t)を用いて追加学習を行うことにより、より正確に2つの動画像MA,MBの間に生じる色差を減らすことが可能となる。 According to the present embodiment, the frame images MA ′ (t) and MB (t) at the same time are extracted from the color-corrected moving image MA ′ and the moving image MB, respectively, and the region is divided, the region correspondence relationship, the region If the color correspondence for each color is obtained, and the color difference between the corresponding colors exceeds a predetermined threshold value, additional learning is performed using new frame images MA (t) and MB (t), thereby more accurately. It is possible to reduce the color difference generated between the two moving images MA and MB.
1…色補正装置
2…フレーム抽出部
3…領域分割部
4…領域比較部
5…対応色学習部
6…色補正動画像生成部
7…色差評価部
8…メディア制御部
8A…メディア
9…表示部
11…立体動画像生成部
50…入力層
51…中間層
52…出力層
53…正解値
DESCRIPTION OF
Claims (9)
前記蓄積手段に蓄積された前記2つの動画像それぞれから同時刻におけるフレーム画像を抽出する抽出手段と、
前記フレーム画像それぞれの各画素を複数の領域のいずれかに分類する領域分割手段と、
前記フレーム画像間で対応する領域を判定し、前記領域毎に色の対応関係を求める領域判定手段と、
前記色の対応関係に基づいて一方の色を変換したときに他方の色となる変換規則を学習する学習手段と、
前記変換規則を用いて前記動画像の一方の色を補正する色補正手段と、
を有することを特徴とする色補正装置。 Input means for inputting two moving images of the same subject and storing them in the storage means;
Extraction means for extracting a frame image at the same time from each of the two moving images stored in the storage means;
Area dividing means for classifying each pixel of each of the frame images into one of a plurality of areas;
A region determination unit that determines a corresponding region between the frame images and obtains a color correspondence for each region;
Learning means for learning a conversion rule to be the other color when one color is converted based on the color correspondence;
Color correction means for correcting one color of the moving image using the conversion rule;
A color correction apparatus comprising:
前記フレーム画像それぞれに走査領域を設定して前記フレーム画像それぞれを走査し、
前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を求めて、
前記フレーム画像それぞれの対応する前記走査領域間で当該走査領域内に存在する前記領域の色を比較して対応する領域を判定すること
を特徴とする請求項1記載の色補正装置。 The area determination means includes
Scanning each frame image by setting a scanning area for each frame image;
For each scanning region, obtain the region existing in the scanning region and the color of the region,
The color correction apparatus according to claim 1, wherein the corresponding region is determined by comparing the color of the region existing in the scanning region between the corresponding scanning regions of each of the frame images.
前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を記載した走査結果表を作成し、
前記走査結果表の前記走査領域を検索し、前記フレーム画像それぞれの対応する走査領域内に存在する前記領域の数が少ない前記走査領域から順に、前記対応する走査領域間で前記領域の色のユークリッド距離を求めて、所定の閾値以下で前記ユークリッド距離が最も近い領域を対応する領域として判定すること
を特徴とする請求項2記載の色補正装置。 The area determination means includes
For each scanning area, create a scanning result table that describes the area present in the scanning area and the color of the area,
The scanning area of the scanning result table is searched, and the Euclidean color of the area between the corresponding scanning areas in order from the scanning area having the smallest number of the areas existing in the corresponding scanning area of each of the frame images. The color correction apparatus according to claim 2, wherein a distance is obtained, and an area where the Euclidean distance is the shortest with a predetermined threshold or less is determined as a corresponding area.
前記蓄積手段に蓄積された前記2つの動画像それぞれから同時刻におけるフレーム画像を抽出するステップと、
前記フレーム画像それぞれの各画素を複数の領域のいずれかに分類するステップと、
前記フレーム画像間で対応する領域を判定するステップと、
前記対応する領域毎に色の対応関係を求めるステップと、
前記色の対応関係に基づいて一方の色を変換したときに他方の色となる変換規則を学習するステップと、
前記変換規則を用いて前記動画像の一方の色を補正するステップと、
を有することを特徴とする色補正方法。 Inputting two moving images of the same subject and storing them in the storage means;
Extracting a frame image at the same time from each of the two moving images stored in the storage means;
Classifying each pixel of each of the frame images into one of a plurality of regions;
Determining a corresponding region between the frame images;
Obtaining a color correspondence for each corresponding region;
Learning a conversion rule to be the other color when one color is converted based on the color correspondence;
Correcting one color of the moving image using the conversion rule;
A color correction method comprising:
前記フレーム画像それぞれに走査領域を設定して前記フレーム画像それぞれを走査し、
前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を求めて、
前記フレーム画像それぞれの対応する前記走査領域間で当該走査領域内に存在する前記領域の色を比較して対応する領域を判定すること
を特徴とする請求項5記載の色補正方法。 Determining the corresponding region comprises:
Scanning each frame image by setting a scanning area for each frame image;
For each scanning region, obtain the region existing in the scanning region and the color of the region,
The color correction method according to claim 5, wherein the corresponding region is determined by comparing the color of the region existing in the scanning region between the corresponding scanning regions of each of the frame images.
前記走査領域毎に当該走査領域内に存在する前記領域と当該領域の色を記載した走査結果表を作成し、
前記走査結果表の前記走査領域を検索し、前記フレーム画像それぞれの対応する走査領域内に存在する前記領域の数が少ない前記走査領域から順に、前記対応する走査領域間で前記領域の色のユークリッド距離を求めて、所定の閾値以下で前記ユークリッド距離が最も近い領域を対応する領域として判定すること
を特徴とする請求項6記載の色補正方法。 Determining the corresponding region comprises:
For each scanning area, create a scanning result table that describes the area present in the scanning area and the color of the area,
The scanning area of the scanning result table is searched, and the Euclidean color of the area between the corresponding scanning areas in order from the scanning area having the smallest number of the areas existing in the corresponding scanning area of each of the frame images. The color correction method according to claim 6, wherein a distance is obtained, and an area where the Euclidean distance is the shortest with a predetermined threshold or less is determined as a corresponding area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011024749A JP5421939B2 (en) | 2011-02-08 | 2011-02-08 | Color correction apparatus, color correction method, and color correction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011024749A JP5421939B2 (en) | 2011-02-08 | 2011-02-08 | Color correction apparatus, color correction method, and color correction program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012165232A JP2012165232A (en) | 2012-08-30 |
JP5421939B2 true JP5421939B2 (en) | 2014-02-19 |
Family
ID=46844188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011024749A Expired - Fee Related JP5421939B2 (en) | 2011-02-08 | 2011-02-08 | Color correction apparatus, color correction method, and color correction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5421939B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11328441B2 (en) * | 2017-10-27 | 2022-05-10 | Kabushiki Kaisha Toshiba | Information processing device and information processing system |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10194035B2 (en) | 2014-04-29 | 2019-01-29 | Hewlett-Packard Development Company, L.P. | Imager calibration via modeled responses to importance-weighted color sample data |
WO2022176399A1 (en) * | 2021-02-19 | 2022-08-25 | キヤノン株式会社 | Image processing device, method, and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4864835B2 (en) * | 2007-08-21 | 2012-02-01 | Kddi株式会社 | Color correction apparatus, method and program |
-
2011
- 2011-02-08 JP JP2011024749A patent/JP5421939B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11328441B2 (en) * | 2017-10-27 | 2022-05-10 | Kabushiki Kaisha Toshiba | Information processing device and information processing system |
Also Published As
Publication number | Publication date |
---|---|
JP2012165232A (en) | 2012-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4072674B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP5620651B2 (en) | REPRODUCTION DEVICE, IMAGING DEVICE, AND CONTROL METHOD THEREOF | |
US9210398B2 (en) | Method and apparatus for temporally interpolating three-dimensional depth image | |
JP4283785B2 (en) | Stereoscopic image generation apparatus and program | |
KR101377325B1 (en) | Stereoscopic image, multi-view image and depth image acquisition appratus and its control method | |
CN102918861A (en) | Stereoscopic intensity adjustment device, stereoscopic intensity adjustment method, program, integrated circuit, and recording medium | |
JP5238767B2 (en) | Parallax image generation method and apparatus | |
JP6173218B2 (en) | Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching | |
JP2011203811A (en) | Image processing apparatus, image processing method, image processing program, and compound eye digital camera | |
JP5421939B2 (en) | Color correction apparatus, color correction method, and color correction program | |
US20130335524A1 (en) | Method and device for obtaining a stereoscopic signal | |
KR101868017B1 (en) | Method for stereo matching and apparatus thereof | |
KR101316196B1 (en) | Apparatus and method for enhancing stereoscopic image, recording medium thereof | |
US20140125778A1 (en) | System for producing stereoscopic images with a hole filling algorithm and method thereof | |
JP2014072809A (en) | Image generation apparatus, image generation method, and program for the image generation apparatus | |
JP4129786B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP6901424B2 (en) | Image processing device and image processing method | |
KR101233399B1 (en) | Method and apparatus for generating multi-view depth map | |
Gurbuz et al. | Color calibration for multi-camera imaging systems | |
Nam et al. | Hole‐Filling Methods Using Depth and Color Information for Generating Multiview Images | |
CN114331813A (en) | PossingGAN network-based image cloning method and system | |
JP5644862B2 (en) | Stereoscopic moving image generating apparatus, stereoscopic moving image generating method, stereoscopic moving image generating program | |
JP4165158B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP6332982B2 (en) | Image processing apparatus and method | |
JP2017184007A (en) | Image processing apparatus, imaging apparatus, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130911 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130917 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5421939 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |